Sei sulla pagina 1di 509

Note di Sistemi Dinamici

Mauro Lo Schiavo
Dipartimento di Scienze di Base e Applicate per l’Ingegneria
Sezione Matematica
Universitá degli Studi di Roma ”La Sapienza“
Via A. Scarpa, 16 00161 Roma
mauro.loschiavo@sbai.uniroma1.it

Vol. 12 - 2013
ISBN-A: 10.978.88905708/58

Licensed under
Attribution-Non-Commercial-No Derivative Works
Published by:
SIMAI - Società Italiana di Matematica Applicata e Industriale
Via dei Taurini, 19 c/o IAC/CNR
00185, ROMA (ITALY)

SIMAI e-Lecture Notes


ISSN: 1970-4429

Volume 12, 2013


ISBN-13: 978-88-905708-5-8
ISBN-A: 10.978.88905708/58
Indice

Prefazione V

Notazione VII

1 Equazioni Differenziali Ordinarie


Metodi Analitici 1
1.1 I termini del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Equazioni scalari autonome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 I teoremi fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4 Esempi e casi notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5 Equazioni lineari scalari del secondo ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.6 Ricerca di soluzioni per serie di potenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

2 Sistemi differenziali lineari 75


2.1 Il procedimento di linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.2 Sistemi differenziali lineari a coefficienti costanti, in R2 . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.3 Sistemi differenziali lineari a coefficienti costanti, in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2.4 Sistemi differenziali lineari a coefficienti variabili, in Rn . . . . . . . . . . . . . . . . . . . . . . . . . 125
2.5 La teoria di Floquet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

3 Equazioni Differenziali Ordinarie:


Metodi Qualitativi 147
3.1 Il piano delle fasi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3.2 Gli integrali primi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3.3 Il Teorema di Poincaré - Bendixon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
3.4 La discussione sul piano delle fasi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

4 Cenni di stabilità 189


4.1 La stabilità lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
4.2 Il metodo diretto di Liapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

5 Comportamento caotico dei Sistemi 227


5.1 La mappa quadratica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
5.2 Cenni di teoria delle biforcazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
5.3 “Classici” esempi di mappe caotiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
5.4 “Classici” esempi di flussi caotici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288

6 Alcuni Metodi Perturbativi 303


6.1 Gli sviluppi asintotici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
6.2 Metodi di Stiramento delle Coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
6.3 Il pendolo fisico e l’equazione di Duffing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
6.4 Ancora sull’equazione di Duffing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373

A 379
A.1 Richiami di Analisi Funzionale. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
A.2 Richiami di Analisi Funzionale. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
A.3 Richiami di Analisi Funzionale. ( III ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
A.4 Richiami di Geometria Differenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
A.5 Richiami di Algebra Lineare. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
A.6 Richiami di Algebra Lineare. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
A.7 Richiami di Analisi Reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
A.8 Richiami di Analisi Complessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
A.9 Disuguaglianza generalizzata di Gronwall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481

III
IV INDICE
Prefazione
Queste Note hanno avuto origine dall’esperienza fatta impartendo lezioni di matematica applicata, ed in particolare
il corso di Sistemi Dinamici, presso la facoltà di Ingegneria della “Sapienza” ormai fin dall’A.A. 1987/88.
Un’esperienza che, per il tipo ed il livello degli argomenti trattati, ha costituito una rara fortuna. Rara, perché
è opinione di molti che le attuali discipline scientifiche “standard”, ed in particolare quelle specificatamente rivolte
alla formazione matematica dell’ingegnere, siano ben più che sufficienti; fortuna, perché il dover presentare, e far
gradire, argomenti di matematica avanzata a giovani ben convinti della superiorità del fare rispetto al dire, mi ha
costantemente stimolato a svilupparne l’aspetto concreto a scapito di quello puramente speculativo.
I miei pochi ma fortemente motivati studenti mi hanno fatto chiaramente sentire che il loro interesse e perfino la
loro presenza in aula erano un premio, e che questo era rivolto non già alla materia, certo interessante soprattutto
se nelle mani dei suoi cultori, ma a quello che la materia avrebbe potuto in futuro rendere loro.
In tal modo mi sono trovato costretto ad un particolare impegno per mettere in luce gli aspetti essenziali, e
formativi, che potessero far loro rapidamente acquisire quella sensibilità matematica che non dovrebbe mancare a
chi, dal difficile mondo della matematica applicata vuole acquisire, o vorrà in seguito, i metodi talvolta avanzati
che sono indispensabili a risolvere problemi concreti.
Con questo spirito ho impartito il mio corso per tutti questi anni, anche in risposta alle richieste a me fatte dai
colleghi ingegneri.
Non trovando alcun testo adeguato a tale scopo, ed anche a causa della mia scarsa memoria che mi costringe
a preparare ogni argomento riscrivendolo quasi integralmente, iniziai a suo tempo a riempire pagine e pagine di
fitti appunti che si sono via via arricchiti ed ampliati. Di nuovo i miei studenti, dopo aver vanamente tentato di
interpretare il manoscritto, e disperati del dovere non solo decodificare il linguaggio matematico ma anche il mio
personale, mi convinsero della necessità di “ricopiare in bella” questa raccolta, e di trasformarla in qualcosa che
fosse di facile interpretazione e, possibilmente, di ancor più facile manipolazione.
L’esistenza dell’onnipresente computer, qui usato principalmente come compositore di stampa e per produrre
accettabili grafici, ed il piacere di rimaneggiare con poche battute tutto un argomento, hanno fatto il resto.
Di conseguenza, anno dopo anno, ed alla luce delle considerazioni fatte l’anno prima, mi sono scoperto rima-
neggiare, ampliare e rifinire un qualcosa che da disomogenea raccolta di lezioni è in definitiva diventato uno (spero)
comodo promemoria. Esso si rivolge, oltre che agli allievi del corso di Sistemi Dinamici, anche a chi voglia iniziare
a sopravvivere nella vasta ed intricata foresta delle metodologie proprie della matematica applicata; ed in parti-
colare a quelli che, senza farsi scoraggiare da qualche termine tecnico e “per soli introdotti”, vogliono raggiungere
una visione sintetica di alcuni dei principali argomenti della matematica (deterministica) applicata ai sistemi in
evoluzione.
Non mi è facile, dopo tanto rimaneggiare, rendermi conto dell’effettiva bontà del prodotto: alcuni argomenti
sono rimasti molto simili a quelli originari trovati sui vari libri in circolazione, altri invece sono stati rielaborati più
volte; e non tanto per partito preso, quanto perché a posteriori mi rendevo conto, dall’occhio triste e depresso della
mia platea, che l’approccio adottato, seppur squisito ed ineccepibile dal punto di vista teorico e formale, era stato
in realtà poco assaporato ed ancor meno digerito.
Va detto che a mia volta non mi sono facilmente arreso, e non credo di aver fatto illecite concessioni né al
rigore matematico né allo spessore della presentazione. Inoltre sapendo che, per molti dei miei studenti, alcuni
degli argomenti qui trattati lo sarebbero stati solo in questo corso, per favorirne la lettura ho talvolta indugiato
inserendo brevi e sintetici richiami a vasti e doviziosi aspetti delle corrispondenti teorie, dall’enorme profondità
concettuale ma dall’impossibile inserimento in piani di studio applicativi.
È evidente pertanto che queste note non hanno pretese di completezza o di dettaglio, viceversa cercano in
generale solo di rendere l’idea nel modo più semplice possibile pur rimanendo corretto. Gli argomenti trattati sono
stati solo rielaborati ed opportunamente tradotti, e non è stata mia intenzione apportare sostanziali modifiche
ad una materia già largamente codificata. Essi sono tutti presenti in monografie di ben altra ampiezza alle quali
si rimanda il lettore interessato. Tuttavia, la mole di esse e l’impegno necessario ad una loro anche solo iniziale
lettura, sono generalmente spaventevoli. Per avvicinarsi a queste note, invece, i prerequisiti sono assai modesti: un
buon corso di analisi matematica e le nozioni fondamentali di geometria sono sufficienti ad iniziarne la lettura, e
permettono di procedere con quelle ulteriori idee di analisi funzionale, algebra, e geometria, necessarie nel corso di
esse.
Roma 29 Maggio 2009

V
VI Prefazione
Notazione

Caratteri filettati spazi (con strutture); eventualmente spazi vettoriali


A cap. 1,2,5 spazio di funzioni
B cap. 1,2,4,a base di uno spazio
C cap. a spazio complesso
E cap. 3,5,a spazio vettoriale (euclideo)
G cap. 2,a varietà
H cap. 5,a spazio di Hilbert
K cap. 1,a campo numerico
L cap. 1,2,3,4,5,a spazio (vettoriale) di operatori lineari
M cap. 1,2,3,4,5,6 varietà (differenziabile)
P cap. 2,4,5,6 spazio prodotto
T cap. 2,3,5 toro
V cap. 1,2,3,4,5 spazio vettoriale
W cap. 2,4,5 spazio vettoriale o varietà
X cap. 1,3,5,6 spazio di punti o di funzioni
Y cap. 3,5 spazio di punti o di funzioni
N cap. 5 insieme dei numeri interi positivi
R cap. 1,2,3,4,5 insieme dei numeri reali
C cap. 1,2,3,4,5 insieme dei numeri complessi
Q cap. 1,2,3,5 insieme dei numeri razionali
Z cap. 1,2,4,5 insieme dei numeri interi

Caratteri normali
a, b, c, d, f, . . . costanti reali (o funzioni)
x, y, z, v, w punti su varietà (eventualmente vettori)
ψ, φ, χ, . . . funzioni reali di variabile reale, o funzioni su varietà;
i, j, k, n, ν indici interi
A, B, C, D, J, V, Γ insiemi (senza struttura) di punti o di funzioni
N (x) intorno del punto x
Br (x) sfera di centro x e raggio r
B Cap. a base di intorni
C(R1 , R2 ) insieme delle funzioni continue da R1 in R2
L1 (R1 , R2 ) insieme delle funzioni R1 → R2 con modulo Lebesgue-integrabile
L2 (R1 , R2 ) spazio di Hilbert delle funzioni con modulo quadro integrabile
ΓF 0 := F −1 (F 0 ) insieme di livello F 0 della funzione F
ε costante reale piccola
ϵ vettore (di base)
j(x) funzioni di Bessel
hn (x) polinomi di Hermite
p(x) polinomio
Γ(x) funzione speciale Γ
Φ(t) sistema fondamentale
Ψ(t) sistema delle evoluzioni dei vettori di base
Tx M spazio tangente la M in x

Altri caratteri
∂ operatore di derivata
T Cap. 1,2,3,4,5,6 periodo (durata) di tempo
[D] chiusura dell’insieme D
∂D frontiera dell’insieme D
{x} insieme costituito dal solo elemento x
⟨ a, b ⟩ prodotto scalare fra a e b
π i i-ma proiezione: π i (x) = xi

VII
VIII Notazione

Caratteri calligrafici
A, B, C, D, T , P operatori su varietà; (op. lineari se su spazi vettoriali)
G Cap. 1,2,3,a applicazione di avanzamento
I Cap. 3 applicazione di avanzamento

Caratteri maiuscoletto punti di uno spazio (affine o) fisico


a cap. 5
b cap. 5
c cap. 1,2,5
d cap. 5
o cap. 1,2,4,5,a
p cap. 1,2,5,a
q cap. 1
Ω cap. 1,5

Caratteri gotici e corsivo


A Cap. 5 attrattore
B Cap. 2,a forma bilineare
D Cap. 2,4 determinante, o divario
E Cap. 1,3,4,6 funzione energia meccanica
F Cap. 3,4,a funzione di Liapunov, o integrale primo
H Cap. 2,3,4,6 funzione hamiltoniana
G Cap. 5 Omomorfismo
I Cap. 5 Isomorfismo
L Cap. 2,3 funzione lagrangiana
K Cap. 2,4 tensore della metrica
χ Cap. 2,4 tensore della metrica
O Cap. 4 funzione omogenea
Q Cap. 1,4 forma quadratica
T Cap. 2,3,4,a energia cinetica
W Cap. 2,4 funzione wronskiano
V Cap. 1,2,3,6 energia potenziale

Caratteri math grossi


π Cap. 2,4 operatore parte quadratica dell’energia potenziale
ϕ Cap. 1,2,3,4 trasformazione di rettificazione, o di coordinate
g Cap. 5 generatore
s Cap. 5 ricoprimento
τ Cap. 5,a topologia
α Cap. 5 algebra
β Cap. 5 algebra
ℓ Cap. 5 linea
γ Cap. 3,5,a linea, cammino, bordo di superficie
φ Cap. a immagine di una curva
ψ Cap. a immagine di una curva, cammino
ω Cap. 3,4,5 insieme omega-limite

Caratteri grassetto
a, b, c, e, f , g n-ple di numeri reali: coordinate di vettori
α Cap. 2 n-pla di numeri reali
γ Cap. 2,a n-pla di numeri reali
ϵ Cap. 2,a n-pla di numeri reali
ζ Cap. 2,a n-pla di numeri reali
η Cap. 1,2.a n-pla di numeri reali
θ Cap. 2,5 n-pla di numeri reali
κ Cap. 2 n-pla di numeri reali
ν Cap. 1,2,3,5,a n-pla di numeri reali
Notazione IX

ξ Cap. 2,3,5,a n-pla di numeri reali


π Cap. 4 n-pla di numeri reali
σ Cap. 2,4,5 n-pla di simboli
τ Cap. 1,2,a n-pla di numeri reali
φ Cap. 1,2,3,5,a n-pla di numeri reali
χ Cap. 1,2 n-pla di numeri reali
ψ Cap. 1,2,3,5,a n-pla di numeri reali
ω Cap. 1,4,5,a n-pla di numeri reali
ρ Cap. 2,a n-pla di numeri reali
ϱ Cap. 2 n-pla di numeri reali
ϕ Cap. 1,2,3,5 n-pla di numeri reali
ℓ Cap. 3,a n-pla di numeri reali

Caratteri grassetto grossi


A, B, C, D, E n2 -ple di numeri reali: matrici n × n
T Cap. 1,2,.. matrice dell’operatore T
τ Cap. 2,4 altra matrice dell’operatore T
G Cap. 1 matrice dell’applicazione d’avanzamento
I Cap. altra matrice dell’applicazione d’avanzamento
Ω Cap. 2 matrice
Λ Cap. 2 matrice
Ξ Cap. 2,3 matrice
Π Cap. a matrice
Υ Cap. 2 matrice
Φ Cap. 1,2,a matrice di un sistema fondamentale
Ψ Cap. 1,2,5 matrice principale
b Cap. a matrice
c Cap. a matrice
f Cap. a matrice
q Cap. a matrice
a 2,4,a matrice della forma quadratica dell’energia cinetica
A 2,4,a matrice dell’operatore dell’energia cinetica
α Cap. 2 altra matrice dell’operatore dell’energia cinetica
β Cap. 2 altra matrice dell’operatore dell’energia potenziale
κ Cap. 2,4,a matrice della metrica
χ Cap. 2,4,a altra matrice della metrica
Σ Cap. a
ϕ Cap. a
Capitolo 1

Equazioni Differenziali Ordinarie


Metodi Analitici

1.1 I termini del problema


Nel seguito verranno usate le seguenti locuzioni con i significati (forse talvolta riduttivi) vicino espressi:
Sistema := l’oggetto in esame, che si assume caratterizzato mediante un insieme di grandezze che si possono
individuare tramite valori numerici e convenienti unità di misura.
Stato del sistema := una particolare scelta dei valori delle grandezze che descrivono il sistema.
Spazio delle fasi := collezione di tutti i possibili stati.
N.B. 1.1.1 Stato non significa necessariamente posizione o configurazione, e cioè un insieme di coordinate spaziali
o generalizzate, ma piuttosto l’insieme di tutte le variabili dalle quali il sistema risulta totalmente e definitivamente
caratterizzato (cfr. oltre). ♦

Sistema dinamico := la famiglia delle trasformazioni dello spazio delle fasi in sé che fanno passare da un certo
stato “attuale” ad un altro, “passato” o “futuro”, e che ha come indice il parametro “tempo”. Questo ha valori
reali t ∈ R per sistemi continui ed ha valori interi t ∈ Z per sistemi discreti, ed entrambi sono minori o maggiori
di zero, rispettivamente, per passato e futuro.
Sistema, o processo, deterministico := un sistema per il quale è possibile individuare, ed univocamente, il
passato ed il futuro a partire dal suo stato attuale. Si pretende cioè che il modello matematico che ne regola
l’evoluzione ammetta Esistenza ed Unicità della soluzione uscente da ogni possibile dato iniziale.
Di natura diversa sono, per esempio, i seguenti due processi.
Processo stocastico := una famiglia di funzioni definite sullo spazio delle fasi (con struttura di spazio di misura),
dette variabili casuali, integrabili su comodi insiemi, detti eventi, indiciata dal parametro temporale t. Le
transizioni fra due istanti, cosı̀ come il valore degli integrali, possono essere regolati da convenienti misure di
probabilità (stabilite apriori o dedotte da osservazioni di esperimenti quali, per esempio, il lancio di un dado, la
lunghezza di un messaggio, l’applicazione di una qualche matrice di transizione, etc.). Tuttavia, tali transizioni
possono anche essere deterministiche, e solo le variabili non esserlo.
Processo ereditario := l’intero passato del sistema determina (o influisce) sul suo futuro.

Un esempio di sistema deterministico di evidente importanza è quello di un


Sistema meccanico a dimensione finita := lo stato è assegnato mediante la coppia (x, ẋ), x, ẋ ∈ Rn , dove
le x (o anche q ) sono un insieme di coordinate spaziali (o generalizzate) che individuano la configurazione del
sistema; la sola x non lo renderebbe deterministico.
Sistemi evolutivi deterministici nella loro descrizione matematica (anche se possono non esserlo i modelli dei
sistemi fisici che essi interpretano) e di “dimensione infinita” sono per esempio i sistemi continui, i sistemi quantistici,
i sistemi cinetici, etc. Per essi lo spazio delle fasi è un conveniente spazio funzionale, magari discreto.
Nel seguito ci si occuperà solo di sistemi con spazio delle fasi a dimensione finita. In particolare, si tratteranno
principalmente sistemi definiti su spazi (a dimensione finita e) convenientemente regolari: M aventi struttura di
varietà differenziabili, (e cioè localmente Rn , vedi oltre). I punti di questi, rappresentanti i possibili stati del sistema,
verranno indicati con lettere minuscole in caratteri normali; le loro rappresentazioni in un qualche fissato sistema coordinate, e quindi
formate da n -ple ordinate di numeri reali, dalle stesse lettere in caratteri grassetto. Quando invece si vorrà rimarcare il carattere
puntuale dello spazio, in particolare dello spazio fisico tridimensionale, e distinguere (fissata la carta) un certo punto dello spazio dal
vettore di posizione che gli corrisponde, quest’ultimo verrà indicato con il sopra-simbolo di vettore, o anche con la coppia di punti che


ne individuano gli estremi: per esempio op invece di quell’elemento p ∈ M le cui coordinate (fissata la carta) sono assegnate dalla
n -pla p ∈ R delle componenti del vettore di estremi (fissato il riferimento) il punto p e l’origine o .
n

1
2 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Processo differenziabile := un sistema deterministico con spazio delle fasi avente la struttura di Varietà dif-
ferenziabile, o “Manifold”: M, (si veda: Appendice A.4), e la cui evoluzione è in esso descritta da funzioni:
g : (t, x0 ) ∈ R &→ g(t, x0 ) ∈ M differenziabili.
Più spesso con questo aggettivo si intende la prima di queste proprietà, e la seconda solo rispetto al dato:
x0 ∈ M.
Verranno ora introdotte, con maggiori dettagli, le proprietà essenziali di un possibile modello per un processo
differenziabile a dimensione finita che sia stazionario, e cioè tale da non contenere un transitorio dipendente dal
particolare istante iniziale.
Si considera innanzi tutto una varietà M come spazio delle fasi, ed un punto x ∈ M che rappresenti lo stato
del sistema in un certo istante t0 .
Come si è detto, l’evoluzione fra t0 e t è modellata da una trasformazione dello spazio delle fasi in sé, detta
onto
Applicazione d’avanzamento o Operatore d’evoluzione Gtt0 : M −→M :=
una mappa univocamente definita su tutto M ed a valori su tutto M, che fa corrispondere a ciascun x ∈ M il suo
evoluto Gtt0 x dopo l’intervallo di tempo [t0 , t].
Affinché una famiglia {Gtt0 }t∈R di tali applicazioni d’avanzamento possa rappresentare una evoluzione del
sistema con le proprietà richieste, è necessario che su tutto M
per il determinismo, sussista la: Gtt01 = Gtt1 Gtt0 , ∀t0 , t1 , t ∈ R;
per la stazionarietà, sussista la: Gtt+τ = G0τ =: G τ , ∀τ, t ∈ R.
Queste proprietà insieme forniscono:

G t+τ = G t G τ = G τ G t , ∀τ, t ∈ R . (1.1)

Gruppo ad un parametro di evolutori := {G t }t∈R una famiglia di applicazioni d’avanzamento G t : M → M


tali che
G t+τ = G t G τ ∀τ, t ∈ R, G 0 = 1I .
A volte ci si dovrà limitare a
Gruppi locali, ad un parametro := famiglie di trasformazioni che verificano la legge di composizione gruppale
per valori del parametro t solo in convenienti sottoinsiemi (connessi) di R;
o addirittura (vedi oltre) a famiglie di applicazioni d’avanzamento che non verificano la composizione gruppale,
e cioè per le quali Gtt12 ̸= G0t2 −t1 . In tali casi il sistema non è stazionario e la composizione Gtt34 Gtt12 è sicuramente
definita solo se t3 = t2 e se, ovviamente, sono definiti i fattori.
N.B. 1.1.2 In generale, infatti, non è detto che la Gtt34 Gtt12 sia un’ammissibile applicazione d’avanzamento, e cioè che
per una certa evoluzione G esistano t5 , t6 tali che l’assegnato sistema evolva fra t5 e t6 secondo la Gtt56 = Gtt34 Gtt12 .
Ma se t3 = t2 il determinismo assicura che ciò accade, almeno con t5 = t1 e t6 = t4 (e sempre che il secondo
membro sia definito: cioè sempre che esistano Gtt12 e Gtt24 ). Quando il sistema è stazionario, invece, per ogni τ ∈ R
ed arbitrari t, t0 si ha che
Gtt+τ
0 +τ
= Gtt0 o anche Gtt0 −τ = Gtt+τ
0

e l’esistenza dei due fattori G τ e G τ è sufficiente a garantire quella di G t G τ = G t+τ .


Le due proprietà, tuttavia, sono indipendenti fra loro; ad esempio l’evoluzione Gtt0 x0 := x0 t/t0 è deterministica
ma non stazionaria, mentre la Gtt0 x0 := x0 se t ≤ t0 e Gtt0 x0 := x0 (1 + t − t0 ) se t > t0 è stazionaria ma non
deterministica. Per ulteriori esempi si veda oltre. ♦

Un buon modello per un sistema differenziabile deterministico stazionario a dimensione finita è allora dato da
un:
Flusso di fase differenziabile := una funzione g : R × M → M definita per ogni t ∈ R ed x ∈ M dalla
g : (t, x) &→ G t x, con le ipotesi che g sia differenziabile ovunque in R × M e che {G t }t∈R sia un gruppo ad un
parametro di trasformazioni dello spazio delle fasi in sé.
Ne segue che G t è, per ogni t, un
Diffeomorfismo := una corrispondenza biunivoca differenziabile con inversa differenziabile.
Per esempio G t x := xt , con x ∈ R e t = 3 , non lo è perché (x1/3 )′ (0) non esiste.
Spazio delle fasi ampliato := lo spazio R × M delle coppie (t, x).

Moto uscente da x ∈ M in t = 0 := la funzione x ! : t ∈ R → x


!(t) ∈ M definita da x
!(t) = G t x, ove g :
(t, x) &→ G x ∈ M è un flusso di fase differenziabile.
t

M. Lo Schiavo
1.1. I termini del problema 3

Osservazione sulla notazione


• Ci si ricorda della scelta fatta del particolare x ∈ M relativo all’istante t = 0 con la locuzione: moto di
un “elemento” rappresentativo che all’istante t = 0 si trovi nel punto x dello spazio delle fasi M, o più
brevemente con moto di x. È però evidente che questo moto non corrisponde generalmente ad alcun tipo
di moto effettivo di alcun elemento materiale in alcuno spazio fisico.
• Inoltre è generalmente conveniente ricordare che il punto x è quello scelto all’istante t0 indicandolo con la
notazione x0 , ma si badi bene che tale punto è del tutto generale e deve poter essere scelto arbitrariamente
in tutto lo spazio delle fasi M.
• Accade poi spesso che il superscritto: “ ! ” della funzione x ! : J ⊆ R → M scompaia e che si confonda, nella
notazione, il punto x ∈ M con il valore assunto in t dalla funzione x ! e che coincide con il punto x stesso,
scrivendo cioè x = x(t) invece di x = x!(t). Tale notazione, impropria, è comune quando si voglia ricordare
esplicitamente e brevemente gli argomenti di una funzione, ed allora la locuzione “funzione φ(t, t0 , x0 )” può
perfino essere usata al posto di: funzione φ : (t, t0 , x0 ) &→ φ(t, t0 , x0 ) ∈ M.
! contenga, per esempio in qualità di coef-
In particolare ciò avverrà nel seguito quando un’equazione nell’incognita funzione x
ficienti, anche altre funzioni assegnate e generalmente non costanti: quando ciò non leda la chiarezza, queste ultime potranno
essere indicate con il simbolo riservato al loro valore in un punto. Per un sistema su Rn , per esempio, si scriverà
ẋ = c1 (t)x + c2 (t), con (t0 , x0 ) ∈ R × Rn ,
piuttosto che ⎧

⎪ x ! (t) ∈ Rn ;
! : t ∈ J ⊆ R &→ x = x



⎪ !1 : t ∈ I ⊆ R &→ c
c !1 (t),
d ⎨
!=c
x !1 x
!+c
!2 , con c1 (t) : x ∈ Rn &→ c1 (t)x ∈ Rn ;
dt ⎪


⎪ !2 (t) ∈ Rn ;
!2 : t ∈ I ⊆ R &→ c
c



(t0 , x0 ) ∈ R × Rn con x
! (t0 ) = x0 .
Nell’Appendice A.4 vengono poi date una motivazione ed una notazione anche più generali di queste.

Curva integrale := il Grafico del moto, e cioè la curva nello spazio delle fasi ampliato (R × M) costituita dalla
famiglia di coppie {(t, Gtt0 x0 )}t∈J⊆R .
N.B. 1.1.3 Il determinismo fa sı̀ che due curve integrali non si intersechino, e che ciascuna abbia una e una sola
intersezione con i piani t = cost. ♦

Nel caso in cui M ≡ R è lo spazio delle configurazioni, la curva integrale è il ben noto diagramma orario.
Se, ma non solo se (si veda: §III.1), {G t }t∈R è un gruppo, le curve integrali sono invarianti per traslazioni:
t → t + τ , (si veda: [Arnold I]):
Proposizione 1.1.1 Sia Hτ : (t, x) &→ (t + τ, x) l’operatore di traslazione lungo l’asse dei tempi nello spazio
delle fasi ampliato e {(t, G t x)}t∈R una curva integrale, con G t verificante la proprietà di gruppo: G t+τ = G t G τ .
Allora
{Hτ (t, G t x)}t∈R = {(t + τ, G t x)}t∈R è anch’essa una curva integrale.

Dimostrazione Dato che {G t }t∈R è un gruppo, esiste unico y = G −τ x, e quindi x = G τ y . Inoltre la stessa
t+τ
composizione G = G t G τ assicura l’esistenza di: G t x = G t+τ y . Quindi {(t + τ, G t x)}t∈R ≡ {(σ, G σ y)}σ∈R con
σ := t + τ .

G t+¿y

x
0 t ¿ (t+¿) 0 t ¿ (t+¿)
G ty

y= G -¿x

"

Curva di fase, o Orbita, uscente da x, o Traiettoria per x := l’Immagine del moto, e cioè il sottoinsieme di
M dato da γ := {Gtt0 x}t∈J ⊂ M.
N.B. 1.1.4 Se {G t }t∈R è un gruppo, le curve di fase non si intersecano (perché in caso contrario si potrebbero
sempre trovare due curve integrali che ad esse corrispondono e che si intersecano). ♦

Note di Sistemi Dinamici


4 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Le seguenti definizioni (si veda anche: [Arnold I]) riassumono le varie possibilità.
Sistema dinamico (deterministico stazionario differenziabile a dimensione finita) := la coppia (M, g) con M una va-
rietà differenziabile e g un flusso differenziabile.
Tuttavia, perfino nei casi di stazionarietà, ci si deve spesso limitare a:
Sistemi dinamici locali := (M, J0 , V0 , g) dove: M è una varietà differenziabile, J0 un intorno dell’origine
in R, V0 ⊆ M un conveniente intorno di un arbitrario punto x0 dello spazio delle fasi M, e g una funzione da
J0 × V0 in M tale che:

(i) per ciascun fissato t ∈ J0 , l’applicazione d’avanzamento G t : V0 → M definita da x &→ G t x := g(t, x) è un


diffeomorfismo;

! : J0 → M definito dalla t &→ x


(ii) per ciascun x ∈ V0 , il moto x !(t) := g(t, x) è una funzione differenziabile su
!(0) = x;
J0 e tale che x

(iii) per ogni x ∈ V0 si ha G t+τ x = G t G τ x per quei t, τ ∈ J0 per i quali il secondo membro è definito. Inoltre,
per ogni x ∈ V0 esistono N (x) ⊂ V0 e δ > 0 tali che G t G τ x′ è definito per ogni x′ ∈ N (x) e
|τ |, |t| < δ .

Nel caso non stazionario, il flusso di fase non è più invariante per traslazioni temporali: le curve integrali non è
detto siano più le traslate rigide l’una dell’altra secondo l’asse delle t (e le funzioni φ(t + c, t0 , x0 ) siano soluzioni
della stessa equazione della quale è soluzione la φ(t, t0 , x0 )). Per ogni applicazione d’avanzamento occorre allora
fissare l’esplicita coppia degli istanti di riferimento, e specificare il particolare intorno J × V0 ⊂ R × M del punto
(t0 , x0 ) vicino al quale si studia il sistema.
Un buon modello per l’evoluzione di un sistema deterministico non stazionario, nell’intorno di un punto (t0 , x0 ) ∈
R × M, consiste allora in una
Famiglia locale di applicazioni d’avanzamento su R × M := (M, J, V0 , &
g)
dove: M è una varietà differenziabile, J × V0 ⊆ R × M è un intorno del punto (t0 , x0 ) e g& , che verrà chiamato
Avanzamento locale, una funzione & g : J × J × V0 → R × M tale che, indicando con {t1 } il singleton {t′ ∈ R | t′ =
t1 } , si abbia:

(i) per ciascun (t, t1 ) ∈ J × J l’applicazione G&tt1 : ({t1 } × V0 ) → J × M definita da G&tt1 (t1 , x) := &
g(t, t1 , x) è un
diffeomorfismo da {t1 } × V0 in {t} × M;

(ii) per ciascun (t1 , x) ∈ J × V0 , il Moto uscente da x ∈ M in t1 , e cioè la mappa x !:t∈J ⊆R→x !(t) ∈ M
!(t)) := g&(t, t1 , x), è una funzione differenziabile su J e tale che x
definita nella (t, x !(t1 ) = x;

(iii) sussiste la: G&tt13 (t1 , x) = G&tt23 G&tt12 (t1 , x) se t1 , t2 , t3 ∈ J ed x ∈ V0 sono tali che il secondo membro è definito.
In tal caso, per ciascun (t1 , x) ∈ J × V0 esiste un intorno N (t1 ) × N (x) tale che il secondo membro continua
ad essere definito per ogni x′ ∈ N (x) e t2 , t3 ∈ N (t1 ).

Identificando con un unica M ogni “copia” dello spazio delle fasi, data per ogni t ∈ J da {t} × M, si ha che la
mappa G&tt12 : {t1 } × V0 → {t2 } × M individua la mappa Gtt12 : M → M di cui si è parlato precedentemente, e che
si riduce a G t2 −t1 quando il sistema è stazionario.

Tale identificazione permette anche di introdurre la


Componente spaziale dell’Avanzamento locale := la funzione φ : J × J × V0 &→ M definita dalla (t, φ(t, t1 , x))
:= g&(t, t1 , x). La sua restrizione a t e t1 fissati arbitrari in J è un diffeomorfismo Gtt1 da V0 in M, e la sua
restrizione a (t1 , x) fissati arbitrari in J × M è il moto x ! : J → M uscente da x in t1 e quindi definito da
!(t) := φ(t, t1 , x) ≡ Gtt1 x con x
t &→ x !(t1 ) = φ(t1 , t1 , x) = x, ed analoga proprietà per il suo valore a (t, x) fissati.
Posizione di equilibrio := punto unito di una famiglia di applicazioni di avanzamento, ovvero un punto che sia
esso stesso una traiettoria.
Qualora la varietà sia ad un numero infinito di dimensioni tale punto viene spesso chiamato “soluzione stazionaria”,
da non confondere però con un sistema stazionario.
Dato un moto x! : J ⊆ R → M definito, come si è detto, da x !(t) = Gtt0 x0
!(t) := φ(t, t0 , x0 ), ed indicata con x = x
la posizione occupata all’istante t dall’elemento rappresentativo che per t = t0 occupava il punto x0 , si definisce

M. Lo Schiavo
1.1. I termini del problema 5

Velocità di fase, nel punto x, individuata dal moto := la velocità ẋ che tale elemento rappresentativo possiede
nel punto x ed all’istante t; e cioè il valore della derivata
' '
d '' d ''
ẋ = !
x(t + τ ) = G t+τ x
dτ 'τ =0 dτ 'τ =0 t

essa dipende, come si vede, da x e da t e quindi, per ogni (t, x) ∈ J × V0 , durante una certa evoluzione individuata
da {Gtt0 }t∈J sussiste la
ẋ = v(t, x) , x ∈ M, v ∈ Tx M (1.2)
da interpretarsi come un legame (eventualmente dipendente dal tempo) che durante quella evoluzione sussiste
fra la posizione all’istante t e la velocità che in quello stesso istante compete ad un elemento in quella posizione.
Quando queste si intendano quali valori di funzioni del tempo, la (1.2) può essere interpretata come un’equazione
funzionale avente come incognita la funzione moto, ed infatti in tutti gli istanti t di definizione il moto risulta
verificare l’identità, ' '
d d '' t+τ d ''
!(t) ≡
x G x= G t+τ Gtt0 x0 ≡ v(t, x
!(t)). (1.3)
dt dτ 'τ =0 t dτ 'τ =0 t
In particolare, se la famiglia di trasformazioni forma un gruppo locale, e cioè se il sistema è stazionario, questa
velocità dipende solo dal punto e non dipende esplicitamente dal tempo; si ha infatti
' '
d '' t+τ d ''
G x≡ G τ x = v(x) .
dτ 'τ =0 t dτ 'τ =0

d'
'
N.B. 1.1.5 Per il momento, la funzione v : x &→ v(x) è individuata per componenti: v i (x) = dt t=0
xi (G t x);
e quando nel seguito si vorrà distinguere il caso scalare: dim M = 1 dal caso: dim M > 1 , lo si farà con la (usuale)
notazione: ẋ = v(x) nel primo caso e ẋ = v(x) nel secondo. Come già accennato tuttavia, (si veda: Appendice A.4
ed [Arnold 1]) questa differente notazione avrà anche il compito di distinguere l’equazione sul tangente alla varietà
dalla sua rappresentazione in coordinate. ♦

Si riassume tutto ciò nel seguente modo:

La terna (J, V0 , G) individua una famiglia di applicazioni d’avanzamento


{Gtt0 }t∈J , e questa definisce su J × V0 ⊆ R × M un campo vettoriale
v = v(t, x) ∈ Tx M. Il moto x !(·, t0 , x0 ) : J → M, definito dalla

!(t)) := (t, φ(t, t0 , x0 )) := (t, Gtt0 x0 ),


(t, x

è (una) soluzione dell’equazione differenziale associata al campo (o de-


finita dal campo):
ẋ = v(t, x) .

Con ciò si intende che esso è una funzione x ! : J ∈ R → M, differenziabile, tale che x
!(t0 ) = φ(t0 , t0 , x0 ) = x0 , e
!(t)) è definito per ogni t ∈ J e vi risulta
tale che v(t, x
d
!(t) = v(t, x
x !(t)) ∀t∈J .
dt

Osservazione fondamentale nello studio dei sistemi dinamici:


sotto certe condizioni è vero il viceversa: certi campi vettoriali sono tali da ammettere ed individuare una famiglia
{G t }t∈R che è un gruppo ad un parametro.
Più in generale:
se il campo v = v(t, x) è differenziabile in un aperto D ⊆ R × M si può mostrare (si veda: §I.3) che esiste una
famiglia locale di applicazioni d’avanzamento, e quindi un avanzamento locale &g relativo ad un conveniente intorno
J × V0 ⊆ D di un arbitrario punto (t0 , x0 ) interno al dominio D di regolarità del campo.

Memento 1.1.1 Dominio:= aperto, connesso, non vuoto. Qui, “aperto” nella topologia indotta dalla metrica
euclidea in R1+n .

Note di Sistemi Dinamici


6 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Sotto queste ipotesi infatti, la famiglia delle soluzioni x ! dell’equazione ẋ = v(t, x) uscenti in t1 dai punti x1
di V0 individua, al variare di (t1 , x1 ) in J × V0 , una funzione φ : J × J × V0 &→ M atta a definire mediante la
(t, φ(t, t1 , x1 )) =: g&(t, t1 , x1 ) un avanzamento locale g& in quanto si vedrà che:

(i) G&tt1 (t1 , ·) := φ(t, t1 , ·) è un diffeomorfismo da {t1 } × V0 in {t} × M;

(ii) per costruzione, il flusso & !(·) tale che


g(·, t1 , x1 ) è compatibile con un moto x
(
ṫ =1
t &→ x
!(t) è soluzione di e verifica: g&(t1 , t1 , x1 ) = x
!(t1 ) = x1 ;
ẋ =v(t, x),

(iii) g&(t3 , t2 , g&(t2 , t1 , x)) = g&(t3 , t1 , x) lı̀ dove tali operazioni sono definite.

Nel seguito, purché ciò non dia adito a dubbi, non solo la x ! ma anche la funzione φ verrà chiamata soluzione
dell’equazione ẋ = v(t, x). Ciò per motivi di brevità, e vuole ricordare non solo che per (t0 , x0 ) fissati in J × M
!(t) := φ(t, t0 , x0 ) = Gtt0 x0 ∈ M verifica su J la (1.2) e la condizione x
! il cui valore in t è x
la x !(t0 ) = x0 ∈ M, ma
anche che al variare di (t0 , x0 ) ∈ J × V0 e per t fissato, il punto x = x !(t) varia in modo (almeno) continuo in M.
Inoltre, come si è già accennato, la notazione con il superscritto “ ! ” verrà abbandonata a meno che essa sia
strettamente indispensabile. Per esempio, quando non vi siano dubbi sul punto (t0 , x0 ), si preferirà indicare la x !(t)
con x(t).

Esempio 1.1.6 ẋ = kx, k, t0 , x0 ∈ R ⇒ x(t) = ek(t−t0 ) x0 .

x
v(x)

x0

x t
#

Esempio 1.1.7 Si consideri l’equazione

ẍ = k , con k ∈ R (1.4)

La sua soluzione generale si può trovare integrando direttamente due volte l’equazione stessa. Scelti t0 , x0 , ẋ0
arbitrari in R si ha
1
ẋ(t) = k(t − t0 ) + ẋ0 , e x(t) = k(t − t0 )2 + ẋ0 (t − t0 ) + x0 . (1.5)
2
La (1.4) può essere trasformata nella seguente equivalente equazione, con ẋ0 ≡ y0 ∈ R,
) * ) x * ) * ) *) * ) *
ẋ v (x, y) y 0 1 x 0
ẋ ≡ = v(x) ≡ := = + , (1.6)
ẏ v y (x, y) k 0 0 y k

che mostra chiaramente la non linearità della (1.4).


Per brevità si ponga τ := (t − t0 ); la (particolare) funzione η(τ ) := kτ 2 /2 non dipende dai dati iniziali
(x0 , y0 ), si annulla con la sua derivata in τ = 0 , ed ha derivata seconda pari a k . La soluzione della (1.6),
equivalente alla (1.4), è esprimibile come segue
) * ) *) * ) 2 * ) 2 *
x(τ ) 1 τ x0 kτ /2 kτ /2 + τ y0 + x0
= + = . (1.7)
y(τ ) 0 1 y0 kτ kτ + y0

La curva di fase che in t0 = 0 passa, per esempio, per (0, 0) è il luogo


) * ) 2 *
x(t) kt /2 1 2
= e cioè x= y . (1.8)
y(t) kt 2k

M. Lo Schiavo
1.1. I termini del problema 7

y
y
(2)
y2 vx k
(1) x
y vx1
vx

Tale curva non è la traiettoria in uno spazio fisico, nel quale sia fissato un riferimento (o, ⃗e1 , ⃗e2 , ⃗e3 ), di un
−̈

elemento che si muova a partire da velocità iniziale nulla secondo l’equazione op = k⃗e1 ; infatti la parabola di volo,
che in questo caso degenera in una retta, e la parabola sul piano delle fasi sono curve in spazi diversi.
Si noti che con l’aggettivo generale qui sopra ricorda il fatto che le costanti (t0 , x0 , ẋ0 ) si riferiscono ai dati
iniziali del cosiddetto “problema di Cauchy” relativo all’equazione data, e per un flusso devono poter essere scelte
arbitrariamente in R × R2 .
È facile verificare che la soluzione (1.7) della (1.4) non solo è compositiva in modo deterministico:

φ(t2 , t0 ; x0 ) = φ(t2 , t1 ; φ(t1 , t0 , x0 )) , ∀({t0 , t1 , t2 }, x) ∈ D (1.9)

ma è anche stazionaria:

φ(t1 , t0 ; x0 ) ≡ φ(t1 − t0 , 0; x0 ) . ({t0 , t1 , t2 }, x) ∈ D (1.10)


) *
1 t
Infatti, indicata con Φ(t) la matrice: Φ(t) := e riconosciuto che sussistono l’identità:
0 1
) *) * ) *
1 t 1 τ 1 t+τ
Φ(t) Φ(τ ) = = = Φ(t + τ )
0 1 0 1 0 1

insieme con l’identità


) *) 2 * ) 2 * ) *
1 t kτ /2 kt /2 k(t + τ )2 /2
Φ(t)η(τ ) + η(t) = + = = η(t + τ ),
0 1 kτ kt k(t + τ )

si prova direttamente che il flusso Φ(t) x + η(t) è compositivo e stazionario:


) * ) *) * ) *
x(t) 1 t − t0 x0 k(t − t0 )2 /2
= +
y(t) 0 1 y0 k(t − t0 )
) * +) *) * ) *, ) *
1 t − t1 1 t1 − t0 x0 k(t1 − t0 )2 /2 k(t − t1 )2 /2
= + + .
0 1 0 1 y0 k(t1 − t0 ) k(t − t1 )

Alternativamente, la validità della (1.9) è facilmente provata se ci si serve della


- t
−1
φ(t, t0 , x0 ) ≡ Φ(t)Φ (t0 )x0 + Φ(t)Φ−1 (s) b(s) ds
t0

) * ) *
1 t −1 0
con la quale è possibile esprimere la soluzione (1.7) con Φ(t) = , Φ (s) ≡ Φ(−s), b(s) = , che
0 1 k
.t −1
danno: η(t) = 0 Φ(t)Φ (s) b(s) ds insieme con:

φ(t2 , t1 , φ(t1 , t0 , x0 ))
- t2
−1
= Φ(t2 )Φ (t1 )φ(t1 , t0 , x0 ) + Φ(t2 )Φ−1 (s) b(s) ds
t1
) - t1 * - t2
= Φ(t2 )Φ−1 (t1 ) Φ(t1 )Φ−1 (t0 )x0 Φ(t1 )Φ−1 (s) b(s) ds + Φ(t2 )Φ−1 (s) b(s) ds
t0 t1
- t2
−1
= Φ(t1 )Φ (t0 )x0 + Φ(t2 ) Φ−1 (s) b(s) ds .
t0

#
Note di Sistemi Dinamici
8 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

) *
y
Si ricordi comunque che il campo non è lineare: v(t, x1 + x2 ) ̸= v(t, x1 ) + v(t, x2 ), ed infatti la soluzione
k
(1) (2) (1) (2)
dell’equazione (1.4) non è somma di soluzioni: φ(t, x0 + x0 ) ̸= φ(t, x0 ) + φ(t, x0 ).
Esempio 1.1.8 Con k ∈ R e t0 , x0 ∈ R arbitrari si consideri l’equazione

ẋ = k(t − t∗ ) + ẋ∗ , per dati t∗ , ẋ∗ ∈ R . (1.11)

Innanzi tutto, l’equazione implica che, comunque siano stati scelti t0 , x0 ∈ R, risulta costante la differenza

ẋ − k t = ẋ∗ − k t∗ =: −k t̃ = ẋ0 − k t0 . (1.12)

Poi, e mediante la costante t̃ assegnata dalla equazione, si vede che la (1.11) assume la forma: ẋ = k(t − t̃) e
quindi ha soluzione:
1 1
x(t) = k(t − t̃)2 − k(t0 − t̃)2 + x0 (1.13)
2 2
o anche, introdotta nella (1.13) la costante (arbitraria) x̃ := −k(t0 − t̃)2 /2 + x0 ,
1
x(t) = k(t − t̃)2 + x̃ . (1.14)
2
La soluzione della (1.11), che dipende in modo essenziale dalle (sole) due costanti (t0 , x0 ) entrambe arbitrarie, è
compositiva ma non stazionaria; infatti dalla (1.13) segue la compositività
) *
1 1 1 1
k(t2 − t̃)2 − k(t1 − t̃)2 + k(t1 − t̃)2 − k(t0 − t̃)2 + x0
2 2 2 2
1 1
= k(t2 − t̃)2 − k(t0 − t̃)2 + x0 ,
2 2
ma anche che la condizione di stazionarietà: φ(t + c, t0 + c, x0 ) = φ(t, t0 , x0 ) non è verificata, in quanto
1 1 1 1
k(t + c − t̃)2 − k(t0 + c − t̃)2 ̸= k (t − t̃)2 − k (t0 − t̃)2
2 2 2 2
visto che (t2 − t20 ) ̸= (t − t̃)2 − (t0 − t̃)2 = (t2 − t20 ) + 2t̃(t0 − t).
In questa equazione le (t∗ , ẋ∗ ) non sono arbitrarie, come invece erano nella prima delle (1.5) trovata durante
il procedimento di risoluzione dell’equazione (1.4), e quella, come tale, non può essere risolta da sola ma solo
come seconda componente della (1.7). In primo luogo ciò comporta, tramite la (1.12), che la ẋ0 non può essere
scelta arbitrariamente, come invece accadeva nel caso della (1.5), in secondo luogo si ha che il valore della ascissa
temporale non è più scelto arbitrariamente in R, ma occorre riferirlo al valore assegnato t∗ , e l’istante in cui la ẋ
si annulla esiste, unico, ed è indipendente dalle scelte arbitrarie dei dati iniziali.

x
x0
x0

e
x

et t0 t
#

Esempio 1.1.9 Con k, t0 , x0 ∈ R si consideri l’equazione


/
ẋ = 2k(x − x̃) , per un dato x̃ ∈ R+ . (1.15)

Questa equazione si può facilmente ricavare come conseguenza sia della (1.11) che della prima delle (1.5); a tale scopo
è sufficiente riscrivere queste ultime nella forma ẋ = k(t−t̃) che dà la (1.14) dalla quale segue k 2 (t−t̃)2 = 2k(x−x̃).
Tuttavia, anche qualora la costante x̃ venga considerata come una costante arbitraria, la (1.15) non è equivalente
né alla (1.11) né alla (1.4). Infatti

• essa contiene solo una delle due possibili determinazioni della radice quadrata;

M. Lo Schiavo
1.1. I termini del problema 9

• un qualunque valore prescelto per la x̃ permette come soluzione possibile della (1.15) la funzione costante
x(t) = x̃, cosa questa non vera per le altre due citate equazioni;

• non ammette soluzione unica.

• la x0 non è più del tutto arbitraria in R.

Ove possibile, la sua soluzione generale si ricava per separazione di variabili (vedi oltre) dalla

√ - x 0√ / 1

(t − t0 ) 2k = √ = 2 x − x̃ − x0 − x̃ .
x0 ξ − x̃
/ √
Ponendo ẋ0 := 2k(x0 − x̃) e moltiplicandola per k/ 2 questa fornisce (insieme con la (1.15)) la ẋ = ẋ0 /2 +
k(t − t0 ) e cioè la prima delle (1.5), da cui segue senz’altro la seconda:

1
x(t) = x0 + ẋ0 (t − t0 ) + k(t − t0 )2
2

la quale, come si è visto, è compositiva e stazionaria. Tuttavia essa, come soluzione della (1.15), non è unica a
meno di ridursi a considerare solo tempi t per i quali è x(t) > x̃ , e quindi in particolare localmente vicino a dati
per i quali x0 > x̃ . Si osservi d’altra parte che per ricavare la2(1.15) dalla (1.11), e cioè dalla (1.14), occorre derivare
/ / /
la k(t − t̃) = 2k(x − x̃) ovvero “semplificare” la k = k ẋ 2k(x − x̃) proprio per il termine ẋ ≡ 2k(x − x̃) .
Se, invece, la si vuole ricavare direttamente dalla (1.4) occorre moltiplicare quest’ultima per ẋ .

e
x

t
#

Esempio 1.1.10 Nuovamente come conseguenza sia della (1.11) che della prima delle (1.5) e con k, t0 , x0 , ẋ0 ∈ R
si può ricavare la
ẋ − ẋ∗
ẍ = , per fissati t∗ , ẋ∗ ∈ R (1.16)
t − t∗

La sua soluzione generale si trova per separazione di variabili (vedi oltre): dalla ln |ẋ − ẋ∗ | = ln |t − t∗ | + c si
ottiene (localmente)
ẋ0 − ẋ∗
ẋ = ẋ∗ + (t − t∗ ) (1.17)
t0 − t∗

che quindi:

• è compositiva ma non è stazionaria;

• non assegna necessariamente il valore k alla costante c = (ẋ − ẋ∗ )/(t − t∗ ) che, inoltre, dipende dai dati
iniziali e muta con essi: ciascuna soluzione evolve in modo da lasciare costante il rapporto d := (ẋ0 − ẋ∗ )/(t0 −
t∗ );

• impedisce che il dato t0 possa essere scelto uguale al valore t∗ presente nell’equazione.

Note di Sistemi Dinamici


10 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

t0 t

Infatti la (1.16), riscritta nella variabile ξ := ẋ , permette le seguenti valutazioni


ξ0 − ξ∗
ξ(t0 + t, t0 , ξ0 ) = Gtt00 +t ξ0 = ξ∗ + (t0 + t − t∗ ) =: η0
t0 − t∗
η0 − ξ∗
ξ(t0 + τ, t0 , η0 ) = Gtt00 +τ η0 = ξ∗ + (t0 + τ − t∗ ) =: η&
t0 − t∗
ξ0 − ξ∗
= ξ∗ + (t0 + t − t∗ )(t0 + τ − t∗ )
(t0 − t∗ )2
ξ0 − ξ∗
ξ(t0 + t + τ, t0 , ξ0 ) = Gtt00 +t+τ ξ0 = ξ∗ + (t0 + τ + t − t∗ ) =: η
t0 − t∗
ed il fatto che risulti
ξ0 − ξ∗
η& − η = (t − τ ) ̸= 0
(t0 − t∗ )2
mostra la non stazionarietà della soluzione. Essa è invece compositiva; si ha infatti:
η0 − ξ∗
Gtt00+t
+t+τ
η0 = ξ∗ + (t0 + t + τ − t∗ )
t0 + t − t∗
ξ0 − ξ∗ t0 + t − t∗
= ξ∗ + (t0 + t + τ − t∗ ) = Gtt00 +t+τ ξ0 .
t0 + t − t∗ t0 − t∗
Si osservi che fissare a priori una soluzione, e cioè fissare un (solo) dato iniziale implica il non distinguere la (1.16) dalla (1.4) (si veda
l’Esempio 1.6.2 più oltre); infatti, posto per definizione k := ξ0 − ξ∗ /(t0 − t∗ ) , le stesse relazioni qui sopra (ancora con ξ := ẋ )
sarebbero state:
Gtt00 +t ξ0 = ξ∗ + k (t0 + t − t∗ ) =: η0 ≡ ξ0 + k t
Gtt11 +τ η0 = ξ∗ + k (t1 + τ − t∗ ) =: η& ≡ η0 + k τ
Gtt00 +t+τ ξ0 = ξ∗ + k (t0 + t + τ − t∗ ) = η0 + k τ

Tuttavia il campo è lineare rispetto alla variabile ξ& := ξ − ξ∗ , e la d2 /dt2 di ciascuna soluzione è costante. #

Esempio 1.1.11 Con un procedimento analogo al precedente, dalla seconda delle (1.5) si può ricavare la

2(x − x∗ ) 2ẋ∗
ẍ = − , con k, t0 , x0 , ẋ0 , t∗ , ẋ∗ ∈ R . (1.18)
(t − t∗ )2 t − t∗

La soluzione di questa (siano t∗ = x∗ = 0 ) va trovata separando la parte omogenea (che è lineare) da quella
non omogenea (vedi oltre). La prima: ẍ = 2x/t2 è un caso particolare dell’equazione di Eulero e si trasforma,
con la posizione: τ := ln |t| e quindi t∂t = ∂τ e t∂t + t2 ∂tt 2
= ∂τ2 , nella x′′ − x′ − 2x = 0 la cui soluzione è
x(τ ) = c1 e−τ + c2 e2τ . Se ne deduce la soluzione dell’equazione omogenea (per t > 0 ):
) * ) * ) *
xom (t) c 1/t t2
= Φ(t) 1 con Φ(t) := .
ẋom (t) c2 −1/t2 2t

Analogamente a quanto visto nell’Esempio 1.1.7, e secondo quanto si vedrà più in dettaglio nel seguito, una soluzione
particolare della (1.18) è allora data da
- t ) *
0
xp (t) = Φ(t)Φ−1 (τ ) dτ
−2ẋ∗ /τ
- ) *) *) *
1 t 1/t t2 2τ −τ 2 0
= dτ
3 −1/t2 2t 1/τ 2 1/τ −2ẋ∗ /τ

M. Lo Schiavo
1.1. I termini del problema 11

e quindi
- t) *
2ẋ∗ τ t2
xp (t) = − 2 dτ = ẋ∗ t .
3 t τ
La soluzione della (1.18) risulta quindi (indicando semplicemente t, t0 , x, x0 invece di t−t∗ , t0 −t∗ , x−x∗ , x0 −x∗ )
) * ) * ) *
x(t) c1 ẋ∗ t
= Φ(t) + con
ẋ(t) c2 ẋ∗
) * ) * ) *
c1 x − ẋ∗ t0 1 2t0 x0 − t20 (ẋ0 + ẋ∗ )
= Φ−1 (t0 ) 0 = .
c2 ẋ0 − ẋ∗ 3 [x0 + t0 (ẋ0 − 2ẋ∗ )]/t20

È facile rendersi conto che questa soluzione non è certo stazionaria, dato che Φ(t)Φ(τ ) ̸= Φ(t + τ ); essa tuttavia è
compositiva, come si può facilmente controllare. Inoltre, la sua derivata seconda non è detto sia costante salvo che
per quei dati iniziali per i quali la c1 risulta nulla. Anche in tal caso, non è certo detto che la costante sia proprio k ,
salvo che solo per opportuni dati iniziali, infatti c1 = 0 implica x(t) = c2 t2 + ẋ∗ t con t20 c2 = ẋ0 t0 − x0 ≡ x0 − t0 ẋ∗
e quindi la residua arbitrarietà dei dati certo permette c2 ̸= k/2 . #

Nota 1.1.1 Si vede bene, dagli esempi precedenti, che il trasformare un’equazione in un’altra spesso non è una
operazione semplice o gratuita. Per ottenere equazioni equivalenti a quelle dalla quale si è partiti occorre che la
trasformazione sia di tipo particolare (si veda la discussione sulla equivalenza fra campi, nel Cap.3). ◃

Esempio 1.1.13 L’oscillatore armonico lineare con t0 , x0 , y0 , ω ∈ R:


) * ) x * ) *
ẋ v (x, y) y
ẋ ≡ = v(x) ≡ := .
ẏ v y (x, y) −ω 2 x

Si ponga τ := (t − t0 ). Una soluzione è data da


) * ) * ) *) *
x(τ ) x0 cos ωτ + yω0 sin ωτ cos ωτ + ω1 sin ωτ x0
τ &→ = = ,
y(τ ) −ωx0 sin ωτ + y0 cos ωτ −ω sin ωτ + cos ωτ y0
) * ) *) * ) *
ẋ 0 1 x 1
infatti dalla = si ricava (si veda: Cap. II) ϵ(iω) = e quindi
ẏ −ω 2 0 y iω
) * ) *) *) *) *
x(τ ) 1 0 cos ωτ − sin ωτ 1 0 x0
τ &→ = .
y(τ ) 0 −ω sin ωτ cos ωτ 0 −1/ω y0

Memento 1.1.1 La velocità che compare a secondo membro della (1.2) è quella euleriana: è un campo vettoriale
dipendente esplicitamente dal tempo e dalla posizione. La soluzione t &→ x !(t) := φ(t, t0 , x0 ) ∈ R3 descrive il moto
di un elemento che, avendo attraversato in t0 il punto x0 ∈ R , all’istante t si trova nel punto φ(t, t0 , x0 ) = x
3

con velocità v(t, x). x0 sono le coordinate identificative, secondo Lagrange.


Le Linee di flusso, o “stream lines” o “linee di campo” sono definite, istante per istante, come le linee che
all’istante t passando per un punto x, hanno in x tangente parallela a v(t, x). Si supponga per esempio x :=
(x1 , x2 , x3 ) ∈ R3 ; la loro rappresentazione, in forma cartesiana e relativa all’istante t, si trova risolvendo le
equazioni (vedi oltre):

dx1 dx2 dx3


= = , x1 , x2 , x3 ∈ R , (1.19)
v 1 (t, x1 , x2 , x3 ) v 2 (t, x1 , x2 , x3 ) v 3 (t, x1 , x2 , x3 )

e quindi risultano ∞2 distinte; si noti che t rimane come parametro fissato.


Le “linee di corrente”, o “traiettorie”, o “path lines”, sono le linee descritte dagli elementi durante il loro moto.
Esse pertanto sono individuate ciascuna da uno dei punti del sistema e, nel caso di un moto in R3 , sono ∞3 : tanti
quanti sono gli x10 , x20 , x30 . La loro rappresentazione cartesiana si trova eliminando t dalla loro rappresentazione
parametrica: la soluzione: x = x !(t) := φ(t, t0 , x0 ) dell’equazione ẋ = v(t, x).
Per esempio in un moto rigido traslatorio arbitrario le linee di flusso sono in ogni istante rette parallele fra loro
e le linee di corrente sono curve sovrapponibili. Allo stesso modo, in un moto rigido qualunque le linee di flusso

Note di Sistemi Dinamici


12 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

sono in ogni istante delle eliche cilindriche. Per vederlo, si scelgano gli assi in modo che sia ω = (0, 0, ω), e siano
z
vΩ la velocità di un punto Ω dello spazio mobile, e vΩ ̸= 0 . L’equazione è
⎛ ⎞ ⎛ x⎞ ⎛ ⎞ ⎛ ⎞
ẋ vΩ −ω(y − yΩ ) −ω(y − yC )
⎝ẏ ⎠ = ⎝vΩ y⎠
+ ⎝ ω(x − xΩ ) ⎠ =: ⎝ ω(x − xC ) ⎠
z z
ż vΩ 0 vΩ
( y
xc : = xΩ − vΩ /ω, x y z z
ove si è posto x Si osserva innanzi tutto che vc = vc = 0 e che vc = vΩ =: µ, e ciò per
yc : = yΩ + vΩ /ω.
(
ξ : = x − xc
qualsiasi zc arbitrario. Poi, introdotte le si vede che l’equazione diviene
η : = y − yc
(
ξ̇ = −ω η
insieme con z(t) = µ (t − t0 ) + zc
η̇ = ω ξ
ovvero
d(x − xc ) d(y − yc ) d(z − zc ) dt dθ
= = = =: .
−ω(y − yc ) ω(x − xc ) µ 1 ω
Pertanto essa può essere trasformata nella
d2 ξ ω
+ξ =0 con θ=(z − zc ) .
dθ2 µ
) * ) *) * ) *
ξ cos θ − sin θ ξ0 xc + ξ0
In definitiva, tramite l’Esempio 1.1.13 si ottiene = , e si osservi che
η sin θ cos θ η0 yc + η0
sono le coordinate dei punti intersezioni delle linee di flusso con il piano (arbitrario ma fissato) z = zc . Le
corrispondenti linee di flusso hanno equazioni parametriche date dalle
x(θ) = xc + ξ0 cos θ − η0 sin θ ω
con θ = θ(z) = (z − zc )
y(θ) = yc + ξ0 sin θ + η0 cos θ µ

In entrambi i casi, invece, le linee di corrente sono curve varie, almeno una delle quali arbitraria. Se il sistema
è stazionario le due famiglie di linee coincidono.
In ogni caso ed in ogni istante esse risultano tangenti fra loro perché tangenti alle velocità.

È facile verificare che gli operatori di evoluzione di)tutti *


e tre gli Esempi)1.1.6,*1.1.7, 1.1.13 verificano le proprietà
1 t t2 /2
di gruppo. Per esempio nel caso 1.1.7, posto Φ(t) := e η(t) = −k , si nota che Φ(t)Φ(τ ) = Φ(t+τ )
0 1 t
e che Φ(t)η(τ ) + η(t) = η(t + τ ), e quindi che G t x := Φ(t)x + η(t) verifica la proprietà.

1.2 Equazioni scalari autonome


Una campo si dice autonomo quando non dipende esplicitamente dalla variabile indipendente. In dimensione uno
si ha allora il seguente problema

ẋ = v(x) , x0 ∈ R, v ∈ C r≥0 (D ⊂ R) . (2.20)

! dato da x
Risolvere l’equazione significa determinare il moto x !(t) := φ(t, t0 , x0 ), o alternativamente tracciare la
curva integrale, che per un qualunque t0 passa per un (arbitrario) x0 , e che, in x, è inclinata di v(x).

Teorema 1.2.1 (si veda: [Arnold 1]) Sia v : R → R definita su un intervallo V0 := (x1 , x2 ) ⊆ R, e differenziabile
con derivata limitata in V0 . Per ogni (t0 , x0 ) ∈ R × V0 , l’equazione ẋ = v(x) ammette una soluzione t &→ x !(t) :=
φ(t, t0 , x0 ) tale che φ(t0 , t0 , x0 ) = x0 .
Se v(x0 ) = 0 la soluzione è t &→ φ(t, t0 , x0 ) = x0 . Se v(x0 ) ̸= 0 , esiste un intorno N (x0 ) ⊂ V0 nel quale la
soluzione è definita implicitamente dalla
- x

t − t0 = =: ψ(x) − ψ(x0 ). (2.21)
x0 v(ξ)

Due soluzioni uguali in t0 , rimangono tali in tutto un intorno N (t0 ).

M. Lo Schiavo
1.2. Equazioni scalari autonome 13

Dimostrazione (inizio)
Se v(x0 ) = 0, x !(t) := φ(t, t0 , x0 ) = x0 verifica equazione e condizioni iniziali.
Se v(x0 ) ̸= 0 , la funzione 1/v(x) è definita e continua in un conveniente N (x0 ). La sua primitiva ψ(x) esiste,
unica, differenziabile in N (x0 ), ed è ψ ′ (x) = 1/v(x) ̸= 0 . Esiste quindi, su un certo N (t0 , x0 ), la funzione inversa
x=x !(t) := ψ −1 (t − t0 + ψ(x0 )) che vale x0 in t = t0 (ovvero ψ(! x(t)) = t − t0 + ψ(x0 )). Tale funzione ha derivata
'
d 1 '
'
!(t) = d
x ' = v(!x(t)).
dt dx ψ(x)
'
x=x̂(t)

"

In tal modo è stata dimostrata l’unicità locale solo se v(x0 ) ̸= 0 ; e non è stata usata la differenziabilità della v .
In effetti, in tale ipotesi più debole, se v(x0 ) = 0 la soluzione t &→ x !(t) := φ(t, t0 , x0 ) =
. xx0 può non essere unica.
Può accadere infatti che, sebbene sia v(x0 ) = 0 , eppure l’integrale (improprio) t − t0 = x0 dξ/v(ξ) =: ψ(x) − ψ(x0 )
esista finito per x ∈ V0 ; in tal caso le due funzioni x!1 (t) := ψ −1 (t − t0 + ψ(x0 )) ed x !(t) = x0 risultano entrambe
soluzioni del problema (2.20).

Esempio 1.2.1 ẋ = 1 − x2 , t0 , x0 ∈ R, con |x0 | ≤ 1 .
Sia (t0 , x0 ) = (t0 , −1). Il problema ha soluzioni per non solo:

t &→ x
!(t) = −1 per ogni t,

ma anche : ⎧

⎨−1 per t − t0 ≤ 0
t &→ x
!(t) = − cos(t − t0 ) per t − t0 ∈ [0, π]


+1 per t − t0 ≥ π ,
x

t0 t

ed anche, per un qualunque t1 > t0 ,




⎨−1 per t − t1 ≤ 0
!(t) = − cos(t − t1 ) per
x t − t1 ∈ [0, π]


+1 per t − t1 ≥ π .

Esempio 1.2.2 ẋ = x2/3 , t0 , x0 ∈ R , t0 = x0 = 0 .


Il problema ha soluzione non solo t &→ x !2 (t) = 0 ma anche molte altre, per esempio, scelti arbitrariamente due
istanti t1 e t2 tali che t1 ≤ t0 ≤ t2 , è soluzione la
⎧7 8
t−t1 3

⎨ 3 per t ≤ t1 ≤ t0
!(t) = 0
x per t1 ≤ t ≤ t2

⎩7 t−t2 83
3 per t0 ≤ t2 ≤ t

e cioè diverse funzioni per diverse scelte degli istanti t1 , t2 ∈ R. #

È chiaro d’altra parte che la perdita di unicità della soluzione non dipende dal dato iniziale t0 = x0 = 0 che qui
si è scelto,
. x̄ma solo dal fatto che in un qualche x̄ il campo si annulla in modo tale da rendere convergente l’integrale
t̄ − t0 = x0 dξ/v(ξ) =: ψ(x̄) − ψ(x0 ). In tal caso la ψ −1 (t − t0 + ψ(x0 )) e la funzione costante in x̄ sono soluzioni
dell’equazione ed hanno medesimo valore: x̄ nel medesimo istante: t̄
Esempio 1.2.3 (continuazione dell’Esempio 1.2.2)

Note di Sistemi Dinamici


14 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

1/3
Per t0 ed x0 arbitrari (sia per esempio x0 > 0 ), scelto comunque τ ∈ R tale che τ ≥ x0 , la funzione
⎧7 83
⎪ t−t0
⎪ +τ per t − t0 ≤ −3τ
⎨ 3
1/3
!(t) = 00
x per t − t0 ∈ [−3τ, −3x0 ]

⎪ 13
⎩ t−t0 + x1/3 per t − t0 ≥ −3x0
1/3
3 0

è soluzione dell’equazione e verifica le condizioni iniziali. Il problema però non è deterministico in quanto esistono
1/3
istanti (ciascuno degli istanti nell’intervallo [t0 − 3τ, t0 − 3x0 ]) nei quali due distinte soluzioni assumono lo stesso
valore x̄ = 0 , e pertanto tale punto evolve in modo non univoco.
x

x0

t0{3¿ t0{3x01/3 t0 t

In modo analogo si riconosce che sono non univoche, per t > 0 , tutte le soluzioni dell’equazione ẋ = x1/3
per le quali x0 = 0 . Esse infatti possono valere x(t) = 0 per t ≤ τ , per un qualsiasi fissato τ > 0 , e x(t) =
3/2
± (2(t − τ )/3) per t > τ . #

Se si confrontano gli esempi 1.2.1 e 1.2.2 con l’esempio 1.1.6 si osserva che, pur avendo tutti in comune il fatto
che i loro campi ammettono un punto x̄ tale che v(x̄) = 0 , tuttavia il campo dell’esempio 1.1 è, in tale punto, del
tutto regolare; viceversa i campi degli esempi 1.2.1 e 1.2.2 non solo si annullano in qualche punto x̄ dell’aperto D
ma, in più, sono in esso non differenziabili. Essi sono critici per quanto riguarda l’unicità.
In particolare non esiste k ∈ R+ tale che

|v(x) − v(x̄)| ≡ |v(x)| ≤ k |x − x̄| , ∀x ∈ N (x̄) . (2.22)

Lemma 1.2.1 Siano x̄ ∈ R ed N (x̄) un intorno di x̄. Siano poi v1 , v2 ∈ C 0 (N (x̄)) e tali che v1 (x̄) = v2 (x̄) =
0 e che v1 (x) < v2 (x), ∀x ∈ N (x̄)\ {0}. Se φ1 e φ2 sono soluzioni rispettivamente di ẋ = v1 (x) per
t ∈ J1 e di ẋ = v2 (x) per t ∈ J2 tali che φ1 (t0 ) = φ2 (t0 ) = x0 ∈ N (x̄) allora risulta:

φ1 (t) ≤ φ2 (t) per t ∈ [t0 , +∞) ∩ J1 ∩ J2 ,


φ1 (t) ≥ φ2 (t) per t ∈ (−∞, t0 ] ∩ J1 ∩ J2 ,

almeno fintanto che φ1 (t) e φ2 (t) sono in N (x̄).

Dimostrazione Si dimostrerà la seconda delle due; l’altra è del tutto


9 analoga.
' Per ipotesi v1 (x0 ) < v2 (x0:
) e
quindi, in un intorno sinistro di t0 , si ha φ1 (t) > φ2 (t). Sia τ := inf t′ ' per t ∈ (t′ , t0 ] si ha φ1 (t) ≥ φ2 (t) .
La continuità delle φ implica che, se τ ∈ J := J1 ∩ J2 , allora φ1 (τ ) = φ2 (τ ). L’ipotesi sui campi implica allora che
φ̇1 (τ ) < φ̇2 (τ ), e pertanto anche in un intorno sinistro di τ deve essere φ1 (t) > φ2 (t), il che contraddice l’assunto
che τ sia un estremo inferiore in J . "

Ne segue che se v ammette una costante che verifichi la (2.22), ed a maggior ragione se la v è differenziabile con
derivata limitata in N (x̄), allora le curve integrali {(t, φ(t, t0 , x0 ))}t∈J che in t0 passano per (t0 , x0 ), sia x0 > x̄,
rimangono per t < t0 inferiormente limitate dalla curva integrale, passante per lo stesso punto, dell’equazione
ẋ = k(x − x̄). Questa ha soluzione:

t &→ φ̄(t, t0 , x0 ) = x̄ + ek(t−t0 ) (x0 − x̄)

ed è quindi strettamente maggiore di x̄ per ogni t > −∞ se tale è stata in t0 , e cioè se, come si è supposto,
x0 > x̄.

M. Lo Schiavo
1.2. Equazioni scalari autonome 15

Á=Á2
x Á=Á1
x0

x
t0 t

Dimostrazione (del Teorema 1.2.1 fine) Si riconosce cosı̀ che se il campo v verifica la (2.22) allora la
soluzione costante x = x̄(t) := φ(t, t0 , x̄) = x̄ rimane separata da qualunque altra soluzione t &→ x(t) := φ(t, t0 , x0 )
che in qualche istante sia stata diversa da x̄ , e quindi consegue che essa rimanga unica.
[La condizione dell’esistenza della costante k, che è la Lip (x̄), è più debole della condizione che il campo sia loc.Lip (N (x̄)) (che
coincide (si veda: [Royden V.4.16]) con l’esistenza q.o. in N (x̄) e limitatezza della |v′ | ); quest’ultima, più agevole, condizione è quella
che verrà richiesta nel caso generale, non autonomo o con dim M > 1 , vedi oltre. Qui si sfrutta il fatto che per un’equazione autonoma
in R la non unicità può avvenire solo in punti fissati, nei quali il campo si annulla]. "

In definitiva, se v(x̄) = 0 l’unicità dipende dalla rapidità con cui v(x) → 0 per x → x̄ . Se v si annulla
abbastanza rapidamente (cioè se |v(x)| ≤ O(|x|)) ciò non accade a φ(t) − x̄; l’unica soluzione per x̄ è la costante,
e ogni altra “non raggiunge in tempo” il valore x̄. La funzione 1/v(x) risulta non integrabile su (x0 , x].

N.B. 1.2.4 Quanto visto non permette di indurre che la soluzione sia definita per ogni t ∈ R, e di conseguenza
che G t , per un arbitrario fissato t, abbia come dominio l’intera retta. È però palese dalla (2.21) la proprietà di
gruppo (locale) della famiglia degli evolutori della (2.20). ♦

N.B. 1.2.5 Se il campo è regolare, e quindi c’è l’unicità, gli equilibri sono vere e proprie barriere che separano il
piano delle fasi ampliato e verso cui le soluzioni tendono asintoticamente per |t| → ∞. Inoltre è chiaro che fra un
equilibrio e l’altro la soluzione è monotona. ♦

Esempio 1.2.6 ẋ = sin x, t0 , x0 ∈ R.

Si ponga τ := tan x2 . Se x0 ̸= 0 , si ha che


0x1 1 0 x1 dτ 1 + τ2 dx
d =
tan 1 + tan2 dx ⇒ = dx = ,
2 2 2 τ 2τ sin x
' 0 x 1' ' 0 x 1'
' ' ' 0 ' t−t0
il che fornisce 'tan ' = 'tan ' e . Il fatto che la funzione sin x si annulli solo nei punti xe = nπ ,
2 2
con n ∈ N, e che né lei né la tan(x/2) cambino segno all’interno degli intervalli (nπ, (n + 1)π), permette di
stabilire l’inversione per fasce:
(
nπ se x0 = nπ
!(t) =
x
2 arctan[e(t−t0 ) tan(x0 /2)] ∈ (nπ, (n + 1)π) se x0 ∈ (nπ, (n + 1)π).

x
(n +1)¼

(n {1)¼
#

Note di Sistemi Dinamici


16 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Diverso è il caso degli asintoti “verticali” (cioè paralleli all’asse x) che sono invece barriere, rispetto all’ascissa
temporale, per la validità della soluzione: la soluzione è locale , senza necessariamente contraddire l’unicità. Essi
provengono da singolarità del campo, o da campi troppo rapidi , e se il campo è autonomo possono dipendere dalle
condizioni iniziali.

Esempio 1.2.7 ẋ = x2 , t0 , x0 ∈ R, x0 ̸= 0 .
) *−1
1 1 1
Risulta t − t0 = − + , x = − t − t0 − , e si hanno due rami distinti, divisi da una singolarità che
x x0 x0
dipende dalle condizioni iniziali : se x0 > 0 la soluzione esiste ed è unica, compositiva e stazionaria, ma solo per
1 1
tempi t < + t0 , se invece x0 < 0 , la soluzione ha tali proprietà solo per t > + t0 .
x0 x0

x00

x0 t{t0
0
1=x00 1=x0 x00 1=x0 1=x0
x0

x2 − 1
Esempio 1.2.8 ẋ = , t0 , x0 ∈ R.
2
- x - x ' '
2 1 1 dξ dξ ' x0 − 1 '
Siccome = − , si ha t − t0 = − '
e quindi posto d := ' ' e
x2 − 1 x−1 x+1 x0 ξ − 1 x0 ξ + 1 x0 + 1 '
chiamati J− ed J+ rispettivamente gli intervalli (−∞, t0 − ln c) ed (t0 − ln c, +∞), si ricava

x−1 1 + c exp(t − t0 )
x0 > +1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J−
x+1 1 − c exp(t − t0 )
x−1 1 + c exp(t − t0 )
x0 < −1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J+
x+1 1 − c exp(t − t0 )
x−1 1 − c exp(t − t0 )
x0 ∈ (−1, 1) ⇒ = −ce(t−t0 ) ⇒ x= , ∀t ∈ R
x+1 1 + c exp(t − t0 )
x0 = +1 ⇒ ⇒ x = +1, ∀t ∈ R
x0 = −1 ⇒ ⇒ x = −1, ∀t ∈ R

1
0.5

-3 -2 -1 1 2 3
-0.5
-1

M. Lo Schiavo
1.3. I teoremi fondamentali 17

1.3 I teoremi fondamentali


È opportuno innanzi tutto premettere una breve discussione dei principali risultati ottenuti nel precedente para-
grafo.
L’equazione lineare ẋ = kx, x !(t0 ) = x0 ∈ R individua come si è visto la soluzione t &→ φ(t, t0 , x0 ) = ek(t−t0 ) x0 .
Questo fatto lo si può anche interpretare come la capacità di determinare per ogni fissato valore del parametro (t−t0 )
un operatore: ek(t−t0 ) , che agendo linearmente su x0 ne fornisce la posizione attuale. Tale operatore è l’operatore
di moltiplicazione per il numero ek(t−t0 ) . Si può allora porre: G t−t0 x0 := ek(t−t0 ) x0 , e la definizione è ben data
visto che, come è noto, la funzione esponenziale si compone verificando le proprietà di gruppo rispetto al parametro
t : et+τ = et eτ , ∀t, τ ∈ R. D’altra parte quello che è stato definito è il più generale gruppo ad un parametro di
trasformazioni lineari su R. Infatti uno qualunque di tali gruppi determina univocamente il flusso di una equazione
del tipo ẋ = kx in quanto la velocità di fase non può che essere anch’essa lineare sulle x, e cioè, visto che x ∈ R,
proprio del tipo kx. Pertanto il moto deve necessariamente essere soluzione di questa equazione, ed il teorema
di unicità della soluzione assicura che φ(t, t0 , x0 ) = ek(t−t0 ) x0 ; il gruppo di partenza non può quindi che essere il
gruppo moltiplicativo G t ≡ ekt .
Nell’esempio 1.2.6 si è trovato, per l’operatore G t−t0 la forma
(
t−t0 2 arctan[tan(x0 /2) exp(t − t0 )] se x0 ̸= nπ
G x0 =
x0 se x0 = nπ ,

e si vede che anche qui, fissato comunque t − t0 , il valore x0 può essere scelto arbitrariamente in R, che anche
questa famiglia di applicazioni di avanzamento verifica la proprietà gruppale, e che è costituita da diffeomorfismi.
In effetti, fissati t e t0 , l’operatore G t−t0 :

(i) è differenziabile rispetto ad x0 ;


(ii) è invertibile rispetto al tempo, dato che x1 = 2 arctan[tan(x0 /2) exp(t1 − t0 )] equivale, in un fissato intervallo
di invertibilità della tangente, alla e−t1 tan x1 /2 = e−t0 tan x0 /2 che è simmetrica nello scambio (t0 , x0 ) ↔
(t1 , x1 );
(iii) verifica la proprietà gruppale: posto x1 = G (t1 −t0 ) x0 e x2 = G (t2 −t1 ) x1 risulta: x2 = G (t2 −t0 ) x0 in quanto
verifica le
x2 x1 x0
e−t2 tan = e−t1 tan = e−t0 tan .
2 2 2
D’altra parte non è detto che ogni equazione del tipo ẋ = v(x) individui un gruppo ad un parametro. Nell’esem-
1 1
pio 1.2.7, per x0 ̸= 0 si è trovata l’evoluzione G (t−t0 ) x0 := −(t − t0 − x10 )−1 che dà t + = t0 + , e quindi verifica
x x0
(i),(ii),(iii) qui sopra, ma qualunque sia t c’è certamente almeno un x0 , in questo caso dato da (t − t0 )−1 , sul quale
G t−t0 non è definito, e pertanto non può essere un diffeomorfismo da R in sé. Questo esempio individua un sistema
dinamico locale (J, V0 , g), (si veda: §.1) per il quale (se x0 > 0 ) è: J = (−∞, t0 + x01+χ ), V0 = (0, x0 + χ), per
ogni (fissato) χ > 0.
Nel caso in cui |v(x)| < a|x| + b , v ∈ C 0 , a > 0, b ≥ 0, x ∈ R, è invece possibile ripetere il ragionamento
fatto precedentemente e ricavare l’esistenza, per ogni t ∈ R della soluzione; (le curve integrali non possono avere
asintoti paralleli all’asse x in quanto restano limitate dall’alto dagli esponenziali).
N.B. 1.3.1 Tutto quanto detto vale all’interno di aperti nei quali v è continua. ♦

È chiaro che il problema non si semplifichi se l’equazione non è scalare, o se non è autonoma: ẋ = v(t, x),
anche con x ∈ R. Già per questa equazione infatti non esistono metodi generali di risoluzione. Anche per essa
la soluzione:

(i) può non essere unica;


(ii) può non esistere per ogni t ∈ R;
(iii) può non dipendere in modo regolare dal dato (t0 , x0 ).

Sussistono tuttavia i seguenti basilari teoremi, tutti “locali” intorno alle assegnate condizioni iniziali: (t0 , x0 ) ∈
! : t ∈ R &→ x = x
R × Rn , e relativi alla più generale equazione differenziale ordinaria nell’incognita funzione x !(t) ∈
Rn

ẋ = v(t, x) , !(t0 ) = x0 ∈ Rn .
x (3.23)

Note di Sistemi Dinamici


18 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

La loro validità locale implica che essi sussistano limitatamente a ciascuna carta anche quando lo spazio delle fasi
è, più in generale, una varietà differenziabile M di dimensione finita n (vedi oltre) sulla quale sia stato scelto un
sistema di coordinate reali. In tutti i seguenti enunciati si indicherà con D un Dominio di uno spazio reale, e cioè
un insieme aperto (nella topologia indotta dalla metrica euclidea), connesso, non vuoto.

Teorema 1.3.1 (Peano) (si veda: [Hale p.14]) Sia D ⊂ R × Rn un dominio in R1+n . Se v ∈ C 0 (D), e (t0 , x0 )
è dato comunque in D , esiste almeno una soluzione della (3.23) passante per x0 nell’istante t0 .

Dimostrazione (cenno) Applicazione del teorema di punto fisso di Schauder su un sottoinsieme convesso compatto di uno
spazio di Banach. Alternativamente [Michel p.46 opp. Coddington teor.1.2] si può usare il metodo di Newton-Eulero ed il teorema di
Ascoli Arzelà.
In ogni caso il problema differenziale dato viene modificato in un equivalente problema integrale:
- t - t
d
! (t) − x0 =
x ! (τ ) dτ =
x ! (τ )) dτ .
v(τ, x (3.24)
t0 dt t0

Per esso si definisce, su un opportuno sottoinsieme dello spazio C 0 (N (t0 ), Rn ) , l’operatore S+ dato dalla
- t
S+ [!
x](t, t0 , x0 ) := x0 + ! (τ )) dτ ,
v(τ, x (3.25)
t0

e, nel primo dei due procedimenti su accennati, si studiano le condizioni per le quali esso risulta ammettere un punto unito: φ, e cioè
un punto tale che S+ [φ] = φ.
Nel secondo dei due procedimenti detti, ci si limita a costruire la famiglia delle

SpezzatediEulero : ψm (t) = ψm (tj ) + v(tj , ψm (tj )) (t − tj ) , per tj ≤ t ≤ tj+1 ,

con |tj+1 − tj | ≤ δm ove {δm }m=1,2,... è una successione di numeri reali convenientemente piccoli rispetto alla rapidità di crescita
m
del campo |v| e tali che (δ1 , δ2 , . . . , δm , . . .) −→ 0 . La famiglia delle Spezzate di Eulero è precompatta in quanto equicontinua
∞7 8
uniformemente limitata come sottoinsieme di C [t0 , t0 + a′ ], R : ∥·∥∞ . Esiste pertanto in C almeno un punto di accumulazione di
tali spezzate; esso sarà tale da verificare la (3.24) punto per punto. (Certo sarà soluzione. Se però questa non è unica, non è detto che
queste siano tutte ottenibili in questo modo. Per esempio per la ẋ = |x|1/2 con x0 = 0 , il metodo fornisce solo la soluzione nulla). "

N.B. 1.3.2 Il teorema è locale nel senso che scelto un qualsiasi (t0 , x0 ) ∈ D e fissato comunque un compatto
Γ ⊂ D del quale (t0 , x0 ) è punto interno, si può garantire l’esistenza della soluzione uscente da (t0 , x0 ) solo per
tempi t ∈ J := Ba′ (t0 ) con a′ che dipende: dall’ampiezza del compatto Γ, dalla posizione di (t0 , x0 ) all’interno di
Γ, e da un parametro a(v) ∈ R che a sua volta dipende dalla ) rapidità di crescita
* del campo nell’intorno di (t0 , x);
′ ∆b(Γ) 1−ε
per esempio nel successivo Teorema 1.3.1 è a (v) ≤ min , , con ε > 0 e ∆b := b − b′ che
maxΓ |v| kLip (v)
dipende anch’essa da Γ e dalla posizione di (t0 , x0 ) in Γ. ♦

Nel seguito si continuerà ad indicare con D ⊂ R × Rn l’insieme aperto di regolarità del campo.
Prolungabilità := Fissato (t0 , x0 ) ∈ D , una soluzione φ = φ(t, t0 , x0 ) ∈ Rn dell’equazione (3.23), definita su
[t0 , b] si dice prolungabile (come soluzione, non come funzione) nella φ+ = φ+ (t, t0 , x0 ) ∈ Rn definita su [t0 , b+ ]
quando accade che φ+ è soluzione della equazione sull’intervallo [t0 , b+ ], con b+ > b , e risulta φ+ (t) = φ(t), per
ogni t in [t0 , b]. Analoghe considerazioni valgono naturalmente per l’intervallo di definizione precedente l’istante
iniziale: [a, t0 ].
Quando il procedimento di prolungabilità non è ulteriormente possibile, l’estremo superiore dei b e l’estremo
inferiore degli a, che verranno indicati con m1 , ed m2 rispettivamente, individuano il:
Massimo Intervallo JM ≡ (m1 , m2 ) di esistenza contenente t0 . Esso è senz’altro aperto in quanto, per il teorema
di esistenza, il suo “sup”, (per esempio), non può essere un “max” visto che se lo fosse la soluzione esisterebbe in
tutto un suo intorno (aperto).

Teorema 1.3.1 (di prolungabilità) (si vedano: [Hartman p.13], [Michel II.3.1], [Coddington p.13]) Con le stesse
notazioni del Teorema 1.3.1, sia v ∈ C 0 (D) e limitata in un aperto U ⊂ D , e sia φ : t &→ φ(t, t0 , x0 ) una
soluzione uscente da (t0 , x0 ) ∈ U e definita su un qualche intervallo (a, b) =: J ⊂ JM , con t0 ∈ J , e tale che
J × φ(J) ⊂ U . Allora esistono i limiti: φ(a+ ) e φ(b− ). Inoltre, posto (ad esempio) xb := φ(b− ), se il punto
(b, xb ) appartiene a D (ne è interno) allora φ può essere definita su (a, b], e quindi essere prolungata oltre b.

Ovviamente lo stesso vale per a.

M. Lo Schiavo
1.3. I teoremi fondamentali 19

Dimostrazione Sia λ := sup(t,x)∈U |v(t, x)| e sia {tn }n∈N una successione monotona: a < tn ↗ b . Vale la
maggiorazione - th
|φ(th ) − φ(tk )| = | v(t, φ(t))dt| ≤ λ|th − tk | .
tk
Pertanto {φ(tn )}n∈N è di Cauchy, e ciò assicura l’esistenza di xb := φ(b− ) in Rn . Poi, se (b, xb ) è in U si
definisce, per ε > 0 e t ∈ [t0 , b + ε),
(
& φ(t, t0 , x0 ) per t ∈ [t0 , b)
φ(t, t0 , x0 ) :=
una soluzione per (b, xb ) per t ∈ [b, b + ε).
.
& = t v(τ, φ(τ
Essa è soluzione su tutto [t0 , b + ε) poiché per costruzione è φ(t) & ))dτ per ogni t ∈ [t0 , b + ε). In più,
t0
& &
la sua continuità implica quella di v(t, φ(t)) e quindi quella della derivata d φ(t)/dt. "

Si indichi con la notazione: |t| + |φ| → ∞ l’eventualità che φ sia definita per |t| comunque grandi, oppure che
il vettore x := φ(t, t0 , x0 ) assuma lunghezza comunque grande.
Corollario 1.3.1 Sia v ∈ C 0 (D) . Allora
t
o è |t| + |φ| → ∞, oppure (t, φ(t, t0 , x0 )) −→∂D . La prima eventualità accade se ∂D = ∅ .
∂JM

Dimostrazione Se non si verifica la prima eventualità, e detto per esempio m2 < ∞ l’estremo destro di JM ,

si supponga che sia (m2 , φ(m− −
2 )) ∈D ≡ D ̸= [D]. Certo esisterebbe un U := N (m2 , φ(m2 )) ⊂ D sul quale il
campo è limitato, contraddicendo la massimalità di m2 . "

Ci si ricorda di tutto ciò affermando che: φ può essere prolungata fino alla frontiera di un qualunque compatto K
che, contenente (t0 , x0 ), sia contenuto in D ; ove:
φ è prolungabile fino ad un insieme F ⊂ R × M := la soluzione φ della (3.23) è definita su [t0 , τ ] e si ha che
(τ, φ(τ, t0 , x0 )) ∈ F .
Per discutere l’unicità delle soluzioni in corrispondenza a ciascun dato iniziale risultano utili le seguenti consi-
derazioni.
Condizioni di Lipschitz := Quando, per ciascun compatto Γ ⊂ D ⊆ R1+n esiste kΓ ∈ R+ tale che |v(t, x) −
v(t, y)| ≤ kΓ |x−y| per ogni (t, x), (t, y) ∈ Γ, allora il campo v si dice localmente Lipschitz su D , o “loc.Lip (D )”,
relativamente a x. v si dice Lipschitz su D , o “uniformemente Lipschitz continua su D ”, (relativamente a x)
se il numero k è unico su tutto D .
N.B. 1.3.3
v ∈ C 1 (D) ⇒ v ∈ loc.Lip (D) relativamente ad x.
v ∈ Lip(D) ⇒ v uniformemente continua rispetto ad x, e per ogni t. ♦

Lemma 1.3.1 (di Gronwall) (si veda anche l’Appendice A.9)


Siano f : [a, b] ∈ R, f ∈ C 0 ([a, b]), α ∈ R, |χ| ∈ L1 ([a, b]), con [a, b] ⊂ R. Allora, per t ∈ [a, b]
.t .t
|f (t)| ≤ |α| + a |f (s)χ(s)|ds implica |f (t)| ≤ |α| exp a |χ(s)|ds ;
.b .b
|f (t)| ≤ |α| + t |f (s)χ(s)|ds implica |f (t)| ≤ |α| exp t |χ(s)|ds .
.t
Dimostrazione Sia h(t) := |α| + a |f (τ )χ(τ )|dτ , per t ∈ [a, b].
Per ipotesi è: |f (t)| ≤ h(t) 0e quindi1 ḣ = |f χ| ≤ |χ|h. Ne segue che ḣ − |χ|h ≤ 0, che0implica 1la
.t 7 .a 8 .t
decrescenza della funzione h(t) exp − |χ| . Quindi per t ∈ [a, b] si ha |α| exp − |χ| ≥ h(t) exp − |χ| ,
che dà .t
|f (t)| ≤ h(t) ≤ |α| exp a |χ(τ )|dτ .
La seconda disuguaglianza si dimostra in modo analogo osservando che, nel secondo caso, è ḣ = −|f χ| ≥ −|χ|h.
"

Teorema 1.3.1 (di unicità) (si veda: [Michel Teor. 4.2]] Con le stesse notazioni del Teorema 1.3.1, sia v ∈ C 0 (D).
Se v è anche loc.Lip (D) allora la soluzione φ : t &→ φ(t, t0 , x0 ) ∈ Rn dell’equazione ẋ = v(t, x) uscente da un
(arbitrario) dato iniziale (t0 , x0 ) ∈ D è unica.

Note di Sistemi Dinamici


20 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione Per assurdo, si applica il Lemma di Gronwall alla differenza


'- t ' - t
' '
'
|φ1 (t) − φ2 (t)| ≤ ' v(τ, φ1 (τ )) − v(τ, φ2 (τ )) dτ '' ≤ kΓ |φ1 (τ ) − φ2 (τ )| dτ .
t0 t0

"

Corollario 1.3.1 (di continuità)

In tali ipotesi, φ è continua rispetto a (t, t0 , x0 ) su (a, b) × (a, b) × N (x0 ).

Più precisamente: se una soluzione t &→ φ(t) := φ(t, t0 , x0 ) è definita su [a, b] ∋ t0 allora la soluzione t &→
φ′ (t) := φ(t, t′0 , x′0 ) uscente da un (t′0 , x′0 ) scelto comunque in un conveniente W ′ := (a, b) × Bη (x′ ) ⊂ D , ove si è
chiamato x′ := φ(t′0 , t0 , x0 ), esiste almeno su (a, b) ed è tale che: dato comunque ε > 0 , esiste δ(ε, a, b; t′ , t′0 , x′0 )
per il quale

|x′0 − x′′0 | + |t′0 − t′′0 | + |t′ − t′′ | < δ implica |φ(t′ , t′0 , x′0 ) − φ(t′′ , t′′0 , x′′0 )| < ε .

x
Á(t )
Á (t )
(t0,x0 )
(t0,x )
8
>
< (t0,x0 )
´1 >:
K
t
a t0 t0 b

Dimostrazione
' Chiamata ancora, per brevità, φ(t) := φ(t, t0 , x0 ), sia η1 > 0 tale che l’insieme compatto K :=
{(t, x) ' t ∈ [a, b], |x − φ(t)| ≤ η1 } sia in D , e si ponga η := η1 exp(−kK (b − a)). Per (t′0 , x′0 ) ∈ (a, b) × Bη (x′ )
il teorema di esistenza assicura che φ′ (t) := φ(t, t′0 , x′0 ) esiste per t prossimo a t′0 e, fintanto che esiste, verifica la
- t
φ(t, t′0 , x′0 ) = x′0 + v(τ, φ(τ, t′0 , x′0 )) dτ .
t′0

Ma è anche, per t ∈ [a, b],


- t

φ(t, t0 , x0 ) = x + v(τ, φ(τ, t0 , x0 )) dτ ,
t′0

e quindi dal Lemma di Gronwall segue che, finché esiste, φ(t, t′0 , x′0 ) verifica la

|φ(t, t′0 , x′0 ) − φ(t, t0 , x0 )| ≤ |x′0 − x′ | exp (kK |t − t′0 |) < η exp (kK (b − a)) = η1 .

Il Teorema di prolungabilità assicura allora che φ(t, t′0 , x′0 ) esiste per ogni t ∈ [a, b].
Per provare la continuità si può usare o il seguente procedimento oppure, vedi oltre, far ricorso al Teorema di
Ascoli-Arzelà.
Primo modo (si veda: [Coddington Teor. I 7.1]).
Si definisca la successione di funzioni:
⎧ ′
⎨ φ0 (t) :=
⎪ φ0 (t, t′0 , x′0 ) := x′0 + φ(t) − x′
- t
(3.26)
⎪ φ′j+1 (t) := φj+1 (t, t′0 , x′0 ) := x′0 +
⎩ v(τ, φ′j (τ )) dτ
t′0

tutte evidentemente continue sull’insieme W := (a, b) × W ′ .

M. Lo Schiavo
1.3. I teoremi fondamentali 21

Per (t′0 , x′0 ) ∈' W ′ si ha |φ′0 (t) − φ(t)| = |x'′0 − x′ |' < η e quindi per t' ∈ (a, b) si ha (t, φ′0 (t)) ∈ K . Inoltre
'. t ' '. t '
|φ′1 (t) − φ′0 (t)| = ' t′ v(τ, φ′0 (τ )) − v(τ, φ(τ ))dτ ' ≤ kK ' t′ φ′0 (τ ) − φ(τ )dτ ' = kK |t′0 − t| |x′0 − x′ | e questo implica
0 0
|φ′1 (t) − φ(t)| ≤ (1 + kK |t′0 − t|)|x′0 − x′ | < exp(kK |t′0 − t|) |x′0 − x′ |, e la (t, φ′ (t)) ∈ K .
Induttivamente si ricava
⎧ j+1 ′
⎪ j+1
⎨ |φ′ (t) − φ′ (t)| ≤ kK |t0 − t| |x′0 − x′ |
j+1 j
(j + 1)! (3.27)


|φ′j+1 (t) − φ(t)| < exp(kK |t′0 − t|) |x′0 − x′ | < η1 ,

che dà (t, φ′j (t)) ∈ K, per ogni j = 0, 1, . . . .


La prima delle (3.27) e la compattezza di [a, b] assicurano che la successione delle {φ′j (t)} converge; la seconda
.t
delle (3.26) implica che lo fa verso la funzione φ′ (t) ≡ φ(t, t′0 , x′0 ) = x′0 + t′ v(s, φ′ (s))ds; la limitatezza di W
0
garantisce che la convergenza è uniforme cosa che, come è ben noto, conserva la continuità di (t, t′0 , x′0 ) &→ φ(t, t′0 , x′0 )
su W anche nel limite. "

Secondo modo
È istruttivo qui riportare anche il secondo dei due procedimenti cui si è accennato per la dimostrazione del
teorema di continuità, in quanto esso fa uso del seguente importante

Teorema 1.3.2 (si veda: [Michel Teor. II.5.2])


m
Con la stessa notazione del Teorema 1.3.1, siano v ∈ C 0 (D), {x0,m }m∈N −→ x0 , {vm }m∈N ⊂ C 0 (D), e sia

m
{vm }m∈N −→ v uniformemente sui sottoinsiemi compatti di D .

Se {φm }m∈N è una successione di soluzioni, con intervalli massimali Jm , dei problemi:
ẋ = vm (t, x) , φm (t0 , t0 , x0,m ) = x0,m , m = 1, 2, . . .

allora esiste una sottosuccessione {φmj }j∈N ed una soluzione φ del problema

ẋ = v(t, x) , φ(t0 , t0 , x0 ) = x0

avente intervallo massimale J0 ∋ t0 tali che


(i) lim inf j→∞ Jmj ⊃ J0 ;
j
(ii) φmj −→ φ uniformemente sui sottoinsiemi compatti di J0 .

Se, inoltre, la soluzione φ è unica allora la successione {φm }m∈N ammette φ come limite uniforme.

Dimostrazione Applicazione del Teorema di Ascoli-Arzelà dopo aver mostrato che {φm }m∈N è equicontinua
uniformemente limitata. "

Corollario 1.3.2 (si veda: [Michel Cor. II.5.4]) Con la stessa notazione del Teorema 1.3.1, sia dato il problema

ẋ = v(t, x; ε) , φ(t0 , t0 , x0 ; ε) = x0

con v ∈ C 0 (D × Dε ) ove Dε ⊂ Rℓ aperto, e si 0 supponga che, per (t0 , x01) ∈ D, ε ∈ Dε , esso abbia soluzione unica
φ(t, t0 , x0 ; ε) con intervallo massimale J := m1 (t0 , x0 ; ε), m2 (t0 , x0 ; ε) .
'
Detto W := {(t, t0 , x0 ; ε) ' (t0 , x0 ) ∈ D, ε ∈ Dε , t ∈ J} allora φ è continua su W , m1 (t0 , x0 ; ε) è
semicontinuo superiormente e m2 (t0 , x0 ; ε) semicontinuo inferiormente in (t0 , x0 ; ε) su D × Dε .
Memento 1.3.1

lim inf xj := sup inf xk o anche lim inf f (y) := lim sup f (y) .
j→∞ k∈N j>k y→x ε→0 y∈B (x)
ε

Semicontinua inferiormente su D := una funzione f (x) tale che per ogni y ∈ D sia: f (y) ≤ lim inf x→y f (x);
ovvero quando dato ε esiste Nε (x) tale che per ogni y ∈ Nε (x) si ha f (y) > f (x)−ε ; o anche quando f −1 (α, +∞)
è aperto per ogni α ∈ R.

Note di Sistemi Dinamici


22 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione (del Corollario)


Posto ψ(τ, 0, x0 ; ε) := φ(τ + t0 , t0 , x0 ; ε), la ψ risolve il problema

d
x = ν(τ, x) := v(τ + t0 , x; ε) , ψ(0, 0, x0 ; ε) = x0 .

m
Sia {(tm , t0,m , x0,m ; εm ) ∈ W }m∈N −→ (t, t0 , x0 ; ε). Il teorema precedente sussiste per la successione dei campi

νm (τ, x) := v(τ + t0,m , x; εm ), ed assicura che
m
φ(τ + t0,m , t0,m , x0,m ; εm ) −→ φ(τ + t0 , t0 , x0 ; ε0 )

uniformemente sui sottoinsiemi compatti di (m1 (t0 , x0 ; ε) − t0 , m2 (t0 , x0 ; ε) − t0 ). In particolare, quindi, si può
scegliere τ + t0,m = tm per ciascun m, e dedurne che la convergenza per tm → t è uniforme in m. In definitiva,
tramite la
|φ(tm , t0,m , x0,m ; εm ) −φ(t, t0 , x0 ; ε0 )| ≤
|φ(tm , t0,m , x0,m ; εm ) − φ(tm , t0 , x0 ; ε0 )| + |φ(tm , t0 , x0 ; ε0 ) − φ(t, t0 , x0 ; ε0 )| ,
m
si conclude che φ(tm , t0,m , x0,m ; εm ) −→ φ(t, t0 , x0 ; ε0 ).
0 ∞ 1
Per la (i) inoltre si ha: lim inf m→∞ m1 (t0,m , x0,m ; εm ), m2 (t0,m , x0,m ; εm ) ⊃ J0 . "

Sussiste infine anche la seguente estensione agli ordini superiori, (si veda il Teorema 1.3.1 per un enunciato
meno forte):

Teorema 1.3.3 (si veda: [Arnold §32.9], opp. [Lefschetz p.40]) Sia v(t, x, ε) ∈ C r≥1 (D×Dε ) con D ⊆ R1+n aper-
to, e Dε ⊆ Rm aperto. Allora la soluzione φ = φ(t, t0 , x0 ; ε), è di classe C r rispetto a (t0 , x0 , ε) ∈ D × Dε , e
C r+1 rispetto a t, nel suo dominio di definizione.

Ne segue che v ∈ C 1 (D) determina una ed una sola soluzione uscente da una qualsiasi coppia (t′0 , x′0 ) ∈
N (t0 , x0 ); tale soluzione è definita in tutto un intorno N (t0 , x0 ) delle condizioni iniziali ed è ivi differenziabile
rispetto a (t, t′0 , x′0 ). Risulta quindi determinata una famiglia locale di applicazioni d’avanzamento in N (t0 , x0 ).

Quanto segue, enunciato in Rn , vale anche in Cn pur di considerare accoppiate le equazioni per le parti ℜe ed
ℑm; e costituisce un parziale riassunto di quanto detto, secondo un’alternativa linea di dimostrazione: Cauchy-
Picard. In questo caso, esistenza ed unicità vengono provate simultaneamente, e sotto la più stretta ipotesi:
v ∈ C 1 (D), (si veda: [Arnold, cap.IV]).
Si consideri dapprima uno spazio metrico (X, d) ed una mappa S : X → X.
S è una contrazione := esiste una costante reale non negativa k , strettamente minore di uno, tale che:
x, y ∈ X ⇒ d(Sx, Sy) ≤ k d(x, y).
Si osservi che per poter parlare di contrazioni è fondamentale il fatto che il dominio di S e l’immagine di S
siano sottoinsiemi di uno stesso spazio metrico.
Una contrazione è un caso particolare di:
& Lipschitz := esiste k > 0 : per ogni x, y ∈ X si ha:
& d)
S : (X, d) → (X,

&
d(Sx, Sy) ≤ k d(x, y) .

Quest’ultima implica l’uniforme continuità di S su (X, d).


Per le applicazioni contrattive sussiste il fondamentale :

Teorema 1.3.4 (delle contrazioni, o C.M.P.) Sia (X, d) uno spazio metrico completo ed S : X −→ X una
contrazione. Esiste, ed è unico, un punto x̄ ∈ X che è punto unito per S , e cioè: S x̄ = x̄ .
n
Esso inoltre è anche tale che preso comunque x0 ∈ X si ha: S n x0 −→ x̄ .

M. Lo Schiavo
1.3. I teoremi fondamentali 23

Dimostrazione
Unicità: Se fosse x′ = Sx′ e simultaneamente x′′ = Sx′′ , con x′ ̸= x′′ , si avrebbe: d(x′ , x′′ ) = d(Sx′ , Sx′′ ) <
d(x′ , x′′ ), e ciò non è lecito.
Esistenza: Sia xn := S n x0 . Risulta: d(xn+1 , xn ) ≤ k n d(x1 , x0 ).
Pertanto, se m > n si ha
d(xm , xn ) ≤ d(xm , xm−1 ) + d(xm−1 , xm−2 ) + · · · + d(xn+1 , xn )
≤ (k m−1 + k m−2 + · · · + k n )d(x1 , x0 )
(1 − k m−n ) kn
= kn d(x1 , x0 ) ≤ d(x1 , x0 ) .
(1 − k) 1−k
Ne segue che la successione {S n x0 }n∈N è di Cauchy, e la completezza dello spazio X assicura l’esistenza in X di
un punto limite x̄ := lim xn . Tale punto è unito per S , infatti dalle definizioni di limite e di operatore contrattivo
segue che: x̄ è punto limite anche della successione {xm }m∈N con m = n + 1 la quale, d’altra parte, ha come limite
anche il punto S x̄ dato che è
d(xm , S x̄) = d(xn+1 , S x̄) = d(Sxn , S x̄) ≤ k d(xn , x̄) .
L’unicità del limite implica necessariamente la S x̄ = x̄ . "

kn
N.B. 1.3.4 Si è anche valutato l’errore: d(x̄, xn ) ≤ d(x1 , x0 ).
1−k

S x
S2 x
3
S x

S 2 x Sx x x S 2 x Sx

Teorema 1.3.1 (Cauchy-Picard) Sia D ⊆ R × Rn aperto; sia (t0 , x0 ) ∈ D , e sia v : D → Rn . Se il campo


v è differenziabile con continuità in D , per ogni x sufficientemente prossimo ad x0 la soluzione dell’equazione
ẋ = v(t, x) uscente da (t0 , x) esiste almeno in un intorno delle condizioni iniziali (t0 , x) unica e regolare rispetto
alle condizioni iniziali stesse.

Dimostrazione Con a e b in ∈ R, si introducano gli insiemi


; ' <
'
:= t ∈ R ' t0 − a ≤ t ≤ t0 + a ,
( >
' 0= n 11/2
'
[Bb (x0 )] := x ∈ Rn ' |x − x0 | := (xi − xi0 )2 < b ,
i=1

(si ricordi che con la notazione [A] si intende la chiusura dell’insieme A) e si supponga che a e b siano scelti in
modo tale che l’insieme (compatto)
; ' <
'
Γ := [Ba (t0 )] × [Bb (x0 )] := (t, x) ∈ R1+n ' t ∈ [Ba (t0 )] , x0 ∈ [Bb (x0 )]
risulti appartenere al dominio D . Siano poi
λ := max |v(t, x)|, kΓ := max ∥∂x v(t, x)∥ ,
(t,x)∈Γ (t,x)∈Γ

e si noti che λ e kΓ dipendono da Γ ma non direttamente da (t, x). Infine, chiamato


; ' <
'
Kx := (t, y) ' t ∈ [Ba′ (t0 )], y ∈ [Bλ|t−t0 | (x)]

il cono di apertura 2λ e centro x, sia b′ tale che, opportunamente fissato a′ ≤ a, si abbia:


Γ ⊃ Kx per ciascun x ∈ [Bb′ (x0 )].

N.B. 1.3.5 a e b dipendono dalla posizione di (t0 , x0 ) ∈ D . I valori a′ , b′ sono tali che a′ ≤ a, b′ ≤
b, b′ + λa′ ≤ b . Per l’unicità occorrerà che a′ < 1/kΓ ; b′ è l’ultimo ad essere fissato tale che b′ + λa′ ≤ b . ♦

Note di Sistemi Dinamici


24 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Qualora esista, la soluzione φ dell’equazione assegnata: ẋ = v(t, x), che esce dal dato (t0 , x), è una funzione
φ : t &→ φ(t, t0 , x) =: x + h(t, x) , h(t0 , x) = 0
che (equivalentemente) risolve il problema integrale
- t
φ(t, t0 , x) = x + v(τ, φ(τ, t0 , x)) dτ =: S+ [φ](t, t0 , x) .
t0

Essa quindi individua una curva integrale (t, φ(t, t0 , x)) =: (t, x + h(t, x)) che non potrà essere esterna a Kx finché
t < a′ , giacché in tutto Γ accade che |v| < λ.
x0+b
¡ Kx0+b¶ ¸
x0+b¶
¡¶

Kx x0 h
Á
x

x0{b¶ Kx0{b¶
x0{b
t0{a t0{a¶ t0 t0+a¶ t0+a
Sia Γ′ := [Ba′ (t0 )] × [Bb′ (x0 )], con b′ fissato come detto ed a′ ancora da specificare, e si definisca lo spazio
funzionale ; <
A(a′ , b′ ) := h ∈ C 0 (Γ′ , Rn ) tali che |h(t, x)| ≤ λ|t − t0 |, , ∀ (t, x) ∈ Γ′

o, equivalentemente, lo spazio A+ (a′ , b′ ) delle funzioni φ ∈ C 0 (Γ′ , Rn ) tali che |φ(t, x)−x| ≤ λ|t−t0 |, ∀ (t, x) ∈
Γ′ . Lo spazio A(a′ , b′ ) contiene certamente la funzione costante h : (t, x) &→ h(t, x) = 0 . Si doti tale insieme
di funzioni della norma: ? ? ' '
? ? ' '
?h1 − h2 ? := max ′ 'h1 (t, x) − h2 (t, x)' .
∞ (t,x)∈Γ

N.B. 1.3.6 Siccome Γ′ è compatto il valore che si ottiene è un massimo, cioè è un numero reale che viene assunto
dalla funzione a secondo membro. In questa norma la convergenza implica l’uniforme convergenza delle funzioni
appartenenti a C(Γ′ , Rn ). Pertanto, se una successione {hn }n=1,2,... di funzioni in A ammette limite in questa
norma, si può dedurre che la funzione limite non solo appartiene a C (Γ′ , Rn ) , ma appartiene addirittura ad A,
giacché la condizione sulla massima crescita della funzione continua a sussistere anche nel limite. Si ha cioè che
(A; ∥·∥∞ ) è un sottoinsieme chiuso, convesso, di uno spazio di Banach ed è pertanto esso stesso uno spazio di
Banach e, come tale, completo rispetto alla norma ∥·∥∞ . Analoghe affermazioni sussistono per lo spazio A+ . ♦

Si definisca ora su (A; ∥·∥∞ ) l’operatore S : h &→ S[h] mediante la:


- t
S[h](t, x) := v(τ, x + h(τ, x))dτ ,
t0
.t
o, su A+ , l’equivalente operatore S+ [φ](t, x) := x + t0 v(τ, φ(τ, x))dτ .

Proposizione 1.3.1 Per a′ sufficientemente piccolo l’operatore S : A → A è una contrazione su (A, ∥·∥∞ ).

Dimostrazione (della Proposizione)


(i) Siano τ ∈ Ba′ (t0 ) ed x ∈ Bb′ (x0 ). Dalla definizione di A segue che se h ∈ A allora (τ, x + h(τ, x)) ∈ Kx ⊂
Γ ⊂ D . Quindi S[h] è definita in quanto è definito v(τ, x + h(τ, x));
(ii) dalle proprietà degli integrali segue che S[h] ∈ C 0 (Kx ), ed inoltre S manda A in sé; infatti
' ' ''- t '
'
' ' '
'S[h](t, x)' ≤ ' |v(τ, x + h(τ, x))|dτ '' ≤ λ|t − t0 | ,
t0

il che implica che la funzione S[h] appartiene ad A; (si osservi infatti che x è definitivamente fissato in
Bb′ (x0 ), e che t varia in Ba′ (t0 ); quindi la S[h] verifica tutte le condizioni per la sua appartenenza ad A);

M. Lo Schiavo
1.3. I teoremi fondamentali 25

(iii) S può essere reso contrattivo su (A, ∥·∥∞ ). Infatti


- t0 1
(S[h1 ] − S[h2 ])(t, x) = v(τ, x + h1 (τ, x)) − v(τ, x + h2 (τ, x)) dτ ;
t0

e siccome v ∈ C 1 (D) ⊂ Lip (Γ) risulta

|v(τ, x + h1 (τ, x)) − v(τ, x + h2 (τ, x))| ≤ kΓ |h1 (τ, x) − h2 (τ, x)|
≤ kΓ ∥h1 − h2 ∥∞ ,

da cui segue
|(S[h1 ] − S[h2 ]) (t, x)| ≤ kΓ |t − t0 | ∥h1 − h2 ∥∞ ≤ kΓ a′ ∥h1 − h2 ∥∞ .
Posto allora kΓ a′ =: k si ottiene

∥S[h1 ] − S[h2 ]∥∞ ≤ k ∥h1 − h2 ∥∞ .

Pertanto, purché sia k < 1, si ha che S è una contrazione su (A, ∥·∥∞ ) . Equivalentemente: S+ è
contrattivo su A+ . "

Scelto x prossimo a x0 , per esempio |x − x0 | < b′ , e se a′ verifica la limitazione kΓ a′ < 1 , ne segue che in A
esiste ed è unico il punto unito di S :
- t
h̄ = S[h̄] ≡ v(τ, x + h̄(τ, x))dτ ,
t0

ed anzi risulta x + h̄(t, x) ∈ Kx per ogni t ∈ Ba′ (t0 ).


Ponendo - t
φ(t, t0 , x) := x + h̄(t, x) = x + v(τ, φ(τ, t0 , x))dτ ≡ S+ [φ](t, t0 , x)
t0

si riconosce cosı̀ che, per t0 ed x ∈ Bb′ (x0 ) fissati e per t ∈ Ba′ (t0 ), la funzione t &→ φ(t) := φ(t, t0 , x) verifica su
Ba′ (t0 ) l’identità
φ̇(t) = v(t, φ(t)) , con φ(t0 ) = x .
Si noti anche che
φ = S+ [φ] implica che φ = lim φn ,
n→∞

ove si è posto
φ0 (t, t0 , x) := x, e, per n = 0, 1, . . .
- t
n
φn+1 (t, t0 , x) := x + v(τ, φn (τ, t0 , x)) dτ = S+ [φ0 ] .
t0

Infine, la funzione φ(·, t0 , ·) è uniformemente continua su Γ′ , giacché h̄ è in A. "

Per provare la regolarità della soluzione è conveniente premettere il seguente:

Lemma 1.3.1 Sia L(Rn ) lo spazio degli operatori lineari reali su Rn , sia T : t &→ T (t) ∈ L(Rn ), con T ∈ C 1 (I ⊆
R), e sia T (t) la matrice che una data base assegna all’operatore T (t). L’equazione

ẋ = T (t)x, x(t0 ) = x0 ∈ Rn (3.28)

ammette soluzione φ(·, t0 , x0 ) : JM ⊃ I → Rn se e solo se

Ẋ = T (t)X, X(t0 ) = X0 = 1I ∈ L(Rn ) (3.29)

ammette soluzione Ψ(·, t0 , 1I ) : JM ⊃ I → L(Rn ), ed in tal caso esse sono tali che x0 è l’unico vettore in Rn
tale che φ(t, t0 , x0 ) = Ψ(t, t0 , 1I )x0 .

Note di Sistemi Dinamici


26 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione Indicata brevemente con Ψ = Ψ(t, t0 ) la detta soluzione di (3.29), dato comunque x0 si ha che
Ψ̇(t, t0 )x0 = T (t)Ψ(t, t0 )x0 , e pertanto φ(t, t0 , x0 ) := Ψ(t, t0 )x0 è soluzione di (3.28). D’altra parte, tale x0 è
ovviamente unico data l’unicità della soluzione di (3.28) ed il fatto che Ψ(t0 , t0 ) = 1I .
Per quanto riguarda il viceversa, si dimostrerà (si veda: Cap.II) che la famiglia delle soluzioni di (3.28) è dotata
della proprietà di essere esprimibile, mediante una Ψ & t0 )x0 , con x0
& : JM → L(Rn ), secondo la φ(t, t0 , x0 ) = Ψ(t,
il vettore (arbitrario) che ne individua la condizione iniziale. Pertanto deve necessariamente essere Ψ & = Ψ. "

Nel seguito, all’occorrenza, i ruoli di (3.28) e di (3.29) verranno scambiati senza ulteriori commenti.

Teorema 1.3.1 (di regolarità) Sotto le stesse ipotesi del Teorema 1.3.1, se il campo è differenziabile due volte con
continuità, la soluzione, localmente, è differenziabile con continuità.

Come si è detto, questo enunciato non esprime il migliore risultato ottenibile, (si veda: Arnold §32.6), ma è
relativamente facile da dimostrare.
) *
2 1 ∂v .. .. ∂v
Dimostrazione Se v è in C (D) allora ∂x v è in C (D), ove si è posto: ∂x v =: . · · · . n ; per
∂x1 ∂x
cui, per il Lemma 1.3.1, il sistema
(
ẋ = v(t, x) (t, x(t)) ∈ D
(3.30)
Ẋ = ∂x v(t, x)X X : t &→ X(t) ∈ L(Rn ) ,

è anch’esso un sistema come nel Teorema 1.3.1. Si noti anche che le due equazioni sono accoppiate: la seconda
non va considerata
) * come indipendente dalla prima, bensı̀ come quella relativa alla seconda componente di un unico
x
vettore: . Posto allora φ0 := x e ∂x φ0 ≡ Ψ0 = 1I , si riconosce che il sistema delle iterate successive
X
del problema (3.30)
⎧ - t


⎪ φ
⎨ n+1 (t, t 0 , x) := x + v(τ, φn (τ, t0 , x))dτ
t0
- t (3.31)



⎩ Ψn+1 (t, t0 , x) := 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ ,
t0

individua due successioni delle quali, come è facile riconoscere, la seconda ha gli elementi ordinatamente uguali alle
derivate (rispetto alla variabile x) degli elementi della prima: ∂x φn = Ψn . Per il Teorema 1.3.1, d’altra parte, tali
successioni convergono, simultaneamente ed entrambe uniformemente, la prima verso la soluzione φ = φ(t, t0 , x)
dell’equazione ẋ = v(t, x), come già detto precedentemente, e la seconda verso la soluzione Ψ = Ψ(t, t0 ; x) della
sua corrispondente
Equazione Variazionale := Ẋ = ∂x v(t, φ(t, x))X, X(t0 , t0 ; x) = 1I .
Inoltre, ricordando che la seconda delle (3.31) uguaglia la derivata (rispetto alla variabile x) della prima, si
osserva che Ψ è limite uniforme delle derivate Ψn = ∂x φn . Quindi, il limite φ delle φn è senz’altro derivabile
ed ha come derivata il limite Ψ delle derivate: Ψ(t, t0 , x) ≡ ∂x φ(t, t0 , x). In definitiva:
la derivata ∂x φ di quella funzione φ = φ(t, t0 , x) che vale x all’istante t0 e che come funzione della t è
soluzione dell’equazione ẋ = v(t, x), esiste, è continua, ed è la soluzione uscente dal dato iniziale: Ψ(t0 ) = 1I
dell’equazione Ẋ = ∂x v(t, φ(t, t0 , x))X variazionale della ẋ = v(t, x) nel punto φ = φ(t, t0 , x).
Infine, siccome la convergenza è uniforme su [Ba′ (t0 )] × [Bb′ (x)], la derivata ∂x φ è anche tale che

|φ(t, t0 , x + χ) − φ(t, t0 , x) − ∂x φ(t, t0 , x)χ|


lim =0
|χ|→0 |χ|

uniformemente rispetto a t ∈ [Ba′ (t0 )] (questo ultimo fatto, ancora più esplicitamente rimarcato nel Teorema 1.3.2,
è di importanza fondamentale per tutto ciò che riguarda i procedimenti di calcolo approssimato). "

N.B. 1.3.7 Tutto ciò è valido in insiemi limitati. In particolare a′ , se anche può a volte essere arbitrario, deve
comunque essere fissato e finito. ♦

M. Lo Schiavo
1.4. Esempi e casi notevoli 27

N.B. 1.3.8 Si osservi che la seconda delle (3.31) individua la successione delle derivate delle φn e converge verso
la derivata della φ(t, t0 , x) soluzione della ẋ = v(t, x) solo se quest’ultima viene considerata accoppiata con
la Ẋ = ∂x v(t, x)X . In caso contrario, la soluzione di Ẋ = ∂x v(t, x)X potrebbe non coincidere con quella di
Ẋ = ∂x v(t, φ(t, t0 , x))X , e la successione
- t
Ψn+1 (t, t0 , x) = 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ
t0

essere diversa dalla - t


Ψn+1 (t, t0 , x) = 1I + ∂x v(τ, t0 , x)Ψn (τ, t0 , x)dτ.
t0

Dal precedente Teorema segue che la trasformazione (Gtt0 rappresentata da) Gtt0 : x0 &→ φ(t, t0 , x0 ) per
ogni fissato t prossimo a t0 risulta essere un diffeomorfismo locale in un conveniente intorno V0 contenente x0 e
contenuto in D cosı̀ come l’operatore G&tt1 definito secondo la G & t (t1 , x1 ) := (t, Gt x1 ) è un diffeomorfismo definito
t1 t1
su {t1 } × V0 ed a valori in D .
Si può inoltre mostrare (si veda: Cap.II) che sotto le stesse ipotesi esiste un diffeomorfismo di rettificazione
ϕ
) *J ×V0 → D , a t0 fissato,
: ) rappresentato
* da ϕ(t, x̄) := (t, φ(t, t0 , x̄)) la cui derivata trasforma il campo standard
0 v
nel campo assegnato e risulta G&tt0 ≡ ϕ ◦ G!tt0 ◦ ϕ −1 ove G!tt0 è l’evoluzione banale: G!tt0 (t0 , x) = (t, x).
1 1
N.B. 1.3.9 G&tt0 trasforma {t0 } × V0 in {t} × V ; ϕ trasforma (t, x0 ) in (t, x), e cioè J × V0 in J × V , a t
fissato; infine, Gtt0 trasforma x0 in x. ♦

M0 V M
(t0;x(t)) (t;x(t))
Get0t
G t0t
'
V0
t0 t
(t0;x0) (t;x0)
Gb t0t

1.4 Esempi e casi notevoli


Come si è detto, se il campo non è autonomo il problema della determinazione delle soluzioni dell’equazione
ẋ = v(t, x) anche con x ∈ R si complica in modo generalmente non risolubile.
Vi sono però alcuni casi particolari di speciale interesse. Sia D , anche in questo paragrafo, un dominio (un
aperto, connesso, non vuoto) di uno spazio reale.

Primo caso notevole Separazione delle variabili.


v x (x)
v(t, x) = , v x , v t ∈ C 1 (D), D dominio ⊆ R1+1 , (t0 , x0 ) ∈ D .
v t (t)
Essendo entrambe scalari, le due variabili x e t sono del tutto simmetriche, ed allora spesso si usano solo
variabili “spaziali”: x, y ∈ R ottenendo
dy v y (y) dx dy
= x , o addirittura : = ;
dx v (x) v x (x) v y (y)
si osservi tuttavia che in quest’ultima espressione vi è un certo abuso di notazione (vedi oltre).
Si supponga che siano non nulli entrambi i valori v x (x0 ), v y (y0 ). Esisterà allora N (y0 , x0 ) ⊂ D nel quale ciò
continua a sussistere. In N (y0 , x0 ) la soluzione y = y(x), tale che y0 = y(x0 ), esiste unica implicitamente definita
da: - x - y
dξ dη
ψ1 (x) − ψ1 (x0 ) := x
= y
= ψ2 (y) − ψ2 (y0 ).
x0 v (ξ) y0 v (η)

Note di Sistemi Dinamici


28 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Infatti: posto t − t0 := ψ1 (x) − ψ1 (x0 ) si ha che ne esiste l’inversa x(t) = ψ1−1 (t − t0 + ψ1 (x0 )) in N (y0 , x0 ), e
questa è soluzione di ẋ = v x (x) , x(t0 ) = x0 ; (giacché v x (x0 ) ̸= 0 ). Analogamente esiste unica la y(t) =
−1
ψ2 (t−t0 +ψ2 (y0 )) tale che: ψ2 (y(t)) = t−t0 +ψ2 (y0 ). Pertanto, definita ψ3 (x, x0 , y0 ) := ψ1 (x)−ψ1 (x0 )+ψ2 (y0 ),
la soluzione del problema è data dalla: y(x) := ψ2−1 (ψ3 (x, x0 , y0 )). Essa infatti ha per derivata
'
dy(x) 7 −1 8′ dψ2−1 (η) '' dψ1 (x)
= ψ2 (x) = =
dx dη 'η=ψ3 (x,x0 ,y0 ) dx
@ ' A−1
dψ2 '' 1 v y (y(x))
= ' x
=
dy y=ψ−1 (ψ3 (x,x0 ,y0 )) v (x) v x (x)
2

ed inoltre è evidente che y(x0 ) = ψ2−1 (ψ2 (y0 )) = y0 .


Sia per esempio y la variabile dipendente. Se in D la v x (x) ̸= 0 e la .v y (y) si annulla per qualche ȳ, allora si

può perdere l’unicità, a dipendere dalla convergenza o meno dell’integrale y0 vydη(η) . L’unicità si perde se vi possono
essere diverse curve integrali tangenti alla soluzione, certamente accettabile, y(x) = ȳ . Se l’integrale diverge, il
procedimento su esposto porta ad un assurdo, e l’unica soluzione accettabile è la costante (Esempi 1.2.7 e 1.2.8).
Se invece l’integrale converge, è possibile determinare infinite soluzioni, (Esempi 1.2.1 e 1.2.2), compatibili con
arbitrarie condizioni iniziali e che “biforcano” dalla y(x) = ȳ, raccordandosi con questa nei punti di tangenza lungo
la retta y = ȳ. Viceversa, se è la sola v x (x) ad annullarsi in qualche punto x̄ allora è l’esistenza in grande che
viene a mancare, e la soluzione resta definita solo in intervalli che dipendono dalle condizioni iniziali.
2 1 1
Esempio 1.4.1 ẋ = ≡ − , t0 , x0 ∈ R, t0 ̸= ±1 ,
−1t2 t−1 t+1
(si veda anche: Esempio 1.2.8). La famiglia delle soluzioni è contenuta nell’espressione
' '
't − 1'
'
!(t) = ln '
x ' + cost .
t + 1'

-1 +1
t

1
Esempio 1.4.2 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Fissato comunque τ > 0 , non possono esistere soluzioni in J := (−τ, τ ), perché ln |τ | + c è discontinua in zero.
L’equazione ha però soluzioni date da

t &→ φ(t, t0 , x0 ) = ln(−t) − ln(−t0 ) + x0 per t ∈ (−τ, 0), se t0 < 0


t &→ φ(t, t0 , x0 ) = ln(+t) − ln(+t0 ) + x0 per t ∈ (0, +τ ), se t0 > 0 .

x0
t

M. Lo Schiavo
1.4. Esempi e casi notevoli 29

x
Esempio 1.4.3 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Per t > 0 e per t < 0 le soluzioni sono date da x !(t) = c0 t con c0 := x0 /t0 . Tuttavia nessuna di esse passa
per la retta t = 0 che rappresenta la frontiera del dominio D di regolarità del campo. Quindi anche se (t0 , x0 ) e
(t′0 , x′0 ) sono tali da avere lo stesso rapporto, qualora fosse t0 t′0 < 0 le due semirette non fanno parte di una stessa
soluzione, pur facendo parte di una stessa retta.
x

Ciò è per dire che quando v non è regolare, anche se la soluzione “sembra” regolare essa va comunque considerata
come formata dalle varie parti dalle quali risulta composta e che separatamente sono soluzioni della equazione su
diversi domı́ni.
Si noti che il teorema di esistenza non dice che la soluzione è certamente singolare su ∂D , dice solo che non lo

è in D .
Esempio 1.4.4 t2 ẋ + 2tx − 4t3 = 0 , (t0 , x0 ) = (1, 1).
2 4
L’equazione implica t x − t = c, e le condizioni iniziali danno c = 0 . La soluzione pertanto è contenuta in una
funzione regolare su tutto R pur non essendo, la soluzione stessa, definita su tutto R. Infatti essa è comunque
composta da due rami disgiunti su t < 0 e t > 0 . Ciò è immediato se si pensa al fatto che l’equazione data è, in
2
reatà, la ẋ = 4t − x, le cui soluzioni sono riassunte dalla x !(t) = t2 + c/t2 .
t
x

t
Esempio 1.4.5 ẋ = −, t0 , x0 ∈ R, x0 ̸= 0 .
x
L’equazione implica x + t = c = x20 + t20 . La soluzione quindi cessa di esistere per t2 > c. In particolare, se
2 2

c=0, la funzione φ(t, 0, 0) : {0} &→ {0} non è certo differenziabile, (e non è la costante R → {0} ).
x

t
#

Esempio 1.4.6 Il modello ecologico unidimensionale. p : t ∈ R &→ p(t) ∈ R+ .


Siano n(t) il numero di nuovi nati, su un campione di n̄ individui, nell’intervallo di tempo [t − τ, t]; m(t) il
numero di morti nello stesso intervallo di tempo e sullo stesso campione; p(t) il numero di individui vivi all’istante
t. La frequenza di crescita all’istante t, media nell’intervallo ∆t, è data per definizione da
∆p 1
:= (n(t) − m(t)) · .
p∆t n̄τ

Note di Sistemi Dinamici


30 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

∆p ṗ
Ipotesi di lavoro però è che sia p : R → R, ed inoltre = .
p∆t p
Un primo modello si ottiene ponendo n(t)−m(t) ∼ cost = α, con α dipendente dalla quantità di cibo disponibile
per individuo σ . Può essere plausibile supporre α = β(σ − σ0 ), con β una costante positiva e con σ0 la minima
quantità di cibo sufficiente al sostentamento: si ha cioè σ ≤ ≤
>σ0 ⇐⇒ α>0. In tal modo risulta

p!(t) = p0 exp(α(t − t0 )).

Con tale schema, (σ indipendente da p), la popolazione p potrebbe crescere in modo indefinito. È chiaro
che generalmente questo non è accettabile; come correzione è necessario assegnare qualche fenomeno sociale, il cui
modello sia σ = σ(p), e che impedisca la crescita indefinita.
A questo scopo si può tenere conto della lotta per il cibo: σ = (& σ − kp) con σ & > σ0 . Risulta allora α =
σ − σ0 ) − βkp =: c(η − p). Questo secondo modello dà luogo alla
β(&

equazione Logistica : ṗ = c(η − p)p , c, η > 0 . (4.32)

Gli equilibri sono p = 0, e p = η che viene chiamata popolazione endemica. Si noti poi che −cp2 è proporzionale
al numero di incontri, e rappresenta gli attriti sociali. Ci si aspetta anche che per piccole popolazioni tali attriti
siano piccoli, e cioè η ≫ 1 . Per p piccole allora si ha ṗ ≃ cηp da cui si vede che lo zero è instabile in quanto la p
segue l’evoluzione vista sopra. Viceversa, se p > η risulta ) ṗ/p < 0 e di *
conseguenza si ha che η è stabile.
1 1 1/η b/η
Più in dettaglio, mediante la relazione ≡ + si ricava
cp(η − bp) c p η − bp
' ' ' ' ' '
1 'p' 1 ' η − bp) ' ' p(η − p0 ) '
c(t − t0 ) = ' '
ln ' ' − ln ' ' ' , e quindi '
cη(t − t0 ) = ln ' ' .
η p0 η η − bp0 ' p0 (η − p) '

Pertanto, se η − p0 > 0 allora (per continuità) è anche η − p > 0 almeno fino a che p = η ; e ciò non può accadere
in un tempo finito. Analogamente, se: η − p0 < 0 allora η − p < 0 per ogni t ≥ t0 . Risulta infatti esplicitamente:
η
p!(t) = ,
1 + ( pη0 − 1) exp(−cη(t − t0 ))

che implica, dato p0 > 0 , che lim p(t) ↑ η se p0 < η , e lim p(t) ↓ η se p0 > η . Si ha cioè la curva
t→∞ t→∞
logistica:

0
t

N.B. 1.4.7 Attenzione alle forme implicite. Con x : t ∈ R &→ x(t) ∈ R si hanno per esempio:

• ẋ2 + x2 = 0 non ha soluzioni: l’insieme aperto D di definizione del campo è vuoto. Al più si può estendere il
concetto di soluzione (vedi qui sotto) ed accettare l’unica x = x(t) = 0 in corrispondenza dell’unica possibile
scelta delle condizioni iniziali: (t0 , x0 ) ≡ (t0 , 0) ∈ ∂D .

• |ẋ| + 1 = 0 non ha soluzioni ;

• (ẋ − x)(ẋ − 2x) = 0 non è una equazione ma sono due.

Definizioni desuete:

M. Lo Schiavo
1.4. Esempi e casi notevoli 31

Soluzione generale := Una funzione Φ : (t, t0 ; c) &→ Φ(t, t0 ; c) ∈ Rn , con c := (c1 , . . . , cn ) ∈ Rn , definita
su un aperto J × U ⊆ J × D ⊆ R2+n e tale che ogni possibile soluzione x = φ(t, t0 , x0 ) dell’equazione ẋ = v(t, x),
con x ∈ Rn e (t0 , x0 ) ∈ U , si possa ricavare come caso particolare della Φ per una qualche scelta dei parametri
c1 , c2 , · · · , cn . Lo spazio dei parametri deve pertanto poter essere posto in corrispondenza biunivoca con quello dei
dati iniziali (a t0 fissato).
Soluzione singolare := una soluzione che non è ottenibile dalla soluzione generale per alcun valore reale finito

dei parametri. (Spesso appartiene con la ∂D se il campo è loc.Lip in D ).
Queste possono dar luogo a casi dubbi: ẋ = −2x3/2 , che è Lip in R, dà
1 −1/2
(x−1/2 − x0 ) = −2(t − t0 )
(1 − 3/2)

da cui (
(t + c)−2 se ̸ 0
x0 =
!(t) =
x
0 se x0 = 0

e si noti che la x = 0 non è ottenibile dalla prima per alcun valore reale di c. Se però si pone k := 1/c la funzione
!(t) = k 2 /(1 + kt)2 che è del tutto regolare, ma che non contiene il caso c = 0 .
che si ottiene è : x
Conviene in definitiva riferirsi sempre alla soluzione locale per (t0 , x0 ).
Esempio 1.4.8 L’equazione di Clairaut

ẋ2
x = ẋt − t0 , x0 ∈ R .
2
√ '
In realtà queste sono due equazioni: ẋ = t ± t2 − 2x entrambe con campo loc.Lip in D := {(t, x) 'x < t2 /2 },
1
infatti ivi è finita la ∂x v = ∓(t2 − 2x)− 2 . La frontiera del dominio D è la parabola x = t2 /2 che è soluzione,
singolare.
La funzione x !(t) = x0 + λ(t − t0 ) è soluzione purché λ verifichi la:
B
1
x0 + λ(t − t0 ) = λt − λ2 , e cioè se λ± = t0 ± t20 − 2x0 .
2
A sua volta quest’ultima individua due rette (una per equazione) per ciascun (t0 , x0 ) ̸∈ ∂D ; esse passano per la
∂D nei punti (x± , t± ) tali che

t2± λ2
= x± = x0 + λ± (t± − t0 ) = λ± t± − ±
2 2
che implica (t± − λ± )2 = 0 e quindi t± = λ± . D’altra parte il coefficiente angolare della tangente in t alla
parabola ∂D vale: d(t2 /2)/dt ≡ t, per cui le rette soluzione sono tangenti alla parabola nei punti (x± , t± ).
Come nell’Esempio 1.4.3 però queste soluzioni vanno considerate in modo separato: l’una o l’altra delle due
semirette il cui punto di separazione è quello di tangenza con la frontiera ∂D del dominio di regolarità del campo.

x=t2=2
x

t
(t0;x0)

Nella figura il tratto unito rappresenta le soluzioni per l’equazione con il segno positivo, quello tratteggiato le
soluzioni dell’equazione con il meno. #

Memento 1.4.1 Una funzione f : R2 → R si dice omogenea di grado α ∈ R se, per ogni x > 0 , si ha

f (xy, xz) = xα f (y, z), identicamente per y, z ∈ R .

Note di Sistemi Dinamici


32 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Secondo caso notevole Equazioni omogenee di grado zero.


Siano x0 , y0 ∈ R, D ⊂ R2 aperto, con x0 ̸= 0 e v(x0 , y0 ), e siano v x , v y : R2 → R, v x , v y ∈ C 1 (D), due
funzioni omogenee dello stesso grado. (Ridefinendo x → −x se x0 < 0 ), la sostituzione y(x) =: x z(x) trasforma
l’equazione
dy v y (x, y)
= x , (x0 , y0 ) ∈ D nella :
dx v (x, y)
dz v y (1, z)
z+x = x , (x0 , z0 ) ∈ D, z0 := y0 /x0
dx v (1, z)
che si risolve implicitamente con la
- ) *−1 '
x z
v y (1, ζ) '
'
ln = −ζ dζ ' ,
x0 z0 v x (1, ζ) '
z=y/x

(si veda: [Petrovskj p.18]); tutte le curve integrali sono simili, con l’origine come centro di similitudine: y → cy, x →
cx, con c ̸= 0 .
È evidente che questo metodo si applica anche ad equazioni del tipo: y ′ = g(x, y) con g : R2 → R funzione
omogenea di grado zero.
) *
dy ax + by + c
Esempio 1.4.9 =g x0 , y0 ∈ R, dx0 + ey0 ̸= 0 con g : R → R, funzione regolare, e
dx dx + ey + f
con a, .' . . , f '∈ R , tali che |c| |f | ̸= 0.
'a b'
Se '' ' ̸= 0 esiste un unico punto (x̄, ȳ) intersezione delle due rette. Posto x =: ξ + x̄, y =: η + ȳ si ricava
d e'
facilmente ) * ) *
dη aξ + bη dζ a + bζ
=g =⇒ ζ + ξ =g .
dξ dξ + eη dξ d + eζ
' '
'a b'
Se invece ' ' ' = 0 , (pur restando |a| + |b| > 0, e |d| + |e| > 0), esiste σ ∈ R tale che a = σd, b = σe, e si
d e'
ha con z = (ax + by) = σ(dx + ey) :
) *
dy dz z+c
b = − a = bg z+f .
dx dx 1/σ
#
N.B. 1.4.10 Nel seguito di questo paragrafo si assumeranno x, y, z ∈ R; le funzioni v , v , µ, ν : R → R verranno x y 2

tutte considerate appartenenti a C 1 (D) per un conveniente aperto D ⊆ R2 , D ∋ (x0 , y0 ); e si supporrà che in
D entrambi i valori di v x , v y e di µ, ν siano non simultaneamente nulli.
Inoltre, la seguente notazione si intenderà valida con l’intesa di scegliere come variabile dipendente quella per
la quale la condizione iniziale (x0 , y0 ) ∈ R2 rende la corrispondente componente del campo determinata e non
nulla. Per esempio se v x (x0 , y0 ) è in R\{0} allora si intenderanno localmente equivalenti in N (x0 , y0 ) ⊆ R2 le
due espressioni
dy v y (x, y)
= x e v y (x, y) dx = v x (x, y) dy , (4.33)
dx v (x, y)
il che comporta che nell’intorno di punti nei quali è invece v y (x, y) ̸= 0 l’equazione che si pensa di risolvere è la:
dx v x (x, y)
= y e non la prima delle (4.33). Allo stesso modo, se ν : R2 → R, è tale che ν(x0 , y0 ) ̸= 0 , allora si
dy v (x, y)
equivarranno in N (x0 , y0 ) ⊆ R2 le
dy
ν(x, y) + µ(x, y) = 0 e µ(x, y)dx + ν(x, y)dy = 0 . (4.34)
dx
Questa notazione si può generalizzare al caso n ≥ 2 , e cioè con x := (x1 , . . . , xn ) ∈ Rn e con v := (v1 , . . . , vn ) : D ⊆ Rn → Rn ,
v ∈ C 1 (D) . Tuttavia ciò dà luogo a due possibili “estensioni”, diverse l’una dall’altra. Da un lato si può considerare la (4.33) come
un caso particolare di un’espressione del tipo
dx1 dx2 dxn
= = ... = , (4.35)
v1 (x1 , . . . , xn ) v2 (x1 , . . . , xn ) vn (x1 , . . . , xn )
da intendersi equivalente al sistema (per esempio)
dxi vi (x1 , . . . , xn )
= j 1 , i = 1, . . . , j − 1, j + 1, . . . , n
dxj v (x , . . . , xn )

M. Lo Schiavo
1.4. Esempi e casi notevoli 33

se nell’intorno di un punto x0 := (x10 , . . . , xn j


0 ) nel quale è v (x0 ) ̸= 0 (si veda: Cap.II). In particolare

dx1 dx2 dxn dt


= = ... = = (4.36)
v1 (t, x1 , . . . , xn ) v2 (t, x1 , . . . , xn ) vn (t, x1 , . . . , xn ) 1
può essere ritenuta equivalente per esempio al sistema
d i
x = vi (t, x1 , . . . , xn ) , i = 1, . . . , n .
dt
Dall’altro, la (4.33) può essere vista come caso particolare della sola espressione:
f1 (x1 , . . . , xn )dx1 + f2 (x1 , . . . , xn )dx2 + · · · + fn (x1 , . . . , xn )dxn = 0 , (4.37)
la quale però, per n > 2 , in generale non equivale ad alcuna equazione differenziale ordinaria risolubile in modo indipendente. Essa
infatti stabilisce “solo” un vincolo di ortogonalità, nel punto x = (x1 , . . . , xn ) , fra il vettore f(x) ∈ Rn ed uno dei vettori v(x) ∈ Rn
che possono comparire nella (4.35), e cioè un qualsiasi vettore di campo di un sistema del tipo ẋ = v(x) . ♦

Terzo caso notevole Equazioni differenziali esatte


(si vedano: [Ghizzetti II p.221] o anche: [Apostol III.7.19])

Memento 1.4.1 Si ricordino dapprima le seguenti definizioni.


Cammino semplice := Un cammino γ := {γ(τ )}τ ∈[t0 ,t] individuato da una funzione γ : τ ∈ [t0 , t] → x :=
x(τ ) ∈ D ⊂ R2 , γ ∈ C([t0 , t]) tale che dati comunque τ1 , τ2 ∈ [t0 , t], τ1 ̸= τ2 , si ha γ(τ1 ) ̸= γ(τ2 ).
Cammino generalmente regolare := Un cammino γ : [t0 , t] → D ⊂ R2 , γ ∈ C 0 ([t0 , t]) che ammette t0 <
t1 < t2 < . . . < tn := t tali che su ciascun Ii := (ti−1 , ti ) si ha γ ∈ C 1 (Ii ), con ∥γ̇∥ := (ẋ2 + ẏ 2 )1/2 > 0 ,
i = 1, 2, . . . , n .

Sia γ un Cammino generalmente regolare in Rn dato da x(t) = (x1 (t), .., xn (t)).
“Integrare una funzione scalare f : D9 → R,
' f=
1 n
: f (x , . . . , x ) lungo γ” significa sommare i valori ottenuti su
ciascuno degli archi regolari: γ i := γ(t) t ∈ Ii mediante la
'
- - ti /
f ds ≡ f (x(τ )) |ẋ(τ )|2 dτ ;
γi ti−1

e si osserva che il risultato è indipendente C dalla particolare parametrizzazione dell’arco γ i .


i=1 gk (x , . . . , x ) dx lungo γ i significa calcolare l’integrale
n 1 n k
“Integrare una forma differenziale lineare
@ n A
=- = D1 / - t=n
i
gk ẋ (τ ) |ẋ|2 dτ = gk (x1 (τ ), . . . , xn (τ )) ẋk (τ ) dτ .
i=1 γi k=1 t0 k=1

Forma esatta := Una forma differenziale del tipo:

µ(x, y)dx + ν(x, y)dy, con µ, ν : R2 → R, x, y ∈ R ,

si dice esatta su un dominio D ⊂ R2 quando esiste su D una funzione F : D → R che sia F ∈ C 1 (D) con
@ A @ A
∂x F (x, y) µ(x, y)
∇F (x, y) := = , (x, y) ∈ D .
∂y F (x, y) ν(x, y)

In tal caso, scelto un qualunque cammino semplice e generalmente regolare γ : [t0 , t] → D , la cui rappresentazione
parametrica sia x(τ ) ≡ (x(τ ), y(τ )) con x(t0 ) = p0 ≡ (x0 , y0 ) e x(t) = p ≡ (x, y), si ha:
- - t - t
dF
µdx + νdy := (µẋ + ν ẏ)dτ = dτ = F (x, y) − F (x0 , y0 ) .
γ t0 t0 dτ

Equivalentemente, lungo un qualunque cammino semplice e chiuso γ0 ⊂ D risulta, con T il periodo del ciclo γ 0,
- - t0 +t
µdx + νdy ≡ (µ(x(t))ẋ(t) + ν(x(t))ẏ(t)) dt
γ0 t0
- t0 +t
dF (x(t))
= dt = F (x(t0 + T)) − F (x(t0 )) ≡ 0 .
t0 dt

Note di Sistemi Dinamici


34 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Le precedenti considerazioni si estendono al caso generale, e cioè per una forma differenziale del tipo (4.37)
con n > 2 ed x ∈ Rn . Anche questa si dice esatta quando esiste una funzione (scalare) F = F (x) ∈ R il cui
differenziale totale uguaglia la forma stessa; e pertanto essa è tale che ∇F (x) = (f1 (x), . . . , fn (x)) . Come si vedrà
più diffusamente nel Cap.III, se n > 2 l’esattezza di una forma implica “solo” che il valore F (t) := F (! x(t)) non
muta lungo ciascuna delle soluzioni x : t &→ x !(t) := (x1 (t), . . . , xn (t)) di una qualsiasi delle equazioni ẋ = v(x)
che hanno campo v(x) che verifica
n
=
∇F (x) · v(x) ≡ fi (x1 , . . . , xn )v i (x1 , . . . , xn ) = 0,
i=1

e cioè quelle con campo v tangente in ogni suo punto a una superficie: F (x) = F0 .
Esempio 1.4.11 (continuazione dell’Esempio 1.4.5) ) *
−y/x
La funzione F (x, y) := x2 + y 2 ha valori costanti non solo lungo le soluzioni del campo , ma anche
) * ) * 1
y yx
lungo quelle dei campi: oppure , etc, (ma solo il secondo dei tre verifica la condizione di Shwartz,
−x −x2
cfr. oltre). #

Viceversa, nel caso n = 2 (ovvero 1 variabile scalare dipendente ed 1 indipendente), sussiste la seguente

Proposizione 1.4.1 Sia D ⊆ R2 aperto, x, y ∈ R, e µ, ν ∈ C 1 (D) a valori reali e non simultaneamente nulli.
* + ν(x, y)dy è esatta, e quindi esiste una funzione F : D → R, F ∈ C (D), tale che su D
1
Se la forma µ(x,) y)dx
µ
si abbia: ∇F = , allora il teorema della funzione implicita permette di risolvere la F (x, y) = c = F (x0 , y0 )
ν
e di ricavare la soluzione (generale) in D dell’equazione µ(x, y)dx + ν(x, y)dy = 0 , e cioè di una (qualsiasi)
) *
x
delle equazioni ẋ = v(x), con x(t) ∈ R , che hanno campo v(x) ortogonale a ∇F (x) nel punto x =
2
, per
y
esempio: dy/dx = v x /v y = −ν/µ, e sempre che sia µ(x, y) ̸= 0 , la x = x(y) tale che F (x(y), y) = F0 := F (x0 , y0 )
è la soluzione di

Dimostrazione Supposto, per esempio, che sia ∂x F (x0 , y0 ) ≡ µ(x0 , y0 ) ̸= 0, la: F (x, y) = F0 = F (x0 , y0 )
definisce implicitamente x = x(y) tale che:

• F (x(y), y) = F0 per ogni y in un conveniente intorno di y0 ;

• x(y0 ) = x0 ;

• x = x(y) è soluzione di
dx ν(x, y)
=− (4.38)
dy µ(x, y)
perché x = x(y) è tale che
+ ,
d dx
0= (F (x(y), y)) = µ(x, y) + ν(x, y) . (4.39)
dy dy x=x(y)

Si osservi che la (4.38) è equivalente al sistema



⎨ x′ = − ν(x, y) ,
µ(x, y) (4.40)
⎩ ′
y =1,

ed è quindi della forma: ) *


µ
ẋ = v(x), con x ∈ R2 , e con v ⊥ ∇F = .
ν
In effetti anche qui, come nel caso generale, ogni soluzione della (4.38) è tale da giacere su una delle superfici
F (x, y) = cost. Infatti lungo le soluzioni della (4.38), ed in forza della (4.39), si riconosce che la funzione F
conserva il valore F (x0 , y0 ) che essa assume nel punto iniziale. Come si vedrà in seguito, la funzione F è un
integrale primo del sistema (4.40).

M. Lo Schiavo
1.4. Esempi e casi notevoli 35

Memento 1.4.1 Sussistono i seguenti risultati classici.

Teorema 1.4.1 (della funzione implicita) , (si veda: [Apostol III.3.29])


Sia f : (x, y) ∈ D → f (x, y) ∈ R, con D := R × [a, b] ⊂ R2 , tale che ∂x f esista su D e verifichi 0 < m1 ≤
∂x f ≤ m2 per certe due costanti m1 , m2 ∈ R.
Se per ogni φ ∈ C 0 ([a, b]) anche la f ◦1 φ ∈ C 0 ([a, b]), ove (f ◦1 φ)(y) := f (φ(y), y), allora esiste ed è unica la
φ! ∈ C 0 ([a, b]) tale che f ◦1 φ! = 0 per ogni y ∈ [a, b].

1 7 8
Dimostrazione L’operatore S[φ] := φ − f ◦1 φ è contrattivo su C 0 ([a, b]), ∥ · ∥∞ . Infatti, siccome è
m2
possibile scrivere 0 1
f ◦1 φ = f ◦1 ψ + ∂x f ◦1 ψ& (φ − ψ)

per un’opportuna ψ& tale che ψ(y)


& ∈ [φ(y), ψ(y)], allora si ha che
' ' ' ' ' ) *'
' ' ' ' ' '
'S[φ] − S[ψ]' = 'φ − ψ − 1 (f ◦1 φ − f ◦1 ψ)' = '(φ − ψ) 1 − 1 ∂x f ◦1 ψ& '
' ' ' m2 ' ' m2 '
) *
m1
≤ 1− |φ − ψ|
m2

e quindi
m1
∥S[φ] − S[ψ]∥∞ ≤ k ∥φ − ψ∥∞ con k =1− < 1.
m2
"

Per cui, se f (x0 , y0 ) = 0 , l’unicità di φ! ed il fatto che ∂x f ̸= 0 assicurano che x0 = φ(y


! 0 ). Infatti la
f (·, y) è nulla in φ(y0 ) e monotona in N (x0 ).
Alternativamente, con ipotesi leggermente meno restrittive ed una dimostrazione meno snella, si ha il seguente

Teorema 1.4.2 (del Dini) , (si veda: [Avantaggiati II.2.1]) Siano f, ∂x f ∈ C 0 (D) con D ⊂ R2 aperto, e sia
(x0 , y0 ) ∈ D tale che
f (x0 , y0 ) = 0, ed ∂x f (x0 , y0 ) ̸= 0 .

Allora esistono h, k ∈ R+ ed una sola φ! : [Bh (y0 )] → [Bk (x0 )] tali che

! 0 ) = x0 ,
φ(y e che f ◦1 φ! = 0 su Bk (y0 ).

Dimostrazione Si supponga ∂x f (x0 , y0 ) > 0 . Esistono δ, h, m > 0 tali che [Bh (x0 )] × [Bδ (y0 )] =: Γ ⊂ D , e
che su Γ risulti ∂x f ≥ m > 0 .
Ma allora è f (x0 − h, y0 ) < 0 ed f (x0 + h, y0 ) > 0 , e quindi esiste 0 < k ≤ δ tale che f (x0 − h, y) < 0 ed
f (x0 + h, y) > 0 su Bk (y0 ).
Pertanto per ciascun ȳ ∈ Bk (y0 ) esiste x̄ ∈ Bh (x0 ) tale che f (x̄, ȳ) = 0 , e tale x̄ è unico giacché ∂x f > 0 .
Infine, la continuità della corrispondenza è provata, punto per punto, scegliendo h e k opportunamente piccoli.
"

Prendono il nome di esatte quelle equazioni differenziali che risultano le derivate totali di un’equazione di ordine
d
inferiore. Per esempio, l’equazione di Lighthill: ẍ+tẋ+x = 0 è del tipo dt (ẋ+tx) = 0 . Esse danno luogo, mediante
quadratura, ad un’equazione di ordine più basso, e consistono in un caso particolare di ortogonalità fra il vettore
f (x) := ∇F (x) di una forma esatta ed un vettore ẋ = (ẋ1 , . . . , ẋn ) espressi in funzione di un’unica variabile
dipendente e delle sue derivate di ordine superiore. Nell’esempio della equazione 7 di Lighthill si ha ∇F 8 (t, x) ≡
f (t, x) := (Ft ; Fx ; Fẋ ; . . . ; Fx(n) ) = (x; t; 1) che è ortogonale al vettore 1 ; ẋ ; ẍ ; . . . ; x(n+1) , e quindi
!(t))/dt = 0 .
dF (t, x
N.B. 1.4.12 Se µ(x, y) si annulla in qualche punto in D occorre cambiare il ruolo delle due variabili dipendente ed
indipendente: per la forma vista nell’Esempio 1.4.11: xdx + ydy vanno presi in considerazione quattro domı́ni;
ciò non toglie tuttavia che la funzione F (x, y) = x2 + y 2 sia del tutto regolare. ♦

Note di Sistemi Dinamici


36 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

N.B. 1.4.13 Per definizione, la funzione F è F ∈ C 1 (D), e quindi risulta necessariamente verificata la

Condizione di Schwartz δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) = 0, x, y ∈ D .

e cioè la forma è chiusa in tutto il dominio di regolarità D della funzione F .


L’opposto della funzione δ può essere interpretato sia (in dim = 2 ) come la divergenza del vettore: w :=
(ν, −µ), sia (in dim = 3 ) come la terza componente di un vettore ω tale che ω x = µ ed ω y = ν . ♦

In generale non è immediato capire se esista o meno una tale funzione F anche al di fuori del “conveniente
intorno” delle condizioni iniziali. A volte invece può succedere che se ne possa stabilire l’esistenza in modo semplice:
è ciò che accade quando la funzione δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) si annulla in tutti i punti di un aperto
semplicemente connesso: A.

Memento 1.4.1 Semplicemente connesso := Un aperto A ⊂ R2 si dice semplicemente connesso quando ogni
curva generalmente regolare semplice e chiusa contenuta in A è frontiera, in R2 , di un aperto connesso totalmente
contenuto in A.
Ciò è l’equivalente in dimensione due di quello che in dimensione tre si chiama:
Connessione lineare semplice := Un aperto A ⊂ R3 si dice a connessione lineare semplice quando ogni curva
generalmente regolare semplice e chiusa contenuta in A è frontiera, in R3 , di una superficie S generalmente
regolare totalmente contenuta in A.
Entrambi si possono anche enunciare richiedendo che ogni curva semplice chiusa sia “contraibile” ad un punto
in modo continuo senza uscire dall’insieme A.
Se A è semplicemente connesso, dato comunque un cammino semplice chiuso γ 0 ⊂ A si può assicurare
l’esistenza di un insieme regolare Γ ⊂ A ⊂ R2 che lo ha per frontiera, ove:
Insieme regolare := Un chiuso Γ ⊂ Rn che ammette una decomposizione finita: Γ = ∪ni=1 Γi fatta con Insiemi
normali o semplici {Γ1 , . . . , Γn } rispetto ad un (qualche) piano coordinato, e frontiera costituita da porzioni di
superficie regolari aventi a coppie al più punti (isolati) in comune.
Insieme in R3 normale rispetto al piano (x, y), o: z -semplice := un compatto Γ ⊂ R3 espresso da
⎧ ' ⎫
⎨ ' α(x, y) ≤ z ≤ β(x, y); α, β ∈ C 1 (D ⊂ R2 ), ⎬
'
Γ := (x, y, z) ∈ R3 '' ◦ .
⎩ ' α(x, y) < β(x, y) ⎭
∀(x, y) ∈D, D normale

Se A ⊂ R2 è semplicemente connesso sussistono le formule di Green secondo le quali, se µ, ν ∈ C 0 (A) e se γ 0


è semplice chiusa e bordo di Γ ⊂ A, si ha che:
- - -
(∂x ν(x, y) − ∂y µ(x, y)) dx dy = − δ(x, y)dx dy = µ(x, y)dx + ν(x, y)dy . (4.41)
Γ Γ γ0
) * ) *
ν +dy
Con la notazione v ∥ w := ed n dλ = la (4.41) si può anche leggere come la restrizione ad R2
−µ −dx
del teorema della divergenza (o di Gauss):
- H
div w dΓ = w · n dλ con Γ ⊂ R2 regolare, ∂Γ semplice e liscia, n uscente.
Γ ∂Γ

Solo per memoria si ricorsi che, in dimensione tre, sussistono le formule


- H
div w dV = w · n dσ con V ⊂ R3 regolare, ∂V orientata, n uscente,
V ∂V

da paragonare con quelle del teorema di Stokes:


- H
rot ω · n dS = ω · τ dλ , ω, n, τ ∈ C 1 (A, R3 ) . (4.42)
+S +∂S

nelle quali ω = (µ, ν, σ) ∈ C 1 (A, R3 ), n dS = (dy dz, dz dx, dx dy), e τ dλ = (dx, dy, dz). Inoltre, +∂S è una
curva semplice chiusa generalmente regolare, bordo di una superficie S orientata regolare e contenuta in A ⊆ R3 ;
quest’ultima esiste certamente purché A sia a connessione lineare semplice.

M. Lo Schiavo
1.4. Esempi e casi notevoli 37

Pertanto, se rot ω = 0 su un qualche insieme D a connessione lineare semplice, dal Teorema di Stokes segue
.p
che p0 ω · τ ds = F (p) − F(p0 ) qualsiasi sia il percorso semplice generalmente regolare che unisce p0 a p .
Allora necessariamente si ha ω = ∇F . Infatti, facendo passare il percorso per un arbitrario p′ := (x′ , y, z) con
.p
p′ ∈ Γ(p) ⊂ D ed x′ < x, si riconosce che ∂x F (p) = ∂x p0 ω x dx + 0 ≡ ω x ; ed analogamente per le altre derivate
parziali.

In definitiva, e con δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) = −div w = rotz ω , si ha che:

• in dim = 2 : la condizione div w = 0 in tutti i punti di un aperto semplicemente connesso A

• in dim = 3 : la condizione rot ω = 0 in tutti i punti di un dominio a connessione lineare semplice)

è condizione sufficiente (oltre che necessaria) perché si annulli l’integrale di linea della forma lungo una qualsiasi
curva semplice chiusa γ 0 contenuta in A. Quest’ultima condizione equivale all’esistenza della funzione F = F (x)
il cui differenziale totale uguaglia la forma su A. In particolare, in dim = 2 è garantita l’esistenza di F = F (x, y)
tale che (
) *
µ ∇F ∥ ω
∇F = , ovvero , e quindi tale che ∇F · τ dλ = dF .
ν ∇F ⊥ ω

Riassumendo (in dim = 2 ):


(
⇐ ∂y µ = ∂x ν, µ, ν ∈ C 1 in A semplicemente connesso
∃F ∈ C 1 (D) 1
⇒ ∂y µ = ∂x ν, µ, ν ∈ C in D aperto connesso.

Nota 1.4.1 Sapendo che la forma è esatta, e quindi che la funzione F esiste, per calcolarla è opportuno scegliere
percorsi convenienti; per esempio, per ogni (x0 , y0 ), (x0 , y) ∈ D ⊆ R2 si ha
- x - y
F (x, y) − F (x0 , y0 ) = µ(ξ, y)dξ + ν(x0 , η)dη ;
x0 y0

oppure altre analoghe espressioni, quali per esempio la:


- x - y
F (x, y) − F (x0 , y0 ) = µ(ξ, y0 )dξ + ν(x, η)dη .
x0 y0

Altre volte è invece conveniente agire come segue:


- x
∂x F (x, y) = µ(x, y) =⇒ F (x, y) = µ(ξ, y)dξ + r(y).

La derivata parziale rispetto ad y del secondo membro di quest’ultima deve uguagliare ν(x, y). Si risolve rispetto
a dr/dy e si integra in modo indefinito la funzione della sola y cosı̀ ottenuta; infatti
) * ) - x *
∂ dr ∂ ∂
= ν− µ(ξ, y)dξ = ∂x ν − ∂y µ = 0
∂x dy ∂x ∂y

Si ha in tal modo: - + - ,
y x
r(y) = ν(x, η) − ∂η µ(ξ, η)dξ dη.

Esempio 1.4.15 cos y dx − (x sin y − y 2 ) dy = 0 , (x, y) ∈ R2 .


Si ha ∂x ν = ∂y µ = − sin y. Pertanto F (x, y) = x cos y + r(y), e quindi

dr
−x sin y + = −x sin y + y 2 , che implica r(y) = (y 3 + c)/3
dy

da cui x(t) = (c − y 3 /3)/ cos y + c.


#

Note di Sistemi Dinamici


38 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

xdy − ydx
Esempio 1.4.16 , (x, y) ∈ R2 .
x2 + y 2
La forma è definita in un aperto D := R2 \{(0, 0)} . Tuttavia, anche se verifica la condizione di Schwartz ed esiste
arctan xy di cui essa risulta il differenziale totale:
) ′ * '
d 1 xy − y x2 d 0y 1 d '
'
arctan ξ = ⇒ = arctan ξ '
dξ 1 + ξ2 x2 x2 + y 2 dx x dξ ξ=y/x

c’è il problema che arctan(·) non è regolare, addirittura non è una' funzione, su tutto D . Occorre pertanto “tagliare”
il piano R2 \{(0, 0)} con, per esempio, l’insieme D− := {(x, y) ' y = 0, x < 0} e la forma resta allora esatta nel
complementare R2 \D− che risulta infatti semplicemente connesso. (Per definirvi in modo opportuno la funzione
F è opportuno procedere per quadranti; e tuttavia, per poterla adoperare ai fini della risoluzione di (una delle)
equazioni compatibili con essa, occorre far salve le usuali cautele su quale dei suoi coefficienti possa annullarsi: si
vedano anche i successivi due N.B.). #

Fattore integrante := una funzione ϖ : D → R per la quale si moltiplica la forma differenziale lineare
rendendola cosı̀ esatta. Per esempio, se n = 2 , ϖ è fattore integrante quando

ϖ (µ dx + ν dy) è tale che ∂y (ϖµ) = ∂x (ϖν) .

Esempio 1.4.17 (y 2 + y)dx − xdy , (x, y) ∈ R2 .


) *
1
La forma non è esatta; tuttavia, moltiplicandola per il fattore ϖ(x, y) := 1/y 2 si ha 1+ dx −
) * ) * ) * y
x 1 1 1
dy che è esatta e dà, per esempio, F (x, y) − F (x0 , y0 ) = (x − x0 ) 1 + +x − da cui segue
y2 y0 y y0
x
y= .
c−x
Naturalmente la soluzione y = 0 va considerata a parte. L’idea è che ϖ non deve introdurre nuove singolarità.#

Se µ, ν ∈ C 1 (D), ogni forma µ(x, y)dx + ν(x, y)dy ammette, localmente, un fattore integrante (cosı̀ come ogni
ẋ = v(t, x) con x ∈ Rn ammette n integrali primi dipendenti dal tempo ed indipendenti fra loro, come si vedrà
nel seguito); ma non sono noti metodi generali per trovarlo.
N.B. 1.4.18 Se ϖ è un fattore integrante, e quindi tale che ϖµ = ∂x F , ϖν = ∂y F , e se g : R → R è una
funzione regolare, allora ϖ g ◦ F è un altro fattore integrante, infatti in tal caso la condizione di esattezza diviene
∂y (ϖµ g ◦ F ) = ∂x (ϖν g ◦ F ) e fornisce ϖµ ∂y (g ◦ F ) = ϖν ∂x (g ◦ F ) che è una identità, data l’ipotesi su ϖ . ♦

Qualche idea sul come trovare il fattore integrante. Dovendo essere ∂y (ϖµ) = ∂x (ϖν), si ha:
1
∂y µ − ∂x ν = δ = (ν∂x ϖ − µ∂y ϖ) , (4.43)
ϖ
e allora, con un pò di fortuna, possono darsi i seguenti casi:

• δ/ν funzione solo di x, (oppure δ/µ funzione solo di y), ed allora si può scegliere ϖ funzione solo di x (o
di y ), e dalla (4.43) si ricava
- x ) - y *
δ δ
ln ϖ = + , oppure ln ϖ = − .
ν µ

δ
• funzione solo di x y ; posto allora ϖ = ϖ(x y), e quindi con
yν − xµ
- xy
δ
∂x ϖ = ϖ′ y, ∂y ϖ = ϖ′ x, si ha ln ϖ = + .
yν − xµ

δy 2
• funzione solo di x/y; posto allora ϖ = ϖ (x/y), e quindi con
yν + xµ
- x/y
1 −x δy 2
∂x ϖ = ϖ′ , ∂y ϖ = ϖ′ 2 , si ha ln ϖ = + .
y y yν + xµ

M. Lo Schiavo
1.4. Esempi e casi notevoli 39

−δx2
• funzione solo di y/x; posto allora ϖ = ϖ (y/x) , e quindi con
yν + xµ
- y/x
−y 1 −δx2
∂x ϖ = ϖ ′ , ∂y ϖ = ϖ ′ , si ha ln ϖ = + .
x2 x yν + xµ

Esempio 1.4.19 (continuazione dell’esempio 1.4.17)


Dalla δ = (2y + 1) + 1 segue
)- *
δ 2(y + 1) 2 2 1
= = che implica ϖ = exp − = .
µ y(y + 1) y y y2

Esempio 1.4.20 ẋ = −x/(t2 x − t) , t0 , x0 ∈ R .


δ ∂t µ − ∂x ν
Posto µ(x, t) := t2 x − t e ν(x, t) := x, l’equazione diviene µẋ + ν = 0 ; per cui si ha = =
µ µ
(2tx − 2) 2
= ⇒ ϖ = t−2 . Si ricava l’equazione (x−1/t)dx+(x/t2 )dt = 0 che fornisce ((x2 /2)−(x/t)) = cost.
t(tx − 1) t
Questa seconda equazione si può anche ricondurre alla: ẋ = (x/t) − x2 che verrà risolta in altro modo (si veda:
Esempio 1.4.24). #

N.B. 1.4.21 È chiaro che anche se può sembrare il contrario, l’equazione non muta quando viene moltiplicata
per ϖ , infatti essa rimane definita dal rapporto µ/ν e gli eventuali casi particolari vanno trattati direttamente su
questo rapporto. Per esempio xdy − ydx con ϖ = (x2 + y 2 )−1 dà F (x, y) = arctan xy , mentre con ϖ = x12 dà
1 y y y
x dy − x2 dx e cioè F (x, y) = x . Comunque il luogo di punti che contiene la soluzione è dato da x = cost, ed in
tutti i casi, l’equazione (nella variabile indipendente x) ha soluzioni fuori da x = 0 . ♦

Esempio 1.4.22 Specchio con proiezione all’infinito; x0 , y0 ∈ R .


y
®

µ
x
Sussistono le: θ = 2α,/ tan θ = 2 tan α/(1 − tan α), e cioè y/x = 2y /(1 − y ′2 ).
2 ′
Se ne ricava l’equazione
omogenea y ′ = (−x ± x2 + y 2 )/y da cui
/ y x
ydy + xdx = ± x2 + y 2 dx o anche / dy + / dx = ±dx ,
2
x +y 2 x + y2
2

0 / 1
che dà d x ± x2 + y 2 = 0 , e dunque la parabola: x2 + y 2 = x2 + c2 + 2cx.
È opportuno osservare che il campo che si è trovato è omogeneo di grado zero. #

Esempio 1.4.23 L’equazione lineare in R1 .

ẋ + p(t)x = q(t), con p, q ∈ C 0 (I), I ⊂ R chiuso, x0 ∈ R . (4.44)


.t
Il fattore integrante è ϖ(t) = exp( p(τ )dτ ) e con esso si ha
) - t * - t
d
x(t) exp p(τ )dτ = q(t) exp p(τ )dτ,
dt

Note di Sistemi Dinamici


40 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

(la costante di integrazione si può scegliere nulla perché rappresenta solo un fattore moltiplicativo per tutta
l’equazione). Di conseguenza si ha, per t, t0 ∈ [a, b] , la nota relazione:
.t
+ . - t0 .τ 1 ,
t0
x(t) = e− p(σ)dσ x0 e p(σ)dσ + q(τ )e p(σ)dσ dτ =
t0
) - t * - t ) - t * (4.45)
= x0 exp − p(σ)dσ + q(τ ) exp − p(σ)dσ dτ .
t0 t0 τ

Si noti che il fattore integrante si può ottenere con le tecniche viste prima, infatti in questo caso si ha
µ(x, t) = 1, ν(x, t) = p(t)x − q(t), δ(x, t) = ∂t µ(x, t) − ∂x ν(x, t) ,
e quindi
δ(t, x) ϖ̇(t)
≡ −p(t) che implica = p(t) .
µ(t, x) ϖ(t)
.t
Si noti infine che la funzione Φ(t) := ϖ−1 (t) ≡ exp −( p(τ )dτ ) è soluzione della equazione “omogenea associata”:
ẋ + p(t) x = 0 , e che il prodotto Φ(t)Φ−1 (t0 ) x0 è la soluzione, dell’omogenea associata, che vale x0 in t = t0 .
.t
Allo stesso modo si vede che il secondo addendo della (4.45), e cioé y&(t) := t0 Φ(t)Φ−1 (τ )q(τ ) dτ è soluzione
particolare della (4.44) che vale zero in t = t0 . #

Esempio 1.4.24 L’equazione di Bernoulli; t0 , x0 ∈ R .


ẋ + p(t)x = q(t)xα , con p, q ∈ C 0 (I), I ⊂ R chiuso, α ∈ N\{0, 1}.
Si moltiplichino ambo i membri dell’equazione per (−α + 1)x−α . Si ottiene
d −α+1
(x ) + (−α + 1)p(t)x−α+1 = (−α + 1)q(t),
dt
che è lineare e che quindi si può risolvere come visto nell’esercizio precedente. Ad esempio ẋ+tx = t/x3 implica
d 4 4
dt x + 4tx = 4t che dà - t
2t2 4 2 2
e x = 4te2t dt + e2t0 x4 (t0 ) =
t0
2 2 2
= (e2t − e2t0 ) + e2t0 x40 dalla quale segue
4 −2t2
x = 1 + ce .
d −1
Un altro caso è l’equazione vista nell’Esempio 1.4.20: ẋ = (x/t) − x2 che dà dt (x ) + x−1 /t = 1 da cui
ottenere: + ,−1
1 t0
x(t) = t (t2 − t20 ) + .
2 x0
#
Esempio 1.4.25 L’equazione di Riccati; t0 , x0 ∈ R .
ẋ + p(t)x = q(t)x2 + r(t), con p, q, r ∈ C 0 (I), I ⊂ R chiuso .
L’equazione non ha metodi generali di risoluzione. Se però si conosce una soluzione x1 allora, ponendo x =:
x1 + (1/ξ) si ricava la soluzione generale. Sostituendo, infatti, si ottiene l’equazione lineare:
ξ˙ + [2qx1 − p](t)ξ = −q(t) .
Un caso particolare di questa equazione è quelli in cui p(t) = 0, q(t) = cost =: b . Si ha allora la:
2
Equazione speciale di Riccati: ẋ + bx = r(t)
che si trasforma ponendo bx =: u̇/u, ed ottenendo di conseguenza
ü u̇2 ü
bẋ = − = − b2 x2 , dalla quale segue ü = br(t)u .
u u2 u
Anche quest’ultima si può risolvere quando se ne conosca una soluzione (cfr oltre); tuttavia, è comunque possibile
discuterla in modo qualitativo.

M. Lo Schiavo
1.4. Esempi e casi notevoli 41

N.B. 1.4.26 Vi possono essere più modi alternativi per risolvere una stessa equazione: ad esempio la (x2 + y 2 )dy +
2xydx = 0 è omogenea, è esatta, ed è anche risolubile “a occhio” osservando che equivale a d(x2 y) = −d( 13 y 3 ). ♦

Esempio 1.4.27 Catenaria; x0 , y0 ∈ R .


y ¿
p µ
o
¿0
0
x
Le ipotesi sono: la tensione
/ τ è tangente, la densità funzione della ascissa curvilinea λ la quale, come è noto, è

definita da: dλ/dx = 1 + y ′ 2 . Si ha τ cos θ = τ0 , τ sin θ = peso di arc(op) =: 0 ρ(σ)dσ .
-
dy 1 λ
Segue = tan θ = ρ(σ)dσ , da cui l’equazione
dx τ0 0

d2 y 1 dλ ρ(λ) /
2
= ρ(λ) = 1 + (y ′ )2 ,
dx τ0 dx τ0

che è risolubile per separazione di variabili. Per il ponte sospeso si ha x &→ ρ(x) = cost, e quindi la prima
′′
di queste due equazioni / dà immediatamente y = cost. Invece, con l’ipotesi λ &→ ρ(λ) = cost e posto
′ 2
y =: η/ , si ricava (1/ 1 + η )dη = kdx, da cui (usare un’ottima tavola di integrali o un computer) segue
ln(η + 1 + η 2 ) = kx. Essendo η(0) = 0 risulta infine η = 12 (ekx − e−kx ), ovvero y(x) = k1 cosh kx. #

Esempio 1.4.28 Curve di inseguimento x0 , y0 ∈ R.


y
q
µ

p ¸ p0
q0
o x
Con le posizioni:
) * ) * /

→ 0 −
→ x(t)
oq(t) = , op(t) = , a = cost, b := |λ̇| = ẋ2 + ẏ 2 = cost,
at y(t)

si considera il problema di moto (in figura è a t0 = y0 )

dy a(t − t0 ) − (y − y0 )
y ′ := = .
dx −x
Ne segue: x y ′ = −a(t − t0 ) + (y − y0 ), e quindi x y ′′ = −a dt/dx .
D’altra parte, detta λ l’ascissa curvilinea decrescente con x, e detti ⃗τ il versore tangente alla curva, ⃗e1 quello
dell’asse delle x, e θ l’angolo che essi formano, si riconosce che sussiste anche la relazione

dx dλ dx −1
= = λ̇ / .
dt dt dλ 1 + (y ′ )2

Sostituendo quest’ultima nella precedente si ricava l’equazione a variabili separabili


/ /
x y ′′ = a 1 + y ′2 /λ̇ = a 1 + (y ′ )2 /b .

Pertanto
dη a
/ = dx ,
1+η 2 b

Note di Sistemi Dinamici


42 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

che dà ) *
/ a x
2
ln(η + 1 + η ) = ln
b x0
e cioè I) *a/b ) *−a/b J
dy 1 x x
:= η = − .
dx 2 x0 x0
#
Esempio 1.4.29 Una barca punta verso un faro, con velocità (locale) di modulo v costante, ma subisce una
corrente al traverso di velocità costante: w .
y
µ

v
w
O´ F
x
( −̇
→ ) * ) *
op = v vers ⃗v + w ⃗e2 ẋ −v cos θ

→ ⇒ = .
−vers ⃗v = vers op = cos θ⃗e1 + sin θ⃗e2 ẏ −v sin θ + w
Si ottiene l’equazione omogenea:
/
′ w y w x2 + y 2
y = tan θ − = −
v cos θ x v x


che si risolve ponendo y =: zx e quindi xz = −w 1 + z 2 /v . Ne seguono
/ / 0 x 1−w/v
ln(z + 1 + z 2 ) = ln x−w/v =⇒ z + 1 + z2 = =⇒
)0 1 * ) a *
1 x −w/v 0 x 1+w/v a 0 x 11−w/v 0 x 11+w/v
z= − =⇒ y = − ,
2 a a 2 a a
e cioè
a
7 8
(i) w = v, ⇒ y = 2 1 − x2 /a2 , una parabola che non passa per l’origine;
x
(ii) w > v, ⇒ y −→ ∞, eventualità peggiore della precedente;
0
x
(iii) w < v, ⇒ y −→ 0 , e si ha successo solo in questo caso.
0
#

Esempio 1.4.30 Riduzione di ordine. Siano ancora t0 , x0 , y0 ∈ R .


Si possono ridurre ad equazioni del primo ordine e senza aumentare la dimensione dello spazio della variabile
dipendente, le seguenti equazioni:
(i) f (ẍ, ẋ, t) = 0 mediante l’ovvia posizione y := ẋ .
(ii) f (ẍ, ẋ, x) = 0 mediante la sostituzione: t ↔ x come variabile indipendente. Ne seguono, con ẋ = y , le:
d d
ẍ = ẋ ẋ = y y , e si ottiene la
dx dx ) *
dy
f y , y, x = 0.
dx
dx
L’esplicita dipendenza da t si ricava poi risolvendo la dt = y(x).
È da notare che in tal modo si introduce una singolarità (d’altra parte questa non è la solita riduzione di
ordine), tuttavia ciò accade lı̀ dove la sostituzione t ↔ x non è lecita.
(iii) Procedimenti simili a quello del punto (ii) possono però risultare vincenti. Si consideri, per esempio, la
ẍ+f (x)ẋ2 +p(x) = 0 . Addirittura con y = 12 ẋ2 essa fornisce: ẋ y ′ = ẋ ẍ e questa dà: y ′ +2f (x)y+p(x) =
0.
#

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 43

Esempio 1.4.31 Brachistocrona. x0 , z0 ∈ R .


Si consideri un elemento pesante vincolato senza attrito ad una linea semplice; questa sia contenuta in un piano
verticale e congiunga due punti fissi: p e q del piano. Si chiede quale sia la forma da attribuire alla linea affinché
essa venga percorsa, in caduta, nel minimo tempo.
Supponendo una spezzata descritta con velocità costanti v1 e v2 , si ha che
B B
2
a2 + x2 b2 + (c − x)
∆t = +
v1 v2
ove a, b, c sono definite in figura
p x c
®1 x
a

b q
z
Per derivazione si ottiene ∆tmin per x tale che
x c−x sin α1 sin α2
B = / ; e quindi = .
v2 b + (c − x)2
2 v1 v2
v1 a2 + x2

sin α
Si assume allora = cost come legge di minimo tempo.
v
√ ẋ 1
D’altra parte la conservazione dell’energia dà v = 2gz, mentre è sin α = B = / . Si
ẋ2 + ż 2 1 + (z ′ )2
) *
dz 2
ottiene cosı̀: 1 + ( ) z = k, da cui:
dx
- x - z ) *1/2
ζ
dξ = dζ .
0 0 k−ζ
) *1/2
ζ .θ
Posto =: tan φ, ovvero ζ = k sin2 φ, si ha infine x=k 0
(1 − cos 2φ)dφ la cui soluzione è la
k−ζ
cicloide: ⎧
⎪ k
⎨ x = (2θ − sin 2θ)
2
⎪ k
⎩ z = (1 − cos 2θ) .
2
#

1.5 Equazioni lineari scalari del secondo ordine


In questo paragrafo, invece della (pesante seppur corretta) notazione x !(t) ∈ Rn per indicare i valori x = x
!(t) della
funzione moto x ! : J → R definita da: x
n ! : t &→ x
!(t) := φ(t, t0 , x0 ), si userà quella imprecisa, ma sensibilmente
più snella, x = x(t). Con x quindi si indicherà (salvo esplicito contrario avviso) non solo un qualche vettore in
Rn , ma anche la funzione x : I → R il cui valore in t è x = x(t) ∈ Rn . Rimangono ovviamente in Rn i valori
iniziali x0 = x(t0 ).
Pur essendo riconducibili ad equazioni del primo ordine in R2 , alcune tecniche delle equazioni scalari del secondo
ordine sono di per sé interessanti, e vale la pena considerarle separatamente dal caso più generale di Rn . D’altra
parte, la bassa dimensionalità favorisce la notazione, per cui sarà conveniente usare le equazioni del secondo ordine
proprio come modello per introdurre il procedimento di passaggio da sistemi di ordine superiore a sistemi del primo
ordine in spazi ad un numero maggiore di dimensioni.
Cosı̀ come accade per l’equazione ẋ = v(t, x) seppure solo per x(t) ∈ R, anche per la ẍ = f (t, x, ẋ) con
x(t) ∈ R non esistono metodi generali di risoluzione analitica. Perfino il caso più semplice, quello delle equazioni

Note di Sistemi Dinamici


44 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

lineari, in generale non può essere risolto in forma chiusa ed in termini di funzioni elementari, a meno che sussistano
particolari condizioni sui coefficienti o che sia possibile ricorrere a sviluppi in serie di convenienti funzioni.
È chiaro però che valgono i teoremi generali per i quali, se f, ∂x f, ∂ẋ f sono continue in un aperto D ⊂ R3 ,
allora dato comunque (t0 , x0 , ẋ0 ) ∈ D esiste una ed una sola soluzione: φ : (t, t0 , x0 , ẋ0 ) &→ φ(t, t0 , x0 , ẋ0 ), continua
rispetto alle ultime tre variabili in un conveniente intorno di (t0 , x0 , ẋ0 ), definita e differenziabile almeno in un
conveniente intorno di t0 , e tale che φ(t0 , t0 , x0 , ẋ0 ) = x0 , φ̇(t0 , t0 , x0 , ẋ0 ) = ẋ0 ; essa inoltre risulta prolungabile fino
alla frontiera di un qualunque sottoinsieme di D che sia chiuso e limitato (in norma) e che contenga (t0 , x0 , ẋ0 ).
L’unico altro caso “quasi
. x semplice” è quello in cui l’equazione si riduce a: ẍ = f (x). Questa dà senza troppa
difficoltà la nota: 12 ẋ2 − f (ξ)dξ = cost, che permette un’ampia discussione qualitativa. Ciò non toglie però che
anche in questo caso non è possibile, in generale, fornire la soluzione x = x(t) in forma chiusa; infatti l’integrale
- x - ξ

/ , con V (ξ) := − f (η)dη ,
2(E − V (ξ))
non è quasi mai esprimibile con funzioni elementari, o comunque con funzioni facilmente invertibili. Il caso
ẍ = f (x) verrà trattato in dettaglio nel Cap.III.
È opportuno invece anticipare qui la discussione delle equazioni lineari in R2 :
ÿ + p(t)ẏ + q(t)y = r(t), p, q, r ∈ C 0 (I); I chiuso ⊂ R , y ∈ R .
A tale scopo, sarà opportuno pensare ai punti di R2 in modo astratto, e cioè non conseguente alla scelta di una
specifica base, e quindi riconoscere ad R2 (o più in generale ad Rn ) la struttura di spazio vettoriale.
Memento 1.5.1 Uno Spazio vettoriale V è un gruppo commutativo che è un modulo su un campo K (con
operazioni “ + ”, “ · ”). Esso cioè è un gruppo commutativo con operazione “ ⊕ ”, distributivo rispetto alle
operazioni “ + ”, “ · ”, e “ ⊕ ”, e che accetta l’unità moltiplicativa del campo. L’operazione “ ⊕ ” viene
perciò generalmente indicata anch’essa con “ + ”.
Una Base e per uno spazio V è un insieme e := {e1 , . . . , en } di vettori linearmente indipendenti e che sia
massimale: ogni x ∈ V può essere espresso (in modo unico) come combinazione lineare degli elementi {ei }i=1,...,n .
In tal caso, lo spazio V si dice n-dimensionale, ed i numeri {xi }i=1,...,n tali che x = xi ei formano la n-pla
x ∈ Rn che la base e fa corrispondere in Rn al vettore x ∈ V.
Scelta in esso una base, uno spazio vettoriale reale (e cioè con campo K ≡ R) resta cosı̀ rappresentato da Rn e
ciò permette di agire su di esso mediante le usuali operazioni per componenti e regole di trasformazione fra n-ple di
numeri reali. In queste note si tratterà regolarmente con spazi vettoriali reali, e solo saltuariamente (per esempio
nel Cap.II e nelle appendici) sarà opportuno considerare V come “parte reale” n-dimensionale di un conveniente
spazio C V ≡ R2n sul campo C dei numeri complessi.
Dati due spazi vettoriali V e V′ sullo stesso campo numerico K si definisce
Operatore lineare T := una funzione T : x ∈ V &→ T [x] ∈ V′ tale che

c1 , c2 ∈ K, x1 , x2 ∈ V, implicano T [c2 x1 + c2 x2 ] = c1 T [x1 ] + c2 T [x2 ] .


Sia K ≡ R. La scelta delle basi e := {e1 , . . . , en } , e ′ := {e′1 , . . . , e′m } assegna a ciascun operatore lineare T
da V ≡ Rn in V′ ≡ Rm una matrice T reale m × n, che muterà, al cambio di base, nella τ secondo le note
regole di trasformazione:
( (
ϵh = Peh ≡ pih ei xh = phi ξ i
Se allora e T = p ′ τ p −1 .
ϵh = P eh ≡ pih ei
′ ′ ′ ′ ′
(xh )′ = p′hi (ξ i )′
Fissate le basi, fra le matrici che corrispondono ad altrettanti operatori si opera con le usuali regole del prodotto
righe per colonne.
Lo spazio degli operatori lineari su V viene indicato con L(V), o con L(V, V′ ) se è opportuno specificare anche
lo spazio V′ nel quale essi assumono valori.
All’occorrenza, lo spazio V viene dotato di un prodotto scalare: ⟨ ·, · ⟩ : V2 → R+ ∪ {0} mediante il quale
1/2
stabilire la lunghezza di un vettore: |x| := ⟨ x, x ⟩ .
Un primo risultato importante relativo alle equazioni lineari è il seguente.
Proposizione 1.5.1 La soluzione massimale dell’equazione lineare omogenea (non autonoma)
ẋ = T (t) x , (t0 , x0 ) ∈ R × V ≡ Rn , T : I → L(V), I chiuso ⊂ R ,
esiste almeno su tutto l’intervallo I di continuità dei coefficienti T ∈ C 0 (I).

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 45

Dimostrazione Dato che il campo è del tutto regolare rispetto ad x ∈ V, la frontiera al dominio D può essere
generata soltanto da eventuali non regolarità rispetto alla variabile indipendente t.
D’altra parte, come si vedrà, il campo v = T x ha lunghezza (indotta da un qualche prodotto scalare su
V) che cresce meno di c|x|, ove c ≡ ∥T ∥ è una conveniente costante reale positiva dipendente dall’intervallo di
regolarità: I dei coefficienti). È pertanto possibile effettuare la stima
' ' ' '
'd '
' |φ(t)|2 ' = ''2⟨ φ(t), φ̇(t) ⟩'' = 2 |⟨ φ(t), T (t)φ(t) ⟩|
' dt '
2
≤ 2 |φ(t)| |T (t)φ(t)| ≤ 2cI |φ(t)| ,

che fornisce, per ogni t ∈ I , la disuguaglianza


' '
' |φ(t)|2 '
'ln '
' |φ0 |2 ' ≤ 2cI |t − t0 | .

Quest’ultima implica che la soluzione φ : (t, t0 , x0 ) &→ φ(t, t0 , x0 ) non può raggiungere la superficie laterale del
cilindro (ad esempio):
; ' <
'
(τ, x) ∈ R × V ' τ ∈ [t0 , t]; |x| ≤ 2 |x0 | ec(t−t0 ) , ε > 0 .

Se ne conclude che essa arriva fino al disco τ = t, e quindi rimane definita fintanto che lo sono i coefficienti
T (t) ∈ L(V). Pertanto nel seguito si assumerà senz’altro I ⊂ JM ⊆ R. "

Anche se per certi versi il caso delle equazioni lineari è particolarmente semplice, tuttavia anche per esso lo
studio esplicito delle loro soluzioni richiede metodi non banali quali per esempio metodi approssimati, qualitativi,
o addirittura perturbativi. A questo fa eccezione il solo sotto-caso particolare delle equazioni lineari a coefficienti
costanti, per le quali infatti (e solo per esse) esiste un algoritmo generale di risoluzione che verrà esaminato in
seguito.
Quando i coefficienti dipendono esplicitamente dal tempo, si può “solo” dire che le soluzioni sono esprimibili
per mezzo di altre soluzioni, e ne bastano poche.
Siano n ≥ 2 ed ℓ ≥ 0 . Sullo spazio C n≥2 (I) delle funzioni t ∈ I ⊂ R &→ x(t) ∈ R di regolarità n, si consideri
l’operatore
L : C n (I) → C m (I), I chiuso ⊆ R, m = inf{ℓ, n − 2},
) 2 *
d d
L[ · ](t) := + p(t) + q(t) , p, q : I → R, p, q ∈ C ℓ (I).
dt2 dt
L’operatore L è un Operatore lineare sullo spazio (vettoriale) C n≥2 (I), e quindi tale che, identicamente rispetto
a t ∈ I , si ha che

c1 , c2 ∈ R, x1 , x2 ∈ C n (I) implicano L[c1 x1 + c2 x2 ] = c1 L[x1 ] + c2 L[x2 ] .

Ne segue che se x1 è tale che L[x1 ] = 0 anche L[c2 x1 ] = 0 , e che se anche x2 è tale che L[x2 ] = 0 allora
L[c x1 + c2 x2 ] = 0 per ogni scelta c1 , c2 ∈ R. (Ovviamente, lo zero a secondo membro sta per la funzione
1

identicamente nulla su I ).
Si supponga ora di conoscere una (particolare e possibilmente comoda) soluzione dell’equazione

L[y](t) = ÿ + p(t)ẏ + q(t)y = r(t) ; (5.46)

sia essa:
y& : J ⊃ I → R, y& ∈ C n (J), y (t0 ), y&˙ (t0 )) = (&
(& y0 , y&˙ 0 ) ∈ R2 ,
(5.47)
y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) e cioè L[&
y ](t) = r(t), per t∈J ⊃I .
Ci si domanda come possano essere espresse le altre soluzioni y : J ⊃ I → R

y : t &→ y(t) := φ(t, t0 , y0 , ẏ0 ) tali che L[y] = r .

Per la linearità di L, non potrà che essere

L[y] − L[&
y ] = L[y − y&] = r − r = 0 ,

Note di Sistemi Dinamici


46 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

da cui segue la condizione necessaria: y = x + y&, ove x è soluzione di:

L[x] = 0 ovvero ẍ + p(t)ẋ + q(t)x = 0, p, q ∈ C ℓ≥0 (I), (5.48)

e si noti che y, y& sono arbitrarie, e cioè sono arbitrarie le quattro costanti relative ai dati iniziali y0 , ẏ0 , y&0 , y&˙ 0 ∈ R.
Di queste le seconde due sono scelte secondo criteri di convenienza, le prime due sono imposte dal problema concreto
che si deve risolvere.
Si ricava quindi facilmente il seguente criterio.
Nota una soluzione particolare y& : t &→ y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) su J ⊃ I dell’equazione L[y] = r , si conosce
y : t &→ y(t) := φ(t, t0 , y0 , ẏ0 ) soluzione generale della stessa equazione L[y] = r , se e solo se si conosce
x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) soluzione ) * )su J ⊃ *
generale I dell’equazione omogenea associata L[x] = 0 , con
x0 y0 − y&0
(x0 , ẋ0 ) arbitrarie, “per esempio” tali che: = , e risulta y(t) = y&(t)+x(t) per ogni t ∈ J ⊃ I .
ẋ0 ẏ0 − y&˙0
Infatti

(i) essa è soluzione dato che L[y] = L[&


y ] + L[x] = r ;
(ii) verifica le condizioni iniziali dato che y(t0 ) = y&(t0 ) + x(t0 ) = y&0 + y0 − y&0 = y0 ;
(iii) è la sola soluzione che esca da queste condizioni iniziali dato che di tali soluzioni ce n’è solo una.

Sempre per le proprietà di linearità ed unicità delle soluzioni, se x1 , x2 sono certe due funzioni note, soluzioni
particolari ma non nulle della L[x] = 0 , e cioè se si ha

x1 : t &→ x1 (t) := φom (t, t0 , x1 |0 , ẋ1 |0 ),


(5.49)
x2 : t &→ x2 (t) := φom (t, t0 , x2 |0 , ẋ2 |0 ) ,

un’arbitraria x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) (e cioè con x0 , ẋ0 arbitrari) è esprimibile nella specifica forma la:
x(t) = c1 x1 (t) + c2 x2 (t), se e solo se essa verifica le condizioni iniziali, e cioè se e solo se esistono le costanti
c1 , c2 ∈ R tali che i sei numeri (x0 , ẋ0 , x1 |0 , ẋ1 |0 , x2 |0 , ẋ2 |0 ) , (non banali ma, per il resto, qualsiasi), verificano le
(
x0 = c1 x1 |0 + c2 x2 |0
(5.50)
ẋ0 = c1 ẋ1 |0 + c2 ẋ2 |0 ,

(anche in questo caso gli ultimi quattro dei sei valori detti sono fissati secondo criteri di convenienza, ed i primi
due sono invece quelli che devono verificare le condizioni imposte dal problema); in tal caso infatti, con un
ragionamento analogo a quello visto sopra, si prova che tale x(t) è soluzione della (5.48), e verifica le date condizioni
iniziali (5.50).
Si osserva che, affinché per un’arbitraria scelta del dato (x0 , ẋ0 ) possano esistere unici i coefficienti c1 , c2 è
necessario e sufficiente che: posto ' '
'x1 (t) x2 (t)'
'
W (t) := ' ',
ẋ1 (t) ẋ2 (t)'
si abbia ' '
'x1 |0 x2 |0 ''
' = W (t0 ) ̸= 0 (5.51)
'ẋ1 |0 ẋ2 |0 '
ed allora le due soluzioni x1 ed x2 si dicono linearmente indipendenti.
Dunque, siccome per entrambe le equazioni (5.48),(5.46) la soluzione è unica (per quei t per i quali esiste), si
è provato che per assegnati comunque (y0 , ẏ0 ) ∈ R2 la soluzione della (5.46) uscente da tali condizioni iniziali sarà
certamente ed univocamente esprimibile con:

y : t &→ y(t) = c1 x1 (t) + c2 x2 (t) + y&(t), t∈J ⊃I ,

purché x1 , x2 siano tali da verificare la (5.48) con dati iniziali che verificano la (5.51), ciò implicando l’esisten-
za di c1 , c2 tali da verificare la (5.50), e sempre che y& sia una certa soluzione nota, ma per il resto qualsiasi,
dell’equazione di partenza L[y] = r .
Lo spazio delle fasi V dell’equazione lineare omogenea L[x] = 0 e quello delle sue soluzioni sono spazi vettoriali
isomorfi, [Arnold]; le soluzioni si combinano fra loro linearmente cosı̀ come lo fanno i vettori (x0 , ẋ0 ) ∈ R2 che
ne esprimono le condizioni iniziali; se in t0 c’è una certa dipendenza lineare fra le condizioni iniziali di certe
soluzioni, la stessa dipendenza rimane valida fra i valori assunti all’istante t dai corrispondenti evoluti (x(t), ẋ(t)).

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 47

Data l’unicità delle funzioni soluzioni in corrispondenza a ciascuna scelta in V delle condizioni iniziali, la stessa
dipendenza lineare sussiste allora fra le funzioni soluzioni.
D’altra parte, sebbene la scelta delle soluzioni di base possa dipendere dal particolare istante iniziale t0 , l’essere
queste linearmente indipendenti non muta al variare di t. Per convincersene, siano x1 , x2 ∈ C n (J ⊃ I) soluzioni
di L[x] = 0 e tali da verificare (5.51). Queste stesse soluzioni possono essere usate per rappresentare la generica
x = x(t) anche qualora per essa si scelga un altro & t0 , e cioè esse stesse continuano ad essere funzioni soluzione
linearmente indipendenti. Basta notare infatti che dalle L[x1 ] = L[x2 ] = 0 segue subito
d
W = (x1 ẍ2 − x2 ẍ1 ) = x1 (−pẋ2 − qx2 ) + x2 (pẋ1 + qx1 )
dt
= −p (x1 ẋ2 − x2 ẋ1 ) = −p W ,

e questa si risolve nella )- *


t
W (t) = W (t0 ) exp −p(τ )dτ . (5.52)
t0

Per cui se W (t0 ) ̸= 0 ed x1 , x2 sono soluzioni di L(x) = 0 allora per ogni t si ha W (t) ̸= 0 : due soluzioni che
in un istante sono linearmente indipendenti lo saranno in ogni altro istante (immediata conseguenza, d’altra parte,
del teorema di unicità).
Ciò implica in particolare che il problema dato: (5.48) ammette almeno ed al più due soluzioni che sono
linearmente indipendenti: per esempio quelle) * che, fissata arbitrariamente
) * la base nello spazio delle fasi V ≡ R2 ,
1 0
nell’istante iniziale valgono: x1 |0 = e1 = , ed x2 |0 = e2 = .
0 1
In definitiva il problema è quello di determinare x1 , x2 , y& .
Nel caso particolare di un operatore del secondo ordine, come quello in esame:
+ 2 ,
d d
L[x](t) ≡ + p(t) + q(t) x(t) ,
dt2 dt
pur non essendo disponibile una formula risolvente generale come quella vista nell’Esempio 1.4.23 per l’equazione
del primo ordine, tuttavia ci si può ricondurre ad essa in casi speciali. Per esempio sussiste il seguente importante
risultato: qualora sia nota una soluzione dell’equazione omogenea associata, la si scelga come una delle due funzioni
di base: x1 , è possibile ricavarne un’altra: x2 con W (t0 ) ̸= 0 . Basta a questo scopo definire la funzione v mediante
la x2 =: vx1 e ricavare:
L[vx1 ] = v̈x1 + 2v̇ ẋ1 + vẍ1 + p(v̇x1 + v ẋ1 ) + qvx1 =
(5.53)
= v̈x1 + (2ẋ1 + px1 ) v̇.
Si introduca la - t) * - t
ẋ1 (τ )
ϖ(t) := exp 2 + p(τ ) dτ ≡ x21 (t) exp p(τ )dτ .
x1 (τ )
d
Si riconosce che la funzione ϖ è un fattore integrante per la (5.53), mediante il quale: L[vx1 ]ϖ/x1 = dt (ϖv̇) .
Risulta pertanto
L[vx1 ] ≡ L[x2 ] = 0 purché sia v̇ ϖ = κ1 = cost .
Segue - - ) - *
t t τ

v(t) = κ2 + κ1 := κ2 + κ1 x−2
1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(σ)
ed è lecito scegliere κ1 = 1 dato che si tratta di una costante moltiplicativa inessenziale, e κ2 = 0 perché altrimenti
si avrebbe nuovamente l’addendo x1 .
Per la funzione x2 si ottiene in tal modo l’espressione:
- t - t ) - τ *
dτ −2
x2 (t) = x1 (t) = x1 (t) x1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(τ )
e questa in effetti fornisce, per ogni t ∈ J ,
) - t *
W (t) = (x1 v̇x1 + vx1 ẋ1 − vx1 ẋ1 )(t) = exp − p(ξ)dξ ̸= 0 .

Nota 1.5.1 Il procedimento può essere applicato anche ad equazioni non omogenee (si veda: [Tenenbaum p.244]).
Infatti data l’equazione L[y] = r , e nota x1 soluzione dell’equazione omogenea L[x1 ] = 0 , se si impone y := vx1

Note di Sistemi Dinamici


48 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

si ricava la condizione: L[y] = v̈x1 + (2ẋ1 + px1 )v̇ = r che è lineare in v̇ . Lo stesso fattore integrante del caso
omogeneo: - t) * ) - t *
ẋ1 1 ϖr
ϖ(t) := exp 2 +p fornisce : v̇(t) = κ1 + .
x1 ϖ(t) x1
Ne segue che la funzione y definita da
+ - t) - σ * ,
κ1 1 ϖ(τ )r(τ )
y(t) = v(t)x1 (t) = x1 (t) κ2 + + dτ dσ
ϖ(σ) ϖ(σ) x1 (τ )

è la soluzione generale dell’equazione (5.46), (provare per credere!). ◃

La cosa è assai utile quando si è in presenza di equazioni che abbiano almeno una soluzione facilmente
riconoscibile:
Esempio 1.5.2 f (t)ẍ + tẋ − x = 0 , t0 , x0 ∈ R .
.t 2
x1 (t) = t è soluzione; quindi ϖ(t) = t2 exp τ f −1 (τ )dτ ; per esempio se f (t) = 1 si ha ϖ(t) = t2 et /2 , e si ricava
. t −2 −τ 2 /2
x2 (t) = t τ e dτ . #

Esempio 1.5.3 ẍ − f (t)ẋ + (f (t) − 1)x0= 0 , t0 , x0 ∈ 1R .


.t
t
x1 (t) = e è soluzione; quindi ϖ(t) = exp 2t − f (τ )dτ . #

Altri casi fortunati si possono cercare procedendo per tentativi:


Esempio 1.5.4 ẍ + p(t)ẋ + q(t)x = 0 , t0 , x0 ∈ R , p, q ∈ C 0 (I) .
Si può provare a trasformare l’equazione mediante la trasformazione

τ = τ (t), ∂t = τ̇ ∂τ , ∂t2 = τ̈ ∂τ + τ̇ 2 ∂τ2 ,

che dà
d2 x τ̈ dx pτ̇ dx q
L[x] −→ + 2 + 2 + 2x
dτ 2 τ̇ dτ τ̇ dτ τ̇
con i coefficienti espressi in funzione di τ . Se allora p, q sono tali che per qualche particolare τ = τ (t), questi
nuovi coefficienti hanno una forma più agevole, allora si è riusciti ad ottenere qualcosa. Per esempio se esiste
una costante c tale che (cq̇ + 2cpq)/(2(cq)3/2 ) = cost allora la sostituzione τ̇ 2 = cq è tale da rendere costanti tutti
i coefficienti, infatti in tal caso si ha (2τ̇ τ̈ + 2pτ̇ 2 )/(2τ̇ 3 ) = cost . #

Esempio 1.5.5 L’equazione di Eulero

t2 ÿ + tẏ − y = r , t0 , y0 , ẏ0 ∈ R, t > 0, r ∈ C(R+ ) .


0. 1
t
È facile vedere che x1 (t) = t è soluzione dell’equazione omogenea associata; quindi ϖ(t) = t2 exp τ −1 dτ = t3 .
.t
Dunque, dalla ϖ v̇ = K1 + r ϖ/x, ad esempio per r(t) = t, si ricavano

κ1 1 κ1 1
v̇(t) = 3
+ , ed y(t) = κ2 t − + t ln t.
t 2t 2t 2
In questo caso è anche (q̇ + 2pq)/(2q 2/3 ) = cost e la sostituzione τ = ln t dà la facile equazione: y ′′ − y = e3τ . #

Prima di esaminare qualche metodo per cercare le soluzioni particolari, è qui opportuno introdurre una simbo-
logia più snella anche perché essa risulta valida, come si vedrà, anche per sistemi di equazioni di ordine maggiore al
secondo (si veda §II.3). Inoltre ne sarà discusso l’aspetto geometrico, dopo aver introdotto il concetto di sistemi
equivalenti, e cioè l’aspetto invariante al cambio di coordinate.
Chiamata x1 la variabile x, si introduca l’ulteriore variabile: x2 := ẋ. L’equazione

ẍ = f (t, x, ẋ), t0 , x0 , ẋ0 ∈ R ,

equivale alla ) 1* ) *
ẋ x2
ẋ = = =: v(t, x) .
ẋ2 f (t, x1 , x2 )

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 49

Si scelga, nello spazio delle fasi V ≡ R2 , la particolare base e # = (e1 , e2 ) tale che e1 sia il versore relativo alle
coordinate, ed e2 quello relativo alle loro derivate. In tale base la precedente equazione si specializza nella
)d * ) * ) x *
dt x ẋ v (t, x, ẋ)
ẋ = = ≡ = v(t, x).
d
dt ẋ
f (t, x, ẋ) v ẋ (t, x, ẋ)

Di questa equazione si cercano le soluzioni


) 1 * ) *
2 1 x (t) x(t)
x ∈ C (J) × C (J) con x(t) ≡ ≡ ∈ R2 .
x2 (t) ẋ(t)

Queste, per la scelta della base e # , posseggono la particolare proprietà di avere seconda coordinata identicamente
d
uguale alla derivata dt della prima In virtù dei teoremi fondamentali visti in precedenza, per poter determinare
un particolare vettore soluzione x = x(t) occorre assegnare, oltre che l’istante iniziale t0 , anche i valori di tutte le
sue componenti x0 nello stesso istante.
L’operatore di evoluzione Gtt0 è rappresentato in coordinate da un Gtt0 : R2 → R2 che trasforma, a t e t0 fissati,
il punto ) * ) *
x0 x(t, t0 , x0 )
x0 := nel punto x(t) = Gtt0 x0 ≡ .
ẋ0 ẋ(t, t0 , x0 )
Nel caso particolare di equazioni lineari l’operatore di evoluzione ha una forma eccezionalmente semplice, ed
ancora più semplice è quello relativo ad una equazione scalare di ordine n. Infatti, per esempio nel caso n = 2 ,
secondo le considerazioni fatte sopra, la soluzione della (5.48) è espressa mediante le (5.49), e cioè risulta x =
c1 x1 + c2 x2 dove x1 ed x2 sono due arbitrarie funzioni soluzione della (5.48). Scelta la base e # := {e1 , e2 }
come sopra, e cioè con il primo versore nella direzione delle coordinate ed il secondo in quella delle loro derivate,
ed espresse le due prescelte x1 (t) ed x2 (t) in tale base mediante la

xi (t) = xi (t) e1 + ẋi (t) e2 , i = 1, 2

la x = x(t) resta espressa dalla


0 1 0 1
x = x(t) = c1 x1 (t) e1 + ẋ1 (t) e2 + c2 x2 (t) e1 + ẋ2 (t) e2

e cioè, nella base detta, dalle


) * ) * ) 1* ) *
x(t) x1 (t) x2 (t) c .
= , o anche x(t) = x1 (t) .. x2 (t) c .
ẋ(t) ẋ1 (t) ẋ2 (t) c2
) 1*
c
Per la (5.50), il vettore c := 2 si ricava dalla
c
) 1* ) *−1 ) * ) *−1
c x1 |0 x2 |0 x0 ..
= , ovvero c = x 1 |0 . x 2 |0 x0 .
c2 ẋ1 |0 ẋ2 |0 ẋ0

Pertanto l’equazione:
) *
d2 d
L[x](t) := + p(t) + q(t) x=0, p, q : I → R, p, q ∈ C ℓ≥0 (I) (5.54)
dt2 dt
o meglio la ⎧ ) *
⎪ x(t)

⎨ ẋ = T (t)x , x : t &→ x(t) := ∈ R2 , con
ẋ(t)
) * (5.55)

⎪ 0 1
⎩ T : t &→ T (t) := ∈ L(R2 ), T ∈ C ℓ≥0 (I) ,
−q(t) −p(t)
ha come operatore di evoluzione Gtt0 l’operatore lineare Φ(t)Φ−1 (t0 ) ∈ L(V) che, nella base e# scelta su R2 in
modo che sia x0 = (x0 , ẋ0 ), è rappresentato dalla matrice
) *) *−1
−1 x1 (t) x2 (t) x1 |0 x2 |0
Gtt0 = Φ(t)Φ (t0 ) = =: Φ(t)Φ−1 (t0 ) ∈ L(R2 ).
ẋ1 (t) ẋ2 (t) ẋ1 |0 ẋ2 |0

Il fatto che l’equazione provenga da una del secondo ordine si riscontra nella particolare forma (5.55) della matrice
T ; questa è, invece, del tutto arbitraria nel caso di una generica equazione lineare del primo ordine in R2 , cosı̀

Note di Sistemi Dinamici


50 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

come è del tutto arbitraria la base B nello spazio delle fasi V. Se ne consideri una, fissata, che coincida con la e #
nel particolare caso in esame, e si indichi con T (t) l’operatore cui la base detta assegna matrice T (t). Nello spazio
delle soluzioni dell’equazione ẋ = T (t)x una possibile base naturale e ! := {!
e1 , e!2 } è quella consistente
) * delle) due
*
1 0
soluzioni !ei : t &→ e!i (t), i = 1, 2 , che in t = t0 hanno e -componenti rispettivamente e1 =
#
ed e2 = ,
0 1
che quindi rappresentano le evoluzioni della base e # = {e1 , e2 } di V, ed il cui valore in t è rappresentato dalla
e # -matrice: ⎛ ⎞
..
.
Ψ(t, t0 ) := ⎝e!1 (t) .. e!2 (t)⎠ .
..

Rispetto alla base e! si ha x = x0 ! e1 + ẋ0 e!2 , che mostra esplicitamente


' l’isomorfismo
' detto. In particolare,
anche per le due (arbitrarie) soluzioni scelte sopra si hanno le xi (t) = xi '0 ! e1 (t) + ẋi '0 e!2 (t), i = 1, 2 , e quindi
la x(t) = c1 x1 (t) + c2 x2 (t), conferma la relazione sulle e # -componenti al tempo t0
) * ) * ) * ) * ) 1* ) 1*
x0 1 x1 |0 2 x2 |0 x1 |0 x2 |0 c c
=c +c = = Φ(t0 ) .
ẋ0 ẋ1 |0 ẋ2 |0 ẋ1 |0 ẋ2 |0 c2 c2

Si osservi infine come la matrice Ψ(t, t0 ) sia la migliore rappresentante Gtt0 dell’operatore Gtt0 . Mediante essa,
infatti, si esprimono non solo le e
! -componenti della soluzione x uscente da (x0 , ẋ0 ) con la semplice espressione
) * ) *
x(t) x
x(t) = Ψ(t, t0 ) x0 ovvero = Ψ(t, t0 ) 0
ẋ(t) ẋ0

ma si esprime anche la soluzione Φ = Φ(t) uscente da Φ0 := Φ(t0 ) dell’equazione Ẋ = T (t)X mediante l’espres-
sione Φ(t) = Ψ(t, t0 )Φ0 . Di questa, ciascuna colonna rappresenta una soluzione: xi (t), i = 1, 2 , dell’equazione
ẋ = T (t)x, come si può verificare immediatamente applicando sul dato ei tale equazione.
Con la notazione appena introdotta è particolarmente agevole, fra l’altro, scrivere ed interpretare il cosiddetto
metodo della variazione della costante per la ricerca di una soluzione particolare dell’equazione non omogenea
(5.46): ) *
y(t)
ẏ = T (t)y + b(t), y(t) := ∈ R2 , T , b ∈ C ℓ≥0 (I) ,
ẏ(t)
) *
0
dove la matrice T (t) è stata definita come nella (5.55) e dove b(t) := ∈ R2 .
r(t)
Esso consiste nel cercare la soluzione y : J ⊃ I → R2 della (5.46) tale che y(t0 ) = y0 = x0 esprimendola sotto
la speciale forma
y(t) = x(t) + y&(t) = Ψ(t, t0 )(x0 + c(t))
7 1 2 8T
con c ≡ c , c ∈ C 2 (J) × C 1 (J) tale che c(t0 ) = 0 , e con Ψ(t, t0 ) la matrice che la base detta fa corrispondere
all’operatore di evoluzione Gtt0 dell’equazione (5.55), o meglio della ẋ = T (t)x. In altre parole si cerca,
dell’equazione non omogenea, la soluzione particolare y&(t) := Ψ(t, t0 )c(t) che esce da condizioni iniziali nulle:
y&(0) = 0 , ed espressa proprio come combinazione lineare, a coefficienti c = c(t) dipendenti dal tempo, delle due
soluzioni di base)(! e*1 , !
e2)
) dell’equazione
* omogenea associata (5.55) e cioè quelle che, all’istante iniziale, valgono
1 0
rispettivamente e . È altresı̀ ovvio che, qualora queste non fossero note, ma lo fossero altre due: x1 ed
0 1
x2 , la matrice Ψ(t, t0 ) potrebbe essere facilmente calcolata mediante il prodotto Φ(t)Φ−1 (t0 ).
Si ottiene cosı̀ la condizione necessaria:

Φ̇(t)Φ−1 (t0 )(x0 + c(t)) + Φ(t)Φ−1 (t0 )ċ(t) = T (t)Φ(t)Φ−1 (t0 )(x0 + c(t)) + b(t) ;

ma è ) * ) *
ẋ1 (t) ẋ2 (t) ..
Φ̇(t) = = T (t)x1 (t) . T (t)x2 (t) =
ẍ1 (t) ẍ2 (t)
) *
..
= T (t) x1 (t) . x2 (t) = T (t)Φ(t)

pertanto rimane Φ(t)Φ−1 (t0 )ċ(t) = b(t) al quale assegnare come condizioni iniziali c(t0 ) = 0 . Si ricava
- t
c(t) = Φ(t0 )Φ−1 (τ )b(τ )dτ
t0

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 51

che dà come soluzione generale dell’equazione (5.46) la funzione y tale che
) * ) * - t ) *
y(t) y 0
y(t) =: = Φ(t)Φ−1 (t0 ) 0 + Φ(t)Φ−1 (τ ) dτ,
ẏ(t) ẏ0 t0 r(τ )

della quale un caso particolare è la soluzione trovata nell’Esempio 1.4.23


N.B. 1.5.6 Naturalmente il metodo è proficuo solo se si conosce la matrice Φ(t), e cioè una coppia x1 , x2 di
soluzioni indipendenti della (5.54). Tuttavia esso può essere usato per funzioni b(t) che abbiano discontinuità
eliminabili e/o di prima specie, e in tal caso la y è solo C 1 . ♦

N.B. 1.5.7 Se ciò che si cerca è una qualunque soluzione particolare, l’integrale può essere considerato indefinito
e la soluzione espressa mediante la
+) * - t ,
k1 −1
y(t) = Φ(t) + Φ (τ ) b(τ ) dτ .
k2

Si osservi inoltre che il procedimento si può ripetere per una equazione lineare non omogenea di ordine n ≥ 2 :

y [n] + a1 (t)y [n−1] + · · · + an (t)y = r(t) , a1 , . . . , an , r ∈ C ℓ≥0 (I) .

Anche per essa il vettore b(t) ha nulle tutte le componenti salvo l’ultima, ed anche di essa l’unica componente
che interessa calcolare è la prima. Visto poi che le prime componenti del vettore b(t) sono nulle per costruzione,
l’unico elemento interessante della matrice integranda è l’elemento (1, n). Una soluzione particolare è allora: y&(t) =
) *−1
.t a b
[Φ(t)Φ−1 (τ )](1,n) r(τ )dτ. In particolare, il caso che si sta qui trattando ha n = 2 , e siccome =
c d
) *
d −b
(ad − bc)−1 , si ha:
−c a
0 1 - t ) *
1 −x2 (τ )r(τ )
y&(t) = x1 (t), x2 (t) dτ
W (τ ) x1 (t)r(τ )
- t ' '
1 ''x1 (τ ) x2 (τ )''
= r(τ ) dτ ,
W (τ ) ' x1 (t) x2 (t) '

da cui si riconosce la forma speciale del nucleo risolvente. Ciò dà anche, per la (5.52),
- t' ' )- τ *
'x1 (τ ) x2 (τ )'
y&(t) = c ' ' exp p(σ)dσ r(τ )dτ.
' x1 (t) x2 (t) '


Se l’operatore L[x] è a coefficienti costanti, un metodo che a volte è più veloce per trovare la soluzione particolare
è detto “dei coefficienti indeterminati”. Esso consiste nell’ipotizzare la forma della soluzione, e cercarne la specifica
espressione imponendo l’equazione come condizione necessaria. Un modo per formulare l’ipotesi detta è quello
di derivare ripetutamente il termine noto (o meglio la parte di esso che non compare già nella soluzione della
omogenea associata) fino ad ottenere termini ripetitivi, o zero. In definitiva, si cerca una soluzione dell’equazione
(non omogenea) sotto forma di una combinazione lineare dei termini (diversi) cosı̀ ottenuti più quelli di un’opportuna
soluzione dell’omogenea associata e del termine noto stesso.
Esempio 1.5.8 ÿ + ẏ + y = t3 et , t0 , y0 ∈ R .
t e dà luogo a t e , tet , et . Ipotizzata una forma del tipo:
3 t 2 t

f (t)et = (at3 + bt2 + ct + d)et

si richiede che questa sia soluzione anche dell’equazione non omogenea

3f (t)et + 3f˙(t)et + f¨(t)et = t3 et ,

da cui
3a = 1, 9a + 3b = 0, 6a + 6b + 3c = 0, 2b + 3c + 3d = 0 .
#
Note di Sistemi Dinamici
52 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Esempio 1.5.9 ÿ + 4y = tet + t sin 2t, t0 , y 0 ∈ R .

ÿ + 4y = tet → (a0 t + a1 )et


ÿ + 4y = t sin 2t → (b0 t2 + b1 t) sin 2t + (c0 t2 + c1 t) cos 2t

e poi si può provare con una combinazione lineare delle funzioni cosı̀ trovate. #

Ancora nel caso di una equazione lineare di ordine n in una variabile scalare, ed a coefficienti costanti, talvolta
può convenire non usare la teoria generale, che verrà esposta nel Cap.II, ma ricorrere a una simbologia ancora più
compatta.
Alla base di tutto c’è il fatto che l’equazione
d
ẏ + ay =: (∂ + a)y = f (t), t0 , y0 ∈ R, ∂ := , (5.56)
dt
ha fattore integrante: ϖ(t) = eat per cui è eat (∂ + a)y = ∂(eat y), e quindi l’equazione (5.56) ha soluzione
- t
−at −1 at −at
y(t) = e ∂ (e f (t)) := e eaτ f (τ )dτ ;

(qui si parla solo di soluzioni particolari, quindi tutte le costanti di integrazione sono irrilevanti: esse specificano
infatti l’una soluzione particolare rispetto ad un’altra e quindi, per quanto visto all’inizio del paragrafo, la loro
presenza serve ad introdurre nella soluzione l’addendo consistente nella soluzione dell’omogenea associata. In tal
senso, tutti i risultati si intenderanno noti a meno di una arbitraria traslazione nel Ker (L)).

Nascita del metodo: scrivere il fatto qui sopra nel seguente modo:
l’equazione (∂ + a)y = f (t) ha soluzione particolare data da:

y(t) = (∂ + a)−1 f (t) := e−at ∂ −1 (eat f (t))


2
d d
sempre che f (t) ∈ Im(∂ + a), che si intendano ∂ := dt , ∂ 2 := dt2,... , e che l’invertibilità venga intesa per
classi di equivalenza e cioè a meno di una traslazione in Ker(∂ + a).

Evoluzione del metodo: notare che (∂ + a1 )(∂ + a2 )y = f (t) fornisce:


+ - t ,
−1 −1 −1 −a1 t a1 τ
y(t) = (∂ + a2 ) (∂ + a1 ) f (t) = (∂ + a2 ) e e f (τ )dτ =
- t) - τ *
= e−a2 t ea2 τ e−a1 τ ea1 σ f (σ)dσ dτ ;


ed osservare che, posto h(τ ) := ea1 σ f (σ)dσ , un’integrazione per parti fornisce
- t
y(t) = e−a2 t e(a2 −a1 )τ h(τ )dτ =
+ - t ,
e−a2 t
= h(t)e(a2 −a1 )t − e(a2 −a1 )τ ea1 τ f (τ )dτ =
a2 − a1
1 K L
= (∂ + a1 )−1 − (∂ + a2 )−1 f (t) .
a2 − a1

Decollo del metodo: fare ricorso ai seguenti punti:

(i) Sia p(ξ) un polinomio di grado n nell’indeterminata ξ ∈ R, con il coefficiente della potenza di grado massimo
1 α1 αn
uguale ad uno e tutte le radici distinte: a1 , a2 , . . . , an . Se si vuole porre p(ξ) = (ξ−a 1)
+ · · · + (ξ−a n)
si può
(ξ−aj ) C αi (ξ−aj ) −1 ′ 1 C n 1
sfruttare la: p(ξ)−p(aj ) = αj + i̸=j (ξ−ai ) per determinare αj = p (aj ) e quindi p(ξ) = i=1 p′ (ai )(ξ−ai ) .
Se invece gli zeri sono molteplici va considerata la decomposizione p(ξ) = (ξ − a1 )n1 (ξ − a2 )n2 · · · e poi
uguagliato ad uno il polinomio che si ottiene a numeratore avendo posto
1 α1 αn1 β1 βn2
= + ···+ n
+ + ··· + + ··· .
p(ξ) (ξ − a1 ) (ξ − a1 ) 1 (ξ − a2 ) (ξ − a2 )n2

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 53

(ii) In modo analogo, se si considera la ∂ come un simbolo e si ha p(∂) = (∂ + a1 )n1 (∂ + a2 )n2 · · · , si possono
determinare i coefficienti αi , βi , . . . in modo tale che sia
α1 (∂ + a1 )n1 −1 (∂ + a2 )n2 · · · + α2 (∂ + a1 )n1 −2 (∂ + a2 )n2 · · · +
+β1 (∂ + a1 )n1 (∂ + a2 )n2 −1 · · · + · · · = 1
che, in base al punto precedente, sono quelli per i quali risulta unitario il prodotto (non operatoriale ma per
ora solo formale) fra p(∂) ed
) *
α1 αn1 β1 βn2
+ ··· + + + · · · + + · · · .
(∂ − a1 ) (∂ − a1 )n1 (∂ − a2 ) (∂ − a2 )n2

(iii) Un polinomio p = p(∂) di grado n intero non negativo ed a coefficienti costanti è senz’altro un operatore
lineare P := p(∂) ben definito su C m purché m ≥ n .
Inversamente: si conviene di definire P −1 (∂) come quell’operatore che trasforma f ∈ C m−n in quella funzione
y =: P −1 (∂)f che è soluzione dell’equazione P(∂)y = f . L’operatore esiste in quanto esiste la soluzione,
e questa è “unica” se si conviene di trattare sempre con quella “senza” costanti d’integrazione, cioè con
(y0 , ẏ0 , . . . , y0n−1 ) ∈ Rn scelte nulle;
(iii.1) l’operatore P −1 (∂) cosı̀ definito può essere considerato come operatore inverso di P(∂), (fatte salve
le precauzioni sul fatto che il suo dominio dovrà essere contenuto nell’immagine di P(∂), e che delle
soluzioni va scelta sempre quella con costanti di integrazioni banali);
(iii.2) la linearità di P(∂) implica che anche l’operatore P −1 (∂) è un operatore lineare, infatti la relazione di
linearità di P(∂) dà luogo alla:
P(∂)(αP −1 (∂)f1 + βP −1 (∂)f2 ) = αP(∂)P −1 (∂)f1 + βP(∂)P −1 (∂)f2 ,
e l’asserto segue applicando P −1 (∂) ad ambo i membri dell’uguaglianza.
(iv) La linearità dell’operatore ∂ permette inoltre:
(iv.1) di fattorizzare l’operatore P(∂) nel prodotto (questa volta sı̀, operatoriale):
(∂ + a1 )n1 (∂ + a2 )n2 · · · (∂ + am )nm ;
(iv.2) di fare lo stesso con P −1 (∂);
(iv.3) di riconoscere che su essi valgono le usuali regole algebriche, giustificando cosı̀ il punto (ii).
(v) Tutto ciò rende leciti, sempre fatte salve le debite cautele di esistenza nell’immagine ed unicità nel kernel, i
seguenti passaggi:
P −1 (∂)f (t)
α1 (∂ + a1 )n1 −1 (∂ + a2 )n2 · · · + α2 (∂ + a1 )n1 −2 (∂ + a2 )n2 · · · +
=
(∂ + a1 )n1 (∂ + a2 )n2 · · ·
+β1 (∂ + a1 )n1 (∂ + a2 )n2 −1 · · ·
f (t) =
= α1 (∂ + a1 )−1 f (t) + α2 (∂ + a2 )−2 f (t) + · · · .
'
In particolare si ritrova, dato che [(ξ + a1 )(ξ + a2 )]′ '(−a ) = (a2 −a1 ) che la soluzione della (∂+a1 )(∂+a2 )y =
1
f (t) si può esprimere mediante la
y(t) = ((∂ + a1 ) (∂ + a2 ))−1 f (t) =
1 7 8
= (∂ + a1 )−1 − (∂ + a2 )−1 f (t) =
(a2 − a1 )
) - t - t *
1 −a1 t a1 τ −a2 t a2 τ
= e e f (τ )dτ − e e f (τ )dτ .
(a2 − a1 )

Esempio 1.5.10 (∂ 2 − 3∂M+ 2)y = t , y, t ∈ R .


B
3 9 8 2
−a(1,2) = 2 ± 4 − 4 = 1 e quindi una soluzione particolare è data da
) - t - t *
t 3
y(t) = − et e−τ τ dτ − e2t e−2τ τ dτ = + .
2 4
#
Note di Sistemi Dinamici
54 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Esempio 1.5.11 (∂ 2 + 4∂ + 4)y = t3 e−2t , y, t0∈ R . 1


−1
.t 1 5 −2t
Ha soluzione particolare data da y(t) = (∂ + 2) e−2t τ 3 dτ = 20 t e .
Si noti che se si fossero conservate le due costanti di integrazione si sarebbero trovate le due soluzioni dell’omogenea
associata: c1 te−2t , c2 e−2t . #

'
N.B. 1.5.12 Sempre con p : a ∈ R → p(a) ∈ R un polinomio a coefficienti costanti, e con P(∂) := p(a) '(∂) , si ha
P(∂)eat ≡ p(a)eat . Pertanto se un numero a è tale che p(a) = 0 detta equazione ausiliaria , si vede subito che
eat è senz’altro soluzione dell’equazione omogenea P(∂)x = 0 . Nel caso di tutte radici distinte si può ottenere in
questo modo la soluzione generale. ♦

N.B. 1.5.13 Mediante l’espressione ∂(eat y) = eat (∂ + a)y si ottiene:


7 8
∂ 2 (eat y) = ∂ eat (∂ + a)y = eat (∂ + a)2 y

e cosı̀ via, ricavando in modo analogo:

P(∂)(eat y) = eat P(∂ + a)y.

Questa poi può essere usata anche in senso inverso:

(∂ + a)n y = 0 ⇐⇒ ∂ n (eat y) = 0

che di conseguenza ha soluzione data da eat y = c1 + c2 t + · · · + cn tn−1 . ♦

1.6 Ricerca di soluzioni per serie di potenze


In questo paragrafo, per motivi in definitiva solo “storici”, si userà la lettera x per indicare la variabile indipendente
mentre la lettera y per la funzione dipendente, entrambe scalari reali.
C∞
Memento 1.6.1 Una serie di potenze n=0 an (x − x0 )n (di punto iniziale x0 ∈ R) si dice convergente nel
punto x se
N
=
lim an (x − x0 )n =: s(x) < ∞.
n→∞
n=0

Raggio di convergenza r := l’estremo superiore dei valori |x − x0 | ∈ R per i quali il limite detto esiste finito.

In molti casi il criterio del rapporto permette di trovare r . Posto


(
|an+1 | λ<1 serie convergente
lim |x − x0 | =: λ(x) si ha che
n→∞ |an | λ>1 serie non convergente

e quindi
|an |
r ≡ lim .
n→∞ |an+1 |
Sussiste il seguente, generale, criterio di convergenza per una qualsiasi serie di funzioni un = un (t).
Weiestrass m-test o convergenza totale := Sia {un }n=0,1,... una successione di funzioni un : R → R tale che:

(1) le funzioni un siano definite su un insieme aperto A ⊆ R;

(2) su A, e per ciascun n, si abbia |un (x)| < mn per certi mn ∈ R+ ;


C
(3) la serie ∞n=0 mn sia convergente;

C∞
allora la serie n=0 un (x) si dice totalmente convergente su A. La convergenza totale implica sia la convergenza
assoluta che quella uniforme.

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 55

Dimostrazione Basta ricordare la definizione di uniforme convergenza. "

Per semplicità, si assuma x0 = 0 .


C∞ C∞
Lemma 1.6.1 Se una data serie di potenze n
n=0 an x C & ∈ R, e cioè se
è convergente per un certo x &n
n=0 an x
∞ n
x) < ∞ , allora l’m-test assicura che: la serie
=: s(& n=0 an x converge assolutamente ed uniformemente per
ogni x ∈ [−ξ, ξ] con 0 ≤ ξ < |& x|.
C∞ n−1
Lo stesso risultato sussiste per la serie delle derivate n=0 nan x la quale, inoltre, ha come somma la
derivata della somma della serie iniziale.

;C <
N n
Dimostrazione sN }N ∈N :=
Dato che la successione {& n=0 a n &
x delle somme ridotte è di Cauchy si
'C ' N ∈N
' j+1 ' n
ha ' i=j ai x &n −→ 0 . In particolare esiste σ ∈ R tale che |an ||&
&i ' < ε e quindi an x xn | < σ per ogni n. Sia

n
x|; allora per |x| ≤ |ξ| si ha: |an ||xn | ≤ |an |ξ n = |an x
0 ≤ ξ < |& &n |ξ n /|&
x|n < σ |ξ/&
x| .
C∞ n
Ma la serie geometrica n=0 |ξ/& x| converge, e siccome maggiora la serie data questa converge assolutamente
ed uniformemente su [−ξ, ξ] .
Analogo risultato si ottiene per la serie delle derivate, infatti sussiste la stima

|nan xn−1 | ≤ |n||an ||ξ n−1 | = n|an ||& x|n |1/ξ| < |σ/ξ| n |ξ/&
x|n |ξ/& x|n ;

la serie di cui quest’ultima è il termine n-mo converge per il criterio del rapporto, per cui (eventualmente rinomi-
nando i coefficienti) si può nuovamente agire con l’m-test. Ne segue anche che la somma delle derivate è continua
ed è proprio la derivata della somma della serie, (metodo “3 ε ”). Infine, lo stesso ragionamento si può ripetere
per la k -esima derivata, per la quale si ha
n
x|n |ξ/&
n(n − 1) · · · (n − k + 1)|an ||& x| |1/ξ k | <
' '
x|n
< 'σ/ξ k ' n(n − 1) · · · (n − k + 1) |ξ/&

ed ancora il criterio del rapporto dà |ξ/&


x| n/ (n − k) −→ |ξ/&
x| < 1 . "

Funzione (reale) analitica in x0 : f (x) ∈ C ω (x0 ) := una funzione f : R → R che ammette derivate f [n] (x0 )
di ogni ordine, e per la quale esista un c > 0 tale che: per ogni x ∈ Bc (x0 ) si ha

=n
1 [m] n
f (x) − f (x0 )(x − x0 )m =: rn (x) −→ 0.
m=0
m! ∞

La sola condizione f ∈ C ∞ (x0 ), e cioè l’esistenza in x0 delle derivate f [n] (x0 ) di ogni ordine n, comporta
“solo” (Teorema di Taylor, [Spivak 19.4]) l’esistenza di un conveniente punto x̄ ∈ B|x−x0 | (x0 ), dipendente da
1
L
x, x0 , n, f, tale che (per un qualsiasi n) rn (x) = (n+1)! f [n+1] (x̄)(x − x0 )n+1 .
C∞Le proprietà nasintotiche e di derivabilità viste sopra implicano che: la somma s(x) di una serie di potenze
n=0 an (x − x0 ) è una funzione analitica all’interno dell’intervallo di convergenza Br (x0 ), e verifica la relazione
1 [n]
an ≡ n! s (x0 ). Quest’ultima uguaglianza inoltre implica l’unicità dello sviluppo della somma.
Più debolmente: se una funzione f = f (x) è infinitamente differenziabile per |x − x0 | minore di un certo c ∈ R+ è possibile che,
in Bc (x0 ) , essa sia uguale alla somma della sua serie di Taylor

= f [n] (x0 )
f (x) = s(x) := an (x − x0 )n con an = ;
n=0
n!

tuttavia ciò non è necessario; non è detto infatti che la somma s(x) della serie sia l’unica funzione che
0 ha nel punto
1 tutte le derivate
ordinatamente uguali ai coefficienti della serie (si veda: [Spivak p.398]). Per esempio la funzione f ∈ C ∞ (R)
( 2
e−1/x per x ̸= 0
f (x) :=
0 per x=0

non è analitica in zero: ha infatti tutte le derivate nulle nell’origine pur non essendo la funzione nulla.
Le funzioni analitiche sono invece per definizione quelle identicamente uguali alla somma della loro serie di
Taylor nel suo intervallo di convergenza.

Note di Sistemi Dinamici


56 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Stante l’uniforme convergenza, sulle serie di potenze convergenti si può agire come sui polinomi:

= ∞
=
n
an (x − x0 ) = bn (x − x0 )n ⇐⇒ an = b n ∀n;
n=0 n=0
=∞ =∞ ∞
=
an (x − x0 )n + bn (x − x0 )n = (an + bn )(x − x0 )n ;
n=0 n=0 n=0
=∞ =∞ ∞
=
an (x − x0 )n bn (x − x0 )n = s1 (x)s2 (x) = cn (x − x0 )n ,
n=0 n=0 n=0
= n
=
ove cn := ak b j ≡ ak bn−k = a0 bn + a1 bn−1 + . . . + an b0 .
k+j=n k=0

In più si riconosce che lo spazio delle funzioni analitiche è chiuso rispetto alla somma, prodotto, composizione
funzionale, limite uniforme, inversa continua (si veda: [Simmons §25; Flanigan V.2.3])
In virtù di tali proprietà, le serie di potenze risultano idonee ad essere usate come funzioni “campione” per
problemi differenziali lineari in quei casi nei quali si sappia per altra via, o si assuma, che la soluzione del problema
sia una funzione analitica in un certo punto x0 . È chiaro che in tal modo il risultato è da intendersi locale
all’interno del cerchio di convergenza centrato nel punto di analiticità. C∞
Il procedimento consiste nell’assumere l’incognita soluzione del tipo y(x) =: n=0 an (x − x0 )n , e nel ricercare
le condizioni necessarie sui coefficienti {an }n∈N affinché tale y sia soluzione del problema originario: equazione e
dati iniziali. L’unicità della soluzione implica che tali condizioni risultano anche sufficienti all’interno del cerchio
di convergenza.
Esempio 1.6.1 y ′ = k y , con k ∈ R
Il metodo fornisce, con x0 = 0 , la seguente condizione necessaria

= ∞
= ∞
=
m am xm−1 = (n + 1)an+1 xn = k an xn
m=1 n=0 n=0

dalla quale si ricavano le (n + 1)an+1 = k an . Si calcolano quindi, ricorsivamente,


k3 kn
a1 = k a0 , 2a2 = k a1 = k 2 a0 , 3a3 = k a2 = a0 , . . . , an = a0 , . . .
2 n!
e si trova
=∞
kn n
y(x) = a0 x =: a0 ekx .
n=0
n!
In questo caso è palese che il coefficiente a0 rappresenta il dato y(0). #

Il metodo è utile particolarmente quando non si hanno a disposizione funzioni elementari che siano somma
delle serie cosı̀ trovate. Inoltre il procedimento può essere applicato anche per ottenere lo sviluppo di un’assegnata
funzione, purché analitica e soluzione di una qualche equazione differenziale ordinaria.
Esempio 1.6.2 y(x) = (1 + x)α , α∈R.
La funzione data è soluzione particolare, per x ∈ Bc (0) con c < 1 , della
(
′ α−1 −1 (1 + x)y ′ = αy
y = α(1 + x) = α(1 + x) y e cioè della
y(0) = 1 .
C∞
Con y(x) = n=0 an xn si ha, scrivendo i termini fino al grado (n − 1) ,

y ′ = a1 + 2a2 x + 3a3 x2 + . . . + nan xn−1


xy ′ = a1 x + 2a2 x2 + . . . + (n − 1)an−1 xn−1
(1 + x)y ′ = a1 + (2a2 + a1 )x + (3a3 + 2a2 )x2 + . . . + (nan + (n − 1)an−1 )xn−1
αy = αa0 + αa1 x + αa2 x2 + . . . + αan−1 xn−1
e quindi a1 = αa0 , 2a2 + a1 = αa1 , . . ., nan + (n − 1)an−1 = αan−1 , ovvero
1
an = (α − (n − 1)) an−1 .
n

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 57

Più brevemente, dalla



= ∞
= ∞
=
(n + 1)an+1 xn + n an xn − α an xn = 0
n=0 n=0 n=0

si trova l’equivalente an+1 = (α − n) an /(n + 1).


Se ne ricava
1 1
a1 = α a0 , a2 = (α − 1) a1 = α(α − 1) a0 ...
2 2
che fa sperare in un termine ricorrente del tipo
1
an = α(α − 1) . . . (α − (n − 1)) a0 ,
n!
la quale, giustamente, fornisce
1
nan = [α(α − 1) . . . (α − (n − 2)) a0 ] (α − (n − 1)) .
(n − 1)!

Pertanto, dato che la condizione iniziale fissa y(0) = a0 = 1 , la soluzione del problema è necessariamente
espressa dalla serie
= 1
1+ α(α − 1) · · · (α − (n − 1)) xn
n=1
n!

nella
' 'quale, ovviamente, si riconosce lo sviluppo di Taylor in x = 0 della funzione (1 + x)α . Siccome poi
' an ' ' α−n+1 '
' an−1 ' = ' n ' −→ 1 , tale funzione è la somma di una serie di potenze convergente in |x| < 1 e quindi
y ∈ C ω (B1 (0)) e tutti i passaggi effettuati sono leciti. Il teorema di unicità infine garantisce che la funzione iniziale
y(x) e la somma della serie trovata sono necessariamente coincidenti. #

Nota 1.6.1 Talvolta viene introdotto il simbolo

(β)k := (β)(β + 1)(β + 2) · · · (β + k − 1);

con esso, i coefficienti trovati sopra si possono anche scrivere come segue
1
an = an (α) = α(α − 1) · · · (α − n + 1)
n!
(−1)n
= (−α)(−α + 1) · · · (−α + n − 1)
n!
1
= (−1)n (−α)n .
n!

In qualsiasi forma vengano espressi, i coefficienti an hanno le seguenti proprietà. Nel caso particolare in cui il
numero α =: m è un numero intero positivo ciascuno dei coefficienti an (m) è nullo se n > m, infatti (−m)m+1 ≡ 0 ,
e quindi la serie dell’esempio precedente termina in una somma finita. Invece, per n ≤ m si ha
) *
1 (m − n)! m! m
an (m) = m(m − 1) · · · (m − n + 1) = = .
n! (m − n)! n!(m − n)! n

Nel caso generale, e facendo riferimento a quanto trovato nel caso m ∈ N, si nota che la) prima* delle due
α
espressioni ottenute per i coefficienti an può essere usata per definire il Coefficiente binomiale anche per α
n
non necessariamente interi positivi; esso si definisce mediante la:
) * ) *
α 1 1 α
:= (−1)n (−α)n = α(α − 1) · · · (α − n + 1) ; := 1 .
n n! n! 0

In tal modo dall’Esempio 1.6.2 si può dedurre la formula cercata per α reale; essa è
∞ ) *
=
α α
(1 + x) = xn .
n
n=0

Note di Sistemi Dinamici


58 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Esempio 1.6.4 La funzione θ(x) := arcsin x, definita per |x| < 1 , è soluzione della
) *−1
dθ d sin θ '' 1
= ' = = (1 − x2 )−1/2 . (6.57)
dx dθ θ(x) cos θ(x)

Ma dalla (1.6) con α = 1/2 segue che il secondo membro è esprimibile come segue
∞ )
= * =∞
−1/2 1
(1 − x2 )−1/2 = (−x2 )n = (1/2)n x2n .
n n!
n=0 n=0

Applicando, d’altra parte, all’equazione


C∞ (6.57) il metodo di ricerca per serie di potenze si ottiene, per la funzione
arcsin x, uno sviluppo del tipo n=0 an xn , e si trova che i coefficienti devono necessariamente verificare la

= =∞
n 1
(n + 1)an+1 x = (1/2)n x2n .
n=0 n=0
n!

1
Da questa si ricavano le due relazioni a2k = 0 , ed a2k+1 = k!(2k+1) (1/2)k , e quindi una delle forme note per il
calcolo di π : ) * ) * ) *3
1 1 1 1 1 1
π = arcsin = 1 + + ... .
6 2 2 3 2 2
#
ω
Il metodo si applica ad equazioni differenziali lineari omogenee con coefficienti C (Br (x0 )) infatti (si veda:
[Bender - Orszag cap.III, opp. Simmons §27]) anche ogni loro soluzione è C ω (Br (x0 )).
Qui verrà trattato il caso delle equazioni lineari omogenee del secondo ordine con primo coefficiente uguale ad
uno, e cioè
y ′′ + p(x)y ′ + q(x)y = 0 , con x0 , y0 , y0′ ∈ R ; (6.58)
e si mostrerà come se p, q ∈ C ω (Br (x0 )) allora anche la y è in C ω (Br (x0 )).
Un siffatto punto x0 viene detto Punto ordinario, o non singolare.
Se invece x0 è tale che p, q sono non analitici in x0 , ma lo sono le due funzioni

p&(x) := (x − x0 )p(x) ed q&(x) := (x − x0 )2 q(x)

allora il punto x0 è detto Punto singolare regolare.


In tal caso la funzione soluzione può, non deve, essere non analitica nell’intorno di x0 ; la sua singolarità è
algebrica oppure logaritmica a seconda che compaiano termini del tipo (x − x0 )α con α ∈ R\N, oppure ln(x − x0 ).
Negli altri casi il punto è detto Singolare Irregolare, ed almeno una delle funzioni soluzione presenta una
singolarità essenziale, in generale tutte.
Le stesse definizioni si estendono ai casi di equazioni di ordine superiore: un punto x0 è singolare regolare per
l’equazione y [n] + q1 (x)y [n−1] + . . . + qn (x)y = 0 se esso è tale da rendere analitici ciascuno dei prodotti

q&n (x) := (x − x0 )n qn (x),


q&n−1 (x) := (x − x0 )n−1 qn−1 (x),
··· ···
q&1 (x) := (x − x0 )q1 (x) .

Sia per il momento x0 un punto ordinario per la (6.58) con r il (più piccolo) raggio di analiticità dei coefficienti
e condizioni iniziali y(x0 ) = y0 ed y ′ (x0 ) = y0′ arbitrarie. Si cerca la soluzione sotto forma di uno sviluppo locale
intorno al punto x0 , che risulta anche globale qualora r = ∞. Il procedimento è costruttivo. [Qui di seguito si
supporrà x0 = 0 , maC∞ C∞ facilmente sostituendo x con (x − x0 )].
il caso generale si può ottenere
Siano: p(x) =: n=0 pn xn e q(x) =: n=0 qn xn ; e si ponga
⎧ ∞
⎪ =

⎪ y ′
(x) = (n + 1)an+1 xn ,
∞ ⎪

= n=0
y(x) =: an xn , e quindi ∞

⎪ =
n=0 ⎪
⎪ ′′
(n + 1)(n + 2)an+2 xn .
⎩ y (x) =
n=0

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 59

Si ricavano le @ A@ A

= ∞
= ∞
= n
=
n n
q(x)y(x) = qn x an x = xn ak qn−k ;
n=0 n=0 n=0 k=0
@∞ A@ ∞ A ∞ n
= = = =
′ n n
p(x)y (x) = pn x (n + 1)an+1 x = xn (k + 1)ak+1 pn−k .
n=0 n=0 n=0 k=0

Ne segue la successione di condizioni necessarie


n
=
(n + 1)(n + 2)an+2 + [(k + 1)ak+1 pn−k + ak qn−k ] = 0 . (6.59)
k=0

Tali relazioni permettono di determinare in modo univoco il termine an+2 quando siano noti i precedenti:

(n = 0) −→ 2a2 = −(a1 p0 + a0 q0 )
(n = 1) −→ 3 · 2a3 = −(a1 p1 + a0 q1 ) − (2a2 p0 + a1 q0 )
··· ··· ··· ···
Di conseguenza rimangono da assegnare solo i due coefficienti a0 , a1 , ed è palese che ciò si possa fare in modo
del tutto arbitrario. In funzione delle condizioni iniziali si esprimono allora a0 = y0 = y(0) ed a1 = y1 = y ′ (0)
e quindi quella trovata rappresenta l’unica “soluzione” che passa per esse.
Occorre però dimostrare che tale soluzione esiste, e cioè che esista un qualche r > 0 per il quale la serie converge
almeno in Br (0). Se questo è il caso, tutte le operazioni effettuate risultano lecite, e la soluzione del problema è
trovata, stante l’unicità, ed è analitica in Br (0); (in tal modo, le (6.59) risultano condizioni anche sufficienti).
C∞ n
Questo è il caso; la dimostrazione della convergenza in Br (0) di n=0 an x quando le an verificano le (6.59)
e purché i coefficienti p, q siano analitici in Br (0), è di routine: (si veda: [Simmons p. 183]).
Nota 1.6.2 Se l’equazione è a coefficienti costanti, e quindi pn = qn = 0 per ogni n > 0 la (6.59) si riduce a

(n + 1)(n + 2)an+2 + (n + 1)an+1 p0 + an q0 = 0 .

Esempio 1.6.6 Nel caso particolare y ′′ + y = 0 si hanno p0 = 0, q0 = 1 . Ne segue la (n + 1)(n + 2)an+2 + an = 0


e quindi
1 1
a2n = (−1)n a0 ed a2n+1 = (−1)n a1 .
(2n)! (2n + 1)!
Si ottiene in tal modo un’alternativa definizione delle funzioni trigonometriche, chiaramente con raggio di conver-
genza r = ∞, data da
@∞ A @∞ A
= 1 = 1
n 2n n 2n+1
y(x) = a0 (−1) x + a1 (−1) x
n=0
(2n)! n=0
(2n + 1)!
= a0 cos x + a1 sin x .

Si osservi che tale definizione è consistente con il modello di un punto che percorra di moto uniforme una circon-
ferenza; esso ha infatti vettore posizione ed accelerazione paralleli e discordi, e posizione totalmente individuata
dall’“angolo” x. #

Naturalmente il difficile è determinare non certo la forma (6.59) ma la formula ricorrente che ne consegue:
in questo esempio è stata a due termini, ma potrebbe essere peggiore, e ciò anche in base alla forma che si dà
all’equazione di partenza.
Esempio 1.6.7 L’equazione di Schrödinger stazionaria unidimensionale

!2 ′′
ψ + (E 0 − V (ξ)) ψ = 0 , ξ∈R. (6.60)
2m
Quando siano
k 2 k mω 2
V (ξ) = ξ , =: ω 2 , !ω =: hν, ξ =: x2 ∈ R ,
2 m !

Note di Sistemi Dinamici


60 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

la (6.60) (insieme con le necessarie condizioni fisiche) diviene:



⎪ 2E 0

⎨ ψ ′′ + (λ − x2 )ψ = 0 λ= ∈ R+ ;
- ∞ hν
0 ω 12 (6.61)

⎪ |x| k/m
⎩ |ψ|2 dx = 1 , e quindi ψ −→ 0; ν2 = = .
−∞ ∞ 2π 4π 2

A prescindere dalle condizioni al contorno, l’equazione cosı̀ trovata può ulteriormente


K essere trasformata.
L Si
2 2 2
ponga: y(x) := ex /2 ψ(x) e quindi ψ ′ = e−x /2 (y ′ − xy) e ψ ′′ = e−x /2 y ′′ − 2xy ′ − y + x2 y . Con
queste relazioni, dalla (6.61) si ottiene l’equazione di Hermite classica:

y ′′ − 2xy ′ + (λ − 1)y = 0 ; (6.62)


2
la quale a sua volta, moltiplicata per e−x , assume una forma particolarmente utile per la sua discussione,
[Simmons]: 0 1
2 2
e−x y ′ ′ + (λ − 1)e−x y = 0 . (6.63)
C∞
Il metodo consiste nel cercare soluzioni della forma y(x) = n=0 an xn . La (6.61) dà facilmente (n + 1)(n +
2)an+2 +λan −an−2 = 0, la quale però è una ostica relazione a tre termini. È più conveniente, invece, servirsi della
(6.62). Ponendo 2ϱ := (λ−1) si ottiene y ′′ −2xy ′ +2ϱy = 0 dalla quale segue (n+1)(n+2)an+2 −2nan +2ϱan = 0 ,
ovvero
−2(ϱ − n)
an+2 = an (6.64)
(n + 1)(n + 2)
dalla quale si ricavano

−2(ϱ − 2) (−2)2 ϱ(ϱ − 2)


a2 = −ϱa0 , a4 = a2 = a0 ,
3·4 (2 · 2)!

e cosı̀ via. In definitiva si arriva alle


(−2)k
a2k = ϱ(ϱ − 2) · · · (ϱ − 2k + 2) a0 , (6.65)
(2k)!
(−2)k
a2k+1 = (ϱ − 1)(ϱ − 3) · · · (ϱ − 2k + 1) a1 , (6.66)
(2k + 1)!

e si vede subito che è r = limk→∞ (k + 1)(2k + 1)/|ϱ − 2k| = ∞. Inoltre, con il porre nulli prima tutti i termini
dispari e poi quelli pari, e cioè scegliendo, come fatto nel precedente esempio, (a1,0 , a1,1 ) := (1, 0) e, rispettivamente,
(a2,0 , a2,1 ) := (0, 1), si trova che la soluzione generale della (6.60) è
2 2 2
ψ(x) = e−x /2
y(x) = e−x /2
y1 (x) + e−x /2
y2 (x) , (6.67)

ove le funzioni y1 ed y2 sono espresse mediante le serie di potenze aventi i coefficienti (6.65), (6.66) rispettivamente
e gli altri tutti nulli. Infatti, tali funzioni sono convergenti per ogni x < ∞ poiché tali sono i coefficienti di (6.62),
e certo fra loro linearmente indipendenti poiché di diversa parità.
Nel problema fisico, tuttavia, non basta che la serie converga per ogni x ∈ R; occorre anche che la soluzione sia
|x|
ψ ∈ L2 (R), e quindi che sia soggetta al vincolo: |ψ| −→ 0 . Per studiare l’avverarsi di tale condizione, si ricordi

C
innanzi tutto che ex /2 = ∞
2
n=0 b2n x
2n
con b2n := (2n n!)−1 . Pertanto, il primo addendo della (6.67) ammette
la seguente espressione
2 a0 + a2 x2 + · · · + a2n x2n + · · ·
e−x /2 y1 (x) = .
b0 + b2 x2 + · · · + b2n x2n + · · ·
Si può esaminare cosa accade per |x| → ∞ osservando il rapporto |a2n |/|b2n | .
Se per n ≫ 1 risultasse |a2n |/|b2n | > 1 allora, dato che tutti i coefficienti hanno lo stesso segno (positivo) per
|x|
n sufficientemente grandi, senz’altro non potrebbe essere |ψ| −→ 0 . Analogo risultato si ottiene studiando il

rapporto |a2n+1 |/|b2n |. Perché anche la y2 possa verificare la condizione al contorno occorre escludere la possibilità
che sia |a2n+1 |/|b2n | > 1 .
Per assicurarsene si usi il seguente procedimento. Dalla (6.64) segue che

a2n+2 (−2)(ϱ − 2n) b2n+2 1


= insieme con = ;
a2n (2n + 1)(2n + 2) b2n 2(n + 1)

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 61

e pertanto
a2n+2 /a2n (−2)(ϱ − 2n)2(n + 1)
= −→ 2.
b2n+2 /b2n (2n + 1)(2n + 2)
Se allora n è sufficientemente grande tale rapporto è maggiore per esempio di 3/2, e quindi se ne deduce
a2n+2 /b2n+2 > (3/2) a2n /b2n . Da questa si ricava, per n maggiori di un qualche n0 , la stima: a2n0 +2n /b2n0 +2n >
n 2
(3/2) a2n0 /b2n0 > 1 . Se ne conclude che la soluzione e−x /2 y1 (x) è fisicamente inaccettabile a meno che la
serie termini, e cioè a meno che (ϱ − 2n) si annulli per qualche n. Allo stesso modo si riconosce che il secondo
2
addendo della (6.67): e−x /2 y2 (x) diverge all’infinito a meno che (ϱ − 2n + 1) = 0 si annulli per qualche n. In
conclusione, affinché il problema fisico ammetta soluzione occorre che sia ϱ ∈ N.
N.B. 1.6.8 Questo è un modo di mostrare la condizione ϱ ∈ N alternativo
) a quello che*sfrutta l’autoaggiunzione
7 d 8 1 7 d 8 |x|
∗ 1
dell’operatore T T = √2 − dt + x · √2 + dt + x nello spazio L2 (R), |ψ| −→ 0 . ♦

In altre parole il problema fisico risulta un problema agli autovalori, le cui autofunzioni sono date dalle
2
ψm (x) = e−x /2
hm (x), m ∈ N,

nelle quali gli hm (x) sono polinomi, detti Polinomi di Hermite, autosoluzioni delle (6.62), (6.63) corrispondenti
agli autovalori ϱ = 2m e ϱ = 2m + 1 . Per quanto si è visto, tali polinomi sono dati rispettivamente dalle
⎧ m
⎪ = (−2)k

⎪ h (x) = c (2m)(2m − 2) · · · (2m − 2k + 2)x2k

⎨ 2m 2m
(2k)!
k=0
⎪ m
=

⎪ (−2)k
⎪ h
⎩ 2m+1 (x) = c 2m+1 (2m − 1)(2m − 3) · · · (2m − 2k + 1)x2k+1
(2k + 1)!
k=0

ove le cm sono costanti di normalizzazione. Per varie ragioni, queste vengono scelte in modo tale che il termine di
grado massimo sia 2n xn , e quindi sono

c2m = (−2)m 1 · 3 · 5 · · · (2m − 1) e c2m+1 = −(−2)m+1 1 · 3 · 5 · · · (2m + 1) ;

per esempio, i primi valori sono {1, −2, −12, 12, 120, · · ·}, e forniscono finalmente

h0 (x) = 1, h1 (x) = 2x, h2 (x) = 4x2 − 2, h3 (x) = 8x3 − 12x, etc.

Alternativamente, detto an il termine più alto del polinomio e cioè con ϱ = n, si sarebbe potuto anche usare
le (6.64) per trovare
1 n!
an−2k = (−1)k k an
2 (2k)! (n − 2k)!
ed allora con an := 2n si ottiene
[n/2]
= (−1)k (2x)n−2k
hn (x) =n! .
k! (n − 2k)!
k=0
2
0 2
1
È utile notare che la (6.63) è autoaggiunta: (2n − 1)e−x y = − e−x y ′ ′ e quindi in tal caso, per le proprietà
2
N 2
O∞
dell’esponenziale e con r := e−x , si ha ⟨ ψn , ψm ⟩ = 2(n − m) ⟨ hn , hm ⟩ r = e−x W(hn , hm ) = 0 . Un
−∞
2 2
calcolo diretto, con l’uso delle formile di Rodriguez: hn (x) = (−1)n ex dn (e−x )/dxn , mostra poi che invece
- ∞ - ∞
−x2 2 dn 2
⟨ hn , hn ⟩r = e hn (x)dx = (−1)n hn (x) n e−x dx
−∞ −∞ dx
- ∞ n−1
d 2
= (−1)n+1 h′n (x) n−1 e−x dx = . . .
−∞ dx
- ∞
2 √
= 2n n! e−x dx = 2n n! π ̸= 0
−∞

λ−1 E 1
Si osservi il profondo significato fisico della limitazione trovata per il parametro ϱ ≡ = − ∈ N.
2 hν 2
Essa rende discreto numerabile lo spettro dei valori accettabili per l’energia di un oscillatore armonico descritto
E 1
dalla equazione di Schrödinger, che pertanto è detto quantistico: = + n con n = 0, 1, . . . . #
hν 2

Note di Sistemi Dinamici


62 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Si esamini ora un caso di punto singolare regolare.

Esempio 1.6.9 Sia data, su (0, ∞), l’equazione di Bessel:

x2 y ′′ + xy ′ + (λ2 x2 − ϱ2 )y = 0 , λ, ϱ ∈ R . (6.68)

Anche l’equazione (6.68) può essere opportunamente trasformata.


√ Per esempio, oltre che poter essere scritta nella
forma −(xy ′ )′ + ϱ2 y/x = λ2 xy mediante la u(x) := x · y(x), e quindi per y ′ = x−1/2 u′ − 12 x−3/2 u ed
y ′′ = x−1/2 u′′ − x−3/2 u′ + 34 x−5/2 u , essa si trasforma nella
) *
′′ 2 1/4 − ϱ2
u + λ + u=0; (6.69)
x2

oppure, per t := λx, la


7 8
t2 ÿ + tẏ + t2 − ϱ2 y = 0 ; (6.70)

cosı̀ come questa stessa sostituzione trasforma (6.69) nella


) *
1/4 − ϱ2
ü + 1 + u=0. (6.71)
t2

Di questa generalmente si cercano soluzioni per x ∈ (0, l] con y(0+ ) < ∞ e per λ = λ(ϱ) ∈ R tale che y(l) = 0 ;
(in questo esempio, ϱ è una costante reale fissata a priori).
L’origine è palesemente
C∞ un punto singolare regolare. Come tale non è possibile sperare, a priori, in soluzioni
analitiche: y(x) = n=0 an xn . #

Osservazione.
Nel caso λ = 0 , la (6.68) si riduce alla nota equazione di Eulero, vedi Esempio 1.5.5, nella quale le p& e q& sono costanti reali e si badi
che qui la variabile x è positiva; nel caso generale i prossimi risultati vanno intesi validi con |x| ove occorra.

p& ′ q&
y ′′ + y + 2 y=0 (6.72)
x x
1 1 1 1 0 1
la quale, con ξ := ln x , e quindi con ∂x = ∂ξ e ∂x2 = − ∂ξ + ∂x ∂ξ = 2 ∂ξ2 − ∂ξ , diviene l’equazione lineare a
x x2 x x
coefficienti costanti:
d2 d
p − 1)
y + (& y + q& y = 0 . (6.73)
dξ 2 dξ
Come è noto, e come si rivedrà nel seguito, a seconda che le radici dell’equazione caratteristica:

α2 + (&
p − 1) α + q& ≡ [α(α − 1) + α&
p + q&] = 0 (6.74)

siano reali distinte, coincidenti, o complesse coniugate, l’equazione (6.73) ammette soluzioni del tipo eα1 ξ ed eα2 ξ , oppure eαξ
e ξeαξ ,
oppure e(ρ+iθ)ξ ed e(ρ−iθ)ξ , e quindi la (6.72) avrà in loro corrispondenza soluzioni contenenti potenze algebriche (e
cioè non necessariamente intere) della |x| oppure prodotti di queste con logaritmi, oppure potenze della |x| moltiplicate per funzioni
trigonometriche del logaritmo.

L’equazione di Bessel è un caso particolare della seguente forma generale (del secondo ordine)

p&(x) ′ q&(x)
y ′′ + y + y=0, con x0 singolare regolare (6.75)
x − x0 (x − x0 )2

e cioè x0 tale che: i coefficienti p(x) = p&(x)/(x − x0 ) e q(x) = q&(x)/(x − x0 )2 possono essere non analitici
in x0 , ma sono analitiche le due funzioni p&(x), q&(x).
Motivati dalla precedente osservazione sull’equazione di Bessel, viene spontaneo cercare soluzioni, nell’intorno
di x0 ,
o della forma y(x) = (x − x0 )α s(x), α ∈ C,
oppure della forma y(x) = (x − x0 )α s(x) ln |x − x0 |, α ∈ R,
C∞
dove si è posto s(x) = n=0 an (x − x0 )n , con a0 ̸= 0 ,

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 63

e nell’ipotesi che i coefficienti a0 , a1 , . . . , an , . . . ∈ R siano tali che la serie di potenze s(x) abbia raggio di
convergenza non nullo.
La prima di tali rappresentazioni quando α è un numero reale prende il nome di Serie di Frobenius, della quale
α è detto l’Esponente indiciale.
Sia, per semplicità, x0 = 0, e siano

= ∞
=
p&(x) =: p&n xn ed q&(x) =: q&n xn
n=0 n=0

entrambe analitiche per |x| < r .


Si ponga, come tentativo,

=
α
y(x) = x an xn con a0 ̸= 0 . (6.76)
n=0

È opportuno notare che se α ̸= 0 il coefficiente a0 non rappresenta il valore y(0); d’altra parte con le attuali
ipotesi il punto x = 0 è addirittura non appartenente dal dominio di regolarità del campo.
In base alla posizione fatta, risultano

= ∞
=
y ′ (x) = (α + n)an xα+n−1 , y ′′ (x) = (α + n)(α + n − 1)an xα+n−2
n=0 n=0

da cui @ A@ A

= ∞
=
p&(x) ′
y (x) = x−1 p&n x n
(α + n)an x α+n−1
=
x n=0 n=0

@ n A
= =
= p&n−k (α + k)ak xα+n−2
n=0 k=0

ed in modo analogo si ha
@ ∞
A@ ∞
A ∞
@ n A
q&(x) = = = =
y(x) = x−2 q&n x n
an x α+n
= q&n−k ak xα+n−2 .
x2 n=0 n=0 n=0 k=0

Anche in questo caso si trova una successione di condizioni necessarie, per n ≥ 0 ,


n
= n
=
(α + n)(α + n − 1)an + p&n−k (α + k)ak + q&n−k ak = 0
k=0 k=0

o anche, con la somma presente solo per n > 0 ,


n−1
=
[(α + n)(α + n − 1) + p&0 (α + n) + q&0 ] an + pn−k (α + k) + q&n−k ] ak = 0.
[& (6.77)
k=0

N.B. 1.6.10 La (6.77) si può paragonare con la (6.59)


n−1
= n−2
=
n(n − 1)an + kak pn−k−1 + ak qn−k−2 = 0, n≥2, (6.78)
k=1 k=0

che si è ottenuta per un punto regolare nel quale p&0 = q&0 = q&1 = 0 ; il passaggio da p, q a p&, q& comporta uno
spostamento in avanti negli indici: un posto per la p, due per la q ; vedi anche la seguente Nota 1.6.3. ♦

Per rendere più agevole la discussione delle (6.77) si definisca la funzione (già incontrata nella (6.74))

α &→ ind(α) := α(α − 1) + p&0 α + q&0 ;

la (6.77) si può riscrivere nella


n−1
=
ind(α + n) an + pn−k (α + k) + q&n−k ) ak = 0 ,
(& (6.79)
k=0

Note di Sistemi Dinamici


64 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

C
e l’equazione (6.75) calcolata per y(x) = n=0 an xn (e moltiplicata per x2 ) assumerà la forma


I n−1
J
= =
α
a0 ind(α) x + ind(α + n) an + pn−k (α + k) + q&n−k ) ak
(& xα+n = 0 . (6.80)
n=1 k=0

In particolare, e ricordando la convenzione sulla n ≥ 0 sussistono le

(n = 0) −→ ind(α)a0 =0
(n = 1) −→ ind(α + 1)a1 = −(&
p1 α + q&1 )a0
(n = 2) −→ ind(α + 2)a2 = −(&
p2 α + q&2 )a0 − (&
p1 (α + 1) + q&1 )a1

··· ··· ··· ···

L’assunto a0 ̸= 0 rende non ambigua la determinazione dell’esponente α ; esso dovrà essere una delle radici della:

Equazione indiciale ind(α) := α(α − 1) + p&0 α + q&0 = 0 (6.81)

e quindi, generalmente si avrà: α ̸∈ N. Tuttavia non è questa l’unica differenza con il caso dei punti regolari.
Diversamente dalla (6.78), infatti, le (6.77) permettono di determinare in modo ricorsivo tutti i coefficienti ai =
ai (a0 , a1 , . . . , ai−1 ) = ai (α; a0 ), i = 1, 2, . . ., solo se, in corrispondenza a quel valore di α , non esista alcun
intero positivo n̄ tale che

ind(α + n̄) = (α + n̄)(α + n̄ − 1) + p&0 (α + n̄) + q&0 = 0 .

Inoltre, anche ammettendo che per qualche α un tale n̄ non esista e sia quindi possibile determinare l’intera
successione {ai (α; a0 )}i=0,1,... , la soluzione che cosı̀ si determina in corrispondenza della prescelta radice α dell’e-
quazione indiciale (6.81) non potrà di regola essere la soluzione generale del problema; essa infatti dipende da una
sola costante arbitraria a0 .
Siano α1 , α2 le radici di ind(α) = 0 , e si suppongano entrambe reali ed ordinate secondo la α1 ≥ α2 .
Certamente ind(α1 + n) sarà non nullo per ogni n > 0 , infatti l’altra radice di ind(α) = 0 è α2 che, per
costruzione, cade a sinistra di α1 . Pertanto almeno una prima soluzione si potrà trovare con questo metodo, ed
avrà la forma
=∞
α1
y1 (x) = x a1,n xn , con a1,n = a1,n (α1 ; a1,0 ) .
n=0

È di routine (si veda: [Simmons p.185, opp. Tenenbaum 40.b]) la dimostrazione del fatto che la serie cosı̀
trovata è convergente almeno all’interno del cerchio di raggio r di analiticità dei termini p&, q&. Ne segue che la
soluzione y1 (x), analitica o meno a seconda del valore α1 , è certamente definita per x ∈ (0, r).
Sfortunatamente, siccome la (6.77) è condizione necessaria per gli an , si riscontra qui un
Primo caso sfavorevole: se α1 = α2 non esiste alcun’altra serie di Frobenius linearmente indipendente da quella
già trovata. Per trovare un’altra soluzione y2 indipendente dalla y1 , e quindi la soluzione generale del problema,
occorrerà inventare qualcos’altro.
Siano α2 ̸= α1 . Se è anche (α2 − α1 ) ̸∈ N allora ind(α2 + n) è anch’esso non nullo per ogni n > 0 , e quanto
appena fatto a partire dalla α1 può essere ripetuto per questa seconda radice α2 . Si trova cosı̀ una seconda serie
di Frobenius y2 , la quale per la condizione (α2 − α1 ) ̸∈ N ∪ {0} risulta evidentemente indipendente dalla y1 .
Quando invece esiste un intero positivo n̄ tale che α1 = α2 + n̄, allora accade che ind(α1 ) = ind(α2 + n̄) = 0
e ciò fa sı̀ che la (6.79), inizializzata con α2 e con un qualche a2,0 , termini con la:

n̄−1
=
0an̄ + pn̄−k (α2 + k) + q&n̄−k ) ak = 0 .
(& (6.82)
k=0

Questa eventualità può generare il


Cn̄−1
Secondo caso sfavorevole: (α2 − α1 ) ∈ N e k=0 pn̄−k (α2 + k) + q&n̄−k ) ak ̸= 0 .
(&
In tal caso la (6.82) non può essere risolta rispetto ad an̄ , ed anche ora occorre inventare qualcos’altro.
Questo caso sfavorevole può però anche non presentarsi. Infatti, qualora accada che risulti nulla anche l’intera
Cn̄−1
somma k=0 (&pn̄−k (α2 + k) + q&n̄−k ) ak , allora un arbitrario an̄ permette di reinnescare il procedimento, e dato
che le radici della ind(α) = 0 sono solo due il metodo è ormai vincente.

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 65

In definitiva, se (α2 − α1 ) ̸∈ N ∪ {0} oppure se, essendo α1 = α2 + n̄ con n̄ ∈ N è anche


Cn̄−1
k=0 (&
p n̄−k (α2 + k)+ q&n̄−k ) a k = 0 , si ottiene una seconda soluzione che è certamente linearmente indipendente
dalla prima ed è anch’essa una serie di Frobenius:

(
= a2,n = a2,n (α2 ; a2,0 ) nel primo caso ,
α2 n
y2 (x) = x a2,n x ,
k=0
a 2,n = a 2,n (α ; a ,
2 2,0 n̄ a ) nel secondo caso .

D’altra parte, quando si impongano sulla y(x) arbitrarie condizioni iniziali si nota che solo due delle tre costanti
a1,0 , a2,0 , ed an̄ sono realmente arbitrarie.
Nota 1.6.3 Si osservi, (si veda: [Bender-Orszag p.83]), che l’ultimo caso preso in esame contiene quello dei punti
ordinari. Per essi si ha p&0 = q&0 = q&1 = 0 , e quindi ind(α) = α(α − 1) che fornisce α1 = 1 ed α2 = 0 . In questo
C0
caso la (6.82), per n̄ = 1 ed α2C= 0 , fornisce 0a2,1 + k=0 (0& p1 + q&1 ) a2,0 ≡ 0 . Si hanno pertanto: una prima
serie di Frobenius y1 (x) = x ∞ n=0 a 1,n xn
, e quindi tale
C∞ che y1 (0) = 0 , ed una seconda serie di Frobenius,
sicuramente indipendente dalla prima, data da y2 (x) = n=0 a2,n xn con a2,0 ̸= 0 ed an̄ ≡ a2,1 arbitrario, per
esempio nullo se si richiede a1,0 = y ′ (0). ◃

Resta a questo punto solo da inventare qualcosa di diverso nei due possibili casi sfavorevoli. Ciò che si sfrutta
è il fatto che l’equazione che si sta studiando è del secondo ordine: come si è fatto in precedenza, visto che ormai
una soluzione è nota, si tenta di determinarne un’altra con il metodo della variazione della costante moltiplicativa.
Posto cioè y2 = vy1 , questa verifica la (6.75) se e solo se la funzione u := v ′ è soluzione della
) *
′ p&(x) ′
y1 (x)u + y1 (x) + 2y1 (x) u = 0 .
x
.x
Moltiplicando tale equazione per y1 (x) exp p̃(ξ)/ξ dξ si deduce che
) - x *
′ −2 p&(ξ)
v (x) = y1 (x) exp − dξ
ξ
@∞ A ) *
= x2
= x−2α1 a1,n xn −2 exp −& p0 ln x − p&1 x − p&2 − ···
n=0
2
@∞ A ) *
= x2
−(2α1 +&p0 ) n −2
=x a1,n x exp −& p1 x − p&2 − ··· . (6.83)
n=0
2

Si noti che in entrambi i due casi sfavorevoli si ha che α1 = α2 + n̄ per un qualche n̄ = 0, 1, . . . . Tuttavia,
siccome α1 , α2 sono soluzioni dell’equazione indiciale ind(α) ≡ α2 −(1− p&0 )α+ q&0 = 0 , è anche α1 +α2 = (1− p&0 ),
e quindi (sommandole) si ha 2α1 + p&0 = n̄ + 1 . Pertanto, il primo dei tre fattori della (6.83) ha come esponente
il numero intero: −(n̄ + 1). D’altra parte, l’intero coefficiente di x−(2α1 +&p0 ) nella (6.83) è senz’altro analitico in
zero giacché vale (a1,0 )−2 . Si ottiene cosı̀, con β0 ̸= 0 ,
7 8
v ′ (x) = x−(n̄+1) β0 + β1 x + β2 x2 + . . . ,

da cui
β0 β1
v(x) = x−(n̄+1)+1 + x−(n̄+1)+2 + . . . .
−(n̄ + 1) + 1 −(n̄ + 1) + 2
In questa somma, siccome n̄+1 è intero positivo, ci sarà uno ed un solo termine non algebrico: il termine βn̄ ln x.
Si ha cioè 9 :
y2 (x) = βn̄ y1 (x) ln x + x−n̄ y1 (x) [v(x) − βn̄ ln x] xn̄
con il termine fra parentesi graffe, e quindi anche il suo prodotto con y1 (x), ormai analitici in zero.
In definitiva, se α1 = α2 + n̄, risulta

=
y2 (x) = βn̄ y1 (x) ln x + xα2 cn xn . (6.84)
n=0

Si osservi che se α1 = α2 si ha βn̄ = β0 non nullo per costruzione, e quindi in tal caso il termine logaritmico
è sicuramente presente, e c0 = 0 . Può invece essere presente se è α1 − α2 =: n̄ > 0 (e allora c0 ̸= 0 ) ma può
anche non esserlo, a dipendere dal fatto che sia bn̄ ̸= 0 oppure bn̄ = 0 , come nel caso accennato sopra nel quale la
sommatoria in (6.82) risulta nulla.

Note di Sistemi Dinamici


66 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Infine, si consideri il caso α1 , α2 ∈ C. Dall’ipotesi che l’equazione assegnata sia reale segue che anche i coefficienti
dell’equazione indiciale sono reali, e pertanto le sue due radici saranno, nel caso, complesse coniugate: α1 =: ρ+ iθ ,
α2 =: ρ − iθ . Ricordando l’identità x(ρ+iθ) ≡ xρ (cos(θ ln |x|) + i sin(θ ln |x|)), lo studio che si è fatto nel primo
dei casi esaminati: α1 ̸= α2 può essere ora ripetuto, e dà luogo alle seguenti due serie di Frobenius certamente
indipendenti ed atte ad essere determinate con il metodo visto

= ∞
=
y1 (x) = +xρ cos(θ ln x) cn xn ed y2 (x) = +xρ sin(θ ln x) cn xn ;
n=0 n=0

queste, tuttavia, presentano entrambe una singolarità nel punto singolare regolare.
È bene notare che comunque, in tutti i casi discussi, per trovare esplicitamente i coefficienti delle serie è
sicuramente preferibile sostituire la forma ipotizzata per la soluzione direttamente nella equazione di partenza. A
tale proposito, anzi, dalla (6.80) si possono trarre le seguenti considerazioni (si veda Boyce-Di Prima § 5.7).
Nel caso α1 = α2 , se si suppone di risolvere tutte le infinite equazioni (6.79) mantenendo indeterminato il
parametro α e di sostituire le an = an (α; a0 ) cosı̀ trovate nella (6.80), questa diviene necessariamente:

a0 ind(α) xα = a0 (α − α1 )2 xα = 0 (6.85)

in quanto la α1 = α2 è l’unica radice (doppia) della equazione ind(α) = 0 , e conferma che y1 = y1 (x) è soluzione
della (6.75). Ricordando poi la formula: d(xα )/dα = xα ln x, si derivi rispetto ad α la (6.85); si ottiene
l’identità:
∂ N O K L
a0 (α − α1 )2 xα = a0 xα 2(α − α1 ) + (α − α1 )2 ln x = 0 .
∂α
Ma i coefficienti della (6.75) non dipendono (ovviamente) da α e quindi quest’ultima espressione coincide necessa-
riamente con quello che si ottiene sostituendo nella (6.75) al posto della y le derivate rispetto ad α della y1 (α; a0 ).
Se ne deduce che anche la derivata ∂y1 (α; a0 )/∂α risulta soluzione della stessa equazione (6.75) quando la si calcoli
per α = α1 . In breve, si è provato che è soluzione della stessa equazione (6.75) anche la funzione
+ ,

y2 (x) := y1 (α; x)
∂α α=α1
⎡ ⎤
= ∂) * =
= ⎣ an (α; a0 ) xα+n + ln x an (α; a0 ) xα+n ⎦
∂α (6.86)
n≥1 n≥0
α=α1

=
= a′n (α1 ; a0 ) xα1 +n + y1 (x) ln x
n≥1

dove la a′n (α1 ; a0 ) indica la derivata, rispetto alla α e valutata per α = α1 , della an (α; a0 ) soluzione
C della (6.79).
Anche in questo caso si ha che spesso la sostituzione diretta della espressione y2 (x) = y1 (x) ln x + k≥0 bk xα1 +k
nella equazione (6.75) è preferibile al calcolo delle derivate a′n (α1 ; a0 ) giacché non è sempre immediata la forma di
queste funzioni della α .
Il caso della differenza intera α1 − α2 ∈ N dà luogo a considerazioni simili alle precedenti (si veda Coddington
Cap.4) e fornisce per i coefficienti cn della (6.91) qui sotto l’espressione (per n ≥ 1 )
∂ '
'
cn (α2 ) = ((α − α2 ) an (α; a0 )) 'α=α2
∂α a0 =1

ed è γ = limα→α2 (α − α2 ) an̄ (α). In definitiva sussiste il seguente

Teorema 1.6.1 Sia data l’equazione (6.75):

p&(x) q&(x)
y ′′ + y′ + y=0 , (6.87)
x − x0 (x − x0 )2

con x0 singolare regolare, e cioè con p&(x), q&(x) ∈ C ω (N (x0 )). Sia r il (più piccolo) raggio di convergenza dei
suoi coefficienti p& e q&, e siano α1 e α2 ≤ α1 le soluzioni (supposte reali) dell’equazione indiciale (6.81):
ind(α) := α(α − 1) + p&0 α + q&0 = 0 . Allora in uno dei due intervalli −r < x < 0 o 0 < x < r esiste una
soluzione della forma ⎛ ⎞
=
y1 (x) = |x|α1 ⎝1 + an (α1 ) xn ⎠ (6.88)
n≥1

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 67

ove le an (α1 ) sono date dalle relazioni di ricorrenza (6.79) con a0 = 1 ed α = α1 , e la serie converge almeno
per |x| < r .
Se inoltre l’altra radice α2 è tale che α1 −α2 ̸∈ N∪{0} allora nello stesso intervallo esiste una seconda soluzione
avente la medesima forma della prima e linearmente indipendente da essa:
⎛ ⎞
=
y2 (x) = |x|α2 ⎝1 + an (α2 ) xn ⎠ (6.89)
n≥1

con le an (α2 ) date dalle (6.79) con a0 = 1 ed α = α2 , e la serie converge almeno per |x| < r .
Se α1 = α2 la seconda soluzione della (6.75) ha la forma
=
y2 (x) = y1 (x) ln |x| + |x|α1 bn (α1 ) xn (6.90)
n≥1

Se invece α1 − α2 ∈ N la seconda soluzione della (6.75) ha la forma


⎛ ⎞
=
y2 (x) = γ y1 (x) ln |x| + |x|α2 ⎝1 + cn (α2 ) xn ⎠ . (6.91)
n≥1

I coefficienti an , bn , cn , γ vanno cercati sostituendo direttamente nella equazione (6.75) tali espressioni e usan-
do l’uniforme convergenza delle serie e le relazioni di identità dei loro coefficienti, oppure, all’occasione,mediante
le ⎧ 1'
⎪ ∂ 0 '

⎨ bn (α1 ) = an (α; a0 ) 'α=α1 ,
n̄ = α2 − α1 ∂α a0 =1
e 0 1'
γ = lim (α − α2 ) an̄ (α) ⎪
⎪ ∂ '
α→α2 ⎩ cn (α2 ) = (α − α2 )an (α; a0 ) 'α=α2 .
∂α a0 =1

Il coefficiente γ può essere nullo.

Decalogo per la ricerca di soluzioni per serie di potenze

Si parte dalla equazione (supposta del secondo ordine) scritta nella forma

p&(x) q&(x)
y ′′ +
y′ + y=0 (6.92)
x − x0 (x − x0 )2
e si decide se il punto x0 nell’intorno del quale si sviluppa è regolare, singolare regolare, singolare irregolare. Sia, per semplicità,
x0 = 0 . Quanto segue vale in particolare per il caso singolare regolare.
N O N O
(1) Si individuano i valori p&0 = x p(x) e q&0 = x2 p(x) .
x=0 x=0
(2) Si scrive l’equazione indiciale α(α − 1) + α&
p0 + q&0 = 0 e se ne trovano le due radici α1 e α2 .
(3) Si scrivono le

= ∞
=
y(x) = ak xα+k , y ′ (x) = ak (α + k) xα+k−1 ,
k=0 k=0
=∞
y ′′ (x) = ak (α + k) (α + k − 1) xα+k−2 ,
k=0
e si sostituiscono nella (6.92) scritta nella forma
r1 (x) y ′′ + r2 (x) y ′ + r3 (x) y = 0 (6.93)
con i coefficienti r1 , r2 , r3 senza denominatori.
(4) Si eseguono le operazioni di prodotto per i coefficienti ri e si raccolgono a fattore comune i vari termini (per opportuni
n1 , n2 , . . . ):
= 0 1 = 0 1
... xα+k+n1 + ... xα+k+n2 + . . . = 0 .
k≥0 k≥0

(5) A partire dall’ordine più basso si annullano i primi coefficienti: nei primi si deve ritrovare l’equazione indiciale come condizione
necessaria. Ciò fa crescere l’indice dei primi termini non banali.
(6) Si rinominano i vari indici k in modo da riconoscere l’uguaglianza fra le potenze della x e da poter raccogliere tutto in
un’unica somma (in generale con k0 = 0 )
= 0 1
xα+k = 0 .
k≥k0
Poi si sostituisce α = α1 (la maggiore delle due radici) e si annullano i vari coefficienti.

Note di Sistemi Dinamici


68 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

(7) Si ricavano i coefficienti ak in funzione dei precedenti (a partire dai primi), poi si cerca un’unica relazione di ricorrenza per la
prima delle due soluzioni: y1 (x) , quella relativa alla α1 , la radice (reale) maggiore.
(8) Si ricomincia dal Punto (6) per α = α2 , e si cerca una y2 (x) indipendente dalla y1 (x) .
(9) Se non si riesce (certamente quando α1 = α2 ; eventualmente quando (α1 − α2 ) ∈ N ) si prova con una delle
(
y2 (x) = v(x) y1 (x) quando la y1 è “facile”
C
y2 (x) = γ y1 (x) ln |x| + k≥0 bk xα2 +k quando la y1 è una serie
Il fattore γ è .certamente presente se α1 = α2 , può essere nullo se α1 − α2 ∈ N ; l’equazione risolvente per la v è: v′ (x) =
y1−2 (x) exp − x r2 (s)/r1 (s) ds .
Se il punto è singolare regolare almeno una delle due riesce certamente.
(10) Si confermano i risultati rimettendo le yi (x) nell’equazione di partenza (6.93) e controllando che esse ne siano soluzioni.

Esempio 1.6.12 L’equazione di Bessel (continuazione; si veda la (6.70))


x2 y ′′ + xy ′ + (x2 − ϱ2 )y . (6.94)
Si cerca lo sviluppo nell’intorno dell’origine, e senza imporre la condizione fisicamente significativa ϱ ∈ N, ma
solo (senza ledere la generalità) supponendo ϱ positiva. L’origine è singolare regolare, con p&0 = 1 , q&0 = −ϱ2 ,
q&2 = 1 , e tutti gli altri nulli.
L’equazione indiciale è α(α − 1) + α − ϱ2 = 0 , che dà α1,2 = ±ϱ.
C∞
Si inizia lo studio con α1 = +ϱ, e cioè si impone y1 (x) = xϱ n=0 an xn con a0 ̸= 0 . Siccome il raggio di
convergenza di p&(x) = 1 e di q&(x) = −ϱ2 + x2 è banalmente infinito, si ha la convergenza ovunque della prima serie
di Frobenius. La funzione y1 è quindi definita su tutto R dato che, per ipotesi, è ϱ ≥ 0 , ed è addirittura analitica
se ϱ ∈ N. Per trovare i coefficienti an basta seguire l’usuale metodo:

=
x2 y ′′ (x) = an (α + n)(α + n − 1)xα+n ;
n=0
=∞
xy ′ (x) = an (α + n)xα+n ;
n=0
=∞
x2 y(x) = an xα+n+2 ;
n=0

=
−ϱ2 y(x) = − ϱ2 an xα+n .
n=0

Si trovano: 0 1 0 1
α(α − 1) + α − ϱ2 a0 = 0 , e α(α + 1) + (α + 1) − ϱ2 a1 = 0 ,

e per n ≥ 2 si ritrova la (6.77), con p&0 = 1 , q&0 = −ϱ2 , q&2 = 1 , e gli altri tutti nulli. Se ne deduce, con a0
arbitrario, la ⎧ 0 1

⎨ (α + 1)2 − ϱ2 a1 = 0 ,
0 1 (6.95)

⎩ (α + n)(α + n − 1) + (α + n) − ϱ2 an + an−2 = 0, n = 2, 3, . . .

da cui, (si ricordi che è ϱ ≥ 0 , e a−1 da determinare) si ha


an−2
an = − , n = 1, 2, . . . ; a0 ̸= 0 . (6.96)
(α + n)2 − ϱ2
Nel primo caso, e cioè α = α1 = ϱ, occorre allora porre a−1 = 0 , e quindi, con a1,0 := a0 arbitrario, per i
a2(k−1) −a1,0 −a1,2
coefficienti della prima Frobenius dalla a2k = − 2k(2k+2ϱ) si ricavano i valori a1,2 = 2(2+2ϱ) ; a1,4 = 4(4+2ϱ) ; e
cosı̀ via, ovvero
(−1)k a1,0
a1,2k+1 = 0, a1,2k = 2k ; k = 1, 2, . . . .
2 k!(ϱ + 1) · · · (ϱ + k)
Scelto in particolare a1,0 := 2ϱ1ϱ! si ha che la prima soluzione, certamente esistente definita e continua su tutto
(0, ∞), ed anzi su tutto [0, ∞) giacché ϱ ≥ 0, può essere esplicitamente espressa da:
∞ ∞
xϱ = (−1)k 1 2k
=
k (x/2)
2k+ϱ
jϱ (x) = x = (−1) . (6.97)
2ϱ ϱ! 22k k!(ϱ + 1) · · · (ϱ + k) k!(ϱ + k)!
k=0 k=0

#
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 69

1.0
J0 cos

0.5 J1
J2

5 10 15 20

-0.5

-1.0
Curiosità: per ϱ = 0 il coefficiente di (−x2 )k è (2k k!)−2 e quindi vale (22 · 42 · · · 4k 2 )−1 ; questo può essere
paragonato a quello di un coseno che è ((2k)!)−1 = (2 · 4 · · · 2k)−1 .

Nota 1.6.4 Per il momento, la (6.97) è priva di significato a meno che non si definisca il simbolo ϱ! nel caso in
cui ϱ ̸∈ N. .∞
Esiste una funzione, e precisamente la Γ(ϱ) := 0 tϱ−1 e−t dt che quando venga calcolata sugli interi positivi ha
le stesse proprietà del fattoriale, e cioè

(i) Γ(ϱ + 1) = ϱΓ(ϱ);

(ii) Γ(1) = 1 .

Infatti si nota che


- @ A
b N Ob - b
ϱ −t ϱ −t ϱ−1 −t
Γ(ϱ + 1) = lim t e dt = lim −t e + ϱt e dt = ϱ Γ(ϱ),
b→∞ 0 b→∞ 0 0

e pertanto risulta Γ(n + 1) = n! per n = 0, 1, . . . .


D’altra parte Γ è definibile su tutto R+ . Infatti per ϱ ∈ [ε, 1 + ε], con ε > 0 , la funzione è definita e limitata; e
la (i) permette di scrivere Γ(ϱ+n) = (ϱ+n−1)(ϱ+n−2) · · · ϱΓ(ϱ) per ogni ϱ ∈ (0, 1], e n = 1, 2, . . . . Pertanto
la (i) stessa può ancora essere usata per definire la Γ(ϱ) quando ϱ ∈ (−1, 0) secondo la Γ(ϱ) := ϱ1 Γ(ϱ + 1), e cosı̀
via procedendo all’indietro.

In definitiva, salvo che sugli interi negativi, la funzione Γ è atta a rappresentare il simbolo fattoriale: ϱ! := Γ(ϱ + 1)
per ogni ϱ ∈ R\N− .

10

-4 -2 2 4
-5

-10

Mediante la funzione Γ si può scrivere



= (−1)k 0 x 12k+ϱ
jϱ (x) =
k!Γ(ϱ + k + 1) 2
k=0

purché sia ϱ ̸= 0, −1, −2, . . . come è nell’ipotesi: ϱ ≥ 0.

Note di Sistemi Dinamici


70 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Per trovare un’altra soluzione dell’equazione di Bessel, indipendente C∞dalla (6.97), si supponga dapprima che sia
ϱ ̸∈ {0, 1, 2, . . .}, e la si ricerchi nuovamente della forma y2 (x) = x−α n=0 an xn con α = α2 = −ϱ. Si ricava la

⎨ (1 − 2ϱ) a1 = 0 ,
0 1
⎩ (−ϱ + n)(−ϱ + n − 1) + (−ϱ + n) − ϱ 2
an + an−2 = 0, n = 2, 3, . . .

Anche in questo secondo caso quindi, la scelta a−1 := 0 permette di porre nulli tutti i coefficienti di ordine dispari,
e di ricavare tutti i coefficienti di ordine pari in funzione dell’unico, arbitrario, primo coefficiente a2,0 :

n(n − 2ϱ)a2,n + a2,n−2 = 0, n = 1, 2, . . . a2,0 ̸= 0 . (6.98)

Diversamente dal caso precedente, in questo secondo caso il coefficiente n(n − 2ϱ) nella (6.98) potrebbe creare
delle difficoltà qualora le radici dell’equazione indiciale fossero tali che α1 − α2 ≡ ϱ − (−ϱ) = 2ϱ ∈ N, e cioè: o
quando ϱ ∈ {0, 1, 2, . . .} , oppure quando per qualche k̄ ∈ N si ha 2ϱ = 2k̄ + 1 . È però solo il primo di questi
due casi che fa realmente terminare il procedimento ed impedisce che i coefficienti vengano determinati per mezzo
della (6.98). La seconda eventualità infatti potrebbe far terminare la determinazione dei soli coefficienti di ordine
dispari e non può impedire, come è stato fatto, che essi siano posti tutti nulli.
In definitiva, se 2ϱ è un intero positivo dispari o non è intero, e cioè se ϱ ̸∈ {0, 1, 2, . . .} , dalla (6.98) si ricavano

(−1)k a2,0
a2,2k+1 = 0; a2,2k = 2k
; k = 1, 2, . . . . (6.99)
2 k!(−ϱ + 1) · · · (−ϱ + k)
−1
Scegliendo a2,0 = (2−ϱ Γ(−ϱ + 1)) si ottiene un’altra soluzione particolare, e cioè l’altra Frobenius di cui si è
parlato sopra:

= (−1)k 0 x 12k−ϱ
j−ϱ (x) = (6.100)
k!Γ(−ϱ + k + 1) 2
k=0

e siccome questa è non limitata in x = 0, (infatti il primo termine è certamente divergente in zero), essa è certo
indipendente da jϱ . Si osserva che la singolarità in zero è di tipo algebrico.
Rimane la difficoltà ϱ = m ∈ N ∪ {0} , che è però il caso fisicamente significativo. Applicando a ritroso la
(6.98) si conferma che necessariamente (e ancora usando x! in luogo di Γ(x + 1))

(−1)k a2,0
a2k = =0 per k = 0, 1, . . . , m − 1 ,
22k k!(k − m)!

e siccome le relazioni per jϱ e j−ϱ danno

(−1)k 0 x 12k−m (−1)k 0 x 12k−m



= ∞
=
j−m (x) = =
k!(k − m)! 2 k!(k − m)! 2
k=0 k=m

(−1)n+m 0 x 12n+2m−m
=∞
= = (−1)m jm (x)
n=0
n!(n + m)! 2

si ha che quando ϱ ∈ N ∪ {0} la y2 ≡ j−ϱ non fornisce una soluzione indipendente dalla y1 , e la y = c1 jϱ + c2 j−ϱ
non è la soluzione generale.
Nel caso dell’equazione di Bessel è parso opportuno usare, come seconda soluzione di base nel caso ϱ ∈
{0, 1, 2, . . .} e qualora sia necessaria, invece della y2 logaritmica come visto sopra, la seguente (Bessel di seconda
specie)
jϱ (x) cos ϱπ − j−ϱ (x)
Ym (x) := lim .
ϱ→m sin ϱπ
Si possono constatare le seguenti proprietà delle funzioni di Bessel jϱ :
0 1
(p1) x+ϱ jϱ (x) ′ = +x+ϱ jϱ−1 (x) per ϱ > 0 ;
0 1
(p2) x−ϱ jϱ (x) ′ = −x−ϱ jϱ+1 (x) per ϱ > 0 ;

(p3) j0′ = −j1 ;

(p4) jϱ′ + xϱ jϱ = +jϱ−1 ;

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 71

(p5) jϱ′ − xϱ jϱ = −jϱ+1 ;


0 1
1/4−ϱ2 1
(p6) La (6.69): u′′ + λ + x2 u = 0 , con ϱ2 = 4 e λ = 1 fornisce alla (6.68) la soluzione y(x) =
√1 (c1 cos x + c2 sin x) .
x

Ma per quanto visto è anche y = &


c1 j1/2 + &
c2 j−1/2 per cui seguono le
( √
xj1/2 (x) = a cos x + b sin x

xj−1/2 (x) = c cos x + d sin x .
K√ L
Tuttavia, xj1/2 (x) x=0 = 0 per la convergenza di jϱ con ϱ > 0 ; e quindi è a = 0 . Questa proprietà,
d’altra parte, è facilmente dimostrabile mediante il calcolo diretto; infatti (si noti che 2k k! ̸= (2k)! ) mediante
la (6.95) con 2ϱ = 1 si arriva alla

= (−1)k sin x
j1/2 ∝ x−1/2 x2k+1 = √
(2k + 1)! x
k=0

A sua volta, un calcolo diretto tramite la (6.99) fornisce


I∞ J √ T
K√ L = (−1)k 0 x 12k √ 2 2
xj−1/2 (x) x=0 = 2 = = = c.
k!(− 12 + k)! 2
k=0
1
(− 2 )! π
x=0
K 7 8 . . 2
B .
Si noti che l’ultima uguaglianza proviene dalla Γ( 12 ) = − 12 ! = 0∞ √1 e−t dt = 0∞ 2e−s ds = 4 0∞ e(x2 +y 2 ) dxdy =
B . t
. √ √ L
4 0π/2 0∞ e−ϱ2 rdrdθ = π per la quale si ha anche (n − 12 )! = ( 12 )n π .

Servendosi di questi√ risultati,


√ e ancora dalla (p1) si ricava la (b sin x)′ = c cos x + d sin x, da cui seguono
d = 0 e b = c = 2/ π .
2(n+1)
(p7) Sommando (p4) e (p5) si ha 2ϱ x jϱ = jϱ−1 + jϱ+1 ed in particolare jn+2 = x jn+1 − jn che permette
√ di
esprimere le jn , per ogni n ≥ 2 , in funzione di j0 e j1 . Allo stesso modo, la (p6) implica che ogni xjm+1/2
è una combinazione lineare di termini del tipo sin x/xn1 e cos x/xn2 con n1 , n2 ∈ N, e cioè che è esprimibile
con funzioni elementari

Nota 1.6.5 Una qualunque equazione della forma

x2 y ′′ + β1 xy ′ + (β2 + β3 x2b )y = 0, con β1 , β2 , β3 ∈ R, b > 0, (6.101)

diviene l’equazione (6.94):


z 2 w′′ + zw′ + (z 2 − ϱ2 )w = 0
con le posizioni:

b c β3 β1 − 1 c 2 − β2
z := ax , w(z(x)) := y(x)x , a := , d := , ϱ2 := .
b 2 b2
Infatti, la prima di queste fornisce:

d 7 8−1 d d2 7 8−2 d2 7 8−2 d


= abxb−1 ed 2
= abxb−1 2
− abxb−1 (b − 1)x−1 ,
dz dx dz dx dx
e sostituendo queste e la w definita come sopra nella (6.94) si verifica, con un pò di algebra,
) *
1 d2 (b − 1) d
0 = a2 x2b − (yxc )+
a2 b2 x2b−2 dx2 a2 b2 x2b−1 dx
) *
1 d
+ axb (yxc ) + (a2 x2b − ϱ2 )(yxc )
abxb−1 dx
= x2 y ′′ + (2c + 1)xy ′ + (a2 b2 x2b + (c2 − ϱ2 b2 ))y .


Note di Sistemi Dinamici
72 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Nota 1.6.6 Un’altra famiglia di equazioni dalla forma molto comune è la

(t − β1 )(t − β2 )ÿ + (β3 + β4 t)ẏ + β5 y = 0 (6.102)

con β1 , . . . β5 ∈ R e naturalmente con β1 ̸= β2 . Mediante le posizioni:


t − β1 β3 + β1 β4 d 1 d
x:= , d := − , = ,
β2 − β1 β2 − β1 dt β2 − β1 dx
a + b + 1 := β4 , a b := β5 ,

e quindi con
β3 + β4 t β3 + β4 [(β2 − β1 )x + β1 ]
− =− = c − (a + b + 1)x,
β2 − β1 β2 − β1
la (6.102) si trasforma nella Equazione ipergeometrica di Gauss:

x(1 − x)y ′′ + (c − (a + b + 1)x)y ′ − aby = 0 (6.103)

che ha lo zero e l’unità come punti singolari regolari:


1
p&(x) = xp(x) = (c − (a + b + 1)x) = (c − (a + b + 1)x)(1 + x + x2 + . . .)
1−x
−abx
q&(x) = x2 q(x) = = −abx(1 + x + x2 + . . .)
1−x
ed analoghe per il punto x = 1 .
Nel punto zero si ha allora, in particolare, p&0 = c , q&0 = 0 , e l’equazione indiciale risulta α(α − 1) + cα = 0
che dà α(1,2) = (0; 1 − c).
Per quanto visto sopra, a meno che (1 − c) ∈ {0, 1, 2, . . .}, una soluzione è certamente

=
y1 (x) = x0 ak xk con a0 ̸= 0.
k=0

In tal caso, sostituendo questa espressione nella (6.103), si ha

(k + 1)kak+1 xk − k(k − 1)ak xk + c(k + 1)ak+1 xk − (a + b + 1)kak xk − abak xk = 0

da cui per k = 1, 2, . . . si ottiene

(k(a + b + k) + ab) (a + k)(b + k)


ak+1 = ak = ak ,
(k + 1)(k + c) (k + 1)(c + k)

e quindi la ricorrente
(a)k (b)k
ak = a0 , k = 1, 2, . . . .
(c)k k!
La somma y1 della serie cosı̀ trovata, con a0 = 1 , prende il nome di
Funzione Ipergeometrica di Gauss e si indica con

= (a)k (b)k
y1 (x) = xk =: F (a, b, c; x) ,
(c)k k!
k=0

definita ed analitica per |x| < 1, dato che è questo il polo dei coefficienti più vicino all’origine, e sempre che
(1 − c) ̸∈ {0, 1, 2, . . .}. In particolare è un polinomio se a, b sono interi negativi.
Inoltre, qualora sia (1 − c) ̸∈ {0, −1, −2, . . .} , c’è anche un’altra soluzione

=
y2 (x) = x1−c ak xk .
k=0

Per trovarla esplicitamente conviene porre y(x) =: x1−c z(x) nella (6.103) ed ottenere
7 8
(x(1 − x)) (1 − c)(−c)x−1−c z + 2(1 − c)x−c z ′ + x1−c z ′′ +
7 8
+ (c − (a + b + 1)x) (1 − c)x−c z + x1−c z ′ − abx1−c z = 0 ,

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 73

da cui K
(x(1 − x)) z ′′ + [2(1 − c)(1 − x) + c − (a + b + 1)x] z ′ + (−c)(1 − c)(1 − x)x−1 +
L
+ c(1 − c)x−1 − (a + b + 1)(1 − c) − ab z =
= (x(1 − x)) z ′′ + [(2 − c) − (a + b + 1 + 2 − 2c)x] z ′ −
− [(1 − c)(a + b + 1 − c) + ab] z = 0 ,
che ha soluzione
F (a − c + 1, b − c + 1, 2 − c; x) .
Ne segue
y2 (x) = x1−c F (a − c + 1, b − c + 1, 2 − c; x)
e si noti che 1 − (2 − c) ̸∈ N per l’ipotesi che sia (1 − c) ̸∈ {0, −1, −2, . . .}.
Tutto ciò è valido in un intorno dello zero. Se si vuole uno sviluppo valido nell’intorno di x = 1 basta porre
t := (1 − x) nella (6.103) ed ottenere la

t(1 − t)ÿ + [(a + b + 1 − c) − (a + b + 1)t] ẏ − aby = 0

da cui, sempre che (c − a − b) ̸∈ N, segue

y(t) = c1 F (a, b, a + b + 1 − c; t) + c2 F (c − b, c − a, c − a − b + 1; t) .


La flessibilità delle funzioni ipergeometriche è notevole:
Esempio 1.6.16
∞ ) *
= ∞
=
α (−1)k (−α)k
(1 + x)α = xk = xk = F (−α, 1, 1; −x).
k k!
k=0 k=0

#
ln(1 + x)
Esempio 1.6.17 La funzione =: y verifica l’equazione
x
) *
′ x y 2 2
y = − x e quindi x(1 + x)y ′′ + (2 + 3x)y ′ + y = 0 .
1+x x

Questa è del tipo (6.103) con variabile indipendente −x e con

ab = 1, a + b + 1 = 3, c=2.

Ne segue la soluzione particolare


ln(1 + x) = x F (1, 1, 2; −x) .
#
Esempio 1.6.18 (si veda per esempio la Nota 1.5.1)
) *
1 1 3 2
arcsin x = x F , , ; x .
2 2 2

Note di Sistemi Dinamici


74 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

M. Lo Schiavo
Capitolo 2

Sistemi differenziali lineari

2.1 Il procedimento di linearizzazione


Si consideri un sistema differenziale autonomo di tipo generale:

ẋ = v(x), x0 ∈ M, (1.1)

con campo sufficientemente regolare, per esempio C 1 (D), in un aperto D ⊆ M di una varietà n-dimensionale M.
Scelto un sistema di coordinate h(x) su M, resta definito su un aperto di Rn un sistema di equazioni che verrà
indicato con la notazione ẋ = v(x), x ∈ Rn .
Nell’intorno di punti non di equilibrio, come si vedrà, il campo può essere rettificato, e quindi le linee di flusso
risultano localmente “pettinate”. Di conseguenza la maggior parte dell’informazione qualitativa circa il diagramma
di fase proviene dagli intorni dei punti di equilibrio e dalla struttura e forma delle traiettorie in essi.
D’altra parte se si pensa allo sviluppo di Taylor del campo v(x), in un intorno sufficientemente piccolo del
punto critico xe e nell’ipotesi ∥∂v(xe )∥ > 0 , si ha che il suo termine principale risulta essere quello lineare:
∂v(xe )(x − xe ) in quanto v(xe ) = 0 .
Un metodo che a volte, si badi bene, e non sempre è utile a fornire informazioni sul diagramma di fase
nell’intorno di un punto di equilibrio isolato: xe , consiste nello studiare, invece che l’equazione di partenza (1.1) in
generale non lineare, la sua variazionale o “linearizzata” in x !(t) = xe , e cioè

u̇ = v∗ (xe )u, u ∈ V ≡ Rn . (1.2)

A parziale ed euristica giustificazione del procedimento, si possono considerare i seguenti punti, (un teorema
più dettagliato verrà richiamato nel § IV.1).

(• ) Una funzione f : M → M′ è differenziabile in x ! ∈ M quando risulta differenziabile una sua qualche rappre-
sentazione in coordinate. In tal caso, ciò resta vero (si veda: Appendice A.4 N.B.1.4.13) in tutte le carte (U, hξ ) che
x) : Tx̂ M → Tf (x̂) M′
siano C r≥1 -compatibili con la prima, ed è quindi possibile definire l’operatore lineare T := f∗ (!
come quello che, nelle coordinate che rappresentano f con f , è rappresentato dalla matrice Jacobiana T := ∂f (! x).
Pertanto, scelto comunque x in un intorno N (! x) ⊂ M sufficientemente piccolo, in tali coordinate risulta

f (x) ≡ f (!
x + χ) = f (! x)χ + |χ|κ(f ) (!
x) + ∂f (! x, χ) (1.3)
|χ|
! può essere pensato come χ = εν con ν arbitrario finito e
x, χ) −→ 0 . L’incremento χ = x − x
con κ(f ) (!
0
0 < ε ≪ 1 . A partire da questi, sulla varietà V = Rn resta definito il corrispondente vettore ν .
A tale scopo, indicate con h(x) le coordinate su M , e detto X := (h(x) )∗ l’isomorfismo da esse indotto fra Tx̂ M ed Rn , innanzi tutto
si considera quel vettore w ∈ h(x) (U ) ⊆ Rn per il quale (si veda: Appendice A.4 N.B.1.4.16) x = h(x) (x) =: h(x) (! x) + εw = x̄ + εw,
e poi, a partire da questo, si definisce su Tx̂ M il vettore ν = X −1 w. Esso contiene la curva γ : N (0) ⊂ R → M che, al variare di ε ,
resta definita dalla γ(ε) := h−1 (h (!
(x) (x)
! , contiene x , ed è tale che γ̇(0) = ν , e quindi [γ]x̂ = ν che,
x) + εw) . Tale curva è basata in x
tuttavia, dipende dal sistema di coordinate scelto su M .
Inoltre, ciò giustifica l’espressione
0 ' 1 (f(!x + εν) − f(! x)) d ''
'
h(x) Lν f ' = lim ≡ ' f(!
x + εν) = f∗ (! x)ν
x̂ ε→0 ε dε ε=0
che vuole interpretare la
' d '' '
' '
Lν f ' = ' (f ◦ γ) = f∗ ' ν
x̂ dε ε=0 x̂
ove γ : ε ∈ R &→ γ(ε) ∈ M è una curva tale che γ(0) = x ! e γ̇(0) = ν .

(• ) Si assuma che la (1.1) abbia campo v : M → T M almeno C 2 (D), e che sia nota la sua soluzione t &→ x =
!0 ) uscente da un certo x
φ(t, t0 , x !0 ∈ D ⊆ M; l’istante t0 è arbitrario ma fissato, per esempio t0 = 0 . Detta
t &→ φ(t, t0 , x0 ) la soluzione uscente da un qualunque x0 ∈ N (! x0 ) la regolarità del campo v impone che sulla
varietà V ≡ Rn esista una funzione (vettoriale) χ = χ(t, t0 , x0 , x
!0 ) soluzione del seguente problema, ancora non
lineare e sostanzialmente equivalente al problema (1.1), detto

75
76 Capitolo 2. Sistemi differenziali lineari

!0 ))
Problema alle variazioni (relativo alla φ(t, t0 , x
(
!0 ))χ + |χ| κ(v) (t, χ),
χ̇ = v∗ (φ(t, t0 , x
(1.4)
χ0 = χ(t0 ) arbitrario in V ,

ed è
κ(v) (t, χ) ∈ C 0 (N (t0 ) × N (0)) con N (t0 ) × N (0) ⊂ R × V
|χ|
κ(v) (t, χ) −→ 0 uniformemente per t0 ≤ t ≤ τ < ∞.
0

!0 ) esista e sia in D , va intesa nel senso che: fissato


Quest’ultima affermazione, conseguenza dell’ipotesi che il punto x = φ(t, t0 , x
comunque un valore τ < ∞ (e per esempio τ > t0 ) appartenente all’intervallo massimale JM di definizione della soluzione di
!0 ) , il limite per |χ| → 0 della κ(v) (t, χ) esiste (nullo) ed è anzi uniforme rispetto a t ∈ [t0 , τ ] giacché φ è
riferimento t &→ φ(t, t0 , x
funzione continua di t , e le funzioni v e (quindi) v∗ e κ(v) sono funzioni continue del punto x , e quindi di t .

(• ) Il teorema di dipendenza continua (si veda: Teorema 1.3.2 Cap. I) afferma che χ : t &→ χ(t) è definita su
tutto [t0 , τ ], e che per χ0 −→ 0 anche χ(t) −→ 0 in modo uniforme sui compatti rispetto a t, (risulta cioè
limχ0 →0 supt∈[t0 ,τ ] |χ(t)| = 0 ).

(• ) Si ponga χ0 = x0 − x !0 =: εu0 con u0 ∈ Tx̂0 Rn arbitrario finito ed ε > 0 e, per ciascun t ∈ JM , sulla
varietà V = R si consideri l’operatore
n

T (t) ∈ L(V) definito da T (t) := v∗ (φ(t, t0 , x


!0 )) .

Si indichi poi con u : t &→ u(t) ∈ V la soluzione del


!0 ))
Problema variazionale (relativo alla φ(t, t0 , x
(
u̇ = T (t)u := v∗ (φ(t, t0 , x
!0 )) u
(1.5)
u(t0 ) = u0 .

Sotto l’ipotesi v ∈ C 2 (D), il teorema di regolarità, (si veda: Teorema 1.3.2 Cap. I), non solo dichiara la φ
derivabile rispetto a x0 , e quindi dichiara lecita la

! 0 + εu0 ) = φ(t, t0 , x
φ(t, t0 , x !0 ) + ∂φ(t, t0 , x
!0 )εu0 + |εu0 |κ(φ̂) (t, ε) ,

con κ(φ̂) (t, ε) = o(|ε|) e per arbitrari t0 , u0 , ma in più individua nella soluzione u : t &→ u(t) del problema (1.5)
la funzione
!0 ) u0
u(t) = φ∗ (t, t0 , x o, in coordinate, ! 0 ) u0 .
u(t) = ∂φ∗ (t, t0 , x

Ne segue che le funzioni χ(t) ed εu(t) sono tali che


' '
' χ(t) ' ε
' '
' ε − u(t)' −→ 0
0, uniformemente per t0 ≤ t ≤ τ < ∞. (1.6)

Nota 2.1.1 Nel caso più generale nel quale la (1.1) ha campo v = v(t, x; σ) non autonomo, dipendente da un ulteriore parametro
σ ∈ G con dim G = ℓ , e sufficientemente regolare rispetto alle sue tre variabili, e chiamata t &→ φ0 (t) := φ(t, t0 , x !0 , 0) la soluzione
nota di ẋ = v(t, x; 0) , si ricava che la t &→ u(t) soddisfacente la (1.6) e relativa a una variazione di condizioni iniziali per esempio date
x0 , 0) &→ (x0 , σ0 ) ≡ (x0 , ε1ℓ ) , è la soluzione della
da (!


⎨ u̇ = T (t)u + b(t) , T (t) : = v∗ (t, φ0 (t); 0) ,
con: b(t) : = vσ (t, φ0 (t); 0) 1ℓ , (1.7)

⎩ u(t0 ) = u0 ∈ V ,
φ (t) : = φ(t, t , x
0 0 0! ).

Notazione

1I m := l’operatore identità su uno spazio m -dimensionale;


1m := il vettore m -dimensionale che nelle coordinate scelte ha tutte le componenti unitarie.

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 77

Dimostrazione All’equazione ẋ = v(t, x; σ) , con v : R × M × G → T M si aggiunga l’equazione σ̇ = 0 . Si ottiene il sistema


) * ) *
ẋ v(t, x; σ)
=
σ̇ 0
) * ) *
!
φ !0 ; σ
φ(t, t0 , x !0 )
e se ne indichi con : t &→ ∈ M×G !0 ; σ
la soluzione uscente dalle condizioni iniziali (t0 , x !0 ).
!
σ !0 ; σ
σ(t, t0 , x !0 )
!
Tale sistema ha variazionale in (φ, σ ! ) individuata dalla
) *' ) *'
v∗ vσ '' ∂v/∂x ∂v/∂σ ''
Φ̇ = Φ := Φ, Φ0 ∈ L(M × G) ;
0 0 '(φ,! ! σ) ∂0/∂x ∂0/∂σ '(φ̂,σ̂)

in base alla teoria generale, la sua soluzione uscente dalle condizioni iniziali Φ0 = 1I n+ℓ è riassunta dalla
) *' ) *
∂x φ ∂σ φ '' !∗ φ
φ !σ
!0 ; σ
Φ(t, t0 , x !0 ) = ≡ .
∂x σ ∂σ σ '(φ̂,σ̂) 0 1I ℓ

Sussiste cioè l’identità (rispetto a t ):


) * ) *' ) * ) *'
d !∗ φ
φ !σ v∗ vσ '' !∗
φ !σ
φ v∗ φ∗ v∗ φσ + vσ 1I ℓ ''
= =
dt 0 1I ℓ 0 0 '(φ̂,σ̂) 0 1I ℓ 0 0 '
(φ̂,σ̂)

!∗ , φ
ovvero: le (φ !σ ) sono soluzioni dell’equazione
(
φ̇∗ = v∗ φ∗ (n × n), con condizioni iniziali φ∗ |0 = 1I n ;
φ̇σ = v∗ φσ + vσ (n × ℓ), con condizioni iniziali φσ |0 = 0.

Dati allora u0 ∈ Tx̂0 M e h0 ∈ T0 G , la funzione


) * ) *) * ) *
u(t) !∗
φ !σ
φ u0 !∗ u0 + φ
φ !σ h0
t &−→ := =
h(t) 0 1Iℓ h0 h0

è la soluzione uscente da (u0 , h0 ) dell’equazione variazionale


) * ) *' ) * ) *'
d u v∗ vσ '' u v∗ u + vσ h ''
= = .
dt h 0 0 '(φ̂,σ̂) h 0 '
(φ̂,σ̂)

In definitiva, analogamente alla (1.6) e con ε > 0 , risulta (in coordinate)


') * ) * ) *) *'
' φ(t, t0 , x
! 0 + εu0 ; σ
! 0 + εh0 ) !0, σ
φ(t, t0 , x !0) !
∂x φ ∂σ φ ! εu0 ''
' − − = o(ε)
' ! 0 + εh0
σ !0
σ 0 1I ℓ εh0 '

da cui segue ' '


' ! h0 '' = o(ε) .
! u0 − ε∂σ φ
!0 , σ
'φ(t, t0 , x0 , σ0 ) − φ(t, t0 , x ! 0 ) − ε∂x φ
In particolare, con h0 = 1ℓ e detta u : t &→ u(t) la soluzione uscente da (u0 , 1ℓ ) dell’equazione u̇ = ∂x v u + ∂σ v1ℓ , si ha,
uniformemente per t0 ≤ t ≤ τ < ∞ ,
1 '' '
' ε
! 0 + εu0 ; σ
'φ(t, t0 , x ! 0 + ε1ℓ ) − φ(t, t0 , x
!0 ; σ
! 0 ) − εu(t)' −→ 0 .
ε 0

!0 = 0 e x
Di speciale interesse è il caso in cui σ !0 =: x0 è arbitrario. Per esso si ha
) *' ) *
φ(t, t0 , x !0 ) ''
!0 ; σ φ0 (t, t0 , x0 )
' =:
!0
σ σ̂0 =0 0
x̂0 =x0

ove t &→ φ0 (t, t0 , x0 ) è la soluzione del problema “all’ordine 0 ”:


(
ẋ = v(t, x; 0)
x(t0 ) = x0 .

In tal caso, la u(t) è soluzione del problema “all’ordine 1 ” dato dalla (1.7).
Queste considerazioni permettono di sviluppare (si veda: Cap. VI) molti e diversi metodi di risoluzione approssimata dei sistemi
nonlineari il cui campo dipende da un parametro σ che, rispetto agli altri coefficienti presenti, possa essere considerato sufficientemente
“piccolo”. In tali metodi il teorema appena ricordato è solo uno (e non il migliore) dei teoremi che permettono di giustificare le varie
tipologie di soluzioni approssimate. ◃

(• ) Sia xe ∈ M tale che v(xe ) = 0 . La quiete t &→ φ(t, t0 , xe ) ≡ xe nel punto di equilibrio xe (supposto isolato)
è allora la soluzione della (1.1) uscente da x0 = xe .
Contrariamente al caso generale, nel quale all’operatore T (t) resta associata (in coordinate) una matrice T di
dimensione (n × n), generalmente dipendente dal tempo, individuata dalla:
) i *
∂v
∂v(φ(t)) =: T (t) ∈ L(Rn ), T i j (t) = (t) ,
∂xj

Note di Sistemi Dinamici


78 Capitolo 2. Sistemi differenziali lineari

se la soluzione di riferimento è la quiete l’operatore T (t) := vx (φ(t, t0 , xe )) risulta indipendente dal tempo, e lo
stesso accade a ogni sua matrice ∂v(xe ) =: T .
Sotto tali ipotesi, il sistema (1.5) (in coordinate) risulta allora un sistema lineare a coefficienti costanti:
(
u̇ = T u , T = ∂v(xe ) ∈ L(Rn )
(1.8)
u(t0 ) = u0 , arbitrario in Rn .

È quest’ultimo il sistema del quale, nel paragrafo seguente, si cercheranno i diagrammi di fase nell’intorno di
xe .
(• ) Quanto detto assicura che per tempi limitati ogni orbita del sistema (1.5) (o del sistema (1.8) se vicino a un
equilibrio) presa singolarmente è prossima a quella del sistema non lineare (1.4) e lo è in misura tanto maggiore
quanto più lo è stata in t = t0 e secondo un scarto che dipende dalla durata dell’intervallo dopo il quale avviene il
confronto.
È ben vero che questo non implica che il diagramma nel suo insieme del sistema lineare sia “simile” al
diagramma del sistema nonlineare, anche se solo vicino al punto di equilibrio xe . Tuttavia come si vedrà
(teorema di Hartman e Grobman) ciò accade, pur se al costo di accettare somiglianze non più che topologiche fra
certe classi di diagrammi per il resto diversi, nel caso in cui il punto di equilibrio sia un
Punto Iperbolico := un punto di equilibrio xe ∈ M tale che le parti reali degli autovalori (λ1 , . . . , λn ) dell’o-
peratore T := v∗ (xe ) siano tutte non nulle.
In modo analogo si definiranno i punti iperbolici per le mappe f : Rn → Rm dei sistemi dinamici discreti; per essi andranno però
tenute presenti le relative modifiche: per esempio per una mappa f ∈ L(Rn ) un punto è unito quando verifica la xe = f xe . Un tale
punto è allora detto iperbolico se accade che |λi | ̸= 1, ∀i , e ciò perché in questo caso la proprietà di iperbolicità si riconosce dallo lo
studio degli autovalori di f e non di quelli del suo esponenziale, visto che per una mappa l’evoluzione è governata dalla sua tangente,
mentre per un flusso dalla exp(tv∗ (xe )) (si veda: Cap.V).

(• ) Fortunatamente i casi di iperbolicità sono generici, (si veda: Cap.IV), e quindi lo studio del sistema lineare
(1.8) ha comunque un rilevante interesse.

Nota Dato che v(xe ) = 0 , l’operazione di linearizzazione (non quello di sviluppo di Taylor) nell’intorno di un
punto di equilibrio xe non dipende dal particolare sistema di coordinate scelto su M nel' seguente senso.
∂v '
Se, in un sistema di coordinate, a v∗ (xe ) corrisponde una certa matrice: ∂v(xe ) := ∂x x
allora, in un nuovo
e

sistema
' di coordinate ξ = ϕ(x) nel quale 'l’equazione (non lineare) equivalente a quella data è ξ̇ = ν(ξ) :=
∂ϕ v 'x=ϕ−1 (ξ), la matrice ∂ν(ξe ) ≡ ∂ν '
∂ξ ξe che regola l’evoluzione linearizzata nelle nuove coordinate è la
∂ϕ-trasformata della ∂v :
K L ''
∂ν(ξe ) = ∂ϕ ∂v (∂ϕ)−1 ' −1 xe =ϕ (ξe )
ed è quindi unico l’operatore lineare v∗ che assegna l’avanzamento locale nell’intorno di un equilibrio, come si
poteva, d’altra parte, leggere direttamente dalla (1.5).
[Questa precisazione è necessaria dato che il cambio di coordinate avviene sulla varietà e non solo nello spazio V . In questo secondo
caso infatti, e cioè nel caso in cui v∗ rappresentasse una qualunque assegnata trasformazione lineare, l’osservazione sarebbe conseguenza
dell’essere questa lineare (si veda: Appendice A.4, N.B.1.4.15)].
Se invece il campo nel punto non è nullo, la variazionale risente anche della curvatura delle linee ϕ = cost, (a
meno che la ϕ sia lineare).
Dimostrazione
Dalla ν(ξ) := ∂x ϕ v ◦ ϕ−1 (ξ), e indicate rispettivamente con ∂x e con ∂ξ le operazioni di derivazione
nelle coordinate x e ξ , si ricava
'
'
∂ξ ν(ξe ) = ∂x (∂x ϕ v) ' · ∂ξ ϕ−1 (ξe )
x=ϕ−1 (ξe )
'
'
= (∂x2 ϕ v + ∂x ϕ ∂x v) ' · ∂ξ ϕ−1 (ξe )
x=ϕ−1 (ξe )
'
'
= ∂x ϕ ∂x v ∂x ϕ−1 ' −1 x=ϕ (ξe )
' '
giacché v(xe ) = v(ϕ−1 (ξe )) = 0 e 1 = ∂x ϕ 'x · ∂ξ ϕ−1 'ϕ(x ) . "
e e

Si osservi che per la generalità del risultato l’essere nullo il campo v(xe ) è condizione necessaria, come si può
vedere nel seguente

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 79

Esempio L’equazione ) * ) * ) x *
ẋ −y(x2 + y 2 ) v (x, y)
= ≡ , x 0 , y0 ∈ R
ẏ +x(x2 + y 2 ) vy (x, y)
) x* ) * ) *
u x x̄
ha linearizzata in (x̄, ȳ) ̸= (0, 0) data sul vettore := − dalla:
uy y ȳ
) x* ) * ) x*
u̇ −2x̄ȳ −x̄2 − 3ȳ 2 u
u̇ ≡ y = 2 2 ≡ v∗ (x̄, ȳ)u .
u̇ 3x̄ + ȳ 2x̄ȳ uy

D’altra parte, mediante l’usuale trasformazione in coordinate polari ρ, θ ∈ R+ × R


) * ) * @ y A
√ x √
ρ x x2 +y 2 x2 +y 2
=ϕ , e quindi con ∂ϕ := −y x ,
θ y 2 2 x +y x2 +y 2

essa è equivalente alla ) * ) *


ρ̇ '
0 '
= ≡ ν(ρ, θ) ≡ (∂ϕ v) ' −1
θ̇ ρ2 ϕ (ρ,θ)
) ρ* ) * ) *
κ ρ ρ̄
che ha linearizzata sul vettore := − data dalla:
κθ θ θ̄
) ρ* ) * ) ρ*
κ̇ 0 0 κ
κ̇ ≡ θ = ≡ ∇ν(ρ̄, θ̄) κ .
κ̇ 2ρ̄ 0 κθ

) *
cos θ −ρ sin θ
Si osserva che, essendo ∇ϕ−1 = , e quindi
sin θ ρ cos θ
) * ) 2 *
0 −ρ sin θ −ρ3 cos θ
∇2 ϕ−1 = ,
ρ2 ρ2 cos θ 3
−ρ sin θ
fra i due campi ∂v e ∇ν sussiste il legame su indicato:
) ) * * ) ) * *
0 0 0
∇2 ϕ−1 2 · ∂ϕ + ∇ϕ−1 · · ∂ϕ
ρ x̄,ȳ
2ρ̄ 0 x̄,ȳ
) * ) *
0 −(x̄2 + ȳ 2 ) −2x̄ȳ −2ȳ 2
= + .
x̄2 + ȳ 2 0 2x̄2 2x̄ȳ
#

Prima di iniziare lo studio sistematico dei sistemi lineari a coefficienti costanti verrà qui brevemente accennato
uno dei più importanti esempi di linearizzazione: quella che si esegue nell’intorno di una posizione di equilibrio rego-
lare di un sistema meccanico conservativo, e cioè a vincoli indipendenti dal tempo e forze posizionali a potenziale.

Memento 2.1.1 Una funzione f : Rn → R si dice convessa su A ⊆ Rn convesso quando per ogni x, y ∈ A e
α ∈ [0, 1] accade che
f (x + α(y − x)) ≤ f (x) + α (f (y) − f (x)) .
Se f è di classe C 2 su A ne segue che f (x) ≥ f (y)+∂f (y) (x−y) e quindi la forma B := 12 (y−x)T ∂ 2 f (x)(y−x)
è definita positiva.

Sia G la varietà delle configurazioni di un sistema lagrangiano generalizzato (vedi oltre) di dimensione n, e
sia (U, h(q) ) un sistema di coordinate (o carta) di classe C k locale nell’intorno di un qualche punto q0 in G ,
dal quale quest’ultima è resa localmente omeomorfa ad Rn . Sia V ≡ Tq0 G il suo tangente. Sia M la varietà
delle fasi (fibrato tangente di G ) di dimensione 2n del sistema. In corrispondenza alle coordinate scelte, nello
spazio V resta individuata la base naturale e = {ei }i=1,...,n dei vettori tangenti alle curve coordinate, e questa
(ad esempio) rende V isomorfo a Rn . Lo spazio V ≡ Tq0 G , inoltre, sia reso metrico da un certo prodotto scalare
reale ⟨ ·, · ⟩ : V2 → R ∪ {0} , e quindi tale che risulta definita per ciascuna coppia x, y ∈ V la forma bilineare
simmetrica K : V2 → R (o tensore della metrica) individuata da

K (x, y) := ⟨ x, y ⟩ = ⟨ y, x ⟩ ≡ xi ⟨ ei , ej ⟩y j ,
⟨ x, αy ⟩ = α⟨ x, y ⟩, ⟨ x, x ⟩ > 0 se x ̸= 0 ,

della quale sia κ hk := ⟨ eh , ek ⟩ la matrice (in quella base) e κ hk la sua inversa: κ jk κ kh = κ hk κ kj = δjh .
Si denoti con (q, q̇) il vettore che in R2n rappresenta (in tal modo, localmente, e in queste coordinate) il punto
(q, q̇) ∈ M.
Sia L : R × M → R una funzione di classe C 2 , e si continui a indicare con L = L (t, q, q̇) : R × R2n → R
la sua rappresentazione in coordinate.

Note di Sistemi Dinamici


80 Capitolo 2. Sistemi differenziali lineari

Il sistema si dice Lagrangiano generalizzato, e la L si dice Lagrangiana del sistema quando ciascuna delle
funzioni q̇ &→ L (t, q, q̇) è convessa su Rn , e quando le equazioni del moto del sistema, minimizzando l’integrale
.t
d’azione a estremi fissati: t0 L (τ, q(τ ), q̇(τ )) dτ , risultano le

d ∂L ∂L
− = 0 h = 1, . . . , n . (1.9)
dt ∂ q̇ h ∂ qh

Certo ogni sistema meccanico a potenziale è un sistema Lagrangiano generalizzato con la L = T − V , ove la
V = V (t, q) è la sua energia potenziale (generalizzata), e T = T2 + T1 + T0 è la sua energia cinetica, con Ti
forme di grado i = 0, 1, 2 rispetto alle q̇ e coefficienti dipendenti da (t, q), e con T2 definita positiva.
N.B. 2.1.2 Nel caso qui in esame il sistema è reale, meccanico, a vincoli bilaterali olonomi, regolari, perfetti,
indipendenti dal tempo, e forze strettamente conservative. Come tale, sussistono i seguenti fatti.

• la sua funzione Lagrangiana, certo convessa rispetto alle q̇ , ha espressione in coordinate


1 T
L (q, q̇) = T2 (q, q̇) − Π(q) = q̇ κ a q̇ − Π(q) ,
2
nella quale la funzione energia potenziale V = V (t, q) è la sola parte Π = Π(q) dovuta al contributo delle
forze conservative, e quindi
; ∂Π < 0 1 0 ∂ 2T 1
Qh (q) = −
∂q h
(q)
h=1,...,n
ed a kj (q) :=
∂ q̇ k ∂ q̇ j
(q)

sono rispettivamente le componenti lagrangiane Qh delle forze, e la matrice reale simmetrica a della forma
quadratica T2 dell’energia cinetica T ;

• valgono le espressioni q̇i κ ik = q̇ k e q̇ k κ ki = q̇i ;

• l’operatore T2 : V → V, definito su V (a partire dalla sua rappresentazione in coordinate e per q ∈ G fissato)


dalla
1 T 1 1 1
q̇ a q̇ = q̇ k a kj q̇ j = T2 (q̇, q̇) =: ⟨ T2 q̇, q̇ ⟩ =: ⟨ q̇, T2∗ q̇ ⟩ ,
2 2 2 2
è autoaggiunto rispetto all’iniziale prodotto scalare: ⟨ ·, · ⟩ .

Infatti la T2 è, in particolare, Hermitiana simmetrica (rispetto a ⟨ ·, · ⟩ considerato Hermitiano), e quindi si


ha
⟨ q̇, T2∗ q̇ ⟩ := 2T2 (q̇, q̇) = 2T2 (q̇, q̇) = ⟨ T2 q̇, q̇ ⟩ = ⟨ q̇, T2 q̇ ⟩ .
Alternativamente, detta A la matrice dell’operatore T2 , il calcolo in coordinate fornisce

⟨ T2 x, y ⟩ = xT AT κ ȳ ed ⟨ x, T2∗ y ⟩ = xT κ Ā∗ ȳ ,

che mostra come la definizione di aggiunto implichi che

a = AT κ = κ Ā∗ ovvero Aih κ ik = κ hj Ā∗ jk .


D’altra parte, dalla simmetria della T2 si ha la a T = ā , e quindi segue la: κ̄ A = κ̄ A∗ . In definitiva,
fissata la base e , l’operatore T2 ha e -matrice A = A∗ , che conferma l’autoaggiunzione di T2 reale. Qui
di seguito, come si è detto, G , V, e κ verranno supposti reali, e pertanto

a = AT κ = κ̄ Ā = κ A, e quindi A = κ −1 a .
La scelta più comune è certo κ = 1I .

Come è noto, a partire dalla n-pla di funzioni

∂L
z : (t, q, q̇) ∈ R1+2n &→ (t, q, q̇) ∈ Rn ,
∂ q̇
si definiscono:

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 81

Momenti Coniugati delle q := le variabili p := (p1 , . . . , pn ) ∈ Rn (che nella riduzione d’ordine delle equazioni
(1.9) verranno considerate ulteriori variabili, indipendenti dalle q ) definite dalla
∂L
pk = pk (t, q, q̇) ≡ (t, q, q̇), k = 1, . . . , n .
∂ q̇ k
Il fatto che la L sia funzione convessa delle q̇ assicura che è anche possibile invertire le p = z(t, q, q̇) rispetto
alle q̇ . In altre parole, il considerare i momenti coniugati come variabili alla stessa stregua delle (q e delle) q̇
permette di definire (localmente) una trasformazione di coordinate ϕ : x &→ ξ = ϕ (x) espressa da
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
t t t
⎝q ⎠ ϕ
&−→ ⎝q ⎠ := ⎝ q ⎠.
q̇ p z(t, q, q̇)

Dimostrazione La trasformazione ϕ ha matrice Jacobiana


⎛ ⎞
1 0 0
∂ϕ= ⎝ 0 1I 0 ⎠ ,
∂t z ∂q z ∂q̇ z
0 1
dove per le due matrici n × n in essa contenute si è usata la notazione: ∂q z per indicare la matrice ∂z h
∂qk
,
0 2 1 0 1
k, h = 1, . . . , n, e analogamente ∂q̇ z per la matrice ∂ L
∂ q̇h ∂ q̇k
= ∂z h
∂ q̇k
. È facile riconoscere che per l’assunta
convessità di L rispetto alle q̇ , la ∂ϕ ha determinante non nullo
) * ) 2 *
∂zh ∂ L
Det ≡ Det ̸= 0 .
∂ q̇ k ∂ q̇ h ∂ q̇ k
Nel caso in esame, tale determinante coincide con il determinante della matrice a = a (q) dell’energia cinetica
T2 , e si ricavano le facili espressioni
pj = a jk q̇k = κ ji Aik q̇k , e pertanto κ ij pj =: pi = Aik q̇ k .
Esiste pertanto (localmente) la trasformazione inversa della ϕ data da
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
t t t
⎝q ⎠ ϕ
−1
&−→ ⎝q ⎠ := ⎝ q ⎠ ,
p q̇ ζ(t, q, p)
dove la ζ verifica l’identità p = z(t, q, ζ(t, q, p)), per ogni (t, q). "

Si osservi ora che il sistema delle equazioni di Lagrange è


d ∂L ∂L ∂zh k ∂zh j ∂zh ∂L
− =0 e cioè k
q̈ + j q̇ + = , h = 1, . . . , n
dt ∂ q̇ ∂q ∂ q̇ ∂q ∂t ∂q h
e quindi esso si può certo scrivere, al primo ordine, nella forma (k = 1, . . . , n )


⎪ ṫ = 1


⎨ q̇ k = y k
) 2 *−1 ) * (1.10)

⎪ ∂ L ∂T ∂zh j ∂zh

⎪ k
⎩ ẏ = − j y − ,
∂y h ∂y k ∂q h ∂q ∂t
∂L
con, ovviamente, zh (t, q, y) :=
(t, q, y), h = 1, . . . , n.
∂y h
Detto ẋ = v(t, x) il 'sistema (1.10), e ξ̇ = ν(t, ξ) il suo equivalente nelle nuove coordinate: ξ = ϕ(x),
l’espressione ν(ξ) = ∂ϕ v 'ϕ−1 (ξ) fornisce facilmente tale sistema, equivalente a (1.10):


⎪ ṫ = 1

⎨ k
q̇ = ζ k (t, q, p)
' k = 1, . . . , n , (1.11)

⎪ ∂L '

⎩ ṗk = '
∂q k q̇=ζ(t,q,p)

Note di Sistemi Dinamici


82 Capitolo 2. Sistemi differenziali lineari

infatti le ultime n componenti del vettore ν sono date da


2n+1
=
ν3 (ξ) = ∂ϕ3,h v h = [∂t z + (∂q z) y + (∂q L − (∂q z) y − ∂t z)] .
h=1

È possibile dare una forma più espressiva alle (1.11). Per farlo si inizi con il notare che le funzioni q̇ = ζ(t, q, p)
possono essere usate per definire la
Funzione Hamiltoniana H : R × TG → R definita dalla:
+ ,
∂L k
H (t, q, p) := q̇ − L = p · ζ(t, q, p) − L (t, q, ζ(t, q, p)). (1.12)
∂ q̇ k q̇=ζ(t,q,p)

N.B. 2.1.3 Sulla funzione H non è difficile riconoscere la validità dei seguenti punti.

• la H ha Hessiano non singolare


) * ) *−1
∂2H ∂2L
= ;
∂ph ∂pk ∂ q̇ k ∂ q̇ h
• sussistono, per ciascun k = 1, . . . , n, le identità
∂H
(t, q, p) ≡ ζ k (t, q, p) ,
∂pk
∂H ∂L ''
(t, q, p) ≡ − ' ,; (1.13)
∂q h ∂q h q̇=ζ(t,q,p)
∂H ∂L ''
(t, q, p) ≡ − ' ,
∂t ∂t q̇=ζ(t,q,p)

• tramite queste ultime identità è possibile dare all’equazione (1.11) una forma più interessante. Essa infatti si
trasforma nelle

Equazioni di Hamilton: ⎧
⎪ k ∂H

⎨ q̇ = + (t, q, p)
∂pk
k = 1, . . . , n ; (1.14)

⎪ ∂H
⎩ ṗk = − (t, q, p)
∂q k
∂Π
• le posizioni di equilibrio per il sistema lagrangiano: (qe , q̇ = 0) ∈ M con (qe ) = 0 , si trasformano nelle
∂q
particolari posizioni di equilibrio: (qe , p = 0) per quello Hamiltoniano.
• nel particolare caso in esame, e facendo uso della (1.12), la funzione Hamiltoniana è data da
U2 (q, p) + Π(q) ,
H (q, p) : = T dove si è posto
1 1
U2 (q, p) : = (a−1 )hk ph pk =: ⟨ p, T −1 p ⟩ .
T 2
2 2 ♦

In definitiva, mediante la funzione Hamiltoniana e il diffeomorfismo ϕ , il sistema Lagrangiano assegnato si


trasforma nell’equivalente sistema di 2n equazioni del primo ordine (1.14) che è generalmente del tipo (1.1) e
con campo v(q, p) definito sulla varietà 2n-dimensionale M & a partire dalla sua rappresentazione i componenti
0 1T
v(q, p) := + ∂H ∂H
∂p ; − ∂q ∈ R2n .
Nel caso particolare in esame, il sistema che si ottiene (in coordinate) è
@ A
) *

= 0
−1
a
p 1 (1.15)
ṗ a
− ∂q 12 pT −1 p + Π

o anche (se κ ̸= 1I ) 0 1
q̇ k = a−1 kj pj = 7A−1 8ki κij pj = 7A−1 8ki pi
) *
∂ 1 k 7 −1 8l m
ṗi = −κih p κ kl A m
p + Π
∂q h 2

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 83

Le equazioni variazionali delle equazioni di Hamilton (1.14), di centro la quiete in ue := (qe , 0), sono le

u̇ = ∂v(ue )u con u0 ∈ R2n arbitrario (1.16)

e con ∂v(qe , 0) che rappresenta in coordinate la derivata


⎛ 2 ⎞'
+ ∂∂p∂q
H 2
+ ∂∂p∂p
H '
'
v∗ (q, p) = ⎝ ⎠' .
2 2 '
− ∂∂q∂q
H
− ∂∂p∂q
H '
(qe ,0)

Questa, nel caso in esame, ha elementi dati da

∂2H ' ∂ 7 −1 8 ''


'
∂p∂q
'
(qe ,0)
=
∂q
a p '(q ,0) = 0;
e

∂2H ' ∂ 7 −1 8 ''


'
∂p∂p
'
(qe ,0)
=
∂p
a p '(q ,0) = a−1 (qe ) =: A−1 e κ
−1
e

∂2H ' ∂ 2 (T2 + Π) '' ∂ 2 Π(qe )


'
' = ' = =: κBe ,
∂q∂q (qe ,0) ∂q∂q (qe ,0) ∂q∂q
ed è opportuno osservare che allo stesso risultato si sarebbe giunti se, al posto dell’attuale Hamiltoniana, fosse stata
considerata l’altra definita dalle funzioni “ridotte”:
⎧ 0 2 1'
1 1 '
⎪ (e)
⎨ T2 (q̇) := q̇h Ahk (qe )q̇ k =: ⟨ q̇, Te q̇ ⟩, (κ Ae ) : = ∂∂q̇∂Tq̇ '
2 2 0 2 1' e
q=q
⎪ 1 1 '
⎩ Π(e) (q) :=
2 qh Bkh (qe )q k =: ⟨ q, π e q ⟩, (κ Be ) : = ∂q∂q
∂ Π
'
2 2 q=qe

In definitiva, per un sistema meccanico come quello del caso in esame la variazionale in (qe , 0) del sistema
Hamiltoniano è data da
M ) * ) *) *
q̇ = a−1
e p q̇ 0 A−1e q
o anche
ṗ = −κBe q κ−1 ṗ = −Be 0 κ−1 p
nelle quali A−1
e è definita positiva e Be è simmetrica, e il cui determinante vale Det (A−1
e Be ). (L’ipotesi che il
punto di equilibrio
) sia regolare
* ) * ) * consiste nell’assumere che,
) inoltre,
* Det B ̸
= 0 ).
q qe r r(t)
κ−1 p = 0 + s e cioè con u(t) = s(t) ∈ R la (1.16) fornisce
2n
Posto

(
ṙ = A−1e s
(1.17)
ṡ = −Be r

ovvero l’equivalente
Ae r̈ + Be r = 0 . (1.18)

Nota 2.1.2 Lo stesso risultato si sarebbe potuto ricavare anche direttamente dalle equazioni di Lagrange, sempre nel caso ∂L /∂ q̇ =
a (q)q̇ , e quindi con (qe , 0) che annulla sia il campo dell’equazione di Lagrange che quello dell’equazione di Hamilton.
A questo scopo si consideri che le equazioni
) *
d 1 T
dt
a
(q)q̇ − ∂q
2
q̇ a
(q)q̇ = −∂q Π(q)

divengono
a (q)q̈ = f(q, q̇) := −∂q a (q)q̇q̇ + 12 q̇ ∂q a (q)q̇ − ∂q Π(q)
e cioè
fi = −
a
∂ ij h j 1
q̇ q̇ + q̇ h
a
∂ hk k
q̇ −
∂Π
.
∂q h 2 ∂q i ∂q i
Nell’ipotesi che f sia regolare in G ⊆ R2n , e cioè che sia valido lo sviluppo:
f(x, y) = f(! ! + ∂x f(!
x, y) !
x, y)(x −x! ) + ∂y f(! !
x, y)(y !
− y)
1 2 1 2
+ (x − x ! )∂xx f(! !
x, y)(x −x ! ) + (y − y)∂ ! yy f(! !
x, y)(y !
− y)
2 2
2
+ (x − x! )∂xy f(! !
x, y)(y ! + o(x, y, x
− y) ! , y)
! , ove
! , y)
o(x, y, x !
lim = 0, con ! , y)
(x, y, x ! )2 + (y − y)
! := (x − x ! 2 ,
x→x̂ ! , y)
d(x, y, x !
y →ŷ

Note di Sistemi Dinamici


84 Capitolo 2. Sistemi differenziali lineari

! + ε r(t) , nella quale t &→ q(t)


e con la posizione: q(t) =: q(t) ! ∈ G è la soluzione di
a (q) q̈ = f(q, q̇), !
q(0) !0 ,
=q ˙
!
q(0) ˙ ,
!
=q0
si ottiene
a (!q + ε r)(q¨! + ε r̈) = f(!q, q)
˙ + ε ∂q f(!
! ˙ r + ε ∂q̇ f(!
!
q, q) ˙ ṙ + o(ε)
!
q, q)
dalla quale si ricava la
a (!q)r̈ = +∂q f r + ∂q̇ f ṙ − r∂q a (!q) q¨! + O(ε) .
Pertanto, se la soluzione di riferimento è una soluzione statica: t &→ q(t) ! = qe , e quindi tale che q ¨! = 0 e ∂q̇ f(qe , 0) = 0 , si riottiene
la variazionale
2
−1 ∂ Π(qe )
a (qe )r̈ = (∂q f)e r ovvero A(qe ) r̈ = − κ
∂q∂q
r.

Nel caso in cui l’energia cinetica abbia la sua forma generale


1
T = q̇h Ah k h
k (q, t)q̇ + q̇h b (q, t) + T0 (q, t),
2
e quindi l’ i -ma equazione di Lagrange venga
d 7 i 8
A (q, t)q̇ + bi (q, t) − ∂qi T = Ai q̈ + ∂q Ai q̇q̇ + ∂t Ai q̇ + ∂q bi q̇ + ∂t bi
dt
1
− q̇ ∂qi Aq̇ − ∂qi bq̇ − ∂qi (T0 ) = − ∂qi Π ,
2
la linearizzata intorno a una soluzione statica: t &→ q(t) ! = qe (non necessariamente di equilibrio) risulta
7 8 7 8
Ai (qe )r̈ = ∂qi b − ∂q bi − ∂t Ai ṙ + ∂q2i q (T0 − Π) − ∂tq bi r
ovvero più esplicitamente @ A ) *
∂bk ∂bi ∂Aik ∂ ∂(T0 − Π) ∂bi
Aik (qe )r̈ k = − − ṙ k + − rk .
∂qi ∂q k ∂t ∂q k ∂qi ∂t

È chiaro che le coordinate r non sono le migliori per risolvere il sistema Ae r̈ = −Be r . Infatti, in generale,
la matrice A−1 e Be non solo non è diagonale, ma nemmeno simmetrica, (ovvero corrispondente a un operatore
⟨ ·, · ⟩ -autoaggiunto). È quindi giustificata la ricerca di una trasformazione di coordinate ϱ := P −1 r che possa
ridurre il sistema
r̈ = − A−1 e Be r (1.19)
in uno più semplice, e in particolare in un sistema disaccoppiato:
ϱ̈j + λ(j) ϱj = 0, j = i, . . . , n. (1.20)
Sostituendo direttamente r = Pϱ nella (1.18) si ricava la (1.20) purché esista P −1 tale che il prodotto
−1 −1
P Ae Be P dia luogo a una matrice diagonale.
N.B. 2.1.5 Lo stesso risultato si ottiene tenendo presente che sia il sistema di equazioni differenziali che la
trasformazione di coordinate sono entrambi lineari (si veda: Appendice A.4 N.B.1.4.12). In effetti il sistema
) * ) * ) *) *
ṙ s 0 1I r
= =:
ṡ −A−1e B e r −A −1
e B e 0 s
può essere trasformato, preservandone la struttura di sistema del secondo ordine, mediante la
) * ) −1 *) *
ϱ P 0 r
:=
σ 0 P −1 s
nell’equivalente sistema ) * ) −1 *) *) *) *
ϱ̇ P 0 0 1I P 0 ϱ
=
σ̇ 0 P −1 −A−1
e B e 0 0 P σ
) −1 *) *) *
P 0 0 P ϱ
=
0 P −1 −A−1
e B e P 0 σ
) *) *
0 1I ϱ
= .
−P −1 A−1
e B e P 0 σ

Proposizione 2.1.1 L’operatore Te−1 π e individuato dalla {e} -matrice A−1e Be è diagonalizzabile.
Esiste cioè (almeno) un operatore non singolare P , avente e -matrice P , tale che P −1 A−1
e Be P = Λ con Λ
una matrice diagonale.

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 85

Dimostrazione
Per semplicità di notazione, il prodotto ⟨ ·, · ⟩ verrà supposto reale, e la base e := {ei }i=1,...,n ortonormale
rispetto a esso: ⟨ ei , ej ⟩ = κ ij = κ ij = δij . In tal modo si può confondere la matrice A con la a , e affermare
che se T2 è simmetrico allora lo è anche la sua {e} -matrice A. (Il caso: κ̄ = κ T ̸= 1I , d’altra parte, è poco
∂2L ∂2Π
dissimile dato che la simmetria di e di implica l’autoaggiunzione sia di Te che di π e (entrambi reali).
∂ q̇∂ q̇ ∂q∂q
−1/2
(• ) Esiste Ae , simmetrica reale definita positiva dato che tale è Ae .
(• ) L’equazione
P −1 A−1
e Be P ≡ P
−1 −1/2
Ae (A−1/2
e Be A−1/2
e )A1/2
e P = Λ
−1/2 −1/2
ammette soluzione rispetto all’incognita P . Infatti la matrice Ae Be Ae è simmetrica e, come tale, corri-
sponde a un operatore autoaggiunto e quindi normale. È noto allora che esiste almeno un sistema ortonormale di
!,
suoi autovettori abbastanza ricco da formare una base per lo spazio Rn . Ciò implica l’esistenza di un operatore P
avente e -matrice P! =: Ae P , reale, ortogonale (o, se occorre, κ -ortogonale) e tale che
1/2

P! −1 A−1/2
e Be A−1/2
e P! = Λ , con Λ diagonale.

◦ P! individuato dalla e -matrice P = Ae P! , generalmente né autoaggiunto né


−1/2 −1/2
(• ) L’operatore P := Te
ortogonale, è tuttavia invertibile e come tale definisce un cambio di base {ϵi = Pei }i=1,...,n che rende diagonali non
già le nuove matrici α e , β e degli operatori Te e π e le cui e -matrici sono Ae e Be rispettivamente, bensı̀ il
prodotto α −1e β e e cioè la nuova matrice dell’operatore Te
−1
π e . Infatti si ha, per costruzione,
α −1
e β e = (P
−1
Ae P )−1 P −1 Be P = P −1 A−1
e Be P = Λ.

1/2 1/2
(• ) L’ortogonalità della matrice P! = Ae P e la simmetria di Ae permettono di ricavare l’espressione

P T A1/2
e = P! T = P! −1 = P −1 A−1/2
e e quindi P −1 = P T Ae .

Ne segue la P T Ae P = 1I o anche Te = P −∗ P −1 . Ciò implica il fatto che i versori della nuova base {ϵi :=
Pei }i=1,...,n , le cui e -componenti sono ordinatamente uguali alle colonne della matrice P , sono ( κ -) ortonor-
(e)
mali rispetto al prodotto scalare definito dall’energia cinetica T ≡ T2 . Valgono cioè le

(P T Ae P )ij = δij ≡ κ ij = ⟨ ϵi , ϵj ⟩ T e
(e)
:= ⟨ ϵi , Te ϵj ⟩ = T2 (ϵi , ϵj )

giacché la Te = P −∗ P −1 implica

⟨ ϵi , Te ϵj ⟩ = ⟨ ϵi , P −∗ P −1 ϵj ⟩ = ⟨ P −1 ϵi , P −1 ϵj ⟩ = ⟨ ei , ej ⟩.

Si nota in particolare che l’operatore P , rappresentato in base {ei }i=1,...,n dalla matrice P , non è né 1I -ortogonale,
né Te -ortogonale, perché trasforma la base 1I -ortonormale: e in quella Te -ortonormale: ε ≡ {ϵj }j=1,...,n .
(• ) Allo stesso modo si riconosce che il cambio di base rende simultaneamente diagonali i prodotti

1I = P −1 P = P T Ae P ≡ P T P α e e Λ = P T Be P ≡ P T P β e ,
(e) (e)
e quindi entrambe le forme quadratiche T2 (q̇, q̇) e Π2 (q, q). Infatti, esprimendo le due forme nelle nuove
coordinate: ξ := P −1 x, si ha:
(e)
⟨ x, Te y ⟩ = xT Ae y = xT P −T P −1 y = ξ T η ≡ 2T2 (x, y)
⟨ x, π e y ⟩ = xT Be y = xT P −T ΛP −1 y = ξ T Λη ≡ 2Π2 (x, y),
(e)

(• ) Indicando con {λh }h=1,...,n gli autovalori dell’operatore Te−1 π e , si ha che Λih = δhi λ(h) , e si osservi che
essi sono generalmente diversi da quelli sia di Te sia di π e . Tali autovalori {λh }h=1,...,n possono essere determinati
come radici dell’equazione secolare:
Det (Be − λAe ) = 0 ,

e siccome coincidono con gli autovalori dell’operatore Te


−1/2
π e Te−1/2 , che è simmetrico, sono sicuramente reali.

Note di Sistemi Dinamici


86 Capitolo 2. Sistemi differenziali lineari

(• ) La nuova base {ϵi = Pei }i=1,...,n è composta da autovettori dell’operatore Te−1 π e in quanto la A−1e Be
viene diagonalizzata dalla trasformazione P . D’altra parte si può controllare anche direttamente, per esempio
lungo ej , che:
−1 j j
(A−1 j h k j m j
e Be ϵi ) = Ae h Bk Pi = Pm Λi = λ(i) Pi = (λ(i) ϵi ) .

Essa pertanto è anche tale che Be ϵ = λAe ϵ. Si osservi che la base 1I -ortonormale fatta con gli autovettori di Te
di regola non coincide né con la base degli autovettori di Te
−1/2
π e Te−1/2 (che dipende da π e ), né con la nuova
base {ϵi = Pei }i=1,...,n che generalmente non è nemmeno 1I -ortonormale. Queste ultime due sono a loro volta
correlate dal fatto che la prima è A1/2 volte la seconda. D’altra parte, dalla Be ϵ = λAe ϵ segue che se gli ϵi
fossero autovettori di Te dovrebbero esserlo anche di π e che è invece del tutto indipendente dalla Te . "

Siccome la (1.20) è disaccoppiata, si vede facilmente che lungo ciascun autovettore ϵj la j -ma componente della
soluzione ϱ = ϱ(t), e cioè la t &→ ϱj (t) ha la forma
B B
c1 exp |λj | t + c2 exp − |λj | t oppure la forma
/ /
c3 cos λj t + c4 sin λj t

a seconda che λ sia negativo oppure positivo. Infatti, se fosse nullo si avrebbe Rank ∂v(qe , 0) < n contrariamente
all’ipotesi che (qe , 0) sia di equilibrio regolare, e cioè che Det Be ̸= 0 il che implica Det ∂v(qe , 0) = Det (A−1
e Be ) ̸=
0.
Infine, il teorema degli assi principali (ovvero: la Te -autoaggiunzione dell’operatore Te−1 π e ) assicura che gli
{ϵj }j=1,...,n sono in numero sufficiente a formare una base, con ciò escludendo la possibilità, anche/nel caso in cui
un qualche autovalore
/ λj avesse molteplicità maggiore di uno, di soluzioni del tipo: t &→ p(t) exp |λj | t oppure
t &→ p(t) cos λj t con p(t) un polinomio in t.

Nota 2.1.3 Si osservi che pur non essendo autovalori di Be le λ ne hanno la stessa segnatura. Ciò permette
di affermare che se la forma xT Be y è definita positiva, e quindi il punto (qe , 0) è di minimo per l’energia
potenziale Π(q), allora le λi sono tutte positive, dando cosı̀ luogo a soluzioni oscillanti intorno all’origine. Si
parla in tal caso di piccole
√ oscillazioni intorno alla posizione di equilibrio, descritte dalle coordinate normali: ϱi ,
con pulsazioni proprie λi .
Si noti però che non è stato dimostrato che il comportamento delle t &→ ϱ(t), e quindi delle t &→ r(t) = P ϱ(t)
oscillanti intorno all’origine “bene approssima” il comportamento delle t &→ q(t). Ciò si può fare solo parzialmente
e usando il “Secondo metodo di Liapunov” (si veda: Cap.IV) nella misura in cui si mostra che sotto le ipotesi fatte,
e in particolare quella sulla conservatività del sistema, le q = q(t) rimangono indefinitamente limitate in un intorno
dell’equilibrio e senza contrarre i volumi nello spazio delle fasi, anzi con traiettorie che appartengono alle superfici
H = cost. Ad esempio non si riesce a dire nulla di definitivo sui periodi “veri” delle oscillazioni, i quali restano
dipendenti dai termini superiori dello sviluppo in serie del campo; né si può dire molto nel caso, generale, non
conservativo. ◃

Riassumendo: per trovare i modi normali si devono determinare:

• (i) gli autovalori di A−1


e Be , soluzioni dell’equazione Det (Be − λAe ) = 0 ;

• (ii) gli autovettori di A−1


e Be , soluzioni dell’equazione Be x = λi Ae x;

• (iii) la loro normalizzazione: ⟨ ϵi , ϵj ⟩ Te ≡ ϵTi Ae ϵj = (Pik )T Ae kh Pjh = δij ;


) *
.. ..
• (iv) la loro matrice P := · · · . ϵi . ··· ;

• (v) i modi normali ϱi , legati alle coordinate rj dalle: r = P ϱ, e le t &→ r(t), a loro volta definite
(localmente) dalla q = qe + r .

Esempio 2.1.7 (si veda: [Arnold II])

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 87

Si considerino due pendoli fisici di uguale lunghezza l e stesso punto di sospensione, vincolati senza attri-
to
0 a oscillare su un piano verticale x, z1, (z verticale ascendente), e accoppiati da una sollecitazione elastica
−−→ −−→ ⃗ −−→ −−→
p1 p2 , p2 p1 , f12 = k p1 p2 , f⃗21 = −f⃗12 , e quindi V ≡ Πel = k|p1 p2 |2 /2 .
z

µ1
µ2

Date le ⎛ ⎞ ⎛ ⎞
l sin θ2 l sin θ1
−−→ −−→
op2 = ⎝ 0 ⎠ op1 = ⎝ 0 ⎠
−l cos θ2 −l cos θ1
si riconoscono nelle θ delle convenienti variabili lagrangiane q := (θ1 , θ2 ). Di conseguenza, le energie cinetica e
potenziale del sistema risultano espresse da:
1 1 1 1
T = m1 (ẋ21 + ż12 ) + m2 (ẋ22 + ż22 ) = m1 l2 θ̇12 + m2 l2 θ̇22
2 2 2 2
1 1
Π = c + m1 gz1 + m2 gz2 + k(x2 − x1 ) + k(z2 − z1 )2
2
2 2
= −g(m1 l cos θ1 + m2 l cos θ2 ) − kl2 cos(θ1 − θ2 ).
Se ne traggono le @ A
) *
∂Π/∂θ1 gm1 l sin θ1 + kl2 sin(θ1 − θ2 )
= ,
∂Π/∂θ2 gm2 l sin θ2 − kl2 sin(θ1 − θ2 )
e quindi le equazioni di Lagrange

⎪ d ∂T ∂T

⎨ dt − = m1 lθ̈1 = −gm1 l sin θ1 − kl2 sin(θ1 − θ2 )
∂ θ̇1 ∂θ1

⎪ d ∂T ∂T
⎩ − = m2 lθ̈2 = −gm2 l sin θ2 + kl2 sin(θ1 − θ2 )
dt ∂ θ̇2 ∂θ2
Si riconosce
7 innanzi tutto
8 che la posizione ce := (θ1 = 0, θ2 = 0) è di equilibrio per il sistema. Poi, essendo la
matrice B = ∂ 2 Π/∂θi ∂θj data da:
@ A
gm1 l cos θ1 + kl2 cos(θ1 − θ2 ) −kl2 cos(θ1 − θ2 )
B=
−kl2 cos(θ1 − θ2 ) gm2 l cos θ2 + kl2 cos(θ1 − θ2 )
@ A
gm1 l + kl2 −kl2
si vede che la posizione è anche di equilibrio stabile, giacché la matrice: Be = è
−kl2 gm2 l + kl2
definita positiva. Infine si ricavano le forme ridotte dell’energia cinetica e potenziale ancora nell’intorno della
posizione θ1 = θ2 = 0 :
(e) 17 8
Π2 := gm1 lθ12 + gm2 lθ22 + kl2 (θ1 − θ2 )2
2
(e) 10 1
T2 := m1 l2 θ̇12 + m2 l2 θ̇22 .
2
In definitiva, e ponendo per semplicità m1 = m2 = l = g = 1 , si ha
) *
1+k −k
Be = ed Ae = 1I .
−k 1+k

Ne segue l’equazione delle pulsazioni proprie:

Det (Be − λAe ) = (1 + k − λ)2 − k 2 = λ2 − 2(1 + k)λ + (1 + 2k) = 0

che fornisce λ1 = 1 , λ2 = 1 + 2k ; e quindi le equazioni per determinare gli autospazi span{ϵi } divengono
rispettivamente
(1 + k)α1 − kβ1 = α1 , e (1 + k)α2 − kβ2 = (1 + 2k)α2

Note di Sistemi Dinamici


88 Capitolo 2. Sistemi differenziali lineari

) * ) *
1 1
da cui: ϵ&1 = , ed ϵ&2 = .
1 −1
Affinché la matrice A1/2 P sia ortogonale, questi vettori vanno normalizzati secondo la ⟨ ϵi , ϵj ⟩ Te = δij e cioè

in questo caso,
) dato che
* qui la A è diagonale, moltiplicati per 1/ 2 . Di conseguenza la matrice di trasformazione
1 1
è P = √12 che, di nuovo giacché in questo semplice esempio la matrice Ae vale 1I , risulta qui anche
1 −1
ortogonale.
Le coordinate normali ϱ sono quelle per le quali
) * ) * ) * ) e* ) * ) * ) *
θ1 0 q1 q1 ϱ1 1 1 1 1
− ≡ − e =P = √ ϱ1 (t) + √ ϱ2 (t) ,
θ2 0 q2 q2 ϱ2 2 1 2 −1

ed evolvono secondo le (
ϱ̈1 + ϱ1 = 0
ϱ̈2 + (1 + 2k)ϱ2 = 0

Si possono per esempio distinguere i seguenti casi:

• (i) condizioni
) * iniziali tali
) * che ϱ2 (t) = 0 , ovvero ϱ2 (0) = ϱ̇2 (0) = 0 .
θ1 1 1
Si ha = √ ϱ1 e cioè i pendoli oscillano, in fase, con pulsazione ω1 = 1 , e la forza elastica non
θ2 2 1
lavora;

• (ii) condizioni che ϱ1 (t) = 0 , ovvero ϱ1 (0) = ϱ̇1 (0) = 0 .


) * iniziali)tali *
θ1 1 1 /
Si ha = √ ϱ2 e cioè i pendoli oscillano, in opposizione di fase, con pulsazione ω2 = (1 + 2k);
θ2 2 −1

) * ) * ) * ) *
θ1 (0) 0 θ̇1 (0) v
• (iii) condizioni iniziali = , = , che la
θ2 (0) 0 θ̇2 (0) 0
) * ) * ) * ) * ) *
1 1 1 ϱ1 (0) 0 ϱ̇1 (0) v 1
P −1 =√ trasforma nelle: = , = √ . Se ne ricava:
2 1 −1 ϱ 2 (0) 0 ϱ̇ 2 (0) 2 1
) * @ √v sin t
A
ϱ1 (t) 2 √
= √ v sin( 1 + 2kt) .
ϱ2 (t) 2(1+2k)


Con l’ipotesi k << 1 , e la ben nota approssimazione: 1 + 2k ≃ (1 + k), questa fornisce ϱ2 (t) ≃ √v sin(1 +
2
p±q p∓q
k)t, e formule le sin p ± sin q = 2 sin 2 cos 2 danno
) * ) * ) *
θ1 (t) v sin t + sin(1 + k)t sin t cos 12 kt
= ≃ v
θ2 (t) 2 sin t − sin(1 + k)t − cos t = sin 12 kt

e cioè il primo pendolo oscilla con pulsazione ω1 ≃ 1 e ampiezza a1 ≃ v cos 12 kt, mentre il secondo ha un
moto analogo, sfasato di π , e con ampiezza sfasata di un tempo (lungo): τ /4 = π/k .

Si rammenti che le soluzioni trovate sono relative al sistema lineare e non sono conclusive per quello non lineare,
in special modo per quanto riguarda i periodi di oscillazione; questi, come si è visto, rappresentano solo il primo
termine di uno sviluppo perturbativo i cui termini successivi hanno valori che dipendono dalla scelta dei dati iniziali.
#

L’esempio precedente è ottenuto come semplificazione, parzialmente esasperata, del seguente e più corretto,
caso fisico.
Esempio 2.1.8

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 89

Si considerino due pendoli fisici di lunghezze l1 ed l2 rispettivamente, con punti di sospensione posti su una retta
x orizzontale a distanza d l’uno dall’altro, vincolati senza attrito a oscillare sul piano verticale x, z (con z verticale
ascendente), e accoppiati da una sollecitazione elastica
0 0 1 1
−−→ −−→ ⃗ −−→ −−→
p1 p2 , p2 p1 , f12 = k |p1 p2 | − ℓ vers p1 p2 , f⃗21 = −f⃗12 ,
/ 0 12
−−→
tale che ℓ = d2 + (l2 − l1 )2 sia la lunghezza di riposo della molla. Ne consegue la V ≡ Πel = k |p1 p2 | −ℓ /2 ,
0 1
→ π el = k
−−→ −−→
per la quale è, correttamente, ∇− op |p p
1 2 | − ℓ ∇−
op |p1 p2 |.

x
d

µ1 µ2
l1
l2

Date le 0 1
−−→ −−→ −−→ −−→ −−→ −−→
2| p p |∇ |p p | ∇q p1 p2 · p1 p2 p1 p2 · ∇q p1 p2
−−→ 1 2 q 1 2
∇q |p1 p2 | = −−→ = −−→ = −−→
2|p1 p2 | 2|p1 p2 | |p1 p2 |
@ A (1.21)
−−→ −−→
vers p1 p2 · ∂ p1 p2 /∂ θ1
= −−→ −−→
vers p1 p2 · ∂ p1 p2 /∂ θ2
e le ⎛ ⎞ ⎛ ⎞
l2 sin θ2 + d l1 sin θ1
−−→ −−→
op2 = ⎝ 0 ⎠ op1 = ⎝ 0 ⎠
−l2 cos θ2 −l1 cos θ1
si riconoscono nelle θ delle convenienti variabili lagrangiane q := (θ1 , θ2 ) per le quali si hanno le
⎛ ⎞ ⎛ ⎞
−−→ −−→ cos θ2 −−→ −−→ cos θ1
∂ p1 p2 ∂ op2 ∂ p1 p2 ∂ op1
= = l2 ⎝ 0 ⎠ ; = − = −l1 ⎝ 0 ⎠ .
∂ θ2 ∂ θ2 ∂ θ1 ∂ θ1
sin θ2 sin θ1
Queste e la (1.21) forniscono la
@ −−→ A @ −−→ A
−−→ ∂|p1 p2 |/∂ θ1 (+l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1 )/|p1 p2 |
∇q |p1 p2 | = −−→ = −−→
∂|p1 p2 |/∂ θ2 (−l1 l2 sin(θ1 − θ2 ) + dl2 cos θ2 )/|p1 p2 |
e quindi, in particolare, le
∂ π el 7 0 1
−−→ 8
= k 1 − ℓ/p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1
∂θ1
∂ π el 7 0 1
−−→ 8
= k 1 − ℓ/p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2 .
∂θ2
Pertanto ⎛ 7 0 1⎞
@ A −−→ 8
∂Π/∂θ1 gm1 l1 sin θ1 + k 1 − ℓ/|p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1
⎜ ⎟
=⎝ 7 0 1⎠
∂Π/∂θ2 −−→ 8
gm2 l2 sin θ2 + k 1 − ℓ/|p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2
da cui insieme con la
1 1 1 1
m1 (ẋ21 + ż12 ) + m2 (ẋ22 + ż22 ) =
T = m1 l12 θ̇12 + m2 l22 θ̇22 ,
2 2 2 2
seguono le corrispondenti equazioni di Lagrange:
⎧ 7 0 1
⎨ m1 lθ̈1 + gm1 l1 sin θ1 + k 1 − ℓ/|−
⎪ −→ 8
p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1 = 0 ,
7 0 1
⎩ m2 lθ̈2 + gm2 l2 sin θ2 + k 1 − ℓ/|−
⎪ −→ 8
p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2 = 0 .

Note di Sistemi Dinamici


90 Capitolo 2. Sistemi differenziali lineari

Esempio 2.1.9 Il seguente calcolo mostra come il normalizzare a 1 i prodotti ϵh · Ae ϵh non sia rilevante ai
fini della scrittura delle soluzioni del problema linearizzato, quando queste si esprimano tramite le loro condizioni
iniziali. ) *
0 1
Sia A1 la matrice reale data da A1 := . Risulta
−ω 2 0
) * ) * ) *
0 −ω 1 0 1 0
P1−1 A P
∼ 1 1∼ = con P 1∼ = ; P −1
1∼ = .
ω 0 0 −ω 0 −1/ω

D’altra parte, come è noto, l’equazione


@ A ) *) * ) * ) *) *
˙ ξ& & ξ&0
ξ& = α −β implica
ξ(t)
= eαt
cos βt − sin βt
.
η&˙ β α η& η&(t) sin βt cos βt η&0

Pertanto la soluzione ρ(t) ≡ (ρ1 (t), . . . , ρn (t)) del sistema disaccoppiato di equazioni
⎛ ⎞
ω1 0
⎜ .. ⎟
ρ̈ + Ωρ = 0 con Ω=⎝ . ⎠
0 ωn

può essere scritta nella forma


) * ) * ) * ) *
ρ C −S −1 ρ0 ρ0
= P∼ P∼ =: E (1.22)
ρ̇ S C ρ̇0 ρ̇0

ove si sono introdotte le matrici diagonali


⎛ ⎞ ⎛ ⎞
cos ω1 t 0 sin ω1 t 0
⎜ .. ⎟ ⎜ .. ⎟
C := ⎝ . ⎠, S := ⎝ . ⎠
0 cos ωn t 0 sin ωn t
⎛ ⎞ ⎛ ⎞
1I n 0 1I n 0
P∼ = ⎝ ⎠ , P∼−1 = ⎝ ⎠
−1
0 −Ω 0 −Ω
⎛ ⎞ ⎛ ⎞
1/ω1 0 1 0
−1 ⎜ .. ⎟ ⎜ .. ⎟
Ω := ⎝ . ⎠, 1I n := ⎝ . ⎠.
0 1/ωn 0 1
In altre parole:
ρ̇i |0
ciascuna ρ̈i + ωi2 ρi = 0 ha soluzione ρi (t) = ρi |0 cos ωi t + sin ωi t
ωi
e ciò è quanto si legge dalla (1.22) ove si svolga il prodotto E servendosi del fatto che il prodotto di matrici
entrambe diagonali è commutativo. Si ha:
) * ) * ) *
C −S −1 C SΩ−1 C SΩ−1
E = P∼ P∼ = P∼ = .
S C S −CΩ−1 −ΩS C

Esprimendo con tale notazione le coordinate x := (x1 , . . . , xn ) di un sistema del quale si cercano i modi normali
ρ = (ρ1 , . . . , ρn ), e cioè chiamando P la matrice che ha come colonne gli (ϵ1 , . . . , ϵn ) soluzioni della equazione
Be ϵ = λAe ϵ, si ricava quindi la
) * ) *) * ) * ) −1 *) * ) *
x P 0 ρ P 0 P 0 x0 x0
= = E =: Ξ
ẋ 0 P ρ̇ 0 P 0 P −1 ẋ0 ẋ0

nella quale si è introdotta la matrice Ξ data esplicitamente dalla


) *) * ) −1 * ) *
P 0 C SΩ−1 P 0 P CP −1 P SΩ−1 P −1
Ξ= −1 =
0 P −ΩS C 0 P −P ΩSP −1 P CP −1

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 91

per ottenere la quale si è usato il fatto che le Ω, C , e Ω−1 commutano fra loro.
Se allora, invece di una certa n-pla (ϵ1 , . . . , ϵn ) di autovettori dell’equazione Be ϵ = λAe ϵ se ne usa un’altra:
(ϵ1 ′ , . . . , ϵn ′ ), ancora di autovettori della stessa equazione, ciascuno dei quali proporzionale al suo corrispondente:
ϵi ′ ∝ ϵi , i = 1, . . . , n, si ricava da questi la matrice P ′ data dalla
⎛ ⎞ ⎛ ⎞ ⎛k 0

.. .. .. .. 1
P ′ = ⎝k1 ϵ1 .. . k ϵ ⎠ = ⎝ϵ .
.. n n 1 .
.. ϵn ⎠ ⎜
⎝ ..
.

⎠ =: P K.
. . .
. . . . 0 kn

Ripetendo lo stesso procedimento seguito nel caso precedente, si arriva in tal modo alla matrice
@ A
P KCK −1 P −1 P KSΩ−1 K −1 P −1
Ξ′ = .
−P KΩSK −1 P −1 P KΩCΩ−1 K −1 P −1

Tuttavia, il fatto che tutte le matrici K, Ω, C, S, Ω−1 , K −1 siano diagonali permette di concludere che Ξ′
coincide con Ξ . Le x := (x1 , . . . , xn ) non dipendono quindi dalle costanti (k1 , . . . , kn ), e sono date dalla
) * @ P CP −1 A
P SΩ−1 P −1 )x0 *
x
=
ẋ −P ΩSP −1 P CP −1 ẋ0

o, più semplicemente, dalla


0 1
x = P CP −1 x0 + P SΩ−1 P −1 ẋ0 = P Cρ0 + SΩ−1 ρ̇0

nella quale le colonne della matrice P non sono necessariamente normalizzate a uno secondo la Ae , pur restando
necessariamente Ae -ortogonali fra loro. In altre parole la matrice P è (una qualsiasi matrice) fatta da n vettori
ϵ1 , . . . , ϵn linearmente indipendenti e tali da verificare le

Be ϵi = λ(i) Ae ϵi per i = 1, . . . , n , ed ϵk · Ae ϵh = 0 se k ̸= h .

La teoria assicura che essi esistono e che le seconde di queste relazioni sono conseguenza delle prime quando i
corrispondenti autovalori λh e λk sono diversi fra loro.
Esempio di linearizzazione di un sistema, non necessariamente Hamiltoniano.
Si è già introdotta (si veda: § I.4 Es. 5) l’equazione logistica per una specie, e cioè la ṗ = β(σ − σ0 )p ove σ0 è la
minima quantità di cibo per individuo. Con le ipotesi: σ = σ & −kp, σ & > σ0 , e posto η := (&σ −σ0 )/k, c := βk ,
si è ottenuto il modello per una specie singola:

ṗ = c(η − p)p , t ∈ R, p 0 ∈ R+ .

Se si vuole estendere il modello e considerare la presenza di due specie di cui una rappresenti il cibo per l’altra
e che abbia essa stessa scorte più che sufficienti di cibo, la preda x avrà mortalità proporzionale al numero di
incontri con il predatore y , e quindi l’equazione

ẋ = ax − bxy, a, b > 0 ,

mentre il predatore avrà riserva di cibo proporzionale alla popolazione delle prede, sua unica fonte di sussistenza:

ẏ = cxy − dy, c, d > 0 .

Si ha cioè il campo ) *
ax − bxy
v(x) = ,
cxy − dy
del quale la linearizzata è
) * ) *) *
u̇ a − by −bx u
u̇ = ∂v(x)u ovvero = (1.23)
ẇ cy cx − d w

Il campo si annulla in x0 = (0, 0) e in xe = (xe , ye ) := (d/c, /a b).

Note di Sistemi Dinamici


92 Capitolo 2. Sistemi differenziali lineari

Nell’intorno del primo equilibrio si ricava


) * ) *) *
u̇ a 0 u
= (1.24)
ẇ 0 −d w

del quale è soluzione la t &−→ (x(t), y(t)) = (eat x0 , e−dt y0 ) che mostra come, in prossimità di un disastro ecologico,
le prede siano insufficienti a sostenere i predatori: anche se x cresce, localmente y decresce.

Nell’intorno del secondo equilibrio si ricava


) * ) *) *
u̇ 0 −bd/c u
= (1.25)
ẇ ac/b 0 w

che rappresenta, come si è accennato nella Nota 2.1.3 più sopra, un caso in cui il sistema linearizzato non dà
sufficienti informazioni, per tempi grandi, sulle soluzioni del sistema iniziale. Per quanto possibile sarà allora
opportuno affrontarne lo studio tramite metodi qualitativi simili a quelli già visti per i sistemi conservativi. #

2.2 Sistemi differenziali lineari a coefficienti costanti, in R2


In questo paragrafo verrà considerato in dettaglio il caso dei sistemi lineari (reali) a coefficienti costanti di due
equazioni scalari del primo ordine in due incognite scalari. Il loro interesse risiede nel fatto che, malgrado la loro
estrema semplicità, possono essere usati come “caso guida” dei sistemi a coefficienti costanti e di ordine qualunque,
e in tal senso verrà sviluppato lo studio sistematico del procedimento di risoluzione.
È opportuno osservare preliminarmente che, cosı̀ come è stato possibile perfino nel caso non lineare ẋ =
v(x), v : R2 → R2 , trovare talvolta dei metodi particolari di risolubilità, anche nel caso lineare vi sono spesso
alternative al metodo generale. In particolare se il sistema è propriamente lineare, nel senso che ha (0, 0) come
punto di equilibrio, si possono usare i metodi visti nel § I.4 per cercare le soluzioni dell’equazione associata:
dx2 /dx1 = v 2 (x1 , x2 )/v 1 (x1 , x2 ) che, in tal caso, ha come campo una funzione omogenea di grado zero. Il caso
propriamente lineare, d’altra parte, non manca di generalità giacché è generalmente sufficiente operare con una
semplice traslazione di origine per ricondurvisi (si veda: Es. I.4.7). Tuttavia lo scopo di questo paragrafo è di
illustrare il metodo generale di risoluzione dei sistemi lineari a coefficienti costanti in modo tale che esso possa
essere esteso al caso di dimensione n qualsiasi, e di evidenziarne gli aspetti geometrici.
Sia allora dato un sistema, per il momento in R2 ,

ẋ = T x con x0 ∈ R2 , T ∈ R4 ; ovvero
) 1* ) * ) 1* ) 1*
ẋ a b x x0 (2.26)
= x0 = , a, b, c, d ∈ R .
ẋ2 c d x2 x20

Per poter fare uso del concetto di sistemi coniugati, e operare convenienti trasformazioni di coordinate, si
ricorrerà al fatto che l’equazione data può essere considerata come una particolare rappresentazione in coordinate
di un’equazione quale la
ẋ = T x , x0 ∈ V, T ∈ L(V), (2.27)

assegnata su uno spazio vettoriale (reale) V al quale, per esempio, può essere identificato lo spazio tangente Tx̄ M
relativo ad un punto x̄ di una varietà M di ugual dimensione n = 2 . Le coordinate scelte su M (o un’arbitraria
scelta) individuano su V una certa base e := {ei }i=1,...,n dalla quale esso è reso isomorfo a Rn . Su V si definisce
l’operatore lineare T ∈ L(V) come quello al quale la base e assegna la matrice T ∈ Rn .
2

Quando M ≡ V (e quindi per la (2.27) stessa) non lede la generalità identificare la famiglia dei {Tx̄ M}x̄∈M con un unico spazio
V al quale è stata identificata anche la stessa varietà delle fasi M (e cioè lo spazio delle condizioni iniziali u0 := x̄0 − x̄ =: x0 ); in
caso contrario l’isomorfismo dipenderà dal punto xe oltre che dalle coordinate scelte e le identificazioni dette saranno locali. Tuttavia,
fintanto che non viene variato il punto xe per il quale v(xe ) = 0 e v∗ (xe ) = T , e cioè a partire dal quale la (2.27) è l’equazione
variazionale in x(t) = xe di una qualche equazione non lineare ẋ = v(x) , le identificazioni dette rimangono valide. In particolare lo
saranno per tutto il resto di questo capitolo.
Una volta determinate le soluzioni t &→ φ(t, 0, x0 ) ≡ G t x0 dell’equazione ẋ = T x, la loro rappresentazione in
coordinate fornirà nelle coordinate assegnate le soluzioni del sistema dato.

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 93

G t determina T Come si è visto nel Cap.I, ogni gruppo a un parametro {G t }t∈R di trasformazioni, non
necessariamente lineari, determina un flusso g : (t, x) &→ g(t, x) ':= G t x (differenziabile rispetto a entrambe le sue
d '
variabili), che determina un campo vettoriale v : x &→ v(x) = dt t=0
G t x. Questo è tale che le funzioni φ : R → M,
definite per ciascun x ∈ M dalla t &→ φ(t, 0, x) := G x, sono soluzioni dell’equazione associata, e cioè: per ogni
t

τ ∈ R si ha
d ''
φ̇(τ ) := ' G t (G τ x) = v(φ(τ )) .
dt t=0
Se, in particolare, le trasformazioni G t : M → M sono lineari certo anche il campo v risulta lineare e, come si è già accennato, non
lede la generalità identificare (nell’intorno di un x̄ ∈ M fissato) le varietà M e Tx̄ M con un unico spazio vettoriale V di dimensione
n sul quale agiscono gli operatori G t .
Inoltre, la linearità degli operatori G t permette di raccogliere a fattore moltiplicativo la parte evolutiva rispetto
a quella attuale ) ' *
d '' t τ d ' t
' G (G x) = ' G G τ x =: T G τ x ; (2.28)
dt t=0 dt t=0
e cioè di operare la derivazione direttamente su L(V) anziché su V, (vedi oltre).
Riassumendo: un gruppo a un parametro di trasformazioni lineari su V determina univocamente un flusso ' g
d '
definito da g(t, x) := G t x il quale determina un campo lineare (e cioè un operatore T ) tramite la T := dt t=0
G t
.
Quest’ultimo è tale che il moto φ : R → V definito da φ(t, 0, x) := G t x è soluzione dell’equazione ẋ = T x. Per
ogni fissata base in V, al moto φ corrisponde, in coordinate, un vettore di funzioni x : t &→ x(t) 1 n
' :=7 (x (t), .t. .8, x (t))
d '
soluzione dell’equazione ẋ = T x, ove T = cost è definita in coordinate dalla T x := dt t=0
h (x) ◦ G x . #

T determina G t Inversamente: in dim = 1 ogni funzione lineare, e cioè ogni costante moltiplicativa k ,
determina l’equazione ẋ = kx, che a sua volta determina un flusso g(t, x) = ekt x che determina l’operatore ekt ,
lineare sulle x ed evolutore della soluzione uscente
9 : dal dato x0 = 1 . Pertanto essa determina il gruppo a un
parametro di trasformazioni lineari della retta ekt t∈R .
Si vuole estendere questa proprietà a un numero qualunque di dimensioni, tale estensione potendo essere ottenuta
in due modi, equivalenti nello stesso senso in cui la (2.27) è equivalente alla

X˙ = T X , X0 , T ∈ L(V) (2.29)

qualora questa si dimostri sensata.


Il secondo modo è il procedimento che verrà illustrato più avanti, date le sue doti di generalità e di sintesi. In
esso si ripete sulla (2.29) il ragionamento appena fatto per la ẋ = kx e se ne ricava il corrispondente flusso in
L(V), dal quale segue quello in V. Tuttavia, per far ciò, si ha bisogno di introdurre procedimenti di limiti e di
derivazioni nello spazio L(V).
Il primo modo, “per componenti”, viene qui riassunto per favorire l’interpretazione del secondo. Con esso si
potrebbe addirittura evitare il ricorso al sistema (2.27) giacché il sistema viene risolto direttamente in coordinate.
Si riconosce innanzi tutto che per ogni assegnata matrice T esiste unica in Rn la n-pla dei vettori soluzioni dell’e-
quazione ẋ = T x e uscenti da fissate condizioni iniziali (ad esempio dai versori di base). Ne risulta univocamente
determinata la matrice Ψ : t &→ Ψ(t) che ha per colonne le loro componenti (in quella base). Questa individua il
vettore t &→ x(t), soluzione uscente dal (arbitrario) dato iniziale x mediante l’operazione lineare x(t) = Ψ(t)x.
Se ne ricava G t x = h−1
(x) (Ψ(t)x) . L’unicità della soluzione e le sue proprietà di linearità (rispetto a x) e di com-
positività (rispetto a t) garantiscono che si è generata una famiglia a un parametro di operatori {G t }t∈R , ciascuno
dei quali:

• è rappresentato in quelle coordinate dalla matrice Ψ(t),

• appartiene a un gruppo rispetto al parametro, in quanto T non dipende da t,

• è definito su tutto V, in quanto x è arbitrario,

• è lineare, in quanto lo è T ,
d ''
• verifica l’equazione (2.28): ' G τ +t x = T G τ x giacché, in coordinate,
dt t=0
d '' '
'
' Ψ(t)x = T Ψ(t) x ' =T x,
dt t=0 t=0

Note di Sistemi Dinamici


94 Capitolo 2. Sistemi differenziali lineari

• in conseguenza di una qualsiasi trasformazione lineare di coordinate: x′ = P −1 x (e quindi con campo che
varia secondo la: T ′ = P −1 T P ) ha matrice che varia secondo la Ψ′ = P −1 ΨP , e ciò fornisce la soluzione
nelle nuove coordinate: x′ (t) = Ψ′ (t)x′ ,

• fra tutti i sistemi di coordinate (lineari) su V, resta allora possibile scegliere quello ottimale alla risoluzione
del dato problema cercandolo come quello per il quale la corrispondente matrice T ′ equivalente alla T risulta
particolarmente semplice.

Riassumendo: un campo lineare T x determina univocamente una famiglia {G t }t∈R di trasformazioni G t che è un
gruppo a un parametro; gli' operatori G t sono lineari su V e sono rappresentati, in coordinate, da una matrice
d '
Ψ : t &→ Ψ(t) tale che dt t=0
Ψ(t) = T . Tale matrice T rappresenta (in quelle coordinate) l’operatore di campo
T . Il sistema che si risolve è un conveniente ẋ′ = T ′ x′ .
L’unicità della soluzione di ẋ = T x per ciascun x0 garantisce anche che ogni gruppo a un parametro di
trasformazioni lineari su V è esprimibile in questo modo. Infatti l’equazione 7 da esso determinata è unica, ed è
unico il flusso g associato al8 gruppo. Ma il flusso generato dall’equazione o anche, per ogni dato iniziale x ∈ V,
la sua soluzione t &→ φ(t, x) è esso stesso unico e quindi, siccome anche il flusso associato al gruppo deve esserne
soluzione, essi non possono che coincidere.
In definitiva, conseguenza delle unicità della soluzione e del gruppo associato a un flusso è che: due gruppi a un
parametro di trasformazioni lineari V → V sono identici se e solo se hanno uguali generatori T . #

Si osservi che per determinare esplicitamente le rappresentazioni Ψ(t) degli operatori del gruppo, il metodo per
componenti passa necessariamente attraverso la soluzione esplicita corrispondente ai vari possibili sistemi lineari
(e cioè alle varie T ′ ), e non ne permette un’espressione generale, valida apriori dagli specifici dati iniziali e matrici
di campo.

Nell’illustrare il secondo dei due procedimenti citati sopra si farà riferimento alla più generale equazione lineare,
anche non autonoma:

ẋ = T (t) x, t0 , x0 ∈ R × V, T (t) ∈ L(V), t &→ T ∈ C r≥0 (R) (2.30)

e la discuterà in forma generale, anche se solo formale. In un secondo momento, e nel solo caso T = cost, si
esprimeranno le soluzioni in un qualche conveniente sistema di coordinate.
A tale scopo, innanzi tutto occorre attribuire significato all’operazione di derivazione in L(V). Verrà poi di-
scussa, direttamente in questo spazio, la soluzione Gtt0 dell’equazione X˙ = T (t) X . Infine, e solo dopo aver
fissate le coordinate e attribuita all’operatore T (t) una matrice T (t), verrà esaminato il problema di determinare
esplicitamente la matrice che quelle coordinate assegnano all’operatore Gtt0 .
La prima parte è introduttiva, e mostra come molte delle considerazioni fatte nel caso autonomo sussistono
anche in quello, più generale, di operatori di campo dipendenti dal tempo. In esse infatti si usa solo la linearità
dell’operatore T (t) e non la sua indipendenza o meno dal tempo.
Si danno le seguenti definizioni
Matrice fondamentale dell’equazione (2.30) := una matrice Φ(t, t0 ) che ha per colonne le coordinate di una
n-pla di vettori soluzioni linearmente indipendenti della (2.30). In tal modo essa fornisce il valore attuale x(t)
della “soluzione generale” secondo la x(t) = Φ(t, t0 ) c , ove c è un vettore numerico.
Matrice principale dell’equazione (2.30) := quella matrice fondamentale Ψ che ha per colonne le coordinate
degli n vettori, soluzioni della (2.30), che hanno come dati iniziali i versori della base dello spazio delle fasi. Essa
è pertanto la matrice Ψ = Ψ(t, t0 ) tale che Ψ(t0 , t0 ) = 1I , e fornisce il valore attuale x(t) che parte dal dato
iniziale x0 secondo la x(t) = Ψ(t, t0 ) x0 .

La matrice principale Ψ(t, t0 ) rappresenta, nella base scelta, l’operatore di evoluzione Gtt0 dell’equazione (2.30).
Infatti applicandola a un qualsiasi vettore x0 di Rn , che rappresenti le condizioni iniziali di un moto che evolve
secondo la (2.30), si ottiene la soluzione φ(t, t0 , x0 ) uscente da x0 .
In particolare, a partire da una n-pla di condizioni iniziali x1 |0 , x2 |0 , . . . xn |0 che siano vettori linearmente
indipendenti di Rn , e formata con essi la matrice (invertibile) (n × n) :
⎛ ⎞
.. .. ..
C ≡ Φ0 := ⎝x1 |0 .. x2 |0 .. .. xn |0 ⎠ ,
. . .
. . .

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 95

si riconosce che la matrice


⎛ ⎞
.. .. ..
Φ(t) := Φ(t, t0 , Φ0 ) = Ψ(t, t0 )Φ0 = ⎝x1 (t) .. x2 (t) .
..
. x (t)⎠
.. n
.
. . .
;
ha colonne che sono soluzioni indipendenti dell’equazione ẋ = T (t) x; esse sono gli n vettori φi (t, t0 , xi |0 ) ∈
< ; <
Rn che rappresentano in quelle coordinate gli n vettori φi (t, t0 , xi |0 ) ∈ V soluzioni della (2.30)
i=1,...,n i=1,...,n
che verificano gli assegnati dati.
Questi ultimi formano un
Sistema fondamentale Φ = {φi }i=1,..,n per l’equazione (2.30) := una n-pla di funzioni a valori in V: φi :
t &→ xi = φi (t, t0 , xi |0 ) ∈ V, i = 1, . . . , n, che siano soluzioni linearmente indipendenti della (2.30).
D’altra parte, come si è osservato nel § I.5, la più generale soluzione della (2.30) può essere scritta come
combinazione lineare di una n-pla di vettori soluzioni linearmente indipendenti della (2.30). Pertanto ogni sistema
fondamentale può essere ottenuto a partire da un altro mediante il prodotto per un operatore costante non singolare
C , e venire rappresentato (in componenti) mediante la

Φ(t, t0 , Φ0 ) = Ψ(t, t0 )C ove C ≡ Φ(t0 ) ≡ Φ0 ∈ L(Rn ).

Si può notare che ogni colonna della C è formata dalle componenti degli (arbitrari purché linearmente indipen-
denti) vettori numerici φ0 , condizioni iniziali dei vettori soluzioni φ che formano la Φ(t, t0 , Φ0 ); e anzi, le colonne
della C sono le n-ple dei coefficienti delle combinazioni lineari che si operano sui vettori colonne della Ψ(t, t0 ) (e
cioè le soluzioni uscenti dai versori di base) per ottenere i vettori colonne della Φ(t, t0 , Φ0 ).
Considerando che la matrice C ≡ Φ0 è non singolare se e solo se tale è la Φ, si conclude che tutte e sole le
matrici fondamentali sono esprimibili in questa forma purché C sia non singolare.
Osservazione importante. La matrice fondamentale Φ(t) ha derivata (fatta elemento per elemento) tale che
Φ̇(t) = T (t)Φ(t), essa ha quindi come colonne le derivate di altrettante funzioni vettoriali che sono soluzioni
della (2.30). Si vuole sfruttare la linearità dell’operatore di derivazione per interpretare una matrice che abbia
come colonne le derivate di altrettante funzioni vettoriali come derivata della matrice le cui colonne siano le
funzioni vettoriali stesse (il tutto naturalmente su una base che non dipenda dal parametro), e pensare a ciò
come alla rappresentazione in (quelle) coordinate di un procedimento fatto sull’operatore di cui quella matrice è
l’espressione in coordinate. Si vuole cioè interpretare la matrice Φ(t, t0 , Φ0 ) come la rappresentazione in coordinate
di quell’operatore lineare che verifica nello spazio L(V) l’equazione

Ẋ = T (t) X , t0 ∈ R, T (t) ∈ L(V), t &→ T ∈ C r≥0 (R) (2.31)

con condizioni iniziali (non singolari) X0 = X (t0 ), rappresentate da X0 = X(t0 ). Di questa equazione, la matrice
Ψ : t &→ Ψ(t, t0 ) esprime in particolare la soluzione uscente dal dato X0 = 1I .
Inoltre, la (2.31) è omogenea, e quindi se X = X(t) è soluzione uscente da X0 e se C è non singolare
allora anche X(t)C è soluzione uscente da X0 C . Ne segue che per ogni C ≡ Φ(t0 ) = Φ0 non singolare la
Φ(t) = Ψ(t, t0 )Φ0 è soluzione non singolare.
Infine, ogni soluzione non singolare della (2.31) è esprimibile in questo modo, infatti anche per essa vale il
teorema di unicità, e certo la Ψ(t, t0 )X0 è soluzione uscente dall’arbitrario dato X0 .
In definitiva, e sempre che si dia senso alla (2.31), si ha che le due equazioni:

ẋ = T (t)x con x0 ∈ V, (2.32)


X˙ = T (t)X con X0 ∈ L(V) (2.33)

sono equivalenti nel senso che le soluzioni non banali di questo sono i sistemi fondamentali di quello. Risolvere la
(2.32) equivale a trovare l’operatore Ψ che risolve la (2.33). #

Le proprietà che si sono appena riconosciute circa i sistemi fondamentali Φ della (2.32) non sono conseguenze
della particolare struttura dell’operatore T (diagonalizzabile o meno) né del fatto che esso dipenda o meno dal
tempo (e cioè che il sistema sia a coefficienti costanti), ma solo del fatto che è lineare. È tuttavia solo nel caso di
autonomia che il procedimento di costruzione esplicita dell’operatore di evoluzione (lineare) Ψ(t, t0 ) riesce in modo
semplice. Nel caso generale infatti, lineare non autonomo: ẋ = T (t)x, la determinazione esplicita della matrice
Ψ : t &→ Ψ(t, t0 ) è problema assai arduo, almeno in forma chiusa.

Note di Sistemi Dinamici


96 Capitolo 2. Sistemi differenziali lineari

Quando invece l’operatore di campo T , e quindi i coefficienti dell’equazione ẋ = T x, sono costanti, le matrici
t &→ Φ(t) soluzioni della X˙ = T X assumono una forma particolarmente significativa.
Nel caso scalare, l’unico operatore che agisce linearmente sui punti della retta e li trasforma in modo da avere
campo proporzionale al valore nel punto, ovvero tale che x(t) = G't x =⇒ ẋ = kx è l’operatore che moltiplica
d ' d t
per la funzione esponenziale: G t ≡ ekt . Per esso infatti si ha dt t=0
(G t x) = kx o anche dt G = kG t . Si
vuole generalizzare questa osservazione al caso dim V = n, e chiamare e Tt
la matrice Ψ(t) e interpretarla come
rappresentazione, nella base in cui T è rappresentato
' da T , dell’operatore G t
∈ L(V). Inoltre si vuole dare senso
d ' t
alla richiesta che questo abbia derivata tale che dt t=0 G = T , e confermare il fatto che esso appartiene a un gruppo
ad un parametro di trasformazioni lineari invertibili: G t+τ = G t G τ . Solo in tal caso esso potrà essere la soluzione
d t
uscente dalle condizioni iniziali X (0) = 1I dell’equazione Ẋ = T X , e quindi essere tale che dt G = T G t , G 0 = 1I .
Ciò giustifica indicarlo con e , e interpretare come flusso in L(V) l’espressione (t, X ) &→ G(t, X ) = eT t X .
Tt

Esempio pilota. Si consideri il caso dim = 2 . Sia T un operatore costante e con autovalori entrambi reali
e distinti. Dette P la matrice individuata dagli autovettori di T ed Ehi (t) = eλ(i) t δhi (non sommare su i ) si
riconosce facilmente che la matrice che rappresenta l’operatore G t è la matrice
) λt *
e 1 0
Ψ(t) = P E(t)P −1 = P P −1 . (2.34)
0 eλ2 t

Ne segue che la soluzione generale può essere scritta come x(t) = Φ(t)c con Φ(t) = P E(t)P −1 C , ove C = Φ0
è non singolare e P è individuata dagli autovettori di T .
L’espressione esplicita (2.34) permette innanzi tutto l’immediato controllo del fatto che Ψ(t) è soluzione della
(LO2) uscente dalle condizioni iniziali Ψ(0) = 1I : basta a tale scopo derivare direttamente (elemento per elemento)
la Ψ e ottenere @ A
λ1 ϵ11 eλ1 t . λ2 ϵ12 eλ2 t
Ψ̇(t) = . P −1 = P ΛE(t)P −1 = T Ψ(t) .
λ1 ϵ21 eλ1 t . λ2 ϵ22 eλ2 t
Allo stesso modo essa permette l’immediata verifica della proprietà di gruppo per la famiglia degli evolutori, e
cioè la
Ψ(t)Ψ(τ ) = P E(t)E(τ )P −1 = Ψ(t + τ ).
In altre parole si riconosce che l’operatore moltiplicativo Ψ(t) rappresentato dalla (2.34) ha tutte le proprietà
richieste qui sopra per un possibile operatore eT t : è lineare, è elemento di un gruppo a un parametro, assegna
velocità trasformata lineare della posizione secondo la moltiplicazione per T .
t
In più
) essa
λ1 t
mostra* che nella base propria di T , (in quanto esistente), la matrice di G è la matrice diagonale
e 0
E(t) := .
0 eλ2 t
Se allora, formalmente, si definisse
) λt * ) *
Λt e 1 0 λ1 0
e := , ancora con Λ := ,
0 eλ2 t 0 λ2

essa potrebbe a tutti gli effetti essere considerata come la matrice che rappresenta, in base propria, un operatore
avente alcune delle caratteristiche dell’operatore eT t esponenziale dell’operatore T t. Questo anche considerando
il fatto che, siccome la base {ϵi }i=1,...,n propria per T esiste ed è tale che Λ ≡ τ = P −1 T P se ϵi = Pei ,
i = 1, . . . , n, allora la eΛt si trasforma come deve, (si veda la Proprietà 2.2.1)

−1
la matrice e(P ΛP )t ≡ eT t := Ψ(t) = P eΛt P −1 che fa evolvere le
componenti x è la P -trasformata della matrice eΛt dei vettori espressi
mediante le loro componenti in base propria ξ(t) := P −1 x(t).

Tuttavia:

• affinché quella appena data sia una corretta definizione per un operatore esponenziale di un operatore T , cioè
non dipenda dal sistema di coordinate;
• affinché sia valida non solo per operatori diagonalizzabili, ma anzi assuma su tutto lo spazio L(V) le proprietà
della funzione esponenziale;

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 97

• affinché eT t rappresenti in L(V) la soluzione del problema di Cauchy: X˙ = T X , X0 = 1I ,


• affiché sia possibile estendere quanto visto sopra a un numero qualsiasi di dimensioni,

occorre che tale definizione coincida, ancheCper L(V) cosı̀ come è per R, con quella che si ottiene richiedendo che
uno sviluppo in serie di potenze X (t) = ∞ m
m=0 Cm t , Cm ∈ L(V), possa esprimere la soluzione in L(V) di
˙
X = T X . Dovrà esistere un C ∈ L(V) tale che:

= ∞
= Tm
mCm tm−1 = T C m tm ⇒ mCm = T Cm−1 ⇒ Cm = C0 .
m=1 m=0
m!
Se si introduce in L(V) un criterio di convergenza cheCrenda sensate le operazioni di derivazione e di somma
∞ Tm
di serie, e lo si usa per dimostrare la sensatezza della:
C m=0 m! , e cioè l’esistenza in L(V) di un operatore
∞ m
T
eT := m=0 m! , si dà significato all’affermazione secondo la quale

=∞
T m tm
eT t := è la soluzione della X˙ = T X con X0 = 1I .
m=0
m!

Successivamente se ne ricava che, nelle coordinate che danno a T la matrice T ,



= T m tm
x(t) = eT t x0 = x0 è la soluzione della ẋ = T x con x0 ∈ Rn .
m=0
m!

Si ottiene lo scopo proposto: o sfruttando il fatto che lo spazio L(V) degli operatori lineari a valori reali definiti
su V è esso stesso uno spazio vettoriale a dimensione finita (e quindi sommando mediante la convergenza elemento
per elemento) ma ciò è poco opportuno dato che gli elementi di T m non sono le potenze degli elementi di T
, oppure introducendo una norma ∥T ∥ specifica per lo spazio L(V), e converrà una norma piuttosto che una
metrica giacché lo spazio è lineare. Rispetto
;C ad essa <si potranno introdurre le operazioni di limite e di derivazione, e
k Tm
ci si potrà assicurare che la successione m=0 m! ammette limite in L(V). L’essere L(V) a dimensione
k=1,2,...
finita assicura l’equivalenza dei due procedimenti.
D’altra parte è certo conveniente, se possibile, introdurre una norma rispetto alla quale L(V) sia uno spazio
completo; in tal modo, infatti, si potrà decidere se il limite ?della successione
? esiste e appartiene allo spazio L(V)
?Ck Tm?
solo osservando il comportamento dei numeri ∥Sk − Sh ∥ := ? m=h m! ?, e cioè osservando delle somme finite.
L’essere L(V) a dimensione finita assicura che tutte le norme definite su di esso sono (uniformemente) equiva-
lenti, ed esso è completo rispetto ad ognuna (si veda: Appendice A.7). Tuttavia la più conveniente, perché di facile
interpretazione e uso, è la Norma spettrale, definita su L(V) da:

∥T ∥ := sup ∥T x∥2 .
∥x∥2 =1
?C ? Ck ?T m ?
? k Tm? ? ?
Servendosi poi della disuguaglianza ? m=0 m! ? ≤ m=0 m! , si osserva che l’assoluta convergenza di
? m?
una serie ne implica la convergenza; e cioè: la convergenza della serie delle norme degli addendi: ? T ? implica la
m!
m
convergenza in norma della serie degli addendi: Tm! . Ma la prima è una serie di numeri tutti non negativi, quindi
per il criterio di Weiestrass essa risulta convergente se tale è una serie di numeri ordinatamente maggiori dei suoi
addendi. In tal caso, anzi, la convergenza risulta assoluta e uniforme, e ciò permette di inferire utili conseguenze
quali, per esempio, l’esistenza dei prodotti fra serie di operatori:

= ∞
=
dati A := Ak e B := Bk entrambi in L(V)
k=0 k=0

= ∞ =
=
esiste C ∈ L(V) tale che C := A B := Ck := Aj Cl .
k=0 k=0 j+l=k

Ciò è quanto accade nel caso in esame. Essendo V a dimensione finita,


? m ? gli operatori in L(V) sono limitati, ed
m m
esiste un numero reale τ < ∞ tale che τ = ∥T ∥ . Risulta pertanto ? Tm! ? = m! 1 1
∥T m ∥ ≤ m! ∥T ∥ = τm! la cui
serie ha notoriamente somma finita il cui valore è exp(τ ).
Si garantisce cosı̀ l’esistenza in L(V) della somma della serie
=∞
T Tm
e :=
n=0
m!

Note di Sistemi Dinamici


98 Capitolo 2. Sistemi differenziali lineari

e di questa si indicherà con eT la matrice che la rappresenta nella stessa base nella quale T ha matrice T .

N.B. 2.2.1 Per controllo, si può anche operare direttamente sulle matrici:

Proposizione 2.2.1 Siano A, B, C, P matrici reali (n× n) e P non singolare. Se B = P A P −1 allora esiste

=∞ =∞
Bm Am −1
eB := =P P =: P eA P −1 ,
m=0
m! m=0
m!

qualora almeno una delle due serie converga in L(Rn ).

Dimostrazione P (A + C)P −1 = P A P −1 + P CP −1 , e inoltre P Ak P −1 = (P A P −1 )k . L’uniforme


convergenza implica

=∞ =∞ =∞
1 m −1 1 1 m
P eA P −1 = P ( A )P = (P A P −1 )m = B = eB .
m=0
m! m=0
m! m=0
m! "

Corollario 2.2.1 Ciò conferma che le precedenti definizioni sono ben date e indipendenti dalla base: se in una
certa base T ed eT sono rappresentati dalle matrici T ed eT , al cambio di base la trasformata della matrice
esponenziale è la matrice esponenziale della trasformata.

È opportuno poi verificare direttamente che l’operatore eT cosı̀ definito abbia tutte le proprietà necessarie
a poter essere l’evolutore dell’equazione ẋ = T x. In particolare, sugli operatori eT si assicurano le seguenti
proprietà.

Proposizione 2.2.2 Se due operatori A, B ∈ L(V) “commutano”, e cioè se AB = BA allora si ha che

eB ◦ eA = eA+B

Dimostrazione Stante l’assoluta convergenza si ha che


) * ) *
1 1
1I + A + A2 + . . . · 1I + B + B 2 + . . . =
2! 2!
) *
1 2 1 2
= 1I + (A + B) + A + AB + B + . . . . "
2! 2!

Corollario 2.2.2
etT · eτ T = e(t+τ )T , t, τ ∈ R, T ∈ L(V) .

Corollario 2.2.3
) * =∞
tT 1 hT 1
lim e (e − 1I ) = etT lim T T m−1 hm−1 ;
h→0 h h→0
m=1
m!

e siccome la serie a secondo membro è certo (assolutamente) convergente in quanto limitata da ehT , si possono inver-
tire il limite e la somma ottenendo per la serie il valore 1I , che dimostra la: d/dt(eT t ) = T eT t . Alternativamente
si può sfruttare l’assoluta convergenza delle

=∞ =∞
d 1 1
T m tm = T T m−1 tm−1 .
m=0
dt m! m=1
(m − 1)!

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 99

Riassumendo
C∞ si è mprovato che: fissato comunque T ∈ L(V) l’operatore eT t esiste, è ottenibile come somma
m
della serie: m=0 T t /m!, è elemento di un gruppo a un parametro di operatori lineari, ed è tale che

d Tt d ''
(e ) = T eT t o anche ' (eT t ) = T .
dt dt t=0

Ciò conclude il problema della risoluzione di un qualunque sistema di equazioni lineari a coefficienti costanti.
Rimane da risolvere quello di scrivere la matrice esponenziale di un dato operatore in almeno una base, magari
scelta convenientemente.
Esempio 2.2.2 Se esiste una
@ base {ϵi }i=1,...,n
A = {Pei }i=1,...,n rispetto alla quale l’operatore T è diagonale (reale)
λ1 0
e quindi ha matrice Λ = .. , e cioè se T ha un sistema di autovettori {ϵ1 , . . . , ϵn } sufficientemente
.
0 λn
ricco da essere V = span {ϵ1 , . . . , ϵn } allora è chiaro, per la definizione appena data e l’osservazione: T ϵ = λϵ ⇒
T k ϵ = λk ϵ , che eT ha matrice in quella base data da
@ λ1 A
e 0
Λ
e = . ..
0 eλn
e questo conferma la definizione formale data precedentemente. #

Nel seguito sarà assai utile la seguente estensione di tale proprietà.


Nota 2.2.1 Si osservi dapprima che se una matrice (quadrata) T è diagonale a blocchi:
⎛ ⎞
.. (
⎜ T1 . 0⎟ T1 = n1 × n1
T = ⎝· · · · · ·⎠ con
.. T2 = (n − n1 ) × (n − n1 )
0 . T 2

allora essa è tale da conservare invarianti i due sottospazi W1 = span {e1 , . . . , en1 } e W2 = span {en1 +1 , . . . , en } .
Infatti scomponendo il generico vettore x mediante la
) * ) * ) * =n1 =n
x1 x1 0
x= = + , con x1 = xi ei , x2 = xi ei ,
x2 0 x2
i=1 i=n1 +1

si vede facilmente che ) * ) * ) * ) *


x1 T1 x 1 0 0
T = ed T = .
0 0 x2 T2 x 2
Ne segue in particolare che
⎛ ⎞ ⎛ ⎞
.. k
..
⎜ T1 . 0⎟ ⎜ T1 . 0⎟
T = ⎝· · · · · ·⎠ implica T k = ⎝· · · · · ·⎠
.. ..
0 . T2 0 . T2k
e quindi, siccome un sottospazio è un sottoinsieme chiuso dello spazio che lo ospita, ed è completo se anche questo
lo è, si ha anche ⎛ ⎞
T1
..
⎜ e . 0 ⎟
eT = ⎝ · · · · · ·⎠
.. T
0 . e 2
L’essere W1 e W2 complementari in V e separatamente invarianti non solo rispetto ad T ma anche rispetto
ad eT (o,meglio, rispetto a T e ad eT ))permette * poi
) di * riconoscere che un’analoga scomposizione dell’arbitrario
x 1 |0 0
dato iniziale x0 nei suoi due addendi e assicura che l’evoluzione di x0 sarà, in ogni istante
0 x 2 |0
) Tt * ) *
e 1 x1 |0 0
e univocamente, decomponibile nei suoi due addendi e . La diagonalizzazione, anche
0 eT2 t x2 |0
parziale, dell’operatore T potrà allora essere risolta a passi successivi cercandone (se esistono) in cascata i sottospazi
invarianti, e la determinazione della matrice eT t potrà avvenire per blocchi cercandone l’espressione più conveniente
in ciascuno dei suoi sottospazi complementari e invarianti. (In ultima analisi, questa proprietà verrà anche sfruttata
per garantire che, in C Rn , un operatore reale conserva invarianti i sottospazi costruiti sulle sole parti reali e parti
puramente complesse dei vettori sui quali esso opera). ◃

Note di Sistemi Dinamici


100 Capitolo 2. Sistemi differenziali lineari

In taluni casi (si veda per esempio la Nota 2.2.7 più oltre) non è nemmeno necessario eseguire il calcolo in tutti
i suoi dettagli. Può essere infatti sufficiente fare uso della seguente osservazione che si limita a sfruttare l’esistenza
dei singoli sottospazi e le proprietà che l’operatore ha in essi e che non dipendono dalla particolare (sotto)-base
scelta nei sottospazi in questione.
Osservazione
Riconosciuta l’esistenza di (due) sottospazi W1 e W2 tali che V = W1 ⊕ W2 e invarianti rispetto a un operatore
T , e detta P∼ la e -matrice dell’operatore P∼ che cambia la base data: e = {ei }i=1,...,n in una (qualsiasi)
e& = {&ei}i=1,...,n fra quelle tali che W1 = span {&e1 , . . . , e&n1 } e W2 = span {&en1+1 , . . . , e&n } , mentre la
matrice T& = P∼−1 T P∼ è certo diagonale a blocchi ciò non accade in generale anche alla matrice T . Quest’ultimo
fatto, tuttavia, non preclude la possibilità, comunque lecita, di separare un qualsiasi vettore x ∈ V, e quindi anche
x0 , nella somma
=n1 n
= n
= n
=
x1 |0 + x2 |0 := &h1 e&h +
x &h2 e&h =
x xh1 eh + xh2 eh
h=1 h=n1 +1 h=1 h=1

con xi |0 ∈ Wi i = 1, 2 , con xhi }h=1,...,n tali


le {& che le = &12
x &22
= ··· = x
x &n2 1 = 0 , e analogamente le
n1 +1 n1 +2
&1
x =x &1 = ··· = x n
&1 = 0 , e con le {xhi }h=1,...,n
legate alle {& h
xi }h=1,...,n dalla x &hi = (P∼−1 )hk xki .
In altre parole, è sempre possibile separare uno stesso vettore: x0 mediante vettori: xi |0 ∈ Wi , i = 1, 2 , e si
ha x&0 = x& 1 |0 + x
&2 |0 (nelle coordinate x
& ) ed x0 = x1 |0 + x2 |0 (nelle coordinate x). #

La Nota 2.2.1 mostra che tale separazione rimane vera anche per gli evoluti dei vettori xi |0 , che si mantengono
indipendentemente e separatamente negli spazi Wi , e ciò è vero a prescindere dalla base scelta.
) * @ T& t A
&
x (t) e 1
&
x |
In particolare, l’espressione in base e
& del vettore x(t), e cioè la 1
= &
1 0
diviene, in base e ,
&2 (t)
x e T2 t x
& 2 |0
la seguente @ & A
e T1 t 0
x(t) = P∼ x&(t) = P∼ &
P∼−1 (x1 |0 + x2 |0 ) = eT t x1 |0 + eT t x2 |0
0 e T2 t
ove xi |0 = (x1i |0 , . . . , xni |0 ), i = 1, 2 , hanno coordinate generalmente tutte non nulle sebbene, come questa
stessa espressione conferma, i due vettori x1 e x2 appartengano per ogni t rispettivamente ai (due) sottospazi
W1 e W2 . Questi sottospazi infatti sono invarianti sia rispetto all’operatore T che all’operatore G t , e ciò a
prescindere dal particolare sistema di coordinate scelto. #

Il caso che si è esaminato all’inizio del paragrafo ha Wi = span {ϵi } per i = 1, 2 , e quindi
) 1* ) 1*
P1 2 P2
x = x1 |0 + x2 |0 = ξ01 ϵ1 + ξ02 ϵ2 = ξ01 + ξ = P ξ,
P12 0 P2
2

&1 |0 = (ξ01 , 0)T ,


nella quale: P∼ ≡ P è la matrice della base propria (che quindi ha come colonne gli ϵi ), e con x
2 T
&2 |0 = (0, ξ0 ) . Infatti si ha, per esempio:
e x
) λt * ) 1*
Tt 1 Tt 1 e 1 0 −1 ϵ1
e x1 |0 = ξ0 e ϵ1 = ξ0 P P
0 eλ2 y ϵ21
) λt *) * ) 1*
e 1 0 1 ϵ
= ξ01 P = ξ01 eλ1 t 12 = eλ1 t x1 |0 .
0 eλ2 t 0 ϵ1

Corollario 2.2.1 Se un operatore T in L(V ≡ Rn≥2 ) è diagonalizzabile, la soluzione dell’equazione ẋ = T x è


esprimibile mediante la
n
=
x : t &→ x(t) = ξ0k eλk t ϵk ove ξ0k ∈ R per k = 1, . . . , n ;
k=1

le costanti {ξ0k }k=1,...,n sono le componenti del dato iniziale in base propria: ξ0 = P −1 x0 , e gli ϵk = P ek sono
gli n autovettori distinti di T . Pertanto: Wi := span{ϵi } , i = 1, . . . , n, sono gli n sottospazi invarianti nei
quali V resta diviso da T . Le {e}-componenti di x(t) sono esplicitamente date (vedi anche la (2.38) più oltre)
da ⎛ λ1 t 1 ⎞ ⎛ ⎞⎛ 1⎞
e ξ0 .. .. ξ0
7 8 . .
x(t) = P eΛ t ξ0 = P ⎝ . . . ⎠ = ⎝eλ1 t ϵ1 .. · · · .. eλn t ϵn ⎠ ⎝. . .⎠ .
eλn t ξ0n .. .. ξ0n

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 101

Ulteriore conseguenza della Osservazione


Chiamate: e := {e1 , . . . , en } la base data, ed ε := {ϵ1 , . . . , ϵn } la base propria (si supponga qui che sia reale)
dell’operatore T , si consideri una base e & := {& en } tale che:
e1 , . . . , &

W1 := span{&
e1, . . . , e&n1 } = span{ϵ1, . . . , ϵn1 }
W2 := span{&
en1 +1 , . . . , . . . , e&n } = span{ϵn1 +1 , . . . , ϵn } .

Siano T , T& e τ e -matrice, la e& -matrice, e la ε -matrice dell’operatore T . Siano inoltre:


la
P∼ l’operatore che trasforma la base e nella e & con e -matrice P∼ , (ed e & -matrice: 1I );
P l’operatore che trasforma la base e nella ε , con e -matrice P , (ed ε -matrice: 1I );
Υ l’operatore che trasforma la base e & nella ε , con e -matrice Υ, ed e & -matrice Υ &.
Sussistono le:
ϵh = P eh e&h = P∼ eh ϵh = Υ e&h ϵh = Υ ◦ P∼ e h
x=P ξ &
x = P∼ x &=Υ
x & ξ & ξ
x = Υ P∼ ξ = P∼ Υ
& = P −1 Υ P∼ , e dalla: x = P∼ x
infatti dalla Υ & = P∼ Υ &ξ = Pξ si ricava facilmente che l’operatore

P = Υ ◦ P∼ ha e -matrice: P = P∼ Υ & = Υ P∼ e verifica la Υ−1 P = P Υ & −1 = P∼ . Inoltre, dalle

T eh = (P −1 )kh T ϵk , T eh = (P∼−1 )kh T e&k ,

e dalle
T eh = Thj ej , T ϵh = τ jh ϵj , T e&h = T&hj e&j ,
si ricavano le: 0 1
T = P τ P −1 = P∼ T& P∼−1 = P∼ Υ& τ Υ
& −1 P −1 .

Il fatto che l’operatore Υ trasformi le due sotto basi {ϵ1 , . . . , ϵn1 } , {ϵn1 +1 , . . . , ϵn } separatamente in altre due
sottobasi: {& e1 , . . . , e&n1 } e {& en1 +1 , . . . , e&n } degli stessi due sottospazi invarianti W1 e W2 rispettivamente fa sı̀
che la matrice Υ τ Υ
& & −1
sia anch’essa diagonale a blocchi.

Corollario 2.2.2 La matrice dell’operatore di evoluzione di un operatore T diagonalizzabile (nello spazio reale), e
quindi tale che τ ≡ Λ, può essere scritta come segue
@ & A
0 1 e T1 t 0
Λt
P e P −1 &
= P∼ Υ e Υ Λt & −1 −1
P∼ = P∼ P∼−1 .
&
0 e T2 t

ciò mostra ulteriormente che gli xi |0 , i = 1, 2 definiti come sopra, restano separatamente confinati nei due
sottospazi W1 e W2 .

Per mettere in atto quanto detto sopra, estenderlo al caso degli autovettori complessi, e rendersi conto di come
determinare la trasformazione di coordinate ottimale alla risoluzione del problema, verrà qui nuovamente usato
come esempio pilota il caso dim = 2 .
Esempio 2.2.4 Del sistema ẋ = T x si cercano soluzioni particolari del tipo: ! ϵ(t) = ξ(t)ϵ , con ξ(t) ∈ R. Per la
nota proprietà delle equazioni lineari scalari tali soluzioni dovranno necessariamente essere della forma

ϵ(t) = eλt!
ϵ : t &→ !
! ϵ(0) =: eλt ϵ, λ ∈ R, ϵ∈V, (2.35)

e quindi ) 1 * ) λt 1 * ) λt 1 *
!
ϵ (t) e !
ϵ (0) e ϵ
ϵ!(t) = eλt ϵ!(0) =: eλt ϵ o anche = λt 2 =: λt 2 .
ϵ2 (t)
! e !
ϵ (0) e ϵ
Qualunque sia il sistema di coordinate (e cioè la base e = (e1 , e2 )) adottato, una tale soluzione è rappresentata
da un vettore ϵ!(t) che evolve in R2 rimanendo in ogni istante parallelo al vettore ϵ!(0) = ϵ; in particolare esso
risulta identicamente parallelo alla sua velocità, e cioè al suo T -trasformato. In altre parole, si hanno soluzioni di
questo tipo se e solo se lo scalare λ e il vettore ϵ sono legati dall’equazione
) 1*
ϵ
(T − λ1I ) 2 = 0 ovvero ϵ ∈ Ker (T − λ1I )
ϵ

e quindi si avranno soluzioni non banali se e solo se Ker (T − λ1I ) ̸= {0} .

Note di Sistemi Dinamici


102 Capitolo 2. Sistemi differenziali lineari

Dovrà allora essere

Det (T − λ1I ) = λ2 − (a + d)λ + (ad − bc) =: λ2 − T r λ + Det = 0,

ove: T r := traccia di T , e Det := Det T . Seguono


T
Tr T r2 10 √ 1
λ1,2 = ± − Det =: Tr ± ∆ , (2.36)
2 4 2
e queste, (che nel seguito verranno regolarmente numerate in modo che sia ℜe λ1 ≤ ℜe λ2 ), risulteranno indipen-
denti dalla particolare scelta della base giacché Det (P −1 T P ) = Det T .

I risultati del precedente esempio possono essere usati come guida per la loro generalizzazione al caso n dimen-
sionale. A tale scopo, si ponga ∆ := T r2 − 4Det. Nel piano (T r, Det) la curva ∆ = 0 è dimensioni ovviamente
una parabola. A seconda dei valori dei suoi parametri, l’operatore T appartiene a una delle dieci zone indicate in
figura
Det

¢ 0
¢ =0
¢<

>0
IIIs VI IIIi

IIs Vs Vi IIi
IVs IVi Tr

Zona I (
λ1 < 0
Sia Det < 0 e quindi ∆ > 0 . Si hanno due radici reali distinte:
λ2 > 0.
L’operatore T ammette due autospazi distinti e non vuoti: span(ϵi ), i = 1, 2 , individuati dai due corrispondenti
autovettori ϵ1 ed ϵ2 che, essendo fra loro non linearmente dipendenti, possono formare una base nello spazio delle
fasi V, attualmente identificato con R2 , e permettono di concludere che (singolarmente) span(ϵi ) = Ker(T −λi 1I ),
i = 1, 2 .
N.B. 2.2.5 Il risultato che si è visto nell’Esempio 2.0 si estende anche a sistemi di dimensione n ≥ 2 purché
tutti gli autovalori {λ1 , λ2 , . . . , λn } dell’operatore T siano reali e distinti. Questa è infatti condizione sufficiente
(non necessaria) affinché gli autovettori di T formino una base in V: se un autovettore & ϵ , corrispondente a
&
un autovalore λ , fosse combinazione lineare di altri k < n autovettori, fraCloro indipendenti e corrispondenti
ad autovalori λ1 , . . . , λk tutti diversi da λ & , si avrebbe (T − λ1
& I )& & i , e ciò contraddice
ϵ = 0 = ki=1 ci (λi − λ)ϵ
l’indipendenza lineare dei k vettori {ϵ1 }i=1,...,k . Se ne deduce che un operatore reale Xn con tutti gli autovalori reali
distinti è diagonalizzabile, e ha Ker(T − λi 1I ) = span(ϵi ), i = 1, . . . , n, e V = i=1 (Ker(T − λi 1I )) . ♦

Giacché gli autovettori di T sono abbastanza numerosi da formare una base in V, la matrice P definita da tali
i
autovettori mediante la: ϵh =: Peh ≡ Phi ei , e cioè la matrice Phi := (ϵh ) , può individuare una trasformazione di
−1
coordinate (lineare, indipendente dal tempo) ξ := P x. Le ξ sono le componenti in base {ϵh }h=1,2 di quel vettore
che in base {ej }j=1,2 ha componenti x. Ad esempio la k -esima ϵ -coordinata del versore ϵh vale (P −1 )ki Phi = δhk .
N.B. 2.2.6 Nel seguito di questo capitolo non si userà alcuna struttura euclidea sullo spazio vettoriale, e i vettori di base non verranno
di conseguenza normalizzati. Tutti i risultati saranno validi a meno di una trasformazione omogenea della base che si intende fissata,
seppure in modo arbitrario. In tal senso si parlerà “degli n autovettori di T ” invece che: “di n , indipendenti, degli autovettori
di T ” (si veda il successivo N.B. 2.2.8). Inoltre, le componenti dei vettori saranno numerate mediante un esponente variabile in
{1, 2, . . . , n} , con n = dim V , e qualora ripetute (e senza parentesi) in una stessa espressione sottintendono l’operazione di somma
(righe per colonne). I deponenti invece sono degli ordinali per i vettori o per i loro coefficienti, mentre il deponente 0 indica il valore
relativo al dato iniziale. In tal senso una espressione del tipo x1 |0 indica il vettore numerico di componenti (x11 |0 , x21 |0 , . . . , xn
1 |0 ) ed
esprime il valore x1 (t0 ) dato al vettore x1 all’istante t0 . ♦

Si osservi che come versori della nuova base sono stati scelti proprio gli autovettori di T , dunque la matrice
nella quale la base {ϵ1 , ϵ2 } trasforma la T secondo l’espressione τ := P −1 T P è diagonale per costruzione:

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 103
) *
λ1 0
τ := Λ =
0 λ2
. In tal modo, l’equivalente equazione diviene (nel caso dim V = 2 )

) ) * ) ** ) * ) 1*
1 1 2 0 λ1 0 ξ
ξ̇ = Λ ξ = Λ ξ +ξ = ,
0 1 0 λ2 ξ2

e siccome questa fornisce un sistema di 2 = dim V equazioni disaccoppiate, se ne conclude che le ε -coordinate ξ
evolvono secondo le (non sommare su h)

ξ h (t) = ξ0h eλ(h) t h = 1, 2 .

N.B. 2.2.7 (si veda: Appendice A.4 N.B.1.4.15)


Una trasformazione di coordinate lineare, come quella qui usata: ξ = ϕ(x) = P −1 x, ha ∂ϕ ≡ P −1 . Pertanto
il campo lineare v(x) = T x si trasforma nel campo ν(ξ) = ∂ϕ v ◦ ϕ−1 (ξ) = P −1 T P ξ = τ ξ entrambi
corrispondenti al campo T x.
Resta cosı̀ provato che l’equazione ξ̇ = τ ξ con τ := P −1 T P è equivalente, data l’invertibilità della P ,
all’equazione ẋ = T x. ♦

) *
λ1 0
Con l’ipotesi che la matrice τ sia diagonale: τ ≡Λ=
0 λ2
risulta facile esprimere l’evoluzione delle
coordinate iniziali x0 = P ξ0 :
) 1 * ) 1 * ) λ t 1* ) 1*
x (t) ξ (t) e 1 ξ0 Λt ξ0
=P =P = Pe ,
x2 (t) ξ 2 (t) eλ2 t ξ02 ξ02
) λt *
Λt e 1 0
ove si è posto e := . Si ha in definitiva
0 eλ2 t

x(t) = P ξ(t) = P eΛt P −1 x0 =: Ψ(t)x0 . (2.37)

Da questa espressione si vede chiaramente che, in generale, ciascuna delle componenti x1 (t) e x2 (t) contiene sia
entrambe le componenti del dato iniziale x10 ed x20 , sia entrambe le funzioni eλ1 t ed eλ2 t che costituiscono
l’evolutore G t ≡ Ψ(t). Invece, per costruzione, ciò non accade alle componenti ξ 1 (t) e ξ 2 (t), ciascuna delle quali
contenente solo i corrispondenti ξ01 o ξ02 , ed eλ1 t o eλ2 t , rispettivamente.
Il caso n-dimensionale con tutti gli autovalori reali distinti è analogo: detta P la matrice le cui colonne sono
gli autovettori di T : Pji := (ϵj )i , si ha
@ A
eλ1 t 0
x(t) = P e P Λt −1
x0 con: e Λt
= .. . (2.38)
.
0 eλn t

L’arbitrarietà del vettore x0 implica che la (2.38) rappresenta, in coordinate e quando tutte le radici del-
l’equazione secolare sono reali distinte, la soluzione generale t &→ φ(t, 0, x0 ) ≡ x(t) = G t x0 , dell’equazione
(2.27).
N.B. 2.2.8 Come si è già accennato, la matrice T determina univocamente i numeri {λi }i=1,...,n (si suppongano
distinti fra loro) ma non univocamente la matrice P . Essa però determina univocamente la matrice Ψ(t) :=
P eΛt P −1 che esprime nelle coordinate assegnate l’operatore di evoluzione. Infatti se invece di scegliere un insieme
di autovettori {ϵi }i=1,...,n se ne fosse scelto un altro: {&
ϵi := k(i) ϵi }i=1,...,n , (non sommare su i ), si sarebbe trovato
& Λt &
che la matrice P∼ tale che x(t) = P∼ ξ(t) = P∼ e ξ0 = P∼ eΛt P∼−1 x0 ha la forma
@ A
k1
P∼ := P K := P . .. ,
kn

infatti eΛt è diagonale sia in base {ϵi }i=1,...n che in base {&
ϵi }i=1,...n . Pertanto si ha nuovamente

&
Ψ(t) = P∼ eΛt P∼−1 = P KeΛt K −1 P −1 = P eΛt P −1 = Ψ(t).

D’altra parte è noto che se più autovettori linearmente indipendenti corrispondono a uno stesso autovalore,
risultano autovettori ad esso corrispondenti anche tutte le loro combinazioni lineari, e viceversa. ♦

Note di Sistemi Dinamici


104 Capitolo 2. Sistemi differenziali lineari

Si osservi ora che la matrice


@ A ⎛ ⎞
ϵ11 eλ1 t ϵ12 eλ2 t ..
Φ(t) := P eΛt = .. = ⎝eλ1 t ϵ1 .. eλ2 t ϵ2 ⎠
ϵ21 eλ1 t . ϵ22 eλ2 t .
.
9 :
ha per colonne i vettori (di funzioni) ϵ!i : t &→ ϵ!i (t) = eλi t ϵ!i i=1,2 (si veda la (2.35)) essi stessi soluzioni della
(2.26) in quanto evoluti (paralleli) degli autovettori ϵ1 , ϵ2 . Di conseguenza, come si è visto, il vettore x(t) resta
espresso dalla somma
x(t) = P eΛt ξ0 = ξ01 eλ1 t ϵ1 + ξ02 eλ2 t ϵ2 = ξ01 ϵ!1 (t) + ξ02 ϵ!2 (t)
e questa mostra che i due vettori {! ϵi ( · )}i=1,2 rappresentati da {! ϵi ( · )}i=1,2 formano una base nello spazio delle
soluzioni. Essa, anzi, è una base ben speciale: è infatti costituita da vettori che evolvono rimanendo identicamente
paralleli a se stessi (si veda la (2.35)).
In modo analogo, si nota che le colonne della matrice
@ A@ A−1
1 λ1 t 1 λ2 t 1 1
ϵ 1 e . ϵ 2 e ϵ 1 . ϵ 2
Ψ(t) := P eΛt P −1 = 2 λ1 t .. 2 λ2 t .
ϵ1 e ϵ2 e ϵ21 . ϵ22
) * ) *
1 0
sono formate dagli evoluti {! ei (t)}i=1,2 delle particolari condizioni iniziali , e quindi dei vettori
0 1
e1 ed e2 .
Stante il fatto che P ed eΛt hanno rango massimo, tali vettori rimangono linearmente indipendenti in ogni
istante se tali sono stati all’istante iniziale, ed è Det Ψ(t) = Det eΛt = e(λ1 +λ2 )t ̸= 0 per qualsiasi t. D’altronde
l’indipendenza lineare per ogni t delle colonne della Ψ(t) è un’immediata conseguenza del teorema di unicità della
soluzione di (2.26). Sono però solo gli {! ϵi (t)}i=1,2 che, durante l’evoluzione, mantengono il parallelismo con i loro
dati iniziali.
Queste considerazioni permettono di considerare conclusa la determinazione di una matrice per eT qualora
l’operatore T sia diagonalizzabile in Rn , anche se con autovalori molteplici. Inoltre, e sempre in tal caso, permette
di riconoscere esplicitamente nell’operatore di evoluzione G t le caratteristiche di operatore esponenziale del suo
generatore T , attribuendogli inoltre nella base data la forma esplicita

Ψ(t, t0 ) ≡ Ψ(t − t0 , 0) = eT (t−t0 ) = P eΛ(t−t0 ) P −1 , t0 arbitrario in R


ove {ϵi =: Pei }i=1,...,n sono gli n autovettori reali indipendenti di T .

È ormai agevole concludere lo studio della prima delle zone considerate all’inizio del paragrafo per il caso
dimV = 2 , e cioè Det < 0, ∆ > 0 . Per disegnare il diagramma di fase si osserva che essendo ) 1P invertibile
* ) λ tesso *
ξ (t) e 1 ξ01
trasforma spazi trasversali in spazi trasversali, e quindi trasforma il diagramma standard di =
ξ 2 (t) eλ2 t ξ02
) 1 *
x (t)
in quello (omeo- e anzi diffeo-morfo) delle senza mutarne le caratteristiche topologiche. Il diagramma
x2 (t)
quindi consiste in quattro semirette distinte uscenti dall’origine, e in tutte le traiettorie che sono deformazioni
(lineari) dei semi-archi di iperboli
) 2 *k
ξ 1 (t) ξ (t) λ1
= , k := <0;
ξ01 ξ02 λ2
secondo quanto si è detto nel § II.3 un punto di equilibrio di questo tipo è un esempio di Sella standard.
²2
x = P»
e2 ²2

e1
²1

²1

Esempio 2.2.9 Discutere la linearizzata del pendolo fisico conservativo:


q̈ = − sin q, (q0 , q̇0 ) ∈ T × R ,

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 105

nell’intorno del punto (π, 0). (


) *
ẋ = y x0
L’equazione equivale alla: ∈ R2 ; pertanto la sua la linearizzata nel punto xe = (π, 0)
ẏ = − sin x y0
è *' ) ) *
0 1 '' 0 1
∂v(xe , ye ) = T =
− cos x 0 'x 1 0
e
) *
r
Segue λ2 = 1 e cioè λ1,2 = ±1 da cui, detto ϵ ≡ ∈ R2 , si ha
s
) *) * ) * ) * ) *
0 1 r1 r1 s1 r
=− =⇒ =− 1 =⇒ r1 = −s1
1 0 s1 s1 r1 s1
) *) * ) * ) * ) *
0 1 r2 r s2 r
=+ 2 =⇒ =+ 2 =⇒ r2 = +s2 ;
1 0 s2 s2 r2 s2

quindi in un intorno di (π, 0) si ha il seguente diagramma, come d’altronde già visto nel Cap.II.
x

#
( ) *
ẋ = x + y x0
Esempio 2.2.10 ∈ R2 ,
ẏ = 4x − 2y y0
) *
1 1
T = , λ2 − (−1)λ + (−2 − 4) = 0 =⇒ λ1,2 = (−3; 2).
4 −2
) *
r
Ancora con la notazione ϵ ≡ , si ha
s
) * ) *
1 1
r1 + s1 = −3r1 =⇒ ϵ1 = , r2 + s2 = 2r2 =⇒ ϵ2 =
−4 1

da cui ) *
) −3t *
1 1 e 0 Λt
P = , e = ,
−4 1 0 e2t
) * ) −3t *
.. λ2 t e e2t
Λt
P e = eλ1 t ϵ1
. e ϵ2 = ;
−4e−3t e2t
) * ) * ) *
ξ0 ξ0 x0
e quest’ultima viene applicata sul vettore soluzione di P = . #
η0 η0 y0

Esempio 2.2.11 ⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞
ẋ 1 0 0 x x0
⎝ẏ ⎠ = ⎝1 2 0 ⎠ ⎝y ⎠ , ⎝ y 0 ⎠ ∈ R3 .
ż 1 0 −1 z z0
Si trovano λ1,2,3 = 1, 2, −1 . Poi, dalla seconda colonna segue ϵ2 = e2 e dalla terza ϵ3 = e3 . Per determinare
ϵ1 si ha ⎧ ⎛ ⎞

⎨ x=x 2
x + 2y = y e questa dà ϵ1 = ⎝−2⎠ .


x−z =z 1

Note di Sistemi Dinamici


106 Capitolo 2. Sistemi differenziali lineari

Infine, è conveniente chiamare ξ0 , η0 , ζ0 le tre componenti in base propria del dato iniziale, e usare la
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
ξ0 2ξ0 x0 2 0 0
P ⎝η0 ⎠ = ⎝−2ξ0 + η0 ⎠ = ⎝ y0 ⎠ per ricavare P −1 = ⎝−2 1 0 ⎠ .
ζ0 ξ0 + ζ0 z0 1 0 −1
#

Zone IIi e IIs


L’operatore T di campo dell’equazione √ (2.26) abbia Det > 0 e ancora ∆ > 0 . Ne seguono, anche in questo caso,
autovalori reali distinti: λ1,2 = 12 (T r ± ∆). Essi però hanno ora lo stesso segno, e cioè quello della traccia che è
2
8 > 0 ⇒ T r = ∆ + 4Det > ∆ > 0 . I due autospazi individuati dai due autovettori ϵ1 ed
non nulla.7 Infatti Det
ϵ2 : Ker T − λ(i) 1I , i = 1, 2 , sono anche in questo caso certamente non coincidenti, e pertanto formano una
base nello spazio V. Tutte le considerazioni fatte per il caso precedente rimangono valide nel caso Y attuale salvo la
forma delle traiettorie. Nella base propria esse sono date, oltre che dalle quattro semirette ξ01 ξ02 = 0 , dai rami
delle “parabole”
) 2 *k
ξ1 ξ λ1
= , k := > 0,
ξ01 ξ02 λ2
che ovviamente passano per l’origine e che in essa risultano tangenti all’asse ϵ1 (o ϵ2 ) qualora sia k < 1 (o,
rispettivamente, k > 1 ), e quindi

λ1 + λ2 = T r > 0 in IIi ⇒ 0 < λ1 < λ2 ⇒ tangenza lungo ϵ1


λ1 + λ2 = T r < 0 in IIs ⇒ λ1 < λ2 < 0 ⇒ tangenza lungo ϵ2 ;

la tangenza cioè si ha lungo l’autovettore corrispondente all’autovalore di minimo modulo. Un punto di equilibrio
di questo tipo si chiama
Nodo stabile se ℜe λ < 0 e Nodo instabile se ℜe λ > 0;
e non può presentarsi in sistemi che siano conservativi (si veda oltre).
²1 e2

²2 e1
²2

²1
Esempio 2.2.12 L’oscillatore lineare fortemente smorzato:

ẍ + k ẋ + x = 0, (x0 , ẋ0 ) ∈ R2
) * ) *) * ) *
ẋ 0 1 x x0
equivalente a = , ∈ R2 .
ẏ −1 −k y y0
1
L’equazione λ2 − (−k)λ + 1 = 0) fornisce
* ∆ =)k 2 −* 4 > 0 se |k| > 2 . Sia, per esempio, k = 3 + 3 . Se ne
1 3
ricava: λ1,2 = (−3; − 31 ); ϵ1 = , ϵ2 = e quindi
−3 −1
) * ) * ) * ) * ) −3t * ) 1*
x x0 x 1 3 e 0 c
= P eΛt P −1 ⇒ = .
y y0 ẋ −3 −1 0 e−t/3 c2

Dal diagramma di fase si vede subito che l’oscillatore fortemente smorzato ha al più una inversione di moto.
Si può anche osservare che le seconde componenti dei versori di base {ϵi }i=1,2 sono λi -volte le prime (cosa
questa già accaduta nell’Esempio 2.2 e che dipende dalla provenienza del sistema da una equazione di ordine
superiore).
È facile riconoscere che lo stesso diagramma di fase si ottiene per la soluzione locale nell’intorno della posizione
di equilibrio (stabile) di un pendolo fisico fortemente smorzato. #

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 107

Zone IIIi e IIIs


L’operatore T di campo dell’equazione (2.26) abbia ancora Traccia non nulla, ma ora sia ∆ < 0 , e quindi Det > 0 .
Ne seguono due autovalori complessi coniugati:
( ⎧
µ : = α + iβ ⎨ β : = 1 √−∆ = /Det − T r2 /4 > 0
con 2
µ̄ : = α − iβ ⎩
α : = T r/2 ̸= 0 ,

e quindi T non ha autovettori in V ≡ R2 .


Siano C T e C V i complessificati di T e di V rispettivamente, (si veda il successivo N.B.2.2.13 oppure l’Appendice
A.8). Siano ϵµ ed ϵµ̄ ≡ ϵ̄µ i due autovettori di C T ∈ L(C V), senz’altro C-linearmente indipendenti e fra loro
complessi coniugati, che corrispondono in C V ai due autovalori µ e µ̄ . Sia P∼ ∈ L(V) l’operatore che trasforma
i vettori della base e = {e1 , e2 } nei due vettori {xµ , yµ } , restrizione allo spazio reale V dei loro due complessificati
definiti da
1 i
xµ := (ϵµ + ϵ̄µ ) ed yµ := (ϵµ − ϵ̄µ ) . (2.39)
2 2
La e -matrice di P∼ è data da
) * ) *
.. ..
P∼ := xµ . yµ := ℜe ϵµ . − ℑm ϵµ . (2.40)

I vettori xµ e yµ sono in V, e di certo linearmente indipendenti e reali giacché β ̸= 0 . Data la loro indipendenza
lineare, e cioè dato che P∼ è non singolare, la coppia {xµ , yµ } può essere assunta come base: e & nel piano
V := R- span{xµ , yµ } . In tal modo un vettore x le cui e -componenti sono (x , x ) avrà e -componenti date da
1 2 &
)µ * ) 1*
ξ& x
:= P∼−1 . Il sistema coniugato dell’iniziale sistema (2.26) è allora
η& x2
) * ) * ) *
d ξ& −1 ξ& & ξ&
:= P∼ T P∼ =T (2.41)
dt η& η& η&

ed è anche ) *
α −β
T& = ΥΛ
& Υ& −1 = = Rµ
β α

ove, indicando con C


e& ≡ { C
xµ , C yµ } la base complessificata della e
& ≡ {xµ , yµ } , si hanno le
) *
& la e & =
& -matrice Υ 1 1
Υ dell’operatore Υ tale che: {ϵµ , ϵ̄µ } = Υ {C xµ , C yµ } ,
−i +i
) *
α −β
T& la e
& -matrice (reale) di C T : T& = ,
β α
) * ) *
µ 0 α + iβ 0
Λ la ε -matrice: Λ=
0 µ̄
=
0 α − iβ
di C T ,

T la e -matrice (reale) di T : & ΛΥ


T = P ΛP −1 = P∼ Υ & −1 P∼−1 ,

N.B. 2.2.13 Infatti: le (ξ, & η&), se considerate numeri complessi a parte immaginaria nulla, sono anche le com-
ponenti (reali) nella base e ≡ {(1 + i0)xµ , (1 + i0)yµ } ⊂ C V del vettore reale x ≡ x + i0 ∈ C V che in base
C &

e := {(1 + i0)e1, (1 + i0)e2 } ⊂ C V ha componenti (x1 , x2 ) ∈ C2 . Inoltre, stante la definizione (2.39) dei due
C &

vettori xµ e yµ , esistono:
Υ invertibile, tale che ε ≡ {ϵµ , ϵ̄µ } = Υ C {xµ , yµ } ≡ ΥC e
& , con e & ed e -matrice Υ = P∼ ΥP
& -matrice Υ & −1 ;

P invertibile, tale che {ϵµ , ϵ̄µ } = P {e1 , e2 } con e -matrice: P ;
C

P∼ invertibile, tale che {xµ , yµ } = P∼ {e1 , e2 } con e e C e -matrice: P∼ .


Pertanto

• P = Υ ◦ P∼ ha e ed C
e -matrice P &
= Υ P∼ = P∼ Υ;

Note di Sistemi Dinamici


108 Capitolo 2. Sistemi differenziali lineari

• il generico vettore x ∈ C V reale, e quindi tale che x̄ = x, ammette le seguenti rappresentazioni cartesiane

& µ + η&yµ
x = C x = x1 C e1 + x2 C e2 = ξx (2.42)
1 &0 1 1 0& 1
= η ϵµ +
ξ + i& η ϵ̄µ =: ξ 1 ϵµ + ξ 2 ϵ̄µ
ξ − i& (2.43)
2 2
1 1
=: z ϵµ + z̄ ϵ̄µ ≡ ℜe (z ϵµ ) , (2.44)
2 2
e quindi tali che
ξ& = P∼−1 x = Υ
& ξ, e z ≡ ℜe z + iℑm z := ξ& + i&
η.

Si osservi che siccome la base C e ⊂ C V2 è composta da vettori reali (in quanto a parte immaginaria nulla)
un vettore x è reale se e solo se ha in essa componenti reali: x = xi C ei = x̄ = x̄i C ei e, analogamente, un
vettore y = −ȳ implica C T y = C T y ; pertanto non solo le x ma anche le ξ& sono tutte reali;

• in quanto complessificato di un operatore reale T , l’operatore C T non modifica il carattere, se puramente reale
o puramente immaginario, del vettore sul quale opera: x = x̄ implica C T x = C T x̄ ≡ C T x e, analogamente,
y = −ȳ implica C T y = −C T y ;
'
• indicato con Vµ := R- span {xµ , yµ } e detto Tµ := C T 'V si ha
µ

⎧ 1 1

⎪ Tµ xµ = C Tµ xµ = C T (ϵµ + ϵ̄µ ) = (µϵµ + µ̄ϵ̄µ )

⎪ 2 2


⎨ = + ℜe (µϵµ ) = +αxµ + βyµ

⎪ i i

⎪ Tµ yµ = C Tµ yµ = C T (ϵµ − ϵ̄µ ) = (µϵµ − µ̄ϵ̄µ )

⎪ 2 2

= − ℑm (µϵµ ) = −βxµ + αyµ .
) * ) *
µ1 0 µ 0
Ciò conferma che se una matrice τ = è del tipo particolare: Λ = (questo è quanto
0 µ2 0 µ̄
avviene nella base propria di un operatore C T reale) allora la matrice ΥΛ & Υ& −1 è reale e ha la forma
) *) *) *
& & −1 1 1 1 µ 0 1 i
ΥΛΥ =
2 −i +i 0 µ̄ 1 −i
) *) * ) *
1 1 1 µ iµ α −β
= = = T& .
2 −i +i µ̄ −iµ̄ β α

In definitiva,)l’operatore
*
C
T , che ha autovalori α±iβ e che in base C e ha matrice reale T , in base C e
& ≡ C {xµ , yµ }
α −β
ha matrice , e questa stessa matrice compete all’operatore Tµ nella base e & ≡ {xµ , yµ } . ♦
β α

Si osservi che il piano (complesso) C Vµ ≡ C- span {xµ , yµ } , coincidente con il piano C- span {ϵµ , ϵ̄µ } può essere
decomplessificato in uno spazio reale a dimensione quattro, e ha come parte reale lo spazio Vµ ≡ R- span {xµ , yµ } ,
(e come parte immaginaria iVµ ). Infatti, se un vettore ς ∈ C2 ha espressione ς = x + iy con x, y vettori
reali, e se è anche ς = z1 xµ + z2 yµ con z1 , z2 ∈ C e con xµ e yµ anch’essi reali, allora si ha necessariamente
x = (ℜe z1 )xµ + (ℜe z2 )yµ e y = (ℑm z1 )xµ + (ℑm z2 )yµ . Pertanto, chiamati z r := ℜe z1 + iℜe z2 e
z i := ℑm z1 + iℑm z2 si nota che x = ℜe (z r ϵµ ) e che y = ℜe (z i ϵµ ), e quindi che ℑm ς = ℜe (z i ϵµ ) ∈ Vµ .
Tutto ciò mostra che il sottospazio Vµ di C Vµ formato della sole parti reali dei vettori è T -invariante giacché
su di essa agisce (un operatore reale T rappresentato da) una matrice reale T& . Esso quindi contiene tutta la
dinamica reale 0la cui1 forma esplicita si ricava dalla (2.41) scrivendo nella base e & l’espressione esplicita della
α −β
& t
matrice eT t = e β α , per esempio mediante la sua stessa definizione:
@∞ ) A
0
α −β
1
t = 0 −1*k β k tk
β α αt
e =e
1 0 k!
k=0
I∞ @∞ A) *J
= 2k 2k = 2k+1 2k+1
αt k β t k β t 0 −1
=e (−1) 1I + (−1)
(2k)! (2k + 1)! 1 0
k=0 k=0

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 109

N.B. 2.2.14 Alternativamente, ci si può servire della posizione (2.44) per riconoscere nuovamente che il piano
reale Vµ è il piano dei vettori (reali) di C V aventi la forma x = 12 (zϵµ + z̄ϵ̄µ ) = ℜe (zϵµ ), con z = ξ& + i&
η ∈ C, e
si riconosce che il sistema assegnato fà evolvere le coordinate scalari complesse z(t) e z̄(t) mediante le

ż = µ z, z̄˙ = µ̄ z̄, z0 , z̄0 ∈ C1 .

In particolare, ricordando la formula di Gauss per l’esponenziale complesso, ne segue che

z(t) = eµt z0 = eαt (cos βt + i sin βt)z0 .

Da questa è agevole ottenere l’evoluzione di & µ + η&yµ = (ℜe z)xµ + (ℑm z)yµ ; essa è data da
ℜe (zϵµ ) = ξx
µt µt µt
ℜe (z(t)ϵµ ) = ℜe (e z0 ϵµ ) = ℜe (e z0 ) xµ + ℑm (e z0 ) yµ con
7 8
ℜe eµt z0 = eαt cos βt ξ&0 − eαt sin βt η&0
7 8 ♦
ℑm eµt z0 = eαt sin βt ξ&0 + eαt cos βt η&0 .
In entrambi i casi si riconosce che, nella base {xµ , yµ } , si ha
) * ) * ) *) * ) *
&
ξ(t) & ξ& cos βt − sin βt ξ&0 cos(βt + θ0 )
= eT t 0 = eαt = eαt ρ0
η&(t) η&0 sin βt cos βt η&0 sin(βt + θ0 )

o anche, in coordinate polari ρ, θ ∈ R+ × R


(
ρ(t) = ρ0 eαt ,
θ(t) = θ0 + βt .
β
Nel piano (reale) Vµ la traiettoria è allora una spirale logaritmica: θ − θ0 = α [ln ρ − ln ρ0 ] , descritta in
senso antiorario, in quanto per definizione è β > 0 . Il caso β < 0 non è interessante perché comporta solo lo
scambio µ → µ̄, e cioè solo una nuova denominazione degli assi. Interessante è invece individuare l’orientamento
di (ℜe ϵµ , −ℑm ϵµ ) rispetto alla coppia (e1 , e2 ) per capire se la trasformata secondo la P & di questa spirale
conserva il verso antiorario oppure lo inverte. A tale scopo può essere utile all’occorrenza ricordare che ciò accade
se, con notazione in R3 , rispettivamente accade

(ℜe ϵµ ∧ (−ℑm ϵµ ))3 ≡ (ℜe ϵµ )1 (−ℑm ϵµ )2 − (ℜe ϵµ )2 (−ℑm ϵµ )1 ≷ 0 .

y¹ := -= m ²¹ y¹ := -= m ²¹
²¹ ²¹

x¹:= < e ²¹ x¹:= < e ²¹

²¹ ²¹

IIIi : ®> 0 IIIs : ®< 0


Se ne deduce che l’evoluzione t &→ x(t) delle coordinate originarie è data da
) 1 * ) * ) 1* ) 1*
x (t) αt cos βt − sin βt −1 x0 R µt −1 x0
= e P∼ P∼ = P∼ e P∼ ,
x2 (t) sin βt cos βt x20 x20

con P∼ definita nella (2.40) e µ = α + iβ uno dei due autovalori dell’operatore T .


Un punto di equilibrio nel quale l’operatore T ha autovalori complessi si chiama fuoco o spirale.
N.B. 2.2.15 Si osservi che un metodo semplice per trovare la matrice P∼ consiste nel risolvere il seguente sistema
rispetto a p3 , p4 , (dato che il coefficiente b è senz’altro non nullo: si veda la Nota 2.2.4):
) *) * ) *) *
a b 1 1 1 1 α −β
=
c d p3 p4 p3 p4 β α

ricavando ( ) *
a + bp3 = α + β 1 1
da cui P∼ = .
a + bp4 = α − β (α − a + β)/b (α − a − β)/b

Note di Sistemi Dinamici


110 Capitolo 2. Sistemi differenziali lineari

Equivalentemente si può risolvere sul piano complesso la


) *) * ) * ) *
a b r r α − a + iβ
= (α + iβ) che dà s= r
c d s s b
) *
1−i
e quindi, per esempio, ϵµ = . ♦
(α − a + β)/b − i(α − a − β)/b

Nota 2.2.2 Le considerazioni fatte nel N.B. 2.2.13 sono suscettibili di estensione al caso n-dimensionale quando
gli autovalori dell’operatore reale T , siano essi reali o complessi, sono tutti distinti. Infatti secondo quanto si è
visto sopra dall’essere x reale ed {ϵµ , ϵ̄µ } complessi coniugati segue che x = x1 C e1 + x2 C e2 = ξϵµ + ξ̄ϵ̄µ e ciò
) * ) *
ξ &
implica: x =: ℜe (zϵµ ) con z := 2ξ = ξ& + i η& e con ¯ = Υ & −1 ξ . D’altra parte, ciò sussiste per ciascuna
ξ η&
coppia distinta di autovalori complessi coniugati. Ne segue che, dette µh e µ̄h , con h = 1, . . . , τ , le coppie di
autovalori complessi, e λ1 , . . . , λk , con k = 1, . . . , ν quelli reali, e quindi con ν +2τ = n, si ha la semplice relazione
ν
@ τ A
= =
k λk t h µh t
x(t) = ξ0 e ϵk + ℜe z0 e ϵµh ,
k=1 h=1
Cν 7Cτ 8
ove x0 =: k
k=1 ξ0 ϵk + ℜe h
h=1 z0 ϵµh . ◃

Nota 2.2.3 Seguendo la traccia vista nell’Esempio 2.1, il problema si sarebbe potuto anche risolvere direttamente in C V , (si veda
anche il N.B.2.2.13). Indicate con C e:= {(1)+ i0)e1 , (1 + i0)e*2 } la base data, con ε
:= {ϵµ , ϵ̄µ } la base degli autovettori di C T ,
α + iβ 0
con Ue la base {ℜe ϵµ , −ℑm ϵµ } , e con Λ =
0 α − iβ
C
la matrice di T in base ε
, per la matrice T di C T in base data
si ha, con la consueta notazione, T = P Λ P −1 , ove: ε
=P . e
Come si è già accennato sopra, l’operazione P può essere suddivisa in un prodotto di operazioni. Sia Υ l’operatore che diagonalizza
in C V l’operatore C
) T a*partire dalla e
U . Essendo l’operatore che estrae i vettori {ϵµ , ϵ̄µ } dai vettori {ℜe ϵµ , −ℑm ϵµ } , esso ha U - e
& = 1 1
matrice: Υ . L’operatore Υ−1 è allora quello che estrae la parte reale xµ e l’opposto yµ di quella immaginaria dei
−i i
) * ) *
e
versori della base U ; di conseguenza esso ha ε
-matrice: Υ & −1 = 1 i −1 = 1 1 +i .
2i i +1 2 1 −i
) * ) 1* ) *
ξ& −1 x ξ
Corrispondentemente, un vettore (reale) x , che abbia U e
-componenti (reali)
η&
= P∼
x 2 , ha anche -componenti ε ξ̄
tali
che @ A
) * ) * ) 1* ) 1*
& &
ξ
=Υ & −1 ξ = 1 ξ + i& η
; o anche
ξ
= &
Υ −1 −1 x
P ∼
ξ̄ η& 2 ξ& − i& η ξ2 x2
dato che la base ε ha i suoi versori l’uno complesso coniugato dell’altro. Pertanto è possibile porre

1 &
[ξ(ϵµ + ϵ¯µ ) + i η&(ϵµ − ϵ¯µ )] = ξ& xµ + η& yµ
x = ξϵµ + ξ̄ϵ̄µ =
2
1
=: (z ϵµ + z̄ ϵ̄µ ) ≡ ℜe (zϵµ ) ,
2
e cioè @ A @ A
0 1 ) * ) * ) *
ξ& &
ξ1
& ξ = ξ + ξ̄ ℜe z
xU = =Υ =: Υ =: ,
e η& ξ2 ξ̄ −i(ξ − ξ̄) ℑm z
7 8
provando cosı̀ che, in tal caso, ξ& ed η& sono entrambe reali. (Si badi che le ε
-componenti del vettore x sono ξ, ξ̄ ≡ (z/2, z̄/2)
&
quando si chiama z = ξ + i& &
η , essendo (ξ, η&) le U e
-componenti dello stesso vettore x . )
Allo stesso modo si ha
) *
T = P Λ P −1 = P∼ T& P∼ −1
, con T& = Υ & ΛΥ & −1 ≡ P −1 T P∼ = α −β .
∼ β α

Dunque la soluzione resta espressa da


) 1 * ) 1* ) µ t * ) *
ẋ (t) x0 & e 1 0 & −1 P −1 x10
= P eΛt P −1 = P∼ Υ Υ . (2.45)
ẋ2 (t) x20 0 eµ2 t ∼ x20

Va tenuto presente tuttavia che in tal modo si ottengono le componenti di un vettore complesso a parte immaginaria nulla, e che
occorre servirsi delle considerazioni sulla evoluzione uscente da condizioni iniziali reali, o alla invarianza separata dei due piani Vµ ed
iVµ delle parti reale e immaginaria dei vettori in C - span {ϵµ , ϵ̄µ } , per poter ritornare alla sola parte reale di C V .
In modo analogo e sfruttando il fatto che un operatore reale ha complessificato che ammette autovettori a coppie complessi coniugati,
si può diagonalizzare in C Rn un qualunque operatore semisemplice, e cioè con autovalori anche non reali purché distinti, mediante un
operatore invertibile con matrice P = P∼ Υ & con P∼ quella che manda la base {(1 + i0)eh }h=1,...,n nella {(1 + i0)ϵλ1 , . . . , (1 +
& quella che esprime in tale base la {ϵλ , . . . , ϵλ , ϵµ , ϵ̄µ , . . . , ϵ̄µτ } .
i0)ϵλk , ℜe ϵµ1 , −ℑm ϵµ1 , . . .} e con Υ ◃
1 ν 1 1

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 111
) * ) *
ẋ −2y
Esempio 2.2.18 = , x0 , y0 ∈ R.
ẏ x + 2y
) *
0 −2
Essendo T = si ha λ2 − 2λ + 2 = 0 e quindi µ1,2 = 1 ± i . Ne segue il problema agli au-
) 1 * +2
) * ) * ) * ) *
0 −2 r r r 1−i
tovettori: = (1 + i) =⇒ −2s = r + ir =⇒ = da cui P∼ =
1 +2 s s s −1
) * ) *
+1 1 0 −1
, P∼−1 = . Di conseguenza:
−1 0 1 +1
) * ) *) *) *) *
x(t) t 1 1 cos t − sin t 0 −1 x0
=e .
y(t) −1 0 sin t cos t 1 1 y0

Eseguendo il calcolo in C R2 si verifica che:


) * ) *) *
1−i 1+i & = 1 1 1 1
P = = P∼ Υ ,
−1 −1 −1 0 −i i
) *
1 i −1 + i
P −1 =
2 −i −1 − i
) * + ) it * , ) *
x(t) t & e 0 & −1 −1 x0
= e P∼ Υ Υ P∼ ,
y(t) 0 e−it y0
) * ) *
x0 ξ&
dove P∼−1 = 0 sono le componenti del vettore in base e
& e dove
y0 η&0

) * ) * ) * @ A ) *
ξ0 −1 x0 &
&
−1 ξ0 1 ξ&0 + i&
η0 1 z0
=P =Υ = =
ξ¯0 y0 η&0 2 ξ&0 − i&
η0 2 z̄0
) *
x0 + i0
sono le componenti di
y0 + i0
in base ε.
Si può controllare esplicitamente che:
) * ) * ) * @ A
1 z(t) t eit 0 & −1 ξ0
& et eit (ξ&0 + i&
η0 )
=e Υ =
2 z̄(t) 0 e−it η&0 2 e−it (ξ&0 − i& η0 )
@ A
et (cos t + i sin t)(ξ&0 + i&
η0 )
=
2 (cos(−t) + i sin(−t))(ξ&0 − i& η0 )
@ A
et ξ&0 cos t − η&0 sin t + i(ξ0 sin t + η0 cos t)
=
2 ξ&0 cos(−t) + η&0 sin(−t) + i(ξ&0 sin(−t) − η&0 cos(−t))

e che ) * ) * ) *) * ) *
ℜe z(t) 1 & z(t) cos t − sin t ξ&0 &
ξ(t)
= Υ = et =
ℑm z(t) 2 z̄(t) sin t cos t η&0 η&(t)

è la somma di due vettori reali et (ξ&0 cos t − η&0 sin t)xµ + et (ξ&0 sin t + η&0 cos t)yµ . #

Esempio 2.2.19 L’oscillatore armonico debolmente smorzato:

ẍ + k ẋ + x = 0, x0 , ẋ0 ∈ R .
)*
1 0 /
Sia |k| < 2 . Si ha T = , con autovalori µ1,2 = α ± iβ := − k2 ± i 1 − k 2 /4. Dalla equazione agli
−k −1
) * ) *
1 1 0
autovettori: s = (α + iβ)r si ricava ϵµ = , e cioè P∼ = . Pertanto, il moto lineare con
α + iβ α −β
piccola dissipazione ha un numero infinito di inversioni, infatti la (2.45) fornisce:
) * ) *) *) *) *
x(t) 1 0 cos βt − sin βt 1 0 x0
= eαt .
y(t) α −β sin βt cos βt α/β −1/β y0

Note di Sistemi Dinamici


112 Capitolo 2. Sistemi differenziali lineari


y¹ #

Nota 2.2.4 Nel caso di un problema piano, il verso di rotazione si può trovare anche nel seguente modo.
Siano x, y, r, ϕ ∈ R; la trasformazione x = r cos ϕ e y = r sin ϕ dà
) *
1 cx2 + (d − a)xy − by 2 a b
ϕ̇ = (−y ẋ + xẏ) = ove = T.
r 2 r2 c d

Dalla ∆ = T r2 − 4Det = (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc segue che se è ∆ < 0 allora è anche bc < 0 .
Siano, per esempio, b < 0 e c > 0 .
2
Per y = 0 è ϕ̇ > 0; né può annullarsi per alcun y ̸= 0 perché la condizione ϕ̇ = 0 implica la c (x/y) + (d −
a) (x/y) − b = 0 che ha discriminante (d − a)2 + 4bc < 0 . Pertanto ϕ̇ resta sempre strettamente positivo (sotto
l’ipotesi b < 0, c > 0 ) e quindi x, y cambiano segno infinite volte. ◃

Nota 2.2.5 Come si è accennato, l’intero procedimento di risoluzione avrebbe potuto trarre spunto dai risultati
visti nel Cap.I. Posto infatti, con x, y ∈ R, u := y/x, si ha xu′ = y ′ − u e la

cx + dy
y′ = =: f (x, y)
ax + by
diviene integrabile:
du dx
= .
f (1, u) − u x
Ad esempio nel caso
(
a=d=α
e cioè f (1, u) − u = (1 + u2 )/( α
β − u)
c = −b = β

α 1
si ottiene β arctan u − 2 ln(1 + u2 ) − ln x = cost ovvero

x2 + y 2 2α y
ln x2 + ln − arctan = cost,
x2 β x
e quindi
y
x2 + y 2 = cost · e2αθ/β , θ := arctan .
x
È chiaro però che in questo modo la complessità del calcolo è molto superiore, anche perché occorre tener presente
il cambio di carta ogni volta che la variabile a denominatore si annulla. ◃

Per esaurire lo studio dei diversi casi che si verificano sul sistema (2.26), al variare dei parametri T r e Det,
rimangono ancora da esaminare i casi non generici.

Zona V I
L’operatore T di campo nell’equazione (2.26), la cui matrice è T , abbia T r = 0 e ∆ < 0 ; e quindi Det > 0 .
L’operatore T ha ancora due autovalori complessi coniugati, ma ora essi hanno entrambi parte reale nulla:
(
µ := +iβ 1√ √
con β := −∆ = Det > 0 .
µ̄ := −iβ 2

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 113

Le considerazioni fatte per le Zone III rimangono valide per quanto riguarda la complessificazione e i seguenti
risultati algebrici: i due autovettori {ϵµ , ϵ̄µ } individuano il piano reale { 12 (ϵµ + ϵ̄µ ); 2i (ϵµ − ϵ̄µ )} sul quale però ora
le traiettorie non sono più trasformate lineari di spirali, bensı̀ di circonferenze concentriche nell’origine, dato che
α = ℜe µ = 0
) * ) *) *
&
ξ(t) cos βt − sin βt ξ&0
=
η&(t) sin βt cos βt η&0

Come si è detto nel § II.3 un tal punto di equilibrio si chiama centro.


(
ξ = q1 x + q2 y
Nota 2.2.6 Una trasformazione del tipo con x, y, ξ, η ∈ R e con q1 q4 − q2 q3 ̸= 0 , può
η = q3 x + q4 y
essere utile per controllare, mediante l’espressione canonica, che le trasformate lineari delle circonferenze sono ellissi.
Infatti la
ξ02 + η02 = ξ 2 + η 2 = (q12 + q32 )x2 + 2(q1 q2 + q3 q4 )xy + (q22 + q42 )y 2

individua un’ellisse poiché il suo Jacobiano vale q1 q4 − q2 q3 ̸= 0 ; e, d’altra parte,

(q1 q2 + q3 q4 )2 − (q12 + q32 )(q22 + q42 ) = −(q2 q3 − q1 q4 )2 < 0 .

Ciò è quanto accade mediante la ξ& = P& −1 x e la soluzione ξ& = ξ(t)


& che si è appena vista.
Alternativamente, in modo analogo a quanto fatto nella Nota 2.2.5, si sarebbe potuta risolvere la

dx du (u + ab )(−1)du
= c+du
= 7 8
x a+bu − u u2 − d−a b u − cb
(
a+d=0 1
che nella zona IV, e cioè con dà − ln x = 2 ln(u2 + 2 ab u − cb ) + cost ovvero:
∆<0

a c
y 2 + 2 xy − x2 = cost
b b
a2 c
e questa individua un’ellissi dato che b2 + b risulta negativo in conseguenza del fatto che la a2 = −ad fornisce
a2 + bc = −Det < 0 ◃

Conviene ricordare ancora una volta che nel caso in cui gli autovalori della matrice del campo abbiano parti
reali nulle (e immaginarie diverse da zero) la linearizzazione in generale non dà risultati attendibili sul sistema
non lineare di partenza. Talvolta però, per esempio nel caso di sistemi conservativi, l’informazione ottenuta dallo
studio del sistema lineare è sufficiente a tracciare un corretto diagramma di fase:

Esempio 2.2.23 Discutere la linearizzata del pendolo fisico conservativo:

q̈ = − sin q, (q0 , q̇0 ) ∈ T × R ,


* )
0 1
nell’intorno del punto (0, 0). Il sistema ha: ∂v(0, 0) = , e quindi, localmente, ha lo “stesso” diagramma
−1 0
2
di quello che si ottiene in modo esatto mediante la ẋ /2 − cos x = cost (si veda anche: Cap.III Esempio 5.1).
x

x = x¹

x¸1

y¹ #

Note di Sistemi Dinamici


114 Capitolo 2. Sistemi differenziali lineari

Zone IVi e IVs


Si noti innanzi tutto che in questo caso il rango della matrice T non è massimo, e quindi ci si deve aspettare un
punto di equilibrio diverso dai casi visti: in particolare si vedrà che esso non è isolato. √
Si ha T r ̸= 0 e Det = ad − bc = 0 e quindi ∆ > 0 : due radici reali distinte: λ1,2 = 12 (T r ± T r2 ) = (0; T r).
Gli autovettori si ottengono dalle due relazioni

ar1 + bs1 = 0 e ar2 + bs2 = (a + d)r2

e quindi ) *
b b
P =
−a d
certamente non singolare dato che T r = a + d ̸= 0 .
) *
d c ′
N.B. 2.2.24 Se fosse b = 0 basterebbe scambiare x ↔ y ottenendo T = mediante la quale, nell’ipotesi
) * b a
c c
c ̸= 0 , si ottiene P ′ = e i seguenti calcoli sarebbero analoghi. D’altra parte il caso b = c = 0 verrà
−d a
esaminato nelle Zone V, se a = d, oppure è già noto. ♦

Risulta evidentemente
) * ) *
1 d −b 0 0
P −1 = da cui P −1 T P =
b(a + d) a +b 0 k

ove si è posto
k := (a + d)−1 (a2 + bc + ad + d2 ) ≡ (a + d) .
Pertanto il sistema equivalente è ) * ) *
ξ̇ 0
=
η̇ kη
Le rette ξ = ξ0 , e cioè le rette dx − by = cost sono senz’altro linee che contengono traiettorie. Queste saranno
le due semirette e il punto di equilibrio individuati dalle intersezioni di queste rette con la (unica) η = 0 , ovvero la
ax + by = 0 .

d/b x
-a/b

»
#

Zone Vi e Vs
È questo il caso più difficile, sopratutto se si pensa al caso dei sistemi di dimensioni superiori a due. Nel caso
bidimensionale (2.26) si ha ∆ = 0 e l’operatore T ha autovalori (reali) coincidenti: λ1 = λ2 =: λ = T r/2 . D’altra
parte, siccome questa λ è soluzione dell’equazione Det (T − λ1I ) = 0 se ne conclude che il sistema omogeneo
(T − λ1I ) x = 0 ammette soluzioni reali non banali, e quindi che esiste in V almeno un autovettore di T : ϵ1 ∈
Ker (T − λ1I )\ {0} .
Si scelga un qualsiasi ϵ2 non parallelo a ϵ1 . Siccome si sta considerando il caso dim = 2 si avrà senz’altro

T ϵ 2 = c1 ϵ 1 + c2 ϵ 2
) *
λ c1
I due vettori {ϵ1 , ϵ2 } formano una base in V ≡ R e, rispetto a questa, l’operatore T ha matrice T =
2
. ′
0 c2
Ma il determinante dell’operatore non dipende dalla base, e quindi

λ2 = Det T = Det T ′ = λc2 ,

il che implica necessariamente c2 = λ; (il caso λ = 0 va trattato direttamente su T ′ x = 0 ).

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 115

Sottocaso 1 ϵ2 sia anch’esso autovettore di T , e cioè ϵ2 ∈ Ker (T − λ1I ) pur non essendo linearmente
dipendente da ϵ1 . Necessariamente c1 = 0 , e il Ker (T − λ1I ) coincide con tutto lo spazio delle fasi V. Inoltre
la base {ϵ1 , ϵ2 } disaccoppia le due equazioni e siccome la matrice 1I commuta con ogni altra, la matrice di T è in
questo caso diagonale in ogni base. L’uguaglianza degli autovalori fa sı̀ che il punto di equilibrio sia un particolare
nodo: e cioè una stella .
Ad esempio con λ > 0 si ha

Sottocaso 2 ϵ2 ̸∈ Ker (T − λ1I ) sebbene appartenente al Ker (T − λ1I )2 .


Infatti, rinominando eventualmente il vettore ϵ1 con c1 ϵ1 , la matrice dell’operatore T in base {ϵ1 , ϵ2 } risulta
) * ) *
λ 1 0 1
J≡ =: λ1I 2 + E2 , avendo posto E2 :=
0 λ 0 0
) * ) * ) * ) * ) *
1 1 0 0 1
e si ha: J =λ , ed J =λ + , e quindi:
0 0 1 1 0

(T − λ1I2 )ϵ1 = 0, ed (T − λ1I 2 )ϵ2 = ϵ1 .

Da queste si vede subito che

Ker (T − λ1I )2 = V mentre è Ker (T − λ1I ) ⊂ V .

In effetti si ha
ϵ2 ∈ Ker (T − λ1I )2 \Ker (T − λ1I )1
ϵ1 ∈ Ker (T − λ1I )1 \Ker (T − λ1I )0
e Ker (T − λ1I ) è l’unico sottospazio di V che sia T -invariante.
La matrice eJ t e la matrice eE2 t si calcolano agevolmente mediante la definizione stessa di esponenziale di un
operatore dopo aver osservato che E2n≥2 = 0 :
+) * ) * ,
(λ1I +E2 )t λt E2 t 1
λt 0 0 1
e = e e = e + t . (2.46)
0 1 0 0

Un’istruttiva interpretazione del comportamento di un operatore di questo tipo è fornita (si veda: [Arnold 1]), dal seguente:

Esempio 2.2.25 Sia Pn ([a, b]) lo spazio n -dimensionale dei polinomi di grado minore di n definiti su [a, b] ⊂ R :
n−1
(
= τ ∈ [a, b] ⊂ R
p = p(τ ) := p&h τ h
h=0
p h ∈ R, h = 0, . . . , n − 1 .

Una possibile base per tale spazio è ϵi }i=1,...,n := {1, τ, τ 2 , . . . , τ n−1 } .


{& Su Pn si definisca l’operatore

d
N : Pn → Pn dato da N p := p.

d
L’operatore è evidentemente lineare, ha immagine data da Pn−1 , ha un solo autovalore e un solo autovettore: p = λp ⇐⇒
( dτ
λ = 0,
Inoltre (con gli esponenti ad indicare potenze algebriche dello scalare τ ) si ha
p(τ ) = τ 0 .

Ker N ≡ span{τ 0 }
Ker N 2 ≡ span{τ 0 , τ 1 }
Ker N 3 ≡ span{τ 0 , τ 1 , τ 2 }
···
Ker N n ≡ span{τ 0 , τ 1 , . . . , τ n−1 } ≡ Pn .

Note di Sistemi Dinamici


116 Capitolo 2. Sistemi differenziali lineari

Si vede subito che la base {&


ϵi }i=1,...,n non è la più comoda per scrivere la matrice di N . risulta più agevole usare la
M Z
τ1 τ2 τ n−1
{ϵi }i=1,...,n := τ 0 , , , ..., , τ ∈R,
1! 2! (n − 1)!
infatti si ha
d τ i−1 τ i−2 d 0
N ϵi ≡ = ≡ ϵi−1 , N ϵ1 = τ =0.
dτ (i − 1)! (i − 2)! dτ
n−1
= τh
Su tale base risulta p = p(τ ) = ph ϵh ≡ ph e la matrice di N è
h=0
h!
⎛ ⎞
0 1 0 ··· 0
⎜ .. ⎟
⎜ ⎟
⎜0 0 1 0 .⎟
⎜ ⎟
En := ⎜ . .. .. ⎟ .
⎜ .. . . 0⎟
⎜ ⎟
⎝0 0 1⎠
0 0 0
#

Una matrice En avente questa struttura prende il nome di


Blocco elementare nilpotente di ordine n . Un qualunque operatore che, definito su uno spazio vettoriale V di dimensione n , abbia
rispetto a qualche base matrice data da En prende il nome di Operatore elementare nilpotente N di ordine n .
Questa proprietà viene messa chiaramente in luce dalle relazioni
N ϵn = ϵn−1
N 2 ϵn = N ϵn−1 = ϵn−2
...
N n−1 ϵn = N ϵ2 = ϵ1
N n ϵn = N ϵ1 =0
le quali implicano che la matrice (En )k che corrisponde ad N k ha la diagonale dei valori non-nulli spostata di k passi “verso Nord-Est”
rispetto alla diagonale principale, e che applicando l’operatore N a un qualunque vettore dello spazio e un numero di volte pari (al
più) al suo ordine si ottiene certamente il vettore nullo, mentre esistono certamente vettori x dello spazio per i quali N n−1 x ̸= 0
(tutti quelli che hanno xn ̸= 0 ). In particolare si ha N k ϵk = 0 per qualunque 1 ≤ k ≤ n e siccome è ϵ1 = N k−1 ϵk si riconosce anche
che ciascuno dei versori ϵk verifica la
ϵk = N n−k ϵn e quindi ϵk ∈ Ker N k \Ker N k−1 ∀k = 1, 2, . . . , n.

Più in generale, ancora con V uno spazio vettoriale di dimensione n , si chiama


Operatore nilpotente di ordine q ≤ n := un operatore Nq : V → V per il quale esistono q ∈ N e almeno un x̂ ∈ V tali che
(Nq )q−1 x̂ ̸= 0 , ma è (Nq )q x = 0 per ogni x ∈ V .
Per un qualsiasi operatore Nq nilpotente su V esiste (Teorema di Jordan) una base di V sulla quale esso ha matrice
⎛ ⎞
0 δ(1) 0 ··· 0
⎜ .. ⎟
⎜ ⎟
⎜0 0 δ(2) 0 . ⎟
⎜ ⎟
NJ := ⎜ . . . ⎟, δ(k) ∈ {0, 1}, k = 1, . . . , n − 1 .
⎜ .. .. ..
0 ⎟
⎜ ⎟
⎝0 0 δ(n−1) ⎠
0 0 0
Il numero q coincide con il massimo numero degli elementi δ(k) non nulli e adiacenti fra loro, e cioè con la dimensione del più grosso
blocco elementare nilpotente contenuto in NJ . Posto infatti (NJ )ij = δj−1
i δj−1 (con δji il simbolo di Kronecker, e non sommare su
j − 1 ), si ricava sommando su h e non su j :
(NJ )ih (NJ )h i h
j = δh−1 δj−1 δ(h−1) δ(j−1) , da cui (NJ2 )ij = δj−2
i
δ(j−2) δ(j−1) .

Esempio (seconda parte)Fissato t ∈ R , su Pn si definisca l’operatore

Ht : Pn → Pn dato da Ht p(τ ) := p(τ + t) .


Anche Ht è lineare, infatti @ n−1 A
= n−1
=
τh (τ + t)h
Ht (ph + qh ) = (ph + qh ) =
h=0
h! h=0
h!
n−1
= (τ + t)h (τ + t)h
= ph + qh = Ht p(τ ) + Ht q(τ ).
h=0
h! h!
'
dh '
Si calcoli ora lo sviluppo di Taylor del polinomio p(τ + t) rispetto al parametro t e di centro il punto τ . Essendo dth
p(τ + t)' =
t=0
N h p(τ ) e dato che N n = N n+1 = · · · = 0 tale sviluppo, in questo spazio, è senz’altro uno sviluppo in somme finite; per cui si
ha
n−1
= dh ' th
n−1
= th dh
'
Ht p(τ ) := p(τ + t) = h
p(τ + t) ' = p(τ )
h=0
dt t=0 h!
h=0
h! dτ h
n−1
= th = ) th
n−1 *
= N h (p(τ )) = Nh p(τ ) =: eN t p(τ )
h=0
h! h=0
h!

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 117

Pertanto l’operatore Ht : Pn → Pn coincide con l’esponenziale di N t . La sua matrice, in quella base {ϵi }i=1,...,n nella quale
l’operatore N ha matrice En , sarà eE n t , e questa la si può ricavare o calcolando direttamente le potenze della matrice En , oppure
osservando che la sua (j + 1) -esima colonna, j = 0, 1, . . . , n − 1, si può ricavare dalla espressione:
) * =j
τj (τ + t)j τ k tj−k
Ht = = =
j! j! k=0
k! (j − k)!
j+1
= j+1
= tj−i+1
τ (i−1) tj−i+1
= = ϵi
i=1
(i − 1)! (j − i + 1)! i=1
(j − i + 1)!
0 1i
=: eE n t ϵi ;
j+1

quindi si ha
⎛ ⎞
t2 tn−1
1 t 2!
··· (n−1)!
⎜ ⎟
⎜ .. ⎟
⎜0 1 t . ⎟
⎜ ⎟
⎜ ⎟ n−1 h
⎜ ⎟ = t
eE n t =⎜ .
⎜ .. .. t2
⎟=
⎟ (En )h .
⎜ . ⎟ h=0 h!
2!
⎜. ⎟
⎜. .. ⎟
⎜. . t ⎟
⎝ ⎠
0 ··· 0 1
#

A volte, quando si lavora sui polinomi, l’operatore N mantiene la sua notazione originaria d/dτ e il suo esponenziale viene scritto
d
con et dτ (l’operatore di derivazione è il generatore del gruppo delle traslazioni), ma è evidente che se, più in generale, un certo
operatore agisce su uno spazio vettoriale V a dimensione finita n in modo che in qualche base la sua matrice è En allora, come si è
già osservato, esso condivide tutte le caratteristiche dell’operatore N appena visto, e in quella stessa base il suo esponenziale eN t ha
matrice data dalla eE n t .
In tal modo si è risolto il problema della determinazione della matrice esponenziale di un operatore elementare nilpotente.
Esempio (terza parte)
Si fissi ora un numero reale λ ̸= 0 (o complesso, e allora lo spazio vettoriale qui di seguito è da intendersi complessificato di uno reale)
e si consideri lo spazio vettoriale APn
λ dei “quasi–polinomi” di esponente λ e grado minore di n , e cioè funzioni del tipo e
λτ p(τ ) con

p(τ ) ∈ Pn come sopra. Anche APn λ è uno spazio a dimensione finita n ; una sua possibile base è
M Z
τ τ2 τ n−1
{ϵi }i=1,...,n := eλτ , eλτ , eλτ , . . . , eλτ ,
1! 2! (n − 1)!

infatti eλτ p(τ ) = 0 ⇐⇒ p(τ ) = 0 ⇐⇒ pi = 0 ∀i = 1, . . . , n .


d
Si consideri su APn n
λ l’operatore T := dτ ; esso (è lineare ed) ha Im T ⊆ APλ . La sua matrice, nella base indicata, è detta
⎛ ⎞
λ 1 0 ··· 0
⎜ .. ⎟
⎜ ⎟
⎜0 λ 1 .⎟
⎜ ⎟
⎜. .. .. ⎟
Blocco elementare di Jordan := J := λ1I n + En := ⎜ .. . . 0 ⎟
⎜ ⎟
⎜. ⎟
⎜. ⎟
⎝. λ 1⎠
0 ··· 0 λ
d
(si noti che in questo spazio, a t e τ fissati, l’operatore t dτ è un operatore lineare a norma limitata, ma non più nilpotente se λ ̸= 0 ).
Allo stesso modo, si consideri su APn λ l’operatore (lineare) di traslazione:
0 1 0 1
Ht eλτ p(τ ) = eλ(τ +t) p(τ + t) = eλτ eλt p(τ + t) .

Ht manda APn λ in sé, infatti anche quest’ultimo è un quasi–polinomio in APλ e come tale ammette serie di Taylor di punto iniziale
n

τ , convergente assolutamente per ogni t e ogni τ . Pertanto è giustificata la


0 1 =∞
dk 0 λ(τ +t) 1' tk 0 1
' d
Ht eλτ p(τ ) = k
e p(τ + t) ' = et dτ eλτ p(τ )
k=0
dt t=0 k!

d
e cioè anche qui l’operatore di traslazione Ht : APn n
λ → APλ è l’esponenziale dell’operatore t dτ
.
D’altra parte il calcolo di eλ(τ +t) p(τ + t) è assai agevole:
n−1
= =j
τ k tj−k
eλ(τ +t) p(τ + t) = eλτ eλt pj
j=0 k=0
k! (j − k)!
n
= j
= tj−i τ i−1
= pj−1 eλt eλτ
j=1 i=1
(j − i)! (i − 1)!
n =
= n
=: pj−1 (eJ t )ij ϵi
j=1 i=1

Note di Sistemi Dinamici


118 Capitolo 2. Sistemi differenziali lineari

Le precedenti considerazioni mostrano esplicitamente che la matrice esponenziale eJ t relativa a un blocco


elementare di Jordan J = λ1In + En di dimensione n è data da
⎛ 2

tn−1 λt
eλt teλt t2! eλt · · · (n−1)! e
⎜ .. ⎟
⎜ λt λt ⎟
⎜0 e te . ⎟
⎜ ⎟ n−1
⎜ . .. .
.. ⎟ = λt th
eJ t = ⎜ ⎟= e (En )h .
⎜ ⎟ h!
⎜ .. .. ⎟ h=0
⎜ . . teλt ⎟
⎝ ⎠
0 ··· 0 eλt

Su questa si può controllare che, siccome λ1I n En = En λ1I n = λEn , si ha

eJ t = e(λ1In +En )t = eλ1In t eEn t . #

Si ricordino ora i noti risultati della teoria generale degli operatori lineari secondo la quale ciascun arbitrario
operatore T ∈ L(V) ammette altrettanti sottospazi Mj ⊂ V, T -invarianti, detti autospazi generalizzati, quanti
sono i suoi autovalori λ1 , . . . , λr distinti. Ciascuno degli Mj ha dimensione
' pari alla molteplicità algebrica a(λj )
del corrispondente autovalore λj , ed è tale che l’operatore (T − λj 1I ) 'M è nilpotente di ordine qj ≤ aj .
j
In virtù della Nota che segue l’Esempio 2.0 tali proprietà, unite a quanto fatto nell’esempio appena visto,
risolvono la determinazione della matrice esponenziale di un qualsiasi operatore T quando sia nota la base che gli
assegna la forma di Jordan TJ ; e cioè, quando sia nota la base che gli assegna una matrice avente non nulli solo
dei blocchi elementari di Jordan disposti lungo la diagonale principale.
Esempio 2.2.26 L’oscillatore ẍ + k ẋ + x = 0 al punto critico: |k| = 2 .
Si assuma k = +2 , il caso k) = −2 essendone
* diverso solo per il verso con il quale le traiettorie vengono descritte.
0 1
All’equilibrio si ha T = e quindi λ1,2 = −1 .
−1 −2
) *
1
Dalla prima equazione agli autovettori si ricava ϵ1 = e cioè un vettore nel Ker (T − λ1I ). Poi, dal fatto
−1
che per qualsiasi r, s ∈ R si ha
) * ) *) * ) *
r +1 +1 r 1
(T − λ1I ) = ≡ (r + s) , (2.47)
s −1 −1 s −1

si deduce che il Ker (T − λ1I ) ospita solo il versore ϵ1 e non altri ad esso linearmente
) * indipendenti.
0
Scelto per esempio come secondo versore di base il vettore ϵ2 ≡ e2 = dalla (2.47) si riconosce che
1
(T − λ1I 2 )ϵ2 = ϵ1 . Di conseguenza nella base {ϵ1 , ϵ2 } la matrice di T è proprio il blocco di Jordan J = λ1I2 + E2
che implica (T − λ1I )2 = 0 .
Si ha cioè ) * ) *
1 0 −1 −1 1
P = , P TP = = λ1I 2 + E2 .
−1 1 0 −1
Chiamate ξ, η le componenti del vettore x in base {ϵ1 , ϵ2 } , il sistema equivalente alla ẋ = T x nel caso di
radice doppia: λ è allora dato da: (
ξ˙ = λξ + η
η̇ = λη .
Come già visto nella (2.46) più sopra, in base {ϵ1 , ϵ2 } , l’evolutore eT t ha matrice data da
⎛ ⎞
) * ..
1 t ⎜ . ⎟
eJ t = eλt = eλt (1I2 + tE2 ) = eλt ⎝ϵ1 .. tϵ1 + ϵ2 ⎠ (2.48)
0 1 ..
.

da cui seguono, in particolare, le soluzioni


( ⎧
λt
ξ(t) = e (ξ0 + tη0 ) ⎨ ξ = η ln η + η ξ0
con traiettorie λ η0 η0
η(t) = eλt η0 ⎩
oppure η=0.

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 119

L’origine è punto di equilibrio dal nome di Nodo improprio.


´


»

In definitiva, le oscillazioni lineari al valore critico k = 2 sono date da


) * ) * ) * ) *
x(t) λt −1 x0 −t 1 t −1 x0
= P e (1I + tE2 ) P = Pe P . (2.49)
ẋ(t) ẋ0 0 1 ẋ0

Nota 2.2.7 L’osservazione che ha portato alle (2.46), (2.48) si può perfezionare. Si può notare infatti la validità
dei seguenti passaggi:
P (1I + t E2 )P −1 = 1I + t P E2 P −1 = 1I + t (T − λ1I )
leciti in quanto l’anti–trasformata di E2 = J − λ1I 2 , in questo esempio, è proprio la matrice T − λ1I che esprime
nella base assegnata l’operatore T − λ1I elementare nilpotente di ordine q = 2 . ◃

In base alla Nota 2.2.7 la soluzione dell’oscillatore critico è data, più semplicemente della (2.49), dalla
) * +) * ) *, ) *
x(t) −t 1 0 1 1 x0
=e +t
ẋ(t) 0 1 −1 −1 ẋ0
) *) *
1+t t x0
= e−t
−t 1 − t ẋ0

Curiosità: Il versore ϵ1 coincide con il vettore ϵµ del caso |k| < 2 quando lo si calcoli per |k| = 2 , ed è
proporzionale a ciò che diviene il versore ϵ1 del caso k > 2 nel limite k → 2 .
Nota 2.2.8 Con lo stesso metodo visto nella Nota 2.2.4, e con x, y, ϕ ∈ R, si riconosce che ϕ̇ = 0 per i punti tali
che cx2 + (d − a)xy − by 2 = 0 , e cioè, siccome qui ∆ = (a − d)2 + 4bc = 0 , lungo le due semirette xy = − d−a
2c .
) *
r
D’altra parte l’autovalore λ = a+d2 fornisce per l’autovettore ϵ = la condizione cr = a−d
2 s. Se ne ricava
s
che ϕ̇ rimane strettamente diverso da zero, (positivo se c > 0 e b < 0 ), salvo che per i vettori paralleli ad ϵ . ◃

Con tale risultato si esaurisce lo studio dei i possibili equilibri per un sistema lineare a coefficienti costanti e
dimensione due. Essi possono essere ricordati mediante la figura qui di seguito disegnata sul piano (T r T , Det T )
dell’operatore T di campo.
In essa i diagrammi indicati sono globali per il sistema lineare; verrà poi ricordato (si veda: § IV.1 teor.2]) che
ad eccezione del caso ℜe λ = 0 essi sono anche “simili”, per ogni t, ma solo localmente intorno al punto di
equilibrio a quelli del sistema non lineare ẋ = v(x) con v(0) = 0, v∗ (0) = T . In tale affermazione si devono
considerare simili i nodi e le spirali; si tratta cioè di una semplice similitudine topologica.
Det

Tr

Note di Sistemi Dinamici


120 Capitolo 2. Sistemi differenziali lineari

2.3 Sistemi differenziali lineari a coefficienti costanti, in Rn


Lo studio dei sistemi lineari ẋ = T x in spazi reali a dimensione maggiore di due, ma ancora a coefficienti costanti,
non presenta difficoltà concettuali, salvo nel caso in cui l’operatore del campo abbia autovalori multipli. Cosı̀ come
si è fatto nel caso bidimensionale, il metodo di risoluzione infatti ricorre alla rappresentazione dei vettori rispetto
alla base propria dell’operatore. Quando essa non esista, e cioè quando l’operatore T non sia diagonalizzabile
né semisemplice, è conveniente far uso del teorema di Jordan, il quale dimostra l’esistenza di una base, che verrà
nel seguito chiamata anch’essa base propria per l’operatore, rispetto alla quale la matrice τ che gli corrisponde è
formata da tutti blocchi elementari di Jordan disposti lungo la diagonale principale, e nulla altrove:
⎛ ⎞
.. ..
⎜ τ 1 . 0 . ⎟
⎜· · · ··· ··· ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ 0 . τ2 . ⎟
⎜ ⎟
τJ =⎜ ⎜ · · · · · · · · · ⎟

⎜ . . . ⎟
⎜ .. .. .. ⎟
⎜ ⎟
⎜ · · ·⎟
⎝ ⎠
..
. τ r

con ⎛ ⎞
.. ..
⎜Jsj−1 +1 . 0 . ⎟
⎜ ··· ··· ··· ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ 0 . Jsj−1 +2 . ⎟
⎜ ⎟
τj =⎜
⎜ ··· ··· ··· ⎟

⎜ .. .. .. ⎟
⎜ . . . ⎟
⎜ ⎟
⎜ ···⎟
⎝ ⎠
..
. Jsj
nella quale si sono indicati, in modo analogo al precedente paragrafo,
⎛ ⎞
λj 1 0 0
⎜ 0 λj 1 ⎟
⎜ ⎟
⎜ .. .. ⎟
Jij := λj 1Ikij + Ekij ≡ ⎜
⎜ . . ⎟

⎜ .. ⎟
⎝ . 1⎠
0 λj
Cj−1
con: s0 := 0 , sj−1 := h=1 gh , ij ∈ {sj−1 + 1, sj−1 + 2, . . . , sj−1 + gj =: sj } , con kij ≤ qj ≤ aj ,
j = 1, . . . , r , e dove (si veda anche l’Appendice A.6 e la Nota 2.3.1 qui di seguito):
'
• qj ≤ aj := a(λj ) è l’ordine di nilpotenza dell’operatore (T − λ1I ) 'M ;
j

• Ekij il blocco elementare nilpotente di ordine kij ;

• a(λj ) la molteplicità algebrica di λj , e cioè la molteplicità dell’autovalore λj quale radice dell’equazione


Det (T − λ1I ) = 0 ;
• a(µj ) la molteplicità algebrica delle coppie di autovalori µj , µ̄j se presenti, e in tal caso le varietà invarianti
sono di dimensione due per ciascuna coppia di autovalori complessi coniugati;
• r ≤ n il numero totale di autovalori (o coppie di autovalori, se complessi) distinti;
• gj = dim Ker(T − λj 1I ) la molteplicità geometrica di λj (o della coppia µj , µ̄j );
C
• g := rj=1 gj il numero totale di autovettori (o coppie di autovettori) distinti;
• Mj := Ker(T −λj 1I )qj l’autospazio generalizzato corrispondente all’autovalore λj (o alla coppia di autovalori
µj , µ̄j );
Cs
• dim Mj = ijj=sj−1 +1 kij = aj = a(λj ) (oppure dim Mj = 2a(µj ) nel caso delle coppie µj , µ̄j ); la matrice
τ j è (aj × aj ), e se λj ̸= 0 è anche aj = Rank Tj ;
M. Lo Schiavo
2.3. Sistemi differenziali lineari a coefficienti costanti, in Rn 121

• almeno uno dei Jij nella rappresentazione di Jordan τ J , ha dimensione ki j uguale al corrispondente qj .

Nella stessa base l’esponenziale eT t ha matrice data da


⎛ ⎞
J1 t
.. ..
⎜e . 0 . ⎟
⎜··· ··· ··· ⎟
⎜ ⎟
⎜ .. J t .. ⎟
⎜ 0 . e 2 . ⎟
eτ Jt =⎜
⎜···


⎜ ··· ··· ⎟
⎜ .. .. J t ⎟
⎜ . . e 3 ⎟
⎝ ⎠
..
.

dove, con k := kij ,


⎛ ⎞
t2 λj t tk−1 λj t
eλj t teλj t 2! e ··· (k−1)! e
⎜ .. ⎟
⎜ ⎟
⎜ 0 eλj t teλj t . ⎟
⎜ ⎟
eJij t =⎜ .. .. ⎟,
⎜ . . ⎟
⎜ ⎟
⎜ .. .. ⎟
⎝ . . teλj t ⎠
0 ··· 0 eλj t

oppure, se sono presenti (coppie) di autovalori complessi µ, µ̄,


⎛ ⎞
t2 R µj t tk−1 R µj t
eR µj t teR µj t 2! e ··· (k−1)! e
⎜ .. ⎟
⎜ ⎟
⎜ 02 eR µj t teR µj t . ⎟
⎜ ⎟
eJij t =⎜ .. .. ⎟,
⎜ . . ⎟
⎜ ⎟
⎜ .. .. ⎟
⎝ . . teR µj t ⎠
02 ··· 02 eR µj t
) *
cos βj t − sin βj t
con eR µj t ≡ eαj t qualora vengano usate come direzioni proprie le corrispondenti coppie
sin βj t cos βj t
{ℜe ϵµj , −ℑm ϵµj } .

Nota 2.3.1 [importante] Se lo scopo è solo quello di risolvere l’equazione ẋ = T x e non quello di trovare
esplicitamente la base propria dell’operatore T , rappresentato dalla matrice T nell’assegnata base, non conviene
eseguire tutto il calcolo necessario ad individuare la base di Jordan. Infatti, dalla teoria è sufficiente estrarre i
seguenti risultati (si veda: Appendice A.6, e Nota 2.2.7). ◃

• Lo spazio vettoriale V si separa in una somma diretta

V = M1 ⊕ · · · ⊕ Mr , (3.50)

ove gli spazi Mj e cioè gli autospazi generalizzati sono definiti da

Mj : = Ker(T − λj 1I )qj
1 ≤ qj ≤ a(λj ) ≡ dim Mj
Ker (T − λj 1I )qj −1 ⊂ Ker (T − λj 1I )qj = Ker (T − λj 1I )qj +1 ;

• l’operatore (T − λj 1I ) è nilpotente di ordine qj su Mj ed è invertibile sul complementare V ⊖ Mj ;

• ciascuno degli Mj è invariante sia rispetto a (T − λj 1I ) che rispetto a T .

Note di Sistemi Dinamici


122 Capitolo 2. Sistemi differenziali lineari

Ciò permette di osservare che per la determinazione della dinamica sono questi sottospazi e non i singoli autovettori
generalizzati ad essere gli equivalenti degli autovettori di un operatore diagonalizzabile. Infatti, cosı̀ come nel caso
di diagonalizzabilità (e cioè di autovalori tutti divisori elementari semplici: gj = aj per ciascun j = 1, . . . , r ) per
scrivere la dinamica occorre e basta trovare gli autovettori dell’operatore, per scrivere la dinamica nel caso generale
occorre e basta la conoscenza degli Mj e di un’arbitraria base {& ϵsj−1 +i }i=1,...,aj in essi (e non necessariamente
quella di Jordan: (T − λj 1I )ϵj = ϵj−1 ). Ciò perché una volta individuati per ciascun j = i, . . . , r gli autospazi
generalizzati Mj e una base in essi, in virtù della (3.50) ciascun x ∈ V ammette un’unica rappresentazione come
combinazione lineare di altrettanti vettori: xj ∈ Mj , per j = 1, . . . , r ; e siccome Mj è un sottospazio T -invariante,
e quindi T k -invariante, se un x0 è in Mj anche il suo evoluto eT t x0 sarà in Mj

Nei dettagli ciò comporta:

• Decomporre il dato iniziale nei suoi addendi, uno per ciascuno degli spazi Mj :
r
=
x0 =: xj |0 , xj |0 ∈ Mj , j = 1, . . . , r .
j=1

A tale scopo si può cercare la matrice P∼ che esprime nella base data: {ei }i=1,...,n gli r gruppi di vettori:
{&ϵσj−1 +i }i=1,..,aj tali che: σ0 := 0 , σj = σj−1 + aj , e Ker (T − λj 1I )qj = span {&ϵσj−1 +1 , &
ϵσj−1 +2 , .., & ϵσj } ,
j = 1, . . . , r . Le colonne ϵ&h , h = 1, . . . , n, della P∼ sono composte dalle e -componenti dei vettori & ϵh ,
determinate in base alle corrispondenti (n − aj ) relazioni lineari su tali {e} -componenti che impongono
l’appartenenza del j -mo gruppo al sottospazio Mj . Si determinano cosı̀ le {& ϵ}-componenti (& x10 , . . . , x
&n0 ) dei
vettori xj |0 ∈ Mj mediante la
⎛ ⎞
r r hj
= = =
x j |0 = ⎝ &h0 ϵ&h ⎠ = x0 .
x
j=1 j=1 h=hj−1 +1

7 8
• Per ciascun xj |0 fare uso della nilpotenza di (T − λj 1I ) su Mj e dell’identità eλt x = eλt 1I x = eλ1I t x
per ottenere

= tk
eT t xj |0 = e(T −λj 1I )t xj |0 eλj t = (T − λj 1I )k xj |0 eλj t
k!
k=0
qj −1
= t k
= (T − λj 1I )k xj |0 eλj t .
k!
k=0

• Ricavare infine ⎧
r
Iqj −1 J

⎪ = = tk

⎪ x : t &→ x(t) = (T − λj 1I )k xj |0 eλj t

⎨ k!
j=1 k=0
(3.51)

⎪ r
=

⎪ x =: x j |0 , xj |0 ∈ Ker (T − λj 1I ) qj
=: Mj

⎩ 0
j=1

Si osservi che se aj > 1 e ciononostante qj = 1 , e cioè se T ha divisori elementari semplici in corrispondenza


a λj , il vettore xj |0 risulta anch’esso autovettore di T , in quanto combinazione lineare di più autovettori
relativi alla stessa λj .

In generale invece, c’è almeno un vettore del tipo


) *
tqj −1 (j) tqj −2 (j)
xqj (t) = ϵ1 + ϵ + . . . + ϵ(j)
qj eλj t
(qj − 1)! (qj − 2)! 2

(j)
e cioè il vettore soluzione uscente da xqj (0) = ϵqj primo vettore di una catena di lunghezza qj e certamente
esistente in Mj . #

M. Lo Schiavo
2.3. Sistemi differenziali lineari a coefficienti costanti, in Rn 123

In definitiva, per il sistema lineare omogeneo autonomo, dato in coordinate da

ẋ = T x x 0 ∈ Rn n>2 (3.52)

si ha che:
(• ) Se Det (T − λ1I ) = 0 ha tutte le radici {λi }i=1,...,n distinte (in Cn ), ogni soluzione è del tipo

x(t) = P eΛt P −1 x0 =
⎛ ⎞ ⎛ξ1 ⎞
.. .. .. 0
= ⎝eλ1 t ϵ1 .. eλ2 t ϵ1 .. .. eλn t ϵn ⎠ ⎜

.. ⎟ .
. . . .⎠
. . . ξn 0

Più esplicitamente: se Det (T − λ1I ) = 0 ha ν radici reali: {λk }k=1,...,ν , e τ coppie di radici complesse:
{µh , µ̄h }h=1,...,τ , e quindi ν + 2τ = n, allora:
ν
@ ν+τ A
= =
k λk t h µh t
x(t) = ξ0 e ϵk + ℜe z0 e ϵµh
k=1 h=ν+1
ν
= ν+τ
= 7 8 7 8
= ξ0k eλk t ϵk + ℜe z0 h eµh t xµh + ℑm z0 h eµh t yµh =
k=1 h=ν+1
ν
= ν+τ
= N
= ξ0k eλk t ϵk + eαh t (ξ&0h cos βh t − η&0h sin βh t)xµh +
k=1 h=ν+1
O
+ (ξ&0h sin βh t + η&0h cos βh t)yµh

ove le colonne della matrice P contengono le {e} -componenti dei vettori (reali, individuati da T ) {ϵk }k=1,...,ν
e {xµh , yµh }h=1,...,τ ; e dove {ξ0k , ξ0h , η0h } sono le n costanti (scalari) reali arbitrarie (le z0 h sono complesse)
corrispondenti alle condizioni iniziali.
(• ) Se Det (T − λ1I ) = 0 ha ν radici reali distinte {λk }k=1,...,ν , eventualmente con molteplicità a(λk ) ≥ 1 ,
e τ coppie di radici complesse distinte {µh , µ̄h }h=1,...,τ , eventualmente con molteplicità a(µh ) ≥ 1 , e allora è
ν + 2τ = r < n, ogni soluzione ha la forma

x(t) = P eτ J t P −1 x0 =
⎛ ⎞⎛ ⎞
.. .. .. ξ01
⎜ . . . ⎟⎜ . ⎟
⎜ λ1 t (1) .. λ t (1) (1) .. λ t 1 2 (1) (1) (1) .. ⎟⎝ . ⎠
⎝e ϵ1 . e 1 (tϵ1 + ϵ2 ) . e 1 ( 2 t ϵ1 + tϵ2 + ϵ3 ) . ··· ⎠ .
.. .. ..
. . . ξ0n

o, più esplicitamente, con ξh (t) = ℜe [1I + t (T − µh 1I ) + . . .] zh |0 , etc.,


ν
@ ν+τ A
= =
λk t µh t
x(t) = pk (t)e + ℜe zh (t)e
k=1 h=ν+1
ν
= ν+τ
= N
= pk (t)eλk t + eαh t ξ&h (t) cos βh t − η
&h (t) sin βh t
k=1 h=ν+1
O
+ ξ&h (t) sin βh t + η&h (t) cos βh t
j −1
ν q=
= tk
= (T − λj 1I )k eλj t xj |0
j=1 k=0
k!
ν+τ
@qj −1 A
= = tk
k µj t
+ ℜe (T − µj 1I ) e zj |0 .
j=ν+1
k!
k=0

Si nota che i vettori con componenti costanti (reali o complesse) arbitrarie del caso precedente vengono sosti-
tuiti da (certe) loro combinazioni polinomiali, di grado minore delle molteplicità algebriche, esse stesse combinate
linearmente con coefficienti arbitrari.

Note di Sistemi Dinamici


124 Capitolo 2. Sistemi differenziali lineari

Caso particolare è quello di un’unica equazione di ordine n in una variabile scalare x : t &→ x(t) e cioè,
dh
indicando con x[h] := dth x, l’equazione:

x[n] + a1 x[n−1] + . . . + an−1 x[1] + an x = 0 , x0 ∈ R . (3.53)

Le soluzioni di tale equazione consistono ovviamente in una famiglia di funzioni scalari ma, per poter usare
lo studio fatto finora, esse verranno cercate come componenti di vettori funzioni, in effetti speciali vettori: tali da
avere le componenti successive uguali alle derivate di quelle precedenti. Posto cioè

x[h] =: xh+1 : t &→ xh+1 (t) ∈ R, h = 0, . . . , n − 1 (3.54)

sulle componenti del vettore x si ricava dalla (3.53) la condizione necessaria

ẋn + a1 xn + . . . + an−1 x2 + an x1 = 0 , (3.55)

per cui: le funzioni che verificano la (3.53) sono tutte e sole quelle corrispondenti alla prima componente di un
vettore x := (x1 , . . . , xn ) ≡ (x[0] , . . . , x[n−1] ), e cioè x : t &→ x(t) ∈ V ≡ Rn , che verifica il particolare sistema
lineare omogeneo: ⎛ ⎞
0 1 0 ··· 0
⎜ 0 0 1 0 0 ⎟
⎜ ⎟
ẋ = T x ove T := ⎜ . . . ⎟ . (3.56)
⎝ .. .. .. 0 ⎠
−an −an−1 ··· −a1
Sistemi di questo tipo formano ovviamente solo un sottoinsieme dei possibili sistemi a dimensione n, e quindi
essi avranno proprietà speciali e caratteristiche. Per essi, per esempio, il polinomio caratteristico pT (λ) :=
Det (T − λ1I ) ha la speciale forma

pT (λ) = λn + a1 λn−1 + . . . + an−1 λ + an ; λ∈C. (3.57)

Infatti, se si pretende che il sistema (3.56) abbia soluzioni della forma ! ϵ(t) = eλt ϵ relative a un vettore
ϵ : t &→ !
d
ϵ ∈ C , sulle componenti del vettore !
n
ϵ occorre imporre la condizione, proveniente dalla (3.54), ϵh = !
dt ! ϵ h+1 ,
per h = 1, . . . , n − 1 , che fornisce le n − 1 condizioni necessarie
d 1 d n−1
! ϵ 1 (t) = !
ϵ (t) = λ! ϵ 2 (t), ..., !
ϵ ϵ n−1 (t) = !
(t) = λ! ϵ n (t), t ∈ R. (3.58)
dt dt
Pertanto le componenti del vettore ϵ (autovettore di T ) verificano necessariamente la condizione: ϵ = (ϵ1 , . . . , ϵn ) =
(1, λ, λ2 , . . . , λn−1 )κ, con κ ∈ R, e la (3.55) scritta per !
ϵ(t) fornisce subito la (3.57).
Viceversa, se una λ# esiste soluzione di pT (λ) = 0 , allora certo T ammette in sua corrispondenza almeno un
autovettore (magari complesso) ϵ . Data la forma della (3.56), questo risulta tale che nota la sua prima componente
risultano note tutte le altre e verificanti la relazione (3.58). Ciò implica, in particolare, che fissato un autovalore
λ# ∈ C, ad esso non possa che corrispondere un solo autovettore, infatti ogni altro vettore soluzione che si evolva
#
in modo parallelo al dato sarebbe ancora del tipo eλ t ξ0 e risulterebbe diverso dal primo per solo un’inessenziale
costante moltiplicativa presente in tutte le componenti.
Pertanto ad ogni autovalore λj corrisponde un solo blocco elementare di Jordan: Jj = λj 1Iaj + Eaj il quale
avrà dimensione uguale alla molteplicità algebrica dell’autovalore stesso, e cioè

qj = a(λj ) = dim Mj ove Mj = Ker (T − λj 1I )aj

mentre risulta
g(λj ) = 1 = n − rank (T − λj 1I ) .
La (3.53) avrà allora soluzioni (facendo le necessarie sostituzioni se qualche autovalore è complesso, e si ricordi
che qui la x è scalare) della forma
=r k −1
a=
λk t
x : t &→ x(t) = e pk,j tj
k=1 j=0

nella quale tutte le n costanti pk,j sono scalari arbitrarie, giacché all’interno dell’autospazio Mj ogni vettore
può essere un’accettabile dato iniziale. La linearità dell’operatore T implica quindi che ciascuna delle funzioni
tm eλk t , 0 ≤ m ≤ a(λk ), sia soluzione particolare dell’equazione. Si noti che queste affermazioni non sono vere
per ciascuna delle coordinate, separatamente, del generico vettore soluzione nel caso generale in quanto m può non
raggiungere a(λk ).
Il teorema di esistenza e unicità può essere invocato per concludere che:

M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 125

le n costanti scalari pk,j stabiliscono un isomorfismo fra lo spazio delle soluzioni x : t &→ x(t) di un’equazione di
ordine n quale la (3.53), che è a sua volta isomorfo a quello V ≡ Rn delle condizioni iniziali, e lo spazio APn
a
somma diretta degli spazi APλjj dei quasi-polinomi con esponenti λ1 t, . . . , λr t e gradi minori di a(λ1 ), . . . , a(λr );
i quali formano pertanto una base per lo spazio delle soluzioni dell’equazione (3.53).
Anche questa affermazione non è vera per il generico sistema di ordine n; per esempio una stessa funzione del
tipo ceλt può essere soluzione anche di tutte le equazioni “componenti”. Sono infatti, in questo caso, i possibili
vettori di base ad essere più diversificati di quelli di una equazione di ordine n, dato che le loro componenti non
devono verificare la condizione di compatibilità (3.58).
D’altro canto i vettori soluzione non hanno componenti arbitrarie nello spazio dei quasi-polinomi poiché devono
essere ottenuti, mediante una trasformazione invertibile P determinato da T , combinando linearmente i possibili K
vettori soluzione pk (t)eλk t che hanno i polinomi pk (t) fissati dalle colonne di P e dalla degenerazioneCn di T . Se
anche tutte le radici sono distinte e ogni componente di ciascun vettore soluzione è del tipo k=1 ck eλk t non è vero
che ogni n-pla di tali combinazioni
7 lineari8 è una possibile soluzione del sistema: essa deve essere una P -trasformata
di un vettore del tipo ξ01 eλ1 t , . . . , ξ0n eλn t con P invertibile fissato da T e ξ0j ∈ R per j = 1, . . . , n. Ad esempio,
tutteL le componenti potranno essere uguali fra loro: ceλj t solo se il vettore (1, . . . , 1) è autovettore di T relativo
a λj .
Si osservi infine che l’equazione (3.57) determina una sola equazione differenziale di grado n ma certo non un
solo sistema di grado n che la ammetta come equazione secolare. Essa infatti determina univocamente le sue
radici e la loro molteplicità, ma ciò non è sufficiente a determinare gli autovettori di una delle molte matrici T con
essa compatibili.

2.4 Sistemi differenziali lineari a coefficienti variabili, in Rn


In questo paragrafo verranno innanzi tutto riprese in esame, ed estese, le considerazioni fatte nel § I.5. In quello,
per semplicità, si erano considerate solo equazioni scalari del secondo ordine; in questo si vedrà che l’estensione al
caso generale n-dimensionale è del tutto naturale e non aggiunge difficoltà concettuali.
Sia I un intervallo chiuso in R. Si considera il sistema
ẏ = T (t)y + b(t), o, in coordinate, ẏ = T (t)y + b(t), con y0 ∈ V ≡ Rn ,
(4.59)
T : I → L(V), b : I → V, T , b ∈ C ℓ≥1 (I), t0 ∈ I ⊂ R .
Le sue soluzioni sono vettori con componenti che in generale non saranno più esprimibili come combinazioni lineari
di quasi-polinomi, e le applicazioni di avanzamento non saranno più elementi di un gruppo a un parametro {G t }t∈R
di diffeomorfismi dello spazio delle fasi in sé.
Al contrario esse formano una famiglia locale (si veda: Cap.I) di applicazioni {Gtt0 }t0 ,t∈I , tale che y : t &→
y(t) := Gtt0 y0 è il moto uscente da y0 all’istante t0 e che, ove siano definiti, risulti

Gtt13 = Gtt23 Gtt12 , t1 , t2 , t3 ∈ I.


La linearità implica “solo” che, presi comunque c1 , c2 ∈ R:
se y1 è soluzione della ẏ = T (t)y + b1 (t)
ed y2 è soluzione della ẏ = T (t)y + b2 (t)
allora c1 y1 + c2 y2 è soluzione della ẏ = T (t)y + b3 (t)
con b3 (t) := c1 b1 (t) + c2 b2 (t).
Ciò prova che lo spazio delle soluzioni dell’equazione (4.59) non è uno spazio lineare.
Si consideri dapprima l’equazione omogenea (già chiamata (2.32) nel § II.2):
ẋ = T (t)x, x0 ∈ V, o, in coordinate, ẋ = T (t)x, x 0 ∈ Rn , (4.60)
Per essa, invece, ogni combinazione lineare di soluzioni è soluzione.
Sussiste la seguente
Proposizione 2.4.1 (si veda anche: § I.5)
L’intervallo massimale JM ⊃ I di definizione della, esistente e unica per ciascun x0 , soluzione della (4.60) è
ampio (almeno) quanto quello di regolarità dei coefficienti.

Dimostrazione
• ∥T (t)∥ < c per un certo c dipendente da a, b, I , e certamente finito.

Note di Sistemi Dinamici


126 Capitolo 2. Sistemi differenziali lineari

• Lemma Se φ(τ, t0 , x0 ) è definita in [t0 , t] ⊆ I allora

|φ(t, t0 , x0 )| ≤ ec(t−t0 ) |φ(t0 , t0 , x0 )| .

• Dimostrazione (del Lemma)


La tesi è vera per φ(t, t0 , 0) ≡ 0 . Questa è soluzione; quindi φ(t0 , t0 , x0 ) ̸= 0 implica φ(t, t0 , x0 ) ̸=
0, ∀t ∈ JM .
2
Si chiami r2 : τ &→ |φ(τ )| = ⟨ φ(τ, t0 , x0 ), φ(τ, t0 , x0 ) ⟩ > 0 , ove il prodotto scalare è, ad esempio, quello
che vede la base data come ortonormale. Dall’ipotesi segue che ln r(τ ) è definita per τ ∈ [t0 , t], e in più
' ' ' '
' d ' ' '
' ln r2 ' = 1 ' d r2 ' ≤ 2 |T φ| |φ| = 2 ∥T (t)∥ ≤ 2c .
' dτ ' r2 ' dτ ' r2

Se ne deduce che ' 2 '


'ln r (t) − ln r2 (t0 )' ≤ 2 c |t − t0 | . "

• Il teorema sul prolungamento della soluzione permette di dire che la soluzione è definita almeno fino all’istante
t1 in cui (t1 , φ(t1 , t0 , x0 )) raggiunge la frontiera di un qualsiasi compatto di R1+n che, contenente (t0 , x0 ),
sia contenuto nel dominio D di regolarità del campo. Essendo poi questo lineare nella variabile spaziale
x, si ha che D può avere frontiera non vuota soltanto a causa di limitazioni dovute alla non regolarità dei
coefficienti: T (t), e quindi certo il dominio D di regolarità del campo contiene una striscia dello spazio delle
fasi ampliato di estensione infinita rispetto alla variabile spaziale e contenente il segmento I lungo quella
temporale.
• Siano: |x0 |2 =: ℓ > 0 ed
; ' <
'
K := (t, x) ∈ R1+n ' t ∈ I; |x|2 ≤ (1 + ε) ℓ e2c(b−a) , ε>0 .

Il Lemma afferma che il punto (t1 , φ(t1 , t0 , x0 )) non può essere sulla parete |x|2 = (1 + ε)ℓe2c(b−a) del
cilindro K , e quindi deve necessariamente essere t1 = t, che è qualunque in I . "

Una dimostrazione simile ma un pò più laboriosa (si veda: [Hale Cor.I.6.1]) assicura che se I è tale che entrambe
le funzioni T e b sono almeno continue su I allora è anche JM ⊃ I .
Come si è ricordato, in virtù della linearità del campo lo spazio di tutte le possibili soluzioni di (4.60) è
uno spazio funzionale lineare: una combinazione lineare di soluzioni è ancora soluzione, ed è uscente da quelle
condizioni iniziali che si ottengono operando la stessa combinazione lineare sulle rispettive
7 condizioni
8n iniziali. Tale
spazio lineare è in corrispondenza con quello delle fasi V mediante l’applicazione Bt : C 1 (JM ) → V che associa
a una soluzione φ : JM → V il suo valore attuale x := φ(t, t0 , x0 ) ∈ V. In effetti, per i teoremi visti nel Cap.I,
onto
tale corrispondenza è 1 ←→ 1 , in quanto l’immagine è tutto V per il teorema di esistenza, e il Ker è {0} perché,
per il teorema di unicità, alla condizione iniziale x0 = 0 corrisponde la sola soluzione φ(t, t0 , x0 ) = 0; inoltre
siccome entrambi gli spazi sono lineari essa è un isomorfismo: le combinazioni lineari commutano con l’evoluzione.
e3 G t0t e3 e3(t)

x0 e2 x(t)
e1(t) e2
e1 eb3 e1 e2(t)
B -1
t0
e2
b Bt

Ái : ebi bei (t)


eb1
Per esprimere la più generale soluzione della (4.60) sarà allora necessario e sufficiente procurarsi una base nello
spazio delle soluzioni. Come già fatto per i sistemi lineari a coefficienti costanti (si veda: § II.2), si definisce un:

M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 127

Sistema fondamentale Φ = {φi }i=1,...,n per l’equazione (4.60) := una n-pla di funzioni a valori in V: φi :
t &→ xi = φi (t, t0 , xi |0 ) ∈ V, i = 1, . . . , n, che siano soluzioni linearmente indipendenti della (4.60).
Il teorema di esistenza e unicità, ovvero l’esistenza dell’isomorfismo detto, assicura che n-pla di vettori (solu-
zione) {t &→ φi (t, t0 , xi |0 )}i=1,...,n uscenti dall’arbitraria n-pla di vettori: {xi |0 }i=1,...,n ⊂ V purché linearmente
indipendenti forma certamente una base nello spazio delle soluzioni. Ciò in particolare accade a quella uscente dai
versori {xi |0 := ei }i=1,...,n della base scelta in V; il problema è determinarli.
Quando sia noto un sistema fondamentale, e scelta una base in V, si definisce la corrispondente:
Matrice fondamentale per l’equazione (4.60) :=
la rappresentazione in coordinate di un sistema fondamentale
) *
.. ..
Φ; essa pertanto è una matrice Φ : t &→ Φ(t, t0 , Φ0 ) ≡ φ1 . · · · . φn avente per colonne i vettori φi =
φi (t, t0 , xi |0 ), i = 1, . . . , n, rappresentanti in quelle coordinate le funzioni {φi }i=1,...,n . Giacché Φ risolve in
L(V) l’equazione: Ẋ = T (t)X ed è uscente da un dato Φ0 non singolare, la matrice Φ verifica in L(Rn )
l’equazione
) *
. .
Ẋ = T (t) X , X(t0 ) = x1 |0 .. · · · .. xn |0 ≡ Φ0 , (4.61)

con Φ0 = Φ(t0 ) non singolare. Si ha cioè, (si veda anche: § II.2)


) * ) *
d .. .. .. ..
Φ(t) = φ̇1 (t) . · · · . φ̇n (t) = T (t)φ1 (t) . · · · . T (t)φn (t) = T (t)Φ(t).
dt

L’esistenza dell’isomorfismo detto assicura che per ogni coppia di matrici fondamentali esiste una matrice invertibile
C tale che Φ2 (t) = Φ1 (t)C , e viceversa: se C è costante, non singolare, e se Φ1 (t) è una matrice fondamentale
della (4.60) allora tale è anche la Φ2 (t) := Φ1 (t)C . In particolare ne segue che: non solo ogni sistema fondamentale
della (4.60) forma una matrice soluzione della (4.61), ma, viceversa, ogni soluzione della (4.61) uscente da un dato
non singolare è una matrice fondamentale della (4.60). Per ciascuna fissata base si ha quindi che: tutte e sole le
matrici fondamentali della (4.60) sono soluzioni non singolari della (4.61) e sono proporzionali fra loro mediante
delle matrici C non singolari:
Φ2 (t) = Φ1 (t) C . (4.62)
In particolare, per ciascuna scelta della base {ei }i=1,...,n dello spazio V, e cioè per ciascuna scelta delle coordinate
si può definire una:
Matrice principale del sistema (4.60) := la matrice Ψ : t &→ Ψ(t, t0 ) che ha per colonne le soluzioni uscenti
dai versori dello spazio, e quindi che vale 1In nell’istante t = t0 .
In quel che segue, salvo contrario avviso, la scelta della base verrà supposta eseguita una volta per tutte e non
più modificata. Ciò permetterà di limitare la notazione alle sole componenti.
Ad esempio, nel caso particolare dei coefficienti costanti risulta

Ψ(t, 0, 1I ) = P eTJ t P −1 = Φ(t)Φ−1 (0) = eT t ,

e i vettori φi (t) assumono valori in un conveniente spazio di quasi polinomi.


In conclusione, il vettore
n
=
x : t &→ x(t) = Φ(t) c = ci φi (t) (4.63)
i=1

è la soluzione generale del sistema (4.60) se e solo se i vettori φi = φi (t, t0 , xi |0 ) sono)le colonne di una*matrice
. ..
Φ = Φ(t, t0 , Φ0 ) che sia la soluzione Φ : I → L(Rn ) della (4.61), uscente dalla Φ0 = x1 |0 .. · · · .x |
n 0 scelta
non singolare.
Nota 2.4.1 Un sistema fondamentale non è una qualunque n-pla di vettori linearmente indipendenti nello spazio
funzionale; essa deve essere formata da vettori che siano vettori soluzione. Infatti:

Memento 2.4.1 m funzioni vettoriali {t &→ ψi (t)}i=1,...,m , ciascuna delle quali avente come componenti n fun-
1 m
zioni continue
Cmsu Ii , si dicono linearmente dipendenti se esistono m costanti reali α , . . . , α non tutte nulle tali
che risulti i=1 α ψi (t) = 0 per ogni t ∈ I .
Affinché n funzioni vettoriali siano linearmente dipendenti occorre quindi ma non basta che esista qualche istan-
te t∗ nel quale i vettori numerici {ψi (t∗ )}i=1,...,n siano linearmente dipendenti; né basta a garantire la dipendenza

Note di Sistemi Dinamici


128 Capitolo 2. Sistemi differenziali lineari

lineare dei vettori {t &→ ψi (t)}i=1,...,n il fatto che sia identicamente nullo il determinante
⎛ 1 ⎞
ψ1 ψ21 · · · ψn1
⎜ 2 .. ⎟
⎜ ψ1 ψ22 . ⎟
W : t &→ W (t) := Det ⎜ ⎜ .


⎝ .. .. ⎠
.
ψ1n · · · ψnn
) * )* ' '
1 t ' 1 t'
Esempio: e pur avendo '' ' ≡ 0 non sono linearmente dipendenti.
1 t 1 t'

Queste condizioni sono invece sufficienti, oltre che necessarie se, in più, si sa che i vettori in questione sono
soluzioni di un qualche sistema differenziale del tipo ẋ = T (t)x, e ciò ancora per l’unicità della soluzione identi-
camente nulla e per la linearità del sistema. Viceversa in ogni caso basta che i loro valori in un qualche istante
{ψi (t∗ )}i=1,...,n siano linearmente indipendenti per assicurare l’indipendenza lineare dei vettori {t &→ ψi (t)}i=1,...,n

Nota 2.4.2 Come si è visto, se T è una matrice costante, o addirittura se ha la forma semplice proveniente da
un’equazione di ordine n, la ricerca dei possibili vettori di base è molto facilitata. Con riferimento alla precedente
nota, se T è costante e, per esempio, con autovalori reali distinti, un sistema fondamentale di vettori è certamente
dato dagli evoluti ϵ!h (t) = eλh t ϵh . Più in generale, formano un sistema fondamentale gli evoluti

t &−→ xh (t) := P eTJ t ξh |0 h = 1, 2, . . . , n ,

di un sistema di vettori {ξ1 |0 , . . . , ξn |0 } che sia una base in Rn , per esempio i trasformati dei vettori di base
eh = (0, 0, . . . , 0, 1, 0, . . . , 0)T (e quindi colonne della matrice P −1 ). Se poi T proviene da un’equazione di ordine
n (con autovalori λh tutti reali distinti) allora si sa in più che la matrice P deve avere la speciale forma
⎛ ⎞⎛ 1 ⎞
1 1 ··· 1 P1 0 0
⎜ λ1 λ2 λn ⎟ ⎜ 2 ⎟
⎜ ⎟ ⎜ 0 P2 ⎟
P = ⎜ .. .. .. ⎟ ⎜ .. ⎟
⎝ . . . ⎠ ⎝ . ⎠
λn−1
1 λn−1
2 λn−1
n 0 Pnn

ove l’ultima matrice rappresenta un inessenziale coefficiente moltiplicativo.


D’altra parte, l’ipotesi che tutte le λ1 , . . . , λn siano radici distinte di un’equazione di ordine n a coefficienti
costanti implica che il Wronskiano della corrispondente matrice fondamentale sia
' '
' eλ1 t ··· eλn t ''
'
' λ1 eλ1 t ··· λn eλn t ''
'
W (t) = ' .. .. '
' '
' n−1. . '
'λ eλ1 t · · · λn−1 eλn t '
1 n

e quindi ' '


' 1 ··· 1 '
' '
' λ1 ··· λn '
' '
W (0) = ' . .. '.
' .. . '
' n−1 '
'λ ··· λn−1 '
1 n

L’essere quest’ultimo diverso da zero è allora equivalente a che le λ siano radici semplici di una equazione di
grado n e quindi è sempre non nullo purché le λ siano tutte distinte. ◃

Si osservi ora che la (4.62) mette in relazione le varie matrici fondamentali della (4.60) con i loro dati iniziali e
la matrice principale. Infatti (con t0 fissato, e per ogni t ∈ JM ) si riconosce che

Φ−1 −1
1 (t)Φ2 (t) = C = Φ1 (t0 )Φ2 (t0 ), da cui Φ(t)Φ−1 (t0 ) = Ψ(t, t0 ). (4.64)

Quest’ultima esprime la matrice che nelle coordinate scelte su V rappresenta l’operatore Gtt0 , e implica che
Det Gtt0 = Det Ψ(t, t0 ) = Det Φ(t)/Det Φ(t0 ). Infatti la x(t) = Φ(t)c permette il calcolo di c = Φ−1 (t0 )x0 con
x0 := x(t0 ), e in virtù della (4.63) la soluzione generale è data da

x : t &→ x(t) = Φ(t)Φ−1 (t0 )x0 ovvero: x = Gtt0 x0 .

M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 129

Un’altra interpretazione possibile è data dalla Gtt0 := Bt Bt−1


0
che mostra l’evolutore come prodotto dei due
morfismi: quello che dal vettore x0 fa passare alla soluzione che lo ammette come dato iniziale, e quello che
trasforma quest’ultima nel valore che essa assume all’istante t. Si vede comunque che per le equazioni lineari
l’evolutore Gtt0 è un operatore in L(V) ed è ovvio che esso non dipenda dalla particolare n-pla fondamentale Φ
usata.
Nota 2.4.3 Dall’espressione Ψ(t, t0 ) = Φ(t)Φ−1 (t0 ), o meglio dalla Gtt0 = Φ(t)Φ−1 (t0 ) di cui la prima è la
rappresentazione in coordinate, si riconosce immediatamente sui sistemi lineari omogenei la proprietà, conseguenza
dell’unicità delle soluzioni, che esprime il determinismo dei sistemi differenziali a campo liscio, e cioè: Gtt13 =
t3 t2
Gt2 Gt1 . Se poi il sistema è anche autonomo allora come già ricordato si ha

Ψ(t, t0 ) = P eTJ t e−TJ t0 P −1 = eT (t−t0 ) = Ψ(t − t0 ).


Il caso non omogeneo, espresso dalla (4.59), è solo di poco più complicato. Se y& : t &→ y&(t), y&(t0 ) = y&0 , è
una sua soluzione particolare, allora ogni altra si può esprimere, ed univocamente, mediante la
y : t &→ y(t) = x(t) + y&(t) , y(t0 ) = y0 ∈ V (4.65)
ove t &→ x(t) è la soluzione della (4.60) che in t0 verifica la x(t0 ) = x0 := y0 − y&0 . Se in special modo si riesce
a trovare come soluzione particolare proprio quella che ha y&(t0 ) = 0 allora la corrispondente x “assorbe” tutte
le condizioni iniziali: x0 = y0 ed è x(t) = Φ(t)Φ−1 (t0 )x0 ove t &→ Φ(t) è un qualsiasi sistema fondamentale di
soluzioni del sistema omogeneo associato: (4.60).
Ciò è quello che si fa regolarmente nel cosiddetto metodo della variazione della costante, che consiste nel cercare
la soluzione generale della (4.59) mediante la posizione:
y(t) = Φ(t)Φ−1 (t0 )(x0 + c(t)), con c(t0 ) = 0 ,
esso cioè consiste nel cercare la soluzione particolare della (4.59) sotto la speciale forma y&(t) = Φ(t)Φ−1 (t0 )c(t),
con c(t0 ) = 0 .
Si ricava la condizione necessaria
ẏ(t) = Φ̇(t)Φ−1 (t0 )(x0 + c(t)) + Φ(t)Φ−1 (t0 )ċ(t) = T (t)y(t) + b(t)
.t
che implica ċ(t) = Φ(t0 )Φ−1 (t)b(t) da cui c(t) = t0 Φ(t0 )Φ−1 (τ )b(τ )dτ e cioè
- t
y&(t) = Φ(t) Φ−1 (τ )b(τ )dτ.
t0

La soluzione y : t &→ y(t) ∈ V della (4.59) che vale x0 = y0 in t = t0 è allora data da (salvo esprimere il tutto
in coordinate)
y : t &→ y(t) = x(t) + y&(t)
- t
≡ Φ(t)Φ−1 (t0 )x0 + Φ(t) Φ−1 (τ )b(τ )dτ (4.66)
t0
[ \] ^ [ \] ^
risposta libera risposta della forzante

Nel caso particolare T (t) = T = cost la (4.66) si specializza nella


- t
y(t) = Φ(t − t0 )Φ−1 (0)x0 + Φ(t − τ )Φ−1 (0)b(τ )dτ
t0
- t
= eT (t−t0 ) x0 + eT (t−τ ) b(τ )dτ .
t0

Memento 2.4.1 Date m funzioni vettoriali {t &→ ξi (t)}i=1,...,m ,


ciascuna delle quali avente
) come componenti
*
. ..
n funzioni continue su I , alcuni autori chiamano Wronskiano della matrice Ξ : t &→ ξ1 (t) .. · · · . ξ (t) la
n

funzione W : t &→ W (t) := Det Ξ(t); per altri invece il Wronskiano è il determinante che cosı̀ si ottiene nel caso
particolare di una equazione di ordine n, e che quindi proviene da una matrice che ha le righe ciascuna uguale alla
derivata della riga precedente. Qui di seguito si userà la prima delle due definizioni.
Se Ξ = Ξ(t) è una matrice fondamentale di un sistema (4.60) allora W (t) o è identicamente nullo oppure
è identicamente non nullo. Infatti W (t) si annulla o se una delle equazioni è combinazione lineare delle altre,
e quindi una coordinata in ogni istante linearmente dipendente dalle altre; oppure se le colonne sono linearmente
dipendenti in un certo istante t∗ , ed essendo soluzioni di un sistema (4.60) lo rimangono per ogni t.

Note di Sistemi Dinamici


130 Capitolo 2. Sistemi differenziali lineari

Proposizione 2.4.1 Se Φ : t &→ Φ(t) è una matrice fondamentale di un sistema omogeneo (4.60) allora
)- t *
W (t) = exp T r T (τ )dτ W (t0 ).
t0

Dimostrazione Se W (t0 ) = 0 le colonne della matrice Φ, e cioè gli n vettori Cφ1 (t), . . . , φn (t) rimangono
n i j
linearmente dipendenti. Altrimenti, il calcolo del determinante fornisce W (t) = j=1 φj (t)Mi (t), avendo
indicato con φij la i -ma componente della j -ma soluzione fondamentale φj , e con Mij il complemento algebrico
(o cofattore) di φij nella matrice Φ. Derivando ambo i membri della relazione precedente si può notare che
Mij ≡ ∂W /∂φij . Si osservi ora che, in qualunque modo W dipenda da ciascuno dei φij , la derivata dt d
W (t) non
può che essere:
d = ∂W = j = j =
W = i φ̇ij = Mi φ̇ij = Mi Tki φkj =: Tki D ki
dt i,j
∂φj i,j i,j,k i,k

(k)
ove D ki è il determinante della matrice Ξ(i) ottenuta sostituendo nella Φ alla i -esima riga (φi1 , . . . , φin ) la k -esima
(k)
(φk1 , . . . , φkn ). Ne segue che gli unici scalari D ki a essere non nulli (in corrispondenza del fatto che la matrice Ξ(i)
non ha due righe proporzionali) sono i termini con k = i , che quindi valgono W . Per cui si ha
= =
Ẇ (t) = Tki (t)δik W (t) = Tii (t)W (t) = W (t) T r(T (t)).
i,k i

Una dimostrazione alternativa usa l’uguaglianza


W (t) Det Φ(t)
= = Det Ψ(t, t0 ) = Det Gtt0
W (t0 ) Det Φ(t0 )
e lo sviluppo: Φ(t) = Φ(t0 + ∆t) = Φ(t0 ) + T (t0 )Φ(t0 )∆t + o(∆t) . Queste danno Ψ(t, t0 ) := Φ(t)Φ−1 (t0 ) = 1I + T (t0 )∆t + o(∆t)
il cui determinante vale
_n
W (t)
Det Ψ(t, t0 ) = = (1 + λi ∆t + o(∆t)) = 1 + T r T (t0 )∆t + o(∆t)
W (t0 ) i=1
come si vede facilmente nella base in cui T (t0 ) assume la forma triangolare TJ . Ne segue

d '' Ẇ (t0 ) d ''


' Det Ψ(t, t0 ) = = ' (1 + T r T (t0 )∆t + o(∆t)) = T r T (t0 ).
dt t=t0 W (t0 ) dt t=t0 "

Nota 2.4.4 Il sistema ẏ + T ∗ (t)y = 0 si dice aggiunto del sistema ẋ = T (t)x quando T e T ∗ sono le matrici
che una stessa base {ek }k=1,...,n ⊂ V assegna all’operatore T e, rispettivamente, al suo aggiunto T ∗ rispetto a un
fissato prodotto scalare ⟨ ·, · ⟩ definito su V.
Sul sistema aggiunto è possibile ripetere quanto detto per l’equazione (4.60), e quindi: cosı̀ come alla (4.60)
(con arbitrarie condizioni iniziali) corrisponde l’equazione in L(Rn ) data da Ẋ = T X con X0 = 1I , all’equazione
aggiunta ẏ = −T ∗ y (e arbitrarie condizioni iniziali) corrisponde in L(Rn ) il sistema aggiunto Ẏ = −T ∗ Y con
Y0 = 1I .
Nell’ipotesi che base e prodotto scalare siano tali che ⟨ eh , ek ⟩ = δhk , il sistema aggiunto può anche essere
scritto nella forma:
Ẏ T = −Y T T con Y T0 = 1I .
T T
Una matrice fondamentale di un tale sistema è una matrice Y : t &→ Y (t) che ha le righe soluzioni
indipendenti dell’equazione (fra righe)
ẏ T = − y T T .
T
Limitandosi al caso reale, e chiamate X e Y matrici fondamentali dei due sistemi rispettivamente, si ha
allora che esse sono legate dalla relazione
d T T T T T
(Y X) = Ẏ X +Y Ẋ = −Y TX + Y TX = 0 ,
dt
dunque: esiste una matrice numerica C tale che Y T X = C −1 , e quindi tale che X −1 = CY T , e la matrice
C è non singolare perché tali sono entrambe le due matrici.
Viceversa: se X è una matrice fondamentale per il sistema (4.60) e se C è numerica non singolare, allora
la matrice Y := X −T C −T è matrice fondamentale del sistema aggiunto. Infatti si ha: Y T X = cost e quindi
ne segue Ẏ T X = −Y T T X che implica l’asserto, data l’invertibilità della X . In particolare: se X è una

M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 131

matrice fondamentale per il sistema (4.60) allora X −T è matrice fondamentale per il sistema ẏ + T T y = 0 , e
quindi tale che: Ẋ −1