Sei sulla pagina 1di 407

Ernesto Salinelli

Franco Tomarelli

Modelli Dinamici Discreti

UNITEXT
3a edizione

ABC
UNITEXT – La Matematica per il 3+2

Volume 71

http://www.springer.com/series/5418
Ernesto Salinelli · Franco Tomarelli

Modelli Dinamici Discreti


3a edizione
Ernesto Salinelli Franco Tomarelli
Università del Piemonte Orientale Politecnico di Milano
Dipartimento di Studi per l’Economia e l’Impresa Dipartimento di Matematica
Novara Milano

UNITEXT – La Matematica per il 3+2


ISSN versione cartacea: 2038-5722 ISSN versione elettronica: 2038-5757

ISBN 978-88-470-5503-2 ISBN 978-88-470-5504-9 (eBook)


DOI 10.1007/978-88-470-5504-9
Springer Milan Heidelberg New York Dordrecht London
© Springer-Verlag Italia 2014
Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione è ammessa solo ed esclu-
sivamente nei limiti stabiliti dalla stessa. Le fotocopie per uso personale possono essere effettuate nei
limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art. 68. Le
riproduzioni per uso non personale e/o oltre il limite del 15% potranno avvenire solo a seguito di
specifica autorizzazione rilasciata da AIDRO, Corso di Porta Romana n. 108, Milano 20122, e-mail
segreteria@aidro.org e sito web www.aidro.org.
Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e
tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm
o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riser-
vati anche nel caso di utilizzo parziale. La violazione delle norme comporta le sanzioni previste dalla
legge.
L’utilizzo in questa pubblicazione di denominazioni generiche, nomi commerciali, marchi registrati,
ecc. anche se non specificatamente identificati, non implica che tali denominazioni o marchi non
siano protetti dalle relative leggi e regolamenti.
9 8 7 6 5 4 3 2 1

In copertina: “Tempo di fioritura”, Gianni Dova, 1964.


Il Castello Arte Moderna e Contemporanea, Milano.

Layout di copertina: Beatrice B., Milano

Impaginazione: PTP-Berlin, Protago TEX-Production GmbH, Germany (www.ptp-berlin.eu)


Stampa: Grafiche Porpora, Segrate (MI)

Springer-Verlag Italia S.r.l., Via Decembrio 28, I-20137 Milano


Springer fa parte di Springer Science+Business Media (www.springer.com)
Prefazione

L’uso dei modelli matematici ha assunto un ruolo di primaria importanza in


moltissimi campi: dalla meteorologia alla descrizione sintetica di reazioni negli
impianti chimici, dalla elaborazione di dati relativi a sistemi finanziari, allo
studio di popolazione biologiche. Questi sono solo alcuni casi in cui anche il co-
mune cittadino (e non solo l’esperto del settore) viene suo malgrado coinvolto
nel dibattito, se non addirittura nella scelta, tra impostazioni alternative, allo
scopo di mantenere l’evoluzione dei fenomeni descritti da tali modelli entro
limiti ritenuti accettabili. È dunque auspicabile che almeno elementari cono-
scenze delle proprietà dei modelli matematici diventino un patrimonio il più
possibile diffuso tra gli abitanti del “villaggio globale”.
Quando la modellazione matematica si riferisce a fenomeni dipendenti dal
tempo, la terminologia moderna precisa la nozione di modello matematico
definendo la nozione di sistema dinamico.
Il termine discreto, che compare nel titolo, indica la natura dei modelli che
prenderemo in esame: a partire da un numero finito di istanti in cui si hanno
informazioni sul fenomeno in esame, tali modelli ne descrivono l’evoluzione fu-
tura mediante i valori assunti in un insieme discreto di tempi successivi, detti
passi temporali (ad esempio, i multipli interi positivi di una fissata unità di
tempo), ma non la descrizione per tutti i valori del tempo considerato come
una grandezza continua o, più precisamente, analogica.
Assai spesso nelle applicazioni anche le grandezze osservate risultano es-
sere discrete (si usa dire “quantizzate”) per le caratteristiche degli strumenti
di misura e per le manipolazioni di tipo elettrico o elettronico che, nell’at-
tuale fase dello sviluppo tecnologico, inevitabilmente sono effettuate su tali
grandezze. Tuttavia, in molti casi pratici la quantizzazione ha un ordine di
grandezza così ridotto da poter essere trascurata; per questo motivo suppor-
remo spesso che le grandezze in esame possano assumere una gamma continua
di valori.
Negli anni recenti si è rivolta particolare attenzione allo studio dei siste-
mi dinamici non lineari, ed in questo campo si sono sviluppate nuove
vi Prefazione

idee ed utili paradigmi interpretativi che hanno contribuito ad una maggiore


comprensione di numerosi problemi sia teorici che di rilevante interesse appli-
cativo. Per comprendere cosa si intende con il termine non lineare, è utile
ricordare cosa si intende in matematica con il termine problema lineare:
un problema si dice lineare se vi è una proporzionalità tra i dati in ingresso
(input) e gli effetti risultanti (output), e alla somma di più cause corrisponde
la somma dei rispettivi effetti.
In generale si sanno risolvere in modo soddisfacente i problemi lineari, o
perlomeno si sanno approssimare bene numericamente, ma i problemi fisici,
chimici, biologici, economici, demografici e dell’ingegneria, sono più corretta-
mente descritti da modelli non lineari.
Purtroppo si sa dire molto meno sulle soluzioni dei problemi non lineari,
e tali soluzioni sono spesso caratterizzate da un comportamento complesso,
instabilità e dipendenza sensibile dai dati iniziali, al punto che in taluni casi
viene descritto come caos.
Con questa suggestiva, ma in parte fuorviante, espressione si intende la
possibilità di avere evoluzioni estremamente complicate, anche a partire da
semplici modelli deterministici non lineari: questo produce l’apparente para-
dosso per cui, in tali casi, la estrema sensibilità nella dipendenza dai dati
iniziali (sempre affetti da errori sperimentali) rende assai debole la speran-
za di effettuare previsioni dettagliate di lungo periodo. Tale situazione è ben
illustrata dall’esempio della meteorologia, ferma restando la possibilità oggi
realizzata di affidabili previsioni nel breve periodo.
Queste considerazioni non mettono in discussione l’efficacia di tali metodi-
che ma sono un invito a ricordarne i limiti, al fine di non estrapolare a lungo
termine gli effetti dedotti dall’analisi dei modelli non lineari, ed a tenere conto
delle instabilità ad essi intrinsecamente associata.

Questo volume nasce da una precisa esigenza didattica: intende fornire una
presentazione elementare ed autocontenuta della modellistica matematica di-
screta con una introduzione all’analisi dei sistemi dinamici discreti.
Si illustrano alcuni metodi qualitativi della modellazione matematica, di-
scutendo cosa si intende per soluzione di tali modelli mediante semplici esem-
pi (Capitolo 1); sono presentate alcune tecniche di soluzione di equazioni alle
differenze lineari (Capitolo 2) e sono studiate le proprietà qualitative delle
soluzioni e la loro struttura nel caso di modelli non lineari, con particolare
riferimento alle proprietà di stabilità (Capitoli 3 e 4).
I metodi e le tecniche per lo studio dei modelli discreti sono dispersi nella
letteratura matematica, economica, biologica, demografica e dell’ingegneria.
Qui si è cercato di presentare la materia in modo unitario, sviluppando dap-
prima esempi e motivazioni, per poi affrontare lo studio dei modelli lineari e
successivamente di quelli non lineari, cercando di unificare il punto di vista
modellistico con quelli dell’Analisi Matematica, della Teoria dei Sistemi, del-
l’Algebra Lineare, del Calcolo delle Probabilità, del Calcolo numerico e della
Matematica Finanziaria.
Prefazione vii

Il caso vettoriale, più tecnico come notazioni e metodi, è presentato a parte


negli ultimi due capitoli (Capitoli 5 e 6), limitandone la trattazione esclusiva-
mente ai problemi lineari.
L’esposizione della teoria è resa graduale dalla proposta di alcuni esercizi
di difficoltà crescente. Altri esercizi di riepilogo sono raggruppati in apposite
sezioni. Le soluzioni di gran parte degli esercizi sono descritte in dettaglio nel
Capitolo 7. La Teoria è accompagnata da algoritmi e suggerimenti per effet-
tuare prove numeriche e simulazioni al computer.
A quest’ultimo proposito, ricordiamo che i sistemi dinamici discreti sono
essenzialmente iterazioni di funzioni, e che i computer eseguono con molta
efficienza le iterazioni di algoritmi. Invitiamo dunque il lettore ad affrontare
personalmente lo svolgimento degli esercizi sia mediante il calcolo manuale
(quando è possibile), sia cercando le proprietà qualitative con il metodo gra-
fico ed i risultati teorici del testo, sia effettuando simulazioni numeriche con
un personal computer.
Attualmente sono disponibili software particolarmente adatti sia alla itera-
zione di calcoli simbolici sia alla gestione della grafica. Questo rende possibile,
mediante opportune iterazioni di polinomi, generare sul monitor quelle im-
magini affascinanti ed intriganti denominate frattali anche senza conoscere gli
aspetti più tecnici della sottostante Teoria Geometrica della Misura.
Nel testo si forniscono comunque (Capitolo 4 ed Appendice F) alcune no-
zioni di base per lo studio di tali enti e la definizione di dimensione frattale e
di misura di un insieme frattale.
Per tutti gli esempi ed esercizi affrontati si invita il lettore a porre l’at-
tenzione non solo sulle particolarità algebriche del problema formalizzato,
quanto sul fenomeno modellizzato, il significato di modello matematico, il
dominio dei parametri in cui il modello è sensato, il valore predittivo
del modello e la sua computabilità a partire da dati sperimentali affetti da
inevitabili errori di misura.
In questa prospettiva la matematica svolge un ruolo di retroazione tra lo
studio e la formulazione di modelli descrittivi e predittivi. Qualora si pervenga
ad un adeguato livello di astrazione e di rigore nella formulazione di tali mo-
delli, si possono sviluppare idee innovative che permettono di comprendere ed
unificare problemi applicativi diversi attraverso l’identificazione di strutture
generali e l’elaborazione di teorie di ampia applicabilità.

Ringraziamo Maurizio Grasselli, Stefano Mortola e Antonio Cianci per gli


utili suggerimenti e le osservazioni al testo e Irene Sabadini per l’accurata
redazione delle numerose figure.

Milano, giugno 2002 Gli Autori


viii Prefazione

Questa seconda edizione del volume si avvale dell’esperienza didattica ma-


turata nel corso di Modelli Dinamici Discreti tenuto in questi anni presso il
Politecnico di Milano: numerose correzioni sono state apportate, la presen-
tazione di molti esempi ed esercizi è stata migliorata ed ampliata; infine è
stato inserito un nuovo capitolo su matrici positive, grafi e loro proprietà utili
nell’analisi di reti e motori di ricerca.
Vogliamo esprimere un sentito ringraziamento a Francesca Bonadei per
l’incoraggiamento ed il supporto forniti, ad Alberto Perversi per la valida
consulenza sulla gestione della grafica ed agli studenti del corso di studi in
Ingegneria Matematica per l’entusiasmo dimostrato e le utili osservazioni.

Milano, luglio 2008 Gli Autori

Nella terza edizione è stata aggiornata la trattazione di vari argomenti, sono


stati inseriti nuovi esempi ed esercizi e la bibliografia è stata ampliata per
fornire indicazioni al lettore interessato ad approfondire lo studio dei sistemi
dinamici discreti.
Nella attuale organizzazione del testo i capitoli 5, 6 e 7 sono dedicati al caso
vettoriale, conseguentemente le soluzioni svolte degli esercizi proposti sono
raccolte nel Capitolo 8.
Ringraziamo Debora Sesana per la revisione del materiale iconografico.
Questa edizione è pubblicata sia in lingua italiana che in lingua inglese.

Milano, giugno 2013 Ernesto Salinelli, Franco Tomarelli


Guida alla lettura

I primi due capitoli presentano una introduzione elementare alla materia: gli
unici prerequisiti sono le proprietà dei polinomi.
Il Capitolo 3 richiede la conoscenza della nozione di continuità ed il calcolo
di derivate di funzioni di una variabile, nel Capitolo 4 sono utilizzate alcune
elementari nozioni di Topologia.
Nei Capitoli 5, 6, 7, dedicati al caso vettoriale, si utilizzano alcune tecniche
di Algebra Lineare.
Tutti i prerequisiti, anche se elementari, sono comunque richiamati nel te-
sto o nelle Appendici.
Le dimostrazioni, stampate con un carattere tipografico ridotto, sono utili
per una comprensione approfondita ma possono omesse nel corso di una prima
lettura.
I primi tre capitoli possono essere oggetto di un modulo didattico (o semi-
annualità) della laurea triennale; in una prima lettura possono essere trala-
sciati i paragrafi 2.5, 2.6, 2.7, 2.8, 3.3, 3.4, 3.9 senza inconvenienti per la com-
prensione.
I Capitoli 4, 5 ,6 ,7 possono essere oggetto in un modulo didattico avanzato.
I capitoli successivi al primo sono largamente indipendenti tra loro, in mo-
do tale da rendere possibili vari percorsi di lettura a seconda dell’interesse per
alcune classi di problemi rispetto ad altre. Segnaliamo alcuni possibili percorsi
di lettura dei vari capitoli.
Indice

Prefazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v

Guida alla lettura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix

Indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi

Simboli e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xv

1 Fenomeni ricorsivi ed equazioni alle differenze . . . . . . . . . . . . . 1


1.1 Definizioni e notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Metodo grafico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Equazioni alle differenze lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25


2.1 Equazioni lineari ad un passo a coefficienti costanti . . . . . . . . . . 25
2.2 Equazioni lineari ad n passi a coefficienti costanti . . . . . . . . . . . . 31
2.3 Stabilità di equilibri per equazioni ad n passi a coefficienti
costanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4 Ricerca di soluzioni particolari con secondi membri di tipo
particolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.5 La Z-trasformata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.6 Equazioni lineari a coefficienti variabili . . . . . . . . . . . . . . . . . . . . . 62
2.7 Esempi di equazioni non lineari ad un passo riconducibili al
caso lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.8 La Trasformata Discreta di Fourier . . . . . . . . . . . . . . . . . . . . . . . . 73
2.9 Algoritmo Fast Fourier Transform (FFT) . . . . . . . . . . . . . . . . . . . 79
2.10 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

3 Sistemi dinamici discreti: equazioni scalari ad un passo . . . . 87


3.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2 Ancora sull’analisi grafica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
xii Indice

3.3 Comportamento asintotico in ipotesi di monotonia . . . . . . . . . . . 97


3.4 Teorema delle contrazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.5 La nozione di stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.6 Condizioni di stabilità basate sulle derivate . . . . . . . . . . . . . . . . . 107
3.7 Strategie di pesca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.8 Studio qualitativo e stabilità delle orbite periodiche . . . . . . . . . . 117
3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari . . . . . . . . 120
3.10 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

4 Complessità dei sistemi dinamici non lineari: biforcazioni


e caos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.1 Dinamica della crescita logistica . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.2 Il teorema di Sharkovsky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. . . . . . . . . 138
4.4 Caos ed insiemi frattali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
4.5 Coniugazione topologica di sistemi dinamici discreti . . . . . . . . . . 162
4.6 Metodo di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.7 Sistemi dinamici discreti nel campo complesso . . . . . . . . . . . . . . . 169
4.8 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

5 Sistemi dinamici discreti: equazioni vettoriali . . . . . . . . . . . . . . 185


5.1 Definizioni e notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
5.2 Applicazioni alla genetica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari . . . . . . . . . 197
5.4 Matrici strettamente positive e Teorema di Perron-Frobenius . . 205
5.5 Applicazioni alla demografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
5.6 Equazioni vettoriali lineari affini . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
5.7 Sistemi dinamici discreti vettoriali non lineari . . . . . . . . . . . . . . . 218
5.8 Schemi numerici per la risoluzione di problemi lineari . . . . . . . . 221
5.9 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232

6 Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235


6.1 Esempi, definizioni e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
6.2 Analisi asintotica di modelli descritti da catene di Markov
assorbenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
6.3 Passeggiate casuali, duelli e partite di tennis . . . . . . . . . . . . . . . . 252
6.4 Ancora sull’analisi asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
6.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

7 Matrici positive e grafi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265


7.1 Matrici irriducibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
7.2 Grafi e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
7.3 Ancora sulle Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
7.4 Algoritmo PageRank: perché un buon motore di ricerca
sembra leggere nel pensiero di chi lo interroga . . . . . . . . . . . . . . . 286
7.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
Indice xiii

8 Soluzioni degli esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293


8.1 Soluzioni degli esercizi del Capitolo 1 . . . . . . . . . . . . . . . . . . . . . . 293
8.2 Soluzioni degli esercizi del Capitolo 2 . . . . . . . . . . . . . . . . . . . . . . 300
8.3 Soluzioni degli esercizi del Capitolo 3 . . . . . . . . . . . . . . . . . . . . . . 317
8.4 Soluzioni degli esercizi del Capitolo 4 . . . . . . . . . . . . . . . . . . . . . . 332
8.5 Soluzioni degli esercizi del Capitolo 5 . . . . . . . . . . . . . . . . . . . . . . 343
8.6 Soluzioni degli esercizi del Capitolo 6 . . . . . . . . . . . . . . . . . . . . . . 346
8.7 Soluzioni degli esercizi del Capitolo 7 . . . . . . . . . . . . . . . . . . . . . . 349

Appendice A. Somme e serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353

Appendice B. Numeri Complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355

Appendice C. Aritmetica della probabilità . . . . . . . . . . . . . . . . . . . . . 359

Appendice D. Algebra lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361

Appendice E. Topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371

Appendice F. Dimensione frattale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373

Appendice G. Tabelle di Z-trasformate . . . . . . . . . . . . . . . . . . . . . . . . 379

Appendice H. Alcuni algoritmi e suggerimenti per simulazioni


al computer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383

Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389

Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391


Simboli e notazioni

N insieme dei numeri naturali con lo 0;


Z insieme dei numeri interi;
R insieme dei numeri reali;
Q insieme dei numeri razionali;
C insieme dei numeri complessi;
Rn spazio euclideo n–dimensionale;
s.d.d. sistema dinamico discreto;
{I, f} s.d.d. Xk+1 = f(Xk ) k ∈ N, associato alla funzione f : I → I;
{e1 , e2 , · · · , en } base canonica di Rn : ej = (0, 0, . . . , 1, . . . , 0);
x = (x1 , . . . , xn ) vettore x ∈ Rn di componenti xj ∈ R
rispetto alla base standard di Rn ;
x norma euclidea di x ∈ Rn ;
BR (x) disco aperto n dimensionale di raggio R e centrato in x;
∂E bordo o frontiera dell’insieme E ⊂ Rn ;
E chiusura dell’insieme E ⊂ Rn ;
ωn volume del disco unitario B1 (0) ⊂ Rn ;
σn−1 area della sfera unitaria S n−1 = ∂B1 (0) ⊂ Rn ;
X = {Xk }k∈N successione di numeri Xk , o traiettoria di un s.d.d. scalare;
X = {Xk }k∈N successione di vettori Xk = {Xkh }h=1,...,n ,
o traiettoria di un s.d.d. vettoriale;
mi,j elemento nella riga i e colonna j della matrice M;
λM autovalore dominante (o di Perron-Frobenius) della
matrice M;
VM autovettore dominante (o di Perron-Frobenius) della
matrice M;
xvi Simboli e notazioni

x+ parte positiva del numero reale x;


x− parte negativa del numero reale x;
o(1) infinitesimo;
o(xa ) “ o piccolo” di xa : infinitesimo di ordine superiore ad xa per
x → 0+ ; a > 0;
O(xa) “ O grande” di xa : termine il cui modulo è maggiorato da
C|x|a;
 dello stesso ordine;
∼ asintotico a;
Re z parte reale di z ∈ C;
Im z parte immaginaria di z ∈ C;
 1/2
|z| modulo di z ∈ C: |z| = (Re z)2 + (Im z)2 ;
arg(z) argomento di z ∈ C \ {0}: angolo orientato tra e1 e z ;
res(f(z), z0 ) residuo della funzione f nel punto z = z0 ∈ C;
v:Ω→E funzione v con dominio Ω ⊂ Rn ed immagine in E ⊂ Rm ;
v(x+ ) limite destro nel punto x della funzione v di variabile reale;
v(x− ) limite sinistro nel punto x della funzione v di variabile
reale;
DFT trasformata di Fourier discreta: Y = DFTy = n−1 F y ,
Y, y ∈ Rn , Fh k = ωhk , ω = e2πi/n ;
(DFT )−1 inversa della trasformata di Fourier discreta:
y = (DFT)−1 Y = F Y ;
FFT (Fast Fourier Transform) trasformata rapida di Fourier;
Z Zeta transformata: x(z) = Z{X} , X successione scalare.
1
Fenomeni ricorsivi ed equazioni alle
differenze

In questo primo capitolo vengono definite le notazioni ricorrenti nel testo e


si illustrano alcune motivazioni dello studio dei modelli matematici discreti
attraverso la presentazione di esempi la cui analisi sistematica è rinviata ai
capitoli successivi.
Le definizioni astratte del primo paragrafo formano un quadro unitario per
lo studio di un’ampia classe di problemi di cui nel secondo paragrafo sono
descritti alcuni esempi significativi.

1.1 Definizioni e notazione

Nel seguito tratteremo successioni di numeri complessi. Con il termine suc-


cessione indichiamo una funzione F : N → C, dove 1 N = {0, 1, 2, 3, . . . }.
Il lettore senza familiarità con i numeri complessi potrà pensare, in prima
lettura, che quanto di seguito esposto sia riferito solo a successioni di nu-
meri reali. Per comodità, le proprietà elementari dei numeri complessi sono
richiamate in Appendice B.
Una generica successione verrà indicata con una lettera maiuscola, ad esem-
pio F , mentre con una lettera maiuscola dotata di pedice indicheremo il suo
k-esimo termine, nell’esempio Fk , ossia il valore che F assume in k. In altre
parole, porremo Fk = F (k).
Seguendo una prassi comune, identificheremo una successione F con l’insieme
ordinato dei valori assunti: F = {Fk }k∈N o, brevemente, F = {Fk }.
Allo studioso interessato alla descrizione di grandezze in una successione di
passi o di istanti temporali, potrebbe sembrare restrittivo occuparsi solo di
1
Osserviamo che in altri contesti si pone N = {1, 2, 3, . . . }. La scelta, puramente
convenzionale, è motivata dai problemi in esame. Nei casi che studieremo è utile
avere come riferimento un dato iniziale corrispondente all’indice 0. Tuttavia ogni ri-
sultato può essere riportato al caso di successioni definite per tutti gli indici naturali
k maggiori o uguali ad un indice k0 .

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_1, © Springer-Verlag Italia 2014
2 1 Fenomeni ricorsivi ed equazioni alle differenze

funzioni definite sull’insieme dei numeri naturali, ma non è così. Infatti, se t0 ∈


R è un qualsiasi istante iniziale ed h > 0 è un incremento, allora la successio-
ne di valori {t0 , t0 + h, t0 + 2h, t0 + 3h, . . . } viene biunivocamente trasformata
nella successione {0, 1, 2, 3, . . . } dalla trasformazione
t − t0
k= .
h
Dato che oggetto del nostro studio sono quantità che dipendono da numeri na-
turali, non è sorprendente che il principio di induzione, che qui ricordiamo,
si riveli assai utile nell’analisi:

Sia P (k) una proposizione relativa al numero naturale k. Se:


 
i) esiste un 
k ∈ N tale che P 
k è vera,

 se P (k) è vera, allora P (k + 1) è vera;


ii) per ogni k ≥ k,

allora la proposizione P (k) è vera per ogni k ≥ 


k.

Se I è un qualsiasi sottoinsieme di C (nella maggior parte dei casi, I sarà un


intervallo in R), poniamo:

I n = I × I × · · · × I

n volte

cioè I n denoterà l’insieme delle n-uple (x1 , x2 , . . . , xn ) tali che xj ∈ I per ogni
j = 1, 2, . . . , n.

Definizione 1.1. Si dice equazione alle differenze (finite)2 di ordine


n, l’insieme di equazioni

g (k, Yk , Yk+1 , . . . , Yk+n ) = 0 ∀k ∈ N (1.1)

dove n è un intero positivo e g è una funzione scalare assegnata di n + 2


variabili, il cui dominio è N × I n+1

g : N × I n+1 → R .

2
L’origine del nome si chiarisce nel caso particolare in cui
g (k, Yk , Yk+1 , . . . , Yk+n ) = ψ (k, Yk+1 − Yk , Yk+2 − Yk+1 , . . . , Yk+n − Yk+n−1 )
per una opportuna funzione ψ.
1.1 Definizioni e notazione 3

Un’equazione alle differenze di ordine n si dice in forma normale se è


scritta nella forma

Yk+n = φ (k, Yk , Yk+1 , . . . , Yk+n−1 ) ∀k ∈ N (1.2)

con φ funzione nota


φ : N×I n → I. (1.3)

La (1.2) è una relazione ricorsiva che, a partire dalla conoscenza dei primi n
valori consecutivi della successione Y consente, “con molta pazienza”, di rica-
vare, un passo alla volta, tutti i valori di tale successione. In molti casi questo
calcolo può risultare proibitivo anche con procedure di calcolo automatico.
Risulta così utile conoscere una espressione esplicita, cioè non ricorsiva, di Y .

Definizione 1.2. Si dice soluzione della (1.1) una qualsiasi successione X


definita in modo esplicito (non ricorsivo) da

Xk = f (k) ∀k ∈ N (1.4)

ove f : N → I, è una funzione tale che, sostituendo Yk con f (k) nella (1.1),
si ottiene una identità.
L’insieme di tutte le soluzioni della (1.1) si dice soluzione generale dell’e-
quazione.

Teorema 1.3 (di esistenza ed unicità). Se φ è una funzione che verifi-


ca (1.3), allora l’equazione alle differenze in forma normale (1.2) ha sempre
soluzioni. Per ogni scelta dell’n-upla (α0 , α1 , . . . , αn−1) ∈ I n , il problema con
dati iniziali associato all’equazione alle differenze in forma normale (1.2):

Yk+n = φ (k, Yk , Yk+1 , . . . , Yk+n−1)
Y0 = α0 , Y1 = α1 , . . . , Yn−1 = αn−1

ammette una ed una sola soluzione.

Prova. Sostituendo le condizioni iniziali α0 , α1 , . . . , αn−1 nella (1.2) con k = 0 otte-


niamo un unico valore per Yn , diciamo αn; inoltre, per la (1.3), (α1 , α2 , . . . , αn−1 , αn )
appartiene a I n : sostituendo le condizioni

Y1 = α1 , Y2 = α2, ..., Yn = αn

nell’equazione (1.2) si ottiene Yn+1 . Ripetendo il procedimento, si costruisce, un


passo alla volta, una unica successione Y che è una soluzione di (1.1) nel senso di
(1.4). 
Qualora non sia possibile determinare una espressione esplicita della soluzione
X, è comunque assai utile poter stabilire se i valori Xk hanno o meno certi
comportamenti al variare di k: periodicità, avvicinamento a particolari valori,
o un andamento più complicato da descrivere.
4 1 Fenomeni ricorsivi ed equazioni alle differenze

1.2 Esempi

In questo paragrafo illustriamo alcune situazioni che motivano lo studio di


modelli matematici discreti. Per ciascuna l’analisi sistematica è rinviata ai
capitoli successivi.
I primi esempi sono del tutto elementari. L’ordinamento degli esempi oltreché
alla disciplina in cui sorgono, corrisponde ad una crescente difficoltà di trat-
tazione. Gli ultimi esempi non sono elementari e potrebbero risultare molto
tecnici ad una prima lettura, ma vogliono illustrare almeno in parte le varietà
di situazioni in cui le equazioni alle differenze svolgono un ruolo importante
nella matematica applicata.

Esempio 1.4. Una telefonata da un telefono mobile costa α quale diritto di


chiamata e β per ogni minuto di conversazione. Il costo totale della telefonata
Ck+1 dopo k + 1 minuti di conversazione è la soluzione di

Ck+1 = Ck + β
C0 = α

che è un esempio di problema con dato iniziale per una equazione alle diffe-
renze del primo ordine.

Esempio 1.5 (Interesse semplice). Supponiamo che l’ammontare Yk+1 di


un deposito di danaro calcolato al tempo k + 1 (scadenza per il calcolo degli
interessi) sia dato dall’ammontare Yk al tempo precedente più l’interesse cal-
colato, in base ad un tasso costante r sulla somma D0 depositata inizialmente.
Il modello alle differenze che descrive l’andamento del deposito corrisponde al
problema:
Yk+1 = Yk + rY0
Y0 = D0
la cui soluzione è (il lettore lo dimostri utilizzando il principio di induzione):

Yk = (1 + rk) D0 . (1.5)

Questo modello descrive l’andamento di un capitale investito in una obbliga-


zione o titolo di stato a rendimento fissato per un numero di anni corrispon-
dente alla durata dell’obbligazione.

Esempio 1.6 (Interesse composto). Se nell’esempio precedente supponia-


mo che l’interesse sia calcolato sempre ad un tasso costante r sulla somma
depositata al periodo precedente, ma venga capitalizzato ad ogni scadenza,
allora il modello ricorsivo che fornisce l’importo Xk+1 del deposito al tempo
k + 1 diventa:
Xk+1 = Xk + rXk = (1 + r) Xk
X0 = D0
1.2 Esempi 5

la cui soluzione è la seguente (anche questa formula si può provare per indu-
zione):
k
Xk = (1 + r) D0 . (1.6)
Questo modello descrive l’andamento di un conto corrente bancario il cui tasso
di interesse non subisce variazioni.
Si noti che, se r > 0 , la crescita del capitale nel caso dell’interesse compo-
sto risulta molto più rapida rispetto al caso dell’interesse semplice; infatti,
trascurando alcuni termini positivi nello sviluppo del binomio di Newton, si
ricava
k (k − 1) 2
(1 + r)k > 1 + kr + r k>2
2
che sostituita nelle (1.5) e (1.6) fornisce un confronto quantitativo tra i due
tipi di regimi finanziari :

k (k − 1) 2
Xk − Yk > r D0 .
2
Esempio 1.7. Una obbligazione di tipo fixed-reverse fornisce cedole che
variano nel tempo ma in modo prefissato all’atto dell’emissione. Un esempio
tipo è dato da un titolo della durata di 15 anni che fornisce una cedola del 7%
per i primi 5 anni ed in seguito una cedola annua del 2, 50% fino a scadenza.
Indicato con Zk la somma fra il capitale investito e le cedole riscosse fino al
tempo k, supponendo di non reinvestire le cedole, il modello corrispondente è

Zk+1 = Zk + r(k) Z0

⎨ 0, 07 se k = 0, 1, . . . , 5
con r(k) = 0, 025 se k = 5, 6, . . . , 14 .

0 se k ≥ 15
Osserviamo che tale modello non tiene affatto conto delle variazioni di prezzo
dell’obbligazione sul mercato secondario.
Esempio 1.8. Al tempo k = 0 viene erogato un mutuo d’importo S0 . Tale
somma è restituita in rate costanti di importo R, pagate a partire dal tempo
k = 1. Indicando con r il tasso d’interesse costante con il quale viene calcolato
l’interesse sul debito residuo Sk , quest’ultimo al tempo k + 1, k ≥ 1, è dato
da
Sk+1 = Sk + rSk − R = (1 + r) Sk − R .
Esempio 1.9. Al tempo k = 0, si investe una somma in un titolo che frutta
cedole di importo costante C ai tempi interi k ≥ 0. Se r indica il tasso di
interesse composto al quale si reinvestono le somme percepite, l’ammontare
Mk+1 del capitale posseduto al tempo k + 1 è dato dalla somma dell’ammon-
tare Mk del capitale posseduto al tempo k, degli interessi rMk maturati su
tale capitale e della cedola C “staccata” al tempo k + 1 (con M0 = C):

Mk+1 = Mk + rMk + C = (1 + r)Mk + C.


6 1 Fenomeni ricorsivi ed equazioni alle differenze

Esempio 1.10 (Modello della Ragnatela). Supponiamo che le quantità


Qdk+1 e Qok+1 di un bene, rispettivamente domandate e offerte su un mercato
al tempo k + 1 in funzione del prezzo Pk del bene, siano date da

Qdk+1 = a − bPk+1 Qok+1 = −c + dPk

dove le costanti a, b, c, d > 0 sono note. Ciò significa che al crescere del prez-
zo del bene diminuisce la quantità domandata del bene, mentre aumenta la
quantità offerta. Si noti che la significatività economica imporrebbe di con-
siderare solo prezzi appartenenti all’intervallo [Pmin , Pmax ] := [c/d, a/b], con
parametri tali che c/d < a/b.
La condizione di equilibrio del mercato Qdk+1 = Qok+1 conduce ad un pro-
blema nell’incognita prezzo espresso da una equazione alle differenze con una
condizione iniziale p :

d a+c
Pk+1 = − Pk +
b b .
P 0 = p

Il nome di ragnatela sarà chiarito nel seguito. Il lettore può provare a farsene
una ragione tentando di “risolvere graficamente” il problema.

Esempio 1.11 (Modello di decadimento radioattivo). Consideriamo


una popolazione di n particelle che decadono secondo la legge seguente: in
ogni intervallo di tempo unitario3 si riducono del 20%.
Se Pk indica il numero delle particelle dopo k intervalli di tempo, risulta

Pk+1 = 0, 8Pk
.
P0 = n

Analogamente all’Esempio 1.6, si ricava

Pk = (0, 8) P0 = e−k ln(5/4)n.


k

Per tale motivo si parla di decadimento esponenziale.


Osserviamo che la comparsa di valori di Pk non interi conduce a considerare
valori reali (descrizione corretta in opportune unità di misura macroscopiche
se n è molto grande).
Il modello rimane comunque discreto nel tempo nonostante la modellizzazione
continua delle grandezze che descrivono la popolazione.
Poniamoci le domande seguenti:
(1) qual è la vita media m di tali particelle?

3
L’intervallo di tempo può essere molto lungo: esso è determinato dalla natura delle
particelle.
1.2 Esempi 7

(2) qual è il tempo di dimezzamento d della popolazione?


(3) qual è la più grande delle due quantità trovate?

Sottolineiamo il fatto che le prime due domande sono differenti.


Nel primo caso si chiede di determinare la vita media, cioè il numero m veri-
ficante
+∞
1
m= k (Pk − Pk+1 ) . (1.7)
n
k=1

Sostituendo l’espressione trovata per Pk in (1.7), si ottiene:


+∞ +∞ +∞
1 k
 k
 k−1
m= nk (0, 8) (1 − 0, 8) = 0, 2 k (0, 8) = 0, 16 k (0, 8) = 4.
n
k=1 k=1 k=1

La seconda domanda chiede di determinare il più grande intero k tale che


1
Pk ≥ P0
2
problema equivalente a

k1
max k ∈ N : (0, 8) ≥
2
 
k
e dalle identità ln 2 · (0, 8) = ln 2 + k (ln 4 − ln 5); ln 1 = 0 si
deduce
  
ln 2 ln 2
d = max k ∈ N : k ≤ = parte intera di =
ln 5 − ln 4 ln 5 − ln 4
= parte intera di 3, 1063 = 3.

Osserviamo che nessuna delle due quantità (vita media e tempo di dimezza-
mento) dipende dalla popolazione iniziale: esse dipendono solo dalla frazione
(20%) di particelle che decadono nell’unità di tempo; inoltre vale m > d. Que-
sta tuttavia non è una disuguaglianza valida in generale: a seconda del tipo di
popolazione e delle corrispondenti leggi di decadimento si possono avere tutte
le diverse possibilità: m > d, m = d, m < d.
Consideriamo, ad esempio, una popolazione di 3 particelle (o individui) A, B
e C: A vive 10 anni, C vive 20 anni (vedi Fig. 1.1). Allora:

• se B vive 15 anni, allora d = m = 15 anni;


• se B vive b anni, con 10 ≤ b < 15, allora d = b < m;
• se B vive b anni, con 15 < b < 20, allora m < b = d.

Osserviamo infine che la vita media potrebbe non essere neppure definita se
il calo della popolazione avviene in modo più lento del decadimento esponen-
8 1 Fenomeni ricorsivi ed equazioni alle differenze

Fig. 1.1. Vita media e tempo di dimezzamento nei tre casi discussi

ziale. Ad esempio, se Pk = k1 P0 , allora la vita media è infinita:

1 
+∞  1
+∞
1
 +∞
 1
k (Pk − Pk+1 ) = k − = = +∞.
P0 k k+1 k+1
k=1 k=1 k=1

Invece, per una popolazione che decresce nel tempo è sufficiente la condizione
limk Pk = 0 (cioè che la popolazione tenda ad estinguersi) affinché il tempo
di dimezzamento sia ben definito.
Ad esempio, se, come prima, Pk = k1 P0 , allora d = 2.
Esempio 1.12 (Modello di Malthus4 ). Questo semplice ed ormai classico
modello descrive una popolazione (biologica o di altro genere), nella quale il
numero Yk di individui presenti al tempo k è una proporzione costante τ del
numero di individui Yk−1 al tempo precedente (la quantità τ −1 è detta tasso
intrinseco di crescita):

Yk+1 = τ Yk τ >0

Il tasso intrinseco di crescita τ − 1 rappresenta la differenza fra i tassi di na-


talità e mortalità degli individui. Ovviamente, la popolazione cresce se τ > 1,
decresce se 0 < τ < 1.
Osserviamo che, al variare di τ , il modello descrive un comportamento quan-
titativamente identico al caso dell’interesse composto (basta porre τ = 1 + r)
o al caso del decadimento radioattivo se 0 < τ < 1. Tali modelli sono detti di
crescita esponenziale per l’andamento delle loro soluzioni.

Esempio 1.13 (Crescita logistica). Vedremo in dettaglio nel Capitolo 2


che, se τ > 1, allora il modello di Malthus presenta delle soluzioni a crescita
esponenziale. Molti autori hanno criticato tale modello proprio perché impli-
ca una crescita illimitata e troppo rapida. Più realisticamente (anche se si
trascura la competizione con altre specie e si suppongono illimitate le risorse
4
Thomas Robert Malthus, 1766-1834.
1.2 Esempi 9

dell’habitat) in caso di grande affollamento si deve tenere conto almeno di


fattori di competizione intraspecifica. Il modo più semplice di tenere conto di
tali fenomeni sociali consiste nella correzione del modello di Malthus, dovuta a
Verhulst, che descrive maggiore aggressività e minore attitudine alla riprodu-
zione nei casi di “sovraffollamento”. L’equazione del modello di Malthus viene
“corretta” introducendo un termine non lineare di secondo grado, in quanto
è ragionevole pensare che la competizione fra individui sia proporzionale al
numero di incontri, e che quest’ultimo sia proporzionale a Yk 2 :

Yk+1 = τ Yk − ωYk 2 τ, ω > 0 .

Posto H = τ /ω possiamo scrivere

 
Yk
Yk+1 = τ Yk 1 − τ, H > 0 (1.8)
H

Tale modello è detto di crescita logistica.


La quantità H è detta totale sostenibile: infatti, H ha tale interpretazione
perché se si parte da una popolazione Y0 tale che 0 < Y0 < H, con parametro
τ verificante 0 < τ < 4, allora tutti i successivi valori di Yk si mantengono
compresi tra 0 e H; non è possibile invece partire da valori Y0 > H in quanto
si avrebbe Yk < 0 per ogni k e il modello sarebbe privo di una significativa
interpretazione biologica.
Mediante il cambio di scala Xk = Yk /H, possiamo riscrivere il modello come

Xk+1 = τ Xk (1 − Xk ) τ >0

ove la popolazione è espressa come frazione del totale sostenibile.


Corrispondentemente, valori iniziali sensati X0 devono soddisfare le disugua-
glianze 0 < X0 < 1.
Agli effetti della variazione Xk+1−Xk in un singolo passo temporale, per picco-
le popolazioni “prevale” il termine lineare (τ − 1) Xk , mentre per popolazioni
di grandi dimensioni “prevale” il termine quadratico di coefficiente negativo
−τ Xk2 . In questo contesto “piccolo” significa prossimo a zero, “grande” significa
grande rispetto a zero ed ha senso anche per valori minori di 1.
Esempio 1.14 (Modello di Lotka-Volterra). Una regione è popolata da
due specie: una, la preda, indicata con P , si ciba delle risorse vegetali presenti
sul territorio, l’altra, detta predatore ed indicata con C, carnivora, si ciba delle
prede. Le prede, in assenza di predatori, crescono in “modo Maltusiano” ad
un tasso costante τ ; la presenza di predazione riduce il tasso di crescita delle
prede di un termine proporzionale alla consistenza delle popolazioni di prede
e predatori; in assenza di prede, i predatori si estinguono. Analiticamente il
modello è espresso da un sistema di due equazioni che descrivono in modo
10 1 Fenomeni ricorsivi ed equazioni alle differenze

accoppiato l’andamento delle due popolazioni:



Pk+1 = (1 + a) Pk − b Ck Pk
a, b, c, d > 0, ∀k ∈ N.
Ck+1 = (1 − c) Ck + d Ck Pk

Si noti che, l’effetto della predazione è proporzionale agli incontri tra prede e
predatori; questo modello suppone che il numero di incontri sia proporzionale
alla consistenza delle due popolazioni, cioè al prodotto Ck Pk . Tale prodotto
prende il nome di impact factor.

Esempio 1.15 (I numeri di Fibonacci5 ). Un allevatore di conigli si chie-


de quante coppie di conigli si possono ottenere in un anno, a partire da una
unica coppia, nell’ipotesi che ogni mese ciascuna coppia con due o più mesi di
vita, dia alla luce una nuova coppia.
Per semplicità, si può supporre che:

• nessuna coppia muoia;


• la prima coppia sia costituita da conigli appena nati;
• il tempo di gestazione sia di un mese;
• la maturità sessuale sia raggiunta dopo il primo mese di vita.
Se Ck è il numero di coppie al tempo k (espresso in mesi), allora dalle ipotesi
fatte deduciamo il modello ricorsivo:

Ck+1 = Ck + Ck−1 , k ∈ N\ {0}
C0 = 0, C1 = 1

A differenza degli esempi precedenti, si tratta di un modello a due passi: per


ottenere il valore Ck+1 è necessario conoscere i valori Ck e Ck−1 corrisponden-
ti ai due mesi precedenti. Per sostituzione diretta si ottiene una successione
di numeri, detti numeri di Fibonacci, di cui elenchiamo i primi 13:

C = {0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, . . . } .

Tornando al quesito dell’allevatore, riportiamo in una tabella il numero di


mesi trascorsi ed il corrispondente numero di coppie di conigli:

mesi k 0 1 2 3 4 5 6 7 8 9 10 11 12 13
coppie Ck 0 1 1 2 3 5 8 13 21 34 55 89 144 233

Come si può notare, il valore Ck cresce molto rapidamente con k, ad esempio


C25 = 75025.
Osserviamo che per calcolare valori di Ck con k > 30 anche se si utilizza
un personal computer è bene usare qualche accorgimento per evitare tempi
di calcolo molto lunghi o problemi di memoria. Queste difficoltà sono tipiche
5
Col soprannome di Fibonacci è noto Leonardo Pisano (1175-1240).
1.2 Esempi 11

delle operazioni ricorsive, anche quando sono ottenute a partire da operazioni


molto semplici. Il problema è dovuto al fatto che se non si conservano i valori
calcolati, l’elaboratore ripete un gran numero di volte (inutilmente) le stesse
operazioni. Questo è il vero motivo per cui si ricercano formule esplicite per
il calcolo che non richiedano la conoscenza di tutti i valori precedenti (si veda
al riguardo l’Appendice H).
Si noti che non solo Ck ma anche il numero Nk di operazioni necessarie al
calcolo di Ck cresce molto rapidamente (come funzione di k), se non vengono
tabulati i valori di Ck , mano a mano che vengono calcolati.
Nel modello di Fibonacci non solo i passi temporali sono discreti ma anche la
grandezza misurata (numero di conigli) è discreta (sono numeri interi); tutta-
via una descrizione completa delle soluzioni richiede (come vedremo nel Ca-
pitolo 2) l’utilizzo dei numeri reali, ossia l’ampliamento dell’insieme numerico
in cui è stato definito il modello.

Esempio 1.16 (Modello di Leslie [16]). I modelli di popolazione pre-


sentati in precedenza non tengono conto di alcuna eventuale struttura della
popolazione: per età, sesso o altro.
Al solo scopo di tenere conto delle varie età degli individui appartenenti ad
una popolazione biologica, si può suddividere tale popolazione in n classi
disgiunte di età, ciascuna di uguale ampiezza. Ad esempio, la prima classe
potrebbe essere costituita dagli individui di età minore o uguale a 20 anni,
la seconda dagli individui di età compresa tra 20 e 40 anni, e così via. In tal
modo 5 classi di età sarebbero sufficienti a descrivere in modo soddisfacente
una popolazione umana di una certa regione.
In generale, assegnata una popolazione, fissato n il numero di classi di età, si
deduce l’unità temporale come rapporto tra una età massima convenzionale
ed n, quindi si denota con Yk il numero di individui che costituisce la popo-
lazione complessiva al tempo k. Per ogni k, Yk è un vettore ad n componenti
Ykj , j = 1, . . . , n, ciascuna delle quali indica il numero di individui nella j-
esima classe, cioè di età compresa tra j − 1 e j, nella fissata unità di misura
temporale.
La presenza di due indici non deve spaventare: il primo denota il tempo al
quale ci si riferisce, il secondo la classe di età. Ad esempio, se consideriamo
classi di età dell’ampiezza di 5 anni per la popolazione umana di una fissata
regione, allora Y51 è il numero di appartenenti alla classe dei più giovani (età
minore di 5 anni) valutata al momento del quinto censimento (i censimenti
hanno, in genere, cadenza quinquennale).
1
Il numero Yk+1 dei nuovi nati al tempo k + 1 è la somma dei nati da individui
appartenenti a ciascuna classe di età che è in proporzione secondo un tasso di
natalità ϕj al numero di individui nella stessa classe Ykj :


n
1
Yk+1 = ϕj Ykj .
j=1
12 1 Fenomeni ricorsivi ed equazioni alle differenze
j
Il numero di individui Yk+1 nelle classi di età più mature (j = 2, 3, . . . , n)
al tempo k + 1 è dato dai “sopravvissuti” fra i componenti la Ykj−1 della
(j − 1)-esima classe al tempo k:
j
Yk+1 = σj−1 Ykj−1 j = 2, . . . , n, 0 ≤ σj−1 ≤ 1.

I valori ϕj e σj sono tipici delle varie popolazioni, sono indicatori statistici del-
le attese di natalità e sopravvivenza, sono tutti non negativi e verosimilmente
ϕj è piccolo per valori estremi di j (j = 0 e j = n).
 T
Posto Yk = Yk1 Yk2 . . . Ykn , il modello è descritto in modo sintetico dal-
l’equazione vettoriale
Yk+1 = LYk
cioè, per ciascuna componente j,

j

n
Yk+1 = Lj,hYkh
h=1

dove ⎡ ⎤
ϕ1 ϕ2 ϕ3
. . . ϕn−1 ϕn
⎢ σ1 0 0
... 0 0 ⎥
⎢ ⎥
⎢ 0 ⎥
L=⎢ 0 σ2 0
... 0 ⎥.
⎢ .. .. .... . .. ⎥
⎣ . . . ..
. . ⎦
0 0 0 . . . σn−1 0
Si noti che ad ogni passo temporale k la popolazione complessiva è
data dalla
n j
somma del numero di individui componenti le varie classi di età: j=1 Yk .

Esempio 1.17 (Rovina del giocatore). Due giocatori A e B giocano a te-


sta o croce con una moneta truccata (esce testa nel 40% dei casi). Su ogni
lancio scommettono un Euro. A punta sempre su testa, B sempre su croce. A
possiede all’inizio a Euro, B ne possiede b, e vale a > b > 0. Il gioco prosegue
fino a che uno dei giocatori sbanca l’altro.
Ci si chiede quale sia la probabilità che A riesca a vincere tutto il denaro di
B e la probabilità dell’esito opposto.
Per vedere due modi diversi di modellare e risolvere il problema si rimanda al
Capitolo 2 (Esercizio 2.36) e al Capitolo 6 (Esercizio 6.3).

Esempio 1.18. In un game di una partita di tennis tra due giocatori il pun-
teggio è 40 a 15. Supponendo di sapere che il giocatore in vantaggio ha una
probabilità nota p ∈ (0, 1) di vincere ciascuna palla, si chiede con quale pro-
babilità si aggiudicherà il gioco.
Per un’analisi di questa situazione si rinvia all’Esempio 6.30.
1.2 Esempi 13

Esempio 1.19 (Ricerca delle soluzioni di una equazione differenzia-


le ordinaria, lineare con coefficienti variabili espressi da funzioni
elementari). Consideriamo, ad esempio, l’equazione differenziale, nota come
equazione di Airy,

y = xy x∈R. (1.9)

Si noti che l’equazione, benché lineare, non è a coefficienti costanti.


Cerchiamo di determinare soluzioni di (1.9) nella forma6
+∞

y (x) = An xn .
n=0

Derivando formalmente, si ottiene


+∞
 +∞

y (x) = n An xn−1 y (x) = n (n − 1) An xn−2
n=1 n=2

e sostituendo nell’equazione (1.9), si ricava l’identità


+∞
 +∞

n (n − 1) An xn−2 = An xn+1 . (1.10)
n=2 n=0

Inoltre
+∞
 +∞
 ponendo m=n−3
n (n − 1) An xn−2 = 2A2 + n (n − 1) An xn−2 =
n=2 n=3
+∞

= 2A2 + (m + 2) (m + 3) Am+3 xm+1
m=0

e, tenendo conto che l’indice di una sommatoria è muto, si può porre m = n


nella serie a destra dell’uguale in (1.10), ottenendo l’identità equivalente:
+∞
 +∞

2A2 + (m + 2) (m + 3) Am+3 xm+1 = Am xm+1 .
m=0 m=0

Affinché l’uguaglianza sia verificata per ogni x ∈ R devono risultare uguali i

6
Per applicare con successo il metodo, non è necessario che i coefficienti siano
funzioni elementari: è in generale sufficiente che i coefficienti siano analitici, cioè
funzioni esprimibili localmente come somma di una serie di potenze della variabile
indipendente x.
14 1 Fenomeni ricorsivi ed equazioni alle differenze

coefficienti dei termini di ugual grado:

A2 = 0 (m + 2) (m + 3) Am+3 = Am .

Otteniamo così la relazione ricorsiva


Am
Am+3 = m ∈ N. (1.11)
(m + 2) (m + 3)

Assegnati i valori A0 = y (0) ed A1 = y (0), ricordando che A2 = 0, l’espres-


sione ricorsiva (1.11) consente di calcolare tutti i coefficienti. Osservato che
A3k+2 = 0 per ogni k, i primi termini dello sviluppo della soluzione sono:
   
x3 x6 x4 x7
y (x) = A0 1 + + + · · · + A1 x + + +··· .
2·3 2·3·5·6 3·4 3·4·6·7

Esempio 1.20. Discretizzazione di una equazione differenziale ordi-


naria con il metodo delle differenze finite.
Si possono ottenere soluzioni approssimate di un problema di Cauchy7

u (x) = f (x, u (x))
(1.12)
u (x0 ) = u0

dove f è una funzione nota, x varia in un opportuno intervallo centrato in x0


ed u è una funzione incognita, sostituendo la derivata della funzione incognita
con opportuni rapporti incrementali.
Ad esempio, il metodo di Eulero implicito consiste nel fissare un passo
h > 0 di incremento della variabile x che individua i punti xk = x0 + hk, al
variare di k ∈ {0, 1, . . . , n − 1}; in corrispondenza ai punti xk si sostituisce
nella (1.12) al posto di u (x) il rapporto incrementale in avanti:

u (xk + h) − u (xk ) u (x0 + h (k + 1)) − u (x0 + hk)


=
h h
e per valutare la funzione f (x, u (x)) si effettuano i calcoli in xk+1 . Conside-
riamo una funzione uh che approssima u. Posto Uk = uh (x0 + hk) otteniamo

Uk+1 − Uk
= f (xk+1 , Uk+1 )
h

ossia

Uk+1 = Uk + hf (x0 + (k + 1) h, Uk+1 ) k = 0, 1, . . . , n − 1 ,

7
Cioè un problema che consiste nella determinazione di una soluzione di un’equa-
zione differenziale verificante condizioni iniziali assegnate in modo opportuno.
1.2 Esempi 15

che, per ogni k fissato, è effettivamente una equazione implicita in Uk+1 qua-
lora sia noto Uk : risolvendola iterativamente, a partire da U0 = u (x0 ) = u0 ,
si ottengono i valori Uk+1 .
Ci si attende che l’approssimazione Uk di u (xk ) migliori quando h si avvicina
a zero.
Alternativamente, il metodo di Eulero esplicito consiste nel calcolare l’ap-
prossimazione di f in xk e conduce alla formulazione

Uk+1 − Uk
= f (xk , Uk )
h

che, nota Uk , è un’equazione esplicita nell’incognita Uk+1 . Questo vantaggio


computazionale comporta però inconvenienti sulla stabilità numerica per cui il
metodo implicito risulta preferibile qualora non risulti proibitiva la soluzione
dell’equazione in Uk+1 .

Esempio 1.21 (Discretizzazione dell’equazione del calore). Conside-


riamo il problema con condizioni iniziali ed al bordo per l’equazione del calore
in un sbarra ⎧
⎪ ∂v ∂2v

⎪ = x ∈ (0, a) , t > 0
⎨ ∂t ∂x2
v (x, 0) = f (x) x ∈ [0, a] (1.13)




v (0, t) = v (a, t) = 0 t > 0
che descrive l’evoluzione della temperatura v = v (t, x) al tempo t nella po-
sizione x di una sbarra, se si suppone che la temperatura segua la legge di
Fourier, abbia il valore f al tempo 0 e sia controllata da termostati al bordo.
Supponiamo f (0) = f (a) = 0.
Fissiamo un passo s = a/ (N + 1) , N ∈ N\ {0}, per la variabile spaziale e
poniamo tk = hk con k ∈ N e h reale strettamente positivo. In tal modo
otteniamo una griglia di punti (vedi Fig. 1.2)

(xj , tk ) = (js, hk) j = 0, 1, . . . , N + 1, k ∈ N.

Se la soluzione v di (1.13) ha derivate continue fino al secondo ordine, in ogni


punto (xj , tk ) della griglia otteniamo dalla formula di Taylor:

∂v v (xj , tk+1 ) − v (xj , tk )


(xj,tk+1 ) = + O (h)
∂t h
∂2v v (xj+1 , tk+1 ) − 2v (xj , tk+1 ) + v (xj−1, tk+1 )
(xj , tk+1) = + O (s) .
∂x2 s2
16 1 Fenomeni ricorsivi ed equazioni alle differenze

Fig. 1.2. Griglia di discretizzazione per l’equazione del calore in una sbarra

Queste relazioni suggeriscono di approssimare l’equazione del calore con l’e-


quazione alle differenze:

v (js, h (k + 1)) − v (js, hk)


=
h
v ((j + 1) s, h (k + 1)) − 2v (js, h (k + 1)) + v ((j − 1) s, h (k + 1))
=
s2
che è una discretizzazione di tipo Eulero implicito nel tempo con derivata
seconda spaziale approssimata con 3 punti.
Denotando con Vj,k un’approssimazione di v (js, hk) e operando un riordino
dei termini, si ottiene il sistema:
⎧  
⎨ V = 1 + 2h V h
j,k j,k+1 − 2 [Vj−1,k+1 + Vj+1,k+1 ] j = 1, . . . , N, k∈N
s2 s

V0,k+1 = VN+1,k+1 = 0 k∈N
(1.14)
È ragionevole porre Vj,0 = f (js) , j = 0, . . . , N + 1 . Allora il problema
(1.14) si può risolvere ricorsivamente (con l’ausilio del calcolo automatico): i
valori Vj,0 sono noti, mentre Vj,1 , j = 1, . . . , N , si deducono dai valori Vj,0 con
j = 1, . . . , N . Introducendo poi la matrice N × N
⎡ ⎤
2h ⎡ ⎤
1+ s2 − sh2 0 ··· 0
⎢ ⎥ V1,k
⎢ − h 1 + 2h − h ··· ⎥ ⎢ ⎥
⎢ s2 s2 s2
0 ⎥ ⎢ ⎥
⎢ ⎥ ⎢ V2,k ⎥
⎢ .. ⎥
A =⎢ 0 − s2 1 + 2h
h
··· . ⎥ Vk = ⎢
⎢ .. ⎥

⎢ s2 ⎥ ⎢ . ⎥
⎢ . . . .. ⎥ ⎣ ⎦
⎢ .. .. .. . − sh2 ⎥
⎣ ⎦ VN,k
2h
0 ··· 0 − sh2 1 + s2
1.2 Esempi 17

possiamo riscrivere il sistema precedente come una equazione alle differen-


ze vettoriale del primo ordine, a coefficienti costanti

AVk+1 = Vk (1.15)
 T
con la condizione iniziale V0 = f (s) f (2s) · · · f (N s) .
La discretizzazione di tipo Eulero esplicito conduce alla seguente equazione
alle differenze vettoriale
Wk+1 = BWk (1.16)
 T
con la condizione iniziale W0 = f (s) f (2s) · · · f (N s) , dove Wj,k ap-
prossima il valore di v (js, hk) e B è la matrice N × N definita da
⎡ 2h ⎤
1− s2
h
s2 0 ··· 0
⎢ 2h ⎥
⎢ h
s2 1− s2
h
s2 ··· 0 ⎥
⎢ ⎥
⎢ .. ⎥
B=⎢
⎢ 0 h
s2 1− 2h
s2 ··· . ⎥

⎢ ⎥
⎢ .. .. .. .. ⎥
⎣ . . . . h
s2 ⎦
2h
0 ··· 0 h
s2 1− s2

In entrambi gli schemi si noti la struttura a banda delle matrici A e B che


risultano matrici definite positive (la seconda se 4h < s2 ).
Osserviamo che la soluzione dello schema di Eulero esplicito consiste nel de-
terminare iterativamente Wk+1 a partire da Wk : la soluzione numerica di
tale problema consiste ad ogni passo in una moltiplicazione di una matrice di
ordine N per un vettore N -dimensionale.
La soluzione dello schema di Eulero implicito consiste nella determinazione di
Vk+1 a partire da Vk : in questo caso la soluzione numerica consiste ad ogni
passo nella soluzione di un sistema di N equazioni algebriche (anziché inverti-
re A che nella pratica può avere dimensione molto elevata, si sfruttano le sue
particolari proprietà di struttura: si vedano l’Appendice D e il paragrafo 5.8).

Esempio 1.22 (Equazione dei tre momenti per una sbarra appog-
giata). Consideriamo una sbarra elastica pesante ed omogenea (vedi Fig. 1.3),
uniforme di lunghezza L, appoggiata ad N − 1 punti equidistanti ad una
distanza δ > 0: N δ = L.

Fig. 1.3. Sbarra appoggiata a supporti equidistanti


18 1 Fenomeni ricorsivi ed equazioni alle differenze

Supponiamo che non vi siano forze agenti sulla sbarra ad eccezione del suo
peso e della reazione vincolare nei supporti d’appoggio. Vogliamo determinare
i momenti flettenti Mk , k = 1, , . . . , N − 1, nei punti di appoggio.
Sia Mk il momento flettente nel k-esimo supporto. Consideriamo tre supporti
consecutivi (di indici rispettivamente k − 1, k, k + 1) e collochiamo l’origine
nel supporto centrale. Sia poi x la distanza orientata da tale punto. Allora, il
momento flettente nel punto x è dato da:
⎧ x

⎨ Mk + (Mk − Mk−1 ) −δ ≤ x ≤ 0
δ
M (x) = (1.17)

⎩ Mk + (Mk+1 − Mk ) x 0≤x≤δ
δ
Dalla teoria delle sbarre elastiche sappiamo che lo spostamento verticale della
sbarra è descritto dal grafico di y = y (x) verificante

Y I y = M (x) (1.18)

dove Y I indica la rigidità a flessione della sbarra che supponiamo indipenden-


te da x (Y è il modulo di Young, I il momento di inerzia rispetto ad un asse
per il baricentro).
Integrando la relazione differenziale (1.18) ed usando (1.17) otteniamo


⎪ x2
⎨ Mk x + (Mk − Mk−1 ) + c1 −δ ≤ x ≤ 0

Y I y = (1.19)

⎪ 2
⎩ Mk x + (Mk+1 − Mk ) x + c2 0≤x≤δ

Poiché y deve essere continua in x = 0, otteniamo c1 = c2 = c.
Integrando (1.19)


⎪ 1 x3
⎨ Mk x2 + (Mk − Mk−1 ) + cx −δ ≤ x ≤ 0
2 6δ
YIy =

⎪ 3
⎩ 1 Mk x2 + (Mk+1 − Mk ) x + cx 0≤x≤δ
2 6δ
Poiché lo spostamento verticale y è nullo nei punti di appoggio (cioè per x =
0, ±δ) otteniamo due equazioni

1 δ2
Mk δ 2 − (Mk − Mk−1 ) − cδ = 0
2 6
1 δ2
Mk δ 2 + (Mk+1 − Mk ) + cδ = 0
2 6
che sommate danno l’equazione dei tre momenti:

Mk−1 + 4Mk + Mk+1 = 0 .


1.3 Metodo grafico 19

1.3 Metodo grafico

Per rendersi conto, almeno in prima approssimazione, del comportamento di


una soluzione di una equazione alle differenze del primo ordine
Xk+1 = f (Xk ) ∀k ∈ N
con f : I → R, I intervallo di R, può risultare conveniente ricorrere ad una
rappresentazione grafica che individua l’andamento, sia pur per pochi valori
iniziali di k, della successione Xk .
Illustriamo tale metodo in un caso particolare (che corrisponde ad una parti-
colare scelta dei parametri negli Esempi 1.5, 1.8, 1.9, 1.11 e 1.12):
Xk+1 = 1, 5 Xk − 0, 5. (1.20)
Nel piano cartesiano, tracciamo i grafici della funzione affine f : R → R,
f (x) = 1, 5 x − 0, 5 e della funzione identità id (x) = x.
Scegliamo ora un valore iniziale X0 sull’asse delle ascisse, ad esempio X0 = 2.
Allora il valore X1 = f (X0 ) = 2, 5 può essere ottenuto graficamente traccian-
do a partire dal punto (X0 , 0) una retta verticale fino ad incontrare la retta
di equazione y = 1, 5 x − 0, 5 (Fig. 1.4a) e successivamente proseguendo con
un segmento orizzontale fino all’asse verticale (Fig. 1.4b).
Per determinare graficamente X2 occorre riportare il valore di X1 sull’asse
delle ascisse. A questo scopo, si traccia un segmento orizzontale (Fig. 1.4c)
fino alla retta di equazione y = x: chiaramente la sua proiezione verticale
riporta X1 sull’asse delle ascisse.
Riportiamo (Fig. 1.4d) tutti i segmenti tracciati in un unico grafico, cancel-
lando i tratti orizzontali percorsi in andata e ritorno.
Si itera la procedura tracciando un segmento verticale a partire dal punto
(X1 , X1 ) fino al grafico della funzione f (Fig. 1.5a).
Il grafico ottenuto “suggerisce” nell’esempio particolare che la successione Xk
sia divergente a +∞ quando k → +∞.
Si noti, sempre nell’esempio sopra considerato, che, se X0 = 1, “non dobbia-
mo disegnare nulla” dato che ad ogni passo si ha Xk = 1.
Se consideriamo, invece X0 = 0, 5 , procedendo come indicato sopra, ottenia-
mo il grafico della Fig. 1.5b.
Questa volta ci aspettiamo che Xk → −∞ se k → +∞.
I diagrammi ottenuti con tale procedura saranno denominati nel seguito gra-
fici a ragnatela.
Invitiamo il lettore a fornire, ove possibile, una rappresentazione grafica del-
l’andamento delle successioni individuate negli esempi riportati nella prece-
dente sezione.
20 1 Fenomeni ricorsivi ed equazioni alle differenze

X1

a) b)

X0 X0

X1

c) d)

X0 X1 X0 X1

Fig. 1.4. Implementazione del metodo grafico

b)

a)

Fig. 1.5. Metodo grafico: f (x) = 1, 5x − 0, 5 ; a) X0 = 2, b) X0 = 0, 5

1.4 Esercizi di riepilogo

Il lettore è invitato ad affrontare gli esercizi prima della lettura dei capitoli
successivi, per poi confrontare le soluzioni trovate con le soluzioni svolte in
dettaglio che sono proposte nel Capitolo 8.
Esercizio 1.1. Una torta viene tagliata con tagli rettilinei in modo tale che due
tagli qualsiasi si intersecano in uno ed un solo punto ma tre tagli differenti non si
possono intersecare nello stesso punto. Si fornisca il modello alle differenze che de-
scrive ricorsivamente il numero Nk delle porzioni in cui viene suddivisa la torta con
1.4 Esercizi di riepilogo 21

k tagli. Utilizzare il risultato ottenuto per rispondere al quesito: qual è il numero


massimo di fette (eventualmente diverse fra loro) in cui si può dividere una torta
circolare mediante k tagli rettilinei?

Esercizio 1.2. Il lettore verifichi, a proposito dell’Esempio 1.8, che se

R ≤ rS0

non si riuscirà mai ad estinguere il debito!

Esercizio 1.3. Due sostanze radioattive (instabili) presenti inizialmente in quantità


Y0 e X0 , ogni anno decadono secondo il seguente schema:
• una frazione pY , 0 < pY < 1, del materiale denotato con Y si trasforma nel
secondo materiale X;
• una frazione pX , 0 < pX < 1, del materiale denotato con X si trasforma in
materiale inerte.
Individuare un sistema di due equazioni che descriva in forma ricorsiva le quantità
Yk+1 e Xk+1 delle due sostanze radioattive dopo k + 1 anni.

Esercizio 1.4 (Ammortamento uniforme). Un prestito di importo S viene rim-


borsato in n rate a quote capitale costanti di importo C, cioè C = S/n. Si fornisca
un’equazione ricorsiva che esprima la k-esima quota interessi Ik calcolata al tasso
costante r sul debito residuo Dk , ricordando che Dk+1 = Dk − C. Se ne calcoli poi
l’espressione in forma chiusa (Dk come funzione della sola k).

Esercizio 1.5 (Ammortamento progressivo). Un prestito di importo S viene


restituito in n rate costanti annue di importo R in cui l’interesse è calcolato al tasso
costante r sul debito residuo Dk , la prima delle quali viene versata un anno dopo
l’erogazione del prestito. Determinare l’espressione ricorsiva per la quota capitale
Ck e la quota interessi Ik .

Esercizio 1.6. Si deposita oggi (k = 0) una somma S in un conto corrente ban-


cario. Sapendo che gli interessi vengono calcolati ad un tasso annuo r in regime
di capitalizzazione composta e che la banca addebita a titolo di rimborso spese un
importo annuo pari a C, fornire, nell’ipotesi che non avvengano altre operazioni,
l’espressione ricorsiva dell’ammontare presente sul conto dopo k + 1 anni.

Esercizio 1.7. Un investimento finanziario di capitale iniziale C0 dopo un nume-


ro di giorni gg vale Cgg , cioè dà un ritorno percentuale pari a 100 (Cgg − C0 ) /C0 .
Si determini il tasso interno di rendimento annuo composto s, cioè la soluzione
dell’equazione (vedi l’Esempio 1.6)

Cgg = (1 + s/100)gg/365 C0 .

Il calcolo di s consente di confrontare l’investimento in esame con l’acquisto di uno


zero coupon bond , cioè un titolo a tasso fisso e privo di cedole.

Esercizio 1.8. Con riferimento al caso del decadimento radioattivo (Esempio 1.11),
assegnata una frazione r, 0 < r < 1 , di particelle che decadono nell’unità di tempo,
confrontare la vita media m (r) ed il tempo di dimezzamento d (r) al variare di r.
22 1 Fenomeni ricorsivi ed equazioni alle differenze

Esercizio 1.9. Un bambino dopo aver costruito una torre di k cubi li vuole riporre
nella cesta dei giochi. A questo scopo, li prende uno o due alla volta.
Descrivere con una equazione ricorsiva il numero dei modi differenti coi quali può
essere completata l’operazione.
Esercizio 1.10 (Problema della torre di Hanoi (Lucas8 , 1883)). Tre pioli so-
no allineati sul terreno. Sul piolo di sinistra sono impilati dischi di raggio differente
a partire da quello di raggio maggiore come illustrato dalla Fig. 1.6.
Si chiede di determinare la relazione che sussiste tra il numero minimo di mosse
Yk necessarie a spostare i dischi sul piolo di destra quando i dischi sono k ed Yk+1
numero minimo di mosse per effettuare la medesima operazione nel caso di k + 1
dischi. Una mossa equivale allo spostamento di un disco da un piolo all’altro e non
è possibile impilare alcun disco sopra uno di raggio inferiore.

Fig. 1.6. Torre di Hanoi

Esercizio 1.11. Nel problema posto dall’esercizio precedente, si aggiunga il divieto


di spostare i dischi direttamente dal piolo di sinistra a quello di destra e si calcoli il
numero minimo di mosse per spostare tutti i dischi in questa situazione.
Esercizio 1.12. Ciascuno dei tre lati di misura unitaria di un triangolo equilatero
viene suddiviso in k parti uguali; se si congiungono i punti così individuati mediante
linee parallele ai lati si individuano Xk triangoli equilateri il cui lato è pari ad 1/k.
Determinare una relazione ricorsiva che lega Xk+1 ad Xk .
Esercizio 1.13. Studiare graficamente il modello della ragnatela (Esempio 1.10)
nell’ipotesi
d a+c
= 0, 9 = 2.
b b
Si osservi che il disegno ottenuto suggerisce una spiegazione del nome di tale modello.

 Determinare
Esercizio 1.14. una formula ricorsiva per i coefficienti An dello svi-
luppo in serie +∞ n
n=0 An x di una soluzione y delle seguenti equazioni differenziali
del secondo ordine (x ∈ R):
 
equazione di Bessel x2 y + xy + x2 − k2 y = 0
equazione di Hermite y − 2xy + 2ky = 0
equazione di Laguerre xy + (1 − x) y + ky = 0
  
equazione di Legendre 1 − x2 y + k (k + 1) y = 0
8
François Edouard Anatole Lucas, 1842-1891.
1.4 Esercizi di riepilogo 23

dove k ∈ N è un assegnato parametro ed y , y denotano rispettivamente le derivate


prima e seconda di y rispetto ad x.

Esercizio 1.15. Discretizzare con il metodo di Eulero implicito le seguenti equazioni


differenziali:
(1) y  = xy x0 = 0
(2) y = ay (1 − y) x0 = 0

Esercizio 1.16. Discretizzare con metodi alle differenze finite le seguenti equazioni
differenziali alle derivate parziali:

∂2 u ∂2 u
a) equazione di Laplace 2
+ =0
∂x ∂y2
∂2 v ∂2v
b) equazionedi D’Alembert 2
− =0
∂t ∂x2
Esercizio 1.17 (Equazione di Black & Scholes). L’equazione differenziale
1 2 2
vt + σ x vxx + rxvx − rv = 0
2
nell’incognita v = v (x, t), con σ (volatilità) ed r (tasso d’interesse bancario)
parametri noti, si dice equazione di Black & Scholes. Risolvere tale equazione dif-
ferenziale consente di determinare il prezzo v di particolari strumenti finanziari de-
rivati (ad esempio, opzioni, contratti forward, futures) al tempo t e per un certo
valore x del prodotto finanziario sottostante (obbligazioni, azioni, materie prime,
indici finanziari).
Ad esempio, è importante risolvere il seguente problema per una singola opzione
d’acquisto (call ):

⎪ 1

⎪ vt + σ2 x2 vxx + rxvx − rv = 0 x > 0, 0 < t < T

⎪ 2

v (0, t) = 0 0<t<T


⎪ v (x, t) ∼ x
⎪ se x → +∞


v (x, T ) = max (x − E, 0)

ove E indica il prezzo di esercizio (strike price) previsto dal contratto. Si noti che
tale problema è un problema all’indietro: assegnato v (x, T ), con T > 0, si cercano
v (x, 0) prezzo del contratto al tempo 0 e la quantità − ∂v∂x
(x, 0) (indicata con Δ)
di grande importanza per equilibrare rispetto al rischio il portafoglio dell’istituto
finanziario (writer ) che emette il contratto.
Provare che con le trasformazioni

x = E ey ; t = T − 2τ /σ2 ; v (x, t) = E w (y, τ ) (1.21)

w (y, τ ) = eαy+βτ u (y, τ ) (1.22)


e con opportune scelte dei parametri α, β, il problema si traduce nell’equazione (vedi
Esempio 1.21) del calore in avanti (cioè con dato iniziale per t = 0) che è risolvibile
mediante le tecniche del paragrafo 5.8.
2
Equazioni alle differenze lineari

In questo capitolo sono esposte alcune tecniche di soluzione per equazioni alle
differenze lineari ad uno o più passi che descrivono delle grandezze incognite
che sono scalari, cioè numeri. Il caso non lineare e il caso vettoriale saranno
affrontati rispettivamente nei Capitoli 3, 4 e 5, 6.
Nel caso scalare lineare, la particolare struttura dell’insieme delle soluzioni
consente di dare una completa caratterizzazione di tali soluzioni. Questo vale,
come vedremo nel Capitolo 5, anche nel caso vettoriale, mentre nel caso non
lineare questo non è possibile.

2.1 Equazioni lineari ad un passo a coefficienti costanti


Definizione 2.1. Se a è una fissata costante (reale o complessa), si dice equa-
zione alle differenze (finite) lineare omogenea, del primo ordine, a
coefficienti costanti, l’insieme di infinite relazioni

Xk+1 = aXk ∀ k ∈ N. (2.1)

L’equazione precedente si dice lineare omogenea perché il secondo membro è


una funzione lineare di Xk , del primo ordine perché corrisponde ad una re-
lazione che lega solo due valori consecutivi della successione X, a coefficienti
costanti perché a non dipende da k.
La (2.1) regola fenomeni di “crescita” secondo una progressione geometrica di
ragione a: si vedano gli Esempi 1.6, 1.11, 1.12 e l’Esercizio 2.13.
Mediante sostituzioni successive, dalla (2.1) otteniamo la lista di relazioni:

X1 = aX0
X2 = aX1 = a2 X0
··· = ...
Xk−1 = aXk−2 = ak−1 X0
Xk = aXk−1 = ak X0
che conducono all’enunciato successivo.
E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione
UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_2, © Springer-Verlag Italia 2014
26 2 Equazioni alle differenze lineari

Teorema 2.2. Per ogni condizione iniziale X0 la (2.1) ammette l’unica solu-
zione:
Xk = ak X0 k ∈ N. (2.2)

Prova. Proviamo la correttezza della relazione (2.2) per induzione.


Se k = 1, la (2.2) è banalmente soddisfatta; supponiamo ora che per un indice fissato
k ≥ 1, valga Xk = ak X0 . Ne segue:

ipotesi di induzione
Xk+1 = aXk =
  proprietà delle potenze
= a ak X0 =
= ak+1 X0

cioè la successione (2.2) soddisfa la relazione (2.1) anche per k + 1: dal principio di
induzione segue la tesi. 
Esempio 2.3. Consideriamo una popolazione la cui evoluzione è descritta dal
modello di Malthus Xk+1 = τ Xk (si veda l’Esempio 1.12). Tale popolazione,
partendo da un valore iniziale X0 , al tempo k raggiunge il valore
Xk = τ k X0 . 

Un “modello di crescita” più lenta (si vedano gli Esempi 1.4, 1.5) è quel-
lo ad incrementi additivi costanti, tipica dell’andamento di una progressione
aritmetica:
Xk+1 = Xk + b ∀k ∈ N, b ∈ R
la cui soluzione è data da Xk = X0 + kb, come si verifica facilmente.
I due tipi di evoluzione appena illustrati sono casi particolari di equazioni
lineari affini.
Definizione 2.4. Se a e b sono fissate costanti con a = 0, si dice equazio-
ne alle differenze lineare affine, del primo ordine, a coefficienti
costanti, l’insieme di relazioni nell’incognita X

Xk+1 = aXk + b ∀k ∈ N (2.3)

Si dice equilibrio dell’equazione (2.3) ogni eventuale soluzione dell’equazione


algebrica
x ∈ R : (a − 1) x + b = 0 .
È naturale la scelta del termine equilibrio, perché una eventuale successione
costante che assuma tale valore è anche una soluzione di (2.3).
Ricordiamo che l’equazione alle differenze (2.3) corrisponde ad infinite equa-
zioni algebriche che debbono essere verificate contemporaneamente.
Spesso si usano i termini traiettoria o orbita come sinonimi di soluzione di
(2.3) perché i valori di una successione hanno la naturale interpretazione di
posizioni raggiunte dal sistema descritto dall’equazione alle differenze.
2.1 Equazioni lineari ad un passo a coefficienti costanti 27

Teorema 2.5. Per ogni valore iniziale X0 ∈ R , l’equazione alle differenze


(2.3) ha un’unica soluzione X = {Xk }. L’espressione esplicita di tali soluzio-
nidifferisce a seconda che il coefficiente a sia o non sia l’unità:

1)

se a = 1 allora Xk = X0 + kb k∈N

e in tal caso

(i) se b = 0, non esiste alcun equilibrio e tutte le traiettorie sono


divergenti;
(ii) se b = 0, allora tutti i valori sono di equilibrio e tutte le traiettorie
sono costanti;

2)

se a = 1 allora Xk = (X0 − α) ak + α k∈N (2.4)

ove α è l’unico equilibrio: α = b/ (1 − a); inoltre, in tal caso:

(i) se |a| < 1, allora lim Xk = α (infatti lim ak = 0, dunque tutte le


k k
traiettorie convergono ad α);  
(ii) se |a| > 1, allora lim |Xk | = +∞ (infatti lim ak  = +∞, e tutte le
k k
traiettorie corrispondenti sono divergenti, salvo quella (costante)
corrispondente a X0 = α);
(iii) se a = −1, allora l’equilibrio è α = b/2, e tutte le soluzioni oscil-
lano attorno a tale equilibrio:

X2k = X0 k∈N

X2k+1 = b − X0 k∈N .

Dunque, nel caso a = −1, tra le soluzioni vi è un’unica traiettoria costante


(se X0 = α = b/2) ed infinite traiettorie periodiche (se X0 = b/2):

se a = −1 allora:

X2k = X0
2k+1
2k+1 1 − (−1)
X2k+1 = (−1) X0 + b = 2α − X0 = b − X0
2
28 2 Equazioni alle differenze lineari

cioè X è periodica di periodo 2 ed oscilla attorno il valore α = b/2, e in tal


caso le oscillazioni hanno semiampiezza |X0 − α| = |X0 − b/2| .

Prova. L’unico fatto non banale è la rappresentazione esplicita (2.4) relativa al caso
a = 1: può essere provato per induzione, mostrando che la successione (2.4) descrive
una soluzione di (2.3) per ogni dato iniziale X0 , e dall’unicità (a dato iniziale fissato)
segue il fatto che (2.4) descrive tutte le soluzioni al variare di X0 .
È tuttavia interessante ricavare direttamente la formula (2.4) anziché provarne la
validità “a posteriori”, perché la dimostrazione costruttiva consente di comprenderne
meglio il significato. Si tratta di provare che il caso 2) è qualitativamente simile al
caso omogeneo (b = 0, Teorema 2.1) salvo cambiamenti affini di coordinate (in R):
nell’ipotesi a = 1, studiamo le successioni (al variare di X0 )

Zk = Xk − α ∀k ∈ N (2.5)

ove α = b/ (1 − a) è l’equilibrio dell’equazione (2.3). Ricavando Xk da (2.5) e sosti-


tuendo in (2.3), si ottiene

Zk+1 + α = a (Zk + α) + b

b ab
Zk+1 + = aZk + +b
1−a 1−a
Zk+1 = aZk
la cui soluzione, dedotta dal Teorema 2.2, Zk = ak Z0 , sostituita nella (2.5) dà infine

b b
Xk = Zk + α = ak (X0 − α) + α = ak X0 − + . 
1−a 1−a

Le Fig. 2.1 e 2.2 descrivono l’andamento qualitativo delle traiettorie nei casi
discussi nel Teorema 2.5

Osservazione 2.6. Nel caso a = 1, l’espressione (2.4) mostra che la distanza


|Xk − α| tra il k-esimo termine di X ed il valore di equilibrio è un fissato
multiplo del k-esimo termine della progressione geometrica di ragione |a|:
k
|Xk − α| = |X0 − α| |a| .

Dunque, se |a| < 1, si ottiene una stima della buona rapidità di convergen-
za all’equilibrio e del miglioramento della maggiorazione dell’errore a ciascun
passo:
|Xk+1 − α| = |Xk − α| |a| .

Esempio 2.7. Nell’Esempio 1.8, se si suppone che r = 0, poiché l’equilibrio


è R/r, dalla (2.4) segue
  k
R k R k (1 + r) − 1
Sk = S0 − (1 + r) + = (1 + r) S0 − R. 
r r r
2.1 Equazioni lineari ad un passo a coefficienti costanti 29

Xk+1 Xk

a=2
b = −1

Xk k

Xk+1 Xk

a=1
b=3

Xk k

Xk+1 Xk

a = 12
b=1

Xk k

Fig. 2.1. Soluzione grafica di (2.3) con a = 2, 1, 1/2, b = −1, 3, 1


30 2 Equazioni alle differenze lineari

Xk+1 Xk

a = − 12
b=5

Xk k

Xk+1 Xk

a = −1
b=5

Xk k

Xk+1 Xk

a = −2
b=6

Xk k

Fig. 2.2. Soluzione grafica di (2.3) con a = −1/2, −1, −2, b = 5, 5, 6


2.2 Equazioni lineari ad n passi a coefficienti costanti 31

Esempio 2.8 (Modello della Ragnatela). Riprendiamo l’Esempio 1.10 del


modello domanda-offerta. Se il livello dei prezzi segue la relazione ricorsiva
d a+c
Pk+1 = − Pk + a, b, c, d > 0
b b
allora −d/b < 0. Poiché l’equilibrio del modello è
a+c
α=
b+d
assegnato un livello iniziale dei prezzi P0 , per la (2.4) l’espressione in forma
chiusa del livello del prezzo di equilibrio al tempo k risulta
 k  
d a+c a+c
Pk = − P0 − + k ∈ N.
b b+d b+d

Si noti che la negatività del termine −d/b implica che il comportamento del
prezzo sarà sempre oscillante, e il fatto che ci sia convergenza o meno dipende
dal rapporto fra le pendenze delle curve di domanda e di offerta.
In particolare, se d < b allora i valori Pk dei prezzi convergeranno rapidamen-
te all’equilibrio α per k → +∞. Se d > b non si avrà una stabilizzazione del
prezzo. 

Esercizio 2.1. Date le seguenti equazioni lineari a coefficienti costanti



Xk+1 = Xk − 1
1
Xk+1 = Xk + 2 Xk+1 = 4Xk − 1
(1) (2) 3 (3) 1
X0 = 0 X0 = 1 X0 =
4

1
Xk+1 = − Xk + 3 Xk+1 = −Xk + 1 Xk+1 = −3Xk + 5
(4) 5 (5) (6)
X0 = 3 X0 = 2 X0 = 1

i) determinarne la soluzione in forma chiusa;


ii) studiare il comportamento asintotico della soluzione;
iii) disegnare il grafico a ragnatela e l’andamento della soluzione.

Esercizio 2.2. Ricavare le tesi del Teorema 2.5 iterando la (2.3) a partire da un
dato iniziale X0 .

2.2 Equazioni lineari ad n passi a coefficienti costanti

In questo paragrafo vediamo come sia possibile fornire una descrizione com-
pleta delle soluzioni per le equazioni lineari a coefficienti costanti anche nel
caso a più passi. A questo scopo è utile premettere alcune definizioni.
32 2 Equazioni alle differenze lineari

Definizione 2.9. La somma di due successioni F e G è la successione H il


cui generico elemento Hk è ottenuto come somma dei corrispondenti elementi
delle due successioni: Hk = Fk + Gk . Scriveremo H = F + G.

Definizione 2.10. Il prodotto di una successione F per una costante


complessa α è la successione W i cui elementi si ottengono moltiplicando
per α gli elementi corrispondenti di F : Wk = αFk . Notazione: W = αF.

Definizione 2.11. Due successioni F e G si dicono linearmente dipenden-


ti se esistono due costanti α e β, non entrambe nulle, tali che αF +βG è la suc-
cessione identicamente nulla. In caso contrario F e G si dicono linearmente
indipendenti.
Analogamente, n successioni F j , j = 1, 2, . . ., n, si dicono linearmen-
te dipendenti se esistono n costanti α1 , α2, . . . , αn non tutte nulle tali che
 n 1 2
j=1 αj F è la successione identicamente nulla (cioè α1 Fk + α2 Fk + · · · +
j

αn Fk = 0 , ∀k).
n

L’insieme delle successioni a valori complessi, dotato delle due operazioni sopra
introdotte, è uno spazio vettoriale di dimensione infinita. Questo significa
che la somma di (un numero finito) successioni o il prodotto di una succes-
sione per una costante sono ancora successioni, e che, comunque si scelga un
intero positivo n, è possibile trovare n successioni linearmente indipendenti.

Definizione 2.12. Assegnate n costanti a0 , a1 , . . . , an−1 con a0 = 0, si dice


equazione alle differenze, lineare omogenea, di ordine n, a coeffi-
cienti costanti, il sistema di infinite relazioni

Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = 0 ∀k ∈ N

(2.6)

L’espressione equazione ad n passi sarà usata come sinonimo di equazione


di ordine n.

Teorema 2.13 (Principio di sovrapposizione). Se X ed Y sono soluzioni


di (2.6), allora anche X + Y e cX sono soluzioni per ogni costante c.
Dunque, l’insieme delle soluzioni di (2.6) è uno spazio vettoriale.
Prova. Si ottiene per semplice sostituzione in (2.6). 

Il teorema precedente suggerisce l’opportunità di cercare “un numero suffi-


ciente di soluzioni” che formino una base per lo spazio delle soluzioni.
Per analogia con il caso delle equazioni lineari a coefficienti costanti del primo
ordine, si possono cercare soluzioni dell’equazione omogenea (2.6) del tipo

Xk = cλk , c = 0, λ = 0.
2.2 Equazioni lineari ad n passi a coefficienti costanti 33

Se una tale successione risolve (2.6), si ottiene per sostituzione:


 
λk λn + an−1 λn−1 + · · · + a1 λ + a0 = 0 ∀k ∈ N

cioè λ deve essere soluzione di

λn + an−1 λn−1 + · · · + a1 λ + a0 = 0.

Vedremo che tutte le soluzioni di (2.6) possono essere ottenute a partire da


queste.
Queste considerazioni giustificano le seguenti definizioni.
Definizione 2.14. Si dice polinomio caratteristico, indicato con P (λ),
associato all’equazione omogenea (2.6) il seguente polinomio di grado n nella
variabile λ:

P (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0

L’equazione

λ∈C: P (λ) = 0 (2.7)

si dice equazione caratteristica associata all’equazione omogenea.


Per il Teorema fondamentale dell’Algebra, l’equazione (2.7) ha esattamente n
soluzioni nel campo complesso: λ1 , . . . , λn (ciascuna di esse si intende contata
con la sua molteplicità). Anche se le costanti a0 , a1 , . . . , an−1 sono tutte reali
una o più radici λj possono essere complesse.
Teorema 2.15. L’equazione (2.6) ammette infinite soluzioni. Fra tali solu-
zioni se ne possono determinare n linearmente indipendenti; inoltre l’insieme
delle soluzioni della (2.6) è un sottospazio di dimensione n dello spazio delle
successioni.
Se λ è una soluzione semplice (cioè di molteplicità 1) dell’equazione caratte-
ristica (2.7), ad essa è associata una soluzione dell’equazione alle differenze
della forma

Fk = λk

Se λ è una soluzione dell’equazione caratteristica di molteplicità m, ad essa


sono associate le m soluzioni linearmente indipendenti

Fk0 = λk , Fk1 = kλk , Fk2 = k 2 λk , . . . Fkm−1 = k m−1 λk (2.8)


34 2 Equazioni alle differenze lineari

Tutte le soluzioni dell’equazione alle differenze (2.6) sono combinazioni lineari


di tali soluzioni.

Nel caso in cui i coefficienti aj dell’equazione (2.6) sono tutti reali, i risultati
contenuti nel Teorema 2.15 possono essere ulteriormente precisati: in partico-
lare ha interesse scrivere le soluzioni di (2.6) in forma reale anche se alcune
radici del polinomio caratteristico sono complesse.
Più precisamente: se a0 , a1 , . . . , an−1 sono reali e λ = a + ib è soluzione della
(2.7), con a e b reali e b diverso da 0, allora anche λ = a−ib è soluzione e a tale
coppia di soluzioni sono associate le due soluzioni linearmente indipendenti in
forma reale
Fk = ρk cos (θk) Gk = ρk sin (θk)

dove ρ è il modulo e θ è l’argomento di a + ib:


 a b
ρ = a2 + b 2 cos θ = √ sin θ = √ .
a + b2
2 a2 + b2
L’affermazione precedente si ottiene scrivendo in forma reale l’espressione se-
guente:
k k
c1 (a + ib) + c2 (a − ib) a, b ∈ R.
Precisamente, se a + ib = ρ (cos θ + i sin θ) , allora:

k k per la formula di De Moivre


(a + ib) = ρk (cos θ + i sin θ) =
= ρk (cos (θk) + i sin (θk)) .

Procedendo allo stesso modo su (a − ib)k , si può concludere che per ogni scelta
di c1 e c2 esistono due costanti 
c1 e 
c2 dipendenti da c1 , c2 e k, tali che
k k
c1 (a + ib) + c2 (a − ib) = 
c1 ρk cos (θk) + 
c2 ρk sin (θk) .
!
Si noti che, grazie
! alla formula di De Moivre, le due successioni ρk cos (θk)
e ρk sin (θk) generano, mediante combinazioni lineari a coefficienti in C, lo
stesso spazio bidimensionale di"successioni
# a valori complessi generato dalle
! k
combinazioni lineari di λk e λ .
Analogamente, se λ = a + ib è una soluzione complessa della (2.7) di molte-
plicità m ed a0 , a1 . . . , an−1 sono reali, allora ad essa e alla soluzione λ =
a − ib , pure di molteplicità m, sono associate le 2m soluzioni linearmente
indipendenti

Fk0 = ρk cos (θk) , Fk1 = kρk cos (θk) , . . . , Fkm−1 = k m−1 ρk cos (θk)

G0k = ρk sin (θk) , G1k = kρk sin (θk) , . . . , Gm−1


k = k m−1 ρk sin (θk)
2.2 Equazioni lineari ad n passi a coefficienti costanti 35

Prova del Teorema 2.15. Ad ogni n-upla di dati iniziali X0 , X1 , . . . , Xn−1 corri-
sponde una ed una sola soluzione ottenibile calcolando iterativamente i valori Xk .
Poiché ogni n-upla di dati iniziali si ottiene come combinazione lineare delle n scelte
di dati iniziali fra loro linearmente indipendenti

1, 0, 0, . . . 0, 0
0, 1, 0, . . . 0, 0
0, 0, 1, . . . 0, 0
...
0, 0, 0, . . . 0, 1

e, per il principio di sovrapposizione delle soluzioni, le combinazioni lineari di solu-


zioni di (2.6) sono ancora soluzioni, concludiamo che l’insieme di tutte le soluzioni è
un sottospazio di dimensione n dello spazio delle successioni. Si osservi che nessuna
radice del polinomio caratteristico P è nulla perché a0 = 0. Dunque tutte le n suc-
cessioni elencate nelle cornici sono non banali. Resta da provare che sono soluzioni
e che sono tra loro linearmente indipendenti.
Sia λ una soluzione dell’equazione caratteristica P (μ) = 0. Allora, sostituendo λk
al posto di Xk nel primo membro dell’equazione (2.6), si ottiene

λk+n + an−1 λk+n−1 + · · · + a0 λk = λk P (λ) (2.9)

che è nullo per ipotesi. Dunque, Xk = λk è una soluzione di (2.6).


Osserviamo che se λ è radice di molteplicità m > 1 dell’equazione P (μ) = 0, allora1

P (λ) = P  (λ) = · · · = P (m−1) (λ) = 0 . (2.10)


Sia λ una soluzione di molteplicità 2 dell’equazione caratteristica. Allora, sostituendo
kλk al posto di Xk nel primo membro della (2.6), si ottiene

(k + n) λk+n +(k + n − 1) an−1 λk+n−1 +· · ·+a0 kλk = kλk P (λ)+λk+1 P  (λ) (2.11)

dato che
P  (λ) = nλn−1 + (n − 1) an−1 λn−2 + · · · + 2a2 λ + a1 .
Poiché, per la (2.10), P (λ) = P  (λ) = 0, dalla (2.11) segue che kλk è soluzione di
(2.6).
Sia ora λ radice di molteplicità m ≥ 2 dell’equazione caratteristica. Fissato n, per
1 ≤ h ≤ m definiamo

Qh,k (μ) = (k + n)h−1 μk+n + (k + n − 1)h−1 an−1 μk+n−1 + · · · + kh−1 a0 μk =


n
= (k + s)h−1 as μk+s .
s=0

Qh,k (μ) è il polinomio nella variabile μ di grado minore o uguale a k + n che si


ottiene sostituendo kh−1 μk al posto di Xk nel primo membro della (2.6).
1
Infatti, se λ è radice di molteplicità h dell’equazione P (μ) = 0, si può scrivere:

P (μ) = (μ − λ)h Q (μ)

con Q polinomio di grado n − h in μ, e derivando si ottiene la (2.10).


36 2 Equazioni alle differenze lineari

Se Qh,k è esprimibile come combinazione lineare di P e delle sue derivate successive


fino all’ordine h − 1 con coefficienti che sono polinomi in μ di grado minore o uguale
a k (si noti che la (2.11) ci dice che ciò è vero se m = 2), cioè se


h−1
Qh,k (μ) = cj,k (μ) P (j) (μ) con grado cj,k ≤ k, (2.12)
j=0

allora da (2.10) segue Qh,k (λ) = 0, dunque kh−1 λk è una soluzione di (2.6) per ogni
1 ≤ h ≤ m.
Proviamo la (2.12), ragionando per induzione sull’indice h.
Se h = 1, la tesi è vera dato che la (2.9) si scrive come

Q1,k (μ) = μk P (μ) ∀k ∈ N.

Supponiamo ora che esista un intero 1 ≤ h < m per cui (2.12) è vera. Allora, per
ogni k, otteniamo:


n
n
Qh+1,k (μ) = (k + s)h as μk+s = (k + s)h−1 as (k + s) μk+s =
s=0 s=0
d  k+s  d
n n
= (k + s)h−1 as μ μ =μ (k + s)h−1 as μk+s =
s=0
dμ dμ s=0

d per l’ipotesi di induzione


=μ Qh,k (μ) =


h−1 
=μ cj,k (μ) P (j+1) (μ) + cj,k (μ) P (j) (μ) =
j=0


h
= cj,k P (j) (μ)

j=0

 
avendo posto cj,k = μ cj−1,k (μ) + cj,k (μ) . Quindi anche Qh+1,k (μ) si esprime co-
me combinazione lineare di P e delle sue derivate successive fino all’ordine h con
coefficienti che sono polinomi in μ di grado minore o uguale a k.
Rimane da provare l’indipendenza lineare delle soluzioni trovate.
Nel caso di n radici distinte λ1 , . . . , λn basterà provare l’indipendenza lineare dei
primi n valori delle successioni, cioè
⎡ ⎤
1 λ1 λ21 . . . λn−1
1
⎢ 1 λ2 λ22 . . . λn−1 ⎥
⎢ 2 ⎥
det ⎢ . . . . . ⎥ = 0
⎣ .. .. .. . . .. ⎦
1 λn λ2n . . . λn−1
n

disuguaglianza vera se λj sono distinti perché tale determinante (determinante di


Vandermonde2 ) vale

(λn − λn−1 ) (λn − λn−2 ) · · · (λn − λ1 ) (λn−1 − λn−2 ) · · · (λn−1 − λ1 ) · · · (λ2 − λ1 ) .


2
Alexandre-Théophile Vandermonde, 1735-1796.
2.2 Equazioni lineari ad n passi a coefficienti costanti 37

Se λ è radice di molteplicità m nell’equazione caratteristica e c1 , c2 , . . . , cm sono


costanti reali tali che
c1 λk + c2 kλk + c3 k2 λk + · · · + cm km−1 λk = 0 k∈N

allora deve anche valere

c1 + c2 k + c3 k2 + · · · + cm km−1 = 0 k∈N

e dal principio di identità dei polinomi segue c1 = c2 = · · · = cm = 0.


Omettiamo i dettagli nel caso in cui siano contemporaneamente presenti radici sem-
plici e multiple. 

Riassumendo, il Teorema 2.15 consente di costruire n soluzioni linearmente


indipendenti: infatti, le radici (contate con la loro molteplicità) del polinomio
caratteristico di un’equazione alle differenze di ordine n sono esattamente n,
grazie al Teorema fondamentale dell’Algebra.
Tutte le soluzioni dell’equazione (2.6) sono combinazioni lineari delle n solu-
zioni linearmente indipendenti elencate nelle cornici del Teorema 2.15. Una
tale combinazione è detta soluzione generale di (2.6) perché al variare dei
coefficienti si ottengono tutte le soluzioni. Precisamente, per ogni scelta dei
dati iniziali X0 , X1 , . . . , Xn−1 si determina un’unica scelta di tali coefficienti
e di conseguenza un’unica soluzione.

Esempio 2.16. All’equazione alle differenze

Xk+3 − 4Xk+2 + 5Xk+1 − 2Xk = 0


si associa l’equazione caratteristica λ3 − 4λ2 − 5λ − 2 = 0 che si fattorizza in
2
(λ − 1) (λ − 2) = 0.
Dunque, abbiamo la radice semplice 2 e la radice doppia 1. La soluzione
generale dell’equazione alle differenze è

Xk = c1 2k + c2 + c3 k k∈N

dove c1 , c2 e c3 sono costanti arbitrarie.


Se all’equazione alle differenze si aggiungono le condizioni iniziali X0 = 0,
X1 = 1 e X2 = 0, per sostituzione, si ottiene il sistema:
⎧ ⎧
⎨ c1 + c2 = 0 ⎨ c1 = −2
2c1 + c2 + c3 = 1 equivalente a c2 = 2
⎩ ⎩
4c1 + c2 + 2c3 = 0 c3 = 3

da cui Xk = −2k+1 + 3k + 2. 

Esempio 2.17. L’equazione



Ck+1 = Ck + Ck−1 k ∈ N\ {0}
C0 = 0, C1 = 1
38 2 Equazioni alle differenze lineari

che descrive ricorsivamente i numeri di Fibonacci (si veda l’Esempio 1.10) è


lineare, a coefficienti costanti, del secondo ordine. Il polinomio caratteristico
λ2 − λ − 1 ammette le radici
√ √
1+ 5 1− 5
λ1 = λ2 = ;
2 2
k k
dunque, la soluzione generale è data da Ck = c1 (λ1 ) + c2 (λ2 ) . Inoltre
√ √
1+ 5 1− 5
C0 = c1 + c2 = 0, C 1 = c1 + c2 =1
2 2
√ √
da cui segue c1 = +1/ 5, c2 = −1/ 5. Riassumendo:

$ √ %k $ √ %k
1 1+ 5 1 1− 5
Ck = √ − √ k∈N
5 2 5 2

Osserviamo che da  
 1 − √5 
 
|λ1 | =  <1
 2 

segue lim λk1 = 0 e quindi


k

Ck+1 λk+1
2 1+ 5
lim = lim k = λ2 = .
k Ck k λ2 2

Inoltre, ricordando che tutti i numeri di Fibonacci sono interi, da


 
 1 k 1
 √ λ1  <
 5  2

segue che Ck è l’intero più vicino a √1 λk o, se si preferisce, è la parte intera


5 2
di √15 λk2 + 12 . 

Esempio 2.18. Risolviamo l’equazione Xk+2 + Xk = 0 con le condizioni ini-


ziali X0 = 0, X1 = 1.
Primo metodo: si tratta di una equazione alle differenze lineare, a coefficienti
costanti, del secondo ordine, omogenea. L’equazione caratteristica λ2 + 1 =
0 ammette le due radici complesse coniugate λ1,2 = ±i e così la soluzione
generale dell’equazione considerata è

k
Xk = c1 ik + c2 (−i) k ∈ N.
2.2 Equazioni lineari ad n passi a coefficienti costanti 39

Imponendo le condizioni iniziali, otteniamo



0 = X0 = c1 + c2 c1 = −i/2
ossia
1 = X1 = ic1 − ic2 c2 = i/2
Secondo metodo: la formulazione reale (equivalente) della soluzione generale
è
Xk = d1 cos (kπ/2) + d2 sin (kπ/2) k∈N
ottenuta da |i| = |−i| = 1, π/2 = arg (i). Sostituendo i dati iniziali, si ottiene
Xk = sin (kπ/2).
Terzo metodo: si può osservare che i termini di indice pari e dispari sono
disaccoppiati. Posto:
Yk = X2k Zk = X2k+1
si ottiene
Yk+1 + Yk = 0 Zk+1 + Zk = 0
k k
Yk = (−1) Y0 Zk = (−1) Z0
k k
X2k = (−1) X0 X2k+1 = (−1) X1 .
k
Sostituendo i dati iniziali X2k = 0, X2k+1 = (−1) , ∀k. 

Consideriamo l’equazione alle differenze lineare, ad n passi, non omo-


genea

Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = b ∀k ∈ N

con b costante fissata, a0 , a1 , . . . , an−1 costanti assegnate, a0 = 0.


La soluzione generale Xk è data dalla somma della soluzione generale del pro-
blema omogeneo (2.6) più un termine del tipo ak m ove m è la molteplicità
dell’eventuale radice 1 del polinomio caratteristico (si pone m = 0 se 1 non è
radice) e a è una costante da determinarsi mediante sostituzione.
Esempio 2.19. Consideriamo l’equazione alle differenze
Xk+2 − 2Xk+1 + Xk = 1. (2.13)
L’equazione caratteristica dell’equazione omogenea Xk+2 − 2Xk+1 + Xk = 0
ammette 1 come radice doppia. Cerchiamo allora una soluzione dell’equazione
assegnata della forma
Yk = ak 2
con a costante reale da determinare. Sostituendo l’espressione di Yk in (2.13),
otteniamo: & '
2 2
a (k + 2) + −2 a (k + 1) + ak 2 = 1
cioè, confrontando i coefficienti delle potenze di k, a = 1/2.
40 2 Equazioni alle differenze lineari

1
In conclusione, la soluzione generale di (2.13) è Xk = c1 + c2 k + k 2 . 
2
Per l’analisi di casi più generali, si rimanda ai paragrafi 2.4 e 2.5.
Esercizio 2.3. Discutere, al variare di a e b in R, il comportamento asintotico della
soluzione dell’equazione lineare a due passi omogenea

Xk+2 + aXk+1 + bXk = 0 k ∈ N, b = 0 .

Esercizio 2.4. Determinare la soluzione generale delle seguenti equazioni alle dif-
ferenze:

(1) Xk+2 − 2Xk+1 − 3Xk = 0 (2) Xk+2 − 3Xk+1 + Xk = 0

(3) Xk+3 − Xk+2 + Xk+1 − Xk = 0 (4) Xk+3 + 5Xk+2 + 7Xk+1 + 3Xk = 0

(5) Xk+2 − 2Xk+1 − 3Xk = 2 (6) Xk+3 − Xk+2 + Xk+1 − Xk = −1 .

2.3 Stabilità di equilibri per equazioni ad n passi a


coefficienti costanti
Già nel caso dell’equazione alle differenze lineare ad un passo Xk+1 = aXk + b
abbiamo osservato che gli eventuali equilibri (soluzioni di (1 − a) x = b) pos-
sono avere natura molto diversa: possono “attrarre” le soluzioni corrispon-
denti ad ogni dato iniziale X0 (se |a| < 1), alternativamente “respingerle” (se
|a| > 1). Nel caso a = −1 non le attraggono né le respingono perché le soluzio-
ni sono periodiche; inoltre, se si parte vicino all’equilibrio la soluzione rimane
vicino all’equilibrio. Nel caso a = 1 se b è diverso da zero non vi sono equili-
bri, se b = 0 allora tutti i punti sono di equilibrio, dunque non attraggono, né
respingono, tuttavia hanno una proprietà di “stabilità”.
In questo paragrafo precisiamo la natura di questo tipo di proprietà degli
equilibri nel caso più generale di equazioni lineari a più passi.
Cominciamo con l’analisi di un problema lineare a due passi (a0 = 0)

Xk+2 + a1 Xk+1 + a0 Xk = b k ∈ N. (2.14)

Un equilibrio per una equazione (alle differenze) a due passi lineare a coef-
ficienti costanti è un valore α ∈ R tale che la successione costante Xk = α,
∀k ∈ N, è soluzione di (2.14).
Un equilibrio α si dice attrattivo se, per ogni coppia di dati iniziali X0 e X1 ,
la soluzione corrispondente tende all’equilibrio, cioè

lim Xk = α.
k

Un equilibrio α si dice stabile se a partire da dati iniziali “prossimi” all’equi-


librio si rimane “vicini” all’equilibrio, cioè se per ogni ε > 0 esiste un δ > 0
2.3 Stabilità di equilibri per equazioni ad n passi a coefficienti costanti 41

tale che

|X0 − α| + |X1 − α| < δ ⇒ |Xk − α| < ε ∀k ∈ N.

Poiché α è un equilibrio per (2.14) se e solo se è soluzione dell’equazione

x + a 1 x + a0 x = b

possiamo dedurre che:


• se 1 + a1 + a0 = 0, allora esiste un solo equilibrio α = b/ (1 + a1 + a0 ) per
(2.14);
• se 1 + a1 + a0 = 0 e b = 0, allora ogni α ∈ R è di equilibrio;
• se 1 + a1 + a0 = 0 e b = 0, allora non esistono equilibri.
Se λ1 , λ2 sono le radici del polinomio caratteristico, allora dall’espressione
della soluzione generale, si ricavano le seguenti conclusioni sulla stabilità di
eventuali equilibri:
• α è attrattivo se e solo se |λ1 | < 1 e |λ2 | < 1;
• α è stabile se e solo se entrambe le radici λ1 , λ2 hanno modulo minore o
uguale a 1 e le eventuali radici di modulo 1 sono tutte semplici e, nel caso
b = 0, diverse da 1;
• se α è attrattivo allora è anche stabile.

Consideriamo, in generale, l’equazione alle differenze ad n passi a coefficienti


costanti (a0 = 0)

Xk+n + an−1 Xk+n−1 + an−2 Xk+n−2 + · · · + a0 Xk = b k ∈ N (2.15)

dove a0 , a1 , . . . , an−1 , b sono assegnati numeri reali o complessi.


Definizione 2.20. Un equilibrio per la (2.15) è un numero α cui corrispon-
de la soluzione costante Xk = α.
Sostituendo, per ogni k, Xk = α in (2.15) si giunge facilmente alla conclusione
che:
• se 1 + an−1 + an−2 + · · · + a0 = 0, allora esiste un unico equilibrio:

α = b/ (1 + an−1 + an−2 + · · · + a0 ) ;

• se 1 +an−1 +an−2 +· · ·+a0 = 0, allora se b = 0 ogni α ∈ R è un equilibrio,


se b = 0 non esistono equilibri.
Definizione 2.21. Un equilibrio α di (2.15) si dice equilibrio stabile se per
ogni ε > 0 esiste un δ > 0 tale che


n−1
|Xj − α| < δ ⇒ |Xk − α| < ε ∀k ∈ N
j=0
42 2 Equazioni alle differenze lineari

cioè dati iniziali vicini all’equilibrio generano traiettorie che si mantengono


(uniformemente in k) vicine all’equilibrio. Altrimenti α si dice instabile.
Definizione 2.22. Un equilibrio α di (2.15) si dice equilibrio attrattivo se
per ogni n-upla di dati iniziali X0 , X1 , . . . , Xn−1 , la corrispondente soluzione
X = {Xk } converge ad α, cioè

lim Xk = α.
k

Teorema 2.23. Un equilibrio α dell’equazione lineare (2.15):


1) è attrattivo se e solo se ogni soluzione λ dell’equazione caratteristica ve-
rifica |λ| < 1;
2) è stabile se e solo se ogni soluzione λ dell’equazione caratteristica verifica
|λ| ≤ 1 , eventuali radici di modulo unitario sono semplici e, se b = 0,
diverse da 1;
3) se è attrattivo allora è anche stabile.

Prova. Il cambio di coordinate Yk = Xk − α ci riconduce al sistema omogeneo con


la stessa equazione caratteristica nell’incognita Y :

Yk+n + an−1 Yk+n−1 + an−2 Yk+n−2 + · · · + a0 Yk = 0.

α è stabile (rispettivamente attrattivo) per X se e solo se 0 è stabile (rispettivamente


attrattivo) per Y . Allora 1) e 2) seguono dall’espressione esplicita delle soluzioni

m−1

Yk = cjl kl λkj
λj l=0

ricordando che:  
|λ| < 1 ⇒ lim kl λk = 0
k

 
l ≥ 1 , |λ| = 1 ⇒ lim kl λk  = +∞ .
k

La 3) segue immediatamente da 1) e 2). 


Esempio 2.24. Data l’equazione lineare a due passi

6Xk+2 − 5Xk+1 + Xk = 2

ne determiniamo l’equilibrio e discutiamo la sua stabilità.


Dall’equazione (6 − 5 + 1) α = 2 si ricava α = 1. Le radici dell’equazione
caratteristica 6λ2 − 5λ + 1 = 0 sono λ1 = 1/2 e λ2 = 1/3. Dunque α = 1
risulta stabile e attrattivo. La soluzione generale è Xk = c1 2−k + c2 3−k + 1.
Nella Fig. 2.3 sono riportati i primi valori della soluzione corrispondente alle
condizioni iniziali X0 = 0 e X1 = 2: Xk = 23−k − 32−k + 1. 
2.3 Stabilità di equilibri per equazioni ad n passi a coefficienti costanti 43

Xk

Fig. 2.3. Grafico di Xk = 23−k − 32−k + 1

Xk

1
k

−32

Fig. 2.4. Grafico di Xk = 2k/2−1 (cos (kπ/4) − sin (kπ/4))

Esempio 2.25. Consideriamo l’equazione Xk+2 − 2Xk+1 + 2Xk = 0. L’equi-


librio è α = 0. Le soluzioni dell’equazione
√ caratteristica λ2 − 2λ + 2λ = 0 sono
λ1,2 = 1 ± i. Poiché |λ1,2 | = 2 l’equilibrio è instabile.
La soluzione generale dell’equazione è:
 π   π 
k k
Xk = c1 (1 + i) + c2 (1 − i) = 2k/2 c1 cos k + c2 sin k k ∈ N.
4 4
Se X0 = ε > 0 e X1 = 0, per sostituzione, si ricava c1 = ε e c2 = −ε e,
in accordo a quanto già detto, a partire da tali dati iniziali limk |Xk | = +∞
comunque si scelga ε, purché positivo.
44 2 Equazioni alle differenze lineari

Se si fosse partiti dall’equilibrio X0 = X1 = 0, allora la soluzione si sarebbe


mantenuta costante: Xk = 0 per ogni k. Riportiamo in Fig. 2.4 l’andamento
della soluzione particolare corrispondente ai dati iniziali X0 = 1, X1 = 0. 

Esempio 2.26. Consideriamo l’equazione Xk+3 + Xk = 0.


L’equilibrio è α = 0 e le soluzioni dell’equazione caratteristica λ3 +1 = 0 sono

1±i 3 π π
λ1 = −1 λ2,3 = = cos + i sin .
2 3 3
Dunque |λj | = 1 con radici distinte: l’equilibrio α è stabile ma non attrattivo.
k
La soluzione generale Xk = c1 (−1) + c2 cos (kπ/3) + c3 sin (kπ/3) è somma
di un primo termine 2 periodico e di due termini 3 periodici, pertanto Xk ri-
sulta essere periodica di periodo 6. Riportiamo in Fig. 2.5 l’andamento della
soluzione particolare corrispondente ai dati iniziali X0 = 1, X1 = 0 e X2 = 2.

Esempio 2.27. Consideriamo l’equazione 5Xk+2 − 8Xk+1 + 5Xk = 0. L’equi-


librio è α = 0. Le soluzioni dell’equazione caratteristica 5λ2 − 8λ + 5 = 0 sono
4 3
λ1,2 = ± i , distinte ed entrambe di modulo 1. Dunque α è stabile ma non
5 5    
è attrattivo. La soluzione generale Xk = c1 cos θk  + c2 sin θk  dove θ è
l’unico angolo in (0, π/2) espresso in radianti che risolve cos θ = 4/5, oscilla
attorno all’equilibrio, ma non è periodica. Infatti, l’angolo θ = arccos (4/5)
non è un sottomultiplo di 2π. 

Per riassumere il senso generale degli ultimi due esempi, osserviamo che nei
casi in cui sono presenti soluzioni dell’equazione caratteristica di forma λ1,2 =
cos θ ± i sin θ, allora la soluzione generale contiene termini del tipo

Zk = c1 cos (θk) + c2 sin (θk) . (2.16)

Xk

1

2


2 3
Fig. 2.5. Grafico di Xk = (−1)k + 3
sin (kπ/3), successione di periodo 6
2.3 Stabilità di equilibri per equazioni ad n passi a coefficienti costanti 45

Xk

   
 − 4 sin θk
Fig. 2.6. Grafico di Xk = 4 cos θk  , successione non periodica

È utile aver chiaro il comportamento di (2.16). Tale successione ha caratte-


ristiche
di stabilità, cioè se c1 e c2 sono piccole, allora Zk si mantiene piccola:
|Zk | ≤ c21 + c22 per ogni k. Inoltre:
• se θ = 2π/m per qualche m intero, allora Z è una successione periodica
di periodo minimo uguale ad m, cioè Zk+m = Zk , ∀k ∈ N, mentre una
relazione di tale tipo è falsa con valori minori di m;
• se θ = 2π/m per ogni m intero non nullo, allora Z non è periodica.

Riassumendo l’analisi qualitativa delle traiettorie corrispondenti all’equazio-


ne alle differenze lineare, omogenea ad n passi (2.6), possiamo affermare che i
modi naturali delle soluzioni (potenze intere delle radici del polinomio carat-
teristico, si veda (2.8)) hanno un andamento che dipende dalla posizione della
corrispondente radice λ nel piano complesso (in particolare |λ| > 1 implica
divergenza, |λ| < 1 implica convergenza a zero, |λ| = 1 implica limitatezza).
I vari comportamenti sono illustrati in Fig. 2.7.
La determinazione delle soluzioni dell’equazione caratteristica di un’equazione
alle differenze lineare a coefficienti costanti omogenea di ordine n, comporta
la soluzione di un’equazione algebrica di grado n (si veda l’Appendice B,
Equazioni algebriche): nella pratica tale problema per n ≥ 3 viene risolto nu-
mericamente (ad esempio, si veda il metodo di Newton, paragrafi 4.7 e 4.8).
Sono stati quindi elaborati dei criteri che consentono lo studio della stabilità
dell’equilibrio nullo per tali equazioni basati esclusivamente sulla conoscenza
dei coefficienti dell’equazione stessa. Riportiamo uno dei più noti.

Teorema 2.28 (di Schur). Siano a0 , a1 , . . . , an−1 i coefficienti dell’equa-


zione (2.6). Date le matrici triangolari di ordine n
⎡ ⎤ ⎡ ⎤
1 0 0 ··· 0 a0 a1 a2 · · · an−1
⎢ an−1 1 0 · · · 0 ⎥ ⎢ 0 a0 a1 · · · an−2 ⎥
⎢ ⎥ ⎢ ⎥
⎢ an−2 an−1 1 · · · 0 ⎥ ⎢ ⎥
A=⎢ ⎥ B = ⎢ 0 0 a0 · · · an−3 ⎥
⎢ .. .. .. . . .. ⎥ ⎢ .. .. .. . . .. ⎥
⎣ . . . . .⎦ ⎣ . . . . . ⎦
a1 a2 a3 · · · 1 0 0 0 · · · a0
46 2 Equazioni alle differenze lineari

Im

Re

Fig. 2.7. Modi naturali delle soluzioni di un’equazione alle differenze lineare a coef-
ficienti costanti, omogenea, in funzione della posizione delle parti reale e immaginaria
dell’autovalore λ nel piano complesso

indichiamo con A1 , A2 , . . . , An , e B1 , B2 , . . . , Bn i minori principali di NW


delle due matrici. Allora, l’equilibrio nullo dell’equazione (2.6) è attrattivo se
e solo sono tutti i positivi i determinanti delle seguenti matrici (a blocchi):
( ) ( ) ( ) ( )
A1 B1 A2 B2 A3 B3 An Bn
, , , . . ., .
BT1 AT1 BT2 AT2 BT3 AT3 BTn ATn
Esempio 2.29. Consideriamo l’equazione alle differenze
1
Xk+3 − Xk+2 + 2Xk+1 − Xk = 0 .
2
Si ha: ⎡ ⎤ ⎡ ⎤
1 0 0 − 12 2 −1
A = ⎣ −1 1 0 ⎦ B = ⎣ 0 − 12 2 ⎦
2 −1 1 0 0 − 12
e quindi
⎡ ⎤
( ) ( ) ( ) 1 0 − 12 2
A1 B 1 1
1 −2 A2 B 2 ⎢ −1 1 0 − 1 ⎥
= =⎢
⎣ −1 −1
2⎥
BT1 AT1 − 12 1 BT2 AT2 2 2 1 −1 ⎦
2 0 0 1
⎡ ⎤
1 0 0 − 12 2 −1
⎢ 1 ⎥
( ) ⎢ −1 1 0 0 − 2 12 ⎥
A3 B 3 ⎢ 2 −1 1 0 0 − ⎥
=⎢
⎢ −1
2⎥

BT3 AT3 ⎢ 2 10 0 1 −1 2 ⎥
⎣ 2 − 0 0 1 −1 ⎦
2
1
−1 2 − 2 0 0 1
2.4 Ricerca di soluzioni particolari con secondi membri di tipo particolare 47

Poiché
( ) ( ) ( )
A1 B 1 3 A2 B 2 9 A3 B 3 243
det = > 0 ; det = − < 0 ; det = >0
BT1 AT1 4 B T
2 A T
2 4 B T
3 A T
3 64

concludiamo che l’equilibrio nullo non è attrattivo.

Esercizio 2.5. Determinare eventuali equilibri dell’equazione


1 3
Xk+2 − Xk =
4 2
e discuterne la stabilità. Determinare inoltre la soluzione, rappresentandola grafica-
mente in corrispondenza ai dati iniziali X0 = 1 e X1 = 0.

Esercizio 2.6. Data l’equazione 2Xk+2 + 2Xk+1 + Xk = 0: (a) determinare la solu-


zione generale (sia in termini complessi, sia in termini reali); (b) determinare even-
tuali equilibri e studiarne la loro natura; (c) determinare la soluzione particolare
corrispondente ai dati iniziali X0 = 0 e X1 = −1.

Esercizio 2.7. Data l’equazione Xk+2 − 4Xk+1 + 5Xk = 6: (a) determinare la so-
luzione generale; (b) individuare eventuali equilibri, studiandone la natura.

Esercizio 2.8. Data l’equazione 2Xk+2 + 2Xk+1 + Xk = −10: (a) determinare la


soluzione generale; (b) determinare eventuali equilibri e studiarne la natura.

Esercizio 2.9. Dimostrare che l’equilibrio nullo α = 0 per l’equazione omogenea


del secondo ordine
Xk+2 + a1 Xk+1 + a0 Xk = 0
è stabile e attrattivo se e solo se valgono le relazioni

a0 < 1 1 + a1 + a0 > 0 1 − a1 + a0 > 0

equivalenti a
a0 < 1 |a1 | < 1 + a0 .

2.4 Ricerca di soluzioni particolari con secondi membri


di tipo particolare
Studiamo ora il caso lineare non omogeneo con il secondo membro non costan-
te, cioè dipendente da k. In questa sezione determiniamo le soluzioni con il
metodo elementare detto metodo dei coefficienti indeterminati. Nel suc-
cessivo paragrafo discutiamo una tecnica meno elementare ma più generale,
cioè la Z-trasformata.

Definizione 2.30. Se a0 è una costante diversa da zero ed F è una assegnata


successione, si dice equazione alle differenze lineare affine (o linea-
re non omogenea), di ordine n, a coefficienti costanti, il sistema di
48 2 Equazioni alle differenze lineari

infinite equazioni nell’incognita X:

Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = Fk ∀k ∈ N

(2.17)

Osservazione 2.31. Spesso l’equazione non omogenea (2.17) è chiamata


equazione completa, e con riferimento ad essa l’equazione (2.6), con gli stes-
si coefficienti a primo membro ed il secondo membro nullo, è detta equazione
omogenea associata alla (2.17).

Teorema 2.32. Se Y è una soluzione particolare dell’equazione completa


(2.17), allora tutte le soluzioni di (2.17) si esprimono come Y + X ove X
è una soluzione dell’equazione omogenea corrispondente.

Il teorema appena enunciato ci indica la strada per risolvere la (2.17). Una vol-
ta individuata la soluzione generale dell’equazione omogenea corrispondente,
è sufficiente determinare una soluzione particolare dell’equazione completa:
la somma di queste due soluzioni fornisce la soluzione generale dell’equazione
completa.
Si noti che, se Fk è una costante ed 1 non è radice del polinomio caratteristico
ed esiste un equilibrio, allora come soluzione particolare si può scegliere la
soluzione di equilibrio (2.17).

Esempio 2.33. Determiniamo la soluzione generale dell’equazione

Xk+2 − 4Xk+1 + 3Xk = 2k k ∈ N.

L’equazione caratteristica dell’equazione omogenea λ2 − 4λ + 3 = 0 ammette


come soluzioni λ1 = 1 e λ2 = 3. Dunque, la soluzione generale dell’equazione
omogenea è
Xk = c1 + c2 3k k ∈ N.
Cerchiamo ora una soluzione particolare dell’equazione completa del tipo X k =
a2k con a costante reale da determinare. Sostituendo tale espressione nell’e-
quazione completa, otteniamo

a2k+2 − 4a2k+1 + 3a2k = 2k k∈N

e dividendo per 2k

4a − 8a + 3a = 1 ⇒ a = −1.

In definitiva, la soluzione generale dell’equazione completa è

Xk = c1 + c2 3k − 2k k ∈ N. 
2.4 Ricerca di soluzioni particolari con secondi membri di tipo particolare 49

Esempio 2.34. Determiniamo la soluzione generale dell’equazione

Xk+2 − 4Xk+1 + 3Xk = bk k∈N

ove b è una costante reale, positiva e diversa da 1. Dall’esempio precedente co-


nosciamo già la soluzione generale dell’equazione omogenea. Proviamo allora a
cercare una soluzione particolare dell’equazione completa del tipo X k = βbk .
Per sostituzione, otteniamo

βbk+2 − 4βbk+1 + 3βbk = bk k∈N

e dividendo per bk = 0
 
βb2 − 4βb + 3β = 1 ⇒ β b2 − 4b + 3 = 1.

L’ultima equazione scritta individua univocamente la costante β a patto che


la quantità in parentesi tonda sia diversa da zero, ossia a patto che b non sia
soluzione dell’equazione caratteristica dell’equazione omogenea (cioè b = 1 e
b = 3).
Il lettore verifichi che se b = 1 o b = 3, allora una soluzione particolare
dell’equazione completa è del tipo X k = βkbk . 
Il metodo applicato negli esempi consente di determinare una soluzione espli-
cita nei casi in cui il secondo membro F è un polinomio, una funzione espo-
nenziale o una funzione trigonometrica, come sintetizzato nella Tabella 2.1.
Esercizio 2.10 (Somma di una progressione aritmetica). Provare che

k (k + 1)
1 + 2 + 3 + · · · + (k − 1) + k = k ∈ N.
2

Tabella 2.1. Metodi per la ricerca di soluzioni particolari dell’equazione (2.17)

Fk soluzione particolare

βk cβ k
km cm km + cm−1 km−1 + · · · + c1 k + c0
 
km β k β k cm km + cm−1 km−1 + · · · + c1 k + c0
sin (θk) o cos (θk) c1 sin (θk) + c2 cos (θk)
k k k
β sin (θk) o β cos (θk) β (c1 sin (θk) + c2 cos (θk))

La successione nella seconda colonna non deve essere soluzione dell’equazione


omogenea.
Se la successione nella seconda colonna è già soluzione dell’equazione omoge-
nea, allora occorre moltiplicarla per una potenza di k con esponente uguale alla
molteplicità della radice corrispondente.
50 2 Equazioni alle differenze lineari

Esercizio 2.11. Provare la seguente formula che fornisce la somma dei quadrati dei
primi k numeri interi positivi
1
1 + 4 + 9 + · · · + k2 = k (2k + 1) (k + 1) .
6
Esercizio 2.12. Calcolare la somma dei cubi dei primi k numeri interi.

Esercizio 2.13 (Somma di una progressione geometrica). Assegnato il nu-


mero complesso z poniamo


k
Pk = 1 + z + z 2 + · · · + z k = zn.
n=0

Calcolare Pk come funzione esplicita di k.

Esercizio 2.14. Assegnato z ∈ C, calcolare fh,k = z h + z h+1 + · · · + z h+k−1 + z h+k ,


h, k ∈ N.


+∞
Esercizio 2.15. Stabilire per quali valori di z ∈ C la serie geometrica zk è
k=0
convergente e calcolarne la somma (si veda l’Appendice A, 18)-26)).

Esercizio 2.16. Provare che il numero decimale rappresentato da 0, 9999999 . . .


(dove i puntini rappresentano una successione infinita di cifre tutte uguali a 9)
coincide con il numero 1.

Esercizio 2.17. Esplicitare la soluzione del sistema ottenuto nella soluzione dell’E-
sercizio 1.3.

Esercizio 2.18. Determinare la soluzione generale delle seguenti equazioni alle dif-
ferenze:
k
1) Xk+2 − 2X √k+1 − 3Xk = (−3)  √ 
2) Xk+2 − 2 3Xk+1 − 4Xk = 3 + 2 3 k
π 
3) Xk+3 − Xk+2 + Xk+1 − Xk = sin k
2 k
4) Xk+3 + 5Xk+2 + 7Xk+1 + 3Xk = (−1) .

2.5 La Z-trasformata
La Z- trasformata è uno strumento matematico di grande importanza nella
elaborazione dei segnali. Qui ne viene data una breve presentazione, quale pos-
sibile metodo per la soluzione di equazioni alle differenze lineari con secondi
membri non costanti. Precisamente, tale tecnica consente di determinare so-
luzioni particolari con dati iniziali assegnati anche nel caso di secondi membri
che non sono funzioni elementari dell’indice k.

Definizione 2.35. La Z-trasformata di una successione X = {Xk } (in-


dicata a volte con Z {X}) è una funzione x (z) della variabile complessa z
2.5 La Z-trasformata 51

definita come somma di una serie di potenze i cui coefficienti sono i termini
della successione X:


+∞ Xk
Z {X} (z) = x (z) = k
k=0 z

La funzione x è definita per tutti gli z complessi che rendono convergente la


serie. Ad esempio, se X è una successione limitata, allora la serie converge
per ogni z complesso tale che |z| > 1. Più in generale, se esiste una costante
c ∈ (0, +∞) tale che |Xk | < ck per ogni k, allora la serie converge per ogni
z ∈ C tale che |z| > c.
Il lettore che non abbia familiarità con i numeri complessi può comunque ope-
rare considerando la restrizione di tale funzione definita sulla sola semiretta
reale {x ∈ R : x > c}, con c opportuno numero reale positivo.
È immediato accertare la linearità della Z trasformata:

Z {aX + bY } = aZ {X} + bZ {Y } ∀a, b ∈ C, ∀X, Y

Teorema 2.36. La Z-trasformata di una successione è derivabile all’inter-


no dell’insieme di convergenza. Più precisamente, ammette derivate di ogni
ordine.

Presentiamo nel seguito alcuni esempi elementari ma importanti di Z-tras-


formate: i nomi (e la simbologia adottata) sono mutuati dalla terminologia in
uso nella teoria dei segnali discreti.

Esempio 2.37 (Segnale di Heaviside, U ). Se Uk = 1 per ogni k ∈ N,


allora, posto u (z) = Z {U }, risulta:
z
u (z) = .
z−1
Infatti, ricordando la formula che fornisce la somma di una serie geometrica
convergente, se |z| > 1, allora |1/z| < 1 e
+∞
 1 1 z
u (z) = = = . 
zk 1 − 1/z z−1
k=0

Esempio 2.38 (Impulso,


! K 0 ). Se K00 = 1 e Kk0 = 0 per ogni k ≥ 1, allora,
0 0
posto k (z) = Z K , vale
k 0 (z) = 1. 
52 2 Equazioni alle differenze lineari

Esempio 2.39 (Segnale di Kronecker, Kn ). Se Knn = 1 e Kkn = 0 per


ogni k = n, allora, posto k n (z) = Z {K n }, vale

k n (z) = z −n . 

Si noti che K 0 e K n sono successioni, mentre Kk0 e Kkn sono i corrispondenti


termini k-esimi di tali successioni.

Esempio 2.40 (Segnale lineare, L). Se Lk = k per ogni k ∈ N, allora,


posto l (z) = Z {L}, risulta
z
l (z) = 2 .
(z − 1)

Infatti
+∞
 +∞  
k d 1
l (z) = k
−z
z dz z k
k=0 k=0
$+∞ %  
d  1 d z z
= −z = −z = 2
dz zk dz z − 1 (z − 1)
k=0

ove si è sfruttata la commutatività delle operazioni di derivazione e di som-


ma di una serie, valida all’interno dell’insieme di convergenza di una serie di
potenze. 

Vediamo ora come agisce la Z-trasformata sullo “scorrimento” degli indici nel-
la successione da trasformare: l’estrema semplicità di tale azione è di grande
utilità nello studio delle equazioni alle differenze e nel trattamento di segnali
discreti con ritardo.

Definizione 2.41. Assegnata una successione X = {X0 , X1 , X2 , . . . }, si dice


traslazione in avanti la trasformazione τn che ad X associa la successione

τn X = {0, 0, . . . , 0, X0 , X1 , X2 , . . . } .
 

n termini

Con abuso di notazione, porremo, per brevità, τn X = {Xk−n }k∈N .

Definizione 2.42. Assegnata una successione X = {X0 , X1 , X2 , . . . }, si dice


traslazione all’indietro la trasformazione τ−n che ad X associa la succes-
sione
τ−n X = { Xn , Xn+1 , Xn+2 , . . . } .
Si noti che ora, oltre allo scorrimento, c’è la perdita dei primi n termini della
successione X.
Con abuso di notazione, sempre per brevità, porremo τ−n X = {Xk+n }k∈N .
2.5 La Z-trasformata 53

Fig. 2.8. Nella presentazione dei segnali discreti è utile visualizzare graficamente i
termini delle successioni: (a) K 0, (b) K n , (c) U , (d) L

Riportiamo qui un elenco che consente di ottenere rapidamente le trasfor-


mate e le antitrasformate in alcuni casi particolari (a sinistra è indicata la
successione, a destra la corrispondente Z-trasformata).

τ1 X z −1 x (z)

τn X z −n x (z)

τ−1 X zx (z) − zX0

τ−2 X z 2 x (z) − z 2 X0 − zX1

Enunciamo in generale come opera la Z-trasformata sulle traslazioni, lascian-


do la dimostrazione per esercizio.

Teorema 2.43. Sia X una successione. Allora, con riferimento alle Defini-
zioni 2.41 e 2.42

Z {τn X} = z −n x (z)
Z {τ−n X} = z n x (z) − z n X0 − z n−1 X1 − · · · − zXn−1 .

Gli esempi precedenti, ed altri analoghi, conducono alla compilazione di tabel-


le di trasformate che consentono di Z-trasformare le successioni ed effettuare
l’operazione inversa, cioè antitrasformare le funzioni definite nel complemen-
tare di dischi del piano complesso: in Appendice G tali risultati sono raccolti
in una tabella riassuntiva.Vediamo dapprima con un esempio come utilizza-
re il metodo della Z-trasformata per risolvere equazioni alle differenze a
coefficienti costanti con secondo membro funzione nota dell’indice.
54 2 Equazioni alle differenze lineari

Esempio 2.44. Determiniamo una espressione non ricorsiva di X tale che



Xk+2 − 2Xk+1 + Xk = 3k k∈N
X0 = 0, X1 = 2

La soluzione (che esiste ed è unica) potrebbe essere calcolata ricorsivamente o


con il metodo delle costanti indeterminate illustrato nel paragrafo preceden-
te, giacché Fk = 3k è un polinomio in k. Applichiamo invece il metodo della
Z-trasformata.
Posto x (z) = Z {X} dalla tabella in Appendice G otteniamo Z {k} = z/ (z − 1)2
2
e, per la linearità di Z, Z {3k} = 3z/ (z − 1) . Dunque, trasformando l’e-
quazione e, tenendo conto delle traslazioni, otteniamo un’equazione algebrica
nell’incognita x (z):

  3z
z 2 x − z 2 X0 − zX1 − 2 (zx − zX0 ) + x = 2
(z − 1)

equivalente a
3z 2z
x (z) = 4 + 2 .
(z − 1) (z − 1)
A questo punto, sempre dalla tabella
$  *%
−1 3z 1
Z 4 = k (k − 1) (k − 2)
(z − 1) 2
$  *%k
2z
Z −1 = 2k
(z − 1)2 k

otteniamo la soluzione

1
Xk = 2k + k (k − 1) (k − 2) . 
2

Generalizzando il secondo membro ed i dati iniziali nell’Esempio 2.44 :

Xk+2 − 2Xk+1 + Xk = Fk con X0 , X1 assegnati

cioè considerando una generica successione F anziché il caso particolare 3k e


dati generici X0 e X1 , si può osservare che la relazione tra f = Z {F } e x =
Z {X} è molto semplice:

1
x (z) = g (z)
z 2 − 2z + 1
2.5 La Z-trasformata 55

dove g è la somma di f (trasformata del secondo membro)  con una corre-


zione3 che dipende dai dati iniziali e dall’equazione: z 2 − 2z X0 + zX1 . In
 −1
questo contesto h (z) = z 2 − 2z + 1 è detta funzione di trasferimen-
to4 : la funzione di trasferimento è la trasformata della soluzione (o risposta) H
corrispondente al secondo membro (rispettivamente all’ingresso) K 0 impulso
unitario concentrato in zero, con dati iniziali nulli.
Per sfruttare appieno questa osservazione nella trattazione dei problemi con-
creti è utile ricordare a questo punto una definizione e un risultato assai
importanti.

Definizione 2.45. Date due successioni X, Y si dice convoluzione discre-


ta di X e Y la successione, indicata con X ∗ Y il cui termine generale è


k
(X ∗ Y )k = Xh Yk−h .
h=0

Si verifica facilmente che X ∗ Y = Y ∗ X e (aX) ∗ Y = a (X ∗ Y ) per ogni


coppia di successioni X, Y e per ogni costante a.

Teorema 2.46 (Z-trasformata della convoluzione discreta). Se X e Y


sono due successioni che ammettono Z-trasformata definita in un dominio di
C non vuoto, allora la loro convoluzione discreta X∗Y ammette Z-trasformata
(definita nell’intersezione dei rispettivi domini) e vale

Z {X ∗ Y } (z) = x (z) y (z)

Dunque, se H è la soluzione di un’equazione alle differenze a due passi (li-


neare, a coefficienti costanti) corrispondente ai dati iniziali X1 = X0 = 0
e con secondo membro K 0 impulso unitario, allora la soluzione della stessa
equazione corrispondente a X1 = X0 = 0 e dal generico secondo membro F , è

H ∗F .

Più in generale, per la stessa equazione, per ogni secondo membro F e per ogni
scelta dei dati iniziali X0 , X1 non necessariamente nulli, se H è la soluzione
3
Si noti che tale termine è la Z-trasformata della soluzione dell’equazione omo-
genea (Fk ≡ 0) con gli stessi dati iniziali. Si noti anche che tale soluzione può
essere calcolata direttamente (in modo più elementare) mediante le tecniche del
paragrafo 2.2).
4
Precisamente, funzione di trasferimento del filtro risolutore dell’equazione al-
le differenze, dove, fissata l’equazione omogenea e i dati iniziali, il filtro risolutore
corrisponde all’operazione lineare che ad ogni secondo membro associa la soluzione
dell’equazione non omogenea.
56 2 Equazioni alle differenze lineari

corrispondente all’impulso K 0 , allora la soluzione è

H ∗G

dove G = F + D ed il termine D dipende dai dati iniziali.


Nell’Esempio 2.44 si può osservare come la soluzione X sia esprimibile di-
rettamente come convoluzione discreta tra il secondo membro {3k}k∈N e
" −1 #
Z −1 z 2 − 2z + 1 cioè l’antitrasformata della funzione di trasferimento
con una correzione dovuta ai dati iniziali. Ricordiamo che la funzione di trasfe-
rimento è il reciproco del polinomio caratteristico associato al primo membro
dell’equazione alle differenze.
Si noti che la funzione di trasferimento dipende solo dal primo membro e si
calcola una volta per tutte, e può essere utilizzata per ogni secondo membro
trasformabile ed ogni dato iniziale.
Esempio 2.47. Sfruttando il teorema sulla convoluzione discreta, proviamo
 −1
che l’antitrasformata di z 2 − 2z + 1 ha termine generale Xk = k − 1 se
k ≥ 1 e X0 = 0:

  

1 1 1 Esempio 2.35
Z −1 = Z −1 ∗ Z −1 =
z 2 − 2z + 1 z−1 z−1
 
1 1 Teorema 2.41
= Z −1 u (z) ∗ Z −1 u (z) =
z z
= Z −1 {Z {τ1 U }} ∗ Z −1 {Z {τ1 U }} =
= τ1 U ∗ τ1 U

il cui termine k-esimo (poiché τ1 U = {0, 1, 1, 1, . . .}) è 0 se k = 0 e


k
(τ1 U )h (τ1 U )k−h = k − 1 se k ≥ 1. 
h=0

Riassumendo, vale il seguente teorema.

 −1 
Fig. 2.9. Z −1 z 2 − 2z + 1
2.5 La Z-trasformata 57

Teorema 2.48. Sia F una successione Z-trasformabile (cioè esiste a > 0 tale
che |Fk | ≤ ak per ogni k ∈ N). Allora l’unica soluzione di

Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = Fk
X0 = X1 = · · · = Xn−1 = 0
" −1 #
è data da X = T ∗ F ove T = Z −1 z n + an−1 z n−1 + · · · + a1 z + a0 .

Ricordiamo di seguito la definizione di medie mobili, spesso utilizzate nel


trattamento statistico dei dati, ed osserviamo che esse hanno una semplice
interpretazione in termini di convoluzione discreta.

Definizione 2.49. Le medie mobili di ampiezza n di una successione X


sono le medie aritmetiche di n termini consecutivi della successione:
Xk−n+1 + Xk−n+2 + · · · + Xk
(M n [X])k = .
n
Dunque:
 
1
n−1
1
(M n [X])k = Xk−j = X ∗ (U − τn U ) .
n n k
j=0

Può essere utile definire convenzionalmente anche i valori di Xk per k < 0, ad


esempio con valore nullo: in tal modo (M n [X])k è definita anche per 0 ≤ k <
n.
Una media mobile serve a filtrare fluttuazioni occasionali poco significative
per rilevare le eventuali tendenze di lungo periodo.
Nel caso di applicazioni economico-finanziarie la media mobile è particolar-
mente indicata quando è nota l’ampiezza del ciclo economico della grandez-
za considerata, può ad esempio servire a “destagionalizzare” i dati registrati
(operazione essenziale per stimare correttamente l’inflazione o gli acquisti di
materie prime).

1 
Fig. 2.10. Segnale U − U(s−1)
s
58 2 Equazioni alle differenze lineari

Esempio 2.50. Consideriamo le quotazioni Xk di un titolo azionario in un


periodo di 160 giorni (omettiamo per semplicità i giorni di chiusura della bor-
sa, e supponiamo quotato il titolo in ciascuno dei 160 giorni). In Fig. 2.11
riportiamo in un grafico i valori di Xk (Fig. 2.11a) ), l’andamento di M 10 [X]
(Fig. 2.11b) ) e M 20 [X] (Fig. 2.11c) ).
Le medie mobili sono uno degli strumenti dell’“analisi tecnica” dei titoli quo-
tati, spesso utilizzate per tentare “estrapolazioni” dei valori futuri e tendenze

160

140

120

100

80

(a)
60

40

20

160

140

120

100

80

(b)
60

40

20

160

140

120

100

80

(c)
60

40

20

Fig. 2.11. a) Grafico del prolungamento lineare a tratti; b) grafico della media
mobile a 10 giorni; c) grafico della media mobile a 20 giorni
2.5 La Z-trasformata 59

sul breve periodo. Vale la pena di osservare che tali previsioni vanno conside-
rate con grande cautela. Infatti, anche nel breve periodo, le stime dell’errore
di una estrapolazione richiedono una certa regolarità5 , mentre le serie storiche
disponibili sono estremamente irregolari: in questo senso l’esempio riportato
oltre ad essere un caso reale ha anche un comportamento tipico. È per questo
opportuno associare all’analisi tecnica l’analisi delle variabili economiche fon-
damentali che influenzano il titolo. I grafici dell’esempio visualizzano l’effetto
regolarizzante della convoluzione. 
Come abbiamo illustrato negli esempi, l’uso delle tabelle è molto utile sia per
calcolare le Z-trasformate sia per calcolare l’antitrasformata.
Qualora non si abbiano a disposizione tabelle o queste non contengano le
funzioni che si devono antitrasformare, si può ricorrere ad una tecnica tipica
dell’analisi complessa che qui ricordiamo senza dimostrazione.
Teorema 2.51 (Formula di inversione della Z-trasformata). Sia f una
Z-trasformata di una successione F , ed f sia derivabile in senso complesso
in tutto C salvo un numero finito di punti z1 , z2 , . . . , zN tali che6
p
per j = 1, . . . , N ∃ intero positivo pj : ∃ finito lim (z − zj ) j f (z) .
z→zj

Allora, detto Fk il termine generale della successione F , risulta



N
 
Fk = res z k−1 f (z) , zj
j=1

dove il residuo di f in zj , denotato con res(f, zj ), è un numero calcolabile


nel modo seguente:
(a) se pj = 1 allora res(f, zj ) = lim (z − zj ) f (z)
z→zj
 pj −1
1 d p
(b) se pj > 1 allora res(f, zj ) = lim ((z − zj ) j f (z)) .
z→zj (pj − 1)! dz
Vediamo alcuni esempi di applicazioni delle equazioni alle differenze alle reti
elettriche.
Esempio 2.52. Consideriamo il circuito elettrico della Fig. 2.12 in cui sono
presenti 2N resistori di resistenza R ed un generatore di differenza di poten-
ziale V . Ci poniamo il problema di determinare l’intensità di corrente Ik nel
k-esimo resistore orizzontale.
5
Qui regolarità significa esistenza e continuità di un certo numero di derivate: ad
esempio, Xk = f (k) con f ∈ C N (R). L’estrapolazione è precisa solo per grandez-
ze descritte da funzioni f analitiche, situazione molto diversa da quella dei valori
quotati nei mercati azionari.
6
Le ipotesi su f benché apparentemente restrittive, sono verificate nella maggior
parte dei problemi concreti. Inoltre possono essere ulteriormente indebolite: basta
che f abbia un numero finito di singolarità isolate.
60 2 Equazioni alle differenze lineari

Fig. 2.12. Circuito elettrico dell’Esempio 2.52

La formulazione di questo problema (e di altri analoghi che includono com-


binazioni varie di resistori, condensatori e induttanze) può essere effettuata
mediante le due leggi di Kirchhoff :
• in ciascun nodo la somma algebrica delle intensità è nulla;
• in ciascuna maglia la somma algebrica delle cadute di potenziale è nulla.
Ricordiamo che se I denota l’intensità di corrente, allora la caduta di potenzia-
le attraverso un resistore di resistenza R è uguale al prodotto IR. Applicando
la seconda legge rispettivamente alla prima maglia, alla k-esima maglia, con
2 ≤ k ≤ N − 1, e alla N -esima maglia si ottiene:

I1 R + (I1 − I2 ) R − V = 0

Ik R + (Ik − Ik+1 ) R − (Ik−1 − Ik ) R = 0


IN R + IN R + (IN − IN−1 ) R = 0
Dalla prima equazione I2 = 2I1 − V /R. Dalla seconda

Ik+2 − 3Ik+1 + Ik = 0 1≤ k ≤N −2

che ammette la soluzione generale


$ √ %k $ √ %k
3+ 5 3− 5
Ik = A +B (2.18)
2 2

Tenendo conto dei dati iniziali I1 e I2 , si ottiene


1 √   √  
A=− 5 − 5 I1 R + 3 5 − 5 V
10R
(2.19)
1 √   √  
B= 5 + 5 I1 R + 3 5 + 5 V
10R
Tenendo conto dell’equazione relativa all’ultima maglia, sappiamo inoltre che
IN = 13 IN−1 , relazione che consente di determinare per sostituzione IN . 
2.5 La Z-trasformata 61

Fig. 2.13. Circuito elettrico dell’Esempio 2.53

Esempio 2.53. Consideriamo il circuito elettrico della Fig. 2.13 in cui sono
presenti 2N resistori di resistenza R ed N generatori di differenza di poten-
ziale Vk , 1 ≤ k ≤ N . Ci poniamo il problema di determinare l’intensità di
corrente Ik nel k-esimo resistore orizzontale. Procedendo come nell’esempio
precedente, otteniamo un’equazione lineare non omogenea, a due passi:

Ik R + (Ik − Ik+1 ) R − (Ik−1 − Ik ) R = Vk

con “un dato iniziale” I1 e “un dato finale” (da determinare successivamente)
implicitamente forniti da

I2 = I1 − V1 /R and IN−1 = VN /(2R) . (2.20)

Per la genericità del termine noto è opportuno ricorrere al metodo della Z-


trasformata ponendo i (z) = Z {Ik }, v (z) = Z {Vk }:
 2  1
z − 3z + 1 i (z) = I1 z 2 + (I2 − 3I1 ) z + v (z) .
R
Chiamando Jk il secondo membro della (2.18) con le scelte di A e B ottenute
sostituendo nel sistema (2.20), e per k ≥ 2 ,
   √   √ k−1 
v (z) k−1
−1 1 3+ 5
Tk = Z = 5R V ∗

2 − 3−2 5
R (z 2 − 3z + 1) k

otteniamo
Ik = Jk + Tk . 

Osservazione 2.54. Un metodo per risolvere le equazioni alle differenze so-


stanzialmente identico a quello della Z-trasformata consiste nell’associare ad
ogni successione X la sua funzione generatrice:
+∞
  
1
Xk z k = x .
z
k=0
62 2 Equazioni alle differenze lineari

I due metodi sono ovviamente equivalenti. Abbiamo scelto di presentare la


Z-trasformata perché è maggiormente utilizzata nel trattamento dei segnali
ed altre applicazioni dell’ingegneria.

Esercizio 2.19. Risolvere il problema



Xk+2 − Xk+1 − 2Xk = k k∈N
X0 = 0 X1 = 1

Esercizio 2.20. Risolvere il problema seguente (con un segnale impulsivo al secondo


membro):
Xk+2 − 5Xk+1 + 6Xk = Kk0 k∈N
X0 = X1 = 0

Esercizio 2.21. Risolvere il problema seguente (con un segnale di Kronecker al


secondo membro):
Xk+1 − 2Xk = 3Kk4 k∈N
X0 = 1


k−1
Esercizio 2.22. Risolvere l’equazione 2Xk = 2 + 32 (k − s − 1) Xs , k ∈ N .
s=0

Esercizio 2.23. Calcolare la Z-trasformata di Xk = k3 , k ∈ N, senza utilizzare le


tabelle, deducendola da quella di Yk = k (k + 1) (k + 2) .

2.6 Equazioni lineari a coefficienti variabili


In questo paragrafo esaminiamo alcuni semplici esempi di equazioni lineari
alle differenze a coefficienti non costanti.

Definizione 2.55. Assegnata una successione A = {Ak }, si dice equazio-


ne alle differenze lineare, del primo ordine, a coefficienti variabili,
omogenea, l’insieme di equazioni

Xk+1 = Ak Xk ∀k ∈ N . (2.21)

Teorema 2.56. Per ogni dato iniziale X0 l’unica soluzione della (2.21) è:
$k−1 %
+
Xk = As X0 . (2.22)
s=0

,h
Qui e nel seguito il simbolo s=0 As denota il prodotto dei numeri A0 , A1 ,
. . . , Ah .
Omettiamo la prova del teorema poiché è del tutto analoga a quella del Teo-
rema 2.2.
2.6 Equazioni lineari a coefficienti variabili 63

Definizione 2.57. Assegnate due successioni A e B, si dice equazione al-


le differenze lineare, del primo ordine, a coefficienti variabili, non
omogenea, l’insieme di equazioni

Xk+1 = Ak Xk + Bk ∀k ∈ N (2.23)

Teorema 2.58. Per ogni dato iniziale X0 la (2.23) ha un’unica soluzione data
da:

 
,
k−1 
k−2 ,
k−1
Xk = X0 As + Bk−1 + Br As k≥1 (2.24)
s=0 r=0 s=r+1


k−1
Prova. Poniamo G0 = 1 e Gk = As se k > 0, e dividiamo entrambi i membri
s=0
della (2.23) per Gk+1 :
Xk+1 Xk Bk
= + . (2.25)
Gk+1 Gk Gk+1
Se, inoltre, denotiamo
Xk Bk
Zk = βk =
Gk Gk+1
allora la (2.25) si riscrive come Zk+1 = Zk + βk la cui soluzione è data da


k−1
k−1
Br
Zk = Z0 + βr = X0 + .
r=0 r=0
Gr+1

A questo punto, ricordando la sostituzione effettuata, otteniamo per la proprietà


distributiva
k−1    k−1  k−1 
 Br
k−1 
k−1  Br
Xk = Gk Zk = As X0 + = X0 As + As
s=0 r=0
Gr+1 s=0 s=0 r=0
Gr+1

da cui si ottiene la (2.24) grazie all’identità


k−1  k−1   k−1 
 Br
k−2 
As = Bk−1 + Br As . 
s=0 r=0
Gr+1 r=0 s=r+1

Osservazione 2.59. I passaggi della dimostrazione precedente sono corretti


solo se Ak = 0 ∀k. Tuttavia il risultato (2.24) continua a valere anche se qual-
che Ak si annulla, come si può facilmente verificare per sostituzione. Inoltre,
64 2 Equazioni alle differenze lineari

se qualche Ak si annulla, allora (2.24) si semplifica come segue:


⎛ ⎞

k−2 +
k−1
se ∃k ∈ N : Ak = 0 allora Xk = Bk−1 + Br ⎝ As ⎠ , ∀k > k,
r=k s=k+1

dunque, per k > k, il sistema non ha memoria della storia precedente: i valori
Xk con k > k non dipendono dagli Xk con k ≤ k.

Osservazione 2.60. Nel caso di una equazione alle differenze del primo or-
dine a coefficienti non costanti, omogenea, è opportuno notare che il numero
di operazioni necessarie al calcolo del termine Xk sia con la (2.21) sia con la
(2.22) è pari a k. Invece, se si considera una equazione non omogenea, mentre
il calcolo di Xk con la (2.23) richiede 2k operazioni, l’impiego della (2.24) ne
richiede una quantità dell’ordine di k 2 : dunque, la formula esplicita per Xk
(in dipendenza da k e dalla condizione iniziale X0 ) dà informazioni sulla solu-
zione ma non garantisce alcun vantaggio computazionale rispetto all’impiego
della formula ricorsiva nel calcolo dei valori Xk .

Osservazione 2.61. Nel caso particolare in cui Ak = 1 per ogni k, cioè


Xk+1 = Xk + Bk , la (2.24) si semplifica come segue:


k−1
Xk = X0 + Br .
r=0

Notiamo per inciso che il modello ad incrementi non costanti con Ak = 1 è


tipico della successione delle somme parziali di una serie. Infatti, data una
successione X = {X k } definiamo la successione S delle somme parziali Sk
associate alla serie +∞n=0 Xn la successione il cui termine generale si ottiene
dal precedente aggiungendo il termine generale di X, cioè


k
Sk = Xn .
n=0

Con tali notazioni, vale la relazione ricorsiva:

Sk+1 = Sk + Xk+1 .

Osserviamo che tale problema può essere risolto in molti casi con le tecniche
proposte nel paragrafo 2.4 e reltivi esercizi.

Esempio 2.62. Il numero dei triangoli equilateri di lato pari a 1/k che si
ricavano da un triangolo di lato unitario suddividendo ciascun lato in k parti
uguali e unendo tali punti mediante segmenti paralleli ai lati del triangolo
2.6 Equazioni lineari a coefficienti variabili 65

soddisfa la relazione (si veda l’Esercizio 1.12)



Xk+1 = Xk + 2k + 1
X1 = 1.

Per la (2.24), il numero dei triangolini cercato si ottiene ricordando la formula


della somma per la progressione aritmetica:


k−1
k (k − 1)
Xk = 1 + (2r + 1) = 1 + k − 1 + 2 = k2. 
r=1
2

Vediamo ora come si possono estendere le considerazioni ed i risultati prece-


denti alle equazioni a più passi.

Definizione 2.63. Date n successioni A0 , A1 , . . . , An−1 , verificanti ∃k̃ ∈ N


tale che A0k̃ = 0, si dice equazione lineare di ordine n omogenea (o anche
equazione lineare ad n passi omogenea), l’equazione

Xk+n + An−1
k Xk+n−1 + · · · + A1k Xk+1 + A0k Xk = 0. (2.26)

I teoremi che seguono forniscono una descrizione dell’insieme delle soluzioni


di (2.26).
È immediato verificare, calcolando iterativamente i valori di Xk , che per ogni
n-upla di dati iniziali X0 , X1 , . . . , Xn−1 , esiste un’unica soluzione di (2.26).
Con considerazioni analoghe al caso dei coefficienti costanti, si prova il se-
guente teorema.

Teorema 2.64 (Spazio delle soluzioni). Se Aj0 = 0 per j = 0, . . . , n − 1,


allora l’insieme delle soluzioni dell’equazione omogenea (2.26) è uno spazio
vettoriale di dimensione n.

Definizione 2.65. Date n successioni7 X 1 , X 2 , . . . , X n , si dice matrice di


Casorati di indice k la matrice n × n
⎡ 1 ⎤
Xk Xk2 . . . Xkn
⎢ X1 2 n ⎥
⎢ k+1 Xk+1 . . . Xk+1 ⎥
Wk = ⎢ ⎢ .. .. . . ..
⎥.

⎣ . . . . ⎦
1 2 n
Xk+n−1 Xk+n−1 . . . Xk+n−1

Il determinante det Wk si dice Casoratiano.

7
Il lettore ponga attenzione alla posizione degli indici: il numero X1 è parte del
dato iniziale, la successione X 1 è una soluzione, X11 è il termine con indice 1 di tale
successione.
66 2 Equazioni alle differenze lineari

Teorema 2.66. Date n soluzioni X 1 , . . . , X n dell’equazione omogenea (2.26)


con A0k = 0 ∀k ∈ N, le seguenti affermazioni sono equivalenti:
i) le successioni X 1 , . . . , X n sono linearmente dipendenti;
ii) esiste un k ∈ N tale che det Wk = 0;
iii) per ogni k ∈ N si ha det Wk = 0.

Prova. Se vale la i) allora esiste un vettore c di costanti non tutte nulle tale che
Wk c = 0: abbiamo così un sistema lineare omogeneo di n equazioni algebriche in n
incognite che ammette una soluzione non banale e quindi, per il teorema di Cramer,
deve essere det Wk = 0.
Se k0 è tale che det Wk0 = 0, allora esiste un vettore c di costanti non tutte nulle
tale che Wk0 c = 0. Posto allora Xk = c1 Xk1 + c2 Xk2 + · · · + cn Xkn , ∀k, possiamo
affermare che Xk è soluzione dell’equazione omogenea (vedi il Teorema 2.64) con
condizione iniziale Xk0 = · · · = Xk0 +n−1 = 0. Dal teorema di esistenza ed unicità
(Teorema 1.3) segue allora che Xk = 0 per ogni k e quindi le successioni X 1 , . . . , X n
sono linearmente dipendenti. 

Teorema 2.67. Se X 1 , . . . , X n sono soluzioni linearmente indipendenti del-


l’equazione omogenea (2.26), allora ogni soluzione di tale equazione è combi-
nazione lineare di tali soluzioni.

Il caso non omogeneo della (2.26) si tratta nel solito modo: addizionando ad
una soluzione particolare le soluzioni dell’equazione omogenea.

Esercizio 2.24. Posto


 +∞
Ik = e−x xk dx k∈N
0

determinare una relazione ricorsiva fra Ik e Ik−1 . Sfruttare il Teorema 2.58 per
ricavare un’espressione esplicita di Ik .

Esercizio 2.25. Risolvere le seguenti equazioni (Suggerimento: congetturare l’es-


pressione di Xk calcolando alcune iterazioni, poi verificarla per induzione):

k 3k + 1
(1) Xk+1 = Xk (2) Xk+1 = Xk
k+1 3k + 7

(3) Xk+1 = e3k Xk (4) Xk+1 = ecos 2k Xk

Esercizio 2.26. Determinare esplicitamente la soluzione generale dell’equazione ad


un passo
Xk+1 = k Xk + 1 .
Discutere la coerenza della soluzione ottenuta con i Teoremi 2.64 e 2.66.
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare 67

2.7 Esempi di equazioni non lineari ad un passo


riconducibili al caso lineare

Nel caso delle equazioni alle differenze non lineari non sono disponibili tec-
niche generali per esplicitare le soluzioni. Tuttavia in alcuni casi particolari
è possibile effettuare un cambio di variabile per trasformare le equazioni non
lineari in equazioni lineari, che sono risolubili mediante le tecniche viste nei pa-
ragrafi precedenti; quindi, effettuando il cambio di variabile inverso si ottiene
la soluzione in forma chiusa del problema di partenza.
In questo paragrafo vedremo che questo metodo si può sempre applicare al
caso delle equazioni alle differenze del primo ordine in forma normale quando
il secondo membro è una funzione lineare fratta dell’incognita.
Nel paragrafo 3.10, vedremo altre tecniche per risolvere equazioni non lineari.

Esempio 2.68. Consideriamo l’equazione alle differenze


1
Xk+1 = − .
Xk
Notiamo subito che, diversamente dal caso lineare, non è neppure evidente
che esista la soluzione: infatti, se per qualche k, Xk = 0, allora è impossibile
procedere con le iterazioni.
Comunque, quando esiste la soluzione, l’esplicitazione di Xk è immediata se
si osserva che, posto f (x) = −1/x risulta f (f (x)) = x, dunque

Xk+2 = Xk ∀k ∈ N

e la successione risulta X0 , −X0−1 , X0 , −X0−1 , X0 , . . . . 

Esempio 2.69. Consideriamo l’equazione alle differenze

Xk
Xk+1 = . (2.27)
1 + Xk
Anche in questo caso la soluzione può non esistere.
Supponendo di partire da un valore X0 per cui la soluzione esiste, procediamo
formalmente e poniamo Yk = 1/Xk per ogni k ottenendo, per sostituzione,

1 1/Yk
= cioè Yk+1 = Yk + 1 .
Yk+1 1 + 1/Yk

Tale problema è lineare affine e si risolve con la tecnica vista nel paragrafo
2.1: Yk = Y0 + k da cui
1 1 1 X0
Xk = = = −1 = . (2.28)
Yk Y0 + k X0 + k 1 + kX0
68 2 Equazioni alle differenze lineari

Osserviamo che la sostituzione effettuata ha senso solo se Xk = 0 per ogni k


e in particolare X0 = 0. Tuttavia, la formula ottenuta dà la soluzione Xk (lo
si verifichi per sostituzione) anche se X0 = 0 ! La formula vale anche per il
calcolo delle sole iterazioni sensate nel caso in cui non esiste la soluzione.
Ad esempio, se X0 = −1 allora la formula si arresta prima del calcolo di
X1 = −1/0; se invece X0 = −1/2, allora X1 = −1 ma X2 non è calcolabile
X2 = −1/0, e così via.
Comunque, se X0 > 0 allora la soluzione Xk di (2.27) è ben definita e positiva
per ogni k, dunque in tale caso vale

X0
Xk = ∀k ∈ N .
1 + kX0
Questa conclusione resta vera per tutti gli X0 < 0 che non conducono a −1
in un numero finito di passi.
Al fine di determinare i valori iniziali proibiti possiamo invertire l’iterazione
della funzione f (x) = x/ (1 + x), cioè iterare f −1 (z) = z/ (1 − z) e dunque
calcolare i valori Zk tali che

⎨ Zk
Zk+1 =
1 − Zk . (2.29)
⎩ Z = −1
0

Si noti che anche questa è un’equazione non lineare, ma, come vedremo tra po-
co, la sua soluzione si può esplicitare e si deduce che i valori vietati per il dato
X0 sono i valori −1/k con k = 1, 2, . . . come si può verificare per induzione.
Notiamo che sia (2.27) che (2.29) hanno secondi membri lineari fratti. 

Definizione 2.70. Una funzione lineare fratta è una funzione così defi-
nita
ax + b
f : R \ {−d/c} → R f (x) = dove (c, d) = (0, 0) .
cx + d
Definizione 2.71. Una trasformazione di Möbius è una funzione così
definita:
az + b
f : C\ {−d/c} → C f (z) = dove ad − bc = 0.
cz + d
Osservazione 2.72. Tutte le trasformazioni di Möbius sono composizioni di
traslazioni, omotetie di centro l’origine ed inversioni z → 1/z. Inoltre, tali
trasformazioni mandano ciascuna circonferenza o retta del piano complesso
in una circonferenza o in una retta del piano complesso.
z −i
Esempio 2.73. La funzione f(z) = definita in C\{−i} trasforma l’asse
z +i !
reale {x + iy : y = 0} nella circonferenza unitaria x + iy : x2 + y2 = 1 . 
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare 69

Consideriamo ora in generale l’equazione ricorsiva

aXk + b
Xk+1 = a, b, c, d ∈ R (2.30)
cXk + d

(I) Se c = 0 oppure ad − bc = 0, allora (2.30) è un’equazione lineare affine


e la espressione esplicita di Xk è data dal Teorema 2.5.

(II) Se c = 0 e ad − bc = 0, l’equazione (2.30) è non lineare, tuttavia essa


è del tipo Xk+1 = f (Xk ) con f trasformazione di Möbius ed è possibile, me-
diante un opportuno cambio di variabile incognita (di cui quello dell’Esempio
2.69 era un caso particolare) ricondursi ad una equazione lineare, e dunque
esplicitare i valori di Xk .
Poniamo
aα + b
α= (2.31)
cα + d
cioè cerchiamo gli α che scelti come dati iniziali X0 generano una soluzione
costante Xk = α, ∀k. Esplicitando (ricordiamo che c = 0)
1
2
a−d± (a − d) + 4bc
cα2 + (d − a) α − b = 0 ⇒ α1,2 = .
2c

Osserviamo che ad − bc = 0 assicura α1,2 = −d/c e α1,2 = a/c (in effetti


x = −d/c e y = a/c sono le equazioni degli asintoti dell’iperbole di equazione
y = (ax + b)/(cx + d) ).
Se X0 = α1 , allora Xk = α1 per ogni k; se X0 = α2 , allora Xk = α2 per ogni
k.
Se X0 = α1 e X0 = α2 , allora scelta una delle due radici, poniamo

1
Yk = (2.32)
Xk − α

e corrispondentemente

1
Xk = α + (2.33)
Yk
70 2 Equazioni alle differenze lineari

Sostituendo (2.33) in (2.30)


a
aα + +b
1 Yk
α+ = c
Yk+1 cα + +d
Yk

1 (aα + b) Yk + a per la (2.31)


= −α + =
Yk+1 (cα + d) Yk + c
a − αc
=
(cα + d) Yk + c

cα + d c
Yk+1 = Yk + . (2.34)
a − αc a − αc
Riassumendo, se c = 0 e ad − bc = 0, allora:

cα + d a−d
(i) Se = 1, allora α1 = α2 = e, per il Teorema 2.5,
a − αc 2c
1 c
Yk = +k
X0 − α a − αc

e, per tutti i k per cui Xk è definito

 −1
1 1 c
Xk = α + =α+ +k
Yk X0 − α a − αc

In particolare, se Xk è definito per ogni k, allora da c = 0 segue l’esistenza


del limite finito
lim Xk = α.
k

cα + d
(ii) Se = 1 (si ricordi che nelle nostre ipotesi è anche diverso da 0),
a − αc
allora α1 = α2 , l’equilibrio di (2.34) è, se α = α1 ,
c
γ = −1 = 0 (2.35)
2
(a − d) + 4bc

e dal Teorema 2.5 e dalla (2.33), segue:


 k
cα + d
Yk = (Y0 − γ) +γ (2.36)
a − αc
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare 71

$  k %−1
1 cα + d
Xk = α + −γ +γ (2.37)
X0 − α a − αc

Osserviamo che

 
 cα + d 
se  
 a − αc  > 1 allora esiste lim Xk = α1
k

 
 cα + d  1
 
se  a − αc  < 1 allora esiste lim Xk = α1 +
k γ
= α2

 
 cα + d 

Se   = 1 si possono avere comportamenti periodici o molto complicati
a − αc 
a seconda che l’argomento sia o meno un sottomultiplo di 2π.
2
Si noti che se a, b, c, d ∈ R ma α ∈ / R (cioè Δ = (a − d) + 4bc < 0) allora
necessariamente  
 cα + d 
 
 a − αc  = 1;
infatti    √ 
 cα + d   a + d ± i −Δ 
 = √ 
 a − αc   a + d ∓ i −Δ  = 1.

Tutto ciò è in accordo con il fatto che se a, b, c, d ∈ R ma α ∈


/ R allora Xk
non può ammettere limite, né finito, né infinito (infatti, Xk è sempre reale,
dunque non può convergere né ad α1 né ad α2 ).

Osservazione 2.74. Si noti che in (2.33) e (2.35)1 si era scelta α1 , e dunque


2
α + 1/γ = α2 . Scegliendo α2 si otterrebbe γ = c/ (a − d) + 4bc e nel caso
1 
 cα + d 
 
 a − αc  < 1 si avrebbe lim
k
Xk = α2 + 1/γ = α1 .

Osservazione 2.75. Per un metodo diverso di esplicitazione di Xk si veda


anche più avanti l’Esercizio 2.28. Informazioni qualitative sul comportamento
asintotico di Xk possono essere ottenute in modo più semplice con le tecniche
generali del Capitolo 3 (vedi Esercizio 3.40).

Osservazione 2.76. Per determinare i dati iniziali X0 che generano l’intera


successione iterando (2.30) occorre determinare i valori di X0 che non condu-
cono a −d/c in un numero finito di passi, cioè occorre escludere tutti i valori
72 2 Equazioni alle differenze lineari

Zk tali che 
Zk+1 = f −1 (Zk )
d
Z0 = −
c
dove f (x) = (ax + b) / (cx + d); se si pone z = (ax + b) / (cx + d), si ricava

x = f −1 (z) = (b − dz) / (cz − a) .

Si noti che se a + d = 0 (e quindi cZ0 = a), allora l’unico valore vietato per
X0 è −d/c. Infatti, in tal caso, X0 = −d/c implica

aXk + b a d
Xk+1 = = = − ∀k.
cXk − a c c
Esercizio 2.27. Si definisce sezione aurea di un segmento, la più lunga delle due
parti ottenute dividendo in due il segmento dato in modo tale che il quadrato della
lunghezza di tale parte sia uguale al prodotto delle lunghezze di tutto il segmento
per quella della parte rimanente. Calcolare la lunghezza di tale segmento riferita al
segmento intero.

Esercizio 2.28. Osserviamo che la parte aurea di un segmento di lunghezza unitaria


ha lunghezza x pari alla soluzione positiva di
1
x=
1+x
e “sostituendo il valore di x nel secondo membro”
1
x= .
1
1+
1+x
Iterando la procedura (ricavare x dalla prima equazione e sostituirlo nell’ultima
equazione trovata):
1
x=
1
1+
1
1+
1+ ···
Il secondo membro viene anche detto frazione continua.
Tale scrittura complicata (e vaga...) può essere precisata costruendo una successione
Xk tale che 1
Xk+1 =
1 + Xk
e andando a vedere se, per opportuni dati iniziali X0 , Xk approssima x.
(1) Determinare la forma esplicita di Xk .
(2) Mostrare che Xk tende alla parte aurea x per ogni dato X0 = −1.

Esercizio 2.29. Risolvere l’equazione Xk+1 Xk + 2Xk+1 + 4Xk + 9 = 0.


2.8 La Trasformata Discreta di Fourier 73

2.8 La Trasformata Discreta di Fourier

La trasformata di Fourier discreta è uno strumento di grande utilità per trat-


tare le successioni periodiche.
Definizione 2.77. Una successione X si dice periodica di periodo N , con
N ∈ N, se risulta Xk = Xk+N per ogni k in N.
Osserviamo che una successione X periodica di periodo N è completamente
descritta da un numero finito di termini consecutivi, cioè dal vettore ad N
 T
componenti X = X0 X1 · · · XN−1 .
!
Esempio 2.78. Le radici N -esime complesse dell’unità z ∈ C : z N = 1 so-
no esattamente N e sono espresse da e2πki/N con k = 0, 1, . . ., N − 1. Dunque,
posto ω = e2πi/N , la successione X definita da Xk = ωk è N -periodica e
percorre una traiettoria costituita esattamente da N punti sulla circonferenza
unitaria che rappresentano i vertici di un poligono regolare di N lati centrato
nell’origine. 
Osservazione 2.79. Se w è una radice N -esima complessa dell’unità (cioè
w ∈ C e w N = 1), allora


N−1
k N se w = 1
w =
1.
0 se w =
k=0

Infatti, il caso w = 1 è banale e gli altri seguono da


 
0 = wN − 1 = (w − 1) wN−1 + w N−2 + · · · + w + 1 . 

Se f è una funzione reale di variabile reale, continua e con derivata continua8 ,


periodica di periodo 2π, allora, per opportuni numeri cn , vale

f (x) = cn einx . (2.38)
n∈Z

Il secondo membro dell’uguaglianza precedente è detto sviluppo in serie di


Fourier della funzione f. I coefficienti di Fourier cn sono calcolati mediante
2 2π
1
cn = f (t) e−int dt . (2.39)
2π 0

Supponiamo ora che N sia un numero pari (in realtà la maggior convenienza
dal punto di vista dei calcoli numerici si ha quando N è una potenza di 2: cioè
8
In realtà è sufficiente che f sia 2π periodica, continua e che sia possibile dividere
[0, 2π] in un numero finito di intervalli Ik = [ak , bk ] tali che f abbia derivata continua
 
in ciascun Ik ed esistano finite f+ (ak ) e f− (bk ) per ogni k.
74 2 Equazioni alle differenze lineari

N = 2p , p ∈ N\ {0}), ed effettuiamo un calcolo numerico approssimato del-


l’integrale in (2.39) che richieda la conoscenza dei valori di f solo in N punti
equidistanti: utilizziamo il metodo delle tangenti (o dei trapezi)9 tenendo
conto che f (0) = f (2π)

1 2π 
N−1
1 
N−1  −kn
Cn = f (2kπ/N ) e−in2kπ/N = f (2kπ/N ) e2πi/N .
2π N N
k=0 k=0
(2.40)
Per rendere meno pesante la notazione poniamo
2π 2π
yk = f (2kπ/N ) ω = e2πi/N = cos + i sin .
N N
Poiché ω è una radice N -esima di 1 e le sue potenze ωk , k = 0, 1, . . . N −1, sono
tutte le radici N -esime complesse dell’unità (si veda Esempio 2.77), possiamo
scrivere
1 
N−1
Cn = yk ω−kn . (2.41)
N
k=0

Diamo ora una (utilissima) interpretazione dei coefficienti di Fourier appros-


simati Cn .
Cerchiamo un polinomio trigonometrico p (una somma finita anziché una
serie di termini oscillanti come in (2.38)) che interpoli f nel senso seguente:
N/2 −1

p (x) = γh eihx , p (2kπ/N ) = f (2kπ/N ) = yk , k = 0, 1, . . . , N − 1 .
h=−N/2
(2.42)
Le condizioni precedenti equivalgono al seguente sistema lineare algebrico in
N equazioni ed altrettante incognite γh


N/2−1
γh eih(2kπ/N) = yk k = 0, 1, . . . , N − 1
h=−N/2

che si può riscrivere nella forma:


N/2−1
γh ωhk = yk k = 0, 1, . . . , N − 1 . (2.43)
h=−N/2

9
L’errore effettuato calcolando l’integrale di una funzione f su un intervallo chiuso
e limitato col metodo delle tangenti è piccolo per N grande e si può stimare:
2π2
se f  è continua, allora |cn − Cn | ≤ max |f  |, inoltre
N
3
π
se f  è continua, allora |cn − Cn | ≤ max |f  |.
3N 2
2.8 La Trasformata Discreta di Fourier 75

Cambiamo incognite affinché l’indice delle sommatorie percorra l’insieme


0, 1, . . ., N − 1, anziché −N/2, −N/2 + 1, . . . , N/2 − 1, ponendo

Yh = γh se 0 ≤ h < N/2 , Yh = γh−N se N/2 ≤ h < N .


 T
Osserviamo che il vettore Y = Y0 Y1 · · · YN−1 definisce implicitamente
una successione Y periodica di periodo N . !
Grazie alla N periodicità della successione ωk , vale ωhk = ω(h−N)k , dunque
il sistema (2.43) diventa


N−1
Yh ωhk = yk k = 0, 1, . . . N − 1 (2.44)
h=0

e la matrice N × N dei suoi coefficienti ωhk = Fh k


⎡ ⎤
1 1 1 1 ··· 1
⎢1 ω ω 2
ω 3
··· ω N−1 ⎥
⎢ ⎥
⎢ 1 ω2 ω 4
ω 6
· · · ω 2(N−1) ⎥
F=⎢ ⎥ (2.45)
⎢ .. .. .. .. . . ⎥
⎣. . . . . . .
. ⎦
1 ωN−1 ω2(N−1) ω3(N−1) · · · ω(N−1)(N−1)

è una matrice simmetrica di Vandermonde (vedi Esercizio 2.44): le sue righe


(e le sue colonne) sono le potenze di esponenti 0, 1, . . . , N − 1 dei numeri
distinti 1, ω, ω2 , . . . , ωN−1 . Dunque det F = 0 ed F è invertibile. La sua ma-
trice inversa può essere espressa facilmente grazie all’Osservazione 2.78: scelto
w = ωk , si ottiene


N−1
N se k = 0 o k è multiplo intero di N
ωhk =
0 altrimenti
h=0

Poiché (ωk ) = ω−k , si deduce

 
  N−1
−hm
N−1
N se n = m
FF = ω nh
ω = ω h(n−m)
=
nm 0 altrimenti
h=0 h=0

1
cioè F F = N IN . Dunque F−1 = F e possiamo risolvere esplicitamente il
N
sistema (2.44):
1 
N−1
Yn = yk ω−kn . (2.46)
N
k=0

Confrontando (2.40) con (2.44) scopriamo che i coefficienti di Fourier appros-


simati con la regola dei trapezi coincidono con i coefficienti del polinomio
trigonometrico interpolante nei punti Xk = 2kπ/N definito da (2.42). Se con-
76 2 Equazioni alle differenze lineari
 T  T
sideriamo i vettori y = y0 y1 · · · yN−1 e Y = Y0 Y1 · · · YN−1 , allora
i sistemi (2.44) e (2.46), con riferimento alla (2.45), si scrivono nella forma

1
y = FY Y = F−1 y = Fy .
N
Inoltre, il vettore Y è detto Trasformata Discreta di Fourier di y (spesso
abbreviata in DFT, dall’inglese Discrete Fourier Transform) e y è detta
trasformata discreta di Fourier inversa di Y:

Y = DFT y , y = (DFT)−1 Y .

1
Dunque, la trasformazione consiste nella moltiplicazione per la matrice Fe
N
l’antitrasformazione consiste nella moltiplicazione10 per la matrice F (dove F
è definita in (2.45)).
In analogia con quanto detto per Y, il vettore y definisce implicitamente una
successione y periodica di periodo N :

y = {yh }h∈N tale che yh+N = yh ∀h ∈ N .

Esempio 2.80. Consideriamo la funzione 2π periodica definita mediante


f (x) = |x| se |x| < π e prolungata periodicamente a tutto R. Allora in [0, 2π]
abbiamo f (x) = x se 0 ≤ x ≤ π e f (x) = 2π − x se π ≤ x ≤ 2π. Scegliamo
N = 8, Xk = kπ/4 , yk = f (Xk ) con k = 0, . . . , 7. Otteniamo ω = eiπ/4 ,
( )T
π π 3 3 π π
y= 0 ππ π
4 2 4 4 2 4

e la trasformata di Fourier discreta Y = DFT y si ottiene da (2.46):


( √ √ √ √ )T
Y = 0 −2 + 2 π 0 −2 − 2 π π −2 − 2 π 0 −2 + 2 .
16 16 2 16 16
 T  T
Inoltre, grazie alla corrispondenza Y0 Y1 · · · Y7 = γ−4 γ−3 · · · γ3 ot-
teniamo il polinomio trigonometrico che interpola f su nove punti equidistanti
in [0, 2π]:
π π √  π √ 
p (x) = − 2 + 2 cos x + 2 − 2 cos 3x . 
2 8 8

10
Nelle applicazioni si incontra spesso una variante della definizione, che è sostan-
1
zialmente equivalente: trasformazione DFT effettuata moltiplicando per √ F ed
N
1
antitrasformazione ottenuta moltiplicando per √ F.
N
2.8 La Trasformata Discreta di Fourier 77

π 2π

Fig. 2.14. Polinomio trigonometrico che interpola la funzione f (Esempio 2.79)

Consideriamo in generale il polinomio


7
1 1 
q (z) = yk z k = y0 + y1 z + y2 z 2 + · · · + y7 z 7 z∈C.
8 8
k=0

Il calcolo effettivo di ciascun elemento Yn di Y = DFT y ha la complessità


computazionale11 del calcolo di q (polinomio di grado N − 1 rispetto a z)
nell’argomento ω = e2πi/N .
Proviamo infatti a calcolare Yn con l’algoritmo di Ruffini-Horner nel caso
dell’Esempio 2.79:
i) q = yN−1 ;
ii) per k = 6, 5, 4, . . . , 1, 0;
iii) q = qz + yk .
Nei tre precedenti passi per il programma di calcolo la notazione a = b si-
gnifica (secondo la convenzione usuale nei listati dei programmi di calcolo)
ad a si assegni il valore b. Dunque, nel caso del polinomio di grado 8 l’algo-
ritmo richiede 7 addizioni e 7 moltiplicazioni. In generale, esso richiede tante
addizioni e moltiplicazioni quanto è il grado del polinomio (cioè N − 1). Inol-
tre, le componenti di Y sono N , dunque il numero totale di moltiplicazioni
necessarie per calcolare la DFT è dell’ordine di N 2 . Tale numero può essere
proibitivo se N è grande.
Nel 1965 J.W. Cooley e J.Tukey idearono un algoritmo più rapido, che ri-
duce il numero di moltiplicazioni richieste: se N = 2p , allora sono richieste
N log2 N = N p moltiplicazioni, una notevole riduzione rispetto ad N 2 (sce-
gliamo ad esempio N = 212 = 4096 , allora p = 12 , N 2 = 16.777.216 mentre
N p = 49.152).

11
Numero di operazioni elementari da eseguire.
78 2 Equazioni alle differenze lineari

L’algoritmo di Cooley & Tuckey è chiamato FFT (dall’inglese Fast Fourier


Transform). Prima di entrare nei dettagli cerchiamo di comprendere l’idea
che sta alla base della FFT.
Riferendoci al problema di calcolare la DFT, supponiamo di dover calcolare
N valori di un polinomio di grado N − 1:

1  1  
N
q (z) = yk z k = y0 + y1 z + y2 z 2 + · · · + yN−1 z N−1 z∈C.
N N
k=0

Si può sfruttare il fatto che z = ω−n = e−2πin/N ed N è pari, anzi N = 2p .


Infatti, in tali ipotesi i numeri complessi in cui si vuole calcolare q si dividono
a coppie di numeri opposti che hanno lo stesso quadrato:

zn = e−2πin/N
 2
zn = − zn+N/2 zn2 = zn+N/2 .

Nel caso dell’Esempio 2.79 (p = 3, N = 8) q può essere scritto separando i


termini di grado pari e dispari:
   
q (z) = qp z 2 + qd z 2 =

   
= y0 + y2 z 2 + y4 z 4 + y6 z 6 + z y1 + y3 z 2 + y5 z 4 + y7 z 6 .

Per calcolare q (zn ) e q (zn+4 ), n = 1, 2, 3, 4, posto un = zn2 = zn+4


2
calcoliamo
qp e qd con 3 + 4 = 7 moltiplicazioni, da cui

q (zn ) = qp (un ) + qd (un )


q (zn+4 ) = qp (un ) − qd (un )

con 7 moltiplicazioni in tutto . Poiché le coppie di punti sono 4 si hanno in


tutto 4 · 7 = 28 anziché le 8 · 7 = 56 moltiplicazioni richieste da Ruffini-Horner.
Inoltre, poiché N = 2p anche i quadrati verificano la proprietà di essere, a due
a due, opposti e con lo stesso quadrato, dunque i polinomi qp e qd possono es-
sere calcolati negli zk con la stessa tecnica, e così via. Questo spiega l’efficacia
numerica dell’algoritmo DFT.
2.9 Algoritmo Fast Fourier Transform (FFT) 79

2.9 Algoritmo Fast Fourier Transform (FFT)

Consideriamo due vettori y e Y ad N componenti, con Y = DFT y, cioè:


N−1
yk = Yn ωkn k = 0, 1, . . . , N − 1
n=0
(2.47)

1 N−1
Yn = yk ω−kn n = 0, 1, . . . , N − 1 .
N k=0

Supponiamo che N sia decomponibile in un prodotto di interi: N = p1 p2 con


p1 = 1 = p2 . Allora gli indici n e k possono essere scritti nella forma:

n = n1 p2 + n0 n0 = 0, 1, . . . , p2 − 1 n1 = 0, 1, . . . , p1 − 1
k = k 1 p1 + k 0 k0 = 0, 1, . . . , p1 − 1 k1 = 0, 1, . . ., p2 − 1

Tenendo conto dell’identità ω−N = 1 si deduce

ω−n(k1 p1 +k0 ) = ω−nk0 ω−(n1 p2 +n0 )k1 p1 = ω−nk0 ω−n0 k1 p1

e sostituendo in (2.47)
p2 −1 p1 −1
1  
Yn = yk1 p1 +k0 ω−n(k1p1 +k0 ) =
N
k1 =0 k0 =0
p2 −1
$ p −1 %
1  −nk0 1 
1
−n0 k1 p1
= ω yk1 p1 +k0 ω = (2.48)
p1 p2
k0 =0 k1 =0
p2 −1
1  −nk0
= ω yk0 ,n0
p1
k0 =1

1 p1 −1
dove yk0 ,n0 = yk p +k ω−n0 k1 p1 .
p2 k1 =0 1 1 0
Nella terminologia della computer science l’effettuazione di una moltiplica-
zione e una addizione corrisponde ad un flops12. Il calcolo diretto di Y a
partire da y utilizzando la seconda delle (2.47) richiederebbe N 2 flops per
ogni componente. Osserviamo che, nell’ipotesi N = p1 p2 , la (2.48) ha ridotto
il numero di flops: nel calcolo di y si compiono p2 operazioni, e nella sostitu-

12
Più precisamente, il flops (o AM) è il numero di operazioni corrispondenti all’istru-
zione FORTRAN A (I, J ) = A (I, J ) + T ∗ A (I, K) : comprende una moltiplicazione
ed un’addizione in aritmetica floating-point, alcuni calcoli di indici e alcuni riferi-
menti alla memoria. Si incontra anche la definizione più recente di flops come una
operazione floating-point; in tal modo un flops nella prima definizione corrisponde
a due flops nella seconda.
80 2 Equazioni alle differenze lineari

zione in (2.48) se ne effettuano altre p1 . In conclusione, per calcolare ciascun


Yn , n = 0, . . . , N − 1, si effettuano N (p1 + p2 ) flops.
Se N si fattorizza ulteriormente N = p1 p2 · · · ps , allora il numero di flops si
riduce a N (p1 + p2 + · · · + ps ). Se N = ps otteniamo N ps = pN logp N flops.
In particolare:

se N = 2s allora FFT corrisponde a 2N log2 N flops

Esempio 2.81. Con riferimento alla terminologia della Teoria dei Segnali con-
sideriamo un segnale discreto cioè una successione di numeri ad indici interi
relativi13 X = {Xk }k∈Z .
Consideriamo un sistema o filtro causale, cioè una trasformazione che al
segnale discreto X in ingresso fa corrispondere un altro segnale Y = {Yk }k∈Z
in uscita, secondo la legge:
+∞

Yn = Kn−m Xm n∈Z (2.49)
m=−∞

X → filtro → Y


dove K = {Km }m∈Z è una successione assegnata verificante m |Km | < +∞
e Km = 0 se m è minore di zero14 . Osserviamo innanzitutto che, se l’ingresso
X è N periodico allora anche l’uscita Y è N periodica, infatti ∀n ∈ Z :
+∞
 +∞
 +∞

Yn+N = Kn+N−m Xm = Kn−m Xm−N = Kn−m Xm = Yn .
m=−∞ m=−∞ m=−∞

In realtà i segnali X e Y sono descritti da vettori ad N componenti che


 T  T
denoteremo con X = X0 X1 · · · XN−1 ed Y = Y0 Y1 · · · YN−1 .
Un problema importante consiste nel risolvere il filtro (2.49), cioè nel deter-
minare D tale che X = DY.
Il sistema (2.49) può essere rappresentato mediante un’applicazione lineare di
Rn in sè stesso (vedi Appendice D) cioè anziché calcolare le serie in (2.49) si
calcolano somme finite, corrispondenti alla moltiplicazione di una matrice per
13
In tutto il libro, salvo che nell’Esempio 2.81, l’indice di successione è sempre na-
turale (n ∈ N). Tuttavia, per descrivere l’azione di un filtro causale su un segnale
periodico la scelta degli indici k ∈ Z è quella naturale.
14
Quest’ultima proprietà caratterizza la causalità del filtro: ad un ingresso (non
periodico) X tale che Xk = 0 se k < 0, corrisponde una uscita Y tale che Yk = 0 se
k < 0.
2.9 Algoritmo Fast Fourier Transform (FFT) 81

un vettore. Dunque, cerchiamo di stabilire se esiste una matrice K di ordine


N × N tale che Y = KX e in caso affermativo di determinarla (D, se esiste,
è uguale a K−1 ). A questo scopo definiamo15 il vettore
+∞

K di componenti κn = Kn+jN n = 0, . . . , N − 1 .
j=−∞

Allora
+∞
 +∞ N−1
 
Yn = Kn−m Xm = Kn−(l−pN) Xl−pN =
m=−∞ p=−∞ l=0
+∞ N−1
  
N−1 +∞
 
N−1
= Kn+pN−l Xl = Xl Kn+pN−l = κn−l Xl .
p=−∞ l=0 l=0 p=−∞ l=0

Dunque, la (2.49) ha una formulazione N dimensionale quando X è N perio-


dico: sia K una matrice quadrata di ordine N tale che Kn m = κn−m . Allora:

Y = KX (2.50)

che è un sistema di N equazioni che semplifichiamo ulteriormente trasforman-


dolo in N equazioni scalari disaccoppiate.
Osserviamo che K è una matrice circolante, cioè ogni riga è una permuta-
zione ciclica della riga precedente.
Prendiamo la DFT−1 (antitrasformata di Fourier Discreta) di ambo i mem-
bri di (2.50) e, posto x = (DFT)−1 X, y = (DFT)−1 Y, k = (DFT)−1 K, si
ottiene
$ %
 N−1
N−1 
yn = κk−m Xm ωkn =
k=0 m=0

 N−1
N−1 
= κk−m ω(k−m)n Xm ωmn =
k=0 m=0

N−1 
N−1
= Xm ωmn κk−m ω(k−m)n =
m=0 k=0
= xn kn n = 0, . . . , N − 1
 T  T  T
dove x = x0 x1 · · · xN−1 , y = y0 y1 · · · yN−1 , k = k0 k1 · · · kN−1 .
Le N equazioni scalari yn = xn kn sono disaccoppiate, e se kn = 0, ∀n, si


15
Lavoriamo nell’ipotesi che +∞
m=−∞ |Km | < +∞, che è una condizione necessaria
e sufficiente affinché a segnali limitati in ingresso corrispondano segnali limitati in
uscita (proprietà denominata stabilità del filtro).
82 2 Equazioni alle differenze lineari

ricava
yn
xn =
kn
e applicando la DFT
1  yh −hn
N−1
Xn = ω .
N kh
h=0

Poiché y = (DFT)−1 Y, Xn si può esprimere in termini di Yn come:


N−1
Yj ωjh
1 
N−1
j=0
Xn = ω−hn
N kh
h=0

ossia,
1   
X = F diag k−1 −1 −1
0 , k1 , . . . , kN−1 FY =
N  
 −1 −1  −1
= DFT diag k0 , k1 , . . . , k−1N−1 (DFT) Y

ove ⎡ ⎤
k−1
0 0 ··· 0
 ⎢ ⎥
−1
 ⎢ 0 k1 · · · 0 ⎥
diag k−1
0 , k−1
1 , . . . , k−1
= ⎢ .. .. . . .. ⎥ .
N−1
⎣ . . . . ⎦
−1
0 0 · · · kN−1
Concludendo:
1   
D= F diag k−1 −1 −1
0 , k1 , . . . , kN−1 F.
N
Osserviamo infine che se N è grande, anziché calcolare i prodotti fra matrici,
conviene calcolare trasformate ed antitrasformate mediante FFT. 

Definizione 2.82. Definiamo la convoluzione circolare di due vettori


 T  T
N -dimensionali x = x0 x1 · · · xN−1 e y = y0 y1 · · · yN−1 :


N−1
(x ∗ y)k = xj yk−j k = 0, 1, . . ., N − 1
j=0

dove se k − j < 0 allora yk−j denota convenzionalmente il valore yk−j+N .

Osserviamo l’analogia fra le definizioni di convoluzione circolare di vettori e


la convoluzione discreta di successioni (vedi la Definizione 2.45 e l’Esercizio
2.47). Pur trattandosi di operazioni differenti, il fatto di indicarle con lo stesso
simbolo non crea equivoco perché tali operazioni si effettuano su oggetti di
natura diversa.
Illustriamo alcune utili relazioni fra convoluzione circolare e DFT.
2.10 Esercizi di riepilogo 83

Teorema 2.83. Dati due vettori N -dimensionali x e y , usando la notazione


3 = DFTx, y
x 3 = DFTy, valgono:

3
3
(I) x = N x
(II) x 3y
∗y = Nx 3
4y = x
(III) x 3 ∗y
3

Prova.

(I) x = (DFT)−1 x  = Fx = Fx =Nx .
(II) Tutte le somme vanno intese al variare dell’indice da 0 a N − 1:
  1 −kh 1 −k(h−l)
x
∗y k = ω xl yh−l = ω yh−l ω −kl xl =
N N
h l h,l

1 −kl −k(h−l)
= ω xl ω yh−l =
N
l h
  
1 −kl 1 −k(h−l)
=N ω xl ω yh−l =
N N
l h
x)k (
= N ( y )k .

, y = v
(III) Scegliendo x = u  nella (II), coniugando e tenendo conto della (I),
otteniamo:
  = Nu 
v
 =
1
u ∗v uv .
N


Trasformando uv = N u  , tenendo conto nuovamente di (I), otteniamo:
∗v

∗v
uv = u  = u
∗v
. 

2.10 Esercizi di riepilogo


Esercizio 2.30. Determinare il numero minimo di mosse Xk descritto ricorsiva-
mente nella soluzione degli Esercizi 1.9 e 1.10.

Esercizio 2.31. Assegnato λ ∈ R, determinare la soluzione del problema



1
Xk+1 = Xk − 2
3
X0 = λ

Studiare il comportamento asintotico di Xk al variare di λ ∈ R, e rappresentare


graficamente l’andamento della successione per λ = 0.
84 2 Equazioni alle differenze lineari

Esercizio 2.32. Assegnato λ ∈ R, determinare la soluzione dell’equazione



Xk+1 = −Xk + 3
X0 = λ

Studiare il comportamento asintotico al variare di λ ∈ R. Rappresentare grafica-


mente l’andamento della successione per λ = 0, 5.

Esercizio 2.33. Determinare la soluzione generale di ciascuna delle seguenti equa-


zioni alle differenze omogenee:

1) Xk+3 + Xk = 0 ∀k ∈ N 2) Xk+4 − Xk = 0 ∀k ∈ N

3) Xk+4 + Xk = 0 ∀k ∈ N 4) Xk+4 + 8Xk+2 + 16Xk = 0 ∀k ∈ N .

Esercizio 2.34. Risolvere il problema



Xk+2 − Xk+1 − 2Xk = k k∈N
X0 = 0, X1 = 1

Esercizio 2.35. Risolvere il problema:



Xk+2 − 5Xk+1 + 6Xk = Kk0
∀k ∈ N
X0 = X1 = 0

dove Kk0 denota l’impulso di Kronecker in 0: K00 = 1, Kk0 = 0, ∀k > 0.

Esercizio 2.36 (Rovina del giocatore). Un giocatore effettua una successione


di puntate di valore fissato del valore di un Euro, ogni puntata ha una probabilità
p ∈ (0, 1) di vittoria (p è noto e indipendente dalla puntata).
Se il giocatore inizia con k Euro e il gioco si interrompe quando il giocatore perde
tutto il denaro o riesce ad averne un importo s (dove s è noto e 0 ≤ k ≤ s), si calcoli
la probabilità Rk che il giocatore perda tutto cominciando con k Euro, essendosi
prefissato l’obiettivo di arrivare ad avere s Euro.

Esercizio 2.37 (Approfondimento critico sul modello della ragnatela). Nel


modello degli Esempi 1.10 e 2.8, mantenendo Qdk+1 = a − bPk+1 per la quantità
domandata, si supponga più realisticamente che la funzione di offerta sia

Qok+1 = −c + dPk+1
e

e
ove Pk+1 è il prezzo atteso al tempo k + 1 sulla base di aspettative che si formano
alternativamente in uno dei due modi seguenti:

1. (prezzo normale) il prezzo atteso dipende da quanto il prezzo attuale si disco-


sta dal prezzo normale PN , che per semplicità supponiamo sia pari al prezzo di
equilibrio PE = (a + c) / (b + d), che il produttore pensa che prima o poi sarà il
prezzo al quale venderà il proprio prodotto:
e
Pk+1 = Pk + δ (PN − Pk ) δ ∈ (0, 1) ;
2.10 Esercizi di riepilogo 85

2. (aspettative adattive) le aspettattive sono adattate in ogni periodo sulla base della
discrepanza fra quanto atteso e quanto osservato:
e
Pk+1 − Pke = β (Pk − Pke ) β ∈ (0, 1) .

In entrambi i casi, determinare l’espressione in forma chiusa dell’equazione dinamica


del prezzo, confrontando i risultati ottenuti con quelli del modello dell’Esempio 2.8.

Esercizio 2.38. Esplicitare i coefficienti dello sviluppo delle soluzioni particolari


individuate nell’Esercizio 1.14 per le equazioni di Bessel, Hermite, Laguerre e Le-
gendre. Esplicitare le corrispondenti soluzioni.

Esercizio 2.39. Consideriamo una operazione finanziaria che prevede k pagamenti


di importo costante (unitario) a k scadenze annuali (cominciando alla fine del primo
anno).
Calcolare il valore attuale Ak dell’operazione finanziaria, cioè l’importo equivalente
di un pagamento immediato, nelle ipotesi di tasso annuo di interesse composto e
costante uguale ad r.
Scrivere una relazione ricorsiva che lega Ak+1 e Ak , determinandone la soluzione in
forma chiusa.
Rispondere alle domande precedenti nel caso di tasso rk dipendente da k.

Esercizio 2.40. Viene erogato un mutuo di importo M che sarà estinto in k rate
costanti. Ipotizzando che il tasso annuo di interesse r sia composto e costante, ed i
pagamenti effettuati ai tempi 1, 2, . . . , k, calcolare l’importo Q di ciascuna rata.

Esercizio 2.41. Un’obbligazione di tipo reverse-floater fornisce cedole che varia-


no nel tempo secondo una formula prefissata all’atto dell’emissione, ma dipendente
da parametri legati all’andamento di indici economici. Consideriamo ad esempio
un’obbligazione della durata di 10 anni che fornisce una cedola del 6, 5% (annuo)
per i primi due anni ed in seguito un interesse percentuale pari a

rk = massimo fra {1, 5 e 15 − 2τk }

dove τk è l’indice Euribor a 12 mesi.


a) Determinare il massimo e il minimo tasso d’interesse cedolare annuo conseguibile
in ciascun anno.
b) L’obbligazione considerata ha una elevata componente di rischio/possibilità di
guadagno, non inferiore a quella di un titolo azionario. In particolare, il prezzo
dell’obbligazione sul mercato secondario16 sarà soggetto a notevoli fluttuazioni.
Per illustrare questa situazione si valuti il prezzo Pk al quale può essere rivendu-
ta l’obbligazione nell’anno k ad un acquirente che si attenda un flusso cedolare
non inferiore a τk e ipotizzi che non vi siano variazioni dell’indice Euribor fino
a scadenza.
c) Sulla base dell’ipotesi del punto precedente, valutare il saldo dell’operazione
ipotizzando di vendere l’obbligazione nell’anno k (senza aver nel frattempo rein-
vestito le cedole riscosse).

16
Nel mercato secondario vengono scambiati titoli obbligazionari prima della loro
scadenza.
86 2 Equazioni alle differenze lineari

d) Se l’indice Euribor assume i valori 5 5, 1 5, 2 4, 9 4 3 2, 5 2, 6 4 7, 5 nei va-


ri anni di vita del titolo, qual è il saldo dell’operazione se si vende il titolo a
scadenza?
Esercizio 2.42. Dimostrare il Teorema 2.46 sulla Z-trasformata della convoluzione
discreta.
Esercizio 2.43. Posto Sk = 1k + 2k + 3k + · · · + nk , mostrare che vale la relazione
!     "
1 k+2 k k+2
Sk+1 = (n + 1) − (n + 1) − Sk − · · · − S1 .
k+2 2 k+1

Esercizio 2.44. Nella prova del Teorema 2.15 si sfrutta la conoscenza del determi-
nante di Vandermonde. Verificare la correttezza dell’espressione utilizzata.
1
Esercizio 2.45. Calcolare la Z-trasformata della successione Xk = .
k!
Esercizio 2.46 (Sbarra elastica sostenuta da supporti). Consideriamo una
sbarra metallica di materiale omogeneo e sezione uniforme appoggiata a N − 1
supporti equidistanziati (Fig. 2.15) e soggetta a carichi W agli estremi.

Fig. 2.15. Sbarra appoggiata a supporti equidistanti e caricata agli estremi

In assenza di altri carichi, si può mostrare che i momenti flettenti in corrispondenza


dei supporti verificano l’equazione a due passi, detta equazione dei tre momenti (si
veda l’Esempio 1.22),

Mk−1 + 4Mk + Mk+1 = 0 1 ≤k ≤N −1

e che i momenti flettenti agli estremi della sbarra sono dati da

M0 = MN = −W d .

Determinare i momenti flettenti in corrispondenza dei supporti (si noti che anziché
due condizioni iniziali, abbiamo una condizione iniziale ed una condizione finale,
dette anche condizioni al bordo).
# $T
Esercizio 2.47. Siano assegnati due vettori X = X0 X1 · · · XN −1 e Y =
# $T
Y0 Y1 · · · YN −1 e due successioni X e Y i cui primi N termini coincidono ri-
spettivamente con le componenti di X e Y e Xk = Yk = 0 se k ≥ N . Provare che
(X ∗ Y )k = 0 se k > 2N − 2 e

(X ∗ Y)k = (X ∗ Y )k + (X ∗ Y )k+N k = 0, 1, . . . , N − 1 .
3
Sistemi dinamici discreti: equazioni
scalari ad un passo

In questo capitolo affrontiamo lo studio di alcuni problemi non lineari. I mo-


delli di cui ci occuperemo descrivono l’evoluzione di fenomeni a passi discreti
corrispondenti ad intervalli temporali di lunghezza prescritta (eventualmente
variabile). Per questo motivo essi vengono chiamati sistemi dinamici discreti.
È utile studiare tali modelli lasciando indeterminata la condizione iniziale,
perché spesso essa è conosciuta solo con un certo grado di approssimazio-
ne, e comunque ha interesse conoscere il comportamento qualitativo di tutte
le traiettorie per sapere se esse presentano o meno certe caratteristiche di
struttura.
A differenza del caso lineare, non si sanno esplicitare le soluzioni, salvo casi
particolari. È comunque utile il raffronto locale con sistemi dinamici discre-
ti lineari “vicini” per ottenere condizioni esplicite sul comportamento delle
traiettorie.
Data la complessità del problema, consideriamo qui solo sistemi dinamici di-
screti scalari, autonomi e ad un passo temporale.

3.1 Definizioni preliminari

Un sistema dinamico discreto, brevemente s.d.d., è la formalizzazione


di un fenomeno evolutivo completamente descritto da una funzione la cui
immagine è contenuta nel dominio: a partire da ogni stato iniziale ammissi-
bile, si genera una successione di stati mediante la ripetizione iterativa della
trasformazione indotta dalla funzione assegnata.
Vediamo una definizione formale di sistema dinamico discreto che comprende
i casi di cui ci occuperemo in questo capitolo e nel successivo.
Definizione 3.1. Siano I un intervallo contenuto in R contenente almeno due
punti distinti, ed f : I → I una funzione continua. La coppia {I, f} viene det-
ta sistema dinamico discreto su I, del primo ordine, autonomo, in
forma normale.
E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione
UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_3, © Springer-Verlag Italia 2014
88 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Osservazione 3.2. Si noti che, assegnati un s.d.d. {I, f} ed un valore ini-


ziale X0 ∈ I, è univocamente determinata una successione {Xk } definita per
ricorrenza da
Xk+1 = f (Xk ) k∈N
per cui risulta

X1 = f (X0 )
X2 = f (X1 ) = f (f (X0 ))
X3 = f (X2 ) = f (f (f (X0 )))
... = ...
Xk = f (Xk−1 ) = f (f (. . . (f (X0 )))) = f ◦ f ◦ · · · ◦ f (X0 )
 

k volte

dove tutte le valutazioni di f sono ben definite perché f (I) ⊆ I.


Viceversa, in molti casi le successioni definite per ricorrenza si possono in-
terpretare come successioni generate da un s.d.d. in corrispondenza ad un
particolare valore iniziale.

Esempio 3.3. Consideriamo alcuni esempi di s.d.d. {I, f} a fianco dei quali
abbiamo indicato la corrispondente legge ricorsiva:
1 1
f (x) = x I = [0, 1] Xk+1 = Xk
2 2

f (x) = 5x I=R Xk+1 = 5Xk

f (x) = 3x + 2 I=R Xk+1 = 3Xk + 2

x Xk
f (x) = I = (0, +∞) Xk+1 = 
1+x 1 + Xk
Per denotare la iterata k-esima di f adotteremo la seguente notazione

f 0 = identità
fk = f ◦ f ◦ · · · ◦ f
 

k volte

Dunque, tornando al s.d.d. {I, f}, risulta Xk = f k (X0 ), ∀k ∈ N.

Osservazione 3.4. Il lettore è probabilmente abituato ad utilizzare la nota-


zione (comoda, ma formalmente scorretta) che omette le parentesi per deno-
tare il prodotto per sè stesso del valore di una funzione: ad esempio, sin2 x
2
anziché (sin x) . Tale consuetudine andrebbe tuttavia limitata ai soli casi in
cui non può creare equivoco con la composizione ed evitata nei casi, come il
nostro, in cui sin2 x deve, più correttamente, indicare sin (sin x) .
3.1 Definizioni preliminari 89

Definizione 3.5. Un s.d.d. {I, f} si dice lineare se f è lineare; (lineare)


affine se f è (lineare) affine; non lineare se f non è lineare affine.

Esempio 3.6. Con riferimento all’Esempio 3.3, i primi due s.d.d. sono lineari,
il terzo è lineare affine, il quarto è non lineare. 

Sottolineiamo esplicitamente che, salvo casi molto particolari di cui vedremo


solo pochi esempi, non si sanno determinare espressioni esplicite per i s.d.d.
non lineari, cioè non si riesce a calcolare Xk come funzione nota di k ed X0 .
Pertanto diventa assai importante lo studio qualitativo dell’andamento del-
le successioni che soddisfano la relazione ricorsiva, del loro comportamento
asintotico e della dipendenza di tale comportamento dai dati iniziali.

Definizione 3.7. Assegnati un s.d.d. {I, f} ed un valore X0 ∈ I, la succes-


sione
!
{X0 , X1 , . . . , Xk , . . . } = X0 , f (X0 ) , f 2 (X0 ) , . . . , f k (X0 ) , . . .

si dice traiettoria (o orbita), indicata con γ (I, f, X0 ), del s.d.d. corrispon-


dente al valore iniziale X0 .

Definizione 3.8. L’insieme di tutte le orbite o traiettorie di un s.d.d. {I, f}


al variare di X0 ∈ I si dice quadro delle fasi (o quadro delle traiettorie).

È spesso utile una visualizzazione grafica del quadro delle fasi, in cui si evi-
denziano mediante frecce i successivi cambi di posizione dovuti alla iterazione
della funzione che governa il s.d.d.
!
Esempio 3.9. Consideriamo il s.d.d. R, x4 . Rappresentiamo R con una ret-
ta (orientata) verticale e disegnamo il quadro delle fasi. Si osservi che f (0) =
0, f (1) = 1 e f (x) > x se x > 1 , 0 < f (x) < x se 0 < x < 1 e f (x) > 0
se x < 0. Il disegno in Fig. 3.1 evidenzia che tutte le traiettorie diventano
non negative alla prima iterazione; inoltre, se 0 ≤ |x| < 1 la traiettoria f k (x)
tende a zero, mentre se |x| > 1 la traiettoria f k (x) tende a +∞ (i valori 0 ed
1 corrispondono a traiettorie costanti). 

Esempio 3.10. In Fig. 3.2 è tracciato il diagramma delle fasi del sistema
dinamico discreto {[−π, π] , cos x}. 

Esempio 3.11. Un sistema di infinite equazioni del tipo (equazione alle dif-
ferenze del primo ordine)

Xk+1 − Xk = g (Xk ) k∈N (3.1)

corrisponde al s.d.d. {I, f} qualora, posto f (x) = g (x) + x, si determini un


intervallo I ⊆ R tale che f (I) ⊆ I, nel senso che in tali ipotesi il quadro
delle fasi del s.d.d. {I, f} è l’insieme di tutte le soluzioni delle equazioni alle
differenze (3.1) che hanno valore iniziale X0 in I. 
90 3 Sistemi dinamici discreti: equazioni scalari ad un passo

% &
Fig. 3.1. s.d.d. R, x4 Fig. 3.2. s.d.d. {[−π, π] , cos x}

Osservazione 3.12. In molti modelli matematici discreti si incontrano fun-


zioni f la cui immagine non è contenuta nel dominio (ad esempio f (x) =
log x), o funzioni il cui dominio non è neppure un intervallo (ad esempio
f(x) = 1/x). In tali casi ha comunque interesse studiare l’equazione alle diffe-
renze1 Xk+1 = f (Xk ) che tuttavia risulta ben posta solo per quelle scelte del
valore iniziale X0 che garantiscono che f (Xk ) appartenga al dominio di f per
ogni k.

Definizione 3.13. Dato un s.d.d. {I, f}, un numero α ∈ R si dice equilibrio


(o punto fisso o punto stazionario) per il s.d.d. se vale

α = f (α) α∈I

Se si sceglie un dato iniziale X0 = α che è di equilibrio, allora l’orbita corri-


spondente si dice orbita stazionaria:

γ (I, f, α) = {α, α, α, . . . } .

1
Chiaramente equivale a Xk+1 − Xk = g (Xk ) dove g (x) = f (x) − x.
3.1 Definizioni preliminari 91

Più in generale, se per un certo X0 ∈ I esiste un k tale che f k (X0 ) = α =


f (α), allora la traiettoria è definitivamente stazionaria:
!
γ (I, f, X0 ) = X0 , f (X0 ) , f 2 (X0 ) , . . . , f k−1 (X0 ) , α, α, α, . . . .

Osservazione 3.14. La ricerca degli equilibri di un s.d.d. {I, f} è equivalente


alla determinazione delle intersezioni nel piano di coordinate x, y della retta
di equazione y = x con il grafico di f, di equazione y = f (x), con l’ulteriore
richiesta di limitarsi alle intersezioni contenute nell’insieme I × I.

Osservazione 3.15. Se α è un equilibrio


! per il s.d.d. {I, f}, allora α è un
equilibrio anche per il s.d.d. I, f k per ogni k ∈ N .

Definizione 3.16. Assegnato un s.d.d. {I, f}, se esiste un insieme di s valori


{α0 , α1 , . . . , αs−1 } appartenenti all’intervallo I, diversi tra loro e verificanti

α1 = f (α0 ) , α2 = f (α1 ) , . . ., αs−1 = f (αs−2 ) , α0 = f (αs−1 )

allora tale insieme si dice orbita periodica di (minimo) periodo s o ciclo


di ordine s o s ciclo); s prende il nome di periodo dell’orbita o ordine
del ciclo.
Se si sceglie come dato iniziale X0 = α0 , allora la corrispondente traiettoria
γ (I, f, α0 ) ha andamento s periodico:

γ (I, f, α0 ) = {α0 , α1 , α2 , . . . , αs−1 , α0 , α1 , α2 , . . . , αs−1 , α0 , . . . } .

Più in generale, un’orbita X di {I, f} si dice definitivamente periodica se


esistono h ∈ N ed {α0 , α1 , . . . , αs−1 } diversi tra loro e verificanti

Xh = α0 , Xh+1 = α1 , . . . , Xh+s = α0 .

Le eventuali orbite periodiche di periodo s di un s.d.d. {I, f} si determinano


come le traiettorie i cui valori appartengono all’insieme delle soluzioni dell’e-
quazione {x ∈ I : f !
s
(x) = x}, privato delle soluzioni di tutte le s−1 equazioni
x ∈ I : f (x) = x , h = 1, 2, . . . , s − 1 (si veda l’Osservazione 3.15).
h

Esempio 3.17. Il s.d.d. lineare {R, 2x} presenta un solo equilibrio (α = 0) e


nessuna orbita periodica. 

Esempio 3.18. Il s.d.d. lineare {R, −x} presenta un solo equilibrio (α = 0)


ed infinite orbite periodiche di periodo due: {X0 , −X0 } (si veda la Fig. 2.2). 

Esempio 3.19. Il s.d.d. non lineare {(0, +∞) , 1/x} presenta un! solo equili-
brio (α = 1) ed infinite orbite periodiche di periodo 2 : X0 , X0−1 (si veda la
Fig. 3.3). 
92 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Fig. 3.3. Equilibrio e orbite periodiche di {(0, +∞) , 1/x}

 !
Esempio 3.20. Il s.d.d. non lineare [0, 1] , a x − x2 con a ∈ R presenta
un’orbita definitivamente stazionaria per X0 = 1: {1, , 0, 0, . . . }. 
 2
!
Esempio 3.21. Il s.d.d. [0, 1] , 4 x −  x presenta
! due equilibri, 0 e 3/4,
2
che sono le soluzioni di x ∈ [0, 1] : 4 x − x = x , ed una sola orbita 2 pe-
 √   √  !
riodica 5 − 5 /8, 5 + 5 /8 ottenuta risolvendo
"     2  #
x ∈ [0, 1] : 4 4 x − x2 − 16 x − x2 =x . (3.2)

ed eliminando i valori 0 e 3/4. Si noti che l’equazione di quarto grado (3.2)


non è di risoluzione immediata; tuttavia si possono raccogliere i termini x e
(x − 3/4) riducendola ad una equazione di secondo grado. 

Esempio 3.22. La funzione continua



⎨ x+2 x < −1
f(x) = −x −1≤x≤1

x−2 x>1

genera la traiettoria definitivamente 2 periodica X : X0 = 5, X1 = 3, X2 =


1, X3 = −1, X4 = 1 . . . .

Il seguente teorema dà una condizione sufficiente per l’esistenza di punti fissi.

Teorema 3.23. Sia I = [a, b] un intervallo chiuso e limitato, contenuto in R


e f : I → I una funzione continua. Allora esiste α ∈ I tale che α = f (α).

Prova. La funzione g (x) = x − f (x) è continua in I, in quanto differenza di funzioni


continue, e
g (a) = a − f (a) ≤ 0 ≤ b − f (b) = g (b) .
3.1 Definizioni preliminari 93

a b
Fig. 3.4. Grafico di una funzione verificante le ipotesi del Teorema 3.23

Dunque, o g si annulla in a, o g si annulla in b, oppure, se non si annulla negli


estremi allora, per il teorema di esistenza degli zeri, g deve annullarsi all’interno
dell’intervallo [a, b]. 

Corollario 3.24. Se {I, f} è un s.d.d. ed I è un intervallo chiuso e limitato,


allora esiste un equilibrio.

Se I non è limitato oppure se I è aperto, allora vengono meno la tesi del


Teorema 3.23 e del Corollario 3.24, come illustrato dai seguenti esempi:

I=R f (x) = x + ex

I = (0, 1) f (x) = x2 .

Comunque vale il risultato seguente.


Teorema 3.25. Sia A un qualunque sottoinsieme non vuoto di R, f : A → A
una funzione continua, X0 ∈ A ed Xk+1 = f (Xk ), k ∈ N. Se esiste finito
L = lim Xk ed L ∈ A , allora L è un punto fisso di f, cioè L = f (L).
k

Prova. Se Xk → L ∈ A, si ha Xk+1 → L. Così:

perché Xk+1 =f (Xk )


L = lim Xk = lim Xk+1 =
k k

perché f è continua
= lim f (Xk ) =
k
 
= f lim Xk =
k
= f (L) . 
94 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Il Teorema 3.25 ci permette di applicare la seguente strategia per lo studio


del comportamento asintotico di un s.d.d. {I, f}:
se la funzione f è continua, si ricercano le eventuali soluzioni reali dell’equa-
zione
{L ∈ I : f (L) = L} .
Fra queste si trovano gli eventuali limiti finiti di Xk+1 = f (Xk ) al variare di
X0 in I.

Considerazioni di tipo monotonia consentono di stabilire l’esistenza o meno


di soluzioni divergenti nei casi in cui I è illimitato.

Esempio
√ 3.26. Consideriamo il s.d.d. {I, f} dove I = [−2, +∞) ed f (x) =
x + 2. Allora la funzione f è continua e ricordando che una radice aritmetica
è una quantità non negativa

√ L≥0
L+2= L ⇒ ⇒ L = 2.
L + 2 = L2

Per il Teorema 3.25, l’eventuale limite finito è l’equilibrio α = 2. Inoltre,


limk Xk = +∞ è da escludersi perché Xk ≤ 2 o Xk > 2 implicano rispettiva-
mente Xk+1 ≤ 2 o Xk+1 < Xk . 

Avere individuato i possibili comportamenti asintotici di un s.d.d. non conclu-


de l’analisi asintotica: occorre chiarire se le soluzioni {Xk } ammettono limite; a
tale scopo risulta utile il teorema di esistenza del limite per successioni
monotòne2:
una successione reale monotòna crescente (decrescente) ammette sempre limi-
te; tale limite è finito se e solo se la successione è limitata, è +∞ ( −∞) se e
solo se la successione è illimitata.

Spesso è comodo ricorrere al principio di induzione per provare la monotonia


di una soluzione Xk nei casi concreti.

Esempio 3.27. Consideriamo la successione Xk+1 = Xk2 con X0 = λ ∈ (0, 1)


e mostriamo, per induzione, che è strettamente decrescente.
Da λ ∈ (0, 1) segue X1 = λ2 < λ = X0 < 1. Inoltre, se 0 < Xk < Xk−1 allora
0 < Xk2 < Xk−12
cioè Xk+1 < Xk . Dunque Xk è strettamente decrescente.
Notiamo che, essendo la successione inferiormente limitata da 0, da quanto
appena dimostrato e dal Teorema 3.25 segue limk Xk = 0. 
Esercizio 3.1. Tracciare i diagrammi di fase dei seguenti s.d.d. {I, f }:

1
1) I = R, f (x) = arctan x 2) I = (0, +∞) , f (x) =.
x
2
Ricordiamo che una successione X si dice monotòna crescente (rispettivamente de-
crescente) se Xk+1 ≥ Xk (rispettivamente Xk+1 ≤ Xk ) per ogni k. La monotonia
si dice stretta quando tutte le disuguaglianze sono strette.
3.2 Ancora sull’analisi grafica 95

Esercizio 3.2. Determinare graficamente i punti fissi di {R, ex − 1}.


Esercizio 3.3. Determinare le orbite 3 periodiche di {[0, 1] , 1 − 2 |x − 1/2|}.
% &
Esercizio 3.4. Determinare eventuali equilibri e cicli di R, x2 .
% √ &
Esercizio 3.5. Determinare eventuali equilibri e cicli di [−3, 3] , 9 − x2 .
Esercizio 3.6. Determinare eventuali equilibri e cicli di {R, (|x| − x) /2}.
Esercizio 3.7. L’Esempio 3.17 ha mostrato che un s.d.d. può ammettere equilibri
senza ammettere orbite 2 periodiche. Dimostrare che se un s.d.d. {I, f } ammette
un’orbita 2 periodica allora ammette necessariamente un equilibrio.
Esercizio 3.8. Studiare la monotonia, al variare di λ in [−2, +∞), della successione

Xk+1 = Xk + 2
(3.3)
X0 = λ

Esercizio 3.9. Provare che se il s.d.d. {I, f } (I ⊂ R intervallo ed f continua) ha


un’orbita 2 periodica, allora ha un equilibrio nell’intervallo con estremi nei punti
dell’ orbita.

3.2 Ancora sull’analisi grafica


È di grande utilità nello studio dei s.d.d. l’uso del metodo grafico già intro-
dotto nel paragrafo 1.4 nel caso particolare di una funzione f lineare affine.
Ovviamente l’approccio grafico si può applicare con qualunque funzione f,
anche non lineare.
L’efficacia di tale metodo non dipende solo dall’aiuto che dà alla previsione
visiva delle traiettorie ma al fatto che corrisponde ad un semplice algoritmo
la cui iterazione può essere delegata a procedure di calcolo automatico: ad
esempio, se {I, f} è il s.d.d. ed X0 il dato iniziale, allora un programma per
calcolare con un computer le prime 100 iterazioni esegue le istruzioni seguenti

Algoritmo per l’analisi grafica

(1) k=0
(2) x = X0
(3) y = f (x)
(4) x=y
(5) k =k +1
(6) se k = 100 stop, se k < 100 torna a (3)

L’istruzione (6) interrompe ad un certo valore di k le iterazioni, altrimenti il


ciclo non avrebbe termine.
96 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Se si è interessati ai valori Xk basta inserire una istruzione (3’) tra (3) e (4):

(3’) stampa k e x

ottenendo in tal modo una tabella della traiettoria:


k 0 1 2 ... k ...

valori successione X0 X1 X2 . . . Xk . . .

Per riportare più passi con maggior chiarezza nella rappresentazione grafica
conviene omettere i segmenti verticali di estremi (Xk , 0) e (Xk , Xk ) ed i seg-
menti orizzontali di estremi (0, Xk+1 ) e (Xk , Xk+1 ) ottenendo delle spezzate
che spesso sono chiamate ragnatele.

Xk+1 Xk

Xk k

Fig. 3.5. Ragnatela di {R, ex }, X0 = −2 Fig. 3.6. Traiettoria

Xk+1 Xk

k
Xk

% &
Fig. 3.7. Ragnatela di R, e−x , X0 = −1 Fig. 3.8. Traiettoria
3.3 Comportamento asintotico in ipotesi di monotonia 97

Esercizio 3.10. Si affronti lo studio del s.d.d. dell’Esempio 3.26 con il metodo gra-
fico: si noti come sia molto più facile congetturare e provare le corrette proprietà di
monotonia. Inoltre i grafici suggeriscono una strategia di prova molto semplice: se
−2 ≤ x ≤ 2, allora x < f (x) < 2 , dunque Xk è monotòna e limitata. . . .

3.3 Comportamento asintotico in ipotesi di monotonia


Dato un s.d.d. {I, f}, lo studio della monotonia delle successioni indotte può
non risultare immediato. Più semplice appare lo studio della monotonia della
funzione f , studio dal quale si possono ricavare, con i risultati del paragrafo
precedente, alcune informazioni sull’andamento asintotico delle traiettorie.
Riassumiamo queste considerazioni in un paio di flow-chart (riportati nel se-
guito e denominati Algoritmo I e Algoritmo II) che descrivono un algoritmo
pratico per lo studio qualitativo delle traiettorie di {R, f} quando f è mono-
tòna, senza ulteriori ipotesi o informazioni sulla sua derivabilità. La dimostra-
zione è lasciata come esercizio.

Algoritmo I

Sia f : R → R una funzione continua e crescente. Allora

assegnato X0 ∈ R calcolare X1 = f (X0 )

se X1 = X0 , allora Xk = X0 per ogni k ∈ N



⎪ se esistono punti fissi di f maggiori di X0 , allora



⎨ Xk → α, minimo punto fisso maggiore di X0

se X1 > X0



⎪ se non esistono punti fissi di f maggiori


⎩ di X0 , allora Xk  +∞



⎪ se esistono punti fissi di f minori di X0 , allora



⎨ Xk → β, massimo punto fisso minore di X0

se X1 < X0



⎪ se non esistono punti fissi di f minori


⎩ di X0 , allora Xk  −∞
98 3 Sistemi dinamici discreti: equazioni scalari ad un passo

I simboli  e  denotano rispettivamente monotonia crescente e decrescente.


A proposito dell’Algoritmo II, si noti che se f è decrescente allora f 2 è cre-
scente, pertanto per la dimostrazione si può applicare il primo schema sepa-
ratamente alle successioni dei termini di indice pari e di indice dispari.

Algoritmo II

Sia f : R → R una funzione continua e decrescente. Allora

assegnato X0 ∈ R calcolare X1 = f (X0 )

se X1 = X0 allora Xk = X0 per ogni k ∈ N



⎪ se X2 = X0 , allora Xk è 2 periodica



⎪ X2k = X0 , X2k+1 = X1







⎪ ⎧



⎪ ⎪
⎪ 2
se esistono punti fissi di f maggiori

⎪ ⎪


⎪ ⎪
⎪ di X0 alloraX2k  α, minimo

⎪ ⎪


⎪ ⎪
⎪ 2
punto fisso di f maggiore di X0

⎪ ⎪

⎪ ⎪


⎪ ⎨ e X2k+1  β = f (α)




⎪ se X2 > X0

⎪ ⎪


⎪ ⎪
⎪ se non esistono punti fissi di f
2

⎪ ⎪


⎨ ⎪
⎪ X


maggiori di 0 , allora
se X1 = X0 ⎪
⎪ X2k  +∞, X2k+1  f (+∞)
⎪ ⎪


⎪ ⎩ ∗
( )







⎪ ⎧



⎪ ⎪
⎪ 2
se esistono punti fissi di f minori

⎪ ⎪


⎪ ⎪
⎪ di X0 , allora X2k  β , massimo

⎪ ⎪


⎪ ⎪
⎪ punto fisso minore di X0 ,

⎪ ⎪


⎪ ⎨ X2k+1  α = f (β)



⎪ se X2 < X0

⎪ ⎪


⎪ ⎪


⎪ ⎪
⎪ 2

⎪ ⎪

se non esistono punti fissi di f

⎪ ⎪


⎪ ⎪

minori di X0 , allora
⎩ ⎩ X2k  −∞, X2k+1  f (−∞)

(∗) f (+∞) = lim f (x), f (−∞) = lim f (x)


x→+∞ x→−∞
3.3 Comportamento asintotico in ipotesi di monotonia 99

Osservazione 3.28. La monotonia di f impone restrizioni qualitative alla di-


namica del s.d.d. {I, f} (immediata conseguenza degli Algoritmi precedenti):
• se f è crescente, allora il s.d.d. non può avere orbite periodiche, tuttavia
può avere equilibri;
• se f è decrescente, allora il s.d.d. può avere solo equilibri e orbite periodiche
di periodo 2; è esclusa l’eventualità di orbite con periodi maggiori.

Esempio 3.29. Per studiare l’andamento qualitativo delle traiettorie del


s.d.d. {R, x + sin x}, osserviamo che f (x) = x + sin x è una funzione cre-
scente (infatti f  (x) = 1 + cos x ≥ 0, ∀x ∈ R), dunque possiamo applicare
l’Algoritmo I, ottenendo:
• se X0 = kπ, allora Xk = X0 per ogni k;
• se esiste un intero k tale che 2kπ < X0 < (2k +1)π, allora Xk  (2k +1)π;
• se esiste un intero k tale che (2k + 1)π < X0 < (2k + 2)π, allora Xk 
(2k + 1)π. 

!
Esempio 3.30. Consideriamo il s.d.d. R, −x3 . La funzione f è monotòna
decrescente in senso stretto: applichiamo l’Algoritmo II. A tal fine, se X0 ∈ R
si ha
X1 = f (X0 ) = −X03

Fig. 3.9. Grafico di x + sin x e dell’identità


100 3 Sistemi dinamici discreti: equazioni scalari ad un passo

e quindi

X1 = X0 ⇔ −X03 = X0 ⇔ X0 = 0.

Così, se X0 = 0 si ricava Xk = 0 per ogni k ∈ N.


Se X0 = 0 si ha X1 = X0 e a questo punto è necessario determinare X2 :
 3
X2 = f (X1 ) = f 2 (X0 ) = − −X03 = X09 .

Poiché

X2 = X0 ⇔ X09 = X0 ⇔ X0 = 0 oppure X0 = ±1.

Possiamo così concludere:


• se X0 < −1, allora X2k  −∞ e X2k+1  +∞;
k+1
• se X0 = −1, allora Xk è 2 periodica: Xk = (−1) ;
• se −1 < X0 < 0, allora X2k  0 e X2k+1  0;
• se X0 = 0, allora Xk = 0 per ogni k;
• se 0 < X0 < 1, allora X2k  0 e X2k+1  0;
k
• se X0 = 1, allora Xk è 2 periodica: Xk = (−1) ;
• se X0 > 1, allora X2k  +∞ e X2k+1  −∞. 

Esercizio 3.11. Assegnato X0 ∈ R , determinare in forma chiusa la traiettoria del


s.d.d. dell’Esempio 3.30.
Esercizio 3.12. Stabilire il comportamento asintotico del s.d.d. {R, f } con f (x) =
(x + |x|) /4.
Esercizio 3.13. Stabilire il comportamento asintotico del s.d.d. {[−π, π] , f } con
(π − |x|)
f (x) = x + .
2
Esercizio 3.14. Dimostrare le implicazioni contenute negli Algoritmi I e II.
Esercizio 3.15. Risolvere l’Esercizio 3.8 utilizzando i risultati di questo paragrafo.

Fig. 3.10. f (x) = −x3 Fig. 3.11. f 2 (x) = x9


3.4 Teorema delle contrazioni 101

3.4 Teorema delle contrazioni

In questo paragrafo, che può essere saltato in una prima lettura, enunciamo
un risultato di grande importanza teorica e numerica: il Teorema delle Con-
trazioni. Nel caso particolare dei problemi studiati in questa trattazione, esso
consente di stabilire l’esistenza e l’unicità di punti fissi per s.d.d. {I, f} con
f non necessariamente derivabile e di effettuare una approssimazione nume-
rica di tali punti fissi. Tale approssimazione è assai utile quando l’equazione
{α ∈ I : α = f (α)} non è risolubile in forma chiusa.

Definizione 3.31. Sia I ⊆ R un intervallo. Una funzione f : I → I è una


contrazione se esiste una costante τ < 1 tale che

|f (x) − f (y)| ≤ τ |x − y| ∀x, y ∈ I

Si noti che una contrazione è sempre continua, anzi uniformemente continua.

Teorema 3.32 (Teorema delle contrazioni). Sia I un intervallo chiuso


di R , ed f : I → I sia una contrazione. Allora il s.d.d. {I, f} ha un unico
equilibrio α .
Inoltre, per ogni dato iniziale X0 ∈ I, posto Xk+1 = f (Xk ), risulta:

lim Xk = α .
k

Più precisamente, vale la seguente stima:

|f (X0 ) − X0 | k
|Xk − α| < τ .
1−τ

Prova. Fissato X0 ∈ I, si ha, per k = 1, 2, . . .

|Xk+1 − Xk | = |f (Xk ) − f (Xk−1 )| ≤ τ |Xk − Xk−1 |

e quindi, iterando
|Xk+1 − Xk | ≤ τ k |X1 − X0 | .
Sfruttando la disuguaglianza triangolare e quanto appena mostrato sopra, per ogni
h ≥ 1, si ricava


h−1
h−1
|Xk+h − Xk | ≤ |Xk+n+1 − Xk+n | ≤ |X1 − X0 | τ k τn =
n=0 n=0

1 − τh |X1 − X0 | k
= |X1 − X0 | τ k ≤ τ .
1−τ 1−τ
102 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Poiché τ < 1, la successione {Xk } è di Cauchy e , per la chiusura di I, esiste α ∈ I


tale che limk Xk = α. La continuità di f implica

f (α) = f (lim Xk ) = lim f (Xk ) = lim Xk+1 = α .


k k k

Da α1 , α2 punti fissi segue |α1 − α2 | = |f (α1) − f (α2)| ≤ τ |α1 − α2 |, cioè α1 = α2 .


|X1 − X0 | k
Se si tiene fisso k e si prende il limite per h → +∞ in |Xk+h − Xk | ≤ τ ,
1−τ
si deduce
|X1 − X0 | k
|α − Xk | < τ . 
1−τ

Osservazione 3.33. La tesi del Teorema 3.32 rimane vera anche se I ⊂ R è


solo un insieme chiuso e non vuoto, grazie alla completezza di R.

Osservazione 3.34. Una contrazione può non essere derivabile (ad esempio,
f (x) = |x| /2), comunque, grazie al teorema di Lagrange, ogni funzione f in
C 1 (I) per cui esiste τ tale che

|f  (x)| ≤ τ < 1 ∀x ∈ I

è una contrazione.

Esempio 3.35. Un’applicazione notevole del Teorema delle Contrazioni si ha


nella ricerca degli zeri di una funzione g : I → I

{x ∈ I : g (x) = 0}

nelle ipotesi g ∈ C 1 (I) e |1 + g (x)| ≤ τ < 1 oppure |1 − g  (x)| ≤ τ < 1.


Il problema è equivalente alla ricerca dei punti fissi di f : I → I, dove,
rispettivamente, f (x) = x + g (x) oppure f (x) = x − g (x), infatti:

f (x) = x ⇔ g (x) = 0.

Le ipotesi assicurano che una tale f è una contrazione, dunque g ha un unico


zero che può essere approssimato dalla successione Xk+1 = f (Xk ) a partire
da qualunque X0 ∈ I (oppure Xk+1 = −f (Xk )). 

Esercizio 3.16. Studiare la dinamica del s.d.d. {R, |x − 1| /2} .

3.5 La nozione di stabilità


In questa sezione introduciamo alcune definizioni allo scopo di precisare for-
malmente le proprietà di stabilità.

Definizione 3.36. Un equilibrio α del s.d.d. {I, f} si dice equilibrio sta-


bile se, per ogni ε > 0, esiste una costante δ > 0 tale che |X0 − α| < δ
3.5 La nozione di stabilità 103

e Xk = f k (X0 ), k ∈ N, implicano

|Xk − α| < ε ∀k ∈ N.

Viceversa, α si dice equilibrio instabile se non è stabile, cioè se esiste ε0 > 0


tale che, per ogni δ > 0, si possono determinare X0 ∈ I e  k > 0 tali che
 
|X0 − α| < δ X − α > ε0 .
k

La definizione precedente merita una attenta riflessione. La proprietà di sta-


bilità per un equilibrio α ha il seguente significato: il dato iniziale X0 = α
produce una traiettoria costante coincidente con l’equilibrio; inoltre, un dato
iniziale X0 “leggermente diverso” da α dà luogo ad una traiettoria che, per
tutti i suoi valori, “si discosta di poco” dall’equilibrio.
Lo studio della stabilità di un equilibrio ha enorme importanza nelle applica-
zioni: infatti il dato iniziale non è quasi mai noto con precisione, tuttavia è
spesso possibile stimare l’errore con cui viene determinato.
Si verifichi che gli equilibri degli Esempi 3.18 e 3.19 sono stabili (il primo
scegliendo δ = ε, il secondo con δ = ε/ (1 − ε), ovviamente per ε ∈ (0, 1)),
mentre lo 0 è instabile per (2x, R).
Definizione 3.37. Un equilibrio α del s.d.d. {I, f} si dice equilibrio glo-
balmente attrattivo se, per ogni X0 ∈ I, posto Xk = f k (X0 ), risulta

lim Xk = α.
k

Definizione 3.38. Un equilibrio α del s.d.d. {I, f} si dice equilibrio local-


mente attrattivo se esiste η > 0 tale che, per ogni X0 ∈ I ∩ (α − η, α + η),
posto Xk = f k (X0 ), risulta
lim Xk = α.
k
Si osservi che gli equilibri degli Esempi 3.18 e 3.19 non sono attrattivi (neanche
localmente), pur essendo entrambi stabili.
Definizione 3.39. Un equilibrio α del s.d.d. {I, f} si dice equilibrio glo-
balmente asintoticamente stabile se valgono le seguenti condizioni:
1) α è stabile;
2) α è globalmente attrattivo .
α si dice equilibrio localmente asintoticamente stabile se è stabile e
localmente attrattivo.
Osservazione 3.40. Se f è una contrazione in I, allora dal Teorema 3.32
segue che {I, f} è un s.d.d. con un unico equilibrio che risulta globalmente
asintoticamente stabile.
Esempio 3.41. Nel caso lineare, {R, f} con f (x) = ax + b, se vi è un equili-
brio attrattivo (cioè |a| < 1) allora esso è anche globalmente asintoticamente
stabile (ed è unico). Se f non è lineare la questione è più delicata. 
104 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Esercizio 3.17. Per acquisire familiarità con le varie definizioni, il lettore provi che
per il s.d.d. {R, f } con f (x) = x3 + x/2 , lo 0 è un equilibrio stabile e localmente
attrattivo, ma non globalmente attrattivo. Dunque 0 è localmente asintoticamente
stabile. 

Per comprendere la definizione successiva, è opportuno ricordare la nozione


di distanza di un punto x da un insieme chiuso C:

dist (x, C) = min {|x − c| : c ∈ C} .

Definizione 3.42. Un insieme A ⊂ I si dice attrattore (o pozzo, o insie-


me localmente attrattivo) per un s.d.d. {I, f} se valgono tutte le condizioni
seguenti:
1) A è chiuso, cioè contiene tutti i suoi punti di accumulazione;
2) A è invariante, cioè f (A) = A;
3) esiste η > 0 tale che, per ogni x ∈ I che verifica dist(x, A) < η, vale
 
lim dist f k (x) , A = 0;
k

4) A è minimale, cioè non vi sono sottoinsiemi propri di A che verificano


1), 2) e 3).

Definizione 3.43. Se A è un attrattore per {I, f} allora l’insieme



x ∈ I : lim f (x) ∈ A
k
k

è detto bacino di attrazione di A per il s.d.d. {I, f}.

Esempio 3.44. Un equilibrio localmente attrattivo è un attrattore. 

Esempio 3.45. Il s.d.d. {R, f} con f (x) = x e1−x ha due equilibri: 0 e 1 .


L’equilibrio 0 è instabile e non è attrattivo, 1 è localmente asintoticamen-
te stabile, l’intervallo [0, 1] è un insieme invariante ma non è un attrattore,
perch’e non verifica la 4) . 

Osservazione 3.46. Assegnato un s.d.d. {I, f}, l’insieme


5
T = f k (I)
k≥1

è sempre invariante, cioè f (T ) = T . Infatti, se si tiene conto delle inclusioni


f k+1 (I) ⊆ f k (I) , si ottiene:
⎛ ⎞ ⎛ ⎞
5 5   5 5
T = k
f (I) = f f (I) = f ⎝
k
f (I)⎠ = f ⎝
k
f (I)⎠ = f (T ) .
k

k≥1 k≥2 k≥2 k≥1


3.5 La nozione di stabilità 105
6
Spesso, ma non sempre, l’insieme T = k≥1 f k (I) è un attrattore o, perlome-
no, l’unione di più attrattori di {I, f}. Questo dipende dal fatto che, per ogni
6k
X0 ∈ I, le iterate f k (X0 ) approssimano T nel senso che f k (X0 ) ∈ j=1 f j (I)
e dalle inclusioni f k+1 (I) ⊆ f k (I) segue che lim f k (X0 ) appartiene alla
k
chiusura di T .

Definizione 3.47. Un’orbita periodica {α0 , α1 , . . . , αs−1 }, di minimo periodo


s, si dice orbita stabile per un s.d.d. {I, f} se i punti α0 , α1 , . . . , αs−1 sono
equilibri stabili per f s .

Definizione 3.48 (equivalente alla precedente). Un’orbita periodica


{α0 , α1 , . . . , αs−1}, di minimo periodo s, si dice orbita stabile per un s.d.d.
{I, f} se per ogni ε > 0 esiste δ > 0 tale che

assegnato j ∈ {0, . . . , s − 1} e Xj ∈ I : |Xj − αj | < δ

allora  k−j 
f (Xj ) − αk(mod s)  < ε ∀k > j
dove k (mod s) denota l’unico intero in {0, 1, . . . , s − 1} congruo a k modulo s
(cioè l’unico intero che dà lo stesso resto di k quando è diviso per s).

Definizione 3.49. Un’orbita periodica si dice localmente asintoticamen-


te stabile se è contemporaneamente un’orbita stabile ed un insieme localmente
attrattivo.
 
Esempio 3.50. Studio grafico del s.d.d. {(0, 1) , f} , f (x) = 3, 1 x − x2 .
Applicando l’Osservazione 3.14 ad f 2 si può mostrare che ha un’unica orbi-
ta 2 periodica {γ, β} e che essa è localmente asintoticamente stabile, men-
tre non è globalmente asintoticamente stabile a causa della presenza dei due
equilibri 0 e 21/31. Tali equilibri non sono né stabili, né localmente attratti-
vi.
Si noti che i singoli valori γ o β (appartenenti all’orbita periodica) non sono
attrattori qualora vengano considerati singolarmente (si vedano le Fig. 3.12,
3.13). 

Definizione 3.51. Un insieme R ⊂ I si dice insieme repulsivo (o repul-


sore) per il s.d.d. {I, f} se valgono tutte le seguenti condizioni:

1) R è chiuso;
2) R è invariante, cioè f (R) = R;
3) esiste un intorno aperto U di R (cioè R ⊂ U , R\U è chiuso) tale che, per
ogni intorno V di R esiste X0 ∈ V \R tale che f k (X0 ) ∈
/ U per infiniti
valori di k;
4) R è minimale, cioè non vi sono sottoinsiemi propri di R verificanti 1),
2), 3).
106 3 Sistemi dinamici discreti: equazioni scalari ad un passo

γ 21 β γ 21 β
31 31
   
Fig. 3.12. f (x) = 3, 1 x − x2 Fig. 3.13. f 2 con f (x) = 3, 1 x − x2

La definizione di insieme repulsivo formalizza quella di un insieme R trasfor-


mato in sè stesso da f, con la proprietà che tutti i punti prossimi ad R e non
appartenenti ad R vengono allontanati da R per infiniti valori di k.

Definizione 3.52. Un equilibrio repulsivo è un repulsore costituito da un


unico punto.

Osservazione 3.53. Un equilibrio è repulsivo se e solo se è instabile.

Attenzione, la repulsività non è la negazione di attrattività: ad esempio, tutte


le orbite periodiche di {R, − x} oscillano attorno all’equilibrio 0 che è stabile
ma non è né attrattivo, né repulsivo.

Osservazione 3.54. Se f : I → I è un omeomorfismo (continua, inverti-


bile con inversa continua) ed !A è attrattivo per il s.d.d. {I, f}, allora A è un
repulsore per il s.d.d. I, f −1 .
Se f : I → I è un omeomorfismo
! ed A è un repulsore per {I, f} allora A è
attrattivo per I, f −1 .

Osserviamo che se alle traiettorie di {I, f} si dà un’interpretazione


! di evolu-
zione di una grandezza nel tempo, allora le traiettorie di I, f −1 si ottengono
invertendo la freccia temporale.

Esempio 3.55. Consideriamo il s.d.d. {I, f} con I = [−1, 1] e f (x) = x3 .


Ci sono tre punti fissi: 0 e ±1; non vi sono !orbite periodiche. L’equilibrio√0
è attrattivo per {I, f},√repulsivo per I, f −1 (esplicitamente, f −1 (x) = 3 x
se x ≥ 0, f −1 (x) = − 3 −x se!x < 0). Gli equilibri −1 e +1 sono repulsivi per
{I, f}, attrattivi per I, f −1 .
Più precisamente, 0 è localmente asintoticamente stabile ! per {I, f}, mentre
±1 sono localmente asintoticamente stabili per I, f −1 . 
3.6 Condizioni di stabilità basate sulle derivate 107


Fig. 3.14. I = [−1, 1] , f (x) = x3 Fig. 3.15. I = [−1, 1] , f (x) = 3
x sign(x)

Osservazione 3.56. Circa l’analisi della stabilità di un s.d.d. osserviamo che


i metodi basati sulle proprietà di monotonia e sul teorema delle contrazioni
forniscono informazioni di natura globale che ne descrivono completamente
la dinamica. Tuttavia in molti casi non si possono utilizzare tali strumenti.
Per questo motivo si ricorre ad una analisi di tipo locale che, in tutti i casi
in cui la mappa associata al s.d.d. abbia derivate, consente di ottenere molte
informazioni, come illustrato nel paragrafo successivo.

3.6 Condizioni di stabilità basate sulle derivate


Quando una funzione f : I → I è dotata di una o più derivate continue,
è possibile ottenere informazioni sulla stabilità e/o la stabilità asintotica di
equilibri del s.d.d. {I, f} mediante semplici test.

Teorema 3.57 (Condizione del primo ordine di stabilità). Se α è un


equilibrio per il s.d.d. {I, f} e f è di classe C 1 , allora:

|f  (α)| < 1 ⇒ α localmente asintoticamente stabile

|f  (α)| > 1 ⇒ α instabile

Prova. Sia |f  (α)| < 1. Per la continuità di f  esistono d > 0 e r < 1 tali che |f  (x)| ≤
r < 1 se x ∈ (α − d, α + d). Per il teorema di Lagrange, se x, t ∈ (α − d, α + d), allora
esiste x tale che
 
|f (x) − f (t)| = f  (x) |x − t| ≤ r |x − t| .

Quindi la Definizione 3.36 di stabilità è verificata scegliendo δ = min {ε, d}.


108 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Inoltre, se x ∈ (α − d, α + d), allora


     
 k   k k   k−1 
f (x) − α = f (x) − f (α) ≤ r f (x) − f k−1 (α) ≤ · · · ≤ rk |x − α| .

Dunque, da limk rk = 0 segue che α è anche localmente attrattivo e quindi local-


mente asintoticamente stabile.
Sia ora |f  (α)| > 1. Per la continuità di f  esistono m > 1 e d > 0 tali che
|f  (x)| ≥ m > 1 per x ∈ (α − d, α + d). Per il teorema di Lagrange, se x = α e
x ∈ (α − d, α + d), allora f k (x) non può appartenere a (α − d, α + d) per tutti i k,
altrimenti si avrebbe
     
 k   k k   k−1 
f (x) − α = f (x) − f (α) ≥ m f (x) − f k−1 (α) ≥ · · · ≥ mk |x − α|

che sarebbe assurdo perché limk mk = +∞ e |x − α| = 0. 


Esempio 3.58 (Ricerca degli zeri di una funzione mediante appros-
simazioni successive). Se g : [a, b] → [a, b] è una funzione continua, il
problema della ricerca dei suoi zeri è equivalente alla ricerca dei punti fissi in
[a, b] della funzione f così definita: f (x) = x + g (x). Infatti, g (α) = 0 se e
solo se f (α) = α.
Se α è un equilibrio attrattivo allora, comunque si prenda X0 nel bacino di α,
la successione definita da Xk+1 = Xk + g (Xk ) converge ad α.
Se, ad esempio, g ∈ C 1 e |1 + g (α)| < 1, il Teorema 3.57 garantisce la conver-
genza del metodo. Se f (x) = x+g (x) è una contrazione (vedi il paragrafo 3.4)
il metodo funziona per ogni scelta di X0 in [a, b].
A volte, anche se la condizione |1 + g  (x)| < 1 non è verificata si può adattare
il metodo sostituendo ad f la funzione ϕ:

ϕ (x) = x + ψ (x) g (x)

con ψ ∈ C 1 che non si annulla in [a, b] e tale che risulti |ϕ (α)| < 1; in
tal caso le approssimanti sono generate in modo ricorsivo da Yk+1 = Yk +
ψ (Yk ) g (Yk ). 
Definizione 3.59. Diciamo che un equilibrio di un s.d.d. {I, f}, con f in
C 1 (I), è iperbolico se |f  (α) | = 1, superattrattivo se f  (α) = 0 e neutro
se |f  (α)| = 1.
Tornando allo studio della stabilità basato sulle proprietà delle derivate, os-
serviamo che il caso |f  (α)| = 1 non viene chiarito dal Teorema 3.57 e, in
effetti, può corrispondere a situazioni molto diverse fra loro.
Quando l’esame della derivata prima di f nell’equilibrio non consente di con-
cludere, è necessario approfondire l’analisi: cosa che faremo nel seguito. Pre-
mettiamo allo scopo la definizione seguente.
Definizione 3.60. Un punto α di equilibrio per il s.d.d. {I, f} si dice
semistabile superiormente  se per ogni ε > 0 esiste δ > 0 tale che α ≤


x < α + δ implica f k (x) − α < ε per ogni k ∈ N;
3.6 Condizioni di stabilità basate sulle derivate 109

• attrattivo superiormente se esiste η > 0 tale che α ≤ x < α +η implica


limk f k (x) = α;
• asintoticamente stabile superiormente se è semistabile superiormen-
te e attrattivo superiormente;
• instabile superiormente (o repulsivo superiormente) se non è se-
mistabile superiormente.

La definizione precedente corrisponde a limitare le proprietà formalizzate nel-


le Definizioni 3.36, 3.38 e 3.38 a valori iniziali maggiori di α. Il lettore può
facilmente riformulare tale definizione in un intorno sinistro di α, ottenen-
do le definizioni di semistabilità, attrattività, asintotica stabilità e repulsività
inferiori.
In Fig. 3.16 e 3.17 illustriamo con esempi grafici il senso del teorema prece-
dente.

Teorema 3.61. Sia α un equilibrio del s.d.d. {I, f}, con f ∈ C 1 , f  (α) = 1.
Allora

f convessa in un intorno di α ⇒ α semistabile inferiormente


f concava in un intorno di α ⇒ α semistabile superiormente

Se la convessità (rispettivamente, la concavità) di f è stretta, allora α è infe-


riormente asintoticamente stabile e superiormente repulsivo (rispettivamente,
superiormente asintoticamente stabile e inferiormente repulsivo).

Prova. Limitandoci al caso di funzioni convesse (f (x) ≥ f (α) + f (α)(x − α) ∀x),


basta osservare che esiste δ > 0 tale che

x−δ ≤x ≤α ⇒ x ≤ f (x) ≤ α

che diventa x < f (x) < α, se la convessità è stretta. 

Fig. 3.16. f convessa Fig. 3.17. f concava


110 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Il Teorema 3.61 vale anche se f non è né di classe C 1 , né convessa (o conca-


va) purché valgano le disuguaglianze evidenziate nella prova: l’argomento si
applica se α = f (α) e x ≤ f (x) (rispettivamente x ≥ f (x)) in un intorno
sinistro (rispettivamente destro) di α.
Teorema 3.62 (Condizione di stabilità del secondo ordine). Sia α un
equilibrio per il s.d.d. {I, f}, con f ∈ C 2 e f  (α) = 1. Allora valgono le
seguenti conclusioni:


 inferiormente asintoticamente stabile
f (α) > 0 ⇒ α
superiormente repulsivo

 superiormente asintoticamente stabile
f (α) < 0 ⇒ α
inferiormente repulsivo

Se f  (α) si annulla, si può proseguire l’analisi utilizzando l’argomento basato


sulla convessità o concavità di f separatamente in un intorno destro o sinistro
di α, ottenendo il seguente risultato.
Teorema 3.63 (Condizione di stabilità del terz’ordine). Sia α equili-
brio per il s.d.d. {I, f} con f ∈ C 3 , f  (α) = 1 e f  (α) = 0. Allora valgono:

f  (α) > 0 ⇒ α instabile

f  (α) < 0 ⇒ α localmente asintoticamente stabile

Il lettore provi a formulare e dimostrare una condizione di stabilità nel caso


f ∈ C 4 se

f  (α) = 1 f  (α) = 0 f  (α) = 0.

Rimane da studiare il caso

f (α) = α f  (α) = −1 . (3.4)

Prima di procedere, si suggerisce di effettuare lo studio con il metodo grafico di


qualche esempio in cui si verificano le condizioni (3.4) (come f (x) = 3x2 −x ),
e di riflettere sul caso lineare affine già studiato (ad esempio, f (x) = 2 − x).
Nel caso lineare affine si ha stabilità ma non asintotica stabilità: più pre-
cisamente, infinite orbite 2 periodiche oscillano attorno all’equilibrio. Questo
3.6 Condizioni di stabilità basate sulle derivate 111

fatto suggerisce di studiare il comportamento oscillante del generico s.d.d.,


considerando separatamente le due successioni corrispondenti agli indici pari
e dispari: {X2k }k∈N , {X2k+1 }k∈N .

Lemma 3.64. Sia α un equilibrio per il s.d.d. {I, f}.


Allora α è un equilibrio localmente asintoticamente stabile per {I, f} se e solo
se α è un equilibrio localmente asintoticamente stabile per {I, f 2 }.

Prova. α è un equilibrio per {I, f } dunque (Osservazione 3.15) α è un equilibrio


per {I, f 2 }. Sia ora α un equilibrio localmente asintoticamente stabile per il s.d.d.
{I, f }; allora, per ogni ε > 0 esiste δ > 0 tale che se X0 ∈ (α − δ, α + δ) si ha
f k (X0 ) in (α − ε, α + ε) per ogni k e lim f k (X0 ) = α. In particolare, le relazioni
k
precedenti
% valgono
& per k pari; dunque α è localmente asintoticamente stabile per il
s.d.d. I, f 2 .
Viceversa,
% & sia α equilibrio per {I, f } e α sia localmente asintoticamente stabile per
I, f 2 . Ne segue: per ogni ε > 0 esiste δ > 0 tale che se X0 ∈ (α − δ, α + δ); allora
f 2k (X0 ) ∈ (α − ε, α + ε) per ogni k e lim f 2k (X0 ) = α. Rimangono da considerare
k
le iterate dispari di f : per la continuità di f in α esiste δ1 , 0 < δ1 ≤ δ tale che, posto
ε1 = min (ε, δ), da X0 ∈ (α − δ1 , α + δ1 ) segue f (X0 ) ∈ (α − ε1 , α + ε1 ); dunque

f 2k+1 (X0 ) = f 2k (f (X0 )) ∈ (α − ε, α + ε) ; lim f 2k+1 (X0 ) = lim f 2k (f (X0 )) = α. 


k k

Teorema 3.65. Sia f : I → I con f ∈ C 3 , f (α) = α e f  (α) = −1. Allora

2
2f  (α) + 3 (f  (α)) > 0 ⇒ α localmente asintoticamente stabile

2
2f  (α) + 3 (f  (α)) < 0 ⇒ α instabile

Prova. Posto g (x) = f 2 (x), x ∈ I, consideriamo i due s.d.d. {I, f } e {I, g}. Grazie
al Lemma 3.64 ed al Teorema 3.63, è sufficiente verificare che:
 2
(i) g (α) = 1 (ii) g (α) = 0 (iii) g (α) = −2f  (α) − 3 f  (α) .

Le tre verifiche sono un delicato ed istruttivo esercizio sulla derivazione delle fun-
zioni composte che il lettore è invitato a svolgere da solo prima di confrontare il
risultato con i passaggi che seguono.

g (x) = (f (f (x))) = f  (f (x)) f  (x)

g (α) = f  (f (α)) f  (α) = f  (α) f  (α) = (−1) (−1) = 1


   2
g (x) = f  (f (x)) f  (x) = f  (f (x)) f  (x) + f  (f (x)) f  (x)
 2
g (α) = f  (α) f  (α) + f  (α) f  (α) = 0
112 3 Sistemi dinamici discreti: equazioni scalari ad un passo
  2 
g (x) = f  (f (x)) f  (x) + f  (f (x)) f  (x) =
 3
= f  (f (x)) f  (x) + 3f  (f (x)) f  (x) f  (x) + f  (f (x)) f  (x)
 2
g (α) = −2f  (α) − 3 f  (α) . 

Osservazione 3.66. Se la funzione f è un polinomio di secondo grado ed α è


un punto fisso di f tale che f  (α) = −1, allora α è localmente asintoticamente
stabile per {R, f}.
Infatti, f  ≡ 0 e l’affermazione segue dal Teorema 3.65.
Si provi che l’attrattività non è globale. 

Tabella 3.1. Schema riassuntivo per lo studio della stabilità di un equilibrio α


quando f è dotata di derivate

⎧   

⎪ f (α) < 1 ⇒ α l.a.s.









⎪ ⎧ ⎧

⎪ ⎪ f  (α) < 0 ⇒ s.l.a.s. & i.r.

⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪
⎪ f  (α) > 0 ⇒ s.r. & i.l.a.s.

⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪


⎪ ⎪


⎪ ⎪
⎪ f  (α) = 1

⎪ ⎪
⎪ ⎪

⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪
⎪ ⎧

⎪ ⎪
⎪ ⎪
⎪ ⎪ f  (α) < 0 ⇒ α l.a.s.
⎨ ⎨ ⎪
⎪ ⎨
   ⎪

f (α) = α f (α) = 1 ⎪
⎪ f 
(α) = 0

⎪ ⎪
⎪ ⎩ ⎪


⎪ ⎪
⎪ f  (α) > 0 ⇒ α r.

⎪ ⎪


⎪ ⎪


⎪ ⎪


⎪ ⎪


⎪ ⎪


⎪ ⎪


⎪ ⎪
⎪ ⎧  

⎪ ⎪
⎪ ⎪ 2f  (α) + 3 f  (α) 2 > 0 ⇒ α l.a.s.

⎪ ⎪
⎪ ⎨

⎪ ⎪


⎪ ⎪
⎪ f  (α) = −1

⎪ ⎪
⎩ ⎪
⎩  

⎪ 2f  (α) + 3 f  (α) 2 < 0 ⇒ α r.










⎩   
f (α) > 1 ⇒ α r.

Legenda: l.a.s. = localmente asintoticamente stabile,


s.l.a.s. = superiormente localmente asintoticamente stabile,
i.l.a.s. = inferiormente localmente asintoticamente stabile,
r. = repulsivo,
s.r. = superiormente repulsivo,
i.r. = inferiormente repulsivo.
3.7 Strategie di pesca 113

Esercizio 3.18. Determinare eventuali equilibri dei seguenti s.d.d., studiandone la


stabilità con il criterio delle derivate:
%   & % & % &
1) R, x3 + x /2 , 2) R, x3 + x2 , 3) R, xe1−x ,
% & % &
4) R, x3 + x2 + x , 5) {R, ex − 1} , 6) R, x − x3 ,
% & % & % &
7) R, x3 + x , 8) R, x2 − x , 9) R, x3 − x .

3.7 Strategie di pesca

In questo paragrafo discutiamo un esempio di applicazione dei modelli dina-


mici allo scopo di ottimizzare i risultati di una attività quali la caccia o la
pesca.

Consideriamo una specie ittica la cui dinamica (non disturbata da fattori


esterni) sia descritta, in una opportuna unità di misura, dalla legge ricorsiva

Xk+1 = 1, 5Xk − 0, 5Xk2 .

I passi del s.d.d. sintetizzano il succedersi delle stagioni riproduttive: si sup-


pone che la dinamica logistica (si veda l’Esempio 1.13) con la scelta dei para-
metri 1, 5 e 0, 5 descriva in modo soddisfacente l’effetto congiunto dell’attività
riproduttiva e della competizione tra individui della stessa specie.
Studiamo l’effetto che hanno su questa specie due diverse strategie di pesca.

Prima strategia. Quantità prefissata di pescato (in ogni passo):


dopo ogni stagione riproduttiva, si cattura una fissata quantità di pescato b.
Corrispondentemente la dinamica è descritta da

Xk+1 = 1, 5Xk − 0, 5Xk2 − b.

Se 0 < b < 1/8, allora si verifica facilmente (mediante il test della derivata
del Teorema 3.57) che vi sono due equilibri positivi, α1 ≥ α2 > 0 ,

1 1√
α1,2 = ± 1 − 8b
2 2
con α1 stabile e attrattivo, α2 repulsivo; per evitare l’estinzione, b va scelto
in modo tale che valga α2 = α2 (b) < X0 , cioè (poiché X0 è un dato mentre
b è la quantità che possiamo scegliere) b deve verificare:


⎨ 0<b< 1 1
se X0 ≥ ,
1 
8 2 (3.5)
⎪ 2 1
⎩ b< X0 − (X0 ) se 0 < X0 < .
2 2
114 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Se b = 1/8, vi è un solo equilibrio α1 = α2 = 1/2. Inoltre f  (α1 ) = 1 ed f


è concava. Pertanto l’equilibrio risulta semistabile superiormente ed instabile
inferiormente. Per evitare l’estinzione deve quindi risultare X0 ≥ 1/2. Si noti
che la situazione è pericolosa: se X0 < 1/2 si ha estinzione e se X0 ≥ 1/2,
dopo essersi avvicinati rapidamente all’equilibrio, si rischia per effetto di una
piccola perturbazione di cadere nel bacino di −∞.
Se b > 1/8 non vi sono equilibri e tutte le traiettorie portano all’estinzione:
f (x) < x per ogni x implica Xk+1 < Xk per ogni k, dunque esiste il limite
ma non può essere finito perché non vi sono equilibri (vedi Teorema 3.25).
Dunque, ogni b ≤ 1/8 è una quantità sostenibile di pescato per una stra-
tegia che prevede un quantitativo fisso di pescato in ogni stagione di pesca,
purché b non sia eccessivo rispetto alla popolazione iniziale.
Tuttavia quella a quantità prefissata di pescato è una strategia insoddisfacente,
perché quanto più ci si avvicina alla massima quantità sostenibile (cioè b si
avvicina ad 1/8 e corrispondentemente α1 si avvicina ad α2 e ad 1/2) tanto
più alto è il rischio che una minima fluttuazione dipendente  da fattori
 non
controllabili porti la popolazione verso l’estinzione: se b < X0 − X02 /2, allo-
ra tutta l’evoluzione si svolge in (α2 , α1 ), tuttavia una piccola perturbazione
può portare nella regione {x < α2 } che si trova nel bacino di −∞.

Seconda strategia. Quantità proporzionale di pescato (in ciascun pas-


so): si cerca di catturare una frazione fissata r della popolazione di pesci, con
r nell’intervallo (0, 1).
Corrispondentemente, il s.d.d. diventa Xk+1 = 1, 5Xx − 0, 5Xk2 − rXk , cioè:

Xk+1 = (1, 5 − r) Xk − 0, 5Xk2 .

In tal caso gli equilibri risolvono 0, 5α2 = (0, 5 − r) α , dunque

α1 = 1 − 2r α2 = 0.

Posto f (x) = (1, 5 − r) x − 0, 5x2, risulta f  (x) = (1, 5 − r) − x e f  (0) =


1, 5 − r, cioè lo 0 è stabile ed attrattivo se e solo se 0, 5 < r < 2, 5.
Ma a noi interessa r ∈ (0, 1) e, dunque, 0 è instabile (che è una buona proprie-
tà per la strategia in esame) se 0 < r ≤ 0, 5 (l’instabilità per r = 0, 5 segue
dal Teorema 3.62).
Studiamo l’altro equilibrio α1 = 1 − 2r. Da f  (1 − 2r) = 0, 5 + r segue che
• se 0 < r < 0, 5 allora α1 è stabile;
• se r > 0, 5 allora α1 è repulsivo;
• se r = 0, 5 allora α1 = α2 = 0 è equilibrio stabile superiormente (repulsivo
inferiormente).

Cerchiamo equilibri stabili positivi e quindi, per 0 < r < 0, 5 , α1 = 1 − 2r è


l’unico equilibrio positivo ed è stabile. Poiché α1 è attrattivo, allora Xk con-
verge ad α1 > 0 ed il pescato P (pari a rXk ) tende a stabilizzarsi nel lungo
3.7 Strategie di pesca 115

I) II)

α2 α1 α1

III)
I) b = 0, 04 < 1/8; X0 = 1, 5

II) b = 1/8; X0 = 1, 5

III) 1/8 < b = 0, 18; X0 = 1, 5

Fig. 3.18. Prima strategia di pesca: quantità prefissata

periodo al valore
P (r) = r (1 − 2r) = r − 2r 2 .
La scelta di r che massimizza il pescato P nel lungo periodo è rmax = 1/4 con
Pmax = 1/8.
Dunque 1/8 è il massimo pescato sostenibile con la strategia a frazione fissa
ed è compatibile con la stabilità.

Confronto delle due strategie di pesca


Il massimo pescato sostenibile è lo stesso nei due casi. Tuttavia vi è una
enorme differenza: nel primo caso corrisponde ad una situazione instabile, nel
secondo ad una stabile.
Seguendo la seconda strategia, se il pescato supera il valore 1/8 o se la popo-
lazione diminuisce per altri motivi, anche la quantità di pescato diminuisce,
permettendo alla popolazione di riprendersi.
Dunque la strategia a proporzione fissata è decisamente superiore.
Tuttavia è difficile da applicare per la difficoltà di valutare la popolazione Xk
e, di conseguenza, la quantità ottima di pescato Xk /4 in ciascuna stagione k.
116 3 Sistemi dinamici discreti: equazioni scalari ad un passo

I) II)

α2 α1 α2 α1

III)
I) r = 1/8 < 1/2; X0 = 0, 2 < α1

II) r = 1/8 < 1/2; X0 = 1, 3 > α1

III) r = 1/2; X0 = 1, 3 α1 = α2

Fig. 3.19. Seconda strategia di pesca: quantità proporzionale

In pratica, si tenta di applicare una “efficacia” costante della pesca: ad e-


sempio, pescare solo un numero fissato di giorni alla settimana (nella sola
stagione di pesca, ben lontana dal periodo riproduttivo) dovrebbe dare un
risultato proporzionale a Xk , il cui valore è difficile misurare con precisione.
Osserviamo inoltre che con i parametri da noi scelti nell’equazione di parten-
za il massimo pescato sostenibile Pmax è il 25% della popolazione. In gene-
rale, anche con altri parametri, se si tenta di ottenere risultati superiori al
massimo sostenibile si determina un drammatico calo della popolazione e di
conseguenza un altrettanto drammatico calo nella pesca.
Esercizio 3.19. Verificare che con altri parametri, ad esempio 1, 7 e 0, 7, o, più in
generale, con 1 + a ed a, con 0 < a < 2, si ottengono gli stessi risultati qualitativi
dell’esempio analizzato.
Esercizio 3.20. Osserviamo che modelli di strategia di pesca più realistici dovreb-
bero tenere conto del fatto che riproduzione ed attività di pesca avvengono in tempi
successivi. Ad esempio, proporzione fissata pescata prima della riproduzione:

Yk+1 = 1, 5 (1 − r) Yk − 0, 5 (1 − r)2 (Yk )2 ;

oppure, proporzione fissata pescata dopo la riproduzione:

Zk+1 = 1, 5 (1 − r) Zk − 0, 5 (1 − r) (Zk )2 .

Si provi a confrontare tali dinamiche, ed a modellare la prima strategia (quantità


prefissata) con la pesca effettuata prima oppure dopo la riproduzione.
3.8 Studio qualitativo e stabilità delle orbite periodiche 117

3.8 Studio qualitativo e stabilità delle orbite periodiche

Quando una funzione f : I → I è dotata di una o più derivate continue,


è possibile ottenere informazioni sulla stabilità e/o la stabilità asintotica di
orbite periodiche del s.d.d. {I, f} mediante semplici test.
Cominciamo, per semplicità, a considerare s.d.d. con orbite di periodo 2, espli-
citando le Definizioni 3.48 e 3.49.
La coppia {α0 , α1} costituisce un’orbita 2 periodica (o 2 ciclo) per il s.d.d.
{I, f} se
α0 = α1 f (α0 ) = α1 f (α1 ) = α0
e quindi
f 2k (α0 ) = α0 f 2k+1 (α0 ) = α1 k ∈ N.

Definizione 3.67. Il 2 ciclo {α0 , α1 } è localmente asintoticamente sta-


bile se
per ogni ε > 0 esiste δ > 0 tale che
⎧   
⎨ f 2k (X0 ) − α0  < ε, f 2k+1 (X0 ) − α1  < ε ∀k
X0 ∈ (α0 − δ, α0 + δ) ⇒
⎩ lim f 2k (X0 ) = α0 lim f 2k+1 (X0 ) = α1
k k
⎧   
⎨ f 2k (X1 ) − α1  < ε, f 2k+1 (X1 ) − α0  < ε ∀k
X1 ∈ (α1 − δ, α1 + δ) ⇒
⎩ lim f 2k (X1 ) = α1 lim f 2k+1 (X1 ) = α0
k k

cioè, se |X0 − α0 | < δ e |X1 − α1 | < δ , posto Xk = f k (X0 ), k ∈ N, allora:


• i termini pari X2k rimangono uniformemente vicini ad α0 e convergono
ad α0 ;
• i termini dispari X2k+1 rimangono uniformemente vicini ad α1 e conver-
gono ad α1 .

Un 2 ciclo è detto repulsivo quando è un insieme repulsivo.

Per discutere la eventuale stabilità di un 2 ciclo {α0 , α1} relativo al s.d.d.


{I, f} studiamo il s.d.d. {I, g} dove g = f 2 , analogamente alla discussione
svolta per un equilibrio α con f  (α) = −1 (Lemma 3.64 e Teorema 3.65).
Premesso che un equilibrio di f 2 corrisponde o a un equilibrio o a un 2 ciclo
di f, con dimostrazione analoga a quella del Lemma 3.64, si può provare il
seguente

Lemma 3.68. Sia f : I → I una funzione continua.


Allora {α0 , α1 } è un 2 ciclo per il s.d.d. {I, f} se e solo se
!
α0 , α1 = f (α0 ) sono equilibri di I, f 2 ma non di {I, f} .
118 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Un 2 ciclo {α0 , α1} per {I, f} è stabile (rispettivamente attrattivo, repulsivo)


se e solo se sono stabili (rispettivamente,
! attrattivi, repulsivi) entrambi gli
equilibri distinti α0 ed α1 per I, f 2 .

Ne segue, applicando il Teorema 3.57 agli equilibri di f 2 , che


     
     
se {α0 , α1} è un 2 ciclo di {I, f} t.c.  f 2 (α0 ) < 1 e  f 2 (α1 ) < 1
allora {α0 , α1 } è un 2 ciclo localmente asintoticamente stabile;
     
     
se {α0 , α1} è un 2 ciclo di {I, f} t.c.  f 2 (α0 ) > 1 o  f 2 (α1 ) > 1
allora {α0 , α1 } è un 2 ciclo repulsivo.
(3.6)
Osserviamo che la (3.6) è una condizione la cui verifica diretta negli esempi
e nelle applicazioni conduce a calcoli inutilmente laboriosi di composizione e
derivazione. Invece, l’enunciato seguente, del tutto equivalente a (3.6), è più
esplicito e può essere utile nei calcoli.

Teorema 3.69. Sia f ∈ C 1 (I) e sia {α0 , α1 } un 2 ciclo per il s.d.d. {I, f}.
Allora

|f  (α0 ) f  (α1 )| < 1 ⇒ {α0 , α1} localmente asintoticamente stabile

|f  (α0 ) f  (α1 )| > 1 ⇒ {α0 , α1} repulsivo

Prova. Basta applicare (3.6) sfruttando la relazione


 2   
f (α0 ) = f  (f (α0 )) f  (α0 ) = f  (α1 ) f  (α0) = f 2 (α1 ) . 

Esempio 3.70. Determiniamo eventuali orbite 2 periodiche del s.d.d.


{[0, 1] , 13x (1 − x) /4}. A tal fine, dopo aver osservato che
13 9
x (1 − x) = x ⇔ x = 0 oppure x =
4 13
esplicitiamo l’iterata seconda di f
( )( )  
13 13 13 169 13 13
f 2 (x)= x (1 − x) 1 − x(1 − x) = x (1 − x) 1 − x + x2 .
4 4 4 16 4 4

I suoi punti fissi, diversi da 0 e 9/13, sono le soluzioni di f 2 (x) = x, tali che
f (x) = x, cioè

2197 2 2873 221 17 ± 17
− x + x− = 0 ⇔ x1,2 = .
64 64 16 26
3.8 Studio qualitativo e stabilità delle orbite periodiche 119

Da f  (x) = 13 (1 − 2x) /4, si deduce:


     1  √ √ 
  17−√17  17+√17  1
f 26 f 26  = (−4 + 17)(−4 − 17) = <1
16 16
e grazie al Teorema 3.69 possiamo concludere che l’orbita 2 periodica
 √ √ *
17 − 17 17 + 17
,
26 26

è localmente asintoticamente stabile (vedi Fig. 3.20). 

√  
Esempio 3.71. Dato il s.d.d. {[0, 1] , f}, con f (x) = (1 + 2 2) x − x2 , de-
terminiamo le orbite 2 periodiche e studiamone la stabilità.
Sulla base del Lemma 3.68, cerchiamo i punti fissi di
√ & √ '& √ '
f 2 (x) = f (f(x)) = (1 + 2 2) (1 + 2 2)x(1 − x) 1 − (1 + 2 2)x(1 − x) =
√  √ √ 
= (9 + 4 2)x(1 − x) 1 − (1 + 2 2)x + (1 + 2 2)x2

che non siano anche punti fissi di f: (1 + 2 2)x (1 − x) = x, cioè diversi dai
due valori √
8−2 2
0 .
7
Sotto tali condizioni, con qualche calcolo, si ricava
√ √
2 4− 2 2+3 2
f (x) = x ⇔ x1 = oppure x2 = .
7 7

13 √
f(x) = 4 (x − x2 ) f(x) = (1 + 2 2)(x − x2 )

Fig. 3.20. Grafici di f e della sua iterata f 2 sull’intervallo [0, 1] (due esempi)
120 3 Sistemi dinamici discreti: equazioni scalari ad un passo
 √   √  !
Per studiare la stabilità dell’orbita periodica 4 − 2 /7, 2 + 3 2 /7 os-

serviamo che da f  (x) = (1 + 2 2) (1 − 2x) segue
  √   
  4− 2  2+3√2 
f 7 f 7  = |−3| > 1

e grazie al Teorema 3.69 concludiamo che l’orbita è repulsiva. 

Osservazione 3.72. Se {α0 , α1, . . . , αs−1} è un s ciclo per il s.d.d. {I, f} con
f ∈ C 1 (I), allora, per j = 0, 1, . . . , s − 1, vale l’identità
    
(f s ) (αj ) = f  f s−1 (αj ) f  f s−2 (αj ) · · · f  (αj ) =
= f  (α0 ) f  (α1 ) · · · f  (αs−1 )

cioè il numero (f s ) (αj ) non dipende da αj ma (come è naturale) dipende
da tutto il ciclo e può essere valutato senza bisogno di composizioni ma solo
moltiplicando tra loro le derivate in tutti i punti dell’orbita s periodica.
Se ne deduce, con lo stesso ragionamento utilizzato per provare il Teorema
3.69, una caratterizzazione della stabilità per gli s cicli.

Teorema 3.73. Sia f : I → I, f ∈ C 1 (I) e {α0 , α1, . . . , αs−1} un s ciclo per


il s.d.d. {I, f}. Allora

|f  (α0 ) f  (α1 ) · · · f  (αs−1 )| < 1 ⇒ s ciclo loc. asintot. stabile

|f  (α0 ) f  (α1 ) · · · f  (αs−1 )| > 1 ⇒ s ciclo repulsivo

I Teoremi 3.69 e 3.73 sono di applicazione molto semplice se il ciclo è noto. Ma


la difficoltà vera consiste nel sapere se esiste un s ciclo e nella sua effettiva de-
terminazione.Per convincersene basta pensare che già  nel caso
 di f polinomio
di secondo grado, ad esempio I = [0, 1] e f (x) = 4 x − x2 , per determinare
un 4 ciclo occorre trovare i punti fissi di f 4 , cioè risolvere f 4 (x) − x = 0 che
è una equazione di sedicesimo grado!

3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari

Come si è già detto, non sono noti metodi generali per esplicitare leggi ricor-
sive non lineari. Tuttavia nei casi in cui mediante opportune trasformazioni
(necessariamente non lineari) dell’incognita ci si riconduce ad un problema
lineare nell’incognita trasformata, è possibile esplicitare la soluzione utiliz-
zando i risultati relativi ai s.d.d. lineari (un caso particolare è stato discusso
nel paragrafo 2.7).
3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari 121

Consideriamo la successione X assegnata mediante una legge ricorsiva

Xk+1 = f (Xk )

dove è noto X0 ∈ I, I intervallo, e f : I → I è una funzione non di tipo lineare


affine.
Dunque X è una traiettoria del s.d.d. {I, f}.

Teorema 3.74. Sia f : I → I una funzione continua con derivata continua,


sia b una costante reale diversa da 0 e da 1, g : I → R una funzione continua
che verifica l’identità
b g(f (x)) = g(x) f  (x) (3.7)
e la condizione
g (t) = 0 ∀t ∈ I.
Se la funzione ψ : I → R è definita da
2 x
dt
ψ (x) = +c (3.8)
X0 g(t)
2 X1
1 dt
dove c = , si ottiene l’espressione esplicita delle traiettorie
b−1 X0 g(t)
del s.d.d. {I, f}:

 
Xk = ψ−1 bk ψ (X0 ) (3.9)

dove ψ−1 denota la funzione inversa di ψ 3


.

Osservazione 3.75. Si osservi che dal teorema fondamentale del calcolo in-
tegrale segue che ψ ∈ C 1 (I) e ψ (x) = 1/g (x) è sempre dello stesso segno in I
perché g è continua e diversa da zero nell’intervallo I. Dunque ψ è strettamente
monotòna e quindi invertibile.
Ne segue che l’identità (3.7) può essere soddisfatta solo in intervalli in cui f
è strettamente monotòna.

Osservazione 3.76. La maggior difficoltà che si incontra negli esempi è ri-


solvere l’equazione funzionale (3.7) nell’incognita g.

3
La tesi del Teorema 3.74 vale, più in generale, anche se g si annulla in un numero
finito di punti di I, purché g non cambi segno e la funzione 1/g risulti integrabile in
senso improprio su I.
122 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Prova del Teorema 3.74. Poiché ψ, f ∈ C 1 (I) (cfr. Osservazione 3.75), applicando
la regola di derivazione delle funzioni composte, si ottiene

d f  (x) per la (3.7)


ψ (f (x)) = ψ (f (x)) f  (x) = =
dx g (f (x))
b
= = b ψ (x) .
g (x)

Integrando da X0 ad x e ponendo uguale a zero la costante indeterminata,


ψ (f (X0 )) − bψ (X0 ) = 0 , si ricava

ψ (f (x)) = bψ (x) (3.10)

da cui , ricordando che X1 = f (X0 ) , si ottiene c = ψ (X0 ) = ψ (X1 ) /b e


' X dt
c = ψ (X1 ) − X01 e quindi
g (t)
 X1
1 dt
c= .
b−1 X0 g (t)

Sostituendo Xk ad x in (3.10), tenendo conto che Xk+1 = f (Xk ), otteniamo

ψ (Xk+1 ) = bψ (Xk ) k∈N

e con la sostituzione
Yk = ψ (Xk ) k∈N
giungiamo a
Yk+1 = bYk k∈N
Y0 = ψ (X0 )
la cui soluzione esplicita è
Yk = bk Y0 = bk ψ (X0 )
da cui  
Xk = ψ−1 bk ψ (X0 ) . 
 
Esempio 3.77. Studio della logistica di parametro a : ha (x) = a x − x2 . In
questo caso l’equazione (3.7) corrisponde alla ricerca di b e g tali che g (x) = 0,
b = 0, b = 1 e  
b g ax − ax2 = g(x) a (1 − 2x) . (3.11)
Un tentativo di soluzione della (3.11) è la ricerca di g lineare affine, cioè
g (x) = γx + δ: sostituendo tale g nella (3.11) si ottiene

−bγax2 + bγax + bδ = −2aγx2 + (aγ − 2aδ) x + aδ.

Uguagliando i coefficienti delle potenze corrispondenti di x, ricaviamo

b=a=2 γ = −2δ.

Dunque la scelta di g lineare affine consente di risolvere solo il caso a = 2.


3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari 123

Scegliamo γ = −1, δ = 1/2, ottenendo b = 2 e g (x) = −x + 1/2. Notiamo che


g si annulla in x = 1/2. Tuttavia basterà limitarsi all’intervallo (−∞, 1/2) do-
ve g non si annulla e non cambia segno poiché maxR h2 (x) = 1/2 = h2 (1/2).
Infatti, le traiettorie del s.d.d. diverse dalla traiettoria costante 1/2 assumono
solo valori strettamente minori di 1/2.
Sostituendo in (3.8), con X0 ∈ (−∞, 1/2), si ottiene
2 2 2
x
dt X1
dt (1 − 2X0 )
ψ (x) = 1 + 1 = ln = − ln (1 − 2x)
X0 2
−t X0 2
−t (1 − 2x) (1 − 2X1 )

1 
x= 1 − e−ψ
2
1
cioè ψ−1 (s) = 2 (1 − e−s ). A questo punto la (3.9) fornisce

1 1   1 2k

Xk = − exp −2k (− ln (1 − 2X0 )) = 1 − (1 − 2X0 ) .
2 2 2
Concludendo,

le traiettorie della logistica h2 con dato iniziale X0 ∈ R sono

1 2k

Xk = 1 − (1 − 2X0 ) k∈N
2

Il lettore verifichi che tale soluzione esplicita è valida anche nei casi X0 ≥ 1/2
e soddisfa le proprietà di monotonia e convergenza deducibili dallo studio
qualitativo con le tecniche dei paragrafi 3.1, 3.2 e 3.3 . 

Il Teorema 3.74 opera in ipotesi alquanto restrittive: richiede essenzialmen-


te f monotòna in tutto I (si veda l’Osservazione 3.75). Per trattare il caso
di f non monotòna (ad esempio, la logistica) occorre fare degli adattamenti
qualora, a differenza dell’esempio precedente, non si sappia a priori che le tra-
iettorie del sistema dinamico sono definitivamente contenute in un intervallo
di monotonia di f.
Nel caso in cui 0 ∈ I e 0 è equilibrio del s.d.d. (cioè f (0) = 0) si possono ripe-
tere gli argomenti della dimostrazione del Teorema 3.74, in ciascun intervallo
di monotonia di f: è utile considerare b = b (x) costante a tratti, più precisa-
mente, |b| costante e sign(b (x)) = sign(f  (x)), cioè b costante negli intervalli
Ij di monotonia di f.
In ciascun Ij si potrà costruire una funzione ψj ed una sua funzione inversa
ψj−1 . Sia Ψ la funzione ottenuta raccordando le ψj e sia Φ la funzione ottenuta
raccordando fra loro le ψj−1 , allora (cambiando variabili) il s.d.d. {I, Φ ◦ f}
pur non essendo lineare, ha una forma sufficientemente semplice per ottenere
124 3 Sistemi dinamici discreti: equazioni scalari ad un passo

ancora delle informazioni:

Yk+1 = b (Yk ) Yk .
k
Il modulo della soluzione si ottiene facilmente: |Yk | = |b| |Y0 |.
Se, inoltre, Φ risulta pari, allora
 
Xk = Φ (Yk ) = Φ (|Yk |) = Φ bk Ψ (X0 ) .

Illustriamo in un caso particolarmente interessante le considerazioni prece-


denti.

Esempio 3.78. Ancora sulla logistica ha . Consideriamo delle soluzioni di


(3.11) del tipo 
g (t) = t (1 − t)
che è una funzione positiva in (0, 1). Si ottiene
 
b a (x − x2 ) (1 − a (x − x2 )) = x (1 − x) a (1 − 2x)

equivalente per x ∈ (0, 1) a

b 
√ 1 − ax + ax2 = 1 − 2x
a

che è una identità in x solo per (si rilegga l’enunciato del Teorema 3.74):
a = 4 e b = 2, se x ∈ [0, 1/2);
a = 4 e b = −2, se x ∈ (1/2, 1];
∀a, b con a > 0 se x = 1/2, 0, 1 .
Poiché 0 ∈ I e f (0) = 0, si ha
2 x 2 x
dt dt √
ψ1 (x) =  = √√ = 2 arcsin x x ∈ [0, 1/2] .
0 t (1 − t) 0 t 1−t

Risulta così   2


ψ1−1 (y) = sin 12 y y ∈ [0, π/2] .
Inoltre
2
π x
−1 √
ψ2 (x) = +  dt = π − 2 arcsin x x ∈ [1/2, 1]
2 1/2 t (1 − t)
  2
ψ2−1 (y) = cos 12 y .
3.10 Esercizi di riepilogo 125

La conclusione si ottiene sostituendo b, ψ e ψ−1 nella (3.9).

Le traiettorie della logistica h4 con dato iniziale X0 ∈ [0, 1] sono


  √ 2
Xk = sin 2k arcsin X0 ∀k ∈ N

(3.12)
Verifichiamo√ la correttezza della formula trovata, ponendo per comodità
A = arcsin X0 :
  2    2    2   2
f (Xk ) = 4 sin 2k A 1 − sin 2k A = 4 sin 2k A cos 2k A =
 k+1 
= sin 2 A = Xk+1 .

In conclusione, la (3.12) fornisce esplicitamente le traiettorie. Nonostante l’ap-


parente semplicità di tale espressione le traiettorie del s.d.d. {[0, 1] , h4 } pre-
sentano una sorprendente ricchezza di struttura, come vedremo nel Capitolo
4. In particolare, per quasi tutti i valori iniziali, la traiettoria {Xk } ha un
andamento erratico e non periodico in [0, 1]. 

3.10 Esercizi di riepilogo


Esercizio 3.21. Utilizzando le tecniche del paragrafo 3.6, si discuta la stabilità di
eventuali equilibri del sistema dinamico {R, ax + b}.
Esercizio 3.22. Sia data la successione

4
Yk+1 = 1 − arctan Yk ∀k ∈ N\ {0}
π
Y0 = a

Per a = 4 determinare l’andamento della successione, provare che ha limite per


k → +∞ e calcolarne il valore.
Per quali altri valori reali di a la successione ammette limite?
Esercizio 3.23. Determinare al variare del parametro reale non negativo a il com-
portamento asintotico della successione

1 4
Yk+1 = Yk2 +
3 3
Y0 = a

Esercizio 3.24. Al variare del parametro reale non negativo a, determinare il com-
portamento asintotico della successione

1 6
Yk+1 = Yk2 +
5 5
Y0 = a
126 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Esercizio 3.25. Determinare, al variare di a > 0, il limite della successione


⎨ 1
Yk+1 = 2Yk exp − Yk ∀k ∈ N
2

Y0 = a

Esercizio 3.26. Assegnati due numeri reali positivi a, b tali che a > b > 0, si
consideri la successione Y definita per ricorrenza:

⎨ 1 b
Yk+1 = Yk + ∀k ∈ N
2 Yk

Y1 = a

Mostrare che Yk è ben definita per ogni k, che è monotòna decrescente, che
√ esiste il
limite L di Yk per k → +∞ e calcolarlo. Cosa si può dire nel caso Y1 = b?
Posto k = |Yk − L|, mostrare che

2
k+1 = √k .
2 b

Calcolare 3 a meno di 10−7 .
( ) √
Esercizio 3.27. Provare che 6 + 6 + 6 + · · · = 3 .
Esercizio 3.28. Data g : R → R priva di punti fissi, posto f (x) = g (x) − x e
Yk+1 = Yk + f (Yk ), dimostrare che se il massimo assoluto di f è strettamente ne-
gativo, allora Yk → −∞, mentre se il minimo assoluto di f è strettamente positivo
allora Yk → +∞.
Esercizio 3.29. Un tipo di batterio si suddivide in due batteri con le sue stesse
caratteristiche oppure muore. Sia p la probabilità di suddivisione di ciascuno di tali
batteri (e di tutta l’eventuale discendenza). Qual è la probabilità s che la discendenza
di tale batterio non si estingua mai?
Esercizio 3.30. Studiare graficamente il s.d.d. {I, f } con I = [0, 1] ed
1
f (x) = sin (πx).

Esercizio 3.31. Studiare graficamente il s.d.d. {I, f } con I = [0, 1] ed
f (x) = sin (πx).
Esercizio 3.32. Mostrare che esiste α ∈ (0, 1) tale che limk→+∞ cosk x = α per
ogni x ∈ R.
Ricavare numericamente il valore α = 0, 73909 . . . .
Suggerimento: mostrare che tutte le orbite del s.d.d. {I, cos x} sono attratte dall’u-
nico equilibrio α.
Stimare tale equilibrio e mostrare che è stabile.
Esercizio
% &3.33. Determinare eventuali equilibri, studiandone la stabilità, del s.d.d.
R, x + x3 .
Esercizio
% &3.34. Determinare eventuali equilibri, studiandone la stabilità, del s.d.d.
R+ , x−2 .
3.10 Esercizi di riepilogo 127

Esercizio 3.35. Si studi al variare del parametro reale β la successione definita per
ricorrenza

Xk+1 = fβ (Xk ) con fβ (x) = β + x.

Esercizio 3.36. Dato il s.d.d. {[0, 1] , T } ove



2x 0 ≤ x < 1/2
T (x) =
2 (1 − x) 1/2 ≤ x ≤ 1

mostrare che il dato iniziale X0 = 1/7 genera una traiettoria definitivamente 3 perio-
dica e che il s.d.d. presenta due orbite di periodo 3 entrambe instabili (Suggerimento:
si studi graficamente l’equazione T 3 (x) = x ).

Esercizio 3.37. Assegnata f ∈ C 1 (I), con I ⊂ R intervallo ed 1 + f  (x) = 0 per


ogni x ∈ I, dimostrare che il s.d.d. {I, f } non ha orbite di minimo periodo 2.

Esercizio 3.38. (a) Assegnato il numero reale α, determinare un’espressione non


ricorsiva di Xk
Xk+2 = Xk+1 + Xk k∈N
X1 = 1, X2 = α
(b) Studiare il comportamento della successione Yk definita da
1
Yk+1 = k≥2
1 + Yk
Y2 = 1

(c) Sfruttando il punto (a) scrivere un’espressione non ricorsiva per Yk .


(d) Al variare del parametro β ∈ R, studiare il sistema dinamico discreto
1
Zk+1 = k≥2
1 + Zk .
Zk = β

Esercizio 3.39. Studiare il s.d.d. definito da Xk+2 = (Xk+1 )5 / (Xk )6 .

Esercizio 3.40. a) Studiare i s.d.d.


√ 1
Xk+1 = 1 + Xk Xk+1 = 1 + con X0 > 0 .
Xk
b) Provare che tutte le traiettorie dei due s.d.d. convergono allo stesso equilibrio
(in modo monotòno nel primo caso, oscillando nel secondo), cioè vale la seguente
identità tra un radicale iterato ed una frazione continua:
* + (
√ 1
1 + 1 + 1 + 1 +··· = 1 + .
1 + 1+ 1 1
1+···
4
Complessità dei sistemi dinamici non
lineari: biforcazioni e caos

Gran parte di questo capitolo è dedicato allo studio qualitativo del s.d.d.
associato alla crescita logistica discreta, sia per l’importanza di tale model-
lo matematico, sia perché, come vedremo in dettaglio, la dinamica ad esso
corrispondente è simile a quella di molti altri s.d.d. non lineari unimodali.
In tale studio incontreremo equilibri, orbite periodiche, biforcazioni e, in al-
cuni casi, anche comportamenti non banali che vengono definiti dinamiche
caotiche.
Alcune elementari nozioni di topologia, utili per la comprensione di questo
capitolo, sono richiamate in Appendice E.

4.1 Dinamica della crescita logistica


Consideriamo la crescita di una popolazione con tasso riproduttivo costante
che è un esempio rilevante di modello matematico discreto non lineare ad un
passo. Dalle osservazioni empiriche è chiaro che non esistono esempi di cresci-
ta illimitata di alcuna specie biologica. Come abbiamo già ricordato nel primo
capitolo (Esempi 1.12, 1.13), il modello malthusiano di crescita descritto dal
sistema dinamico lineare Xk+1 = aXk che fornisce successioni a crescita espo-
nenziale, necessita di correzioni poiché, anche trascurando la competizione con
altre specie e supponendo le risorse alimentari dell’habitat come illimitate, la
sovrappopolazione determina sempre fattori di competizione intraspecifica.
Per tenere conto di tali fenomeni sociali (una maggiore aggressività ed una
diminuita attitudine alla riproduzione) occorre introdurre nel modello dei ter-
mini che si oppongono alla crescita indiscriminata e contribuiscono a limitare
le dimensioni della popolazione entro valori sostenibili dall’ambiente.
La più semplice correzione che si può adottare è la modifica di Verhulst al
modello di Malthus, che consiste nel sostituire la relazione lineare con un
polinomio di secondo grado, ottenendo in tal modo il modello di crescita
E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione
UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_4, © Springer-Verlag Italia 2014
130 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

logistica:

Xk+1 = aXk (1 − Xk ) 0≤a≤4 (4.1)

Il polinomio ax (1 − x) si dice funzione logistica o mappa logistica ed il


suo grafico si dice parabola logistica. Nel modello (4.1), per piccole popola-
zioni prevale il termine lineare con coefficiente positivo, mentre per popolazio-
ni di grandi dimensioni prevale il termine quadratico di coefficiente negativo
(piccolo o grande hanno un significato relativo rispetto ai parametri in gio-
co e possono essere precisati quantitativamente). Si noti che la (4.1) si può
riscrivere come
Xk+1 = ha (Xk )
dove ha (x) = ax − ax2 , 0 ≤ a ≤ 4, e che se x ∈ [0, 1] allora ha (x) ∈ [0, 1].
Osserviamo esplicitamente che, per comodità di calcolo, si è effettuata una
normalizzazione delle unità di misura, cioè si considerano solo valori della
popolazione compresi tra 0 e 1. Quindi il coefficiente a (positivo per il suo
significato biologico) non deve superare il valore 4 affinché l’immagine di [0, 1]
mediante il polinomio ha sia contenuta in [0, 1] e, quindi, sia possibile il calcolo
delle iterate a partire da ogni dato X0 ∈ [0, 1] ottenendo Xk ∈ [0, 1] per ogni
k ∈ N.
Come nel modello di Malthus, anche nel modello logistico, quando è fissato il
valore iniziale della popolazione, tutta l’evoluzione è univocamente determina-

0 1

Fig. 4.1. Grafici di ha , a = 1/2, 1, 2, 3, 4: lo spessore del grafico cresce con a


4.1 Dinamica della crescita logistica 131

ta: diciamo che si tratta di modelli deterministici. Tuttavia, nel caso della
crescita logistica, non si ha più una descrizione qualitativa semplice dell’an-
damento di Xk , né tantomeno si può pensare a crescite indefinite, o estinzioni
per ogni dato iniziale e per ogni scelta del parametro positivo a; intervengono
invece oscillazioni ed altri fenomeni con una struttura molto complicata.
Anche senza un’analisi teorica, si può capire già da semplici esperimenti con
il metodo grafico, che si possono osservare molti tipi di comportamento qua-
litativo. Il lettore è invitato a fare degli esperimenti grafici sia a mano, sia al
computer, prima di proseguire (per generare le ragnatele si può utilizzare il
Notebook relativo proposto nell’Appendice H).
Cerchiamo di dare una idea di alcuni fenomeni che possono presentarsi, senza
alcuna pretesa di completezza; infatti, nonostante la formulazione del model-
lo sia elementare, la descrizione di tutte le sue soluzioni nasconde problemi
tutt’altro che elementari, e talora non risolti.
Consideriamo pertanto il s.d.d. {[0, 1] , ha } con a ∈ [0, 4].
Si può osservare graficamente (e si può dimostrare analiticamente) che, al cre-
scere del parametro a il comportamento qualitativo delle traiettorie cambia
radicalmente: il nostro scopo è quello di avere un’idea complessiva del quadro
delle traiettorie per tutti i valori di a. Per valori piccoli di a l’analisi è elemen-
tare, come vedremo nel seguito, ma al crescere di a la situazione è decisamente
più complessa e richiede l’introduzione di nuovi strumenti.
Il grafico di ha è una parabola di vertice (1/2, a/4), concava e simmetrica
rispetto alla retta verticale di equazione x = 1/2.
Risolvendo l’equazione ha (x) = x si deduce che il s.d.d. {[0, 1] , ha} ha sempre
l’equilibrio 0: tale equilibrio è unico se 0 ≤ a ≤ 1, invece, se 1 < a ≤ 4, ha
presenta anche il punto fisso αa = (a − 1) /a. Inoltre, ai valori iniziali 1 e (se
1 ≤ a ≤ 4) 1/a corrispondono traiettorie definitivamente costanti, giacché
ha (1) = 0 e ha (1/a) = αa.

h1/2 h1

0 1/2 1 0 1/2 1

Fig. 4.2 . Alcune ragnatele per ha a partire da X0 = 1/2 , per a = 1/2 ed a = 1


132 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Sulla base di quanto detto possiamo effettuare un’analisi qualitativa preli-


minare del quadro delle fasi di {[0, 1] , ha} al variare di a.
(I) Se a ∈ [0, 1], vi è il solo equilibrio 0; esso è globalmente asintoticamente
stabile, cioè tutte le traiettorie con dato iniziale X0 ∈ [0, 1] sono attratte da 0
che è equilibrio stabile. Infatti Xk+1 < Xk e ,

a ∈ [0, 1) ⇒ |ha (0)| = a < 1


a=1 ⇒ ha (0) = 1, ha (0) = −2a < 0

e la conclusione segue dai Teoremi 3.25, 3.57 e 3.62.


(II) Se 1 < a ≤ 4 vi sono due equilibri: 0 e αa. Precisamente 0 è instabile
(ha (0) = a > 1) e:
• se 1 < a < 3, allora αa è stabile ed attrattivo (|ha (αa)| = |2 − a| < 1) ed
il bacino di attrazione di αa è (0, 1);
• se a = 3, allora h3 (α3 ) = −1 e dunque α3 è stabile ed attrattivo per
l’Esempio 3.66;
• se 3 < a ≤ 4 anche αa è instabile (|ha (αa )| = a − 2 > 1).

(III) Se 3 < a ≤ 4 compare un’orbita di periodo 2. Infatti, h2a (x) = x ha


quattro soluzioni distinte di cui 2 sono 0 e αa (i punti fissi di ha ) e le altre
due appartengono all’unica traiettoria 2 periodica del s.d.d.

(IV) Se 3 < a < 1 + 6 = 3, 44949..., l’orbita 2 periodica è stabile ed
attrattiva, il motivo della stabilità si vedrà in seguito.

(V) Se a ≥ 1 + 6, l’analisi è molto più delicata e sarà oggetto dei paragrafi
successivi.
Proviamo una proposizione che sarà utile nel seguito e comunque chiarisce che
la parte significativa della dinamica associata ad ha si svolge in [0, 1].

Teorema 4.1. Consideriamo la mappa logistica ha in tutto R , con a > 1. Al-


lora tutti gli eventuali equilibri e le eventuali traiettorie periodiche di periodo
≥ 2 del s.d.d. {R, ha} sono contenute in [0, 1].

Prova. La parte relativa agli equilibri è una banale conseguenza dell’ipotesi a > 1.
Se s è un intero ≥ 2, allora, poiché 0 è un punto fisso di ha per ogni a e ha (1) = 0,
la tesi relativa alle orbite periodiche è dimostrata se si prova che tutte le soluzioni
di {x ∈ R : hsa (x) = x} sono contenute in [0, 1]. Proviamo questo fatto.
Se x < 0, allora ha (x) < x < 0, ricalcolando ha si ottiene ha2 (x) < ha (x) < x < 0,
e, iterando
hsa (x) < hs−1
a (x) < · · · < x ∀s ≥ 1.
Se x > 1 allora ha (x) < 0, e, iterando

hsa (x) < hs−1


a (x) < · · · < ha (x) < 0 < x ∀s ≥ 2. 
4.2 Il teorema di Sharkovsky 133

Il risultato appena dimostrato ci assicura che se a > 1, allora lo studio delle


iterate di ha può essere effettuato solo in [0, 1] senza perdere nulla della strut-
tura delle orbite di {R, I} perché ogni soluzione che non rimane confinata in
I è definitivamente decrescente strettamente.

4.2 Il teorema di Sharkovsky

Consideriamo il s.d.d. {R, f} dove f (x) = −3x2 + 5x/2 + 1/2. È immedia-


to verificare che {0, 1/2, 1} è un’orbita periodica di periodo 3: f (0) = 1/2,
f (1/2) = 1, f (1) = 0.
L’esempio precedente è stato costruito determinando l’unica funzione f del
tipo ax2 + bx + x passante per i punti (0, 1/2), (1/2, 1), (1, 0). Ci si potrebbe
chiedere quali e quante altre orbite periodiche vi sono per {R, f} . Una prima
risposta è fornita dal seguente sorprendente risultato.

Teorema 4.2. Se un s.d.d. {I, f}, con I intervallo contenuto in R, ammette


un’orbita periodica di periodo 3, allora {I, f} ha anche orbite periodiche di
periodo s, per ogni s intero positivo.

Il Teorema 4.2, già sorprendente in sé, è solo una piccola parte delle sorprese
relative alle orbite periodiche: si tratta di parte dell’informazione contenuta
nell’elegante risultato dimostrato nel 1964 da O.M. Sharkovsky1 , che enuncia-
mo nel seguito. Sottolineiamo che l’aspetto più interessante nella ricchezza di
struttura del quadro delle traiettorie di {I, f} è che la tesi segue dalla sola
ipotesi di continuità per f.

Xk+1 Xk

1/2

1/2 1 Xk
k
% &
Fig. 4.3. Orbita periodica {0, 1/2, 1} del s.d.d. R, −3x2 + 5x/2 + 1/2

1
Oleksandr Mikolaiovich Sharkovsky, 1936- .
134 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Definizione 4.3. Si dice ordinamento di Sharkovsky dei numeri natu-


rali, il seguente

1 ≺ 2 ≺ 22 ≺ 23 ≺ 24 ≺ · · · ≺ 9 · 2n ≺ 7 · 2n ≺ 5 · 2n ≺ 3 · 2n ≺ · · ·
≺ 9 · 22 ≺ 7 · 22 ≺ 5 · 22 ≺ 3 · 22 ≺ · · ·
≺9·2 ≺7·2 ≺5·2 ≺ 3·2 ≺ ···
≺9 ≺7 ≺5 ≺3

La relazione a ≺ b significa che a precede b nell’ordinamento. I primi puntini


sottintendono tutte le potenze di 2 in ordine crescente, i puntini successivi de-
notano tutte le potenze di 2 in ordine decrescente a fattore con tutti i numeri
dispari diversi da 1 in ordine decrescente (ad esempio, 7 · 24 ≺ 9 · 23 ).
Ogni numero naturale compare esattamente una ed una sola volta nell’ordi-
namento di Sharkovsky.

Teorema 4.4 (di Sharkovsky). Se f : I → I è una funzione continua


sull’intervallo I ⊆ R ed esiste un’orbita periodica di minimo periodo s per il
s.d.d. {I, f}, allora per ogni m ≺ s secondo l’ordinamento di Sharkovsky il
s.d.d. {I, f} ammette un’orbita periodica di minimo periodo m.

Osservazione 4.5. Il Teorema 4.4 è molto fine nel senso che si possono forni-
re esempi con orbite di periodo 5 senza orbite di periodo 3 e, più in generale,
se n ≺ s, si possono avere orbite di periodo n senza alcuna orbita di periodo s.

Esempio 4.6. Verifichiamo graficamente che il s.d.d. {[0, 1] , h3,1 } presenta


due equilibri ed una sola orbita periodica di periodo 2, ma che non vi è alcuna
altra orbita periodica coerentemente con il Teorema 4.4.
Il primo grafico di Fig. 4.4, mostra che vi sono due soli equilibri: 0 e 21/31
(gli equilibri non possono essere più di 2 perché h3,1 (x) = x è un’equazione
di secondo grado).
Dall’esame del secondo grafico, otteniamo quattro punti 2 periodici: 2 sono gli
equilibri già noti (0 e 21/31), gli altri due punti corrispondono necessariamente
ad un’orbita 2 periodica.

Fig. 4.4. Alcune iterazioni della logistica h3,1 : h3,1 , (h3,1 )2 , (h3,1 )4
4.2 Il teorema di Sharkovsky 135

Dall’esame del terzo grafico, si evidenziano solo quattro intersezioni con la


bisettrice del primo quadrante, cioè non si ha evidenza di altre radici diverse
dalle 4 già note, pertanto non vi sono orbite di minimo periodo pari a quat-
tro. Ma allora non ve ne sono di alcun altro periodo perché 4 precede tutti i
numeri diversi da 1 e 2 nell’ordinamento di Sharkovsky. 

A precisazione dell’argomento usato nell’esempio precedente, occorre ricorda-


re che, grazie al Teorema 4.1, se a > 1 allora tutti gli eventuali punti periodici
di ha sono situati nell’intervallo [0, 1] il che ci consente di tralasciare lo studio
della porzione di grafico in R\ [0, 1].
Per la dimostrazione completa del Teorema di Sharkovskii rinviamo a [6]. Qui
proviamo solo il Teorema 4.2 che ne costituisce un caso particolare: alla sua
dimostrazione premettiamo due lemmi.

Lemma 4.7. Siano I = [a, b] un intervallo chiuso e limitato, f : I → R una


funzione continua. Se f (I) ⊃ I allora esiste un punto fisso di f su I.

Prova. Poiché f (I) ⊃ I esistono c, d ∈ I tali che f (c) = a e f (d) = b. Se c = a


oppure d = b il lemma è dimostrato.
Altrimenti si ha c > a e d < b : in questo caso, posto g (x) = f (x) − x abbiamo
anche
g (c) = f (c) − c = a − c < 0 < b − d = f (d) − d = g (d) ;
grazie alla continuità di g, per il teorema di esistenza degli zeri esiste t nell’intervallo
di estremi c e d tale che g (t) = 0 cioè f (t) = t. 
La dimostrazione del lemma seguente è lasciata al lettore.

Lemma 4.8. Se U e V sono due intervalli chiusi e limitati ed f : U → R è


continua, allora V ⊂ f (U ) implica l’esistenza di un intervallo U0 ⊂ U tale
che f (U0 ) = V .

Osservazione 4.9. Il Lemma 4.7 non si estende al caso di funzioni di più


variabili: si può dare l’esempio di una funzione f : B → Rn , B ⊆ Rn , con B
compatto, non vuoto e tale che f (B) ⊃ B ma con f che non possiede punti
fissi in B (si veda l’Esempio 4.10).
In particolare, viene meno il Teorema 4.2 nel caso vettoriale, ossia in tal caso
il periodo 3 non implica necessariamente l’esistenza di tutti gli altri periodi
interi.
!
Esempio 4.10. Sia D = (x, y) ∈ R2 : x2 + y2 = 1, y ≥ 0 ed f : D → R2
definita in coordinate polari da f (ρ, θ) = (ρ, 2θ + π/2). Allora D ⊂ f (D) ma
f non ha punti fissi. 

Diamo per completezza la dimostrazione del Teorema 4.2 che può essere omes-
sa in una prima lettura senza pregiudicare la comprensione del seguito.
136 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Fig. 4.5. Intervalli I0 e I1

Prova del Teorema 4.2. Sia {a, b, c} l’orbita 3 periodica dove a < b < c. Supponiamo
f (a) = b, f (b) = c e f (c) = a (l’altro caso è analogo).
Siano I0 = [a, b] e I1 = [b, c]. Allora per il teorema dei valori intermedi

I1 ⊂ f (I0 ) , I0 ⊂ f (I1 ) , I1 ⊂ f (I1 ) .

Ma I1 ⊂ f (I1 ) implica, per il Lemma 4.7, l’esistenza di un punto fisso in I1 , dunque


esiste un equilibrio (cioè un’orbita di periodo 1).
Sia n > 1 ed n = 3: vogliamo mostrare l’esistenza di un’orbita n periodica.
Definiamo a tal fine gli intervalli chiusi Jk , k = 0, 1, . . . , n, tali che
(1) I1 = J0 ⊃ J1 ⊃ J2 ⊃ · · · ⊃ Jn ;
(2) f (Jk ) = Jk−1 k = 1, 2, . . . , n − 2;
(3) f k (Jk ) = I1 k = 1, 2,. . . , n − 2;
(4) f n−1 (Jn−1 ) = I0 ;
(5) f n (Jn ) = I1 .
Prima mostriamo che se esistono i Jn e sono verificate le condizioni (1)-(5), allora
esiste un’orbita periodica di minimo periodo n. Poi proveremo l’esistenza dei Jn .
La (5) ed il Lemma 4.7 assicurano l’esistenza di un punto p ∈ Jn tale che f n (p) =
p. Utilizziamo le (1)-(4) per mostrare che p ha minimo periodo n.
Per la (1) p ∈ I1 = [b, c] e per la (3)

f k (p) ∈ I1 k = 0, 1, . . . , n − 2

mentre per la (4) f n−1 (p) ∈ I0 = [a, b].


Deve essere p = c, altrimenti si avrebbe f (p) = f (c) = a ∈ / I1 e poiché f n−1 (p)
è l’unico elemento dell’orbita che non appartiene ad I1 ne seguirebbe n = 2 in
contraddizione con il periodo 3 di c.
Deve essere p = b; altrimenti, per assurdo, p = b e f 2 (p) = f 2 (b) = a ∈
/ I1 implica
n = 3, conclusione contraddittoria perché abbiamo supposto n = 3.
Riassumendo, p ∈ (b, c), f n−1 (p) ∈ I0 = [a, b] che è disgiunto da (b, c). Dunque
f n−1 (p) = p, cioè p non può avere minimo periodo n − 1.
Se il minimo periodo di p fosse strettamente minore di n − 1, allora la (3) ed il fatto
che p = b e p = c, implicherebbero che la traiettoria di p sia contenuta interamente
in (b, c), ma questo contraddice la (4). Dunque il minimo periodo di p è n.
Per mostrare l’esistenza dei Jn : sia n > 1 fissato. Costruiamo gli intervalli (dapprima
solo fino a Jn−2 ):
poniamo J0 = I1 . Poiché f (I1 ) ⊃ I1 , abbiamo f (J0 ) ⊃ J0 e per il Lemma 4.8
esiste J1 ⊂ J0 tale che f (J1 ) = J0 . Allora J1 ⊂ J0 implica f (J1 ) ⊃ J1 e si ripete il
ragionamento fino a k = n − 2, ottenendo le (1) e (2) fino ad n − 2.
4.2 Il teorema di Sharkovsky 137

Per provare la (3), osserviamo che dalla (2) si ha, per k = 1, 2, . . . , n − 2,

f 2 (Jk ) = f (f (Jk )) = f (Jk−1 ) = Jk−2 (k ≥ 2)


 
f 3 (Jk ) = f f 2 (Jk ) = f (Jk−2 ) = Jk−3 (k ≥ 3)
· · · = · · ·   
f k−1 (Jk ) = f f k−2 (Jk ) = f Jk−(k−2) = f (J2 ) = J1
 
f k (Jk ) = f f k−1 (Jk ) = f (J1 ) = J0 = I1

Per provare la (4) siamo ancora liberi di scegliere Jn−1 . Osserviamo che
 
f n−1 (Jn−2 ) = f f n−2 (Jn−2 ) = f (I1 )

e, da f (I1 ) ⊃ I0 , segue f n−1 (Jn−2 ) ⊃ I0 ; allora per il Lemma 4.8 esiste Jn−1 ⊂ Jn−2
tale che f n−1 (Jn−1 ) = I0 . Infine
 
f n (Jn−1 ) = f f n−1 (Jn−1 ) = f (I0 )

e f (I0 ) ⊃ I1 implica f n (Jn−1 ) ⊃ I1 , nuovamente per il Lemma 4.8 esiste Jn ⊂ Jn−1


tale che f n (Jn ) = I1 cioè la (5).

Pur senza fornire la dimostrazione completa del Teorema di Sharkovsky, os-


serviamo che, se è nota l’esistenza di un’orbita periodica per {I, f} di minimo
periodo qualsiasi allora si può provare facilmente l’esistenza di un punto fisso,
con f continua ed I intervallo. Infatti, se I è un intervallo chiuso e limita-
to, l’esistenza del punto fisso segue dal Corollario 3.24, altrimenti supposto
f (x) = x per ogni x ∈ I, sono possibili solo due casi: f (x) > x per ! ogni x,
oppure f (x) < x per ogni x. Ma se α, f (α) , f 2 (α) , . . . , f s−1 (α) è un’or-
bita s periodica, con s > 1, allora risulta nel primo caso α < f(α) < f 2 (α) <
· · · < f s (α) = α e nel secondo α > f(α) > · · · > f s (α) = α, conclusioni
comunque contraddittorie.
Concludiamo con un risultato il cui significato qualitativo è il seguente: se la
funzione f “non oscilla troppo” allora, per ogni fissato intero s, il s.d.d. {I, f}
può avere al più un numero finito di orbite di periodo esattamente s (tutta-
via può avere infinite orbite periodiche come è il caso dell’esempio presentato
all’inizio del paragrafo).

Definizione 4.11. Sia f : I → I di classe C 3 .


Chiamiamo derivata schwarziana di f, denotata con Df, la funzione (de-
finita in tutti i punti x di I tali che f  (x) = 0):
 2
f  (x) 3 f  (x)
(Df) (x) =  − .
f (x) 2 f  (x)

Teorema 4.12 (D. Singer, 1978). Sia {I, f} un s.d.d. con f ∈ C 3 (I)
ed f  si annulli al più in un numero finito di punti x1 , . . . , xm. Sia anche
138 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

(Df)(x) < 0, ∀x ∈ I\ {x1 , . . . , xm }. Allora, per ogni s ≥ 1, (I, f) può avere


solo un numero finito di orbite di periodo s.

Prova. Fissato s ∈ N\ {0}, studiamo f s . Si ha f s ∈ C 3 e (vedi l’Esercizio 4.2)

D (f s ) (x) < 0 x ∈ I\ {x1 , . . . , xm } .

Per mostrare la tesi basta provare che f s ha solo un numero finito di punti fissi, cioè
f s (x) = x ha un numero finito di soluzioni; per il teorema di Rolle, è sufficiente
verificare che l’equazione (f s ) (x) = 1 ha un numero finito di soluzioni in I.
Se questo fosse falso, allora, sempre per il Teorema di Rolle, (f s ) dovrebbe avere
una infinità di punti con derivata nulla ed una infinità di punti di minimo locale, e
in tali punti x si avrebbe
 
(f s ) (x) = 0 (f s ) (x) ≥ 0;

allora D (f s ) (x) < 0 implica (f s ) (x) < 0 e (f s ) (x) > 0. Dunque (f s ) è negativa
in infiniti punti x intercalati ad infiniti punti x in cui vale 1.
Ne segue l’esistenza di infiniti punti di I in cui (f s ) si annulla, cioè infiniti punti in
cui si annulla f  , in contraddizione con quanto supposto precedentemente. 

Il lettore è invitato a riflettere sul fatto che la tesi del Teorema 4.12 è banal-
mente vera per ogni f polinomio di secondo grado.

Osservazione 4.13. Se f : I → I, f ∈ C 3 con f (α) = α, f  (α) = −1


e (Df) (α) < 0, allora α è un equilibrio localmente asintoticamente stabile.
Infatti
2
2f  (α) + 3 (f  (α)) = −2 (Df) (α) > 0
e si può applicare il Teorema 3.65.

Esercizio 4.1. Determinare i parametri a, b e c in modo tale che tra le traiettorie


del s.d.d. {R, f } con f (x) = ax2 + bx + c vi sia il 3 ciclo {1, 2, 3}.

Esercizio 4.2. Verificare che, se f, g ∈ C 3 , allora la derivata schwarziana della


composizione f ◦ g è
 2
D (f ◦ g) (x) = (Df ) (g (x)) · g (x) + (Dg) (x) .

Esercizio 4.3. Provare il Lemma 4.8.

4.3 Biforcazioni di una famiglia ad un parametro di


s.d.d.
Con l’espressione famiglia ad un parametro di funzioni intendiamo una
collezione di funzioni fa ciascuna delle quali è individuata da un valore nume-
rico del parametro a che varia in un insieme numerico A. Analogamente, una
famiglia ad un parametro di sistemi dinamici discreti è una collezione
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 139

{I, fa } di s.d.d. dove fa : I → I e {fa }a∈A è una famiglia ad un parametro di


funzioni definite nello stesso intervallo I.
Ad esempio, l’insieme delle funzioni lineari da R in R è una famiglia ad un
parametro di funzioni fa (x) = ax ed a ∈ R è il parametro in questione.
La corrispondente famiglia di s.d.d. {R, fa} è stata studiata in dettaglio nel
Capitolo 2.
L’esempio più importante che vogliamo ulteriormente analizzare è quello della
dinamica logistica discreta ha , con a ∈ [0, 4].
Spesso i fenomeni fisici manifestano una dipendenza continua dai parametri
che figurano nelle leggi che li descrivono. Tuttavia in alcuni casi si manifestano
grandi cambiamenti in corrispondenza a piccole variazioni dei parametri, come
efficacemente si intende dire nel linguaggio comune mediante l’espressione “la
goccia che fa traboccare il vaso”. Lo studio delle biforcazioni si occupa appunto
di quelle particolari gocce: cioè studia i valori dei parametri che determinano
cambiamenti qualitativi rilevanti.
Studiamo in qualche esempio come varia il quadro delle traiettorie di una fa-
miglia ad un parametro di s.d.d., al variare di tale parametro. Per fare questo
si cerca di riassumere tutte le informazioni qualitative in un unico diagramma,
detto diagramma di biforcazione di {I, f}:
nell’insieme A × I si riportano i punti fissi di fa e delle sue iterate in funzione
di a, si determinano i valori di a per cui tali punti sono attrattivi e si rappre-
senta graficamente questa situazione mediante frecce verticali che puntano agli
equilibri; nelle regioni in cui gli equilibri sono repulsivi le frecce verticali se ne
allontanano, con gli ovvi cambiamenti si rappresentano gli equilibri nel caso
semistabile; si completa il diagramma con frecce verticali che siano coerenti
con la dinamica nelle regioni prive di punti fissi.
Esempio 4.14. Rappresentiamo in un diagramma di biforcazione la dinami-
ca associata alla famiglia fa (x) = ax di funzioni lineari, a ∈ R.
Se |a| < 1, il s.d.d. ha un solo equilibrio, 0, che è stabile e globalmente attrat-
tivo; se |a| > 1, allora 0 è ancora l’unico punto di equilibrio, ma è repulsivo;
se a = 1, vi sono infiniti equilibri stabili, né attrattivi, né repulsivi; se a = −1,
si hanno infinite orbite periodiche {α, −α}.

Fig. 4.6. Diagramma di biforcazione di {R, ax}


140 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Quando il valore di a cresce da −∞ a −1 (−1 escluso) la dinamica resta


qualitativamente invariata, analogamente se a varia in (−1, 1) o se a varia
in (1, +∞); ma quando a attraversa il valore −1 o il valore +1 si ha un
cambiamento repentino. 
È naturale cercare di formalizzare il fenomeno che corrisponde all’esistenza di
un valore a0 del parametro tale che la dinamica corrispondente ad a < a0 sia
diversa da quella corrispondente ad a > a0 .
Definizione 4.15. Sia fa : I → I una famiglia ad un parametro a ∈ A di
funzioni, I intervallo di R. Un valore a0 interno ad A si dice di biforcazione
per {I, fa } se esiste ε > 0 tale che il numero dei punti di equilibrio sommato
al numero dei punti distinti appartenenti ad orbite periodiche è costante in
(a0 − ε, a0 ) e in (a0 , a0 + ε), ma le due costanti differiscono.
Esempio 4.16. Sia I = R, fa (x) = aex , a ∈ R+ . Dall’analisi grafica dedu-
ciamo:
• se 0 < a < e−1 , allora fa ha due punti fissi x0 e x1 , con

0 < fa (x0 ) < 1 < fa (x1 )

dunque x0 è stabile e attrattivo, x1 è repulsivo. Il bacino di attrazione di


x0 è (−∞, x1 );
• se a = e−1 , allora fa ha un unico punto fisso x
 = 1, che risulta inferiormente
stabile ed attrattivo, superiormente instabile; il bacino di attrazione di xè
(−∞, 1);
• se a > e−1 , allora non vi sono punti fissi. Precisamente, da f (x) > x per
ogni x ∈ R, si deduce che per ogni dato iniziale reale x risulta limk f k (x) =
+∞ cioè non esistono punti fissi: dunque, per il teorema di Sharkovsky, se
a > e−1 non esistono neanche orbite periodiche.
L’analisi si può anche effettuare mediante il cambio di parametro b = ln a,
studiando la famiglia gb (x) = ex+b = fa (x) al variare di b in R. Con tale
scelta a = e−1 corrisponde a b = −1. In tal modo, scelti due valori b0 e b1
del parametro, i grafici di gb0 e gb1 si ottengono l’uno dall’altro mediante una
traslazione orizzontale di b1 − b0 .

b=− 1, 5 b=− 1 b=0

Fig. 4.7. Ragnatele relative ai s.d.d. {R, gb }, gb (x) = ex+b , b = −1, 5; −1; 0
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 141

x x

+1

+1

−1 O b
e−1
a
Fig. 4.8. Diagrammi di biforcazione: {R, fa } ,{R, gb }, fa (x) = aex , gb (x) = ex+b

O 1 2

Fig. 4.9. Diagramma di biforcazione di {R, a arctan x}, a ∈ [0, 2]

Si ottengono gli stessi risultati qualitativi con il valore di biforcazione b0 = −1


che corrisponde al valore di biforcazione a0 = e−1 . 
Esempio 4.17. Sia fa : R → R , fa (x) = a arctan x con a ∈ [0, 2].
Se 0 ≤ a ≤ 1, α = 0 è l’unico equilibrio globalmente asintoticamente stabile;
se 1 < a ≤ 2, lo 0 è ancora equilibrio ma diventa repulsivo ed appaiono
due altri equilibri, ±α, entrambi localmente asintoticamente stabili: il bacino
di attrazione di quello positivo è (0, +∞), il bacino di attrazione di quello
negativo è (−∞, 0). 
Per effettuare una analisi elementare dei punti di biforcazione di un s.d.d.
{I, f}, consideriamo in A × I l’insieme dei punti fissi e delle orbite periodiche:

7
{(a, α) ∈ A × I : fas (α) = α} .
s=1
142 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Sotto ipotesi ragionevoli circa la dipendenza di fa da a, tale insieme sarà


un’unione di curve regolari, le cui intersezioni hanno tangenti distinte e sono
isolate. In tale situazione, in base ad una analisi locale delle intersezioni, i
punti di biforcazione possono essere suddivisi in tre classi:
1) Una curva si ripiega in avanti o all’indietro (vedi Esempio 4.16). Questo
caso è denominato biforcazione sella-nodo.
2) Due curve si incontrano in un punto in un intorno del quale sono grafici
in base a. Questo caso è denominato biforcazione transcritica. Come
vedremo, la logistica ha presenta una biforcazione transcritica in a = 1.
3) Due curve si intersecano in un punto in cui una delle due si ripiega
in avanti o indietro (forchetta). La dinamica del s.d.d. associato può
corrispondere a una variazione del numero di equilibri (biforcazione a
forchetta, vedi Es. 4.15, a0 = 1) oppure ad un raddoppio di periodo
(vedi ha , a0 = 3).
Ad esempio (si veda la Fig. 4.10), possiamo considerare la famiglia ha di map-
pe logistiche (senza limitarci all’intervallo [0, 1]) come trasformazioni di R in
sè stesso al variare del parametro a, cioè i s.d.d. {R, ha } limitatamente ai
valori del parametro a compresi in [0, 4):
• se 0 < a < 1, allora vi sono due equilibri distinti: 0 localmente asintotica-
mente stabile e αa = (a − 1) /a, che è repulsivo;
• se a = 1, allora i due equilibri si riducono ad uno solo, lo 0, che è superior-
mente stabile ed attrattivo ed inferiormente instabile e repulsivo;
• se 1 < a < 3, allora 0 diventa repulsivo ed appare un altro equilibrio αa che
appartiene a (0, 1) ed è localmente asintoticamente stabile; dunque a = 1
è valore di biforcazione (transcritica);
• se a = 3, allora αa = 2/3 è localmente asintoticamente stabile: infatti
h3 (α3 ) = −1 e l’affermazione segue dall’Osservazione 3.66. È facile con-
vincersi mediante simulazioni numeriche che α3 attrae le orbite molto più
lentamente di αa con 1 < a < 3;
• se a > 3, allora anche αa è repulsivo (h (αa) = 2 − a < −1) e compa-
re un’orbita √2 periodica che si mantiene stabile ed attrattiva nel’intervallo
3 < a < 1 + 6; dunque, a = 3 è di biforcazione (raddoppio di periodo).

Ad illustrazione del caso 1 < a < 3, consideriamo ad esempio a = 2.

h1/2 h1 h2

1 1 1

Fig. 4.10. Parabole logistiche ha su R , a = 1/2, 1, 2


4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 143

1_
2

Fig. 4.11. Alcune iterate di h2 : h2 , h22 , h52 , h10


2

I grafici delle iterate di h2 suggeriscono la proprietà lim hk2 (x) = α2 = 1/2 se


k
0 < x < 1 (vedi Fig. 4.11). Si noti che la iterata decima ha un grafico con
tratti quasi verticali. La prova delle affermazioni relative all’orbita periodica
richiede un poco di analisi. Poiché

h2a (x) = a2 x (1 − x) (1 − ax (1 − x))

ricordando che α = 0 e αa sono equilibri per il s.d.d. {[0, 1] , ha } per a > 1,


la ricerca dei punti fissi di h2a si riduce alla soluzione di

1+a
ax2 − (1 + a) x + =0 x ∈ [0, 1] , 1<a<4.
a
L’equazione di secondo grado in x ammette due soluzioni βa e γa distinte e
diverse da 0 e da αa se e solo se a > 3 (vedi Esercizio 4.5):
 
a + 1 + (a + 1) (a − 3) a + 1 − (a + 1) (a − 3)
βa = γa = .
2a 2a
Dunque βa e γa appartengono all’orbita 2 periodica, infatti ha2 (x) = x è una
equazione di quarto grado, dunque non può avere altre soluzioni oltre 0, αa ,
βa e γa . In particolare {βa , γa } è l’unica orbita 2 periodica. Per studiare la
stabilità dell’orbita 2 periodica {βa , γa } osserviamo che da ha (x) = a (1 − 2x)
si deduce:
 
ha (βa ) = −1 − (a + 1) (a − 3) ha (γa ) = −1 + (a + 1) (a − 3)

ha (βa ) ha (γa ) = 1 − (a + 1) (a − 3) .


Tenuto conto che | ha (βa ) ha (γa )| < 1 se e solo se −2 < −(a + 1)(a − 3) < 0 ,
144 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

si deduce che,√ se a > 3, allora tale disequazione equivale a a2 − 2a − 5 < 0,


cioè a < 1 + 6 .
Da quanto ottenuto e dal Teorema 3.69 segue che se√a > 3 compare un’orbita
2 periodica,
√ che si mantiene stabile finché a < 1 + 6 e diventa instabile per
a > 1 + 6.

2<a<3 αa < 2/3


ha

0, 5 α a 0, 8

a=3 αa = 2/3
ha

0, 5 α a 0, 8

3<a<4 αa > 2/3


ha

0, 5 α a 0, 8

Fig. 4.12. Grafici di ha , h2a vicino all’equilibrio αa : a ∈ (2, 3), a = 3, a ∈ (3, 4)


4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 145

Fig. 4.13. Diagramma qualitativo di biforcazione per {R, ha }

Dunque a = 3 è di biforcazione per ha , e tale biforcazione è del tipo raddoppio


di periodo. Si noti che il ramo dei punti di equilibrio prosegue anche per a > 3,
ma non sono più equilibri stabili. Aumentando il valore del parametro a si in-
contrano nuove biforcazioni di tipo raddoppio di periodo, con la comparsa di
orbite di periodo 4, periodo 8 e così via: una cascata di raddoppi del periodo
corrispondenti alle potenze di due in accordo con la prima parte dell’ordina-
mento di Sharkovsky. Si può provare che, al crescere di a, in corrispondenza
ad un certo valore l’orbita 2 periodica diviene instabile e repulsiva e che questo
si verifica contemporaneamente alla comparsa di un’orbita 4 periodica stabile
ed attrattiva.
Proseguendo nell’analisi della logistica, al crescere del parametro a, si incon-
trano tutte le orbite con periodi 2n , n ∈ N, cioè si ha una cascata di raddoppi
di periodo. Precisamente esse compaiono tutte, ben prima di raggiungere il
valore 4, come proveremo nei paragrafi successivi.
Si comprende bene come la dinamica di ha risulti particolarmente complessa
quando a varia da 3 a 4. Per cercare di chiarirne la struttura utilizziamo un
risultato dovuto a Fatou2 , la cui dimostrazione è omessa.
!
Teorema 4.18 (di Fatou). Se il s.d.d. R, ax2 + bx + c con a = 0 ha
un’orbita periodica attrattiva, allora il valore critico −b/2a (lo zero della de-
rivata) è nel bacino di attrazione di tale orbita.

Corollario 4.19. Un polinomio quadratico può avere al più un’orbita perio-


dica attrattiva e stabile.

2
Pierre Joseph Louis Fatou, 1878-1929.
146 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Riassumendo le considerazioni precedenti: le orbite nella dinamica di un poli-


nomio quadratico possono essere molte ma una sola può essere stabile. Effetti-
vamente nel caso della cascata di raddoppi di periodo della logistica, ciascuna
nuova orbita che compare è stabile e contemporaneamente l’orbita precedente
diventa instabile.
L’unico punto critico di ha è 1/2, per ogni valore di a = 0. Dunque, se ha ha
un’orbita s periodica attrattiva (s = 1, 2 . . . ), allora la traiettoria che parte da
1/2 viene attratta dall’unica orbita periodica stabile. Questa informazione è
preziosa per costruire un diagramma di biforcazione più preciso di quello già
descritto che dia ulteriori informazioni quando a varia nell’intervallo [3, 4].
Un modo di sfruttare le conseguenze del Teorema di Fatou per effettuare una
simulazione numerica con un personal computer è il seguente: rappresentiamo
in ascissa i valori del parametro a e in ordinata i valori hak (1/2) delle iterate
di dato iniziale 1/2 per k grande, ad esempio k tra 100 e 300. Ovviamente
dovremo scegliere un numero finito di valori di a: possiamo scegliere un intero
N e fare una partizione uniforme dell’intervallo che ci interessa (per maggior
chiarezza consideriamo solo l’intervallo interessante [2, 4]):
1 2 1
2, 2 + , 2 + , ..., 4 − , 4.
N N N
Ovviamente al crescere di N dovrà crescere anche la memoria disponibile nel
computer e la nostra pazienza nell’attendere il risultato.
Se per un certo valore di a vi è un’orbita attrattiva, allora le iterate hka (1/2)
sono appunto attratte da tale orbita; con un certo ottimismo verso la spe-
rimentazione numerica e che pur sarebbe giustificabile con altri argomenti,
possiamo pensare che per k > 100 i valori siano così vicini all’attrattore da
risultare numericamente e graficamente indistinguibili da esso. Rappresentan-
do graficamente (vedi Fig. 4.14) tutte le iterazioni da 100 a 300, si possono
individuare orbite attrattive il cui periodo è minore di 200. Se per un valore
di a non vi è un’orbita attrattiva, ci attendiamo una distribuzione “caotica”
di punti sulla retta verticale di ascissa a.
Il programma può richiedere molto tempo per l’esecuzione, ma il risultato gra-
fico è sorprendentemente ricco di informazioni: si ritrova la stabilità di αa fino
ad a = 3, dopodiché si riescono a decifrare varie biforcazioni con transizione
verso orbite stabili di periodo doppio ottenendo delle stime dei corrispondenti
valori del parametro di biforcazione.
Poi sembra esservi solo confusione, ma si tratta in realtà di un ordine assai
strutturato e gerarchizzato.
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 147

0.8

0.6

0.4

0.2

1.5 2 2.5 3 3.5 4

1
0.9

0.8 0.8

0.7
0.6

0.6

0.4

0.5

0.2

3.7 3.75 3.8 3.85 3.9 3.95

Fig. 4.14. Diagramma di biforcazione per la logistica ha , a ∈ [1, 4] , con zoom su


alcuni dettagli
148 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

1 ηa 1

0 1 αa ηa 1 αa ηa 0 1
a

Fig. 4.15. Autosimilarità di dettagli del grafico di h2a con il grafico di hb

Due fasce più chiare, una attorno ad a = 3, 74 l’altra ad a = 3, 83 sembra-


no suggerire la presenza di orbite attrattive di periodo 5 e 3. Effettuando uno
zoom (vedi Fig. 4.14b)) si scopre una struttura analoga a quella del diagramma
principale vicino ad a = 3.
Questa sorta di autosimilarità tra l’insieme ed alcuni suoi dettagli si potrebbe
motivare analiticamente, tuttavia ci limitiamo ad una considerazione euristi-
ca: se è fissato un valore di a tale che 2 < a ≤ 4, allora, con riferimento
alla Fig. 4.15, il grafico qualitativo di h2a nei riquadri di vertici (1/a, 1/a) ed
((a − 1) /a, (a − 1) /a) ed in quello di vertici3 ((a − 1) /a, (a − 1) /a) e (ηa , ηa)
è qualitativamente simile al grafico di hb per un b opportuno in [0, 4] (serve al
più una riflessione), e di conseguenza (si veda al riguardo il paragrafo 4.5) le
dinamiche dei s.d.d. corrispondenti saranno analoghe.
La cascata di raddoppi del periodo presenta una ulteriore sorprendente rego-
larità: il rapporto fra le distanze di valori di biforcazione an conse-
cutivi
an − an−1
rn =
an+1 − an
tende, per n → +∞, alla costante di Feigenbaum. Tale costante, appros-
simata a tredici cifre decimali, è:

F = 4, 6692016091029 . . .

In tal modo è possibile stimare4 entro quale valore del parametro a la succes-
sione di raddoppi di periodo si sarà completata e, quindi, a partire da quale
valore di a vi saranno orbite 2n periodiche per ogni n.
Il fatto interessante è l’universalità della costante di Feigenbaum: infatti, la
presenza di una cascata di raddoppi di periodo con tale comportamento asin-
 √ 
3
ηa = a + a2 − 4 /2a verifica l’equazione h2a (ηa ) = αa .
4
Posto pn = an − an−1 , l’informazione limn pn /pn+1 =F > 1 assicura (vedi (21)
nell’Appendice A) che la serie dei passi è convergente: +∞
n=1 pn < +∞ .
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 149

totico è tipico di molti sistemi dinamici (ad esempio, fa (x) = a sin (πx) oppure
ga (x) = ax2 sin (πx) in [0, 1]).
Più precisamente, se f verifica:
• f : [0, 1] → R è dotata di tutte le derivate;
• f ha un unico punto di massimo x  ∈ (0, 1) tale che f  (
x) < 0;
• f è strettamente crescente in [0, x) e strettamente decrescente in (x, 1];
• f ha derivata schwarziana (Df) (x) < 0 per ogni x ∈ [0, 1] con x = x  (vedi
Definizione 4.11);
allora al variare del parametro a in [0, 1/f (
x)] i valori ak di biforcazione corri-
spondenti a raddoppi di periodo della collezione di s.d.d. {I, af} sono tali che
le differenze ak − ak−1 formano una successione asintoticamente geometrica e:
ak − ak−1
lim = F.
k ak+1 − ak

A differenza di F il valore del parametro a∞ = limn an può ovviamente dipen-


dere da I e da f. Riepiloghiamo in una tabella i valori approssimati di alcuni
valori di biforcazione per la logistica: i valori ak corrispondenti alla compar-
sa del 2k ciclo, il loro limite a∞ ed aω che denota il valore del parametro
corrispondente alla comparsa del 3 ciclo.

Valori di biforcazione per la logistica ha Periodo delle orbite


(stabili se an < a ≤ an+1 )

a1 = 3
√ 2
a2 = 1 + 6 = 3, 449489 . . .
4
a3 = 3, 544090 . . .
8
a4 = 3, 564407...
16
a5 = 3, 568759...
32
a6 = 3, 569692...
64
a7 = 3, 569891 . . .
27
..
. ..
.
an
.. 2n
. ..
a∞ = 3, 5699456 . . . .

aω = 1 + 8 = 3, 828427 . . .
3
150 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

 4.4. Tracciare un diagramma di biforcazione di {R, fa } con fa (x) =


Esercizio

a x − x3 .
Esercizio 4.5. Determinare i punti della traiettoria di periodo 2 per il s.d.d.
{[0, 1] , ha } con 3 < a ≤ 4.
Esercizio 4.6. Mostrare che la traiettoria 2 periodica {βa , γa } della√ dinamica logi-
stica {[0,√1] , ha } con a > 3 è stabile ed attrattiva se 3 < a < 1 + 6, repulsiva se
a > 1 + 6.

Esercizio 4.7. Provare la stabilità del 2 ciclo {βa , γa } di ha se a = a2 = 1 + 6.
(Suggerimento: Provare che dato il s.d.d. {I, f } ed una sua orbita periodica {β, γ},
se g = f 2 , allora
2
2g (β) + 3 (g (β)) > 0
g (β) = g (γ) = −1 e 2
2g (γ) + 3 (g (γ)) > 0

implica che {β,√γ} è attrattiva e stabile. Quindi applicare tale proprietà ad f = ha2 ,
dove a2 = 1 + 6, e dedurne la stabilità del 2 ciclo).
Esercizio 4.8. Determinare mediante una simulazione numerica al computer (cioè
senza utilizzare le formule esplicite dell’Esercizio 4.2) i 2 cicli della parabola logistica
ha per a = 3, 1, a = 3, 2 e a = 3, 3. Provare che per ciascuno dei tre valori del para-
metro esiste un unico 2 ciclo. Provarne direttamente la stabilità usando il Teorema
3.69.
Disegnare alcune iterazioni con il metodo grafico per la ricerca di punti fissi di h2a
con i valori scelti.
Esercizio 4.9. Mediante simulazione numerica al computer determinare il 4 ciclo
per ha se a = 3, 5.
Provare poi che è stabile e attrattivo. Verificare graficamente (ragnatela) che è un
4 ciclo.
Plottare ha e le sue intersezioni con l’identità (è il modo più rapido per trovare il
ciclo). Si suggerisce di trovare le intersezioni con il metodo di Newton. Si ricorda
l’opportunità di inizializzare con il valore critico X0 = 1/2.
Esercizio 4.10. 1) Per il s.d.d. {[0, 1] , ha } il punto αa è un equilibrio stabile e at-
trattivo se e solo se 1 < a ≤ 3. Determinare l’unico valore b0 di a in (1, 3] per cui
αa risulta superattrattivo (cioè h (αa ) = 0).
2) Per il s.d.d. {[0, 1] , ha } l’orbita
√ 2 periodica {γa , βa } è stabile e attrattiva se e solo
se 3 = a1 < a ≤ a2 = 1 + 6. Determinare   b1 di a ∈ (a1 , a2 ) per cui
 l’unico valore
l’orbita {γa , βa } è superattrattiva (cioè h2a (γa ) = h2a (βa ) = 0 ).
Con riferimento ai valori ak di biforcazione corrispondenti alla cascata di raddoppi
di periodo per la logistica ha si può provare che, per ogni k ∈ N, esiste bk tale che
ak < bk < ak+1 , e per a = bk la logistica ha presenta un 2k ciclo superattrattivo ed
il valore 1/2 appartiene a tale ciclo.

Esercizio 4.11. Con a che varia in un intorno di aω = 1 + 8, plottare ha e (ha )3 ,
studiare graficamente e numericamente le soluzioni di (ha )3 (x) = x. Dedurne che per
a < aω non esistono orbite 3 periodiche e per a ≥ aω vi sono orbite 3 periodiche. Cal-
colare numericamente un 3 ciclo per ha corrispondente al valore a = 3, 84. Provare
poi che è stabile ed attrattivo.
4.4 Caos ed insiemi frattali 151

Esercizio 4.12. Verificare che la famiglia di s.d.d. {R, fa }, con fa (x) = ax(1 − x2 )
ed a ∈ R, presenta una biforcazione a forchetta.

4.4 Caos ed insiemi frattali

In questo paragrafo introdurremo alcune nozioni utili alla descrizione della


dinamica logistica per valori del parametro in corrispondenza ai quali tutti gli
equilibri e tutte le orbite periodiche sono repulsivi. Anche al di fuori di tale
contesto tali nozioni si sono rivelate paradigmi interpretativi di sorprendente
generalità nello studio delle dinamiche non lineari.
Cominciamo con l’esame di un esempio semplice, ma non quanto potrebbe
apparire a prima vista.
Esempio 4.20. La funzione tenda T è definita da


2x x ∈ [0, 1/2]
T : [0, 1] → [0, 1] T (x) =
2 − 2x x ∈ [1/2, 1]

Vogliamo studiare il corrispondente sistema dinamico {[0, 1] , T }. Il lettore è


invitato a considerare attentamente il comportamento delle iterate di T e a
riflettere sulla dinamica corrispondente, prima di proseguire nella lettura del
paragrafo.
Come si vede dai grafici in Fig. 4.16, l’immagine di T k ricopre 2k volte l’in-
tervallo [0, 1]. In particolare, posto Xk+1 = T (Xk ), se si sceglie X0 = 1/7 si
ottiene la traiettoria Xk di valori
1 2 4 6 2 4 6
, , , , , , , ...
7 7 7 7 7 7 7
cioè 1/7 appartiene al bacino del 3 ciclo {2/7, 4/7, 6/7}. Ma la presenza di un
3 ciclo implica per il Teorema di Sharkowski l’esistenza di cicli di ogni periodo
intero. Dunque la dinamica associata a T non è affatto banale; anzi, come pre-
ciseremo in seguito, manifesta una dipendenza assai sensibile dai dati iniziali,
a causa del gran numero di oscillazioni delle iterate di T .
Osserviamo che T k presenta 2k−1 picchi e corrispondentemente (Teorema de-
gli zeri) 2k intersezioni col grafico dell’identità (comprese quelle banali x = 0
e x = 2/3): dunque, eliminati i due punti fissi di T , i rimanenti 2k − 2 punti
corrispondono necessariamente ad orbite periodiche di T con un periodo che
deve essere un divisore di k. In particolare sono tutti k cicli se k è primo:
riassumendo, T ha due equilibri; per l’analisi di T 2 , T ha due equilibri ed un
2 ciclo; per l’analisi di T 3 , T ha due equilibri e due 3 cicli e così via.
152 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

T T2

T3 T4

Fig. 4.16. Grafici di T , T 2 , T 3 e T 4 e dell’identità

Esempio 4.21. Mappa D del raddoppio di fase.

D : [0, 2π) → [0, 2π) D (θ) = 2θ (mod2π)

Il lettore pignolo obietterà che D non è continua. Tuttavia, oltre all’esistenza


di importanti fenomeni descritti da leggi prive della proprietà di continuità,
osserviamo che in realtà D ha una interpretazione geometrica e cinematica di
grande importanza, e che corrisponde alla descrizione di un moto continuo:
se si interpreta θ come la posizione (espressa mediante la variabile angolare)
di una lancetta nel quadrante di un orologio, o come l’anomalia di un oggetto
in movimento uniforme su un’orbita circolare, allora è chiaro che ogni posi-
zione è individuata da molti valori diversi di θ, tuttavia la funzione D che
raddoppia l’angolo, o “fase”, trasforma con continuità i punti corrispondenti
4.4 Caos ed insiemi frattali 153

2π 2π

0 π 2π 0 π 2π

2π 2π

0 π 2π 0 π 2π

Fig. 4.17. Grafici di D , D2 , D3 , D4 e dell’identità. Si osservi che Dk ha un


grafico costituito da 2k tratti ascendenti

della circonferenza unitaria S:5

D:S→S
!
dove S = (x, y) ∈ R2 : x = cos θ, y = sin θ, θ ∈ [0, 2π) . È immediato verifi-
care che anche D ha almeno un’orbita 3 periodica (basta osservare che il grafico
di D3 ha intersezioni con quello dell’identità in punti che non appartengono
al grafico di D).
Inoltre la dinamica di D esibisce orbite di ogni periodo intero. Questa proprie-
tà va verificata direttamente poiché il Teorema 4.2 non si applica a funzioni
continue da S in S: si consideri ad esempio f(ϑ) = ϑ + 2π k che esibisce solo
punti k periodici. 

Vi sono varie definizioni di dinamica caotica, comunque tutte cercano di quan-


tificare le proprietà qualitative esibite dai s.d.d. {I, f} che, come nel caso

5
Ci consentiamo un lieve abuso di notazione, denotando con la stessa lettera una
funzione diversa ma strettamente associata a D.
154 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

della funzione tenda T , presentano orbite periodiche dense in I e sono gene-


rate da una funzione f le cui iterate distorcono fortemente la topologia di I,
determinando una estrema sensibilità alle variazioni dei dati iniziali.
Definizione 4.22. Un s.d.d. {I, f} è caotico (si dice anche che ha una di-
namica caotica) se:
• le orbite periodiche sono dense (si considerano tutti i periodi interi, 1 inclu-
so), cioè ogni intervallo (a, b) ⊆ I contiene almeno un punto appartenente
ad un’orbita periodica;
• f è topologicamente transitiva, cioè per ogni x, y ∈ I e per ogni ε > 0
esistono z ∈ I e k ∈ N tali che
 k 
|z − x| < ε, f (z) − y < ε;

• {I, f} esibisce una dipendenza sensibile dalle condizioni iniziali, cioè


esiste δ > 0 tale che, per ogni x ∈ I ed ε > 0 esistono z ∈ I e k ∈ N tali
che  k 
|x − z| < ε f (x) − f k (z) > δ.

Osservazione 4.23. La sola presenza di orbite periodiche arbitrariamente vi-


cine ad ogni punto di I non descrive necessariamente una dinamica caotica
(ad esempio, si pensi al semplice caso lineare f (x) = −x), tuttavia la densità
di orbite periodiche, unitamente alle altre due condizioni è un ingrediente ti-
pico delle dinamiche caotiche (si pensi alla presenza contemporanea di orbite
di tutti i periodi in presenza del periodo 3).
Osservazione 4.24. La proprietà “f è topologicamente transitiva” è equiva-
lente al verificarsi della condizione: “per ogni coppia di intervalli aperti non
vuoti U , V ⊂ I esistono z ∈ U e k ∈ N tali che f k (z) ∈ V ”. Questo significa
che comunque si scelgano due “piccoli” intervalli, in ognuno c’è almeno un
punto la cui traiettoria transita nell’altro.
Osservazione 4.25. La dipendenza sensibile dai dati iniziali ha il significa-
to seguente: se le iterazioni di una funzione con tale proprietà modellano il
comportamento a lungo termine di un sistema (economico, demografico, me-
teorologico, ecc.), allora errori comunque piccoli nella misurazione della ini-
zializzazione possono comportare grandi differenze fra il valore effettivo e la
stima dedotta dal modello. Poiché tutte le operazioni di misura sono affette
da errori, si tratta di un limite ineludibile di cui tener conto nelle applicazioni,
ad esempio limitando l’uso predittivo del modello a pochi passi o iterazioni.
Non si esclude tuttavia che si evidenzino attrattori (eventualmente con geo-
metria meno banale degli equilibri e delle orbite periodiche) relativamente ai
quali risultino significative anche previsioni di lungo periodo.
Osservazione 4.26. La Definizione 4.22 di dinamica caotica è una sorta di
miscela tra caos e ordine, nel senso che esclude una descrizione contemporanea-
mente semplice ed ordinata della dinamica, tuttavia prescrive con precisione
4.4 Caos ed insiemi frattali 155

alcuni requisiti geometrico-topologici alle traiettorie: ad esempio, arbitraria-


mente vicino ad ogni punto vi sono orbite periodiche. D’altro canto se si
interpreta il s.d.d. {I, f} come la deformazione di un filo elastico I mediante
la trasformazione f, allora nel caso di dinamica caotica I viene ripiegato in sè
stesso in modo sempre più complicato al crescere delle iterazioni di f.

Se I è un intervallo non banale ed f è continua, si può semplificare la de-


finizione di dinamica caotica come precisato nell’enunciato seguente, di cui
omettiamo la dimostrazione.

Teorema 4.27. Siano I ⊂ R un intervallo non banale ed f : I → I una


funzione continua. Se f è topologicamente transitiva ed i punti appartenenti
ad orbite periodiche di {I, f} sono densi in I, allora {I, f} esibisce anche
una dipendenza sensibile ai dati iniziali, dunque f dà luogo ad una dinamica
caotica in I.

Verifichiamo la definizione di sistema dinamico caotico su esempi espliciti: le


dinamiche generate dalla funzione tenda T e dal raddoppio di fase D sono
caotiche rispettivamente in [0, 1] e [0, 2π) oppure S.

Teorema 4.28. Il s.d.d. {[0, 1] , T } ha dinamica caotica.


Prova. Occorre verificare le proprietà 1)-2)-3) della Definizione 4.22. Per seguire il
ragionamento è utile tenere a mente i grafici di T e delle sue iterate (vedi Fig. 4.17);
osserviamo che per effettuare simulazioni al computer delle iterazioni di funzioni è
opportuno memorizzare ad ogni passo le composizioni ottenute, al fine di non far
ripetere alla macchina inutilmente una grande quantità di passaggi.
(1) Densità delle orbite periodiche:
Se k ∈ N denotando con Ih gli intervalli [h2−k , (h + 1) 2−k ), 0 ≤ h ≤ 2k − 1,
allora T k ristretta ad Ih è biunivoca a valori in [0, 1] (monotòna strettamen-
te crescente se h è pari, strettamente decrescente se h è dispari); ne segue che
{[0, 1] , T } ha esattamente 2k punti periodici di periodo s, 1 ≤ s ≤ k, ognuno
dei quali appartiene ad un intervallo Ih , come si deduce applicando il Teorema
degli zeri alla differenza T k (x) − x in ciascuno degli intervalli Ih .
(2) T è topologicamente transitiva:
Fissati x, y ∈ [0, 1] ed 0 < ε < 1/2, sia k ∈ N tale che 2k ε > 2. Allora l’immagine
di (x, x + ε) mediante T k è esattamente [0, 1], dunque (x, x + ε) contiene punti
la cui immagine mediante T k coincide con qualunque y ∈ [0, 1]. Ovviamente
nell’argomento precedente (x, x + ε) va sostituito con (x − ε, x) se x + ε > 1.
(3) La dipendenza sensibile dai dati iniziali:
segue da (1) e (2) e dal teorema precedente, tuttavia la sua dimostrazione diretta
è estremamente semplice: basta scegliere δ = 1/2 e ripetere l’argomento della
prova di (2) per ottenere la tesi. 

Osservazione 4.29. Tutte le orbite periodiche di {[0, 1] , T } di cui si è pro-


vata l’esistenza nella verifica di (1) sono repulsive. Infatti |T  (β)| = 2 > 1 in
ciascun punto β appartenente a tali orbite periodiche. Inoltre 0 (in cui non è
definita la derivata) è repulsivo.
156 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Teorema 4.30. Il s.d.d. {[0, 2π), D} ha una dinamica caotica.


Prova. I punti (2) e (3) si dimostrano in modo identico al caso di {[0, 1] , T } senza
usare il Teorema 4.27. Per il punto (1) osserviamo che pur non essendo continua D,
possiamo usare lo stesso argomento della dimostrazione precedente perché Dk (x)−x
è continua e cambia segno all’interno di ciascun Ih . 

Osservazione 4.31. Anche per il s.d.d. {[0, 2π), D} tutti gli equilibri e le
orbite periodiche sono repulsivi.

A ben riflettere, la complessità delle dinamiche associate a T e D non è co-


sì sorprendente. Basta pensare alle operazioni che compie un pasticcere per
preparare una pasta sfoglia: spianandola la allunga in una direzione, poi la
ripiega su sè stessa, cioè (trascurando la direzione non allungata) compie la
trasformazione T , quindi la ripete un gran numero di volte (k) cioè itera il
procedimento operando la trasformazione T k . Alla fine della procedura non è
sorprendente constatare che punti che erano prossimi possono ritrovarsi molto
lontani fra loro; inoltre piccole porzioni iniziali ricoprono con la loro proiezione
tutta la sfoglia.
Invece, iterare D corrisponde ad allungare, tagliare e sovrapporre anziché ri-
piegare, ripetendo più volte la stessa operazione: nuovamente si otterrà un
grande rimescolamento e non c’è speranza di mantenere la prossimità di tutte
le coppie di punti.
Studieremo ora alcuni esempi modello di insiemi frattali in R che appaiono
nello studio della dinamica di alcuni s.d.d..
Definiamo in modo “informale” un insieme frattale come un sottoinsieme di
R che verifica le proprietà seguenti:

• ha una struttura fine, cioè i dettagli sono definiti su scale arbitrariamente


piccole;
• non è un oggetto geometrico elementare: non coincide né localmente, né
globalmente con una unione di intervalli o di punti isolati;
• la “dimensione” non è intera6 ;

Fig. 4.18. Pasta sfoglia: prime operazioni del pasticcere interpretate mediante le
trasformazioni T e D iterate

6
Per una definizione formale di dimensione si veda l’Appendice E.
4.4 Caos ed insiemi frattali 157

• spesso esibisce proprietà di autosimilarità (o le approssima in modo sta-


tistico): le parti che lo costituiscono sono in corrispondenza biunivoca con
tutto l’insieme mediante una semplice trasformazione geometrica;
• spesso è possibile definirlo mediante la ripetizione ricorsiva di regole sem-
plici.
Esempio 4.32. Consideriamo l’esempio capostipite di insieme frattale:
l’insieme di Cantor C (o insieme di Cantor del terzo-medio) che si ot-
tiene rimuovendo dall’intervallo [0, 1] il segmento aperto intermedio (1/3, 2/3)
ed iterando tale operazione sui segmenti rimanenti: ciò che rimane è appunto
l’insieme di Cantor. Descriviamo i primi passi della costruzione:

E0 = [0, 1]
( ) ( )
1 2
E1 = 0, ∪ ,1
3 3
( ) ( ) ( ) ( )
1 2 1 2 7 8
E2 = 0, ∪ , ∪ , ∪ ,1
9 9 3 3 9 9
...

Ciascun Ek è unione di 2k , k ∈ N, intervalli di lunghezza 3−k e si pone

6

C= Ek
k=0

Osserviamo che:
• C è autosimilare: la sua intersezione con uno qualsiasi degli intervalli al
passo n nella costruzione precedente corrisponde ad un suo riscalamento di
un fattore 3−n , a meno di una traslazione;
• C ha una struttura fine: non riusciamo a disegnarlo o ad immaginarlo con
precisione;

E0

E1

E2

E3

E4

Fig. 4.19. I primi quattro passi nella costruzione dell’insieme di Cantor


158 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

• la definizione ricorsiva è estremamente semplice, benché la topologia di C sia


tutt’altro che banale: non è finito, né numerabile, è totalmente sconnesso
(cioè non contiene alcun intervallo non banale), ha misura 1–dimensionale
nulla, ma la dimensione corretta per “misurarlo” ha un valore strettamente
compreso fra 0 e 1 (si veda Appendice F).

Esempio 4.33. Consideriamo il s.d.d. {R, g} dove g = 3T /2.


g ripiega R\ {1/2} e lo trasforma in due copie di (−∞, 3/2).
g3 presenta punti fissi (che non sono punti fissi di g) dunque vi sono orbite di
periodo 3 per g e, per il Teorema di Sharkovsky, anche orbite di ogni periodo
intero. 

Teorema 4.34. Se g = 3T /2 e C è l’insieme di Cantor, allora g (C) = C, cioè


C è invariante per il s.d.d. {R, g}.

1.5

Fig. 4.20. Grafico di g (x) = 3T (x)/2 ; due punti fissi repulsivi: 0 , 3/4

Fig. 4.21. Grafici di g2 e g3 dove g (x) = 3T (x) /2


4.4 Caos ed insiemi frattali 159

_3
2

Fig. 4.22. Dinamica di {C, 3T/2}

Omettiamo la dimostrazione, ma osserviamo che l’insieme invariante C è re-


pulsivo per la dinamica di g; infatti:
• se x < 0, allora gk (x) = 3k x → −∞ se k → +∞;
• se x > 1, allora g (x) < 0 e g k (x) = gk−1 (g (x)) = 3k−1 g (x) → −∞ se
k → +∞;
• se x ∈ [0, 1] \C, allora esiste h tale che per x ∈ [0, 1] \Eh , si ha
 
gh (x) > 1 ; gh+1 (x) < 0 ; gk (x) = gk−h gh (x) → −∞ per k → +∞

(gli insiemi Eh sono quelli definiti nella costruzione dell’insieme di Cantor).


Si può anche dimostrare che le traiettorie contenute in C sono particolarmente
erratiche, precisamente vale il seguente
Teorema 4.35. La dinamica del s.d.d. {C, 3T /2} è caotica.
Esempio 4.36. Se a > 4, allora la mappa logistica ha determina in R una
dinamica simile a quella della funzione g = 3T /2 discussa in precedenza.
Questo fatto può essere provato mediante la coniugazione topologica che sarà
introdotta nel paragrafo successivo. 
160 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Fig. 4.23. ha con a > 4

Definizione 4.37. Un insieme non vuoto E ⊆ R si dice insieme di tipo


Cantor se
• E è chiuso e limitato;
• E è totalmente sconnesso, cioè non contiene intervalli con più di un punto;
• E non ha punti isolati, cioè
se p ∈ E, allora ∀r > 0, (E\ {p}) ∩ (p − r, p − r) = ∅.

Esempio 4.38. Ct : Insieme di Cantor t-medio, 0 < t < 1. Analogamente


alla costruzione dell’insieme di Cantor, a partire dall’intervallo chiuso [0, 1]
applichiamo una procedura iterativa che consiste nel rimuovere un interval-
lo aperto centrato in ciascun intervallo residuo, di lunghezza t volte quella
dell’intervallo che lo contiene.
Non rimane l’insieme vuoto, perché almeno gli estremi di tutti gli intervalli
aperti rimossi (che sono infiniti) sono nell’insieme.
Gli insiemi di Cantor t-medi (in particolare, C corrispondente ad t = 1/3)
sono insiemi di tipo Cantor. 

Elenchiamo alcune proprietà del s.d.d. {R, ha }, con a > 4, senza riportarne la
dimostrazione. Fissato a:
• l’insieme !
R = x ∈ [0, 1] : hka (x) ∈ [0, 1] ∀k ∈ N
che è per definizione invariante rispetto ad ha , è un insieme di tipo Cantor;
• R è repulsivo: limk hka (x) = −∞ ∀x ∈ R\R;
• la dinamica di ha ristretta ad R è caotica.

Concludiamo questo paragrafo riportando senza dimostrazione un risultato


importante che chiarisce come l’esistenza di orbite di periodo 3 oltre all’esi-
stenza di tutti gli altri periodi comporta una dinamica che rimescola molto la
dinamica di alcuni sottoinsiemi del dominio della funzione in esame.
4.4 Caos ed insiemi frattali 161

Teorema 4.39 (T.Y. Li & J.A. Yorke, 1975). Se il s.d.d. {I, f}, dove
I è un intervallo ed f : I → I è una funzione continua, ha un’orbita periodica
di minimo periodo 3, allora esiste un sottoinsieme E ⊆ I non numerabile e
non contenente alcuna orbita periodica, tale che:
per ogni x, y ∈ E con x = y valgono
   
max lim f k (x) − f k (y) > 0 min lim f k (x) − f k (y) = 0 ;
k k

per ogni x ∈ E ed y ∈ I con y periodico, si ha


 
max lim f k (x) − f k (y) > 0 .
k

La tesi del Teorema 4.39 viene espressa in modo colloquiale nella forma se-
guente “il periodo 3 implica caos”. Tale affermazione è corretta solo in un
contesto in cui (nella definizione di caos) non si richiede la densità delle orbite
periodiche in tutto I, e limitatamente ai s.d.d. scalari.

Esercizio 4.13. Consideriamo una lancetta che si muove con velocità angolare uni-
forme ed unitaria nel quadrante di un cronometro, cioè compie un giro in 60 unità
di tempo (secondi).
Descrivere il s.d.d. che fa corrispondere alle varie posizioni iniziali le traiettorie della
lancetta ad intervalli di tempo di un secondo.
Dire se tale s.d.d. è topologicamente transitivo, se le orbite periodiche sono dense,
e se vi è dipendenza sensibile dai dati iniziali.

Esercizio 4.14. Consideriamo un orologio con due lancette, quella delle ore e quel-
la dei minuti, che si muovono a scatti, la prima ogni ora, la seconda ogni minuto.
Descrivere la dinamica Xk = ϕk − ψk dove ϕk è la posizione angolare delle lancette
delle ore e ψk di quella dei minuti (si considerino angoli in [0, 2π)).

Esercizio 4.15. Consideriamo il s.d.d. {R, g} dove g (x) = 10x.


Mostrare che tale s.d.d. lineare non è caotico, tuttavia esibisce dipendenza sensibile
dai dati iniziali. Dunque quest’ultima proprietà non si presenta solo nelle dinamiche
non lineari ma anche in quelle lineari.

Esercizio 4.16. Provare che esiste un insieme denso E ⊂ [0, 1] tale che per ogni
X0 ∈ E si ha limk T k (X0 ) = 0 (per la precisione, esiste k0 = k0 (X0 ) tale che
T k (X0 ) = 0 per ogni k > k0 ), dove T è la funzione tenda.

Esercizio 4.17. Provare che esiste un insieme denso E ⊂ [0, 1] tale che per ogni
X0 ∈ E si ha limk Dk (X0 ) = 0 (per la precisione, esiste k0 = k0 (X0 ) tale che
Dk (X0 ) = 0 per ogni k > k0 ), dove D è la mappa del raddoppio di fase.

Esercizio 4.18. Utilizzando la caratterizzazione di insiemi frattali autosimili ed il


Teorema F.1 (si veda l’Appendice F), determinare la dimensione di Hausdorff del-
l’insieme di Cantor e, più in generale, la dimensione di Hausdorff di un insieme di
tipo Cantor t medio.

Esercizio 4.19. Sia A = C1/2 . Determinare la dimensione di A e di A × A.


162 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Esercizio 4.20. Il Sierpinski gasket quadrato Q si ottiene da un quadrato con il


bordo e l’interno, suddiviso in nove quadrati uguali, rimuovendo quelli non adiacenti
ai vertici e iterando l’operazione. Calcolarne la dimensione di Hausdorff.
Esercizio 4.21. Modificare la costruzione dell’Esercizio precedente suddividendo
in sedici quadrati uguali e calcolare la dimensione di Hausdorff dell’insieme W così
ottenuto.

4.5 Coniugazione topologica di sistemi dinamici discreti

A volte lo studio diretto di un s.d.d. risulta sorprendentemente difficoltoso,


ma è possibile studiare un altro sistema che è più semplice da analizzare ed
ha il quadro delle fasi qualitativamente identico a quello in esame. In tale caso
i due s.d.d. si diranno topologicamente coniugati.
Vedremo, ad esempio, che la funzione tenda T in [0, 1] ha una dinamica topo-
logicamente coniugata a quella della parabola logistica h4 in [0, 1]; questo fatto
ci consentirà di provare, tra l’altro, che la parabola logistica corrispondente
al valore 4 del parametro ha una dinamica caotica.
L’idea di partenza è molto semplice: dato un s.d.d. {I, f}, se si cambiano ra-
gionevolmente le coordinate nel dominio I e nell’immagine f (I), e si cambia
coerentemente la funzione f, allora gli aspetti qualitativi del quadro delle fasi
non dovrebbero cambiare.
Definizione 4.40. Siano I, J ⊂ R intervalli e f : I → I, g : J → J.
Le funzioni f e g si dicono topologicamente coniugate se esiste ϕ : I → J
continua, invertibile, con inversa ϕ−1 continua tale che

g = ϕ ◦ f ◦ ϕ−1 . (4.2)

In tal caso, ϕ si dice coniugazione topologica di f e g.


Analogamente, i s.d.d. {I, f} e {J, g} si dicono topologicamente coniuga-
ti se f e g sono topologicamente coniugate.
Si noti che (4.2) è equivalente a ciascuna delle seguenti relazioni

g◦ϕ= ϕ◦f f = ϕ−1 ◦ g ◦ ϕ ϕ−1 ◦ g = f ◦ ϕ−1


come è facile verificare effettuando adeguate composizioni con ϕ e ϕ−1 e sem-
plificando.
Grazie a questa equivalenza, per verificare la eventuale coniugazione topolo-
gica negli esempi si sceglie di volta in volta la più comoda tra le precedenti
uguaglianze.
La situazione di coniugazione tra f e g è rappresentata dal diagramma
f
I −→ I
−1
ϕ ↑ ↓ϕ
g
J −→ J
4.5 Coniugazione topologica di sistemi dinamici discreti 163

Osservazione 4.41. Se ϕ : I → J è continua, invertibile, con inversa conti-


nua, allora è strettamente monotòna e:
1) U ⊂ I è chiuso in I se e solo se ϕ (U ) è chiuso in J;
2) la successione {Xk } è convergente in I se e solo se la successione {ϕ (Xk )}
è convergente in J;
3) A ⊂ I è denso in I ⇔ ϕ (A) è denso in J.
Teorema 4.42. Siano I, J ⊂ R intervalli, f : I → I, g : J → J due funzioni,
e ϕ : I → J una coniugazione topologica tra f e g. Allora:
(i) ϕ ◦ f k = gk ◦ ϕ, per ogni k ∈ N, cioè anche f k e gk sono topologica-
mente coniugate;
(ii) se la successione {Xk } è una traiettoria di {I, f}, allora la successione
{ϕ (Xk )} è una traiettoria di {J, g};
(iii) α è un punto s periodico per {I, f} se e solo se ϕ (α) è punto s periodico
per {J, g} ;
(iv) se A ⊂ I è un attrattore e B ⊂ I è il suo bacino di attrazione, allora
ϕ (A) è un attrattore e ϕ (B) è il suo bacino di attrazione;
(v) le orbite periodiche di {I, f} sono dense in I se e solo se le orbite
periodiche di {J, g} sono dense in J;
(vi) {I, f} è topologicamente transitivo se e solo se {J, g} è topologicamente
transitivo;
(vii) {I, f} è caotico se e solo se {J, g} è caotico.

Prova. Per le prime sei affermazioni si tratta di semplici verifiche da effettuarsi


nell’ordine di enunciazione. Limitiamoci alla verifica della prima:
    
ϕ ◦ f k = ϕ ◦ f ◦ ϕ−1 ϕ ◦ f ◦ ϕ−1 · · · ϕ ◦ f ◦ ϕ−1 ϕ = gk ◦ ϕ.
, -. /
k volte

La (vii) segue da (v), (vi) e dal Teorema 4.27. 

Relativamente alle (v), (vi) e (vii) osserviamo che la dipendenza sensibile dai
dati iniziali da sola non si conserva in generale per coniugazione topologica,
come mostra il controesempio seguente.
! !
Esempio 4.43. Siano (0, 1) , x2 e (1, +∞) , x2 . Allora ϕ (x) = 1/x è una
coniugazione topologica tra i due s.d.d.. Ma il primo non ha una dipenden-
za sensibile dai dati iniziali, dato che 0 ne attrae tutte le traiettorie, men-
tre 0 ∈ (1, +∞) e
 il secondo
 ha dipendenza sensibile dai dati iniziali: X0 , X
  
X0 − X0  = ε > 0 implicano
   
 k  = X 2k − X
 2k  =
Xk − X 0 0
  
 0  X 2k−1 + X 2k−2 X  2k−1 ≥ 2kε.
0 + · · · + X
= X0 − X 0 0 0 
Tuttavia vale il seguente teorema di cui non diamo la dimostrazione.
164 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Teorema 4.44. La dipendenza sensibile dai dati iniziali si preserva per co-
niugazione topologica se l’intervallo I (e di conseguenza anche J) è chiuso e
limitato.

Esplicitiamo alcuni importanti risultati che seguono facilmente dagli strumenti


introdotti in questo paragrafo.

Teorema 4.45. La mappa logistica di parametro 4, h4 in [0, 1] , è topologica-


mente coniugata alla funzione tenda T in [0, 1] , dove T è definita nell’Esem-
pio 4.20.

Prova. La funzione ϕ (x) = (sin (πx/2))2 è una coniugazione topologica tra i due
s.d.d. {[0, 1] , h4 } e {[0, 1] , T }. Infatti ϕ ([0, 1]) = [0, 1], ϕ è continua in [0, 1], stret-
tamente monotòna e inoltre:
     π 4
  π 2   π 2
π 2
h4 (ϕ (x)) = 4 sin x − sin x = 4 sin x cos x =
2 2 2 2

(sin (πx))2 se 0 ≤ x ≤ 1/2
= (sin (πx))2 = =
(sin (πx − π))2 se 1/2 < x ≤ 1
= ϕ (T (x)) . 

Il primo esempio del paragrafo 4.2 mostra che la dinamica! di un s.d.d. as-
sociato ad una funzione unimodale come R, ax2 + bx + c con a < 0 può
presentare orbite di periodo 3.
La coniugazione topologica ed i Teoremi 4.44 e 4.45 assicurano che la dina-
mica della logistica h4 in [0, 1] produce orbite di periodo
√ 3: questo in realtà
avviene a partire dal valore aω di a (con aω = 1 + 8 = 3, 828427...). Dun-
que, in accordo con il Teorema di Sharkovsky, se a > aω allora la logistica ha
traiettorie periodiche di ogni periodo intero.

Teorema 4.46. La mappa logistica di parametro 4 determina una dinamica


caotica in [0, 1] ed il quadro delle traiettorie di {[0, 1] , h4 } coincide qualitati-
vamente con il quadro delle traiettorie di {[0, 1] , T }.

Prova. È una conseguenza immediata dei Teoremi 4.28, 4.42 e 4.45. 


Osserviamo che, dati due s.d.d., non è in generale semplice verificare se sono
topologicamente coniugati. Il riscontro di eventuali differenze nella dinamica
prova che non lo sono (vedi Teorema 4.42). Invece, provare la coniugazione
topologica corrisponde alla determinazione esplicita della funzione di coniu-
gazione ϕ. Le tecniche del paragrafo 3.9 consentono in alcuni casi di esplicitare
tale coniugazione topologica: il Teorema 3.74 fornisce esplicitamente la coniu-
gazione tra un s.d.d. non lineare e un s.d.d. lineare. Nell’Esempio 3.77 si prova
la coniugazione topologica di {(0, 1/2) , h2 } con {(0, +∞) , 2x}; le considera-
zioni successive al Teorema 3.74 consentono di esplicitare le soluzioni in forma
non ricorsiva per casi più complicati mediante trasformazioni non biunivoche
4.5 Coniugazione topologica di sistemi dinamici discreti 165

(si veda l’analisi di h4 nell’Esempio 3.78). Nelle ipotesi del Teorema 3.74,
utilizzando le notazioni del paragrafo 3.9, osserviamo che J = ψ (I) è un
intervallo, i s.d.d. {I, f} e {J, bx} sono topologicamente coniugati, la coniuga-
zione topologica è data da ψ e risulta f = ψ−1 ◦ v ◦ ψ. Osserviamo infine che il
s.d.d. {J, bx} è ben definito (cioè per ogni y ∈ J risulta by ∈ J); anche questo
fatto è una conseguenza del Teorema 3.74, infatti se y ∈ J allora esiste x ∈ I
tale che y = ψ (x), dunque, posto x  = f (x) si ottiene by = bψ (x) = ψ (
x) che
ovviamente appartiene a J.
Esercizio 4.22. Verificare che il cambio di variabili ϕ (x) = x − b/ (1 − a), utiliz-
zato nella dimostrazione del Teorema 2.5 per studiare il s.d.d. {R, ax + b} nel caso
a = 1, è effettivamente una coniugazione topologica tra la funzione lineare affine
f (x) = ax + b e la funzione lineare g (x) = ax.

Esercizio 4.23. Mostrare con un esempio che due s.d.d. lineari possono non essere
topologicamente coniugati.

Esercizio 4.24. Siano f e g topologicamente coniugate, ed x  un punto fisso per f :


f ( . Dimostrare che se 
x) = x t è il punto corrispondente
 a 
x mediante una coniuga-
t è punto fisso per g: g 
zione topologica, allora  t =t (la coniugazione topologica
preserva i punti fissi ).

Esercizio 4.25. Dimostrare che se f e g sono topologicamente coniugate mediante


una funzione ϕ monotòna crescente ed esiste un intervallo H contenuto nel dominio
I di f tale che f (x) > x per ogni x ∈ H, allora risulta g (t) > t per ogni t ∈ ϕ (H).

Esercizio
% 4.26. Mostrare
& che i sistemi dinamici {[0, 1] , h4 } e {[0, 1] , g} dove g (x) =
min 4x2 , 4 (x − 1)2 non sono topologicamente coniugati, nonostante il fatto che sia
h4 sia g sono unimodali, continue, suriettive e strettamente monotòne crescenti in
(0, 1/2), decrescenti in (1/2, 1).

Esercizio 4.27. Provare che se f e g sono topologicamente coniugate mediante ϕ,


ed f è monotòna in un intervallo H, allora anche g è monotòna (nello stesso senso)
in ϕ (H) (la coniugazione topologica preserva la monotonia).

Si osservi che dagli esercizi precedenti segue una condizione necessaria per la
coniugazione topologica fra due funzioni f e g: vi deve essere una corrispon-
denza tra tutti gli eventuali punti e/o intervalli in cui f e g coincidono con
la funzione identità.

Esercizio 4.28. Dimostrare che il Teorema di Sharkovsky vale anche per i s.d.d.
del tipo {I, f } con I intervallo aperto.

Esercizio 4.29. Utilizzare gli schemi di approssimazione numerica di Eulero espli-


cito ed Eulero implicito (si veda l’Esempio 1.20) per approssimare la soluzione
del seguente problema di Cauchy, relativo all’equazione differenziale ordinaria della
crescita logistica a tempo continuo

u = b (u − u2 )
u(0) = u0 ,
166 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

dove l’incognita u è una funzione continua e derivabile in [0, ∞) e i parametri reali


b ed u0 sono assegnati e verificano b > 0, 0 < u0 < 1 .
Analizzare il comportamento delle soluzioni ottenute con i due schemi numerici
utilizzando la teoria sviluppata nei Capitoli 3 e 4.

4.6 Metodo di Newton


Un esempio notevole di s.d.d. è quello associato al metodo di Newton per la
determinazione degli zeri di funzioni non necessariamente polinomiali.
Si tratta di un metodo iterativo che consente di ottenere una buona appros-
simazione numerica del risultato in ipotesi molto generali: è necessario ac-
contentarsi di una approssimazione, perché in generale non sono disponibili
formule risolutive neppure per calcolare gli zeri di polinomi di grado quinto o
superiore. Il metodo di Newton è molto utilizzato per la sua grande efficienza
numerica, benché si tratti di una tecnica ormai classica.
Il metodo di Newton per la ricerca degli zeri di una funzione g derivabile
consiste nel seguente metodo iterativo: si costruisce la funzione

g (x)
Ng (x) = x −
g (x)

il cui dominio coincide con quello di g, privato degli zeri di g , poi, a partire
da un valore X0 , si genera per ricorrenza la successione X = {Xk } iterando
la funzione Ng :

X1 = Ng (X0 ) , X2 = Ng (X1 ) , . . . , Xk+1 = Ng (Xk ) = Ngk+1 (X0 ) .

X0 X1 X2

Fig. 4.24. Metodo di Newton


4.6 Metodo di Newton 167

Se g ha almeno uno zero e la scelta di X0 è stata effettuata in modo op-


portuno, la successione X risulta rapidamente convergente ad una soluzione
dell’equazione
g (x) = 0 x ∈ dom (g) .
Quando X0 ∈ R e g è una funzione reale di variabile reale, il significato geo-
metrico della successione X è il seguente: noto Xk , si traccia la tangente in
(Xk , g (Xk )) al grafico di g e si denota con Xk+1 l’ascissa della sua intersezione
con l’asse reale. Per questo motivo il metodo di Newton è anche noto come
metodo delle tangenti.
Osservazione 4.47. I punti fissi di Ng sono gli zeri di g in cui la derivata
g non si annulla. Volendo studiare la stabilità di un punto fisso α del s.d.d.
 g (x) g  (x)
associato a Ng , supposta g ∈ C 2 , possiamo calcolare (Ng ) (x) = 2
(g (x))
 
da cui, se g (α) = 0 e g (α) = 0, si deduce (Ng ) (α) = 0.
L’Osservazione precedente ed il Teorema 3.57, provano il seguente
Teorema 4.48. Se g (α) = 0 e g  (α) = 0, allora α è localmente asintotica-
mente stabile per Ng (più precisamente, è superattrattivo).
Il risultato precedente, utile sul piano teorico, non precisa ai fini pratici quanto
vicino ad α si debba partire (scelta di X0 ) per sentire l’effetto dell’attrattività
locale di α.
Più utile è il seguente risultato elementare, che richiamiamo senza dimostra-
zione, relativo alla ricerca degli zeri di una funzione reale di variabile reale.

Teorema 4.49. Sia g : [a, b] → R una funzione convessa e derivabile, con


g (a) < 0 < g (b). Allora g ha uno ed un solo zero α in (a, b).
Inoltre, comunque si scelga X0 ∈ [a, b] tale che g (X0 ) > 0, la successione
{Xk } generata con il metodo di Newton a partire da X0

g (Xk )
Xk+1 = Xk −
g (Xk )

è definita per ogni k in N e converge ad α in modo decrescente

lim Xk = α, α < Xk+1 < Xk < X0 ∀k ∈ N.


k

Se, inoltre, g ∈ C 2 ([a, b]), allora vale la seguente stima dell’errore:

max g 2
0 < Xk+1 − α < (Xk − α) .
2g (α)
168 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

In particolare, se si parte da un valore X0 prossimo ad α, la convergenza è


molto rapida.

Per utilizzare correttamente il metodo di Newton, occorre fare attenzione alla


verifica delle ipotesi del Teorema 4.49. Ad esempio, è chiaro che la tesi con-
tinua a valere se sostituiamo l’ipotesi di convessità con quella di concavità,
pur di scegliere X0 tale che f (X0 ) < 0 ottenendo la monotonia crescente per
X a partire da valori X0 tali che f (X0 ) < 0. Tuttavia, se vi sono cambi di
concavità nell’intervallo [a, b] si possono avere delle sorprese.

Esempio 4.50. Consideriamo la funzione f : R → R, f (x) = arctan x. È ben


noto che essa ha un solo zero (nell’origine). Tuttavia essa è convessa in (−∞, 0)
e concava (0, +∞), dunque il Teorema 4.49 non vale, e se vogliamo utilizzare il
metodo di Newton per trovare tale zero dobbiamo porre attenzione alla scelta
di X0 .
Ad esempio, se x è l’unica soluzione dell’equazione
2x
arctan x = x ∈ (0, +∞)
1 + x2
cioè la tangente in ( ) al grafico di arctan interseca l’asse delle a-
x, arctan x
scisse in (−x, 0),
 allora
 il metodo di Newton (corrispondente alle iterazioni di
Nf (x) = x − 1 + x2 arctan x) se inizializzato in X0 = x , dà luogo ad una
traiettoria 2 periodica: X1 = − , X3 = −
x, X2 = x x, . . . , Xk = (−1)k x.
Si noti che (Nf ) (x) = −2x arctan x < 0 per ogni x = 0, risultando nul-
la in x = 0. Nf è strettamente decrescente in R ed è dispari. Dunque, l’e-
quazione
" {x ∈ R : Nf (x) # = x} ha la sola soluzione x = 0; invece l’equazione
2
x ∈ R : (Nf ) (x) = x ammette le soluzioni 0 e ± x (quest’ultima afferma-
zione segue dal fatto che Nf dispari e monotòna decrescente assicura che i
2
punti fissi di (Nf ) coincidano con le soluzioni di {x ∈ R : Nf (x) = −x}, che
sono appunto 0 e ± x perché Nf è convessa in (−∞, 0) e concava in (0, +∞)).
Utilizzando l’Algoritmo II (vedi pag. 98) o,
 più semplicemente,
 dallo studio
del segno della differenza arctan x − 2x/ 1 + x2 (vedi Fig. 4.26) si ottie-

−x x

x
 
Fig. 4.25. Grafici di arctan x e 2x/ 1 + x2 ; 2 ciclo di {R, Narctan }
4.7 Sistemi dinamici discreti nel campo complesso 169

Fig. 4.26. s.d.d. associato a Narctan ; 2 ciclo {


x, −
x} di Narctan

ne una descrizione completa del quadro delle fasi del s.d.d. {R, Nf } che qui
riassumiamo:
k
• se |X0 | = x
, allora Xk = (−1) x ;
k
• se |X0 | < x
, allora limk Xk = 0, sign(Xk ) = (−1) sign(X0 ), |Xk |  0;
k
• se |X0 | > x, allora limk |Xk | = +∞, sign(Xk ) = (−1) sign(X0 ), |Xk | 
+∞.
Lo 0 è un equilibrio stabile e localmente attrattivo, mentre {
x, −
x} è un 2 ciclo
repulsivo.7 

Esercizio 4.30. Calcolare numericamente gli zeri di f : R → R, f (x) = ex − 3, con


un errore minore di 10−3 .

4.7 Sistemi dinamici discreti nel campo complesso

L’ambiente naturale in cui studiare il (sistema dinamico discreto associato al)


metodo di Newton è il piano complesso C. Infatti, il metodo, se ben inizializ-
zato, converge ad uno zero della funzione; tuttavia, già nel caso dei polinomi,
il Teorema fondamentale dell’Algebra garantisce l’esistenza di soluzioni in C,
dunque le soluzioni cercate possono non essere numeri reali.
Nell’ambiente complesso, assegnata la funzione g di cui si cercano gli zeri
complessi, il metodo e la funzione iterata corrispondente Ng hanno formula-
zione identica al caso reale; invece ciò che non vale in C è l’interpretazione
geometrica come metodo delle tangenti.

7
 > 1/ 2 segue dal teorema degli zeri e da
L’esistenza di x

2x  2√ π 1
2  √
= 2 > = arctan √ .
1 + x x=1/ 2 3 4 2
 
La non esistenza di altri valori positivi tali che arctan x = 2x/ 1 + x2 (che
originerebbero altri 2 cicli!) segue dallo studio di (Nf )2 .
170 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Precisiamo la nozione di s.d.d. nel caso di iterazioni che trasformano un gene-


rico sottoinsieme del piano complesso C in sè stesso.
Faremo uso di definizioni valide in un ambito più generale di quello consi-
derato nel Capitolo 3. Il lettore è invitato verificare l’analogia formale di tali
definizioni con quelle del caso reale.

Definizione 4.51. Se I = ∅ è un sottoinsieme di C e f : I → I , la cop-


pia {I, f} è detta sistema dinamico discreto su I, del primo ordine,
autonomo, in forma normale.

Definizione 4.52. α è un equilibrio per il s.d.d. {I, f}se α ∈ I e α = f (α).

Definizione 4.53. Un equilibrio α del s.d.d. {I, f} si dice equilibrio stabile


se, ∀ε > 0, esiste un δ > 0 tale che |X0 − α| < δ, X0 ∈ I e Xk = f k (X0 )
implicano
|Xk − α| < ε ∀k ∈ N.
Viceversa, α si dice equilibrio instabile (o repulsivo) se non è stabile, cioè
se esiste ε0 > 0 tale che, per ogni δ > 0, si possono determinare X0 ∈ I e
k > 0 tali che
|X0 − α| < δ |Xk − α| > ε0 .

Per confronto con le definizioni dei paragrafi 3.1 e 3.5, si osservi che l’insieme
{z ∈ C : |z − α| < δ} è un disco, mentre l’insieme {x ∈ R : |x − α| < δ} è un
intervallo.
Definizione 4.54. Un equilibrio α di un s.d.d. {I, f} si dice equilibrio lo-
calmente attrattivo se esiste η > 0 tale che, per ogni valore iniziale X0 ∈
I ∩ {z ∈ C : |z − α| < η}, posto Xk = f k (X0 ), risulta

lim Xk = α.
k

Definizione 4.55. Un equilibrio α del s.d.d. {I, f} si dice equilibrio local-


mente asintoticamente stabile se è stabile e localmente attrattivo.

α α+δ

Fig. 4.27. Disco di centro α e raggio δ in C


4.7 Sistemi dinamici discreti nel campo complesso 171

Per i s.d.d. {I, f}, con f ∈ C 1 (I) ed I disco nel piano complesso, continua a
valere il criterio di stabilità del Teorema 3.57, pur di sostituire il modulo di
numero reale con quello di numero complesso.

Teorema 4.56. Se α è un equilibrio per il s.d.d. {I, f}, con I ⊂ C, f in


C 1 (I), allora

|f  (α)| < 1 ⇒ α localmente asintoticamente stabile

|f  (α)| > 1 ⇒ α instabile

Prova. La dimostrazione di tale teorema nel caso complesso è formalmente identica


al caso reale, salvo il fatto che non vale il teorema di Lagrange. Si può comunque
usare l’identità seguente:
 z  1
f (z) − f (w) = f  (u) du = f  (w + t (z − w)) (z − w) dt
w 0

(valida se il segmento che congiunge z a w è contenuto in I) da cui si ottiene


  
|f (z) − f (w)| ≤ max f   |z − w|

e max |f  | può essere stimato in un opportuno disco di centro α in modo tale che
risulti max |f  | < 1. 
Alla luce del Teorema 4.56 è naturale conservare anche nel caso complesso la
terminologia della Definizione 3.59 (equilibri superattrattivi, neutri). Riconsi-
deriamo dal punto di vista dei sistemi dinamici complessi il metodo di Newton
per la ricerca delle radici di un polinomio nel campo complesso.

Teorema 4.57. Sia p un polinomio non costante di variabile complessa. De-


finiamo
p (z)
Np (z) = z − 
p (z)
dove è sottointesa l’eventuale semplificazione tra fattori comuni di p e p .
Valgono le seguenti conclusioni:

1) Np è definita e derivabile nell’insieme I di tutti i punti del piano com-


plesso salvo gli zeri di p che non siano anche zeri di p. In particolare,
senza ulteriori condizioni, è definita e continua in tutti gli zeri di p.
2) L’insieme dei punti fissi di Np in I coincide con l’insieme delle radici
complesse di p.
3) Tutti i punti fissi di Np sono localmente asintoticamente stabili per il
s.d.d. {I, Np }.
4) Gli zeri semplici di p sono superattrattivi per il s.d.d. {I, Np }.
172 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Prova. Sia α una radice di p con molteplicità m. Allora p(z) = (z − α)m q(z) con
q (α) = 0 e
p (z) (z − α) q (z)
Np (z) = z −  =z− .
p (z) (z − α) q (z) + mq (z)
Np (α) = α.
Viceversa, se Np (α) = α, allora α − p (α) /p (α) = α cioè8 p (α) = 0.
Infine
2
(p (z)) − p (z) p (z) p (z) p (z)
(Np ) (z) = 1 − 2 = .

(p (z)) (p (z))2
Dunque, se α è uno zero semplice di p, cioè p (α) = 0 e p (α) = 0, allora (Np ) (α) = 0
cioè α è stabile e superattrattivo.
Se α non è uno zero semplice, cioè p (α) = p (α) = 0, allora esiste m ≥ 2 tale che
p (z) = (z − α)m q (z) e q (α) = 0; ne segue

(Np ) (z) =
 
m
(z − α) q (z) m (m − 1) (z − α) q (z) + 2m (z − α)m−1q (z) + (z − α)m q (z)
m−2

 2
m (z − α)m−1 q (z) + (z − α)m q (z)
 
q (z) m (m − 1) q (z) + 2m (z − α) q (z) + (z − α)2 q (z)
=
(mq (z) + (z − α) q (z))2

m (m − 1) q (α)2 m−1
(Np ) (α) = 2 = <1
2
m q (α) m
cioè α è attrattivo e stabile. 
Grazie al fatto che le funzioni di variabile complessa derivabili con derivata
continua e non costanti hanno solo zeri isolati e di ordine finito ed intero, si
può provare nello stesso modo il seguente risultato di portata più generale con
una dimostrazione identica a quella del Teorema 4.57.
Teorema 4.58. Sia f ∈ C 1 (Ω), Ω ⊂ C aperto connesso, ed f non costante.
Definiamo
f (z)
Nf (z) = z − 
f (z)
dove è sottointesa l’eventuale semplificazione di fattori comuni di f e f  . Al-
lora:
1) Nf è definita e derivabile nell’insieme I = Ω\{z ∈ Ω : f  (z) = 0 =
f(z)}.
2) Nf è definita e continua negli zeri di f.
3) L’insieme dei punti fissi di Nf in Ω coincide con l’insieme degli zeri di f.
4) Tutti i punti fissi di Nf sono localmente asintoticamente stabili per il
s.d.d. {I, Nf }.
5) Gli zeri semplici di f sono superattrattivi per il s.d.d. {I, Nf }.
8
Nell’espressione p (α) /p (α) deve essere sempre sottointesa l’eventuale
semplificazione.
4.7 Sistemi dinamici discreti nel campo complesso 173

Enfatizziamo il fatto che la locale asintotica stabilità garantisce convergenza


solo se il valore iniziale X0 è scelto “sufficientemente vicino” alla radice che si
vuole approssimare. Quanto vicino è in generale questione delicata che richie-
de un’analisi accurata caso per caso (si vedano al riguardo il Teorema 4.49 e
l’Esempio 4.50).
Esempio 4.59. Sia p (z) = az + b con a e b assegnati in C, a = 0. L’unico
zero (−b/a) di p è globalmente asintoticamente stabile in C per Np (z) = −b/a
(tutte le traiettorie sono definitivamente costanti: Xk = −b/a per k ≥ 1) ed
il suo bacino di attrazione è tutto C. 
Nel caso di funzioni f non lineari il quadro delle fasi di Nf è decisamente più
complicato.
Prima di affrontare un’analisi sistematica, il lettore è invitato a studiare grafi-
camente e con simulazioni al computer le iterazioni di Nf in R corrispondenti
a f (x) = x2 ± 1, x ∈ R.
In particolare, ci si rende conto che anche nel caso semplice in cui p è un
polinomio (e dunque ha un numero finito di radici e tutte localmente asinto-
ticamente stabili per Np ), il dominio di Np (ossia C privato degli zeri di p che
non sono zeri di p) in generale non è l’unione dei bacini di attrazione degli
zeri di p.
Studiamo sistematicamente il caso dei polinomi quadratici:

p (z) = az 2 + bz + c a, b, c, ∈ C , a = 0. (4.3)

La funzione di Newton associata è pertanto

az 2 + bz + c az 2 − c
Np (z) = z − = . (4.4)
2az + b 2az + b
Lemma 4.60. Se p, Np sono definiti da (4.3) e (4.4), e a = 0 , allora Np è
topologicamente coniugato a

z2 + D
Nq (z) =
2z
dove

q (z) = z 2 − D e D = b2 − 4ac è il discriminante di p

tramite il cambio di variabili ϕ (z) = 2az + b.

Prova. Basta verificare che ϕ (Np (z)) = Nq (ϕ (z)). 

Grazie al Teorema 4.42 ed al Lemma 4.60, per studiare la dinamica di Np è


sufficiente conoscere quella di Nq , con q (z) = z 2 − D, al variare della costante
D in C.
Cominciamo a studiare il caso D ∈ R, limitandoci per semplicità al caso di
coefficienti a, b, c reali ed alla dinamica in R.
174 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Teorema 4.61. Sia p (x) = ax2 + bx + c con a, b, c, x ∈ R e a = 0. Ne segue:

• Se D = 0, allora q (x) = x2 , Nq (x) = x/2 e 0 (la radice doppia di q) è


l’unico punto fisso globalmente asintoticamente stabile per {R, Nq }. Corri-
spondentemente {R\ {0} , Np } ha un unico punto fisso globalmente asinto-
 = ϕ−1 (0) = −b/2a (radice doppia di p).√
ticamente stabile: x
• Se D > 0, allora q (x) = x2 − D ha radici reali  semplici ± D che coin-
cidono con i punti fissi di Nq (x) = x2 + D /2x e sono localmente asin-

toticamente stabili e superattrattive per il s.d.d. {R\√{0} , Nq }. Inoltre + D
ha come bacino di attrazione (0, +∞), mentre − D ha come bacino di
attrazione (−∞, 0). Corrispondentemente {R\ {−b/2a} , Np } ha due punti
fissi localmente asintoticamente stabili e superattrattivi:
 √    
 = ϕ−1 ± D = −b ± b2 − 4ac /2a
x

i cui bacini di attrazione sono rispettivamente (−b/2a, +∞)√e (−∞, −b/2a).


• Se D < 0, allora q (x) = x2 − D ha radici immaginarie ±i −D che sono i
punti  localmente asintoticamente stabili per {C\ {0} , Nq } con Nq (x) =
fissi
x2 + D /2x, ma la dinamica di {R\ {0} , Nq } è caotica. Corrispondente-
mente la dinamica di Np è caotica e priva di punti fissi.

Prova. Il caso D = 0 non√ richiede commenti. √


Se
√ D > 0, 0 < X 0 < D e Xk = (Nq )k (X0 ), allora valgono X0 < D < X1 e
D < Xk+1 √ < Xk per k ≥ 1. La monotonia di X ed il Teorema 3.25 implicano
limk Xk = √D. √
Se D > 0 e D ≤ X0 , allora√ D < Xk+1 < Xk per k ∈ N e con lo stesso argomento
di monotonia limk Xk = D. √
Il caso D > 0 e X0 < 0 è analogo (limk Xk = − D).
Veniamo al caso non banale D < 0. Per evitare complicazioni tecniche, studiamo solo
il caso D = −1 cioè q (x) = x2 +1 (questo basta perché Nx2 +c e Nx2 +1 sono topologi-

camente coniugati se c è positivo mediante il cambio di coordinate ψ (x) = c x , in-
fatti ψ ◦Nx2 +1 = Nx2 +c ◦ψ). Gli esperimenti numerici e grafici suggeriscono la caoti-
cità della dinamica. Questa può essere dimostrata
 formalizzando
 il discorso seguente:
consideriamo il prolungamento di Nx2 +1 (x) = x2 − 1 / (2x) con valore ∞ in x = 0
e in x = ∞. In tal modo, Nx2 +1 manda R∪ {∞} in sè stesso ed è topologicamente co-
niugata mediante la funzione τ : [0, 2π) → R∪ {+∞}, τ (x) = cot (x/2) = 1/tg (x/2)
alla mappa del raddoppio di fase D : S → S, D (θ) = 2θ(modulo 2π) che sappiamo
essere caotica (Esempio 4.21 e Teorema 4.30).
Verifichiamo la coniugazione tra Nx2 +1 e D:

(cot (x/2))2 − 1 (cos (x/2))2 − (sin (x/2))2


Nx2 +1 (τ (x)) = = =
2 cot (x/2) 2 sin (x/2) cos (x/2)
cos x
= = cot x = τ (D (x)) .
sin x
Le tesi formulate per la dinamica di Np si ottengono da quelle relative alla dinamica
di Nq mediante il Lemma 4.60. 
4.7 Sistemi dinamici discreti nel campo complesso 175


D


− D

X0 D


− D

 
Fig. 4.28. D > 0, dinamica di Nq (x) = x2 + D /2x , q (x) = x2 − D

 
Fig. 4.29. D < 0, dinamica di Nq (x) = x2 − 1 /2x, q (x) = x2 + 1
176 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

z1 r

z2

Fig. 4.30. Il bacino di z1 è ombreggiato, quello di z2 è bianco

Il risultato precedente è in realtà un caso particolare del seguente teorema in


cui i coefficienti a, b, c del polinomio p sono generici numeri complessi, con a
non banale.

Teorema 4.62. Siano a, b, c ∈ C ed a = 0.


Se il polinomio p (z) = az 2 +bz +c ha due radici distinte z1 , z2 , allora il s.d.d.

az 2 − c
{ C\ {(z1 + z2 ) /2} , Np } con Np (z) =
2az + b
è caotico sulla retta r perpendicolare al segmento di estremi z1 , z2 e passante
per il punto medio (z1 + z2 ) /2. Inoltre tale retta r separa due semipiani aperti
che sono i bacini di attrazione di z1 e z2 (stabili e superattrattivi).
Se il polinomio p (z) = az 2 + bz + c ha una sola radice, allora tutti i pun-
ti di C sono nel bacino di attrazione di tale radice che risulta globalmente
asintoticamente stabile (in questo caso il s.d.d. è definito in tutto C).

Prova. Per il Lemma 4.60, nel primo caso p è topologicamente coniugato in C a


z 2 − 1 mediante una trasformazione lineare del piano complesso che trasforma z1 e
z2 rispettivamente in −1 e +1, nel secondo caso, Np è topologicamente coniugato in
C a Nz 2 .
La tesi segue dunque dal Teorema 4.42. 

Osservazione 4.63. L’informazione relativa ai bacini di attrazione risale ad


Arthur Cayley9 (1879), mentre la descrizione della dinamica su r è molto più
recente.

Finora siamo stati intenzionalmente vaghi nella descrizione del s.d.d. associa-
to ad Np con p polinomio di secondo grado: anche se Np è definito in ogni
z ∈ C diverso da (z1 + z2 ) /2 = −b/2a tuttavia esiste una infinità di valori

9
Arthur Cayley, 1821-1895.
4.7 Sistemi dinamici discreti nel campo complesso 177

complessi a partire dai quali le iterazioni di Np non generano una successione.


az 2 − c
Infatti, se p (z) = az 2 + bz + c, allora Np (z) = e,
2az + b
• se b2 −4ac = 0, allora Np (z) = z/2−b/(4a) e {C, Np} è un s.d.d. ben definito;
• se b2 − 4ac = 0, vi sono una infinità di punti (insieme che denotiamo con
Z) contenuti nella retta r perpendicolare al segmento [z1 , z2 ] nel suo punto
medio, a partire dai quali le iterate di Np portano al valore vietato −b/2a
in un numero finito di passi; dunque in tale caso il s.d.d. definito corretta-
mente è {C\Z , Np }.
Per provarlo basta studiare il caso p (z) = z 2 + 1, z1,2 = ±i (il caso gene-
rico segue
 per coniugazione topologica): in questo semplice caso
 N! p (z) =
z 2 − 1 /2z e risolvendo in z l’equazione z ∈ C : w = z 2 − 1 /2z si ot-

tengono i due rami di Np−1 : Np−1 (w) = w ± w 2 + 1. Così Z è l’insieme di
tutti i valori che si ottengono iterando Np−1 a partire da 0: ϕj1 ◦ ϕj2 ◦ · · · ◦
√ √
ϕjk (0), jk = 1, 2, ϕ1 (z) = z + z 2 + 1, ϕ2 (z) = z − z 2 + 1. In tal modo
è immediato dedurre che Z è infinito e contenuto in R (ϕ1 è strettamente
monotòna).
 
Esempio 4.64. Sia p (z) = z 3 − 1. Allora Np (z) = 2z 3 + 1 /3z 2 , i cui pun-
ti fissi localmente attrattivi sono 1, e2πi/3 , e4πi/3 . Si provi ad effettuare un
esperimento numerico con un computer: scelta una griglia di punti nella re-
gione quadrata di vertici (±1 ± i) 9/5, a partire da ciascuno di tali punti si
calcoli il valore delle prime 60 iterazioni di Np ; per la superattrattività, se

Fig. 4.31. Dinamica del Metodo di Newton relativa a f (z) = z 3 − 1: bacini di 1,


e2πi/3 , e4πi/3 denotati con varie tonalità di grigio
178 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

|X60 − 1| < 1/4 è ragionevole supporre che  X0 sia nel bacino di attrazione
di 1 e decidiamo di colorarlo in grigio, se X60 − e2πi/3  < 1/4 è ragionevole
supporre che X0 sia4πi/3
nel bacino
 di attrazione di e2πi/3 e decidiamo di colorarlo

in nero, se X60 − e  < 1/4 è ragionevole supporre che X0 sia nel bacino
di attrazione di e4πi/3 e decidiamo di colorarlo in bianco.
Se le risorse di calcolo lo consentono, senza rendere eccessivamente lunghi i
tempi di attesa, si sostituisca 60 con 100.
Qualche commento su come sono stati ottenuti i diagrammi: la Fig. 4.31 rap-
presenta i bacini di attrazione delle tre radici complesse di 1 rispetto alla
dinamica di Nz3 −1 .
Nei punti di una griglia 200 × 200 collocata nel quadrato del piano complesso
{z ∈ C : |Re (z)| ≤ 2, |Im (z)| ≤ 2} si calcolano le iterate di Nz3 −1 fino a che
si ottiene un valore che differisce meno di 0, 5 da una delle tre radici com-
plesse dell’unità (1, exp 2πi/3, exp 4πi/3). Quando è soddisfatto tale test di
prossimità si arrestano i calcoli e si assegna un colore convenzionale: grigio in
prossimità ad 1, nero in prossimità ad exp (2πi/3), bianco in prossimità ad
exp (4πi/3). 

La Fig. 4.32 illustra mediante diverse tonalità di grigio i bacini di attrazione


per il metodo di Newton Nzn −1 quando n varia da 1 a 12. L’algoritmo è più
raffinato del precedente ed utilizza delle routine di calcolo interne al Mathe-

matica  versione
 4.1: per ciascun punto della griglia in {z ∈ C : Re(z) ≤
1, 3 , Im(z) ≤ 1, 3} si calcolano 35 iterazioni (ricordiamo che tutti gli zeri
sono semplici e dunque superattrattivi) poi si attribuisce un valore all’argo-
mento del numero complesso ottenuto (che sarà praticamente indistinguibile
dall’argomento dell’attrattore corrispondente).
Esaminiamo comparativamente i vari casi della Fig. 4.32.
Se n = 1 allora z = 1 è globalmente asintoticamente stabile e la dinamica è
particolarmente semplice (ricordiamo che Nz−1 (z) = 1). Tutte le traiettorie
sono definitivamente costanti.
Se n = 2, si conferma quanto detto in precedenza nello studio dettagliato di
Nz2 −1 . Ricordiamo che la frontiera (o bordo) dei due bacini pur essendo geo-
metricamente banale (è una retta), è sede di una dinamica caotica e contiene
un insieme infinito e denso a partire dal quale le traiettorie sono definite solo
per un numero finito di passi.
Quando si passa ad n ≥ 3 la situazione si complica moltissimo: tutti i bacini
hanno una frontiera (comune a ognuno di essi) che necessariamente (essendo
n > 2) è un oggetto topologicamente complicato, che presenta molte proprietà
di simmetria e autosimilarità, ma non è un oggetto geometrico elementare.
La Fig. 4.32 suggerisce una ricchezza di proprietà delle frontiere che non è
possibile visualizzare graficamente nei dettagli.
Osserviamo che se il bordo che separa i bacini di attrazione non è una curva
nel senso elementare abbiamo una manifestazione di comportamento caotico o
quantomeno poco prevedibile, di tipo nuovo; la competizione tra più attrattori
può determinare l’esistenza di regioni di tipo frattale di dimensione maggiore
4.7 Sistemi dinamici discreti nel campo complesso 179

di 1 nelle quali si ha una dipendenza sensibile dallo stato iniziale: col-


locando lo stato inziale X0 nel bordo di un bacino di attrazione, ci si trova
automaticamente sul bordo di tutti gli n bacini10 . Inoltre la ramificazione di
tale bordo rende problematiche le previsioni sulla dinamica asintotica per un
generico dato iniziale, a meno di non esssere ben all’interno di un bacino.
Nel caso di polinomi p di terzo grado, la dinamica in C di Np è estrema-
mente complessa ed al tempo stesso ricca di strutture topologicamente ed
esteticamente interessanti.
Concludiamo con lo studio qualitativo di alcuni altri esempi di dinamica com-
plessa. Ci limitiamo alle dinamiche generate da polinomi, perché non presen-
tano problemi di dominio, essendo trasformazioni di tutto C in sè stesso.

Esempio 4.65. Sia f (z) = az, a ∈ C. La moltiplicazione per il numero com-


plesso a corrisponde ad una rotazione del piano complesso di angolo pari
all’argomento θ di a composta con una omotetia pari al modulo |a| di a:

a = |a| (cos θ + i sin θ) = |a| eiθ θ ∈ [0, 2π) .

Fig. 4.32. Bacini di attrazione in C delle radici n-esime complesse dell’unità per
la dinamica associata al metodo di Newton Nz n −1 con n = 1, . . . , 12

10
Ricordiamo che z appartiene al bordo dell’insieme E ⊂ C se per ogni r > 0
esistono w ∈ E e u ∈ C\E tali che |z − w| < r e |z − u| < r. Dunque z nel bordo di
tutti i bacini significa che per ogni r > 0 esistono w1 , . . . , wn tali che |z − wj | < r
ed ogni wj è nel bacino della j-esima radice complessa di 1.
180 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

a = (8/7) (cos π/6 + i sin π/6) a = (7/8) (cos π/6 + i sin π/6)

Fig. 4.33. Traiettorie a spirale del s.d.d. {C, az} : convergenti se |a| < 1 ,
divergenti se |a| > 1

Dunque tutte le traiettorie di {C, az} sono del tipo Xk = ak X0 . Il disegno se-
guente evidenzia i primi passi di alcune traiettorie di {C, az} di punto iniziale
X0 = 1.
Dunque:
• se |a| < 1, allora 0 è l’unico equilibrio di {C, az} ed esso è anche global-
mente asintoticamente stabile;
• se |a| > 1, allora 0 è ancora l’unico equilibrio, ma in tal caso è repulsivo;
• se a = 1, allora tutti i punti di C sono equilibri e tutte le traiettorie sono
costanti;
• se |a| = 1 ma a = 1, allora 0 è nuovamente l’unico equilibrio, stabile ma
non attrattivo: le traiettorie ruotano attorno all’origine; sono tutte perio-
diche se l’argomento di a è un sottomultiplo di 2π, in caso contrario non
esistono orbite periodiche.

Osserviamo che se restringiamo il dominio di f alla circonferenza unitaria S =


{z ∈ C : |z| = 1}, il s.d.d. {S, az} con |a| = 1 ed arg a/2π ∈ Q, è topologica-
mente transitivo e manifesta dipendenza sensibile dai dati iniziali. 

Più interessante è la dinamica generata in C dai polinomi quadratici.


!
Esempio 4.66. Il s.d.d. C, z 2 ha due equilibri, 0 e 1.
0 è localmente asintoticamente stabile e il suo bacino è {z ∈ C : |z| < 1}.
1 è repulsivo. Tutti i punti z di modulo unitario e diversi da 1 sono valori
iniziali di traiettorie che ruotano sulla circonferenza di raggio 1. Tutti i punti
z ∈ C tali che |z| > 1 sono valori iniziali di traiettorie chedivergono all’infinito:

Xk+1 = Xk2 , |X0 | > 1 ⇒ lim |Xk | = +∞


k
4.7 Sistemi dinamici discreti nel campo complesso 181

Come nell’esempio precedente, tutti i polinomi quadratici az 2 + bz + c presen-


tano l’alternativa tra i dati iniziali le cui traiettorie sono divergenti e quelli le
cui traiettorie rimangono limitate. 
Esercizio 4.31. Dato il polinomio  q (z) = z 2 + c, con c, z ∈ C, provare che se
|z| > %|c| + 1 allora  k 
2
& limk q (z) = +∞ e di conseguenza per ogni traiettoria del
s.d.d.
  C, z + c vale l’alternativa: è divergente oppure è contenuta nel disco {z ∈
C : z  ≤ c| + 1}.

L’esercizio precedente
! potrebbe far pensare che la dinamica del sistema di-
namico C, z 2 + c sia relativamente semplice. In realtà, se c = 0, allora il
bordo che separa i due insiemi di dati iniziali in cui le traiettorie divergono o
rimangono limitate hanno una struttura molto complicata che prende il nome
di insieme di Julia, dal nome del matematico francese Gaston Julia (1893-
1978) che ne ha studiato le proprietà assai prima che l’avvento dei computers
ne consentisse un’efficace visualizzazione mediante simulazioni numeriche.
Si dice insieme pieno di Julia e!si denota con Kc l’insieme dei punti iniziali
di traiettorie del s.d.d. C, z 2 + c che rimangono limitate. Dunque l’insieme
di Julia è il bordo dell’insieme pieno di Julia.
Per effettuare simulazioni numeriche è utile sfruttare il seguente risultato ge-
nerale che contiene il Teorema 4.18.

Teorema 4.67. Se un polinomio p complesso ha un’orbita periodica attrattiva


allora nel bacino dell’orbita vi deve essere almeno uno zero della derivata di p.

Questo risultato suggerisce, per trovare le orbite periodiche di q (z) = z 2 + c,


di iterare a partire da X0 = 0. Inoltre assicura che di orbite periodiche e sta-
bili ve ne è al più una. Accenniamo brevemente ai sistemi dinamici di ordine
superiore al primo nel campo complesso.
Definizione 4.68. Se I è un qualunque sottoinsieme di C ed

F : I ×I ×···×I → I
 

n termini

è una funzione continua, la coppia {I n , F } è detta sistema dinamico di-


screto su I, di ordine n, autonomo, in forma normale.
Ad un s.d.d. di ordine n è associato un sistema di infinite equazioni del tipo

Xk+n = F (Xk+n−1 , Xk+n−2 , . . . , Xk ) k ∈ N. (4.5)

Ogni n-upla di condizioni iniziali {X0 , X1 , . . . , Xn−1 } determina in modo uni-


co la successione che risolve (4.5), che è detta traiettoria del s.d.d. corrispon-
dente alla n-upla di condizioni iniziali.
Esempio 4.69. Sia F : C × C → C definita da F (z, w) = z + w. Si ottiene:

Xk+2 = Xk+1 + Xk
182 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos
2 2

1 1

0 0

-1 -1

-2 -2
-2 -1 0 1 2 -2 -1 0 1 2
2 2

1 1

0 0

-1 -1

-2 -2
-2 -1 0 1 2 -2 -1 0 1 2
2 2

1 1

0 0

-1 -1

-2 -2
-2 -1 0 1 2 -2 -1 0 1 2

Fig. 4.34. Insiemi pieni di Julia Kc , c = 0; c = 0, 01 + 0, 4i; c = −1; c = −0, 7 +


0, 2i; c = −0, 09 + 0, 7i; c = −0, 41 + 0, 59i

cioè la definizione ricorsiva che, con i dati iniziali X0 = 0 e X1 = 1 genera i


numeri di Fibonacci, e, per una generica coppia di numeri complessi X0 e X1
genera la successione
$ √ %n $ √ %n
1   √   1+ 5 1   √   1− 5
√ 2X1 − 1 − 5 X0 + √ 2X1 + 1 + 5 X0 .
2 5 2 2 5 2
4.8 Esercizi di riepilogo 183

4.8 Esercizi di riepilogo


Esercizio 4.32. Se α è un equilibrio del {I, f } con f ∈ C 1 (I), il numero f  (α) si
dice moltiplicatore dell’equilibrio.
Provare che una coniugazione topologica C 1 (I) con inversa C 1 preserva il moltipli-
catore di ogni equilibrio del sistema dinamico.

Esercizio 4.33. Se {α1 , . . . , α


s } è una orbita s periodica del s.d.d. {I, f } con f ∈
C 1 (I), il numero (f s (α1 )) = sj=1 f  (αj ) si dice moltiplicatore dell’orbita.
Provare che una coniugazione topologica C 1 (I) con inversa C 1 preserva il moltipli-
catore di ogni orbita periodica del sistema dinamico.

Osservazione 4.70. Le proprietà provate nei due precedenti esercizi (che si


applicano anche a s.d.d. in domini del I del campo complesso), nel caso rea-
le forniscono una precisazione del punto (iv) del Teorema 4.42 nel caso di
equilibri e punti periodici.
Si noti che tali proprietà possono essere utilizzate anche in negativo: ad esem-
pio per provare che non esistono coniugazioni topologiche C 1 con inversa C 1
tra {[0, 1/2], x − x2 } ed un s.d.d. associato ad una funzione lineare su un in-
tervallo [a, b]. Infatti a dovrebbe essere un equilibrio ed una tale coniugazione
topologica dovrebbe conservare il moltiplicatore 1 nell’equilibrio a, dunque la
funzione lineare sarebbe necessariamente l’identità che ha infiniti equilibri, a
differenza del s.d.d. di partenza: in contraddizione con il Teorema 4.42.
5
Sistemi dinamici discreti: equazioni
vettoriali

In questo capitolo consideriamo l’evoluzione a tempi discreti di quantità vet-


toriali. Ci limitiamo allo studio di leggi lineari (o lineari affini) ad un passo,
che descrivono le variazioni di tali quantità a passi successivi.
Sono discusse alcune applicazioni a modelli della demografia e della genetica.
Per una buona comprensione di questo capitolo è opportuno conoscere alcuni
risultati elementari di algebra lineare che, per completezza, sono riportati in
Appendice D.

5.1 Definizioni e notazione

Consideriamo un semplice esempio: il modello di Leslie (si veda l’Esempio 1.16)


per una popolazione X divisa in classi di età disgiunte e di ampiezza uguale
al passo temporale; per semplicità consideriamo solo tre classi d’età, in ordine
progressivo di anzianità. A, B e C denotano le tre corrispondenti successioni
scalari
A = {Ak } B = {Bk } C = {Ck }
dove Ak , Bk e Ck denotano la consistenza numerica di ciascuna classe d’età
 T
al tempo k. Con X indichiamo il vettore a tre componenti X = A B C .
Se indichiamo con a, b, c i tassi di natalità, rispettivamente nelle classi A, B,
C, e con α, β e γ i tassi di mortalità delle classi A, B e C, si ottiene il sistema
che descrive l’evoluzione della popolazione. Per semplicità, supporremo γ = 1
(il che equivale a dire che gli individui della classe C non hanno speranza di
vita superiore ad un intervallo temporale):

⎨ Ak+1 = aAk + bBk + cCk
Bk+1 = (1 − α) Ak .

Ck+1 = (1 − β) Bk

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_5, © Springer-Verlag Italia 2014
186 5 Sistemi dinamici discreti: equazioni vettoriali

Con notazione vettoriale, otteniamo la legge ricorsiva

Xk+1 = M Xk
(5.1)

avendo posto ⎡ ⎤ ⎡ ⎤
Ak a b c
Xk = ⎣ Bk ⎦ M = ⎣1 − α 0 0⎦.
Ck 0 1−β 0
È immediato esprimere in forma chiusa (provarlo per induzione) il termine
generale di (5.1)

Xk = Mk X0 ∀k ∈ N

k volte

 
dove Mk = M · M· · · · · M ed M · M è l’usuale prodotto righe per colonne. Tut-
tavia, nonostante la conoscenza esplicita (non ricorsiva) della successione X,
rimane un problema di calcolo: infatti, la moltiplicazione fra matrici è una
operazione lunga anche se effettuata con procedure di calcolo automatico, e
deve essere effettuata anche per valori grandi di k. Ad esempio, sapere che al
tempo 50 risulta X50 = M50 X0 , non dà molta informazione sulla suddivisione
in classi di età della popolazione X50 , a meno di non calcolare effettivamen-
te M50 . Nella pratica anche la dimensione della matrice M è ben maggiore
di tre, il che aumenta in modo sostanziale la complessità computazionale del
problema.
Un poco di algebra lineare può però fornire molte informazioni qualitative su
Mk X0 , anche senza effettuare il calcolo esatto, o ridurre la complessità com-
putazionale se la matrice ha una particolare struttura (come in effetti avviene
nel caso del modello di Leslie).
Ricordiamo due importanti definizioni di algebra lineare (rinviamo all’Appen-
dice D per ulteriori dettagli).

Definizione 5.1. Sia M una matrice quadrata di ordine n. Si dicono autova-


lori di M le radici (nel piano complesso C) del suo polinomio caratteristico
P (λ) = det (M − λI) :
{λ ∈ C : P (λ) = 0} .

Per il Teorema fondamentale dell’Algebra, una matrice M di ordine n ha esat-


tamente n autovalori nel campo complesso (purché si contino con la stessa
molteplicità delle radici di P (λ)).
5.2 Applicazioni alla genetica 187

Definizione 5.2. Un vettore V ∈ Cn \ {0} si dice autovettore della matrice


quadrata M di ordine n se esiste un numero complesso λ tale che

MV = λV.

In tal caso λ è necessariamente un autovalore della matrice M (associato


all’autovettore V).
Se è possibile1 determinare n autovettori reali e linearmente indipendenti
V1 , . . . , Vn, di una matrice M, di ordine n, allora V1 , . . . , Vn formano una
base di Rn ; pertanto ogni vettore W ∈ Rn può essere rappresentato (in modo
unico) mediante tale base come

W = c 1 V 1 + c 2 V 2 + · · · + cn V n (5.2)

e questo consente, in tali ipotesi, un semplice calcolo2 dell’espressione Mk W:

 
Mk W = Mk c1 V1 + c2 V2 + · · · + cn Vn = c1 λk1 V1 + · · · + cn λkn Vn

(5.3)
ove λj è l’autovalore associato a Vj , j = 1, 2, . . ., n.
Qualora non vi siano n autovettori linearmente indipendenti l’esplicitazione
di Mk W è più tecnica (si veda l’Osservazione 5.9).
Nel seguito, analogamente al caso scalare, chiameremo orbita o traiettoria
una qualsiasi successione di vettori {Xk } che risolve il sistema (5.1).

Esercizio 5.1. Determinare, nei vari casi, la soluzione esplicita del s.d.d. vettoriale
Xk+1 = M Xk con il dato iniziale X0 :
⎡ ⎤
0 1 1 0 0
13 # $T # $T
1) M = , X0 = 1 2 ; 2) M = ⎣ 2 −1 0 ⎦ , X0 = 4 −1 0 ;
02
3 −2 −3
⎡ ⎤
1 0 −1 #√ $T
3) M = ⎣ 0 −1 0 ⎦ , X0 = 2 − 1 3 −1 .
−1 0 −1

5.2 Applicazioni alla genetica

Le caratteristiche dei singoli individui di una specie biologica sono determi-


nate dai geni ereditati dai genitori. Quando un determinato gene G presenta
1
Questo non è sempre vero, tuttavia questa ipotesi è verificata in molti casi; ad
esempio, se M è una matrice simmetrica: Mij = Mji , ∀i, j, o se gli autovalori di M
sono tutti semplici.
2
Ricordiamo che se λ è autovalore di una matrice quadrata S con autovettore
associato V = 0, allora λk è autovalore di Sk con autovettore associato V.
188 5 Sistemi dinamici discreti: equazioni vettoriali

due sole forme dette alleli (allele G e allele g), ogni individuo ereditando un
allele da ciascun genitore, può avere nel suo patrimonio genetico quattro tipi
di coppie di alleli del gene G: (G, G), (g, g), (G, g), (g, G). I primi due tipi
sono detti omozigoti, gli altri eterozigoti.
Consideriamo, per semplicità, il caso in cui l’ordine degli alleli non ha influen-
za, cioè consideriamo indistinguibili (G, g) e (g, G). Dunque, abbiamo tre tipi
di individui relativamente alle caratteristiche determinate dal gene G: due
omozigoti (G, G), (g, g) e un eterozigote (G, g).

Legge di Hardy-Weinberg
Supponiamo che due geni allelomorfi G e g siano presenti nella popolazione
in proporzioni rispettivamente p e q con p, q ∈ [0, 1] e p + q = 1 e che
1) non vi siano mutazioni da G a g o viceversa;
2) nessuno degli individui (G, G), (g, g) o (G, g) sia avvantaggiato rispetto
agli altri e gli accoppiamenti avvengano in modo casuale;
3) il numero di individui della popolazione sia molto grande;
4) non vi siano immigrazioni di geni G o g per effetto di incroci con popo-
lazioni contigue.
Allora le proporzioni dei due alleli rimangono invariate nelle generazioni suc-
cessive.
Inoltre, le proporzioni di individui rispettivamente G omozigoti, g omozigoti
ed eterozigoti sono, a partire dalla prima generazione, p2 , q 2 e 2pq.
Ad esempio, se G determina la colorazione cutanea ed è recessivo3 , mentre g
impedisce la formazione del pigmento (gene dell’albinismo), supponendo alla
generazione 0 che le percentuali dei due alleli siano rispettivamente 99, 9% e
0, 1% (cioè p = 0, 999 e q = 0, 001), allora tali percentuali si conservano inal-
terate nelle generazioni successive. Inoltre, a partire dalla generazione 1 vi è
una frazione q 2 = 0, 000001 pari allo 0, 0001% (un individuo su un milione) di
individui albini omozigoti e vi è una frazione 2pq = 0, 001998 cioè lo 0, 1998%
di albini eterozigoti (complessivamente in tale situazione quasi due individui
su mille sono albini).

Osservazione 5.3. Si noti che nella pratica si pone il problema inverso: si


osserva la popolazione e si deduce, tramite la legge di Hardy-Weinberg la
frequenza di ciascuno dei due geni.

Osservazione 5.4. Le ipotesi 1) - 4) nella legge di Hardy-Weinberg corrispon-


dono alla stabilità (assenza di evoluzione); se una o più fra esse vengono meno
si hanno spinte evolutive:
• [non 1)] mutazioni g → G o viceversa;
3
Se un individuo eterozigote (G, g) presenta le qualità corrispondenti al gene G,
allora G si dice dominante, se presenta quelle legate al gene g, allora G si dice
recessivo.
5.2 Applicazioni alla genetica 189

• [non 2)] vantaggio di individui con una determinata composizione genetica


(migliore fitness) e conseguente selezione naturale;
• [non 3)] limitazione numerica della popolazione;
• [non 4)] migrazione dei geni da popolazioni contigue.

Prova della legge di Hardy-Weinberg. Non è necessario conoscere P0 cioè p al tempo


0 (Q0 , cioè q al tempo 0, si deduce da Q0 = 1 − P0), né il numero di maschi o
femmine.
Scriviamo un s.d.d. del primo ordine per Pk cioè esprimiamo Pk+1 in funzione del
valore di Pk .
Siano, nella generazione k, M ed F rispettivamente i numeri (incogniti) di maschi
e di femmine. Siano, nella generazione k + 1:

A la proporzione di omozigoti (G, G)


a la proporzione di omozigoti (g, g)
b la proporzione di eterozigoti (G, g)
N il numero totale di individui.

Un individuo (G, G) riceve due alleli G dai genitori della generazione k (uno da
ciascun genitore) e vi sono (Pk M ) (Pk F ) possibili modi di riceverli dalle diverse
possibili coppie di genitori M F . Dunque la frazione di omozigoti (G, G) è

(Pk M ) (Pk F )
A= = Pk2 .
MF

Corrispondentemente, vi sono Pk2 N individui omozigoti (G, G) nella generazione


k + 1 ed essi hanno complessivamente 2Pk2 N alleli G.
Analogamente, sempre nella generazione k + 1, vi è una frazione 2Pk (1 − Pk ) di
individui eterozigoti, cioè vi sono 2Pk (1 − Pk ) N individui eterozigoti, ed essi han-
no in totale 2Pk (1 − Pk ) N alleli G e  2Pk (1 − Pk ) N alleli g. La popolazione ha
complessivamente 2Pk2 + 2Pk (1 − Pk ) N = 2Pk N alleli G (gli omozigoti (g, g) non
ne hanno), mentre il totale di alleli è 2N . Dunque la frazione Pk+1 di alleli G nella
k + 1 generazione è
2N Pk
Pk+1 = = Pk
2N
cioè Pk è costante in k: Pk = P0 = p per ogni k e, per sostituzione:

• gli individui G omozigoti nella generazione k + 1 sono p2 N , cioè la frazione p2


del totale;
• gli individui g eterozigoti nella generazione k + 1 sono 2pqN , cioè la frazione 2pq
del totale;
• gli individui g omozigoti nella generazione k + 1 sono q2 N , cioè la frazione q2 del
totale.

La legge di Hardy-Weinberg spiega perché gli alleli recessivi non scompaiono


dalla popolazione.
Supponiamo ora, a differenza delle ipotesi precedenti, che venga meno la con-
dizione 2: ad esempio, gli omozigoti (g, g) sono sterili o muoiono prima della
190 5 Sistemi dinamici discreti: equazioni vettoriali

maturità sessuale e g è recessivo. Allora G ha un vantaggio selettivo e g è un


gene letale (benché recessivo).

Principio di selezione
Se gli individui omozigoti (g, g) non si riproducono, mentre gli eterozigoti e
gli omozigoti (G, G) si riproducono normalmente, allora la frazione di g alleli
nella generazione k-esima è dato (in assenza di mutazioni) da

Q0
Qk =
1 + kQ0
dove Q0 è la frazione iniziale. Dunque l’allele letale g tende ad estinguersi
(sia pur lentamente).

Prova. Siano come nel caso precedente Pk2 , 2Pk Qk e (1 − Pk )2 le proporzioni di


(G, G), (G, g) , (g, g) della popolazione alla (k + 1)-esima generazione, composta da
N individui. Ci interessa la frazione di alleli recessivi g presenti nella popolazione
che giungerà a riprodursi, cioè
 2 
Pk + 2Pk (1 − Pk ) N = Pk (1 + Qk ) N .

Essi hanno 2Pk (1 + Qk ) N alleli in totale. Ma l’allele g è presente solo negli etero-
zigoti, cioè ve ne sono 2Pk Qk N , dunque la frazione di alleli g nella popolazione della
(k + 1)-esima generazione che giunge a riprodursi è:

2Pk Qk N Qk
Qk+1 = = .
2Pk (1 + Qk ) N 1 + Qk

Otteniamo così un s.d.d. non lineare del primo ordine Qk+1 = f (Qk ) con f fun-
zione di Moebius (si veda il paragrafo 2.7 ed in particolare l’Esempio 2.69). Con la
sostituzione Wk = Q−1k otteniamo la soluzione esplicita

Q0
Qk = . 
1 + kQ0

È opportuno fare qualche considerazione sul principio di selezione. Abbiamo


già osservato che la frazione di g alleli tende a zero, ma lentamente: se, ad
esempio, nella popolazione iniziale vi è solo l’1% di tali alleli, cioè Q0 = 0, 01
allora Q1 = 1/101 = 0, 0099009901 ossia Q1 non è molto diverso da Q0 ; per
Q0 Q0
dimezzare la frazione iniziale (Qk = Q0 /2) occorre risolvere =
2 1 + kQ0
dunque k = 1/Q0 = 100 , cioè occorrono 100 generazioni (circa 2500 anni per
una popolazione umana).
Il principio di selezione è attivo in natura nei casi in cui gli omozigoti (g, g)
sono sterili mentre gli eterozigoti e gli omozigoti (G, G) non lo sono.
Vi è chi ha pensato di applicare il principio di selezione alla specie umana
nel caso di alleli non letali e che non impediscono la riproduzione, ma cor-
rispondono a caratteristiche fisiche o mentali non desiderate in determinati
contesti culturali, cercando di simulare l’effetto descritto con prescrizioni so-
5.2 Applicazioni alla genetica 191

ciali (eugenetica negativa): divieto di avere figli e perfino soppressione della


prole, con l’intento di eliminare dalla popolazione il tratto non desiderato (se
l’allele g è recessivo tale “forzatura” sociale ovviamente poteva essere esercita-
ta solo sugli omozigoti (g, g) prima che vi fosse la possibilità di determinare il
corredo genetico). A prescindere da considerazioni etiche, e dalla soggettività
con cui possono essere considerate non desiderabili determinate caratteristiche
degli individui, le considerazioni quantitative precedenti illustrano il motivo
della totale inefficacia della eugenetica negativa sulla popolazione umana: la
lentezza dell’effetto è tale da rendere certa una variazione dei “gusti” sul-
le caratteristiche desiderate prima che gli effetti risultino rilevanti. A questo
bisogna aggiungere che sul lungo periodo l’ipotesi di assenza di mutazioni
è assai debole. Infine, la differenza biologica è sempre una ricchezza e, in
particolare la varietà genetica in una specie va preservata perché spesso, ca-
ratteri apparentemente insignificanti (e relativamente poco diffusi) si rivelano
sorprendentemente abbinati a maggiori resistenze a determinate patologie.
Esaminiamo infine gli effetti di una mutazione senza vantaggio selettivo; sup-
porremo che nessuno dei due alleli sia dominante e che la probabilità di ripro-
dursi degli individui non dipenda dall’allele.
Siano Pk e Qk rispettivamente la frazione di alleli G e g nella popolazione
alla generazione k prima della mutazione. In assenza di mutazione, avremmo
Pk+1 = Pk e Qk+1 = Qk per la legge di Hardy-Weinberg. Assumiamo invece
che una frazione s ∈ (0, 1) di alleli G muti in alleli g prima della riproduzione.
Ripetendo l’argomento della prova di Hardy-Weinberg, otteniamo:

Pk+1 = (1 − s) Pk ∀k
k
Pk = (1 − s) P0

Riassumendo, abbiamo ottenuto il

Principio di mutazione
Se
1) la frazione di alleli G che mutano in g è s ∈ (0, 1) e non vi è mutazione
di g in G;
2) nessuno degli individui (G, G), (g, g) o (G, g) è avvantaggiato rispetto
agli altri e gli accoppiamenti avvengono in modo casuale;
3) il numero di individui della popolazione è molto grande;
4) non vi sono immigrazioni di geni G o g per effetto di incroci con popo-
lazioni contigue
allora la proporzione di G alleli nella k-esima generazione è
k
Pk = (1 − s) P0 .

Osserviamo che Pk tende a zero ma non così rapidamente come potrebbe


sembrare, perché s è in generale piccolo. Le variazioni sono più rapide se le
generazioni hanno breve durata temporale, come nel caso di alcuni batteri.
192 5 Sistemi dinamici discreti: equazioni vettoriali

Osservazione 5.5. Nei tre esempi precedenti si è dedotta l’evoluzione del vet-
 T
tore Pk Qk dallo studio della quantità scalare Pk , sfruttando la semplice
ed esplicita relazione tra Pk e Qk : Pk + Qk = 1.

Esempio 5.6 (Geni legati al sesso). Le caratteristiche dei singoli individui


(dette fenotipi ) sono determinate dalle caratteristiche genetiche (dette genoti-
pi ). Molti fenotipi sono determinati da coppie di geni, detti alleli. Se un allele
a è dominante mentre l’altro allele è recessivo, allora un individuo presenta il
carattere recessivo α se e solo se entrambi gli alleli della corrispondente coppia
nel suo corredo cromosomico sono recessivi: sono cioè (α, α).
Per taluni caratteri le donne hanno una coppia di alleli, mentre gli uomini ne
hanno uno solo (ereditato dalla madre): questi caratteri sono detti caratteri
legati al sesso. Daltonismo ed emofilia sono esempi (che comportano svan-
taggi, pur non essendo letali) di tali caratteri legati al sesso. Pertanto, se un
uomo eredita l’allele a, presenterà il fenotipo dominante (a), se eredita l’allele
α, presenterà il fenotipo recessivo (α). Poiché gli alleli che corrispondono al
daltonismo o all’emofilia sono entrambi recessivi, vedremo nel seguito come sia
molto più probabile che tali fenotipi (caratteri legati al sesso) si manifestino
nell’uomo che nella donna.
Da una coppia costituita da una donna di genotipo (a, α) ed un uomo (a) (en-
trambi non affetti dalla malattia, perché a è dominante), un eventuale figlio
maschio erediterà al 50% l’allele a o l’allele α dalla madre, e dunque ha il 50%
di probabilità di essere di genotipo (α), cioè di presentare manifestamente la
malattia (fenotipo α); una eventuale figlia femmina avrà con pari probabilità
uno dei due genotipi (a, a) o (a, α) e in ogni caso non manifesterà la malattia
(nel secondo caso, sarà portatrice sana).
Vogliamo studiare l’andamento del carattere nell’arco di più generazioni. Limi-
tatamente alla popolazione femminile nella generazione k, siano Pk la propor-
zione di a alleli e Qk = 1 − Pk la proporzione di α alleli .
Analogamente, siano Pk e Qk le corrispondenti frazioni (con Pk + Qk = 1)
nella popolazione maschile alla generazione k-esima. Siano, rispettivamente,
u, v, w le frazioni nella popolazione femminile alla generazione (k + 1)-esima
di omozigoti dominanti (a, a), eterozigoti (a, α) ed omozigoti recessivi (α, α).
Si deduce ⎧
⎨ u = P k Pk
v = P k Qk + Pk Q k

w = Q k Qk
Se vi sono D donne nella generazione (k + 1)-esima, esse avranno complessiva-
mente 2D alleli del tipo in esame. Gli a alleli sono 2uD (dovuti agli omozigoti
dominanti) più vD (dovuti agli eterozigoti) cioè

(2u + v) D = D (2Pk Pk + Pk Qk + Pk Qk ) =
da Pk +Qk =1=Pk +Qk

= D (Pk Pk + Pk Qk + Pk Pk + Pk Qk ) =
= D (Pk + Pk ) .
5.2 Applicazioni alla genetica 193

La frazione Pk+1 di a alleli nella popolazione femminile alla (k + 1)-esima


generazione è
D (Pk + Pk ) 1
Pk+1 = = (Pk + Pk ) .
2D 2
Venendo agli uomini, che hanno un solo allele, la frazione di essi che possiede
l’allele a (rispettivamente α) nella generazione k coincide con la proporzione di
alleli a (rispettivamente α) nella stessa generazione, cioè Pk (rispettivamente
Qk ).
Per passare alla frazione di uomini con allele dominante alla generazione k +
1 occorre calcolare la probabilità che un uomo erediti l’allele dominante a.
Poiché lo eredita da una donna della generazione k, risulta

Pk+1 = Pk Qk+1 = Qk .

Riassumendo, la frazione di a allele (dominante) tra uomini e donne verifica


il sistema dinamico discreto vettoriale ad un passo

⎨ Pk+1 = 1 (Pk + Pk )
2

Pk+1 = Pk

1◦ metodo di analisi dell’Esempio 5.6


Per sostituzione, ci riduciamo ad un sistema dinamico discreto scalare a due
passi (sostituiamo k +1 a k nella prima equazione, poi utilizziamo la seconda):

1 1 1
Pk+2 = (Pk+1 + Pk+1 ) = Pk+1 + Pk
2 2 2
ossia

2Pk+2 − Pk+1 − Pk = 0

L’equazione caratteristica 2λ2 − λ − 1 = 0 ammette le soluzioni λ1 = 1 e


λ2 = −1/2; quindi
 k
1
P k = c 1 + c2 − ∀k ∈ N .
2

Imponendo le condizioni iniziali P0 e P1 ricaviamo poi



 ⎪
P 0 = c 1 + c2 ⎨ c1 = P0 + 2P1
1 ⇒ 3
P 1 = c1 − c 2 ⎪ 2
2 ⎩ c 2 = (P 0 − P1 )
3
194 5 Sistemi dinamici discreti: equazioni vettoriali

Osserviamo che
P0 + 2P1
lim Pk = c1 = .
k 3
Poiché l’attuale popolazione è il risultato del succedersi di molte generazioni
precedenti, possiamo assumere k grande, e dunque Pk = c1 l’attuale frazio-
ne di alleli dominanti nell’attuale popolazione femminile (in questi discorsi il
“dato iniziale” è privo di significato).
k−1
Poiché anche Pk = Pk−1 = c1 + c2 (−1/2) è prossimo a c1 , possiamo rite-
nere Pk = c1 sia l’identico valore della frazione di alleli a nella popolazione
maschile.
Dunque, la frazione di allele dominante a (rispettivamente allele recessivo α)
si stabilizza su un valore c1 = r (rispettivamente 1 − r) sia per la popolazione
maschile sia per la popolazione femminile. Ne segue che in ciascuna gene-
razione le frazioni di omozigoti dominanti, eterozigoti ed omozigoti recessivi
nella popolazione femminile sono, rispettivamente,
2
u = r2 v = 2r (1 − r) w = (1 − r) .

Per un particolare tipo di daltonismo, la frazione di α allele, e corrisponden-


temente la proporzione di maschi che presentano tale problema visivo risulta
circa 1 − r = 0, 01. Invece, la frazione di donne con la stessa patologia è
2 2
(1 − r) = (0, 01) = 0, 0001.

2◦ metodo di analisi dell’Esempio 5.6


Posto ( ) ( )
P 1/2 1/2
X= M=
P 1 0
il vettore frazione di allele dominante delle popolazioni femminile e maschile
è una successione di valori che verifica il sistema dinamico discreto vettoriale

Xk+1 = M Xk

la cui soluzione è
Xk = Mk X0
 T
con X0 = P0 P0 . L’equazione caratteristica det (M − λI) = 0, cioè

2λ2 − λ − 1 = 0

ammette le soluzioni

λ1 = 1 λ2 = −1/2 .

Un autovettore V1 relativo a λ1 è una soluzione del sistema lineare omogeneo


5.2 Applicazioni alla genetica 195

(M − λ1 I) V1 = 0 ossia, in componenti

⎪ 1 1
⎨ − V11 + V12 = 0
2 2 ⇒ V11 = V12 .


V11 − V12 = 0
 T
Scegliamo V1 = 1 1 .
Analogamente, un autovettore V2 relativo all’autovalore λ2 risolve il sistema
lineare omogeneo (M − λ2 I) V2 = 0 ossia, in componenti
⎧ 1


⎨ V11 + 2 V12 = 0 1
⇒ V11 = − V12 .

⎪ 2
⎩V + 1V = 0
11 12
2
 T
Scegliamo V2 = −1 2 .
Per calcolare M X0 , scriviamo dapprima X0 come combinazione lineare di
k

V1 e V2 :
X0 = c1 V1 + c2 V2 c 1 , c2 ∈ R
(le costanti c1 e c2 esistono e sono uniche); ne segue (vedi la (5.3))
 k
1
Xk = Mk X0 = c1 V1 + c2 − V2 .
2
k
Poiché lim (−1/2) = 0, si ricava
k
( )
1
lim Xk = c1 V1 = c1 .
k 1
 T
Dato che Xk = Pk Pk , si riottiene la conclusione che
1
lim Pk = lim Pk = c1 = (P0 + 2P1 )
k k 3
cioè dopo molte generazioni, le due frazioni si stabilizzano e sono uguali fra lo-
ro. La selezione genetica non elimina completamente le malattie recessive che
non risultano letali prima del raggiungimento dell’età riproduttiva. Abbiamo
già osservato che la diversità biologica è un fatto positivo per il patrimo-
nio genetico di una specie in quanto a volte allo stesso genotipo recessivo si
accompagnano più caratteri del fenotipo, solo alcuni dei quali comportano
svantaggi biologici. Un esempio classico a tale rigurado è dato dalla resistenza
alla malaria associata alla talassemia o anemia mediterranea.

Osservazione 5.7. Il fatto di avere due metodi di analisi (scalare a più passi
o vettoriale ad un passo) è di natura generale.
196 5 Sistemi dinamici discreti: equazioni vettoriali

Più precisamente: un’equazione scalare lineare, omogenea, di ordine n

Xk+n + an−1 Xk+n−1 + an−2 Xk+n−2 + · · · + a0 Xk = 0 a0 = 0

con assegnate condizioni iniziali X0 , X1 , . . . , Xn−1 , è equivalente, come si può


verificare per semplice sostituzione, al sistema lineare ad un passo

Vk+1 = FVk
 T
con dato iniziale V0 = X0 X1 · · · Xn−1 , dove
⎡ ⎤
0 1 0 0 ··· 0
⎢ 0 0 1 0 ··· 0 ⎥
⎢ ⎥
⎢ 0 0 0 1 · · · 0 ⎥  T
⎢ ⎥
F=⎢ . Vk = Xk Xk+1 · · · Xk+n−1
.. ⎥
. . . . . .
⎢ .. .. .. .. .. ⎥
⎢ ⎥
⎣ 0 0 0 0 ··· 1 ⎦
−a0 −a1 −a2 −a3 · · · −an−1

Ovviamente, il polinomio caratteristico è lo stesso (a meno del segno!) e per


questo è indicato con lo stesso nome. F è detta forma elementare di Frobenius.
Viceversa, ogni s.d.d. vettoriale di dimensione n, Vk+1 = MVk , con
det M = 0 e tutti gli autovalori della matrice M che hanno molteplicità geo-
metrica 1 (non si esclude che alcune molteplicità algebriche siano maggiori di
1) può essere trasformato in una “equazione lineare omogenea ad n passi”

n
Zk+n = − bn−j Zk+n−j (5.4)
j=1

con condizioni iniziali

Z0 = W0 Z1 = W1 ... Zn−1 = Wn−1 .

Il polinomio ⎛ ⎞

n
P (λ) = (−1)n ⎝λn + bn−j λn−j ⎠
j=1

è il polinomio caratteristico di M calcolato in λ e W = U V0 dove


⎡ ⎤
0 1 0 0 ··· 0
⎢ 0 0 1 0 ··· 0 ⎥
⎢ ⎥
⎢ 0 0 0 1 ··· 0 ⎥
⎢ ⎥
U M U−1 = ⎢ . .. .. .. . . .. ⎥ .
⎢ .. . . . . . ⎥
⎢ ⎥
⎣ 0 0 0 0 ··· 1 ⎦
−b0 −b1 −b2 −b3 · · · −bn−1

Si noti che (5.4) è una vera equazione ad n passi perché b0 = (−1)n det M = 0.
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari 197

In presenza di autovalori con molteplicità geometrica maggiore di 1 il s.d.d.


vettoriale Vk+1 = MVk non è equivalente ad una singola equazione ad n
passi (perché ogni matrice in forma elementare di Frobenius ha solo autova-
lori con molteplicità geometrica esattamente uguale a 1), tuttavia il sistema
vettoriale si disaccoppia in più equazioni ciascuna delle quali è equivalente ad
una singola equazione a più passi e la somma del numero di passi delle varie
equazioni è uguale ad n.
Dunque, non è vero in generale che un qualsiasi sistema lineare vettoriale ad
un passo Vk+1 = MVk sia riconducibile ad una equazione scalare, lineare di
ordine n: ad esempio, se n > 1 allora In non è simile ad una matrice nella
forma elementare di Frobenius.
Nei casi in cui sono disponibili entrambe le formulazioni equivalenti (vettoriale
ad 1 passo e scalare ad n passi) ci si può chiedere quale su quale sia il meglio
operare: in realtà non c’è differenza sostanziale. Tuttavia, la struttura ad un
passo (equazione vettoriale) è più naturale in molti problemi e in dimensio-
ne alta è più semplice la trattazione diretta del sistema vettoriale al fine di
ottenere informazioni qualitative sulle soluzioni.
In ogni caso, se la dimensione n del vettore è grande, allora le radici del poli-
nomio caratteristico non sono calcolabili esattamente ma possono essere solo
stimate.

5.3 Stabilità di sistemi dinamici discreti vettoriali lineari

Torniamo ad esaminare il caso generale del sistema dinamico discreto


vettoriale, lineare, omogeneo, ad un passo (di dimensione n):
Xk+1 = M Xk ∀k ∈ N (5.5)
e supponiamo che λj ∈ C, j = 1, 2, . . . , n, siano gli autovalori di M.
È naturale definire equilibrio di (5.5) ogni soluzione V ∈ Rn di V = MV,
cioè gli autovettori di M associati all’autovalore 1 e, ovviamente, l’origine di
Rn , che è sempre un equilibrio perché 0 = M 0 per ogni M.
Le definizioni di stabilità e attrattività di un equilibrio si ottengono adat-
tando al caso vettoriale le Definizioni 3.36 - 3.39 date nel caso scalare: ba-
sta sostituire il modulo (dove è presente) con la norma euclidea. Osserviamo
esplicitamente che nel caso vettoriale lineare l’attrattività locale coincide con
l’attrattività globale, in particolare un equilibrio del s.d.d. (5.5) è globalmente
asintoticamente stabile se e solo se è localmente asintoticamente stabile.
Una soluzione X di (5.5) si dice orbita periodica di (minimo) periodo s ∈ N
del s.d.d. (5.5) in Rn se Xk+s = Xk ∀k ed i vettori X0 , X1 , Xs−1 sono diversi
fra loro.
Teorema 5.8. Se |λj | < 1 per ogni autovalore λj di M, allora 0 è l’unico equi-
librio del s.d.d. e tutte le soluzioni di (5.5) per qualunque condizione iniziale
X0 verificano
lim Xk = 0 .
k
198 5 Sistemi dinamici discreti: equazioni vettoriali

In tal caso l’equilibrio 0 è stabile ed attrattivo.


Se esiste un autovalore λj t.c. |λj | > 1, allora 0 non è né attrattivo né stabile:
la dinamica esibisce alcune orbite divergenti in norma.

Prova. Se esiste una base di autovettori Vj di M, allora, per ogni X0 , esistono (e


sono uniche) n costanti c1 , . . . , cn tali che


n
X0 = cj V j
j=1
 
k k

n
j

n
n
Xk = M X0 = M cj V = cj Mk Vj = cj λkj Vj . (5.6)
j=1 j=1 j=1

Così
2 2
2 n 2
2 k j2 disuguaglianza triangolare
lim Xk Rn = lim 2 cj λj V 2 ≤
k k 2 2
j=1
n 2
2
2 k j2 omogeneità della norma
≤ lim 2cj λj V 2 =
k
j=1
n 
2 2  
2 2 
= lim |cj | 2Vj 2 λkj  = teorema limite somma
k
j=1

n 2 2
2 2
= |cj | 2Vj 2 lim |λj |k = 0.
k
j=1

Se non esiste una base di autovettori, la prova è più tecnica ma il risultato continua
a valere. Si considera una base di Rn associata alla forma canonica di Jordan (Ap-
pendice D): tale base è costituita da autovettori generalizzati; esplicitamente, sono
soluzioni di (M − λj In )mj W = 0 dove mj è la molteplicità algebrica di λj .
M si decompone come M = S + T, dove S è diagonale (i termini sulla diagonale
sono gli autovalori) e T è nilpotente, perciò ST = TS, e si può facilmente esplicitare
l’espressione della potenza k-esima di M:

k (k − 1) k−2 2
Mk = Sk + kSk−1 T + S T + · · · + kSTk−1 + Tk . (5.7)
2
Si noti che nella (5.7), per ogni k, possono essere diversi da O al più i primi n
addendi4 .
Dunque, la soluzione Xk si esprime come combinazione lineare finita degli autovet-
tori generalizzati W j a coefficienti dipendenti dalla rappresentazione di X0 nella
base di Jordan, moltiplicati per kh λk−h
j con 0 ≤ h ≤ n. Dunque, anche in que-
sto caso, vale limk→+∞ Xk  = 0 per ogni dato iniziale X0 , grazie all’implicazione
|λ| < 1 ⇒ lim kn λk = 0. 
k

4
Infatti: Tm = O se m è la massima dimensione di un sottoblocco di Jordan, e vale
m ≤ n.
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari 199

a b

0 1 0 1
0, 5 0 0 −0, 5
Fig. 5.1. Illustrazione del Teorema 5.8: a) , b)
0 0, 3 0, 5 0

Osservazione 5.9. Esplicitando l’argomento della dimostrazione precedente


nel caso di matrice M non diagonalizzabile, a partire da (5.7) si può provare
che, indicati con Wj,i,r gli autovettori generalizzati di M nella base di Jordan,
ove
j = 1, . . . , J ;
J è il numero degli autovalori distinti di M ;
i = 1, . . . , Jj ;
Jj è il numero dei sottoblocchi di Jordan relativi all’autovalore λj ;
r = 1, . . . , si ;
si è la dimensione dell’i-esimo sottoblocco di Jordan relativo a λj ;
Jj
mj = si è la molteplicità algebrica dell’autovalore λj ,
i=1

allora da

J  
Jj si
X0 = cj,i,r Wj,i,r
j=1 i=1 r=1
e
MWj,i,r = λj Wj,i,r + Wj,i,r+1 r < si
MWj,i,si = λj Wj,i,si
si esplicita il termine generale definito da Xk = Mk X0 :
Jj si min(si ,k)  

J    k
Xk = λk−h+1 cj,i,r−h+1 Wj,i,r .
r=1
h − 1 j
j=1 i=1 h=1
Tale espressione si riduce alla (5.6) nel caso (diagonalizzabile) in cui vale
mj = 1 per ogni j.
Senza sviluppare in dettaglio l’analisi qualitativa delle traiettorie corrispon-
denti alle soluzioni del s.d.d. lineare omogeneno Xk+1 = M Xk , possiamo
200 5 Sistemi dinamici discreti: equazioni vettoriali

dire che i modi naturali delle soluzioni (potenze intere dell’autovalore, dalle
cui combinazioni lineari vettoriali è costituita la soluzione generale) hanno
un andamento qualitativo che dipende solo dalla posizione del corrispondente
autovalore nel piano complesso. In particolare, si ha convergenza a zero se
|λ| < 1, divergenza all’infinito se |λ| > 1, mentre |λ| = 1 assicura la limitatez-
za. Alla luce dell’Osservazione 5.7, la Fig. 2.7 fornisce informazioni qualitative
anche sui modi naturali del caso vettoriale in esame.
Esempio 5.10. Se M è una matrice di ordine 2 con un solo autovalore λ di
molteplicità algebrica 2 e geometrica 1, allora M non è diagonalizzabile. Sia V
un autovettore di M di norma 1 e sia U tale che (M − λIn ) U = V ed U = 1.
Allora U è un autovettore generalizzato indipendente da V ed M è nella forma
di Jordan rispetto alla base {V, U}. Infine, se X0 = aV + bU, allora
 
Xk = aλk + bkλk−1 V + bλk U 
Analizziamo ora i casi in cui gli autovalori λj non sono strettamente minori di
1 in modulo, ma verificano solo la disuguaglianza |λj | ≤ 1. Osserviamo che gli
equilibri sono caratterizzati dalla condizione X = M X e dunque sono tutti
gli autovettori dell’eventuale autovalore λ = 1. Limitiamoci, per semplicità,
al caso n = 2 ed M reale. Nel seguito è fissato
X0 = c1 V1 + c2 V2
dove V1 e V2 sono autovettori generalizzati (in particolare, almeno V2 è sem-
pre autovettore) di M corrispondenti alla base associata alla forma canonica
di Jordan.

1) Se λ1 = 1, |λ2 | < 1, allora tutto lo spazio generato da V1 è costituito da


equilibri e la soluzione è
Xk = c1 V1 + c2 λk2 V2
e poiché lim λ2k = 0, risulta
k
lim Xk = c1 V1
k

dove c1 dipende solo dal valore iniziale. 0 è un equilibrio stabile ma non at-
trattivo poiché le soluzioni possono avere come limite qualunque multiplo di
V1 , e tali multipli sono tutti equilibri.
Questo è il caso dell’Esempio 5.6.
2) Se λ1 = −1, |λ2 | < 1, ragionando come sopra, da λk2 → 0 segue
Xk ∼ c1 (−1) V1 .
k

La traiettoria di Xk approssima una traiettoria 2 periodica che, tramite c1 ,


dipende da X0 .
3) Se λ1 = 1, λ2 = −1, abbiamo
Xk = c1 V1 + c2 (−1) V2
k
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari 201

cioè: un equilibrio, se c2 = 0; un’orbita di periodo 2 (o 2 ciclo) dipendente,


tramite c1 e c2 , da X0 , se c2 = 0.
4) Se λ1 = a + ib e λ2 = a − ib, a e b numeri reali tali che a2 + b2 = 1, allora
esiste θ ∈ [0, 2π) tale che
( ) ( )
a −b cos θ − sin θ
M= = .
b a sin θ cos θ
M è dunque una matrice di rotazione (cioè moltiplicare a sinistra un vettore
V ∈ R2 per M significa ruotarlo positivamente di un angolo di θ radianti).
Dunque, se θ = 2πk/h con k, h ∈ Z primi fra loro, allora Xk ha un compor-
tamento periodico di periodo |h|, cioè
Xk+l|h| = Xk ∀l ∈ N;
inoltre, Xk  = X0 , ∀k ∈ N.
Se non esistono tali h, k non si ha periodicità, ma comunque tutti gli Xk appar-
tengono alla stessa circonferenza: Xk  = X0 , ∀k ∈ N; inoltre si potrebbe
provare che in tal caso ogni traiettoria è densa in questa circonferenza.

5) Se λ1 = λ2 = 1 ed esistono due autovettori V1 e V2 linearmente indipen-


denti, allora
Xk = c1 V1 + c2 V2 = X0 ∀k ∈ N.

6) Se λ1 = λ2 = −1 ed esistono due autovettori V1 e V2 linearmente


indipendenti, allora
Xk = c1 (−1) V1 + c2 (−1) V2 = (−1) X0
k k k
∀k ∈ N.

7) Se λ1 = λ2 = 1 e ( )
10
M= a = 0
a1

X1

X2 X0 = X6

X3 X5

X4
# $T
Fig. 5.2. Esempio di orbita (caso 4) : θ = π/3, X0 = cos (π/6) sin (π/6)
202 5 Sistemi dinamici discreti: equazioni vettoriali

allora ( ) ( ) ( )
1 0 1 0
V1 = V2 = Mk =
0 1 ka 1
e da X0 = c1 V1 + c2 V2 , si ottiene la soluzione seguente, che può essere
illimitata:
( )
0
Xk = Mk X0 = c1 V1 + c2 V2 + ka =
c1 V11 + c2 V12
= c1 V 1 + c 2 V 2 + c 1 a k V 2 .

8) Se λ1 = λ2 = −1 e
( ) ( )
−1 0 10
M= = (−1) a = 0
a −1 −a 1
tenendo conto che
( ) ( ) ( )
1 0 10
V1 = V2 =
k
Mk = (−1)
0 1 −ka 1
da X0 = c1 V1 +c2 V2 si ottiene la soluzione seguente, che può essere illimitata:
 ( )
0
Xk = Mk X0 = (−1)k c1 V1 + c2 V2 − ka =
  c1 V11 + c2 V12
= (−1)k c1 V1 + c2 V2 − c1 a k V2 .
Le conclusioni relative agli ultimi due casi seguono dalla seguente decompo-
sizione M = S + T con S matrice diagonale e T matrice nilpotente; poiché
ST = TS e T2 = O, si dimostra agevolmente (si veda l’Esercizio 5.7) che
Mk = Sk + kTSk−1.
Invece, se esiste un λj tale che |λj | > 1, allora esistono soluzioni illimitate; ad
esempio, con X0 = Vj (autovettore relativo a λj ), si deduce
8 8
Mk X0 = Mk Vj = λk X0 ej lim 8Mk X0 8 = +∞ ,
k

e, per avere maggiori informazioni si può studiare Yk = μ−k Xk dove si è po-


sto μ = maxj |λj | > 1. In tal caso, Yk rientra nei casi studiati in precedenza
e si possono dedurre informazioni qualitative sul comportamento di Xk per k
“grande”.
Nel caso di s.d.d. vettoriali bidimensionali Xk+1 = MXk , con M matrice di
ordine 2, è ancora possibile ricorrere all’analisi grafica per rappresentare le
traiettorie: se ne può dare una rappresentazione prospettica nello spazio a
tre dimensioni (t, X1 , X2 ) come in Fig. 5.4a, oppure considerare (Fig. 5.4b) le
proiezioni sul piano (X1 , X2 ), detto piano delle fasi, come nella Fig. 5.3 che
sintetizza i risultati dell’analisi precedente.
Esercizio 5.2. Determinare la soluzione del s.d.d. vettoriale Xk+1 = MXk con
0 1 0 1 0 1
11 10 11
1) M = , 2) M = , 3) M = .
01 01 11
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari 203

Nodo stabile 0 < λ2 < λ1 < 1 Nodo instabile λ1 > λ2 > 1

Sella 0 < λ1 < 1 < λ2 (MI diagonale) Nodo 0 < λ1 = λ2 < 1

Nodo degenere 0 < λ2 < λ1 = 1 (MI triangolare inf.) Nodo 0 < λ1 = λ2 < 1

Fig. 5.3a. Traiettorie di s.d.d. bidimensionali lineari nel piano delle fasi: λ1 , au-
tovalori della matrice reale M; assi orizzontale e verticale orientati rispettivamente
come i corrispondenti autovettori generalizzati V1 e V2 . Si noti che nell’ottavo e
nono diagramma la divergenza o convergenza delle traiettorie procede in senso ora-
rio; tuttavia poiché l’autovalore ha molteplicità geometrica 2, è lecito scambiare V1
con V2 nella rappresentazione grafica: in tal modo si l’andamento è antiorario
204 5 Sistemi dinamici discreti: equazioni vettoriali

(MI triangolare inf.) Nodo λ1 = λ2 = 1 (λ non reale) Fuoco stabile |λ| < 1

(λ non reale) Fuoco instabile |λ| > 1 (λ non reale) Centro |λ| = 1

Fig. 5.3b. Continua

t X2

X1
X1 X2

(a) (b)

Fig. 5.4. (a) Grafico di una traiettoria, (b) una traiettoria nel piano delle fasi
5.4 Matrici strettamente positive e Teorema di Perron-Frobenius 205

5.4 Matrici strettamente positive e Teorema di


Perron-Frobenius

In questo paragrafo proviamo un risultato teorico sulle proprietà algebriche


delle matrici con tutti gli elementi positivi. Tale risultato sarà utile nelle
applicazioni demografiche del paragrafo successivo.
Un sistema dinamico discreto, lineare positivo è un sistema
Xk+1 = MXk k∈N (5.8)
in cui tutte le componenti di Xk sono non negative per ogni valore di k. Que-
sta situazione si verifica, ad esempio, se si parte da un dato X0 a componenti
non negative e tutti gli elementi di M sono positivi, ed è tipica di molte ap-
plicazioni economiche, gestionali, demografiche e della teoria dei giochi. Le
proprietà di non negatività della matrice M hanno conseguenze profonde ed
eleganti; il risultato centrale è il Teorema di Perron-Frobenius5 , che assicu-
ra che, se mij > 0 per ogni i, j, allora tutte le traiettorie del sistema (5.8)
hanno lo stesso comportamento asintotico. Per svolgere un’analisi accurata,
precisiamo la definizione di positività di una matrice.
Definizione 5.11. Una matrice M = [mij ] è
M ≥ O, debolmente positiva o non negativa, se mij ≥ 0 per ogni i, j
M > O, positiva, se mij ≥ 0 per ogni i, j e mij > 0 per almeno una coppia
di indici i, j
M O, strettamente positiva, se mij > 0 per ogni i, j. 6
Analogamente, un vettore V si dice non negativo, positivo o strettamente po-
sitivo se, rispettivamente, Vj ≥ 0 per ogni j, V è non negativo ed esiste j tale
che Vj > 0, per ogni j, Vj > 0, per ogni j.

Teorema 5.12 (Perron-Frobenius). Se M O, allora il suo autovalo-


re di massimo modulo (detto autovalore dominante) risulta essere unico,
reale, maggiore di zero e semplice (algebricamente e, dunque, geometricamen-
te); inoltre, esiste un autovettore strettamente positivo VM associato a tale
autovalore λM > 0.

Teorema 5.13. Siano M > O ed h ∈ N tale che Mh O. Allora vale la tesi


del Teorema di Perron-Frobenius per M.

5
Oskar Perron (1880–1975), Ferdinand Georg Frobenius (1849–1917)
6
Il lettore è invitato a non confondere una matrice positiva con una matrice defi-
nita positiva: si confronti la Definizione 5.11 con quella di matrice definita positiva
riportata nell’Appendice
0 1D. 0 1
2 −1 12
Ad esempio, è definita positiva ma non è positiva. Viceversa, è
−1 2 21
strettamente positiva ma non è definita positiva.
206 5 Sistemi dinamici discreti: equazioni vettoriali

Teorema 5.14. Sia M ≥ O. Allora esiste un autovalore λ ≥ 0 verificante


|μ| ≤ λ per ogni autovalore μ di M e tale che a λ corrisponde un autovettore
V > 0. Ne segue l’unicità di tale autovalore, che viene indicato con λM e
viene denominato autovalore dominante anche in questo caso.

Osserviamo esplicitamente che VM è univocamente determinato (a meno di


multipli positivi) se valgono le ipotesi del Teorema 5.12 o 5.13. Invece se va-
le l’ipotesi del Teorema 5.14 vi possono essere autovettori positivi associati
all’autovalore dominante λM linearmente indipendenti (la molteplicità geome-
trica di λ può essere maggiore di 1): basta considerare l’esempio della matrice
identità in 2 dimensioni.
I tre teoremi precedenti molto “fini”, come illustrato dagli esempi seguenti. La
loro dimostrazione è rinviata alla fine del paragrafo.
( )
1 1
Esempio 5.15. Se M = allora M O e per il Teorema 5.12 esiste un
1 1
autovalore dominante positivo e semplice (λM = 2) con autovettore stretta-
 T
mente positivo 1 1 . 
( )
1 1
Esempio 5.16. La matrice A = non è strettamente positiva, tuttavia
1 0
A2 O e per il Teorema 5.13  esiste
√  un autovalore dominante strettamente
positivo semplice λM = 12 1 + 5 , con autovettore strettamente positivo
1 √  T
2
1+ 5 1 . 
( ) ( ) ( )
10 01 00
Esempio 5.17. Siano B = , D= , E= . Nessuna delle tre
01 10 10
matrici ha una potenza strettamente positiva, dunque non si posono applica-
re i Teoremi 5.12 e 5.13, tuttavia il Teorema 5.14 si applica. B ha autovalore
dominante positivo λB = 1 che non è semplice ed ha molteplicità algebrica e
geometrica uguale a 2. D ha due autovalori di massimo modulo (±1). E ha au-
tovalore dominante λE = 0 che ha molteplicità algebrica pari a 2 e geometrica
pari ad 1. 
Teorema 5.18. Se M O, oppure M > O ed esiste h tale che Mh O, al-
lora tutte le traiettorie di
Xk+1 = MXk
verificano
−k
(λM ) Xk = cM VM + σ (k)
(5.9)
M
dove λM è l’autovalore dominante di M , V 0 il corrispondente autovet-
tore dominante (vedi Teoremi 5.12 e 5.13), cM è il coefficiente di X0 lungo
la componente VM rispetto alla base di Jordan di M e σ (k) è un infinitesimo
per k → +∞.
5.4 Matrici strettamente positive e Teorema di Perron-Frobenius 207

Prova. Siano λM e VM rispettivamente l’autovalore dominante semplice e positivo ed


il corrispondente autovettore positivo di M, la cui esistenza è assicurata dai Teoremi
5.12 e 5.13. 
Se X0 = cM VM + j cj Vj dove Vj sono autovettori generalizzati che con VM
formano una base di Rn , allora

Xk = cM λM k VM + Wk

dove il vettore Wk è una somma finita (a coefficienti indipendenti da k) di termini


a crescita al più kn λkj , con |λj | < |λM |.
Pertanto possiamo scrivere λM −k Xk = cM VM + σ (k). 

Il teorema precedente riduce l’analisi del comportamento di lungo periodo del-


le traiettorie al calcolo dell’autovalore ed autovettore dominanti (e viceversa:
dalla eventuale conoscenza delle serie storiche di una grandezza generata da
un sistema lineare strettamente positivo, si possono avere stime dell’autova-
lore dominante e dell’autovettore dominante). Questi fatti sono precisati nel
Teorema seguente.
Teorema 5.19. Se X0 > 0 e M O (o X0 > 0, M > O ed ∃h : Mh O),
allora la soluzione X del s.d.d. vettoriale Xk+1 = MXk , k ∈ N, con dato
iniziale X0 , tende ad allinearsi con il corrispondente autovettore dominante
VM O di M :
Xk VM
lim = . (5.10)
k Xk  VM 
T
Inoltre l’autovettore dominante VM 0 di MT è ortogonale ad ogni auto-
vettore di M diverso da VM e ad ogni autovettore generalizzato di M diverso
da VM ; infine, se cM è il coefficiente VM nello sviluppo di X0 rispetto alla base
di Jordan di M, allora vale
cM > 0 . (5.11)

Prova. Basta provare che


T
VM ⊥ V ∀ V autovettore generalizzato di M diverso da VM . (5.12)

Infatti (5.12) implica che lo spazio generato da tutti gli autovettori generalizzati di
M diversi da VM interseca l’“ottante” {X ∈ Rn : X ≥ 0} solo in 0, dunque X0 > 0
implica (5.11). Infine (5.10) è una immediata conseguenza di (5.11) e del Teorema
5.18. Rimane dunque da provare la (5.12).
Se λj è un autovalore diverso da λM e Vj è il corrispondente autovettore, si ottiene:
T T T
λj  Vj , VM  =  M Vj , VM  =  Vj , MT VM  =
T T
= λM  Vj , VM  = λM  Vj , VM  ,
T
ne segue  Vj , VM  = 0 poiché λj = λM .
Se gli autovettori di M non formano una base, si consideri la base di Jordan costitui-
ta da autovettori generalizzati di M ; in tal caso, per ogni fissato blocco massimale di
208 5 Sistemi dinamici discreti: equazioni vettoriali

Jordan B di dimensione r corrispondente all’autovalore λj (con riferimento al Teo-


rema D.6 ed alla Fig. D.2 dell’Appendice D, si noti che ad ogni autovalore possono
corrispondere più blocchi di Jordan) ordiniamo ed etichettiamo la sottobase relativa
a tale blocco B come segue:

Vj−r+1 , Vj−r+2 , . . . , Vj−1 , Vj con Vj autovettore,

dunque

MVj = λj V , MVj−s = λj Vj−s + Vj−s+1 , s = 1, . . . , r − 1 . (5.13)


T
Se ne deduce: Vj−r+1 , Vj−r+2 , . . . , Vj−1 , sono tutti ortogonali a VM . Infatti
T
sappiamo che Vj è ortogonale a VM , dunque basterà procedere per induzione pro-
MT T
vando che V j−s+1
⊥V implica Vj−s ⊥VM . Questa implicazione si prova come
segue: da (5.13) segue λj V j−s
= MV j−s
− Vj−s+1 e
T T T
λj  Vj−s , VM  =  M Vj−s − Vj−s+1 , VM  =  M Vj−s , VM  =
T T T
=  Vj−s , MT VM  = λM  Vj−s , VM  = λM  Vj−s , VM 

T
che implica  Vj−s , VM  = 0 poiché λj = λM . 

Prova del Teorema di Perron-Frobenius. Nel seguito le disuguaglianze fra vettori


vanno intese nel senso di confronto con 0 della differenza, cioè:

V ≥ W ⇔ V−W ≥ 0 ; V > W ⇔ V −W > 0; V W ⇔ V−W 0.

Sia
λM = max {λ ∈ R : ∃X > 0 tale che MX ≥ λX} . (5.14)
Si noti che l’insieme di cui si calcola il massimo è non vuoto (contiene λ = 0), chiuso
(si possono scegliere sempre gli X in modo tale che X = 1) e limitato:
   

(MX)j = Mji Xi ≤ Mij max Xi ≤ Mij max Xi ⇒ λ≤ mij .
i i
i i i,j i,j

Dunque, tale λM esiste e verifica

0 ≤ λM < +∞.

Fino a questo punto è stata usata solo l’ipotesi M ≥ O. Se, inoltre, M  O allora
λM ≥ minj Mjj > 0. Dunque 0 < λM < +∞.
Sia VM > 0 tale che MV M ≥ λM VM .
(I) Proviamo che λM è un autovalore e VM è il corrispondente autovettore che
verifica VM  0.
Poiché M  O segue MX  0 per ogni X > 0, dunque
 
M MVM −λM VM  0 oppure MVM = λM VM .
5.4 Matrici strettamente positive e Teorema di Perron-Frobenius 209

Se MVM > λM VM , allora Y = MVM > 0 e dunque MY  λM Y. Allora λM potrebbe


essere leggermente aumentato contraddicendo la sua definizione come massimo.
Dunque vale MVM = λM VM .
Inoltre, poiché VM > 0 implica MVM 0, allora MVM = λM VM implica VM  0.
(II) Proviamo che |λ| < λM per ogni autovalore λ di M.
Sia λ = λM un autovalore di M ed Y = 0 l’autovettore corrispondente a λ. Defi-
 di componenti Yj = |Yj | , con j = 1, · · · , n, e consideriamo il
niamo il vettore Y

vettore MY di componenti:
 
MY = mj1 |Y1 | + mj2 |Y2 | + · · · + mjn |Yn | ≥ |mj1 Y1 + mj2 Y2 + · · · + mjn Yn |
j

cioè

 ≥ (MY)
MY

MY  = |λ| Y
 ≥ (λY) 
e dalla definizione di λM segue |λ| ≤ λM . Per provare la disuguaglianza stretta, con-
sideriamo la matrice Mδ = M − δIn dove δ > 0 è scelto in modo tale che Mδ  O
1
(ad esempio, ponendo δ = minij mij ).
2
Dall’identità (μ − δ) In − Mδ = μIn − M, per ogni μ ∈ C, segue che (λM − δ) e
(λ − δ) sono autovalori di Mδ . Inoltre, per la stretta positività di Mδ , vale

|λ − δ| ≤ λM − δ (5.15)

poiché λM − δ è il massimo autovalore di Mδ .


Se |λ| = λM e λ = λM si ha una contraddizione con (5.15). Si è usato il fatto (illustra-
to in Fig. 5.5) che la sottrazione di una quantità positiva da un numero complesso
riduce maggiormente (a parità di modulo) il modulo del numero reale positivo.
(III) Proviamo che λM ha molteplicità geometrica uguale ad 1.
Supponiamo per assurdo che esista un altro autovettore Y linearmente indipenden-
te da VM . Dalla disuguaglianza VM  0 segue l’esistenza di una costante reale α
tale che, posto W = αVM +Y si abbia W > 0 ma non valga W  0. Tuttavia, da
M  O segue λM W = MW  0 che è una contraddizione.

λ−δ λ

−δ 0 λMI − δ λMI

Fig. 5.5. |λ| = λM = λ e δ > 0 ⇒ |λ − δ| > λM − δ


210 5 Sistemi dinamici discreti: equazioni vettoriali

(IV) Proviamo che λM ha molteplicità algebrica pari ad 1.


Supponiamo per assurdo che la molteplicità algebrica di λM sia maggiore di
1. Abbiamo allora almeno due autovettori generalizzati VM e U associati a
λM tali che

(M − λM In ) U = VM
(M − λM In ) VM = 0.

Sia W l’unico autovettore strettamente positivo di MT corrispondente a λM ,


allora  T 
M − λM In W = 0 WT (M − λM In ) = 0
9 :
0 = WT (M − λM In ) U = W, VM

che è una contraddizione perché VM 0eW 0.


Si osservi che si è implicitamente provato anche l’enunciato del Teorema 5.14
con una tesi lievemente diversa: autovettore VM debolmente positivo; ma un
autovettore per definizione non può essere nullo, il che prova completamente
la tesi del Teorema 5.14.
Per provare il Teorema 5.13 basta osservare che A = Mh verifica le ipotesi√ del
Teorema 5.12 e tra gli autovalori di M ed A intercorre la relazione λM = h λA .
Dalla precedente dimostrazione segue anche l’informazione che la (5.14), detta
formula di Collatz-Wielandt, fornisce il valore dell’autovalore dominante:
λM = max {λ ∈ R : ∃X > 0 tale che MX ≥ λX} .
Osservazione 5.20. In alcuni casi può essere utile una stima dell’autovalore
dominante, senza dover ricorrere al calcolo effettivo. Vale il seguente risultato:
Se M ≥ O e λM ≥ 0 è il suo autovalore dominante, allora, se Cj ed Rj sono
rispettivamente le somme degli elementi della j-esima colonna e j-esima riga
di M, valgono
min Cj ≤ λM ≤ max Cj , (5.16)
j j

min Rj ≤ λM ≤ max Rj . (5.17)


j j

M
Infatti,
n posto M = [mij
], se V M≥ 0 è unMautovettore associato a λM tale che
M
V = 1, allora j mij Vj = λM Vi e sommando anche in i si ottiene
j=1 jM
j j Vj = λM da cui (5.16). Ragionando su M si ottiene la (5.17).
T
C

Esempio 5.21. Consideriamo la seguente matrice strettamente positiva:


⎡ ⎤
123
M = ⎣2 2 2⎦
411
Da (5.16) si ottiene 5 ≤ λM ≤ 7, ma da (5.17) si ottiene 6 ≤ λM ≤ 6 cioè
λM = 6 senza scrivere il polinomio caratteristico. 
5.5 Applicazioni alla demografia 211

5.5 Applicazioni alla demografia

Riprendiamo l’analisi del modello demografico di Leslie (vedi l’Esempio 1.16).


Se indichiamo con Y j il numero di individui di età j (j = 1, 2, . . . , n), ϕj
il tasso di fertilità (nati per individuo) degli individui di età j e σj il tasso
di sopravvivenza di individui di età j fino all’età j + 1, ad ogni tempo di-
screto k (con passo uniforme, pari all’ampiezza delle classi di età) si ha un
 T
vettore Yk = Yk1 Yk2 . . . Ykn che descrive la struttura della popolazione.
L’evoluzione di Y è descritta dall’equazione
Yk+1 = LYk
ove ⎡ ⎤
ϕ1 ϕ2· · · ϕn−1 ϕn
⎢ σ1 0 ··· 0 0 ⎥
⎢ ⎥
⎢ ··· 0 0 ⎥
L =⎢ 0 σ2 ⎥
⎢ .. ..
.. . .. ⎥
⎣ . . . .. . ⎦
0 0 · · · σn−1 0
i
Al tempo k + 1 il numero degli individui della i-esima classe è dato da Yk+1 =
n j n
L Y
j=1 ij k mentre la popolazione totale al generico tempo k è pari a i
i=1 k .
Y
Se σi > 0, i = 1, . . . , n − 1 e ϕj > 0, j = 1, . . . , n, allora la matrice L
pur non essendo strettamente positiva ha una potenza strettamente positiva
(Ln O). (vedi Fig. 5.6). Allora, per il Teorema 5.13, L ha un autovalore
dominante λL > 0 semplice e tale che |λ| < λL per ogni altro autovalore λ di
L. Inoltre, alle traiettorie del s.d.d. Yk+1 = LYk si applica il Teorema 5.18:
in particolare, la distribuzione asintotica della popolazione è descritta dall’au-
tovettore dominante (che è strettamente positivo per il Teorema di Perron-
Frobenius), cioè la ripartizione tra le varie classi d’età è proporzionale alle
componenti dell’autovettore dominante positivo VL .
L’autovettore dominante rappresenta la cosiddetta distribuzione stabile d’età
cioè descrive in quali proporzioni la popolazione tende a ripartirsi nelle varie
classi (in assenza di perturbazioni).
In dipendenza dai valori di sopravvivenza e fertilità l’autovalore dominante
descrive la prospettiva di crescita od estinzione della popolazione:

λL > 1 popolazione in crescita esponenziale;


λL = 1 popolazione che tende ad un equilibrio (strettamente positivo);
0 < λL < 1 popolazione che si avvia all’estinzione in modo esponenziale.
Se 0 < λL < 1, allora 0 è un equilibrio stabile ed attrattivo.
Se λL = 1, allora ogni multiplo positivo dell’autovettore dominante VL è un
equilibrio stabile ma non attrattivo (semiretta di equilibri).
Se λL > 1, allora 0 è un equilibrio instabile e repulsivo.
Si osservi nella Fig. 5.6 come, al crescere della potenza di L aumentano le
212 5 Sistemi dinamici discreti: equazioni vettoriali
⎡ ⎤⎡ ⎤⎡ ⎤
           
⎢ 0 0 0 0 0 0 0 0⎥ ⎢        ⎥⎢        ⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎢0  0 0 0 0 0 0 0⎥ ⎢ ⎥⎢ ⎥
⎢ ⎥⎢ 0 0 0 0 0 0 0 0 ⎥⎢        ⎥
⎢0 ⎥
0  0 0 0 0 0 0 ⎥⎢ 0  0 0 0 0 0 0 0 ⎥
⎢ ⎢ 0⎥
⎢ ⎥⎢ 0 0 0 0 0 0 0 ⎥
⎢0 0 0  0 0 0 0 0⎥ ⎢ 0 0  0 0 0 0 0 0 ⎥⎢ 0  0 0 0 0 0 0 0⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎢0 0 0 0  0 0 0 0⎥ ⎢ ⎥⎢  0⎥
⎢ ⎥⎢ 0 0 0  0 0 0 0 0 ⎥⎢ 0 0 0 0 0 0 0 ⎥
⎢0 0 0 0 0  0 0 0⎥ ⎢ 0 0 0 0  0 0 0 0 ⎥⎢ 0 0 0  0 0 0 0 0⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎣0 0 0 0 0 0  0 0 ⎦⎣ 0 0 0 0 0  0 0 0 ⎦⎣ 0 0 0 0  0 0 0 0⎦
0 0 0 0 0 0 0  0 0 0 0 0 0 0  0 0 0 0 0 0 0  0 0 0
⎡ ⎤⎡ ⎤⎡ ⎤
           
⎢
⎢        ⎥ ⎥⎢
⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢
⎢        ⎥ ⎢
⎥⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢
⎢        ⎥⎢        ⎥
⎥ ⎢ ⎢
⎥⎢        ⎥⎥
⎢
⎢ 0 0 0 0 0 0 0 0⎥ ⎥⎢
⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢0  0 0 0 0 0 0 0⎥ ⎢ ⎥⎢ ⎥
⎢ ⎥⎢ 0 0 0 0 0 0 0 0 ⎥⎢        ⎥
⎢0
⎢ 0  0 0 0 0 0 0 ⎥⎢ 0  0 0 0 0 0 0 0 ⎥
⎥ ⎢ ⎢
⎥⎢ 0 0 0 0 0 0 0 0⎥⎥
⎣0 0 0  0 0 0 0 0 ⎦ ⎣ 0 0  0 0 0 0 0 0 ⎦ ⎣0  0 0 0 0 0 0 0⎦
0 0 0 0  0 0 0 0 0 0 0  0 0 0 0 0 0 0  0 0 0 0 0 0
⎡ ⎤⎡ ⎤⎡ ⎤
           
⎢        ⎥ ⎢        ⎥⎢        ⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎢        ⎥ ⎢ ⎥⎢ ⎥
⎢ ⎥⎢        ⎥⎢        ⎥
⎢        ⎥ ⎢        ⎥⎢        ⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎢
⎢        ⎥ ⎢
⎥⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢
⎢        ⎥ ⎥⎢
⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢
⎢        ⎥ ⎢
⎥⎢        ⎥⎢
⎥⎢        ⎥⎥
⎣ 0 0 0 0 0 0 0 0 ⎦⎣        ⎦⎣        ⎦
0  0 0 0 0 0 0 0  0 0 0 0 0 0 0 0         

Fig. 5.6. L, L2 , . . . , L9 con L matrice di Leslie di ordine 9 (i quadratini neri


indicano gli elementi strettamente positivi)

righe 0 e la diagonale 0 scende.

L’autovalore e l’autovettore dominante possono essere calcolati con metodi


numerici a partire dalla definizione algebrica oppure simulando il sistema per
un periodo sufficientemente lungo: se X0 ha componente cL non nulla lungo
VL nella base di Jordan di L, allora (grazie al Teorema 5.18) si ha:
Xk+1 
λL = lim VL = lim λL−k c−1
L Xk .
k Xk  k

Osservazione 5.22. Se L è una matrice di Leslie, allora il determinante vale


1+n
det L = (−1) ϕn σ1 σ2 · · · σn−1.
5.5 Applicazioni alla demografia 213

Fig. 5.7. Popolazione residente in Italia, per sesso e classi di età (fonte ISTAT)

Fig. 5.8. Due popolazioni (1998), ripartite per sesso e in classi di età di 10 anni

Esempio 5.23. Un modello di ripartizione degli studenti.


Consideriamo gli studenti che in un ateneo frequentano un corso di laurea di
cinque anni. Siano:
S j il numero di studenti iscritti all’anno j di corso, j = 1, 2, . . . , 5;
Sk6 il numero dei laureati nell’anno k;
214 5 Sistemi dinamici discreti: equazioni vettoriali

aj il coefficiente corrispondente alla frazione di abbandoni all’anno j;


pj il coefficiente di passaggio dall’anno j all’anno j + 1, j = 1, . . . , 4;
p5 la frazione di laureati;
Mk gli immatricolati o trasferiti da altre sedi nell’anno k (è un vettore a 6
componenti, l’ultima nulla).
Ad ogni tempo discreto k si ha un vettore a sei componenti Sk che descrive
la struttura della popolazione studentesca.
Il modello di evoluzione è descritto da

Sk+1 = ASk + Mk

con
⎡ ⎤
1 − p 1 − a1 0 0 0 0 0
⎢ p 1 − p − a 0 0 0 0⎥
⎢ 1 2 2 ⎥
⎢ ⎥
⎢ 0 p2 1 − p 3 − a3 0 0 0⎥
A=⎢


⎢ 0 0 p 3 1 − p 4 − a 4 0 0⎥⎥
⎢ ⎥
⎣ 0 0 0 p4 1 − p 5 − a5 0⎦
0 0 0 0 p5 0

Si noti che A ≥ O ma non vi sono potenze Ah O dato che Ah ha l’ultima


colonna di 0 per ogni h. Inoltre, A è di tipo matrice diagonale più matrice
nilpotente, pur non essendo nella forma di Jordan. Il calcolo degli autovalori
è immediato: 1 − p1 − a1 , 1 − p2 − a2 , . . . , 0. Per un’analisi del modello si
possono utilizzare i risultati del paragrafo 5.6. 

Esercizio 5.3. Dimostrare l’affermazione contenuta nell’Osservazione 5.22.

5.6 Equazioni vettoriali lineari affini

Consideriamo il sistema dinamico discreto lineare affine

Xk+1 = AXk + B
(5.18)

dove B ∈ Rn ed A, matrice di ordine n, sono assegnati. Siamo interessati ad


esplicitare Xk , cioè a darne una espressione non ricorsiva e, successivamente,
a studiare l’esistenza di eventuali equilibri e discuterne la stabilità.
Seguendo lo stesso ragionamento formale del caso scalare affine (paragrafo 2.1,
Teorema 2.5) sarà utile effettuare un cambio di incognita per ricondursi al ca-
so lineare: cerchiamo di adattare i passaggi della prova del Teorema 2.5, con
le precauzioni dovute al fatto che A è una matrice.
5.6 Equazioni vettoriali lineari affini 215

Teorema 5.24. Se tutti gli autovalori di A sono diversi da 1 , allora In − A


è invertibile e vale

Xk = Ak (X0 − A) + A (5.19)

dove il vettore A = (In − A)−1 B è l’unico equilibrio del s.d.d. (5.18).

Si osservi la forte analogia di (5.19) con la formula (2.4) relativa al caso lineare
affine scalare.

Prova. Nel seguito scriveremo brevemente I anziché In . La matrice I − A è invertibile


perché 1 non è autovalore di A. Gli eventuali equilibri A del s.d.d. (5.18) risolvono

A = AA + B

la cui soluzione (unica) è A = (I − A)−1 B .


Posto Yk = Xk − A ∀k, sostituendo nell’equazione (5.18), si ottiene il s.d.d.

Yk+1 + A = A (Yk + A) + B

equivalente a
Yk+1 = AYk + AA − A + B
ossia
Yk+1 = AYk − (I − A) A + B.
Dalla definizione di A ricaviamo infine:

Yk+1 = AYk − (I − A) (I − A)−1 B + B =


= AYk − B + B = AYk . 

Nel caso generale (cioè se non si esclude la possibilità del valore 1 fra gli
autovalori di A) si decompone Rn come Rn = V0 ⊕ V1 ⊕ V2 dove

V0 è l’autospazio generalizzato associato all’autovalore 0;


V1 è l’autospazio generalizzato associato all’autovalore 1;
V2 è l’unione degli autospazi generalizzati di tutti gli altri autovalori.

La matrice A nelle coordinate della forma di Jordan si esprime come


⎡ ⎤
A0 O O
A = ⎣ O A1 O⎦
O O A2

dove A0 , A1 , A2 sono matrici quadrate con A0 nilpotente. Tutti i vettori


 T
W di Rn si decompongono come W = W0 W1 W2 . Il sistema (5.18) si
disaccoppia in tre sistemi.
216 5 Sistemi dinamici discreti: equazioni vettoriali
 T
Ogni equilibrio A = A0 A1 A2 risolve A = AA + B cioè
(I − A0 ) A0 = B0 (I − A1 ) A1 = B1 (I − A2 ) A2 = B2 .
Poiché (I − A0 ) e (I − A2 ) sono invertibili, A0 e A2 sono univocamente deter-
minati
−1 −1
A0 = (I − A0 ) B0 A2 = (I − A2 ) B2 .
Però (I − A1 ) non è invertibile (è nilpotente), pertanto possono esservi o meno
soluzioni A1 e se esistono non sono uniche (precisamente, ve ne sono se e solo
se B1 ⊥ ker (I − A1 ) ).
T

Le conclusioni sono riassunte nell’enunciato seguente, che descrive la dinamica


nel caso generale, senza escludere a priori la presenza dell’autovalore 1.
 T
Teorema 5.25. Il sistema (5.18) ammette equilibri A = A0 A1 A2 se e
1 T
solo se la componente B di B in V1 è ortogonale al nucleo di (I − A1 ) .
 T
In caso affermativo, le soluzioni Xk = X0 X1 X2 decomposte secondo V0 ,
V1 , V2 si esplicitano:
k 
X0k = (A0 ) X00 − A0 + A0
k 
X2k = (A2 ) X20 − A2 + A2
 W T

X1k = XU k Xk

dove U è lo spazio associato al blocco di Jordan banale e V2 è l’unione degli


spazi associati ai blocchi di Jordan non banali relativi all’autovalore 0:
XU U U W
k = kB per ogni k, con B componente di B in U, e Xk si può esprimere
in dipendenza da BW ed XW 0 in ciascun sottoblocco di Jordan non banale di
dimensione l − j corrispondente all’autovalore 0.
Dunque:


⎪ (I) 1 non è autovalore, cioè V1 = U ⊕ W = {0}





⎨ oppure
∃ equilibri A ⇔ (II) 1 è autovalore e B1j = 0 per ogni j, salvo

⎪ eventualmente le ultime componenti in



⎪ ciascuno dei blocchi di Jordan non


banali dell’autovalore 1
Nel primo caso esiste un unico equilibrio
& −1 0  −1 'T
−1
A = (I − A) B = I − A0 B I − A2 B .
Nel secondo caso esistono infiniti equilibri:
 T
A = A0 A1 A2
 T  T
A1 = AU AW = 0 AW
 T
AW = costituito da vettori 0 0 . . . 0 Bl in ciascun blocco ldimensionale.
5.6 Equazioni vettoriali lineari affini 217

• Se |λ| < 1 per ogni autovalore, allora siamo nel caso I e l’equilibrio A è
stabile ed attrattivo.
• Se esiste un autovalore λ tale che |λ| > 1, allora l’eventuale equilibrio (casi
I o II) è instabile.
• Se λ = 1 è autovalore e vi è equilibrio, allora siamo nel caso II ed A è sta-
bile se le molteplicità algebriche e geometriche dell’autovalore 1 coincidono
(comunque A non è attrattivo).

Si suggerisce di confrontare la discussione svolta sugli equilibri e la loro sta-


bilità con quella relativa alle equazioni alle differenze scalari ad m passi.

Esempio 5.26. Sia M una matrice di ordine 9 data, nelle coordinate di Jor-
dan corrispondenti alla base e1 , e2 , . . . , e9 (le componenti non indicate sono
nulle) ⎡ ⎤
0 0
⎢ 1 0 ⎥
⎢ ⎥
⎢ 1 0 ⎥
⎢ ⎥
⎢ 1 1 ⎥
⎢ ⎥
M=⎢ ⎢ 1 0 ⎥

⎢ 1 1 ⎥
⎢ ⎥
⎢ λ1 0 0 ⎥
⎢ ⎥
⎣ 0 λ2 0 ⎦
0 0 λ3
con

V0 = e1 ⊕ e2 V1 = e3 ⊕ e4 ⊕ e5 ⊕ e6 V2 = e7 ⊕ e8 ⊕ e9 .

I modi naturali sono individuati da


0, 1, k, k 2 , k 3 , λk1 , λk2 , λk3 . 

Osservazione 5.27. Il modello di ripartizione degli studenti considerato nel-


l’Esempio 5.23 in una situazione stazionaria (Mk = M, ∀k, cioè supposto
costante il numero di immatricolati e di trasferimenti) rientra nella forma
(5.18) studiata in questo paragrafo.

Concludiamo con alcune considerazioni generali sui s.d.d. lineari positivi. Un


sistema lineare affine Xk+1 = AXk + B può non avere equilibri A che ve-
rificano A ≥ 0 anche se A O eB 0 (ad esempio, se n = 1, A = 2 e
B = 1 allora A = −1). È peraltro rilevante chiedersi quando, date A e B
non negative, anche gli equilibri risultano non negativi. Questa questione è
strettamente connessa con la stabilità. Enunciamo un risultato che illustra
solo alcuni aspetti del problema.

Teorema 5.28. Sia dato il s.d.d. vettoriale Xk+1 = AXk + B, dove A O,


B 0.
218 5 Sistemi dinamici discreti: equazioni vettoriali

Allora sono equivalenti le condizioni seguenti:


(i) |λ| < 1 per ogni autovalore λ di A;
(ii) esiste A ≥ 0 equilibrio del sistema.
In particolare, se vale (i) oppure (ii) allora tale A è stabile ed attrattivo e
A 0.

Prova. (i) ⇒ (ii): Se |λ| < 1 per ogni autovalore λ, allora la matrice I − A è inverti-
bile, e per il Teorema 5.24 vi è un unico equilibrio A stabile ed attrattivo. Inoltre,
se si inizializza il sistema dinamico con un dato X0 ≥ 0, allora risulta Xk  0 per
ogni k ≥ 1 e ne segue A ≥ 0 . Inoltre da AA ≥ 0, B  O segue A = AA + B  0.
(ii) ⇒ (i): Se esiste A ≥ 0 tale che (I − A) A = B, allora A = AA + B  0.
Osservato che AT  O e che A ed AT hanno gli stessi autovalori, denotiamo con
λA > 0 l’autovalore dominante di A (e dunque anche di AT ) e con U un autovettore
dominante strettamente positivo di AT (vedi Teorema 5.12):

U0 AT U = λA U B, U > 0.

Allora
3   4
(1 − λA ) A, U = A, I − AT U = (I − A) A, U = B, U > 0

e dalla disuguaglianza A, U > 0 segue λA < 1.


Dunque, 0 < λA < 1 e 0 ≤ |λ| < λA < 1 per ogni λ autovalore. 

Esercizio 5.4. Data la matrice quadrata A di ordine n i cui elementi sono tutti
uguali a 1/ (2n) e un vettore B ∈ Rn , B  0, studiare il s.d.d. Xk+1 = AXk + B.

5.7 Sistemi dinamici discreti vettoriali non lineari


Accenniamo al caso di sistemi di più equazioni non lineari ad un passo.

Definizione 5.29. Sia I ⊂ R un intervallo ed F : I n → I n una funzione


continua.
Allora la coppia {I n , F } è detta sistema dinamico discreto vettoriale.

Ad ogni s.d.d. {I n , F } vettoriale è associato un sistema di infinite equazioni


Zk+1 = F (Zk ), k ∈ N. Per ogni scelta di n dati iniziali Z0 , Z1 , . . . , Zn−1 vi è
una sola successione {Zk } che risolve tale sistema di equazioni: tale successione
è detta traiettoria del s.d.d. associata alla n-upla di dati iniziali.
Tutte le definizioni formulate nel caso scalare circa i punti di equilibrio e la loro
stabilità possono essere riformulate con ovvie modifiche nel caso vettoriale.
 T  T
Esempio 5.30. Sia n = 2, F (x, y) = f (x, y) g (x, y) , Zk = Xk Yk .
Allora, ∀k ∈ N
Xk+1 = f (Xk , Yk )

Yk+1 = g (Xk , Yk )
5.7 Sistemi dinamici discreti vettoriali non lineari 219

Come nel caso scalare, non vi sono metodi generali per esplicitare le soluzioni
di sistemi non lineari. Ci limiteremo a discutere il comportamento asintotico
e la stabilità degli equilibri.
È utile introdurre la seguente definizione.

Definizione 5.31. Sia A una matrice quadrata di ordine n. Allora il numero

A = max {AV : V ∈ Rn , V = 1}

è detta norma di A.
 T
Teorema 5.32. Siano n = 2, A = α1 α2 un equilibrio: F (A) = A, cioè
in componenti
α1 = f (α1 , α2 ) α2 = g (α1 , α2)
dove F : I 2 → I 2 è una funzione munita di derivate parziali continue e
⎡ ⎤
∂f ∂f
(α1 , α2) (α1 , α2 )
⎢ ∂x ∂y ⎥
⎢ ⎥
J (A) = ⎢ ⎥.
⎣ ∂g ∂g ⎦
(α1 , α2) (α1 , α2 )
∂x ∂y
Se tutti gli autovalori di J verificano |λ| < 1, allora α è un equilibrio stabile
 T  T
e localmente attrattivo (cioè se X0 Y0 è “vicino” ad α1 α2 , allora la
traiettoria associata a tale dato iniziale converge ad A).
Se esiste un autovalore λ tale che |λ| > 1, allora α è instabile.

Esempio 5.33 (Modello di Lotka-Volterra (predatore-preda)). Consi-


deriamo due specie che interagiscono in un ambiente: le prede, descritte dalla
successione X (X0 descrive quantitativamente la struttura della popolazio-
ne al tempo 0, X1 al tempo 1, ...). In assenza di predatori Xk evolverebbe
secondo la legge di tipo lineare

Xk+1 = aXk .

Se consideriamo la presenza di una specie predatrice Y che si alimenta prin-


cipalmente della specie X è opportuno modificare la legge che descrive la
dinamica come segue
Xk+1 = aXk − bXk Yk .
L’evoluzione dei predatori (per cui non si trascura la competizione sociale) è
descritta da
Yk+1 = cYk − dYk2 + eXk Yk
che tiene conto degli “incontri” con le prede.
Nel quadrante x > 0, y > 0 vi sono quattro regioni determinate dall’interse-
zione delle rette di equazione y = a/b e y = (e/d) x + (c − 1) /d in cui Xk ed
Yk hanno precise monotonie. Tutte le traiettorie “ruotano” in senso antiorario
220 5 Sistemi dinamici discreti: equazioni vettoriali

attorno all’equilibrio α la cui eventuale stabilità dipende dal valore numerico


scelto per i parametri. Al variare dei parametri a, b, c, d, e, tutti positivi, con
a > 1 e c > 1, il sistema presenta diversi comportamenti.
Esaminiamo un esempio numerico: se

a=2 b=1 c = 1, 5 d=2 e=1

allora
Xk+1 = 2Xk − Xk Yk
Yk+1 = 1, 5Yk − 2Yk2 + Xk Yk
cioè ⎡ ⎤
2x − xy
F (x, y) = ⎣ 3 ⎦.
y − 2y2 + xy
2
Le equazioni soddisfatte dagli equilibri sono

α1 = α1 α2
0, 5α2 + α1 α2 = 2α22

Gli equilibri sono 3: (0, 0) , (0, 1/4), e (3/2, 1) . La parte di piano significativa
è il quadrante x > 0, y > 0 cui appartiene un solo equilibrio: (3/2 , 1). Poiché
  ( ) √
3 1 −3/2 2
J ,1 = λ1,2 (J) = ± i
2 1 −1 2

per il Teorema 5.32 l’equilibrio (3/2, 1) è stabile e localmente attrattivo.


Nel quadrante x > 0, y > 0 vi sono quattro regioni determinate dall’interse-
zione delle rette di equazione

1 1
y=2 y= x+
2 4

in cui Xk ed Yk hanno precise monotonie. Tutte le traiettorie “ruotano” in


senso antiorario attorno all’equilibrio α la cui eventuale stabilità dipende dal
valore numerico scelto per i parametri.
Per discutere la stabilità dell’equilibrio (0, 0) osserviamo che
( ) ( )
a0 2 0
J (0, 0) = =
0c 0 3/2

dunque (0, 0) è stabile se e solo se |a| < 1 e |c| < 1 .


Si verifichi che (0, 1/4) è instabile.
Le regioni di monotonia delle popolazioni sono visualizzate in Fig. 5.9. 
5.8 Schemi numerici per la risoluzione di problemi lineari 221

Yk
y = dc x + c−1
d

Xk+1 − Xk < 0 Xk+1 − Xk < 0


Yk+1 − Yk < 0 Yk+1 − Yk > 0

Xk+1 − Xk > 0 Xk+1 − Xk > 0


Yk+1 − Yk < 0 Yk+1 − Yk > 0

c−1
d

Xk

Fig. 5.9. Piano delle fasi del modello di Lotka-Volterra

5.8 Schemi numerici per la risoluzione di problemi


lineari

Spesso si deve affrontare il problema di calcolare le soluzioni di un siste-


ma di equazioni algebriche lineari (vedi Appendice D): ad esempio, gli sche-
mi numerici per la soluzione di equazioni differenziali lineari consistono nel-
la risoluzione di tali sistemi con grande dimensione (numero di equazioni).
Nell’Esempio 1.21 abbiamo incontrato uno schema alle differenze finite che
consente di approssimare la soluzione di una equazione alle derivate parziali
mediante la soluzione di un sistema di equazioni algebriche lineari. In teoria
il Teorema di Rouché-Capelli e la regola di Cramer danno una risposta com-
pleta al problema di risolvere un tale sistema algebrico. Tuttavia tali metodi
sono inapplicabili per la determinazione effettiva delle soluzioni se la dimen-
sione del sistema non è molto piccola oppure se la matrice associata non è
diagonale. Inoltre, negli schemi alle differenze finite che approssimano equa-
zioni differenziali tale dimensione è molto grande e la matrice associata non
è banale. È dunque importante individuare schemi numerici efficienti per la
soluzione esatta o approssimata di sistemi lineari algebrici di dimensione ele-
vata, perlomeno nei casi di matrici aventi particolare struttura (come avviene
nel caso della discretizzazione di equazioni differenziali).

Iniziamo considerando un esempio importante di matrice sparsa cioè con molti


termini nulli.
222 5 Sistemi dinamici discreti: equazioni vettoriali

Esempio 5.34. Si verifica7 che la matrice quadrata tridiagonale N × N (con


elementi nulli fuori dalle tre diagonali principali)
⎡ ⎤
2 −1
⎢ −1 2 −1 ⎥
⎢ ⎥
⎢ . ⎥
⎢ −1 2 . . ⎥
⎢ ⎥
⎢ .. .. .. ⎥
T=⎢ . . . ⎥ (5.20)
⎢ ⎥
⎢ . . ⎥
⎢ . . . . −1 ⎥
⎢ ⎥
⎣ −1 2 −1 ⎦
−1 2
 2

ha autovalori λk (T) = 4 sin per 1 ≤ k ≤ N , associati agli
2 (N + 1)
autovettori Uk (T) di componenti (Uk )j = sin (jkπ/ (N + 1)).
Ne segue che, per ogni N , la matrice T è definita positiva e i suoi autovalori
λk (T) verificano 0 < λk (T) ≤ 4 per ogni k; inoltre, λmin (T) = λ1 (T) ∼
 2
π
. 
N +1

Esempio 5.35 (Problema di autovalori per l’operatore –d 2/dx 2 in un


intervallo). La ricerca di costanti λ cui corrispondono funzioni u = u (x)
non identicamente nulle che risolvono

−u (x) = λ u (x) 0 < x < l
(5.21)
u (0) = u (l) = 0

è detto problema di autovalori.


 2
Il problema (5.21) ha infinite soluzioni date dalle coppie λlk = kπ l
e
uk (x) = Ck sin kπx
l con k = 1, 2, . . . e Ck costanti arbitrarie.
Approssimando la derivata seconda con le differenze finite centrate:
uk−1 − 2uk + uk−1
u (xk ) ∼ dove
h2
h = l/ (N + 1) ; xk = kh ; uk ∼ u (xk ) ; 1≤k≤N

si ottiene il problema seguente (approssimazione numerica del problema


(5.21)):

7
Si sostituiscano T, λk (T) e Uk (T) nella definizione di autovalore ed autovettore e
si utilizzino le identità:
2
sin α2 = 1−cos
2
α
; sin (α + β) = sin α cos β + sin β cos α .
5.8 Schemi numerici per la risoluzione di problemi lineari 223

Determinare le costanti λ per cui esiste un vettore non nullo


# $T
U = U1 U2 · · · UN soluzione del sistema lineare N × N :

1
TU = λU .
h2

Quest’ultimo consiste nella determinazione degli autovalori della matrice h−2 T


dove T è la matrice tridiagonale (5.20): pertanto gli autovalori di h−2 T sono
 2
−2 4 kπ
λh,k = h λk (T) = 2 sin 1≤k≤N .
h 2(N + 1)

Si noti che, fissati l ed k, se h → 0, allora N → +∞ e λh,k = λlk , ∀k. 

Esempio 5.36 (Metodo di Eulero esplicito per l’equazione del calo-


re). Con riferimento all’Esempio 1.21 ed alle sue notazioni, una soluzione
approssimata del problema

⎪ ∂v ∂2v

⎨ ∂t = ∂x2 x ∈ (0, a) , 0 < t < T
(5.22)

⎪ x ∈ [0, a]
⎩ v (x, 0) = f (x)
v (0, t) = v (a, t) = 0 t > 0

può essere ottenuta mediante il metodo di Eulero esplicito, cioè dallo schema
numerico

Wj,k+1 = αWj−1,k + (1 − 2α) Wj,k + αWj+1,k α = h/s2
(5.23)
W0,k+1 = WN,k+1 = 0.

In termini di sistemi dinamici discreti lo schema numerico (5.23) genera una


traiettoria del s.d.d. vettoriale Wk+1 = BWk a partire da W0 , campiona-
mento del dato iniziale f, con B = IN − αT, dove T è la matrice tridiagonale
(5.20), α = h/s2 , h è il passo di discretizzazione temporale, s quello spaziale.
⎡ ⎤
1 − 2α α
⎢ α 1 − 2α α ⎥
⎢ ⎥
⎢ .. ⎥
⎢ α 1 − 2α . ⎥
⎢ ⎥
⎢ . . . ⎥
B=⎢ .. .. .. ⎥
⎢ ⎥
⎢ .. .. ⎥
⎢ . . α ⎥
⎢ ⎥
⎣ α 1 − 2α α ⎦
α 1 − 2α

Effettuando esperimenti numerici con un computer è facile verificare che, se


vale la condizione di stabilità numerica 0 < α ≤ 1/2, allora il metodo di
Eulero esplicito ha un buon comportamento, cioè i valori numerici ottenuti
224 5 Sistemi dinamici discreti: equazioni vettoriali

Fig. 5.10. Discretizzazione alle differenze finite con Eulero esplicito (5.23)

approssimano la soluzione esatta. Viceversa, se vale la condizione di insta-


bilità numerica α > 1/2, allora i valori numerici ottenuti oscillano senza
controllo anziché approssimare la soluzione cercata.
L’obiettivo è quello di evitare le eventuali amplificazioni degli errori introdotti
nella valutazione (con precisione aritmetica finita) del dato iniziale.
La condizione α ≤ 1/2 (cioè h ≤ s2 /2) va dunque imposta per ottenere ri-
sultati significativi; tuttavia essa risulta assai costosa nella pratica di calcolo:
raddoppiare nello spazio i punti della griglia di discretizzazione comporta una
quadruplicazione di tali punti nel tempo, cioè il numero complessivo di punti
ed il relativo tempo di calcolo aumentano di otto volte. Per tale motivo si pre-
ferisce utilizzare il metodo di Eulero implicito che risulta stabile senza alcuna
condizione sul valore numerico di α = h/s2 , anche se tale metodo richiede la
soluzione di un sistema lineare algebrico con matrice non diagonale, mentre
nel caso di Eulero esplicito (5.23) il sistema algebrico è già risolto.
Per comprendere il senso della condizione di stabilità numerica per il metodo
di Eulero esplicito, facendo riferimento all’Esempio 5.36, osserviamo che la
matrice T è diagonalizzabile. Dunque anche B = IN − αT è diagonalizzabile
ed i suoi autovettori ed autovalori sono rispettivamente

Uk (B) = Uk (T) 1≤k≤N


 2

λk (B) = 1 − αλk (T) = 1 − 4α sin 1≤k≤N .
2 (N + 1)
Allora gli autovalori di B sono tutti semplici; inoltre:

λk (B) ≤ 1 ⇔ 0 ≤ α ≤ 1/2 .

Per il Teorema 5.8 e le considerazioni successive, relativamente al s.d.d.


Wk+1 = BWk , possiamo affermare che l’equilibrio 0 risulta stabile se 0 ≤
α ≤ 1/2 ed attrattivo se 0 < α < 1/2.
Se si ha un errore di arrotondamento iniziale E0 (Ej,0 è l’errore nella valuta-
zione numerica di f (js)) allora si genera un errore Ek al passo k. Si verifica
5.8 Schemi numerici per la risoluzione di problemi lineari 225

che tale errore risolve il s.d.d. Ek+1 = BEk con dato iniziale E0 . Concluden-
do, se vale la condizione di instabilità numerica gli inevitabili (per quanto
piccoli) errori verranno amplificati dalle iterazioni successive, mentre se vale
la condizione di stabilità numerica essi rimarranno “ben controllati”. 

Esempio 5.37 (Metodo di Eulero implicito per l’equazione del ca-


lore). Sempre con riferimento all’Esempio 1.21 ed alle sue notazioni, una
soluzione approssimata del problema (5.22) può essere ottenuta mediante il
metodo di Eulero implicito, cioè dallo schema numerico8

(1 + 2α) Vj,k+1 − αVj−1,k+1 − αVj+1,k+1 = Vj,k
(5.24)
V0,k+1 = VN+1,k+1 = 0.

In termini di sistemi dinamici discreti, lo schema numerico (5.24) genera una


traiettoria del s.d.d. vettoriale AVk+1 = Vk a partire da V0 , campionamento
del dato iniziale f, con A = IN + αT, dove T è la matrice tridiagonale (5.20),
α = h/s2 , h è il passo di discretizzazione temporale, s quello spaziale.
⎡ ⎤
1 + 2α −α
⎢ −α 1 + 2α −α ⎥
⎢ ⎥
⎢ .. ⎥
⎢ −α 1 + 2α . ⎥
⎢ ⎥
A=⎢ ⎢ . .. . .
.. .. ⎥

⎢ ⎥
⎢ .. .. ⎥
⎢ . . −α ⎥
⎣ −α 1 + 2α −α ⎦
−α 1 + 2α

Ora ciascun passo risolutivo risulta numericamente non banale perché corri-
sponde ad invertire la matrice tridiagonale A.
Grazie all’analisi svolta nell’Esempio 5.34 osserviamo che A è diagonalizzabile
ed i suoi autovettori ed autovalori sono rispettivamente

Uk (A) = Uk (T) 1≤k≤N


 2

λk (A) = 1 + αλk (T) = 1 + 4α sin 1≤k≤N .
2 (N + 1)
Dunque
λk (A) > 1 1 ≤ k ≤ N , ∀α > 0 .
Pertanto A è sempre invertibile per
 ogni
 α > 0, inoltre gli autovalori della
−1
matrice inversa verificano 0 < λk A−1 = (λk (A)) < 1 per ogni k.

8
Se il dato al bordo (condizioni sui valori di v (0, t) e v (a, t)) per l’equazione (5.22)
non è 0, allora, a causa delle equazioni estreme si deve modificare il secondo membro
come segue:
# $T
Vk = Vk + αV0,k+1 0 · · · 0 αVN,k+1 .
226 5 Sistemi dinamici discreti: equazioni vettoriali

Fig. 5.11. Discretizzazione alle differenze finite con Eulero implicito (5.24)

Il Teorema 5.8 assicura che per il s.d.d. Vk+1 = A−1 Vk l’equilibrio 0 risulta
stabile ed attrattivo per ogni α > 0.
In questo caso l’eventuale errore di arrotondamento Ek nella valutazione di
Vk è governato dal s.d.d. Ek+1 = A−1 Ek con dato iniziale E0 (errore di di-
scretizzazione del dato iniziale), pertanto lo schema di Eulero implicito risulta
numericamente stabile per ogni α > 0, cioè per ogni h > 0 e per ogni s > 0.
Riassumendo, abbiamo ricondotto la soluzione dell’equazione del calore ad
una cascata di problemi algebrici lineari. 

Osserviamo che T, A, A−1 sono matrici definite positive per ogni α, mentre
B è definita positiva solo se 0 < α < 1/4 .
In pratica, per risolvere il sistema AVk+1 = Vk non si inverte la matrice A
(che ha dimensione N ) perché ciò richiederebbe troppe operazioni (dell’ordi-
ne di N 2 ). Inoltre A è tridiagonale, dunque occupa poco spazio in memoria
(3N − 2 dati), mentre A−1 non è una matrice sparsa e dunque occuperebbe
troppo spazio in memoria (N 2 dati).
Allora anziché invertire A si ricorre ad algoritmi numerici più efficienti. Ne
citiamo solo due: la decomposizione LU che è un metodo diretto, ed il
metodo SOR che è un metodo iterativo. Li illustriamo, per semplicità, con
riferimento alla matrice A = IN + αT che appare nello schema di Eulero
implicito per l’equazione del calore.

Esempio 5.38 (Il metodo LU). Assegnata la matrice A = IN + αT con T


definito da (5.20), cerchiamo due matrici, una triangolare inferiore L, l’altra
triangolare superiore U rispettivamente della forma
⎡ ⎤ ⎡ ⎤
1 0 0 ··· 0 y1 z1 0 · · · 0
⎢ .. ⎥ ⎢ .. ⎥
⎢ l1 1 . . . .⎥ ⎢ 0 y2 . . . . ⎥
⎢ ⎥ ⎢ ⎥
⎢ .. .. .. ⎥ ⎢ . . . ⎥
L=⎢0 . . . 0⎥ ⎥ U = ⎢ . . . ⎥
⎢ ⎢0 . . . 0 ⎥
⎢. .. .. ⎥ ⎢ . .. .. ⎥
⎣ .. . . 0⎦ ⎣ .. . . zN−1 ⎦
0 · · · 0 lN−1 1 0 ··· 0 0 yN
5.8 Schemi numerici per la risoluzione di problemi lineari 227

tali che valga l’uguaglianza A = LU. Per determinare gli elementi li , yi e zi


delle due matrici effettuiamo il prodotto LU: ponendo il risultato uguale ad
A, otteniamo:

y1 = (1 + 2α) (5.25)
α2
yi = (1 + 2α) − i = 2, . . . , N
yi−1
zi = −α
α
li = − i = 1, . . . , N − 1.
yi

Dunque, le sole quantità da calcolare e memorizzare sono le yi al variare di


i = 2, . . . , N , da cui si deducono i valori di li e zi .
Il problema di partenza AVk+1 = Vk può essere riscritto nella forma
L (UVk+1 ) = Vk : tale sistema è equivalente ai due sottoproblemi

UVk+1 = Wk LWk = Vk

ove Wk è un vettore intermedio.


La soluzione effettiva dei due sistemi algebrici si ottiene come segue. Dalla
prima equazione del sistema LWk = Vk si deduce il valore di W1,k mentre
gli altri valori delle componenti del vettore Wk si determinano grazie alle
relazioni ricorsive
αWj−1,k
Wj,k = Vj,k + j = 2, . . . , N .
yj−1

Infine, risolvendo il sistema UVk+1 = Wk si determina immediatamente il


valore
WN,k+1
VN,k+1 =
yN
e a ritroso i valori delle restanti componenti del vettore Vk+1 :

Wj,k + αVj+1,k+1
Vj,k+1 = j = 1, . . . , N − 1 . 
yj

Esempio 5.39 (Il metodo SOR). Il metodo LU sopra illustrato rappre-


senta un metodo diretto per risolvere un sistema lineare algebrico del tipo
AVk+1 = Vk nel senso che le incognite vengono determinate in un unico
passo. In alternativa, si possono considerare dei metodi iterativi.
Il metodo SOR (Successive Over-Relaxation) si può considerare un versione
particolare del metodo di Gauss-Seidel, che a sua volta è uno sviluppo del
metodo di Jacobi.
Il punto di partenza di tutti e tre questi metodi è l’osservazione che il sistema

(1 + 2α) Vj,k+1 − αVj−1,k+1 − αVj+1,k+1 = Vj,k


228 5 Sistemi dinamici discreti: equazioni vettoriali

può essere riscritto nella forma equivalente


1
Vj,k+1 = (Vj,k + α (Vj−1,k+1 + Vj+1,k+1 )) . (5.26)
1 + 2α
Questo semplice riarrangiamento isola i termini diagonali del membro sinistro.
Il metodo di Jacobi consiste nel partire da un valore iniziale approssima-
to per Vj,k+1 con 1 ≤ j ≤ N − 1, sostituendolo nel membro di destra della
(5.26) per ottenere un nuovo valore approssimato per Vj,k+1 . Tale processo
viene iterato fino a quando l’approssimazione non cambia significativamente
da una iterazione alla successiva: quando ciò accade si interrompono le itera-
m
zioni perché è stata calcolata la soluzione cercata. Più precisamente: se Vj,k+1
0
rappresenta la m-esima iterata di Vj,k+1 e Vj,k+1 è l’approssimante iniziale, ci
si aspetta che
m
lim Vj,k+1 = Vj,k+1 .
m
m m+1
Una volta calcolato Vj,k+1 si può determinare Vj,k+1 a partire da

m+1 1   m m

Vj,k+1 = Vj,k + α Vj−1,k+1 + Vj+1,k+1 (5.27)
1 + 2α
e il processo viene iterato fino a quando l’errore
8 m+1 8  2
8V m 82
k+1 − Vk+1 = V m+1
j,k+1 − V m
j,k+1
j

diventa sufficientemente piccolo da non giustificare ulteriori iterazioni. A que-


m+1
sto punto si può considerare Vj,k+1 come valore di Vj,k+1 . Si verifica che il
metodo di Jacobi converge alla soluzione corretta per ogni α > 0.
Il metodo di Gauss-Seidel rappresenta un raffinamento del metodo di Jaco-
m+1
bi. Punto di partenza è l’osservazione che quando si calcola Vj,k+1 nella (5.27)
m+1 m
è già noto il valore di Vj−1,k+1: si usa allora tale valore al posto di Vj−1,k+1 e
dunque la (5.27) diventa
m+1 1  
m+1 m

Vj,k+1 = Vj,k + α Vj−1,k+1 + Vj+1,k+1 . (5.28)
1 + 2α
Sintetizzando, possiamo affermare che il metodo di Gauss-Seidel utilizza un’ap-
prossimante appena questa diventa disponibile aumentando così, rispetto al
metodo di Jacobi, la velocità di convergenza. La maggior efficienza del meto-
do di Gauss-Seidel è dovuta anche al fatto che l’aggiornamento delle iterate
avviene immediatamente riscrivendo la singola iterata calcolata al passo pre-
cedente9 , mentre applicando il metodo di Jacobi è necessario memorizzare
separatamente le vecchie iterate in quanto tutte vengono coinvolte nel calco-
lo delle iterate al passo successivo. Osserviamo infine che anche nel caso del
metodo di Gauss-Seidel si può dimostrare la convergenza per ogni valore di
α > 0.
9 m+1 m m+1
In memoria si sovrascrive Vj−1,k+1 su Vj−1,k+1 prima di calcolare Vj,k+1 .
5.8 Schemi numerici per la risoluzione di problemi lineari 229

Il metodo SOR rappresenta un raffinamento del metodo di Gauss-Seidel. Si


parte dall’identità banale
 
m+1
Vj,k+1 m
= Vj,k+1 m+1
+ Vj,k+1 − Vj,k+1
m
.
Poiché m → +∞ implica Vj,k+1 m
→ Vj,k+1 , si può pensare che il termine
 
Vj,k+1 − Vj,k+1 rappresenti un termine correttivo che deve essere aggiunto
m+1 m

m
a Vj,k+1 per renderlo più vicino al vero valore Vj,k+1 . Si può cercare di sovra-
m+1
correggere (over-correct): precisamente, il valore Vj,k+1 viene determinato in
due tempi a partire dalle relazioni
m+1 1  
m+1 m

Yj,k+1 = Vj,k + α Vj−1,k+1 + Vj+1,k+1
1 + 2α
 
m+1 m
Vj,k+1 = Vj,k+1 m+1
+ ω Yj,k+1 − Vj,k+1
m

dove ω > 1 si dice parametro di sovrarilassamento (over-relaxation).


m+1
Si noti che il valore Yj,k+1 è quello fornito dal metodo di Gauss-Seidel per
m+1 m+1
Vj,k+1 : invece, con il metodo SOR il termine Yj,k+1 − Vj,k+1
m
viene visto come
m m+1
una correzione da apportare a Vj,k+1 al fine di ottenere Vj,k+1 . Si dimostra
che il metodo SOR converge alla soluzione cercata per ogni valore di α > 0
a patto che 0 < ω < 2. Si può inoltre dimostrare l’esistenza di un unico va-
lore del parametro ω compreso fra 1 e 2 in corrispondenza del quale si ha la
massima velocità di convergenza. Tale valore dipende dalla dimensione della
matrice considerata e dalla tipologia dei suoi elementi. 
Consideriamo ora un semplice ma istruttivo esempio: il sistema di equazioni
lineari algebriche
( ) ( ) ( )
1 1 X1 B1
EX = B dove E= X= B= .
1 1, 01 X2 B2

Poiché det E = 0 si sa che qualunque sia la scelta di B esiste una ed una sola
soluzione del sistema. Tuttavia il sistema è mal condizionato nel senso se-
guente: a piccole variazioni del dato B possono corrispondere grandi variazioni
della soluzione.  T  T  T
Ad esempio, se B = 2 2, 01 allora X = 1 1 , se invece B = 2 1, 9
 T
allora X = 12 −10 .
Ciò si verifica perché (benché E sia definita positiva e strettamente positiva)
il rapporto tra massimo e minimo autovalore di E è molto grande; infatti,
risolvendo l’equazione
 caratteristica
√  λ2 − 2, 01λ + 0, 01 = 0 si ricavano gli
autovalori λ1,2 = 201 ± 40001 /200, cioè:

λ1 = 4, 9875 × 10−3 λ2 = 2, 005

da cui si ottiene
λ2
∼ 400.
λ1
230 5 Sistemi dinamici discreti: equazioni vettoriali

Si noti che λ2 è stimabile senza calcolarlo effettivamente (Osservazione 5.20):


2 ≤ λ2 ≤ 2, 01.
I problemi mal condizionati vanno affrontati con opportune manipolazioni
preliminari alla soluzione numerica, allo scopo di evitare errori grossolani. Cer-
chiamo di formalizzare questo discorso discutendo la sensibilità delle soluzioni
del sistema lineare
MX = B (5.29)
rispetto alle perturbazioni del vettore dato B. Consideriamo il problema per-
turbato
M (X + δX) = (B + δB) (5.30)
dove δB è una perturbazione di B e X + δX è la soluzione corrispondente al
dato perturbato B + δB.
Osserviamo che, grazie alla linearità, da (5.29) e (5.30) segue M δX = δB .

Teorema 5.40 (Stima dell’errore relativo dovuto a perturbazioni del


dato nella soluzione di un sistema lineare algebrico). Se M è una
matrice invertibile, (5.29) e (5.30) implicano

δX δB
≤ X (M)
X B
8 −1 8
dove X (M) = M 8M 8 è detto numero di condizionamento della
matrice non singolare M ed M = max (MX / X) è la norma di M
X =0
come trasformazione lineare in Rn (si veda la Definizione 5.31).
Prova. Da (5.29) e (5.30) seguono

δX = M−1 (B + δB) − X = M−1 (B + δB − B) = M−1 δB

δX δB δB δB


≤ ||M−1 || ≤ ||M−1 || ||M|| ≤ X (M) . 
X X ||M|| X B

Osservazione 5.41. Nei casi in cui M è una matrice simmetrica reale e defi-
nita positiva, vale X (M) = λmax (M) /λmin (M).

Vediamo le conseguenze del Teorema 5.40 e dell’Osservazione 5.41 in qualche


esempio concreto.
Osserviamo che la matrice tridiagonale reale simmetrica dell’Esempio 5.34 pur
essendo definita positiva è mal condizionata:
 2
λmax (T) N +1
∼ .
λmin (T) π

Invece la matrice B = I − αT è ben condizionata se 0 < α < 1/8 perché in tal


caso
1
0 < < λmin (B) < λmax (B) < 1 .
2
5.8 Schemi numerici per la risoluzione di problemi lineari 231
−1
La matrice A−1 = (I + αT) è ben condizionata se α > 0 perché in tal caso

1    
0< < λmin A−1 < λmax A−1 < 1
5
dunque il problema algebrico che si deve risolvere nello schema di Eulero
implicito è ben condizionato.

Osservazione 5.42. Supponiamo di affrontare il problema Δu = f nel qua-


drato (0, a) × (0, a) con condizione di Dirichlet omogenea (u = 0 sul bor-
do del quadrato) utilizzando la formula del Laplaciano a cinque punti (ve-
di Esercizio 1.16 di cui utilizziamo le notazioni). Suddividendo in 101 inter-
vallini ciascun lato del quadrato, si ottiene una griglia nei cui nodi interni
.
(100 × 100 = 10 000) deve essere soddisfatta una relazione lineare. In de-
finitiva, si deve risolvere il sistema algebrico lineare MU = F dove M ha
. . . .
10 000 × 10 000 = 100 000 000 elementi. Se anche ciascun elemento della ma-
trice avesse a disposizione un solo bit (in pratica ve ne sono di più) avremmo
una occupazione di memoria di 100 megabytes solo per archiviare la discre-
tizzazione del dato, a meno di non sfruttare algoritmi adatti a matrici sparse
come è il caso di M o algoritmi di tipo parallelo. È dunque essenziale sfruttare
al massimo la struttura della matrice M quando la sua dimensione è elevata,
come abbiamo fatto con la decomposizione LU o il metodo SOR.

Osservazione 5.43. Il problema di determinare il prezzo di una opzione de-


scritta dal modello di Black and Scholes può essere risolto numericamente con
i metodi descritti in questo paragrafo per l’equazione del calore dopo aver
effettuato la trasformazione dell’Esercizio 1.17.

Esercizio 5.5. Data la matrice tridiagonale


⎡ ⎤
5 2 0 0 ··· 0
⎢2 5 2 0 ··· 0⎥
⎢ ⎥
⎢0 2 5 2 ··· 0⎥
⎢ ⎥
M=⎢
⎢0
.⎥
⎢ 0 2 5 · · · .. ⎥⎥
⎢. .. .. .. . . ⎥
⎣ .. . . . . 2⎦
0 0 0 ··· 2 5

a) stimarne (in modo semplice!) l’autovalore dominante;


b) provare che è definita positiva e calcolarne gli autovalori.
232 5 Sistemi dinamici discreti: equazioni vettoriali

5.9 Esercizi di riepilogo


Esercizio 5.6. Date le matrici
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 0 1 123 123 100
10 1 −1 ⎣3 2 1⎦ ⎣3 2 1⎦ ⎣3 1 0⎦
11 1 1
111 122 122

determinare la forma canonica di Jordan associata e la base corrispondente.


Esercizio 5.7. Dimostrare che se M è una matrice quadrata di ordine 2 che am-
mette la decomposizione M = S + T con S semisemplice e T nilpotente, allora
Mk = Sk + kTSk−1 .
Esercizio 5.8. Provare che se A è una matrice quadrata reale di ordine n, e λ =
a + ib è autovalore di A (con a, b ∈ R, b = 0), allora anche λ = a − ib è autovalore
di A ed gli autovettori associati a λ e λ sono complessi e coniugati.
Nel caso n = 2, mostrare 0 che 1esiste una base reale rispetto alla quale la matrice
a −b
A si rappresenta come , cioè una omotetia composta con una matrice di
b a
rotazione.
Esercizio 5.9. Consideriamo una matrice di Leslie L e supponiamo (più realistica-
mente di quanto fatto nel paragrafo 5.5) che il tasso di fertilità dell’ultima classe
d’età sia nullo: ϕn = 0. In tal caso il Teorema 5.13 non si applica: ogni potenza Lk
ha l’ultima colonna di elementi nulli.
⎡ ⎤
 0
⎢  0 0 0 0 0⎥
⎢ ⎥
⎢ 0  0 0 0 0⎥
L=⎢ ⎢ ⎥

⎢ 0 0  0 0 0⎥
⎣ 0 0 0  0 0⎦
0 0 0 0  0

Si applica comunque il Teorema 5.14.


Si provi a dire qualcosa di più preciso sulla dinamica di Yk+1 = LYk considerando
la matrice di Leslie B di ordine n − 1 ottenuta rimuovendo l’ultima riga e l’ultima
colonna.
Esercizio 5.10. Se si considerano molte classi di età nel modello di Leslie, allora è
necessario considerare il tasso di fertilità nullo per la classe più giovane, e.g. ϕ1 = 0,
o per alcune delle classi più giovani della popolazione.
Si studi la dinamica del s.d.d. di Leslie nel caso in cui si abbiano solo le informazioni
seguenti: ϕj ≥ 0 j = 1, . . . , n , ϕn−1 > 0, σj > 0 j = 1, . . . , n − 1. Il caso peggiore
possibile dal punto di vista della positività stretta della matrice è suggerito (per
n = 6) dalla seguente matrice:
⎡ ⎤
0 0 0 0  0
⎢  0 0 0 0 0⎥
⎢ ⎥
⎢ 0  0 0 0 0⎥
L=⎢ ⎢ ⎥

⎢ 0 0  0 0 0⎥
⎣ 0 0 0  0 0⎦
0 0 0 0  0
5.9 Esercizi di riepilogo 233

Esercizio 5.11. Calcolare l’autovalore dominante (o perlomeno stimarne il valore)


per le matrici: ⎡ ⎤ ⎡ ⎤
1234 1142
⎢4 3 2 1⎥ ⎢1 1 2 2⎥
A=⎢ ⎣5 5 0 0⎦
⎥ B=⎢ ⎥
⎣2 1 0 2⎦
2233 2200

Esercizio 5.12. Determinare l’espressione non


⎡ ricorsiva⎤ delle soluzioni del s.d.d.
# $T 0 1 0
Xk+1 = AXk con X0 = 1 0 −1 dove A = ⎣ 0 0 −1 ⎦ .
2 −1 0
6
Catene di Markov

Le catene di Markov1 sono modelli astratti che descrivono processi di estrema


importanza nelle applicazioni del calcolo delle probabilità.
Considereremo un insieme finito di eventi; supporremo che tali eventi si sus-
seguano secondo un parametro discreto (che in molti casi è il tempo), e si
verifichino con una probabilità che dipende solo dall’evento verificatosi prece-
dentemente.
In un sistema dinamico deterministico ad un passo lo stato al tempo k + 1 è
determinato in modo unico da quello al tempo k, invece nel caso delle catene
di Markov considerate in questo capitolo è la distribuzione di probabilità dei
vari eventi al tempo k + 1 ad essere univocamente determinata da quella al
tempo k. Ci limiteremo al caso in cui tale legame di dipendenza sia lo stesso
per ogni k.
Denoteremo con P (E) la probabilità di realizzazione di un evento E; dun-
que, P (E) è sempre un numero reale appartenente all’intervallo [0, 1]. Per un
sommario delle identità elementari che sono utili nel calcolo delle probabilità
rinviamo all’Appendice C.

6.1 Esempi, definizioni e notazioni


Prima di introdurre delle definizioni formali, esaminiamo degli esempi.
Riprendiamo in esame il problema della “rovina del giocatore”, già discusso
nell’Esempio 1.17 e risolto nell’Esercizio 2.36 come equazione scalare a due
passi. Qui ne presentiamo un modello meno elementare allo scopo di affrontare,
mediante le tecniche di questo paragrafo, un esempio già studiato.

Esempio 6.1. Due giocatori A e B possiedono rispettivamente a e b Euro,


a > 0, b > 0.
1
Andrei A. Markov, 1856-1922. Uno dei fondatori del moderno calcolo delle
probabilità.

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_6, © Springer-Verlag Italia 2014
236 6 Catene di Markov

A e B giocano a testa o croce con una moneta equa (la probabilità p di avere
testa è uguale alla probabilità q di avere croce: p = q = 1/2): chi vince un
turno prende un Euro all’avversario. Vince la partita chi rovina l’avversario,
ottenendo tutti gli a + b Euro. Poniamo a + b = s.
Per descrivere la situazione del gioco ad un dato turno, consideriamo il nu-
mero Xk di Euro posseduti dal giocatore A (B ne possiede s − Xk ) prima di
giocare il turno (k + 1)-esimo.
È comodo riportare in un diagramma le possibili storie della partita: si veda
la Fig. 6.1.
Per calcolare la probabilità che A dopo tre lanci della moneta possegga a + 1
Euro, dobbiamo valutare la probabilità di ciascuno dei possibili “percorsi” che
si concludono in tre tappe in a + 1 :
 3
A perde A vince A vince 1
a −→ a − 1 −→ a −→ a + 1 : probabilità
2
 3
A vince A perde A vince 1
a −→ a + 1 −→ a −→ a + 1 : probabilità
2
 3
A vince A vince A perde 1
a −→ a + 1 −→ a + 2 −→ a + 1 : probabilità .
2
Poiché i tre percorsi rappresentano tre storie diverse (eventi disgiunti) la pro-
babilità richiesta è data dalla somma delle probabilità di ciascun pecorso, cioè
da 3/8.
Gli stati possibili sono i valori che può assumere Xk nel corso della partita,
cioè {0, 1, . . . , s}.
Può essere utile visualizzare graficamente le possibili transizioni tra i vari stati:
con riferimento alla Fig. 6.2, utilizziamo gli archi orientati per rappresentare
la probabilità di transizione da un valore ad un altro della somma posseduta
da A . Ad ogni arco corrisponde una probabilità di transizione2 . Ciascuna

a
 
a−1 a+1
   
a−2 a a+2
     
a−3 a−1 a+1 a+3

Fig. 6.1. Possibili andamenti del capitale di A corrispondenti a tre lanci conse-
cutivi della moneta

2
Il lettore familiare con il calcolo delle probabilità può osservare che la probabili-
tà di transizione da uno stato E ad un altro stato F è un esempio di probabilità
condizionale, cioè la probabilità che si cada in F essendo certi di partire dallo stato E.
6.1 Esempi, definizioni e notazioni 237

Fig. 6.2. Grafo che illustra le possibili transizioni e le loro probabilità

di queste probabilità dipende dalla moneta ma non dipende dal numero di


turni di gioco effettuati in precedenza.
Avendo supposto che la moneta non sia truccata, e dunque che il gioco sia
equo, 1/2 è la probabilità di passare da j a j + 1 o da j a j − 1 Euro, se
0 < j < s, invece è 1 la probabilità di passare da 0 a 0 o da s ad s Euro (sono
due situazioni cui si può pervenire, ma da cui non si può uscire).
Calcoliamo la probabilità che A vinca il gioco. Questo corrisponde al verificarsi
di un evento dell’infinità dei seguenti possibili sviluppi del gioco:

A vince al primo turno


A vince al secondo turno
A vince al terzo turno
..
.

Ciascuno di questi eventi si realizza con un numero finito di percorsi nel grafo
(tale numero cresce rapidamente al crescere del numero d’ordine del turno
della vittoria) la cui probabilità è data dal prodotto delle probabilità del ve-
rificarsi di ciascuna transizione. La probabilità di vittoria è la somma delle
probabilità di tali eventi. Posto P (j), j = 0, 1, . . . , s, la probabilità di vincere
partendo con j Euro, si ottiene

1
P (j) = (P (j − 1) + P (j + 1)) j≥1 (6.1)
2
formula che ha una interpretazione geometrica: ogni terna di coordinate
(j − 1, P (j − 1)), (j, P (j)), (j + 1, P (j + 1)) corrisponde a tre punti allineati
nel piano. Inoltre, da P (0) = 0 e P (s) = 1 segue che ogni coppia (j, P (j))
appartiene ad una retta passante per l’origine:

j
P (j) = .
s
Dunque, la probabilità di vittoria per A (uguale alla probabilità di rovina per
B) sostituendo i nostri dati iniziali è
a
P (a) = .
a+b
238 6 Catene di Markov

Come si era già osservato, pur essendo equo il gioco, le probabilità sono a
favore di chi detiene un più cospicuo capitale iniziale (si rifletta sul fatto che
A in caso di vittoria conquista b Euro, B invece ne conquista a).
Una completa descrizione dell’evoluzione del gioco può essere ottenuta utiliz-
zando l’Algebra Lineare per esprimere in modo sintetico tutte le informazioni
contenute nella Fig. 6.2:
 T
se Pk = Pk (0) Pk (1) . . . Pk (s) è il vettore delle probabilità Pk (t) di ave-
re t Euro dopo k turni, abbiamo un esempio di catena di Markov ad s + 1
stati descritta da
⎡ ⎤
1 1/2 0 0 · · · 0 0
⎢ 0 0 1/2 0 · · · 0 0 ⎥
⎢ ⎥
⎢ 0 1/2 0 1/2 · · · 0 0 ⎥
⎢ ⎥
⎢ .. .. .. .. ⎥
Pk+1 = MPk dove M=⎢ 0 0 1/2 . . . . ⎥.
⎢ ⎥
⎢. . . . ⎥
⎢ .. .. .. . . 0 1/2 0 ⎥
⎢ ⎥
⎣ 0 0 0 · · · 1/2 0 0 ⎦
0 0 0 . . . 0 1/2 1

Con tale notazione, se si inizia con j Euro allora la probabilità di vittoria


dopo k turni, cioè Pk (s), è data dall’ultima componente del vettore Mk P0 ,
 T
ove P0 = 0 · · · 1 · · · 0 la cui unica componente non banale è la
j-esima. 

Esempio 6.2. Due urne contengono delle biglie colorate. La prima ne contie-
ne 2 bianche e 3 nere, la seconda 4 bianche e 5 nere. Si estrae una biglia dalla
prima urna, se ne registra il colore e la si reintroduce nella sua urna. Se era
bianca si effettua la successiva estrazione dalla prima urna, se era nera, dalla
seconda. Quindi si itera il procedimento.
Ci si chiede qual è la probabilità che alla quinta estrazione la biglia sia bian-
ca.
Si tratta di un esempio di catena di Markov a due stati: uno stato è l’estra-
zione di una biglia bianca, l’altro è l’estrazione di una biglia nera. Se la k-esima
biglia estratta è bianca, allora alla (k + 1)-esima estrazione la probabilità di
estrarre bianca è 2/5, quella di estrarre nera è 3/5; se la k-esima biglia è ne-
ra, allora alla (k + 1)-esima estrazione la probabilità di estrarre bianca è 4/9,
nera 5/9.
Per risolvere il problema posto, consideriamo tutti i casi possibili e definia-
mo Pk la probabilità che la k-esima estrazione sia bianca e Qk = 1 − Pk la
probabilità che sia nera.
Sappiamo, estraendo dalla prima urna, che P1 = 2/5 e Q1 = 3/5. Se la
k-esima estrazione è bianca, allora la probabilità che la (k + 1)-esima sia an-
cora bianca è 2/5; se la k-esima estrazione è nera, allora la probabilità che la
(k + 1)-esima sia bianca è 4/9. Poiché si tratta di eventi disgiunti la cui unione
dà tutti i casi in cui si può ottenere bianca alla (k + 1)-esima estrazione, si
6.1 Esempi, definizioni e notazioni 239

ha:
2 4
Pk+1 = P k + Qk (6.2)
5 9
e ricordando che Pk + Qk = 1
4 2
Pk+1 = − Pk .
9 45
Si tratta di una equazione lineare a coefficienti costanti; mediante la (2.4)
e ponendo attenzione al fatto che si parte da k = 1 si ricava la soluzione
generale:
 k−1
20 2
Pk = + − (P1 − 20/47) , k ∈ N\ {0} .
47 45

Dunque lim Pk = 20/47 ∈ R, cioè Pk tende all’equilibrio.


k
Si potrebbe procedere con le stesse regole ma iniziando ad estrarre dalla se-
conda urna; tuttavia l’argomentazione precedente prova che la scelta della
prima urna e la prima estrazione non influenzano la probabilità Pk per valori
di k “grandi”. Dunque, se avessimo cominciato dalla seconda urna non sarebbe
cambiato molto: Pk tende allo stesso valore L qualunque sia l’urna da cui si
inizia, tuttavia P1 = 2/5 se si inizia dalla prima urna, mentre P1 = 4/9 se si
inizia dalla seconda urna. T
In generale, posto Pk = Pk Qk possiamo tradurre la (6.2) nel modo se-
guente:
( )
2/5 4/9
Pk+1 = MPk k≥1 dove M= .
3/5 5/9

Se vi fossero state biglie con più di due colori, avremmo avuto una cate-
na di Markov con più di due stati ed avremmo utilizzato matrici di ordine
corrispondente al numero dei colori. 
In generale, una catena di Markov è un modello per descrivere una suc-
cessione di esperimenti in ciascuno dei quali i risultati possibili (ad esempio,
estrazione di una biglia bianca o nera) sono gli stessi in ogni esperimento. Tut-
tavia la probabilità di uno stesso evento (ad esempio, biglia bianca) dipende
solo dal risultato dell’esperimento precedente. Nel caso in cui il parametro è
il tempo si usa anche dire che le catene di Markov descrivono fenomeni che
dipendono dal passato solo tramite il presente.
Diamo a questo punto una definizione formale. Qui e nel seguito il parametro
k che descrive il processo è sempre considerato come tempo.
Definizione 6.3. Una catena di Markov finita e omogenea è un pro-
cesso descritto da un insieme finito Ω = {s1 , s2 , . . . , sn } di stati (o eventi)
si distinti tali che, per ogni coppia ordinata di stati sj , si , è assegnata una
probabilità mij di transizione dallo stato sj allo stato si , indipendente da k.
240 6 Catene di Markov

Le probabilità di transizione di una catena di Markov soddisfano le relazioni:


n
0 ≤ mij ≤ 1 i, j = 1, . . . , n ; mij = 1 ∀j = 1, . . . , n . (6.3)
i=1

La probabilità con cui si può visitare uno stato si al tempo k + 1 a partire da


uno stato sj al tempo k, dipende solo da sj , cioè dallo stato che si è presentato
al tempo k e non dagli stati che si sono visitati in tempi precedenti a k:
 
mij = P Xk+1 = si | Xk = sj , Xk−1 = sjk−1 , . . . , X1 = sj1 , X0 = sj0 =
= P (Xk+1 = si | Xk = sj ) .

Come si è fatto per l’Esempio 6.1 nella Fig. 6.2, una catena di Markov può esse-
re descritta e visualizzata mediante un grafo orientato, cioè un insieme di verti-
ci (gli eventi) e di lati (frecce che collegano gli eventi). È sottinteso che ad ogni
vertice A collegato mediante una freccia ad un altro vertice (incluso il vertice
stesso A) e a ciascuna freccia è associata una probabilità di transizione positi-
va; non si tracciano i cammini che corrispondono a probabilità di transizione
nulla. Per una trattazione più approfondita dei grafi si veda il Capitolo 7.
Dal punto di vista algebrico, è comodo rappresentare una catena di Markov
mediante la matrice di transizione (o matrice stocastica) M = [mij ] i
cui elementi sono le probabilità di transizione mij dallo stato sj allo stato si .
Noi studieremo solo il caso, detto omogeneo, in cui M è costante; nei casi non
omogenei si ha M = M (k).
La (6.3) assicura che M è una matrice positiva e la somma degli elementi di
ciascuna sua colonna è pari a 1.
Lemma 6.4. Sia M = [mij ] una matrice positiva di dimensione n. Valgono
le seguenti conclusioni:
(1) M è stocastica se e solo se:
 T
1 è autovalore di MT con autovettore associato 1 = 1 1 . . . 1 ;
(2) se M è stocastica, ogni suo autovalore λs soddisfa |λs | ≤ 1.

Prova. (1) È sufficiente osservare che la condizione di stocasticità per una matrice
positiva M equivale a MT ·1 = 1 e ricordare che M ed MT hanno gli stessi autovalori.
(2) Se Vs è un autovettore associato a λs allora:
 
n   n
n n

n
s
n
 
|λs | s
|Vi | = s
|λs Vi | =  mij Vj  ≤ mij Vjs  =
 
i=1 i=1 i=1 j=1 i=1 j=1
 n 

n
   s
n
= mij Vjs  = Vj  .
j=1 i=1 j=1

n
Poiché r=1 |Vrs | = 0 si ottiene la tesi. 
6.1 Esempi, definizioni e notazioni 241

Si noti che una matrice stocastica può ammettere più autovalori di modulo
unitario. Inoltre, possono esservi anche autovalori doppi, nulli o negativi come
accade per le seguenti matrici stocastiche:
( ) ( ) ( )
1 0 0 1 1/2 1/2
0 1 1 0 1/2 1/2

o anche complessi se n ≥ 3 (cfr. Esercizio 6.13).3


 T
Siano M = [mij ] una matrice stocastica e Pk = Pk1 Pk2 . . . Pkn il vettore
j
delle probabilità di ciascuno stato al tempo k (Pk è la probabilità di osservare
lo stato sj al tempo k). Si ha per ogni k ∈ N:


n
0 ≤ Pkj ≤ 1 , j = 1, . . . , n ; Pkj = 1 ∀k ∈ N . (6.4)
j=1

Dalle ipotesi fatte, per ogni k ∈ N


j
Pk+1 = Pk1 mj1 + Pk2 mj2 + · · · + Pkn mjn

dunque le n equazioni alle differenze che descrivono la probabilità degli n stati


ammissibili al tempo k + 1 in funzione delle corrispondenti probabilità al tem-
po precedente, costituiscono un sistema dinamico discreto vettoriale, ad un
passo, lineare omogeneo4 :

Pk+1 = M Pk ∀k ∈ N
(6.5)

Lemma 6.5. Se M è stocastica e P è una successione che soddisfa (6.5), al-


lora la validità di (6.4) per un valore fissato 
k, implica la validità di (6.4) per
ogni k > k.

Prova. La (6.5) dice che Pk+1 è combinazione lineare delle colonne di M con coeffi-
cienti dati dalle componenti di Pk .

0 1
ab
3
Se n = 2 e M = , con a, b, c, d ≥ 0, il polinomio caratteristico P (λ) =
cd
λ − (a + d) λ + (ad − bc) ha discriminante uguale a (a − d)2 + 4bc ≥ 0, dunque
2

tutti gli autovalori sono reali; inoltre, per la regola dei segni di Cartesio, entrambi
sono positivi se ad > bc, uno positivo e uno nullo se ad = bc, uno positivo e uno
negativo se ad < bc.
4
Attenzione: in alcune trattazioni si assume che mij rappresenti la probabilità di
j n
transizione da i a j e quindi Pk+1 = mhj Pkh ossia Pk+1 = MT Pk ; in tali casi
h=1
è la somma degli elementi di ogni riga di M ad essere uguale ad 1.
242 6 Catene di Markov

Da mij ≥ 0 e Pkj ≥ 0 j
∀i, j segue Pk+1 ≥0 ∀j. Inoltre
   n   n 

n
j

n
n
n
n
Pk+1 = mjh Pkh = mjh Pkh = mjh Pkh =
j=1 j=1 h=1 h=1 j=1 h=1 j=1


n
= Pkh = 1.
h=1

Ne segue anche
j
Pk+1 ≤1 ∀j.
Si è provata la validità di (6.4) per k = 
k + 1. Il caso generale (k > 
k) segue per
induzione. 

Riassumendo, il Lemma appena dimostrato afferma che una matrice stocasti-


ca trasforma un vettore distribuzione di probabilità in un altro vettore
distribuzione di probabilità. In generale, una catena di Markov sarà descritta
dal s.d.d. vettoriale (6.5) con matrice M stocastica e con dato iniziale di tipo
distribuzione di probabilità (distribuzione di probabilità iniziale), cioè


n
0 ≤ P0j ≤ 1, j = 1, . . . , n; P0j = 1 . (6.6)
j=1

La dinamica di tale sistema si svolge nel sottoinsieme proprio S di Rn :



n 
S = V ∈ R : Vj ≥ 0 ∀j ,
n
Vj = 1 ,
j=1

cioè tutte le traiettorie sono contenute in S.


S è detto n-simplesso. S è convesso, chiuso e limitato e coincide con l’insie-
me di tutte le possibili distribuzioni di probabilità su un insieme di n stati. Il
Lemma 6.5 può essere riformulato nel modo seguente:
il simplesso S è invariante per la dinamica del s.d.d. vettoriale (6.5) nel senso
che se P ∈ S allora MP ∈ S.

Studieremo in dettaglio la dinamica del sistema (6.5) ristretta ad S.

1
1
0 1 n=2

n=1
1
1
n=3
1

Fig. 6.3. n simplessi, n = 1, 2, 3


6.1 Esempi, definizioni e notazioni 243

Sistemi dinamici vettoriali ad un passo del tipo (6.5) sono stati studiati nel
Capitolo V. La loro soluzione esplicita è:

Pk = Mk P0 ∀k ∈ N

Poiché {s1 , . . . , sn } descrive una collezione di tutti gli stati possibili (suppo-
(k)
sti distinti), si verifica che il generico elemento mij di Mk rappresenta la
probabilità di transizione dallo stato j allo stato i in k passi, cioè:
(k)
mij = P (Xn+k = si | Xn = sj ) . (6.7)

In generale, per ogni k e h in N, valgono le relazioni:

(k+h)

n
(k) (h)
(equazioni di Chapman-Kolmogorov) mij = mir mrj .
r=1

Nel contesto delle catene di Markov si introduce una denominazione probabi-


listica per l’equilibrio del sistema dinamico discreto vettoriale corrsipondente:
quella di distribuzione di probabilità invariante.
Definizione 6.6. Data una catena di Markov finita che opera su uno spazio
 T
di n stati con matrice stocastica M, un vettore P = P 1 P 2 . . . P n si dice
distribuzione di probabilità invariante se


n
MP = P, Pj ≥ 0 e Pj = 1
j=1

Come già ricordato, una catena di Markov ad n stati è un sistema dinamico


discreto vettoriale lineare le cui traiettorie (e dati iniziali) sono vincolati ad
essere contenuti nell’n-simplesso S di Rn . Da questo punto di vista una distri-
buzione di probabilità invariante è un equilibrio: l’orbita stazionaria associata
è caratterizzata dal fatto che la probabilità di trovare il sistema in un dato
stato non dipende dal tempo k.
( )
01  T
Esempio 6.7. Se M = allora gli autovalori sono ±1, e P = 1/2 1/2
10
è l’unica distribuzione di probabilità invariante (nel 2-simplesso S delle distri-
buzioni di probabilità su 2 stati). Dunque, P è l’unico equilibrio del s.d.d.
Pk+1 = MPk in S, inoltre se il dato iniziale P0 = P allora Pk evolve secondo
una traiettoria 2 periodica. 

M ammette
Osservazione 6.8. Se una matrice stocastica  un autovettore
W > 0 relativo all’autovalore 1, allora W/ jW
j
è una distribuzione
di probabilità invariante per M.
244 6 Catene di Markov

Quando la matrice di transizione M ha l’autovalore 1 semplice e non ha al-


tri autovalori di modulo unitario l’analisi asintotica della catena di Markov
associata è descritta in modo completo dal Teorema seguente.
Teorema 6.9. Sia M una matrice stocastica, V1 , . . . , Vn una base di auto-
vettori (o base di Jordan di autovettori generalizzati se necessario) di M cui
corrispondono gli autovalori λ1 , . . . , λn verificanti λ1 = 1, |λj | < 1, ∀j = 1.
Allora si può secgliere V1 > O, dunque non è restrittivo supporre anche che
V1 sia una distribuzione di probabilità

Vj1 = 1 (6.8)
j

scelta che presupporremo nel seguito.


Inoltre ogni distribuzione di probabilità iniziale P0 , si può rappresentare me-
diante
n
P0 = cj V j con c1 = 1 (6.9)
j=1

e la corrispondente soluzione Pk del sistema dinamico (6.5) verifica

Pk = V1 + c2 λk2 V2 + · · · + cn λkn Vn (6.10)

se V1 , . . . , Vn sono tutti autovettori


(o in generale, se nella base sono presenti anche autovettori generalizzati,

Pk = V1 + Wk (6.11)

dove il vettore Wk è una somma finita con coefficienti indipendenti da k di


termini a crescita al più k mj −1 λkj , con |λj | < 1, mj molteplicità geometrica
di λj ) . Inoltre:
lim Pk = V1 . (6.12)
k


Prova. Fissato P0 , per opportuni (unici) cj vale P0 = n j=1 cj V . Tenendo conto
j

dell’Osservazione 5.9 otteniamo le rappresentazioni (6.10) e (6.11), che implicano

lim Pk = c1 V1 , da cui c1 Vj1 ≥ 0 ∀j . (6.13)


k

n
Poiché risulta h=1 Pkh = 1, ∀k, si ricava


n
n
1 = lim Pkh = c1 Vj1
k
h=1 j=1

n
cioè c1 = 0 , h=1 Vh1 = 0 e

1
c1 = . (6.14)
V11 + V21 + · · · + Vn1
6.1 Esempi, definizioni e notazioni 245

Da (6.4) e (6.13) segue che c1 V1 ha tutte le componenti non negative ed almeno


una strettamente positiva, dunque è lecito scegliere V1 distribuzione di probabilità;
ne segue c1 = 1 e (6.12). 

Abbiamo così provato che ogni distribuzione di probabilità iniziale P0 ha una


componente non banale lungo V1 , anzi la componenete di P0 lungo V1 coin-
cide con V1 se tale autovettore è stato selezionato (cosa sempre possibile)
come una distribuzione di probabilità (si confronti la conclusione con il Teo-
rema 5.19 valida nel caso di s.d.d. vettoriali la cui dinamica non è confinata
al simplesso S delle distribuzioni di probabilità).
Osservazione 6.10. L’informazione c1 = 1 nella tesi del Teorema 6.9 può
apparire sorprendente ad una prima lettura. In realtà diventa assai naturale
se si considera che, per ogni matrice stocastica M la distribuzione di proba-
bilità uniforme [1/n 1/n · · · 1/n]T è autovettore relativo all’autovalore 1 per
la sua trasposta MT , e nel caso in esame tale autovalore è semplice per MT
perché semplice per M; dunque, osservato che ogni distribuzione di probabi-
lità iniziale P0 verifica P0 > 0, si può ripetere l’argomento nella prova del
Teorema 5.19 (senza usare il Teorema di Perron-Frobenius che serviva solo per
la semplicità dell’autovalore di massimo modulo che qui vale 1 ed è semplice
per ipotesi) ottenendo che tutti gli autovettori generalizzati (diversi da V1 )
Vj j ≥ 2 sono ortogonali a [1/n 1/n · · · 1/n]T che a sua volta è ortogonale al
simplesso di tutte le distribuzioni di probabilità.
La situazione illustrata nel Teorema 6.9 (autovalore dominante semplice ugua-
le ad 1 associato ad un autovettore positivo) è particolarmente semplice e ben
descritta. È utile saperla identificare in generale.
Definizione 6.11. Una catena di Markov regolare è una catena di Mar-
kov con matrice di transizione M per cui esiste un valore di k tale che la
matrice Mk è strettamente positiva (Definizione 5.11).
In tale caso anche la matrice M si dice regolare.
Dunque, una catena di Markov è regolare se esiste un k intero positivo tale che
la probabilità di transizione in k passi fra due suoi stati qualsiasi è positiva.
Esempio 6.12. La matrice stocastica
( )
0 1/2
M=
1 1/2

è regolare dato che


( )( ) ( )
0 1/2 0 1/2 1/2 1/4
M2 = = .
1 1/2 1 1/2 1/2 3/4

La matrice stocastica ( )
1 1/2
M=
0 1/2
246 6 Catene di Markov

non è regolare; infatti


( )( ) ( )
1 1/2
2 1 1/2 1 3/4
M = =
0 1/2 0 1/2 0 1/4

e, supponendo che sia ( )


1 pk−1
M k−1
=
0 1 − pk−1
si ottiene
( )( ) ( )
1 1/2 1 pk−1 1 (pk−1 + 1)/2
M = M·M
k k−1
= = . 
0 1/2 0 1 − pk−1 0 (1 − pk−1 )/2

Per riconoscere se una matrice stocastica è regolare risulta utile il seguente


teorema.

Teorema 6.13. Se una catena di Markov è regolare, allora la sua matrice di


transizione M ha esattamente un solo autovalore uguale ad 1 e tutti gli al-
tri sono strettamente minori di 1 in modulo. A tale autovalore dominante è
associato un autovettore strettamente positivo.

Prova. Sappiamo (vedi Lemma 6.4) che 1 è un autovalore di M e che non vi sono
autovalori di modulo maggiore di 1. Per il Teorema di Perron-Frobenius (Teoremi
5.12 e 5.13) se la catena è regolare, allora M ha un autovalore dominante positivo e
semplice che necessariamente è l’autovalore 1. Il corrispondente autovettore è stret-
tamente positivo per lo stesso teorema, dunque se ne può determinare un multiplo
strettamente positivo la cui somma delle componenti sia esattamente 1 (cioè sia una
distribuzione di probabilità). 
I Teoremi 6.9 e 6.13 mostrano che i s.d.d. associati a catene di Markov regola-
ri hanno notevoli proprietà qualitative e quantitative: il quadro generale sarà
sintetizzato nel Teorema 6.39.

Esempio 6.14. La matrice stocastica


⎡ ⎤
1 0 1/3
M = ⎣ 0 1 1/3 ⎦
0 0 1/3

non è regolare, avendo autovalori λ1 = λ2 = 1 e λ3 = 1/3. 

Definizione 6.15. Uno stato assorbente per una catena di Markov ad n


stati, è uno stato sj tale che mjj = 1.

Esplicitamente, uno stato sj è assorbente se il suo verificarsi al tempo k implica


la certezza di riottenere sj al tempo k + 1.
6.1 Esempi, definizioni e notazioni 247

Osservazione 6.16. Se sj è uno stato assorbente, la j-esima colonna della


matrice di transizione M è del tipo
 T
0 ... 0 1 0 ... 0 (6.15)

j-esima posizione

Inoltre, ad sj corrisponde un autovalore di M uguale a 1 che ha (6.15) come


autovettore associato.
Tale autovettore è una distribuzione di probabilità invariante.

Definizione 6.17. Una catena di Markov assorbente è una catena di


Markov che verifica le due condizioni seguenti:
• esiste almeno uno stato assorbente;
• da ogni stato iniziale si può pervenire ad uno stato assorbente, cioè per
ogni j esiste un indice i ed un intero k > 0 tali che si è assorbente e
(k)
mij > 0.

Esempio 6.18. La seguente matrice


⎡ ⎤
0 0 0
M = ⎣1 0 0 ⎦
0 1 1

è associata ad una catena di Markov assorbente. 

Esempio 6.19. Per la catena di Markov con matrice di transizione


⎡ ⎤
1 0 0
M = ⎣ 0 1/2 1/2 ⎦
0 1/2 1/2

il primo stato è assorbente, inoltre non vi sono transizioni dal secondo né dal
terzo al primo: il corrispondente Problema 6.24 è disaccoppiato. Dunque la
catena di Markov non è assorbente. 

Esempio 6.20. La catena di Markov con matrice di transizione


⎡ ⎤
1 0 1/2 1/3
⎢ 0 1 1/2 2/3 ⎥
M=⎢ ⎣0 0 0

0 ⎦
0 0 0 0

è assorbente. 
248 6 Catene di Markov

Esempio 6.21. Consideriamo la catena di Markov assorbente a 5 stati (i


primi due sono assorbenti) con matrice di transizione:
⎡ ⎤
1 0 0, 2 0 0, 1
⎢ 0 1 0, 2 0, 3 0, 2 ⎥
⎢ ⎥
M=⎢ ⎥
⎢ 0 0 0, 2 0, 3 0, 3 ⎥ .
⎣ 0 0 0, 2 0, 4 0, 2 ⎦
0 0 0, 2 0 0, 2

Si noti che ci si può trovare fuori dagli stati 1 e 2 per tempi arbitrariamente
lunghi, ma in ogni evoluzione, ad ogni k, ad ogni stato vi è probabilità positiva
di cadere o nello stato 1 o nello stato 2. 
Esempio 6.22. Consideriamo la catena di Markov a quattro stati, non assor-
bente, con uno stato assorbente (il primo) e con matrice di transizione:
⎡ ⎤
1 0, 2 0 0
⎢ 0 0, 2 0 0 ⎥
M=⎢ ⎥
⎣ 0 0, 3 0, 5 0, 5 ⎦ ;
0 0, 3 0, 5 0, 5

in questo caso, se si transita nel 3◦ o 4◦ stato, il primo diventa inaccessibile. 


Osservazione 6.23. Si noti che la presenza anche di un solo stato assorbente
in una catena di Markov con almeno 2 stati fa sì che la catena non possa
essere regolare: infatti la corrispondente matrice di transizione M non è stret-
tamente positiva (nella colonna corrispondente allo stato assorbente vi sono
degli zeri) e ciascuna sua potenza intera presenterà almeno uno zero (dato che
la suddetta colonna rappresenta un autovettore di M).
Esercizio 6.1. Stabilire quali delle catene di Markov associate alle seguenti matrici
di transizione sono regolari:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1/2 0 1/5 1/2 0 1/5 1/2 0 0
M1 = ⎣ 0 1 2/5 ⎦ ; M2 = ⎣ 0 0 2/5 ⎦ ; M3 = ⎣ 0 1/3 3/5 ⎦ .
1/2 0 2/5 1/2 1 2/5 1/2 2/3 2/5

Esercizio 6.2. Con riferimento alle matrici di transizione dell’esercizio precedente,


stabilire a quali corrispondono catene di Markov assorbenti.

6.2 Analisi asintotica di modelli descritti da catene di


Markov assorbenti
In questo paragrafo descriviamo alcuni strumenti per lo studio qualitativo
delle catene di Markov.
La legge ricorsiva Pk+1 = MPk che definisce una catena di Markov (che è
un s.d.d. vettoriale lineare omogeneo) ci consente di calcolare le probabilità
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti 249

dei vari stati al tempo k + 1 se è nota la probabilità di ciascuno di essi al


tempo k (ricordiamo che ∀k ∈ N, Pk è il vettore distribuzione di probabilità
n dimensionale corrispondente agli n stati del sistema). In tali situazioni è di
grande interesse per le applicazioni risolvere il seguente problema:

Problema 6.24. Assegnato uno stato iniziale5 si o, più in generale, una di-
stribuzione di probabilità iniziale P0 , calcolare o perlomeno stimare la pro-
babilità che l’evoluzione si concluda in un prefissato stato finale sj cioè lo si
raggiunga e vi si rimanga definitivamente (quale che sia la storia con cui si
perviene a tale stato).

Studiamo il Problema 6.24 solo nel caso di catene assorbenti: come sarà chia-
rito dal Teorema 6.26, se la catena è assorbente allora il problema 6.24 è
significativo solo se lo stato finale sj è assorbente, infatti, in tal caso la proba-
bilità di rimanere indefinitamente in uno stato non assorbente sj risulta nulla.
Denoteremo con P la successione di vettori di probabilità: Pk+1 = MPk con
P0 assegnato, dove M ha ordine n.
Per risolvere il problema si potrebbero determinare tutte le possibili evoluzioni
che, partendo da P0 conducono ad sj , calcolarne le corrispondenti probabilità
ed infine sommarle. Questa tecnica si rivela in pratica proibitiva.
Tuttavia, nei casi in cui assegnato P0 sia possibile mostrare che esiste

P∞ = lim Pk
k

e si sa calcolare P∞ , il problema posto è risolto dal valore della componente


j-esima di tale P∞ .

Esempio 6.25. Se ( )
1/2 1/2
M=
1/2 1/2
allora non vi sono stati assorbenti. Vi è però una distribuzione di probabilità
invariante (vedi Definizione 6.6)) che è strettamente positiva:
 T
P = 1/2 1/2 .

Poiché Mk = M per ogni k ≥ 1, la dinamica associata è banale: Pk = Mk P0 =


P per ogni k ≥ 1. Osserviamo che, qualunque sia la distribuzione iniziale,
l’evento permanenza definitiva in un fissato stato ha probabilità nulla. 
Premettiamo che, se M è la matrice di transizione di una catena di Markov
assorbente, allora non è restrittivo supporre che gli stati assorbenti siano i pri-
mi m (1 ≤ m < n), eventualmente riordinando gli stati (cioè con un cambio
5
Prescrivere lo stato iniziale si , i ∈ {1, 2, . . . , n}, coincide con l’assegnazione
# $T
della distribuzione di probabilità iniziale P0 = 0 . . . 0 1 0 . . . 0 dove l’unica
componente non banale è quella di posizione i-esima.
250 6 Catene di Markov

di coordinate in Rm di tipo permutazione della base, si vedano gli Esercizi 6.6


e 6.7).
Il vettore Pk delle probabilità può essere decomposto in due vettori Pk e Qk ,
dove Pk corrisponde alle prime m componenti di Pk (probabilità degli stati
assorbenti), Qk corrisponde alle ultime h componenti di Pk (probabilità degli
stati non assorbenti). Dunque, posto h = n − m ≥ 1, abbiamo
( ) ( )
Im B Pk
M= Pk = (6.16)
Oh,m A Qk

dove Im è la matrice identità di ordine m, Oh,m è la matrice di ordine h × m


con tutti gli elementi nulli; infine A (quadrata di ordine h) può essere la ma-
trice nulla Oh , mentre B (di ordine m × h) non può essere nulla perchè la
catena è assorbente.

Teorema 6.26. Sia M la matrice stocastica n × n di una catena di Markov


assorbente con m stati assorbenti decomposta come in (6.16).
Se si parte da uno stato non assorbente, o più in generale da una distribuzio-
 T
ne di probabilità P0 = P0 Q0 , allora esiste la distribuzione di probabilità
 T
P∞ := P∞ Q∞ dove

P∞ = lim Pk Q∞ = lim Qk = 0
k k

precisamente, posto h = n − m il numero di stati non assorbenti, si ottiene

  −1  T
Pk = P0 + B Ih − Ak (Ih − A) Q0 P k = P k Ak Q 0

−1  T
P∞ = P0 + B (Ih − A) Q0 P∞ = P ∞ 0

 T
In particolare, a partire da P0 Q0 :
• la probabilità di rimanere definitivamente in uno stato non assorbente è
nulla;
• la probabilità di rimanere definitivamente in uno stato assorbente sj è pari
alla componente j-esima di P∞ ;
• se A = O, la dinamica è banale: Pk = P0 + BQ0 k ≥ 1, Qk = 0 k ≥ 1.
Prima di procedere con la dimostrazione del teorema è opportuno introdurre
una definizione ed un lemma.
Definizione 6.27. Una matrice quadrata A si dice substocastica se:
• A ≥ O;
• la somma degli elementi di ogni colonna di A è ≤ 1;
• almeno una delle precedenti somme è < 1.
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti 251

Lemma 6.28. Se A è la sottomatrice di una matrice stocastica assorbente M


che agisce su tutti gli stati non assorbenti, allora A è substocastica e tutti gli
autovalori di A hanno modulo strettamente minore di 1.

Prova. Grazie alle stime (5.16) e (5.17) dell’autovalore dominante (la cui esistenza
è garantita Teorema di Perron-Frobenius, 3a formulazione) con il max delle som-
me sulle colonne, l’autovalore dominante λA verifica 0 ≤ λA ≤ 1. Se per assurdo
fosse λA = 1, a λA corrisponderebbe la distribuzione di probabilità invariante P
per A (autovettore normalizzato di A) e la distribuzione di probabilità invariante
 = [ 0 P ]T per M:
P
# $T # $T
 =
MP Im 0 AP = 0 AP 
= P

 =P
Mk P  ∀k.

 contraddice il fatto che ciascuno degli h stati non assorbenti


Ma l’esistenza di P
deve comunicare con almeno uno degli m stati assorbenti, cioè con l’esistenza di k0
t.c. almeno una delle prime m componenti di Mk P  sia strettamente positiva.

Si noti che una matrice substocastica può avere autovalori di modulo 1:


( )
1 1/2
.
0 1/3

Prova del Teorema 6.26. La catena di Markov è descritta dalla relazione


0 1 0 10 1
Pk+1 Im B Pk
= .
Qk+1 O A Qk

Si noti che è corretto operare algebricamente come se Pk+1 , Qk+1 , Im , B, A fossero


numeri perché si tratta di vettori e matrici le cui dimensioni soddisfano le relazioni
richieste per l’effettuazione delle somme e dei prodotti righe per colonne.
In particolare, il sistema dinamico associato alla catena di Markov si può disaccop-
piare in due sistemi dinamici discreti

Pk+1 = Pk + BQk
Qk+1 = AQk

Dal secondo si ottiene

Qk = Ak Q0 ∀k ∈ N. (6.17)

Poiché i primi m sono tutti gli stati assorbenti della catena di Markov, le colonne di
B non possono essere tutte contemporaneamente nulle, dunque la matrice A è sub-
stocastica. Per il Lemma 6.28, tutti gli autovalori di A hanno modulo strettamente
252 6 Catene di Markov

minore di 1. Allora limk Ak = O e da (6.17) segue6

lim Qk = 0.
k

Sostituendo (6.17) nel primo sistema dinamico discreto, otteniamo

Pk+1 = Pk + BAk Q0

la cui soluzione è (verificarlo per induzione)


k−1 
j  
Pk = P0 + B A Q0 = P0 + B Ih − Ak (Ih − A)−1 Q0 .
j=0

Il fatto che Ih − A sia sempre invertibile segue dal fatto che tutti gli autovalori di A
hanno modulo strettamente minore di 1.
Passando al limite per k → +∞, si ottiene

P∞ = P0 + B (Ih − A)−1 Q0 . 

Il Teorema provato fornisce una descrizione completa delle dinamiche associa-


te ad una catena di Markov assorbente: se si parte da uno stato assorbente
sj cioè P0j = 1, allora vi si rimane indefinitamente cioè la dinamica è banale;
se invece non si parte da uno stato assorbente cioè P0 = 0, allora la dina-
mica è molto più ricca e interessante per le applicazioni e, per ogni scelta
P0 = [ 0 Q0 ]T , l’insieme delle distribuzioni di probabilità invarianti attrae le
corrispondenti traiettorie.

6.3 Passeggiate casuali, duelli e partite di tennis

Applichiamo i risultati del paragrafo precedente ad alcuni esempi.

Esempio 6.29. Consideriamo un ubriaco che esce da un bar: alla sua sinistra
si trova un lago, alla sua destra la propria casa; supponiamo che l’ubriaco
non stia mai fermo e che la probabilità che faccia un passo verso casa sia 0, 5
mentre la probabilità che faccia un passo nella direzione opposta, verso il lago,
sia 0, 5. Egli continua a camminare in modo casuale fino a quando o arriva a
casa o finisce nel lago!
Al solo scopo di ridurre la dimensione del problema, senza alterarne la sostan-
za, abbiamo ridotto le distanze in questione: la casa dista un passo dal bar, il
lago due.
Allora vi sono quattro stati, a, b, c, e d; il vettore che descrive le probabilità
 T
di ciascuno stato al tempo k è Wk = ak bk ck dk , mentre la matrice di

6
Si noti che passare al limite nella prima equazione, tenendo conto di questo
risultato (limk Qk = 0), anche supponendo che ∃ limk Pk , conduce all’identità
lim Pk+1 = lim Pk che non dà alcuna informazione.
k k
6.3 Passeggiate casuali, duelli e partite di tennis 253

Fig. 6.4. Passeggiata a caso dell’ubriaco

transizione e la catena di Markov sono rispettivamente


⎡ ⎤
1 0, 5 0 0
⎢0 0 0, 5 0 ⎥

T=⎢ Wk+1 = TWk .
⎣0 0, 5 0 0 ⎦
0 0 0, 5 1

Si noti l’analogia con il gioco “testa o croce” con moneta equa qualora uno dei
giocatori inizi con una somma pari alla posta e l’altro con una somma dop-
pia. Utilizziamo un ragionamento (diverso da quello utilizzato per i lanci della
moneta) che si presta a generalizzazioni. È utile separare gli stati assorbenti
dagli altri anteponendo il quarto stato a secondo e terzo:

A1 = a , A2 = d , B1 = b , B2 = c.

Nelle nuove coordinate abbiamo


⎡ ⎤
1 0 0, 5 0
⎢ 0 1 0 0, 5 ⎥
M=⎢ ⎥ Pk+1 = MPk (6.18)
⎣ 0 0 0 0, 5 ⎦
0 0 0, 5 0

e, al tempo k,

Pk1 = prob. di A1 , Pk2 = prob. di A2 , Pk3 = prob. di B1 , Pk4 = prob. di B2 .

La seconda equazione
2
Pk+1 = Pk2 + 0, 5Pk4
dice che la probabilità di arrivare a casa dopo k + 1 passi è data dalla somma
della probabilità di essere a casa dopo k passi e di 0, 5 volte la probabilità di
essere in b = B1 dopo k passi. Posto
⎡ ⎤
1 0 0, 5 0
( )
I2 B ⎢0 1 0 0, 5 ⎥
M= = ⎢
⎣0 0 0
⎥ (6.19)
O A 0, 5 ⎦
0 0 0, 5 0
254 6 Catene di Markov

e
( ) ( )
P1 P3  T  T
P= Q= P = P Q = P1 P2 P3 P4
P2 P4

riscriviamo a blocchi il s.d.d. di partenza


( ) ( )( )
Pk+1 I2 B Pk
= .
Qk+1 OA Qk

In tali casi, cioè se P0 = 0, le probabilità di finire in uno stato assorbente


sono, con riferimento alla notazione (6.19):
−1
lim Pk = B (I2 − A) Q0
k
( ) ( )
0, 5 0 1 −0, 5
B= I2 − A = .
0 0, 5 −0, 5 1
Inoltre, si ricava: ( )
4/3 2/3
(I2 − A)−1 = .
2/3 4/3
Allora, se siamo sicuri che la passeggiata inizia dal bar ... abbiamo
 T  T
P0 = 0 0 Q0 = 0 1
( )T
−1 1 2
B (I2 − A) Q0 =
3 3
In conclusione, partendo dal bar, la probabilità di arrivare a casa è 2/3 mentre
quella di essere “assorbito” dal lago è 1/3. 

Esempio 6.30. Immaginiamo una sequenza da film western in cui si svolga un


duello simultaneo tra tre pistoleros A, B, C. Supponiamo che A, buon tiratore,
abbia una percentuale di bersagli colpiti del 70%, B meno preciso abbia una
percentuale del 50% mentre C decisamente scarso ha una percentuale del 30%.
Il duello si svolge a turni successivi: in ciascun turno, ciascuno spara ad uno
degli altri due scelto in modo tale da massimizzare le proprie chance di vittoria.
Come migliore strategia ciascuno cerca di colpire il migliore dei due avversari
rimanenti. Pertanto al primo turno A cerca di colpire B, mentre B e C cer-
cano di colpire A. Se più di uno sopravvive si passa ad un turno successivo.
Ci si chiede quale dei tre ha le maggiori possibilità di sopravvivere, e più in
generale, quali sono le probabilità delle varie conclusioni possibili (con uno o
nessun vincitore).
Il problema presenta analogie interessanti con lo studio dei turni elettorali
con più di due candidati (o partiti) ed analizzarlo matematicamente conduce
a delle conclusioni sorprendenti.
6.3 Passeggiate casuali, duelli e partite di tennis 255

Conviene studiare il caso generale, indicando con a, b e c le probabilità di


colpire il bersaglio scelto rispettivamente da parte di A, B e C, con i vincoli

0<c<b<a<1.

Ogni stato è un insieme di possibili superstiti dopo un turno del duello. Gli
stati assorbenti sono:
E1 nessuno sopravvive
E2 sopravvive solo A
E3 sopravvive solo B
E4 sopravvive solo C
Gli stati non assorbenti sono: s1 solo A e C sopravvivono, s2 solo B e C
sopravvivono, s3 tutti vivi. Non si può verificare il caso in cui solo A e B
sopravvivono (se non come stato iniziale), poiché se sono tutti vivi, nessuno
cerca di colpire C.
Siano Pk1 , Pk2 , Pk3 e Pk4 le probabilità di E1 , E2 , E3 e E4 dopo k turni, e Qk1 ,
Qk2 e Qk3 le probabilità di s1 , s2 e s3 .
1
Calcoliamo Pk+1 . Vi sono tre casi da considerare che corrispondono alla non
sopravvivenza di alcuno dopo il turno k + 1: nessun sopravvissuto dopo il
turno k, con probabilità Pk1 ; solo A e C dopo il turno k che si eliminano reci-
procamente al turno k + 1, con probabilità Qk1 · a · c; solo B e C dopo il turno
k che si eliminano reciprocamente al turno k + 1, con probabilità Qk2 · b · c.
Sommando le probabilità relative ai tre casi:
1
Pk+1 = Pk1 + Qk1 · a · c + Qk2 · b · c.
2
Per ottenere Pk+1 consideriamo due casi: solo A sopravvive dopo k turni; solo
A e C sopravvivono dopo k turni ed al (k + 1)-esimo turno A colpisce C e C
manca A:
2
Pk+1 = Pk2 + a (1 − c) Qk1 .

Analogamente si ottiene:
3
Pk+1 = Pk3 + b (1 − c) Qk2
4
Pk+1 = Pk4 + c (1 − a) Qk1 + c (1 − b) Qk2 + a (b + (1 − b) c) Qk3
1
Qk+1 = (1 − a) (1 − c) Qk1 + a (1 − b) (1 − c) Qk3
2
Qk+1 = (1 − b) (1 − c) Qk2 + (1 − a) (b + (1 − b) c) Qk3
3
Qk+1 = (1 − a) (1 − b) (1 − c) Qk3

Per effettuare i calcoli occorre porre attenzione a valutare la probabilità che


B o C o entrambi colpiscano A. Questo avviene in due modi: nel primo B
colpisce A (e dunque non interessa cosa fa C), nel secondo B sbaglia e C
colpisce. Dunque la probabilità è b + (1 − b) c.
256 6 Catene di Markov

(1−a)(1−b)(1−c)

ABC

a(1−b)(1−c)
(1− a)(b+ (1− b)c)

a(b + (1− b)c)

AC (1− a)(1− c) BC
(1− a)(1− c)
ac c(1− b)
bc
a(1− c) c(1− a) b(1− c)

1 A 1 C 1 B 1 O

Fig. 6.5. Probabilità di transizione nel duello a tre

Si noti che è molto utile (in questo esempio, ma soprattutto in situazioni più
complicate con molti stati) utilizzare un diagramma per stabilire quali sono
tutti i percorsi possibili che conducono ad un certo stato finale (vedi Fig. 6.5).
In pratica, prima si disegna il diagramma dei soli percorsi possibili, poi si
calcolano le probabilità di ciascuna transizione (matrice M di Fig. 6.6).
Dal Teorema 6.26 sappiamo che det (I3 − A) = 0. Peraltro la verifica diretta
di tale proprietà è immediata perché A è triangolare superiore e dunque sono

⎡ ⎤
ac bc 0
⎢ a (1 − c) 0 0 ⎥
⎢ ⎥
! ⎢ I
" 0 b (1 − c) 0 ⎥
I4 B ⎢ 4 ⎥
⎢ c (1 − a) c (1 − b) a (b + (1 − b) c) ⎥
M= =⎢ ⎥
O4,3 A ⎢ ⎥
⎢ (1 − a) (1 − c) a (1 − b) (1 − c) ⎥
⎢ 0 ⎥
⎣ 0 (1 − b) (1 − c) (1 − a) (b + (1 − b) c) ⎦
O4,3
0 0 (1 − a) (1 − b) (1 − c)

Fig. 6.6. Matrice di transizione del duello a tre


6.3 Passeggiate casuali, duelli e partite di tennis 257
−1
tali anche I3 − A e (I3 − A) :

det(I3 − A) = [1 − (1 − a) (1 − c)] [1 − (1 − b) (1 − c)] [1 − (1 − a) (1 − b) (1 − c)]

e ogni parentesi tonda contiene una quantità compresa fra 0 e 1 per l’ipotesi
a, b, c ∈ (0, 1); così i prodotti contenuti in ogni parentesi quadrata forniscono
ancora numeri compresi fra 0 e 1 e tale è la quantità in ciascuna parentesi
quadrata.
Se, ritornando all’esempio, consideriamo i dati

a = 0, 7 b = 0, 5 c = 0, 3

otteniamo (è consigliabile effettuare i conti mediante programmi di calcolo


numerico) ⎡ ⎤
0, 79 0 −0, 245
I3 − A = ⎣ 0 0, 65 −0, 195 ⎦
0 0 0, 895
⎡ ⎤
1, 2658 0 0, 34651
−1
(I3 − A) = ⎣ 0 1, 5385 0, 3352 ⎦ .
0 0 0, 1173
Utilizzando la formula del Teorema 6.26, a partire dalla situazione iniziale s3 ,
 T
cioè tutti vivi e Q0 = 0 0 1 , si ottiene
⎡ ⎤ ⎡ ⎤
0, 26582 0, 23078 0, 12305 ⎡ ⎤ 0, 12305
0
⎢ 0, 62024 0 0, 16979 ⎥ ⎢ ⎥
⎥ ⎣ 0 ⎦ = ⎢ 0, 16979 ⎥ .
P∞ = B (I3 − A) Q0 = ⎢
−1
⎣ 0 0, 53848 0, 11732 ⎦ ⎣ 0, 11732 ⎦
1
0, 11392 0, 23078 0, 58984 0, 58984

Riassumiamo ed interpretiamo i risultati approssimando alla terza cifra de-


cimale.
La probabilità che nessuno sopravviva è 0, 123 , la probabilità che A vinca è
0, 170, la probabilità che B vinca è 0, 117 e la probabilità che C vinca è 0, 589.
Il risultato è meno sorprendente di quanto non possa apparire a prima vista:
basta riflettere sul fatto che dopo il primo turno A è vivo solo nel 35% dei
casi e B nel 50% dei casi, mentre C è sicuramente vivo, anzi C vince al primo
turno in 45, 5 casi su 100.
Se B non si presenta al duello le cose vanno diversamente: si parte da s1 e si
ottiene (M è la stessa, basta cambiare Q0 scegliendo Q0 = [ 1 0 0 ]T )
⎡ ⎤ ⎡ ⎤
0, 26582 0, 23078 0, 12305 ⎡ ⎤ 0, 26582
1 ⎥
⎢ 0, 62024 0 0, 16979 ⎥ ⎢
⎥ ⎣ 0 ⎦ = ⎢ 0, 62024 ⎥ .
B (I3 − A) Q0 = ⎢
−1
⎣ 0 0, 53848 0, 11732 ⎦ ⎣ 0 ⎦
0
0, 11392 0, 23078 0, 58984 0, 11392

In questo caso l’eventualità che nessuno sopravviva ha probabilità 0, 266, A


258 6 Catene di Markov

vince con probabilità 0, 620, B non vince perché non partecipa7 e C vince con
probabilità 0, 114. Chiaramente C si augura che B partecipi al duello.
Anche nelle competizioni elettorali con turni di ballottaggio successivi si pos-
sono creare paradossi in cui candidati deboli si avvantaggiano su candidati
più forti per la presenza di candidati di disturbo.8 

Esempio 6.31. Consideriamo una partita di tennis fra due giocatori A e B:


vince la partita il giocatore che per primo si aggiudica 2 set su tre a disposi-
zione. Ciascun set è suddiviso in più giochi e per vincere un set uno dei due
giocatori deve vincere 6 giochi se nel frattempo l’avversario non ne ha vinti
più di 4 (se ciò non accade, al 5 pari, solitamente si passa al cosiddetto tye
break).
In ogni gioco (game) la sequenza di punteggi che un giocatore può ottenere pri-
ma della vittoria è 15, 30, 40. Dunque, i primi possibili risultati parziali di un
game possono essere i seguenti (ordinati secondo l’ordinamento lessicografico):

0 − 15 0 − 30 0 − 40 15 − 0 15 − 15 15 − 30 15 − 40

30 − 0 30 − 15 30 − 30 30 − 40 40 − 0 40 − 15 40 − 30

Inoltre, se a partire da un punteggio di 40 − 30 oppure 30 − 40 il giocatore


in svantaggio vince il punto, il punteggio diventa di “parità”: da questa situa-
zione si passa a quella di “vantaggio” per uno dei due giocatori dopodiché o
si torna in parità oppure il game termina con la vittoria del giocatore che era
in vantaggio.
Un modo di tenere conto del diverso livello dei due giocatori è quello di attri-
buire due valori pA e pB = 1 − pA rispettivamente alla probabilità di vittoria
di un punto in un game da parte di A e di B. Un game è quindi un sistema
i cui stati sono i possibili risultati parziali oltre alla situazione di parità e di
vittoria di uno dei due giocatori.
La transizione da uno stato ad un altro dipende (oltre che dalla quantità
pA) solo dallo stato di partenza ma non dagli stati precedenti. I possibili
svolgimenti di una partita sono dunque descritti da una catena di Markov.
Ci limitiamo a rappresentare mediante un grafo le possibili transizioni in una
partita (vedi Fig. 6.7).
Come la nozione di stato assorbente, anche le definizioni di stato transiente
e stato ricorrente che introdurremo nel capitolo seguente (Definizione 7.47)
sono assai utili nell’analisi dei possibili esiti di una partita. 

7
E non perde...
8
Queste situazioni possono essere favorite o scoraggiate a seconda delle normative
e protocolli di voto.
6.4 Ancora sull’analisi asintotica 259

Fig. 6.7. Grafo dei possibili svolgimenti di un game con le probabilità di transizione
fra i vari stati. Parità indica sia la situazione “40 pari” sia situazioni di parità
successive

6.4 Ancora sull’analisi asintotica

Con riferimento alla Definizione 6.6, affrontiamo nell’ordine il problema del-


l’esistenza, unicità e stabilità della distribuzione di probabilità invariante.
Osservazione 6.32. L’esistenza di una distribuzione di probabilità invarian-
te per una generica catena di Markov finita omogenea è una conseguenza
immediata del Teorema 5.14 e della Osservazione 6.8, perchè ogni autovettore
≥ 0 deve essere anche > 0 .
Presentiamo anche un enunciato in tal senso basato su una dimostrazione
costruttiva che non fa riferimento alla teoria delle matrici positive.
Teorema 6.33. (di Markov-Kakutani) Una matrice di transizione su un
insieme finito di stati Ω ha sempre almeno una distribuzione di probabilità
invariante.

Prova. L’esistenza di una probabilità invariante per M coincide con l’esistenza di


punto fisso della funzione continua M : S → S .
Fissato V ∈ S, definiamo per ogni k ∈ N\ {0}

1 h
k−1
Vk = M V.
k
h=0

Allora Vk ∈ S, ∀k, grazie al Lemma 6.5.


260 6 Catene di Markov

Per il teorema di Bolzano-Weierstrass esiste una sottosuccessione Vkl ed esiste W ∈


S tali che
lim Vkl = W.
l

Ma W è una distribuzione di probabilità invariante perché, cancellando i termini


uguali nelle due sommatorie,
k −1 kl −1

1 h h+1
l

Vkl − MVkl = M V− M V =
kl
h=0 h=0
1  kl

= V−M V
kl

2 per l → +∞in ambo i membri,


passando poi2al limite  tenendo conto che kl → +∞,
VRn ≤ 1 e 2Mkl V2Rn ≤ 1, segue V − Mkl V /kl → 0, dunque W−MW = 0. 

Osservazione 6.34. Una ulteriore prova più diretta, ma meno elementare,


del Teorema di Markov-Kakutani è la seguente. Poiché S è un chiuso, limita-
to e convesso di Rn ed M : S → S è continua, l’esistenza del punto fisso segue
dal Teorema di Brower.
Osservazione 6.35. I discorsi precedenti assicurano in ogni caso, anche se
né M né alcuna sua potenza sono strettamente positive, l’esistenza (ma non
l’unicità) di una distribuzione di probabilità invariante (positiva ma non ne-
cessariamente strettamente positiva).
Per quanto riguarda l’unicità, in generale è facile costruire esempi con più
di una probabilità invariante: si pensi al caso di catene con più di uno stato
assorbente.
Inoltre, se P, Q sono probabilità invarianti, allora tP + (1 − t) Q è una pro-
babilità invariante ∀t ∈ [0, 1], dunque le probabilità invarianti di M formano
un convesso chiuso contenuto nell’n-simplesso (se vi sono n stati). Pertan-
to, qualora venga meno l’unicità, le distribuzioni di probabilità invarianti so-
no infinite, dunque il s.d.d. associato alla catena di Markov presenta infiniti
equilibri.
Grazie al Teorema 6.26 l’insieme di tutte le distribuzioni di probabilità in-
varianti di una catena di Markov assorbente è un attrattore nel senso della
Definizione 3.42 (si noti che essa si adatta senza alcuna modifica al caso di
s.d.d. vettoriali).
Per una catena di Markov non assorbente, l’insieme delle probabilità invarianti
non è necessariamente attrattivo: si considerino i due esempi seguenti.
La matrice stocastica ⎡ ⎤
1 0 0
⎣ 0 0 1⎦ (6.20)
0 1 0
ha 2 (e dunque infinite) distribuzioni di probabilità invarianti (P  =
[ 1 0 0 ] , P = [ 0 1/2 1/2 ] ): a partire dalla probabilità iniziale P0 =
T T

[ 1/2 1/2 0 ]T , (6.20) genera la dinamica periodica Pk verificante P2h =


6.4 Ancora sull’analisi asintotica 261

[ 1/2 1/2 0 ]T , P2h+1 = [ 1/2 0 1/2]T ; in tal caso non esiste il limite della
seconda e terza colonna delle potenze k-esime di (6.20) per k → +∞.
Invece le matrici regolari ammettono sempre un’unica distribuzione di proba-
bilità invariante, perché hanno un autovalore dominante semplice.
Concludiamo con alcuni risultati riepilogativi che legano il comportamento
asintotico e le distribuzioni di probabilità invarianti.

Teorema 6.36. Data una catena di Markov con n stati e matrice di tran-
sizione M = [mij ], se esiste il limite di una colonna di Mk per k → +∞,
cioè
(k)
∃j ∈ {1, 2, . . . , n} : ∀i ∈ {1, 2, . . . , n} ∃ lim mij = Pi (6.21)
k

 T
allora il vettore P = P1 P2 · · · Pn è una distribuzione di probabilità
invariante.

Prova. La (6.21) implica: Pj ≥ 0 j = 1, . . . , n ,


n
n
(k)

n
(k)
Pi = lim mij = lim mij = 1 (6.22)
k k
i=1 i=1 i=1