Sei sulla pagina 1di 407

Ernesto Salinelli

Franco Tomarelli

Modelli Dinamici Discreti

UNITEXT
3a edizione

ABC
UNITEXT – La Matematica per il 3+2

Volume 71

http://www.springer.com/series/5418
Ernesto Salinelli · Franco Tomarelli

Modelli Dinamici Discreti


3a edizione
Ernesto Salinelli Franco Tomarelli
Università del Piemonte Orientale Politecnico di Milano
Dipartimento di Studi per l’Economia e l’Impresa Dipartimento di Matematica
Novara Milano

UNITEXT – La Matematica per il 3+2


ISSN versione cartacea: 2038-5722 ISSN versione elettronica: 2038-5757

ISBN 978-88-470-5503-2 ISBN 978-88-470-5504-9 (eBook)


DOI 10.1007/978-88-470-5504-9
Springer Milan Heidelberg New York Dordrecht London
© Springer-Verlag Italia 2014
Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione è ammessa solo ed esclu-
sivamente nei limiti stabiliti dalla stessa. Le fotocopie per uso personale possono essere effettuate nei
limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art. 68. Le
riproduzioni per uso non personale e/o oltre il limite del 15% potranno avvenire solo a seguito di
specifica autorizzazione rilasciata da AIDRO, Corso di Porta Romana n. 108, Milano 20122, e-mail
segreteria@aidro.org e sito web www.aidro.org.
Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e
tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm
o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riser-
vati anche nel caso di utilizzo parziale. La violazione delle norme comporta le sanzioni previste dalla
legge.
L’utilizzo in questa pubblicazione di denominazioni generiche, nomi commerciali, marchi registrati,
ecc. anche se non specificatamente identificati, non implica che tali denominazioni o marchi non
siano protetti dalle relative leggi e regolamenti.
9 8 7 6 5 4 3 2 1

In copertina: “Tempo di fioritura”, Gianni Dova, 1964.


Il Castello Arte Moderna e Contemporanea, Milano.

Layout di copertina: Beatrice B., Milano

Impaginazione: PTP-Berlin, Protago TEX-Production GmbH, Germany (www.ptp-berlin.eu)


Stampa: Grafiche Porpora, Segrate (MI)

Springer-Verlag Italia S.r.l., Via Decembrio 28, I-20137 Milano


Springer fa parte di Springer Science+Business Media (www.springer.com)
Prefazione

L’uso dei modelli matematici ha assunto un ruolo di primaria importanza in


moltissimi campi: dalla meteorologia alla descrizione sintetica di reazioni negli
impianti chimici, dalla elaborazione di dati relativi a sistemi finanziari, allo
studio di popolazione biologiche. Questi sono solo alcuni casi in cui anche il co-
mune cittadino (e non solo l’esperto del settore) viene suo malgrado coinvolto
nel dibattito, se non addirittura nella scelta, tra impostazioni alternative, allo
scopo di mantenere l’evoluzione dei fenomeni descritti da tali modelli entro
limiti ritenuti accettabili. È dunque auspicabile che almeno elementari cono-
scenze delle proprietà dei modelli matematici diventino un patrimonio il più
possibile diffuso tra gli abitanti del “villaggio globale”.
Quando la modellazione matematica si riferisce a fenomeni dipendenti dal
tempo, la terminologia moderna precisa la nozione di modello matematico
definendo la nozione di sistema dinamico.
Il termine discreto, che compare nel titolo, indica la natura dei modelli che
prenderemo in esame: a partire da un numero finito di istanti in cui si hanno
informazioni sul fenomeno in esame, tali modelli ne descrivono l’evoluzione fu-
tura mediante i valori assunti in un insieme discreto di tempi successivi, detti
passi temporali (ad esempio, i multipli interi positivi di una fissata unità di
tempo), ma non la descrizione per tutti i valori del tempo considerato come
una grandezza continua o, più precisamente, analogica.
Assai spesso nelle applicazioni anche le grandezze osservate risultano es-
sere discrete (si usa dire “quantizzate”) per le caratteristiche degli strumenti
di misura e per le manipolazioni di tipo elettrico o elettronico che, nell’at-
tuale fase dello sviluppo tecnologico, inevitabilmente sono effettuate su tali
grandezze. Tuttavia, in molti casi pratici la quantizzazione ha un ordine di
grandezza così ridotto da poter essere trascurata; per questo motivo suppor-
remo spesso che le grandezze in esame possano assumere una gamma continua
di valori.
Negli anni recenti si è rivolta particolare attenzione allo studio dei siste-
mi dinamici non lineari, ed in questo campo si sono sviluppate nuove
vi Prefazione

idee ed utili paradigmi interpretativi che hanno contribuito ad una maggiore


comprensione di numerosi problemi sia teorici che di rilevante interesse appli-
cativo. Per comprendere cosa si intende con il termine non lineare, è utile
ricordare cosa si intende in matematica con il termine problema lineare:
un problema si dice lineare se vi è una proporzionalità tra i dati in ingresso
(input) e gli effetti risultanti (output), e alla somma di più cause corrisponde
la somma dei rispettivi effetti.
In generale si sanno risolvere in modo soddisfacente i problemi lineari, o
perlomeno si sanno approssimare bene numericamente, ma i problemi fisici,
chimici, biologici, economici, demografici e dell’ingegneria, sono più corretta-
mente descritti da modelli non lineari.
Purtroppo si sa dire molto meno sulle soluzioni dei problemi non lineari,
e tali soluzioni sono spesso caratterizzate da un comportamento complesso,
instabilità e dipendenza sensibile dai dati iniziali, al punto che in taluni casi
viene descritto come caos.
Con questa suggestiva, ma in parte fuorviante, espressione si intende la
possibilità di avere evoluzioni estremamente complicate, anche a partire da
semplici modelli deterministici non lineari: questo produce l’apparente para-
dosso per cui, in tali casi, la estrema sensibilità nella dipendenza dai dati
iniziali (sempre affetti da errori sperimentali) rende assai debole la speran-
za di effettuare previsioni dettagliate di lungo periodo. Tale situazione è ben
illustrata dall’esempio della meteorologia, ferma restando la possibilità oggi
realizzata di affidabili previsioni nel breve periodo.
Queste considerazioni non mettono in discussione l’efficacia di tali metodi-
che ma sono un invito a ricordarne i limiti, al fine di non estrapolare a lungo
termine gli effetti dedotti dall’analisi dei modelli non lineari, ed a tenere conto
delle instabilità ad essi intrinsecamente associata.

Questo volume nasce da una precisa esigenza didattica: intende fornire una
presentazione elementare ed autocontenuta della modellistica matematica di-
screta con una introduzione all’analisi dei sistemi dinamici discreti.
Si illustrano alcuni metodi qualitativi della modellazione matematica, di-
scutendo cosa si intende per soluzione di tali modelli mediante semplici esem-
pi (Capitolo 1); sono presentate alcune tecniche di soluzione di equazioni alle
differenze lineari (Capitolo 2) e sono studiate le proprietà qualitative delle
soluzioni e la loro struttura nel caso di modelli non lineari, con particolare
riferimento alle proprietà di stabilità (Capitoli 3 e 4).
I metodi e le tecniche per lo studio dei modelli discreti sono dispersi nella
letteratura matematica, economica, biologica, demografica e dell’ingegneria.
Qui si è cercato di presentare la materia in modo unitario, sviluppando dap-
prima esempi e motivazioni, per poi affrontare lo studio dei modelli lineari e
successivamente di quelli non lineari, cercando di unificare il punto di vista
modellistico con quelli dell’Analisi Matematica, della Teoria dei Sistemi, del-
l’Algebra Lineare, del Calcolo delle Probabilità, del Calcolo numerico e della
Matematica Finanziaria.
Prefazione vii

Il caso vettoriale, più tecnico come notazioni e metodi, è presentato a parte


negli ultimi due capitoli (Capitoli 5 e 6), limitandone la trattazione esclusiva-
mente ai problemi lineari.
L’esposizione della teoria è resa graduale dalla proposta di alcuni esercizi
di difficoltà crescente. Altri esercizi di riepilogo sono raggruppati in apposite
sezioni. Le soluzioni di gran parte degli esercizi sono descritte in dettaglio nel
Capitolo 7. La Teoria è accompagnata da algoritmi e suggerimenti per effet-
tuare prove numeriche e simulazioni al computer.
A quest’ultimo proposito, ricordiamo che i sistemi dinamici discreti sono
essenzialmente iterazioni di funzioni, e che i computer eseguono con molta
efficienza le iterazioni di algoritmi. Invitiamo dunque il lettore ad affrontare
personalmente lo svolgimento degli esercizi sia mediante il calcolo manuale
(quando è possibile), sia cercando le proprietà qualitative con il metodo gra-
fico ed i risultati teorici del testo, sia effettuando simulazioni numeriche con
un personal computer.
Attualmente sono disponibili software particolarmente adatti sia alla itera-
zione di calcoli simbolici sia alla gestione della grafica. Questo rende possibile,
mediante opportune iterazioni di polinomi, generare sul monitor quelle im-
magini affascinanti ed intriganti denominate frattali anche senza conoscere gli
aspetti più tecnici della sottostante Teoria Geometrica della Misura.
Nel testo si forniscono comunque (Capitolo 4 ed Appendice F) alcune no-
zioni di base per lo studio di tali enti e la definizione di dimensione frattale e
di misura di un insieme frattale.
Per tutti gli esempi ed esercizi affrontati si invita il lettore a porre l’at-
tenzione non solo sulle particolarità algebriche del problema formalizzato,
quanto sul fenomeno modellizzato, il significato di modello matematico, il
dominio dei parametri in cui il modello è sensato, il valore predittivo
del modello e la sua computabilità a partire da dati sperimentali affetti da
inevitabili errori di misura.
In questa prospettiva la matematica svolge un ruolo di retroazione tra lo
studio e la formulazione di modelli descrittivi e predittivi. Qualora si pervenga
ad un adeguato livello di astrazione e di rigore nella formulazione di tali mo-
delli, si possono sviluppare idee innovative che permettono di comprendere ed
unificare problemi applicativi diversi attraverso l’identificazione di strutture
generali e l’elaborazione di teorie di ampia applicabilità.

Ringraziamo Maurizio Grasselli, Stefano Mortola e Antonio Cianci per gli


utili suggerimenti e le osservazioni al testo e Irene Sabadini per l’accurata
redazione delle numerose figure.

Milano, giugno 2002 Gli Autori


viii Prefazione

Questa seconda edizione del volume si avvale dell’esperienza didattica ma-


turata nel corso di Modelli Dinamici Discreti tenuto in questi anni presso il
Politecnico di Milano: numerose correzioni sono state apportate, la presen-
tazione di molti esempi ed esercizi è stata migliorata ed ampliata; infine è
stato inserito un nuovo capitolo su matrici positive, grafi e loro proprietà utili
nell’analisi di reti e motori di ricerca.
Vogliamo esprimere un sentito ringraziamento a Francesca Bonadei per
l’incoraggiamento ed il supporto forniti, ad Alberto Perversi per la valida
consulenza sulla gestione della grafica ed agli studenti del corso di studi in
Ingegneria Matematica per l’entusiasmo dimostrato e le utili osservazioni.

Milano, luglio 2008 Gli Autori

Nella terza edizione è stata aggiornata la trattazione di vari argomenti, sono


stati inseriti nuovi esempi ed esercizi e la bibliografia è stata ampliata per
fornire indicazioni al lettore interessato ad approfondire lo studio dei sistemi
dinamici discreti.
Nella attuale organizzazione del testo i capitoli 5, 6 e 7 sono dedicati al caso
vettoriale, conseguentemente le soluzioni svolte degli esercizi proposti sono
raccolte nel Capitolo 8.
Ringraziamo Debora Sesana per la revisione del materiale iconografico.
Questa edizione è pubblicata sia in lingua italiana che in lingua inglese.

Milano, giugno 2013 Ernesto Salinelli, Franco Tomarelli


Guida alla lettura

I primi due capitoli presentano una introduzione elementare alla materia: gli
unici prerequisiti sono le proprietà dei polinomi.
Il Capitolo 3 richiede la conoscenza della nozione di continuità ed il calcolo
di derivate di funzioni di una variabile, nel Capitolo 4 sono utilizzate alcune
elementari nozioni di Topologia.
Nei Capitoli 5, 6, 7, dedicati al caso vettoriale, si utilizzano alcune tecniche
di Algebra Lineare.
Tutti i prerequisiti, anche se elementari, sono comunque richiamati nel te-
sto o nelle Appendici.
Le dimostrazioni, stampate con un carattere tipografico ridotto, sono utili
per una comprensione approfondita ma possono omesse nel corso di una prima
lettura.
I primi tre capitoli possono essere oggetto di un modulo didattico (o semi-
annualità) della laurea triennale; in una prima lettura possono essere trala-
sciati i paragrafi 2.5, 2.6, 2.7, 2.8, 3.3, 3.4, 3.9 senza inconvenienti per la com-
prensione.
I Capitoli 4, 5 ,6 ,7 possono essere oggetto in un modulo didattico avanzato.
I capitoli successivi al primo sono largamente indipendenti tra loro, in mo-
do tale da rendere possibili vari percorsi di lettura a seconda dell’interesse per
alcune classi di problemi rispetto ad altre. Segnaliamo alcuni possibili percorsi
di lettura dei vari capitoli.
Indice

Prefazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v

Guida alla lettura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix

Indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi

Simboli e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xv

1 Fenomeni ricorsivi ed equazioni alle differenze . . . . . . . . . . . . . 1


1.1 Definizioni e notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Metodo grafico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Equazioni alle differenze lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25


2.1 Equazioni lineari ad un passo a coefficienti costanti . . . . . . . . . . 25
2.2 Equazioni lineari ad n passi a coefficienti costanti . . . . . . . . . . . . 31
2.3 Stabilità di equilibri per equazioni ad n passi a coefficienti
costanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4 Ricerca di soluzioni particolari con secondi membri di tipo
particolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.5 La Z-trasformata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.6 Equazioni lineari a coefficienti variabili . . . . . . . . . . . . . . . . . . . . . 62
2.7 Esempi di equazioni non lineari ad un passo riconducibili al
caso lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.8 La Trasformata Discreta di Fourier . . . . . . . . . . . . . . . . . . . . . . . . 73
2.9 Algoritmo Fast Fourier Transform (FFT) . . . . . . . . . . . . . . . . . . . 79
2.10 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

3 Sistemi dinamici discreti: equazioni scalari ad un passo . . . . 87


3.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2 Ancora sull’analisi grafica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
xii Indice

3.3 Comportamento asintotico in ipotesi di monotonia . . . . . . . . . . . 97


3.4 Teorema delle contrazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.5 La nozione di stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.6 Condizioni di stabilità basate sulle derivate . . . . . . . . . . . . . . . . . 107
3.7 Strategie di pesca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.8 Studio qualitativo e stabilità delle orbite periodiche . . . . . . . . . . 117
3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari . . . . . . . . 120
3.10 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

4 Complessità dei sistemi dinamici non lineari: biforcazioni


e caos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.1 Dinamica della crescita logistica . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.2 Il teorema di Sharkovsky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. . . . . . . . . 138
4.4 Caos ed insiemi frattali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
4.5 Coniugazione topologica di sistemi dinamici discreti . . . . . . . . . . 162
4.6 Metodo di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.7 Sistemi dinamici discreti nel campo complesso . . . . . . . . . . . . . . . 169
4.8 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

5 Sistemi dinamici discreti: equazioni vettoriali . . . . . . . . . . . . . . 185


5.1 Definizioni e notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
5.2 Applicazioni alla genetica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari . . . . . . . . . 197
5.4 Matrici strettamente positive e Teorema di Perron-Frobenius . . 205
5.5 Applicazioni alla demografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
5.6 Equazioni vettoriali lineari affini . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
5.7 Sistemi dinamici discreti vettoriali non lineari . . . . . . . . . . . . . . . 218
5.8 Schemi numerici per la risoluzione di problemi lineari . . . . . . . . 221
5.9 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232

6 Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235


6.1 Esempi, definizioni e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
6.2 Analisi asintotica di modelli descritti da catene di Markov
assorbenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
6.3 Passeggiate casuali, duelli e partite di tennis . . . . . . . . . . . . . . . . 252
6.4 Ancora sull’analisi asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
6.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

7 Matrici positive e grafi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265


7.1 Matrici irriducibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
7.2 Grafi e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
7.3 Ancora sulle Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
7.4 Algoritmo PageRank: perché un buon motore di ricerca
sembra leggere nel pensiero di chi lo interroga . . . . . . . . . . . . . . . 286
7.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
Indice xiii

8 Soluzioni degli esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293


8.1 Soluzioni degli esercizi del Capitolo 1 . . . . . . . . . . . . . . . . . . . . . . 293
8.2 Soluzioni degli esercizi del Capitolo 2 . . . . . . . . . . . . . . . . . . . . . . 300
8.3 Soluzioni degli esercizi del Capitolo 3 . . . . . . . . . . . . . . . . . . . . . . 317
8.4 Soluzioni degli esercizi del Capitolo 4 . . . . . . . . . . . . . . . . . . . . . . 332
8.5 Soluzioni degli esercizi del Capitolo 5 . . . . . . . . . . . . . . . . . . . . . . 343
8.6 Soluzioni degli esercizi del Capitolo 6 . . . . . . . . . . . . . . . . . . . . . . 346
8.7 Soluzioni degli esercizi del Capitolo 7 . . . . . . . . . . . . . . . . . . . . . . 349

Appendice A. Somme e serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353

Appendice B. Numeri Complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355

Appendice C. Aritmetica della probabilità . . . . . . . . . . . . . . . . . . . . . 359

Appendice D. Algebra lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361

Appendice E. Topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371

Appendice F. Dimensione frattale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373

Appendice G. Tabelle di Z-trasformate . . . . . . . . . . . . . . . . . . . . . . . . 379

Appendice H. Alcuni algoritmi e suggerimenti per simulazioni


al computer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383

Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389

Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391


Simboli e notazioni

N insieme dei numeri naturali con lo 0;


Z insieme dei numeri interi;
R insieme dei numeri reali;
Q insieme dei numeri razionali;
C insieme dei numeri complessi;
Rn spazio euclideo n–dimensionale;
s.d.d. sistema dinamico discreto;
{I, f} s.d.d. Xk+1 = f(Xk ) k ∈ N, associato alla funzione f : I → I;
{e1 , e2 , · · · , en } base canonica di Rn : ej = (0, 0, . . . , 1, . . . , 0);
x = (x1 , . . . , xn ) vettore x ∈ Rn di componenti xj ∈ R
rispetto alla base standard di Rn ;
x norma euclidea di x ∈ Rn ;
BR (x) disco aperto n dimensionale di raggio R e centrato in x;
∂E bordo o frontiera dell’insieme E ⊂ Rn ;
E chiusura dell’insieme E ⊂ Rn ;
ωn volume del disco unitario B1 (0) ⊂ Rn ;
σn−1 area della sfera unitaria S n−1 = ∂B1 (0) ⊂ Rn ;
X = {Xk }k∈N successione di numeri Xk , o traiettoria di un s.d.d. scalare;
X = {Xk }k∈N successione di vettori Xk = {Xkh }h=1,...,n ,
o traiettoria di un s.d.d. vettoriale;
mi,j elemento nella riga i e colonna j della matrice M;
λM autovalore dominante (o di Perron-Frobenius) della
matrice M;
VM autovettore dominante (o di Perron-Frobenius) della
matrice M;
xvi Simboli e notazioni

x+ parte positiva del numero reale x;


x− parte negativa del numero reale x;
o(1) infinitesimo;
o(xa ) “ o piccolo” di xa : infinitesimo di ordine superiore ad xa per
x → 0+ ; a > 0;
O(xa) “ O grande” di xa : termine il cui modulo è maggiorato da
C|x|a;
 dello stesso ordine;
∼ asintotico a;
Re z parte reale di z ∈ C;
Im z parte immaginaria di z ∈ C;
 1/2
|z| modulo di z ∈ C: |z| = (Re z)2 + (Im z)2 ;
arg(z) argomento di z ∈ C \ {0}: angolo orientato tra e1 e z ;
res(f(z), z0 ) residuo della funzione f nel punto z = z0 ∈ C;
v:Ω→E funzione v con dominio Ω ⊂ Rn ed immagine in E ⊂ Rm ;
v(x+ ) limite destro nel punto x della funzione v di variabile reale;
v(x− ) limite sinistro nel punto x della funzione v di variabile
reale;
DFT trasformata di Fourier discreta: Y = DFTy = n−1 F y ,
Y, y ∈ Rn , Fh k = ωhk , ω = e2πi/n ;
(DFT )−1 inversa della trasformata di Fourier discreta:
y = (DFT)−1 Y = F Y ;
FFT (Fast Fourier Transform) trasformata rapida di Fourier;
Z Zeta transformata: x(z) = Z{X} , X successione scalare.
1
Fenomeni ricorsivi ed equazioni alle
differenze

In questo primo capitolo vengono definite le notazioni ricorrenti nel testo e


si illustrano alcune motivazioni dello studio dei modelli matematici discreti
attraverso la presentazione di esempi la cui analisi sistematica è rinviata ai
capitoli successivi.
Le definizioni astratte del primo paragrafo formano un quadro unitario per
lo studio di un’ampia classe di problemi di cui nel secondo paragrafo sono
descritti alcuni esempi significativi.

1.1 Definizioni e notazione

Nel seguito tratteremo successioni di numeri complessi. Con il termine suc-


cessione indichiamo una funzione F : N → C, dove 1 N = {0, 1, 2, 3, . . . }.
Il lettore senza familiarità con i numeri complessi potrà pensare, in prima
lettura, che quanto di seguito esposto sia riferito solo a successioni di nu-
meri reali. Per comodità, le proprietà elementari dei numeri complessi sono
richiamate in Appendice B.
Una generica successione verrà indicata con una lettera maiuscola, ad esem-
pio F , mentre con una lettera maiuscola dotata di pedice indicheremo il suo
k-esimo termine, nell’esempio Fk , ossia il valore che F assume in k. In altre
parole, porremo Fk = F (k).
Seguendo una prassi comune, identificheremo una successione F con l’insieme
ordinato dei valori assunti: F = {Fk }k∈N o, brevemente, F = {Fk }.
Allo studioso interessato alla descrizione di grandezze in una successione di
passi o di istanti temporali, potrebbe sembrare restrittivo occuparsi solo di
1
Osserviamo che in altri contesti si pone N = {1, 2, 3, . . . }. La scelta, puramente
convenzionale, è motivata dai problemi in esame. Nei casi che studieremo è utile
avere come riferimento un dato iniziale corrispondente all’indice 0. Tuttavia ogni ri-
sultato può essere riportato al caso di successioni definite per tutti gli indici naturali
k maggiori o uguali ad un indice k0 .

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_1, © Springer-Verlag Italia 2014
2 1 Fenomeni ricorsivi ed equazioni alle differenze

funzioni definite sull’insieme dei numeri naturali, ma non è così. Infatti, se t0 ∈


R è un qualsiasi istante iniziale ed h > 0 è un incremento, allora la successio-
ne di valori {t0 , t0 + h, t0 + 2h, t0 + 3h, . . . } viene biunivocamente trasformata
nella successione {0, 1, 2, 3, . . . } dalla trasformazione
t − t0
k= .
h
Dato che oggetto del nostro studio sono quantità che dipendono da numeri na-
turali, non è sorprendente che il principio di induzione, che qui ricordiamo,
si riveli assai utile nell’analisi:

Sia P (k) una proposizione relativa al numero naturale k. Se:


 
i) esiste un 
k ∈ N tale che P 
k è vera,

 se P (k) è vera, allora P (k + 1) è vera;


ii) per ogni k ≥ k,

allora la proposizione P (k) è vera per ogni k ≥ 


k.

Se I è un qualsiasi sottoinsieme di C (nella maggior parte dei casi, I sarà un


intervallo in R), poniamo:

I n = I × I × · · · × I

n volte

cioè I n denoterà l’insieme delle n-uple (x1 , x2 , . . . , xn ) tali che xj ∈ I per ogni
j = 1, 2, . . . , n.

Definizione 1.1. Si dice equazione alle differenze (finite)2 di ordine


n, l’insieme di equazioni

g (k, Yk , Yk+1 , . . . , Yk+n ) = 0 ∀k ∈ N (1.1)

dove n è un intero positivo e g è una funzione scalare assegnata di n + 2


variabili, il cui dominio è N × I n+1

g : N × I n+1 → R .

2
L’origine del nome si chiarisce nel caso particolare in cui
g (k, Yk , Yk+1 , . . . , Yk+n ) = ψ (k, Yk+1 − Yk , Yk+2 − Yk+1 , . . . , Yk+n − Yk+n−1 )
per una opportuna funzione ψ.
1.1 Definizioni e notazione 3

Un’equazione alle differenze di ordine n si dice in forma normale se è


scritta nella forma

Yk+n = φ (k, Yk , Yk+1 , . . . , Yk+n−1 ) ∀k ∈ N (1.2)

con φ funzione nota


φ : N×I n → I. (1.3)

La (1.2) è una relazione ricorsiva che, a partire dalla conoscenza dei primi n
valori consecutivi della successione Y consente, “con molta pazienza”, di rica-
vare, un passo alla volta, tutti i valori di tale successione. In molti casi questo
calcolo può risultare proibitivo anche con procedure di calcolo automatico.
Risulta così utile conoscere una espressione esplicita, cioè non ricorsiva, di Y .

Definizione 1.2. Si dice soluzione della (1.1) una qualsiasi successione X


definita in modo esplicito (non ricorsivo) da

Xk = f (k) ∀k ∈ N (1.4)

ove f : N → I, è una funzione tale che, sostituendo Yk con f (k) nella (1.1),
si ottiene una identità.
L’insieme di tutte le soluzioni della (1.1) si dice soluzione generale dell’e-
quazione.

Teorema 1.3 (di esistenza ed unicità). Se φ è una funzione che verifi-


ca (1.3), allora l’equazione alle differenze in forma normale (1.2) ha sempre
soluzioni. Per ogni scelta dell’n-upla (α0 , α1 , . . . , αn−1) ∈ I n , il problema con
dati iniziali associato all’equazione alle differenze in forma normale (1.2):

Yk+n = φ (k, Yk , Yk+1 , . . . , Yk+n−1)
Y0 = α0 , Y1 = α1 , . . . , Yn−1 = αn−1

ammette una ed una sola soluzione.

Prova. Sostituendo le condizioni iniziali α0 , α1 , . . . , αn−1 nella (1.2) con k = 0 otte-


niamo un unico valore per Yn , diciamo αn; inoltre, per la (1.3), (α1 , α2 , . . . , αn−1 , αn )
appartiene a I n : sostituendo le condizioni

Y1 = α1 , Y2 = α2, ..., Yn = αn

nell’equazione (1.2) si ottiene Yn+1 . Ripetendo il procedimento, si costruisce, un


passo alla volta, una unica successione Y che è una soluzione di (1.1) nel senso di
(1.4). 
Qualora non sia possibile determinare una espressione esplicita della soluzione
X, è comunque assai utile poter stabilire se i valori Xk hanno o meno certi
comportamenti al variare di k: periodicità, avvicinamento a particolari valori,
o un andamento più complicato da descrivere.
4 1 Fenomeni ricorsivi ed equazioni alle differenze

1.2 Esempi

In questo paragrafo illustriamo alcune situazioni che motivano lo studio di


modelli matematici discreti. Per ciascuna l’analisi sistematica è rinviata ai
capitoli successivi.
I primi esempi sono del tutto elementari. L’ordinamento degli esempi oltreché
alla disciplina in cui sorgono, corrisponde ad una crescente difficoltà di trat-
tazione. Gli ultimi esempi non sono elementari e potrebbero risultare molto
tecnici ad una prima lettura, ma vogliono illustrare almeno in parte le varietà
di situazioni in cui le equazioni alle differenze svolgono un ruolo importante
nella matematica applicata.

Esempio 1.4. Una telefonata da un telefono mobile costa α quale diritto di


chiamata e β per ogni minuto di conversazione. Il costo totale della telefonata
Ck+1 dopo k + 1 minuti di conversazione è la soluzione di

Ck+1 = Ck + β
C0 = α

che è un esempio di problema con dato iniziale per una equazione alle diffe-
renze del primo ordine.

Esempio 1.5 (Interesse semplice). Supponiamo che l’ammontare Yk+1 di


un deposito di danaro calcolato al tempo k + 1 (scadenza per il calcolo degli
interessi) sia dato dall’ammontare Yk al tempo precedente più l’interesse cal-
colato, in base ad un tasso costante r sulla somma D0 depositata inizialmente.
Il modello alle differenze che descrive l’andamento del deposito corrisponde al
problema:
Yk+1 = Yk + rY0
Y0 = D0
la cui soluzione è (il lettore lo dimostri utilizzando il principio di induzione):

Yk = (1 + rk) D0 . (1.5)

Questo modello descrive l’andamento di un capitale investito in una obbliga-


zione o titolo di stato a rendimento fissato per un numero di anni corrispon-
dente alla durata dell’obbligazione.

Esempio 1.6 (Interesse composto). Se nell’esempio precedente supponia-


mo che l’interesse sia calcolato sempre ad un tasso costante r sulla somma
depositata al periodo precedente, ma venga capitalizzato ad ogni scadenza,
allora il modello ricorsivo che fornisce l’importo Xk+1 del deposito al tempo
k + 1 diventa:
Xk+1 = Xk + rXk = (1 + r) Xk
X0 = D0
1.2 Esempi 5

la cui soluzione è la seguente (anche questa formula si può provare per indu-
zione):
k
Xk = (1 + r) D0 . (1.6)
Questo modello descrive l’andamento di un conto corrente bancario il cui tasso
di interesse non subisce variazioni.
Si noti che, se r > 0 , la crescita del capitale nel caso dell’interesse compo-
sto risulta molto più rapida rispetto al caso dell’interesse semplice; infatti,
trascurando alcuni termini positivi nello sviluppo del binomio di Newton, si
ricava
k (k − 1) 2
(1 + r)k > 1 + kr + r k>2
2
che sostituita nelle (1.5) e (1.6) fornisce un confronto quantitativo tra i due
tipi di regimi finanziari :

k (k − 1) 2
Xk − Yk > r D0 .
2
Esempio 1.7. Una obbligazione di tipo fixed-reverse fornisce cedole che
variano nel tempo ma in modo prefissato all’atto dell’emissione. Un esempio
tipo è dato da un titolo della durata di 15 anni che fornisce una cedola del 7%
per i primi 5 anni ed in seguito una cedola annua del 2, 50% fino a scadenza.
Indicato con Zk la somma fra il capitale investito e le cedole riscosse fino al
tempo k, supponendo di non reinvestire le cedole, il modello corrispondente è

Zk+1 = Zk + r(k) Z0

⎨ 0, 07 se k = 0, 1, . . . , 5
con r(k) = 0, 025 se k = 5, 6, . . . , 14 .

0 se k ≥ 15
Osserviamo che tale modello non tiene affatto conto delle variazioni di prezzo
dell’obbligazione sul mercato secondario.
Esempio 1.8. Al tempo k = 0 viene erogato un mutuo d’importo S0 . Tale
somma è restituita in rate costanti di importo R, pagate a partire dal tempo
k = 1. Indicando con r il tasso d’interesse costante con il quale viene calcolato
l’interesse sul debito residuo Sk , quest’ultimo al tempo k + 1, k ≥ 1, è dato
da
Sk+1 = Sk + rSk − R = (1 + r) Sk − R .
Esempio 1.9. Al tempo k = 0, si investe una somma in un titolo che frutta
cedole di importo costante C ai tempi interi k ≥ 0. Se r indica il tasso di
interesse composto al quale si reinvestono le somme percepite, l’ammontare
Mk+1 del capitale posseduto al tempo k + 1 è dato dalla somma dell’ammon-
tare Mk del capitale posseduto al tempo k, degli interessi rMk maturati su
tale capitale e della cedola C “staccata” al tempo k + 1 (con M0 = C):

Mk+1 = Mk + rMk + C = (1 + r)Mk + C.


6 1 Fenomeni ricorsivi ed equazioni alle differenze

Esempio 1.10 (Modello della Ragnatela). Supponiamo che le quantità


Qdk+1 e Qok+1 di un bene, rispettivamente domandate e offerte su un mercato
al tempo k + 1 in funzione del prezzo Pk del bene, siano date da

Qdk+1 = a − bPk+1 Qok+1 = −c + dPk

dove le costanti a, b, c, d > 0 sono note. Ciò significa che al crescere del prez-
zo del bene diminuisce la quantità domandata del bene, mentre aumenta la
quantità offerta. Si noti che la significatività economica imporrebbe di con-
siderare solo prezzi appartenenti all’intervallo [Pmin , Pmax ] := [c/d, a/b], con
parametri tali che c/d < a/b.
La condizione di equilibrio del mercato Qdk+1 = Qok+1 conduce ad un pro-
blema nell’incognita prezzo espresso da una equazione alle differenze con una
condizione iniziale p :

d a+c
Pk+1 = − Pk +
b b .
P 0 = p

Il nome di ragnatela sarà chiarito nel seguito. Il lettore può provare a farsene
una ragione tentando di “risolvere graficamente” il problema.

Esempio 1.11 (Modello di decadimento radioattivo). Consideriamo


una popolazione di n particelle che decadono secondo la legge seguente: in
ogni intervallo di tempo unitario3 si riducono del 20%.
Se Pk indica il numero delle particelle dopo k intervalli di tempo, risulta

Pk+1 = 0, 8Pk
.
P0 = n

Analogamente all’Esempio 1.6, si ricava

Pk = (0, 8) P0 = e−k ln(5/4)n.


k

Per tale motivo si parla di decadimento esponenziale.


Osserviamo che la comparsa di valori di Pk non interi conduce a considerare
valori reali (descrizione corretta in opportune unità di misura macroscopiche
se n è molto grande).
Il modello rimane comunque discreto nel tempo nonostante la modellizzazione
continua delle grandezze che descrivono la popolazione.
Poniamoci le domande seguenti:
(1) qual è la vita media m di tali particelle?

3
L’intervallo di tempo può essere molto lungo: esso è determinato dalla natura delle
particelle.
1.2 Esempi 7

(2) qual è il tempo di dimezzamento d della popolazione?


(3) qual è la più grande delle due quantità trovate?

Sottolineiamo il fatto che le prime due domande sono differenti.


Nel primo caso si chiede di determinare la vita media, cioè il numero m veri-
ficante
+∞
1
m= k (Pk − Pk+1 ) . (1.7)
n
k=1

Sostituendo l’espressione trovata per Pk in (1.7), si ottiene:


+∞ +∞ +∞
1 k
 k
 k−1
m= nk (0, 8) (1 − 0, 8) = 0, 2 k (0, 8) = 0, 16 k (0, 8) = 4.
n
k=1 k=1 k=1

La seconda domanda chiede di determinare il più grande intero k tale che


1
Pk ≥ P0
2
problema equivalente a

k1
max k ∈ N : (0, 8) ≥
2
 
k
e dalle identità ln 2 · (0, 8) = ln 2 + k (ln 4 − ln 5); ln 1 = 0 si
deduce
  
ln 2 ln 2
d = max k ∈ N : k ≤ = parte intera di =
ln 5 − ln 4 ln 5 − ln 4
= parte intera di 3, 1063 = 3.

Osserviamo che nessuna delle due quantità (vita media e tempo di dimezza-
mento) dipende dalla popolazione iniziale: esse dipendono solo dalla frazione
(20%) di particelle che decadono nell’unità di tempo; inoltre vale m > d. Que-
sta tuttavia non è una disuguaglianza valida in generale: a seconda del tipo di
popolazione e delle corrispondenti leggi di decadimento si possono avere tutte
le diverse possibilità: m > d, m = d, m < d.
Consideriamo, ad esempio, una popolazione di 3 particelle (o individui) A, B
e C: A vive 10 anni, C vive 20 anni (vedi Fig. 1.1). Allora:

• se B vive 15 anni, allora d = m = 15 anni;


• se B vive b anni, con 10 ≤ b < 15, allora d = b < m;
• se B vive b anni, con 15 < b < 20, allora m < b = d.

Osserviamo infine che la vita media potrebbe non essere neppure definita se
il calo della popolazione avviene in modo più lento del decadimento esponen-
8 1 Fenomeni ricorsivi ed equazioni alle differenze

Fig. 1.1. Vita media e tempo di dimezzamento nei tre casi discussi

ziale. Ad esempio, se Pk = k1 P0 , allora la vita media è infinita:

1 
+∞  1
+∞
1
 +∞
 1
k (Pk − Pk+1 ) = k − = = +∞.
P0 k k+1 k+1
k=1 k=1 k=1

Invece, per una popolazione che decresce nel tempo è sufficiente la condizione
limk Pk = 0 (cioè che la popolazione tenda ad estinguersi) affinché il tempo
di dimezzamento sia ben definito.
Ad esempio, se, come prima, Pk = k1 P0 , allora d = 2.
Esempio 1.12 (Modello di Malthus4 ). Questo semplice ed ormai classico
modello descrive una popolazione (biologica o di altro genere), nella quale il
numero Yk di individui presenti al tempo k è una proporzione costante τ del
numero di individui Yk−1 al tempo precedente (la quantità τ −1 è detta tasso
intrinseco di crescita):

Yk+1 = τ Yk τ >0

Il tasso intrinseco di crescita τ − 1 rappresenta la differenza fra i tassi di na-


talità e mortalità degli individui. Ovviamente, la popolazione cresce se τ > 1,
decresce se 0 < τ < 1.
Osserviamo che, al variare di τ , il modello descrive un comportamento quan-
titativamente identico al caso dell’interesse composto (basta porre τ = 1 + r)
o al caso del decadimento radioattivo se 0 < τ < 1. Tali modelli sono detti di
crescita esponenziale per l’andamento delle loro soluzioni.

Esempio 1.13 (Crescita logistica). Vedremo in dettaglio nel Capitolo 2


che, se τ > 1, allora il modello di Malthus presenta delle soluzioni a crescita
esponenziale. Molti autori hanno criticato tale modello proprio perché impli-
ca una crescita illimitata e troppo rapida. Più realisticamente (anche se si
trascura la competizione con altre specie e si suppongono illimitate le risorse
4
Thomas Robert Malthus, 1766-1834.
1.2 Esempi 9

dell’habitat) in caso di grande affollamento si deve tenere conto almeno di


fattori di competizione intraspecifica. Il modo più semplice di tenere conto di
tali fenomeni sociali consiste nella correzione del modello di Malthus, dovuta a
Verhulst, che descrive maggiore aggressività e minore attitudine alla riprodu-
zione nei casi di “sovraffollamento”. L’equazione del modello di Malthus viene
“corretta” introducendo un termine non lineare di secondo grado, in quanto
è ragionevole pensare che la competizione fra individui sia proporzionale al
numero di incontri, e che quest’ultimo sia proporzionale a Yk 2 :

Yk+1 = τ Yk − ωYk 2 τ, ω > 0 .

Posto H = τ /ω possiamo scrivere

 
Yk
Yk+1 = τ Yk 1 − τ, H > 0 (1.8)
H

Tale modello è detto di crescita logistica.


La quantità H è detta totale sostenibile: infatti, H ha tale interpretazione
perché se si parte da una popolazione Y0 tale che 0 < Y0 < H, con parametro
τ verificante 0 < τ < 4, allora tutti i successivi valori di Yk si mantengono
compresi tra 0 e H; non è possibile invece partire da valori Y0 > H in quanto
si avrebbe Yk < 0 per ogni k e il modello sarebbe privo di una significativa
interpretazione biologica.
Mediante il cambio di scala Xk = Yk /H, possiamo riscrivere il modello come

Xk+1 = τ Xk (1 − Xk ) τ >0

ove la popolazione è espressa come frazione del totale sostenibile.


Corrispondentemente, valori iniziali sensati X0 devono soddisfare le disugua-
glianze 0 < X0 < 1.
Agli effetti della variazione Xk+1−Xk in un singolo passo temporale, per picco-
le popolazioni “prevale” il termine lineare (τ − 1) Xk , mentre per popolazioni
di grandi dimensioni “prevale” il termine quadratico di coefficiente negativo
−τ Xk2 . In questo contesto “piccolo” significa prossimo a zero, “grande” significa
grande rispetto a zero ed ha senso anche per valori minori di 1.
Esempio 1.14 (Modello di Lotka-Volterra). Una regione è popolata da
due specie: una, la preda, indicata con P , si ciba delle risorse vegetali presenti
sul territorio, l’altra, detta predatore ed indicata con C, carnivora, si ciba delle
prede. Le prede, in assenza di predatori, crescono in “modo Maltusiano” ad
un tasso costante τ ; la presenza di predazione riduce il tasso di crescita delle
prede di un termine proporzionale alla consistenza delle popolazioni di prede
e predatori; in assenza di prede, i predatori si estinguono. Analiticamente il
modello è espresso da un sistema di due equazioni che descrivono in modo
10 1 Fenomeni ricorsivi ed equazioni alle differenze

accoppiato l’andamento delle due popolazioni:



Pk+1 = (1 + a) Pk − b Ck Pk
a, b, c, d > 0, ∀k ∈ N.
Ck+1 = (1 − c) Ck + d Ck Pk

Si noti che, l’effetto della predazione è proporzionale agli incontri tra prede e
predatori; questo modello suppone che il numero di incontri sia proporzionale
alla consistenza delle due popolazioni, cioè al prodotto Ck Pk . Tale prodotto
prende il nome di impact factor.

Esempio 1.15 (I numeri di Fibonacci5 ). Un allevatore di conigli si chie-


de quante coppie di conigli si possono ottenere in un anno, a partire da una
unica coppia, nell’ipotesi che ogni mese ciascuna coppia con due o più mesi di
vita, dia alla luce una nuova coppia.
Per semplicità, si può supporre che:

• nessuna coppia muoia;


• la prima coppia sia costituita da conigli appena nati;
• il tempo di gestazione sia di un mese;
• la maturità sessuale sia raggiunta dopo il primo mese di vita.
Se Ck è il numero di coppie al tempo k (espresso in mesi), allora dalle ipotesi
fatte deduciamo il modello ricorsivo:

Ck+1 = Ck + Ck−1 , k ∈ N\ {0}
C0 = 0, C1 = 1

A differenza degli esempi precedenti, si tratta di un modello a due passi: per


ottenere il valore Ck+1 è necessario conoscere i valori Ck e Ck−1 corrisponden-
ti ai due mesi precedenti. Per sostituzione diretta si ottiene una successione
di numeri, detti numeri di Fibonacci, di cui elenchiamo i primi 13:

C = {0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, . . . } .

Tornando al quesito dell’allevatore, riportiamo in una tabella il numero di


mesi trascorsi ed il corrispondente numero di coppie di conigli:

mesi k 0 1 2 3 4 5 6 7 8 9 10 11 12 13
coppie Ck 0 1 1 2 3 5 8 13 21 34 55 89 144 233

Come si può notare, il valore Ck cresce molto rapidamente con k, ad esempio


C25 = 75025.
Osserviamo che per calcolare valori di Ck con k > 30 anche se si utilizza
un personal computer è bene usare qualche accorgimento per evitare tempi
di calcolo molto lunghi o problemi di memoria. Queste difficoltà sono tipiche
5
Col soprannome di Fibonacci è noto Leonardo Pisano (1175-1240).
1.2 Esempi 11

delle operazioni ricorsive, anche quando sono ottenute a partire da operazioni


molto semplici. Il problema è dovuto al fatto che se non si conservano i valori
calcolati, l’elaboratore ripete un gran numero di volte (inutilmente) le stesse
operazioni. Questo è il vero motivo per cui si ricercano formule esplicite per
il calcolo che non richiedano la conoscenza di tutti i valori precedenti (si veda
al riguardo l’Appendice H).
Si noti che non solo Ck ma anche il numero Nk di operazioni necessarie al
calcolo di Ck cresce molto rapidamente (come funzione di k), se non vengono
tabulati i valori di Ck , mano a mano che vengono calcolati.
Nel modello di Fibonacci non solo i passi temporali sono discreti ma anche la
grandezza misurata (numero di conigli) è discreta (sono numeri interi); tutta-
via una descrizione completa delle soluzioni richiede (come vedremo nel Ca-
pitolo 2) l’utilizzo dei numeri reali, ossia l’ampliamento dell’insieme numerico
in cui è stato definito il modello.

Esempio 1.16 (Modello di Leslie [16]). I modelli di popolazione pre-


sentati in precedenza non tengono conto di alcuna eventuale struttura della
popolazione: per età, sesso o altro.
Al solo scopo di tenere conto delle varie età degli individui appartenenti ad
una popolazione biologica, si può suddividere tale popolazione in n classi
disgiunte di età, ciascuna di uguale ampiezza. Ad esempio, la prima classe
potrebbe essere costituita dagli individui di età minore o uguale a 20 anni,
la seconda dagli individui di età compresa tra 20 e 40 anni, e così via. In tal
modo 5 classi di età sarebbero sufficienti a descrivere in modo soddisfacente
una popolazione umana di una certa regione.
In generale, assegnata una popolazione, fissato n il numero di classi di età, si
deduce l’unità temporale come rapporto tra una età massima convenzionale
ed n, quindi si denota con Yk il numero di individui che costituisce la popo-
lazione complessiva al tempo k. Per ogni k, Yk è un vettore ad n componenti
Ykj , j = 1, . . . , n, ciascuna delle quali indica il numero di individui nella j-
esima classe, cioè di età compresa tra j − 1 e j, nella fissata unità di misura
temporale.
La presenza di due indici non deve spaventare: il primo denota il tempo al
quale ci si riferisce, il secondo la classe di età. Ad esempio, se consideriamo
classi di età dell’ampiezza di 5 anni per la popolazione umana di una fissata
regione, allora Y51 è il numero di appartenenti alla classe dei più giovani (età
minore di 5 anni) valutata al momento del quinto censimento (i censimenti
hanno, in genere, cadenza quinquennale).
1
Il numero Yk+1 dei nuovi nati al tempo k + 1 è la somma dei nati da individui
appartenenti a ciascuna classe di età che è in proporzione secondo un tasso di
natalità ϕj al numero di individui nella stessa classe Ykj :


n
1
Yk+1 = ϕj Ykj .
j=1
12 1 Fenomeni ricorsivi ed equazioni alle differenze
j
Il numero di individui Yk+1 nelle classi di età più mature (j = 2, 3, . . . , n)
al tempo k + 1 è dato dai “sopravvissuti” fra i componenti la Ykj−1 della
(j − 1)-esima classe al tempo k:
j
Yk+1 = σj−1 Ykj−1 j = 2, . . . , n, 0 ≤ σj−1 ≤ 1.

I valori ϕj e σj sono tipici delle varie popolazioni, sono indicatori statistici del-
le attese di natalità e sopravvivenza, sono tutti non negativi e verosimilmente
ϕj è piccolo per valori estremi di j (j = 0 e j = n).
 T
Posto Yk = Yk1 Yk2 . . . Ykn , il modello è descritto in modo sintetico dal-
l’equazione vettoriale
Yk+1 = LYk
cioè, per ciascuna componente j,

j

n
Yk+1 = Lj,hYkh
h=1

dove ⎡ ⎤
ϕ1 ϕ2 ϕ3
. . . ϕn−1 ϕn
⎢ σ1 0 0
... 0 0 ⎥
⎢ ⎥
⎢ 0 ⎥
L=⎢ 0 σ2 0
... 0 ⎥.
⎢ .. .. .... . .. ⎥
⎣ . . . ..
. . ⎦
0 0 0 . . . σn−1 0
Si noti che ad ogni passo temporale k la popolazione complessiva è
data dalla
n j
somma del numero di individui componenti le varie classi di età: j=1 Yk .

Esempio 1.17 (Rovina del giocatore). Due giocatori A e B giocano a te-


sta o croce con una moneta truccata (esce testa nel 40% dei casi). Su ogni
lancio scommettono un Euro. A punta sempre su testa, B sempre su croce. A
possiede all’inizio a Euro, B ne possiede b, e vale a > b > 0. Il gioco prosegue
fino a che uno dei giocatori sbanca l’altro.
Ci si chiede quale sia la probabilità che A riesca a vincere tutto il denaro di
B e la probabilità dell’esito opposto.
Per vedere due modi diversi di modellare e risolvere il problema si rimanda al
Capitolo 2 (Esercizio 2.36) e al Capitolo 6 (Esercizio 6.3).

Esempio 1.18. In un game di una partita di tennis tra due giocatori il pun-
teggio è 40 a 15. Supponendo di sapere che il giocatore in vantaggio ha una
probabilità nota p ∈ (0, 1) di vincere ciascuna palla, si chiede con quale pro-
babilità si aggiudicherà il gioco.
Per un’analisi di questa situazione si rinvia all’Esempio 6.30.
1.2 Esempi 13

Esempio 1.19 (Ricerca delle soluzioni di una equazione differenzia-


le ordinaria, lineare con coefficienti variabili espressi da funzioni
elementari). Consideriamo, ad esempio, l’equazione differenziale, nota come
equazione di Airy,

y = xy x∈R. (1.9)

Si noti che l’equazione, benché lineare, non è a coefficienti costanti.


Cerchiamo di determinare soluzioni di (1.9) nella forma6
+∞

y (x) = An xn .
n=0

Derivando formalmente, si ottiene


+∞
 +∞

y (x) = n An xn−1 y (x) = n (n − 1) An xn−2
n=1 n=2

e sostituendo nell’equazione (1.9), si ricava l’identità


+∞
 +∞

n (n − 1) An xn−2 = An xn+1 . (1.10)
n=2 n=0

Inoltre
+∞
 +∞
 ponendo m=n−3
n (n − 1) An xn−2 = 2A2 + n (n − 1) An xn−2 =
n=2 n=3
+∞

= 2A2 + (m + 2) (m + 3) Am+3 xm+1
m=0

e, tenendo conto che l’indice di una sommatoria è muto, si può porre m = n


nella serie a destra dell’uguale in (1.10), ottenendo l’identità equivalente:
+∞
 +∞

2A2 + (m + 2) (m + 3) Am+3 xm+1 = Am xm+1 .
m=0 m=0

Affinché l’uguaglianza sia verificata per ogni x ∈ R devono risultare uguali i

6
Per applicare con successo il metodo, non è necessario che i coefficienti siano
funzioni elementari: è in generale sufficiente che i coefficienti siano analitici, cioè
funzioni esprimibili localmente come somma di una serie di potenze della variabile
indipendente x.
14 1 Fenomeni ricorsivi ed equazioni alle differenze

coefficienti dei termini di ugual grado:

A2 = 0 (m + 2) (m + 3) Am+3 = Am .

Otteniamo così la relazione ricorsiva


Am
Am+3 = m ∈ N. (1.11)
(m + 2) (m + 3)

Assegnati i valori A0 = y (0) ed A1 = y (0), ricordando che A2 = 0, l’espres-


sione ricorsiva (1.11) consente di calcolare tutti i coefficienti. Osservato che
A3k+2 = 0 per ogni k, i primi termini dello sviluppo della soluzione sono:
   
x3 x6 x4 x7
y (x) = A0 1 + + + · · · + A1 x + + +··· .
2·3 2·3·5·6 3·4 3·4·6·7

Esempio 1.20. Discretizzazione di una equazione differenziale ordi-


naria con il metodo delle differenze finite.
Si possono ottenere soluzioni approssimate di un problema di Cauchy7

u (x) = f (x, u (x))
(1.12)
u (x0 ) = u0

dove f è una funzione nota, x varia in un opportuno intervallo centrato in x0


ed u è una funzione incognita, sostituendo la derivata della funzione incognita
con opportuni rapporti incrementali.
Ad esempio, il metodo di Eulero implicito consiste nel fissare un passo
h > 0 di incremento della variabile x che individua i punti xk = x0 + hk, al
variare di k ∈ {0, 1, . . . , n − 1}; in corrispondenza ai punti xk si sostituisce
nella (1.12) al posto di u (x) il rapporto incrementale in avanti:

u (xk + h) − u (xk ) u (x0 + h (k + 1)) − u (x0 + hk)


=
h h
e per valutare la funzione f (x, u (x)) si effettuano i calcoli in xk+1 . Conside-
riamo una funzione uh che approssima u. Posto Uk = uh (x0 + hk) otteniamo

Uk+1 − Uk
= f (xk+1 , Uk+1 )
h

ossia

Uk+1 = Uk + hf (x0 + (k + 1) h, Uk+1 ) k = 0, 1, . . . , n − 1 ,

7
Cioè un problema che consiste nella determinazione di una soluzione di un’equa-
zione differenziale verificante condizioni iniziali assegnate in modo opportuno.
1.2 Esempi 15

che, per ogni k fissato, è effettivamente una equazione implicita in Uk+1 qua-
lora sia noto Uk : risolvendola iterativamente, a partire da U0 = u (x0 ) = u0 ,
si ottengono i valori Uk+1 .
Ci si attende che l’approssimazione Uk di u (xk ) migliori quando h si avvicina
a zero.
Alternativamente, il metodo di Eulero esplicito consiste nel calcolare l’ap-
prossimazione di f in xk e conduce alla formulazione

Uk+1 − Uk
= f (xk , Uk )
h

che, nota Uk , è un’equazione esplicita nell’incognita Uk+1 . Questo vantaggio


computazionale comporta però inconvenienti sulla stabilità numerica per cui il
metodo implicito risulta preferibile qualora non risulti proibitiva la soluzione
dell’equazione in Uk+1 .

Esempio 1.21 (Discretizzazione dell’equazione del calore). Conside-


riamo il problema con condizioni iniziali ed al bordo per l’equazione del calore
in un sbarra ⎧
⎪ ∂v ∂2v

⎪ = x ∈ (0, a) , t > 0
⎨ ∂t ∂x2
v (x, 0) = f (x) x ∈ [0, a] (1.13)




v (0, t) = v (a, t) = 0 t > 0
che descrive l’evoluzione della temperatura v = v (t, x) al tempo t nella po-
sizione x di una sbarra, se si suppone che la temperatura segua la legge di
Fourier, abbia il valore f al tempo 0 e sia controllata da termostati al bordo.
Supponiamo f (0) = f (a) = 0.
Fissiamo un passo s = a/ (N + 1) , N ∈ N\ {0}, per la variabile spaziale e
poniamo tk = hk con k ∈ N e h reale strettamente positivo. In tal modo
otteniamo una griglia di punti (vedi Fig. 1.2)

(xj , tk ) = (js, hk) j = 0, 1, . . . , N + 1, k ∈ N.

Se la soluzione v di (1.13) ha derivate continue fino al secondo ordine, in ogni


punto (xj , tk ) della griglia otteniamo dalla formula di Taylor:

∂v v (xj , tk+1 ) − v (xj , tk )


(xj,tk+1 ) = + O (h)
∂t h
∂2v v (xj+1 , tk+1 ) − 2v (xj , tk+1 ) + v (xj−1, tk+1 )
(xj , tk+1) = + O (s) .
∂x2 s2
16 1 Fenomeni ricorsivi ed equazioni alle differenze

Fig. 1.2. Griglia di discretizzazione per l’equazione del calore in una sbarra

Queste relazioni suggeriscono di approssimare l’equazione del calore con l’e-


quazione alle differenze:

v (js, h (k + 1)) − v (js, hk)


=
h
v ((j + 1) s, h (k + 1)) − 2v (js, h (k + 1)) + v ((j − 1) s, h (k + 1))
=
s2
che è una discretizzazione di tipo Eulero implicito nel tempo con derivata
seconda spaziale approssimata con 3 punti.
Denotando con Vj,k un’approssimazione di v (js, hk) e operando un riordino
dei termini, si ottiene il sistema:
⎧  
⎨ V = 1 + 2h V h
j,k j,k+1 − 2 [Vj−1,k+1 + Vj+1,k+1 ] j = 1, . . . , N, k∈N
s2 s

V0,k+1 = VN+1,k+1 = 0 k∈N
(1.14)
È ragionevole porre Vj,0 = f (js) , j = 0, . . . , N + 1 . Allora il problema
(1.14) si può risolvere ricorsivamente (con l’ausilio del calcolo automatico): i
valori Vj,0 sono noti, mentre Vj,1 , j = 1, . . . , N , si deducono dai valori Vj,0 con
j = 1, . . . , N . Introducendo poi la matrice N × N
⎡ ⎤
2h ⎡ ⎤
1+ s2 − sh2 0 ··· 0
⎢ ⎥ V1,k
⎢ − h 1 + 2h − h ··· ⎥ ⎢ ⎥
⎢ s2 s2 s2
0 ⎥ ⎢ ⎥
⎢ ⎥ ⎢ V2,k ⎥
⎢ .. ⎥
A =⎢ 0 − s2 1 + 2h
h
··· . ⎥ Vk = ⎢
⎢ .. ⎥

⎢ s2 ⎥ ⎢ . ⎥
⎢ . . . .. ⎥ ⎣ ⎦
⎢ .. .. .. . − sh2 ⎥
⎣ ⎦ VN,k
2h
0 ··· 0 − sh2 1 + s2
1.2 Esempi 17

possiamo riscrivere il sistema precedente come una equazione alle differen-


ze vettoriale del primo ordine, a coefficienti costanti

AVk+1 = Vk (1.15)
 T
con la condizione iniziale V0 = f (s) f (2s) · · · f (N s) .
La discretizzazione di tipo Eulero esplicito conduce alla seguente equazione
alle differenze vettoriale
Wk+1 = BWk (1.16)
 T
con la condizione iniziale W0 = f (s) f (2s) · · · f (N s) , dove Wj,k ap-
prossima il valore di v (js, hk) e B è la matrice N × N definita da
⎡ 2h ⎤
1− s2
h
s2 0 ··· 0
⎢ 2h ⎥
⎢ h
s2 1− s2
h
s2 ··· 0 ⎥
⎢ ⎥
⎢ .. ⎥
B=⎢
⎢ 0 h
s2 1− 2h
s2 ··· . ⎥

⎢ ⎥
⎢ .. .. .. .. ⎥
⎣ . . . . h
s2 ⎦
2h
0 ··· 0 h
s2 1− s2

In entrambi gli schemi si noti la struttura a banda delle matrici A e B che


risultano matrici definite positive (la seconda se 4h < s2 ).
Osserviamo che la soluzione dello schema di Eulero esplicito consiste nel de-
terminare iterativamente Wk+1 a partire da Wk : la soluzione numerica di
tale problema consiste ad ogni passo in una moltiplicazione di una matrice di
ordine N per un vettore N -dimensionale.
La soluzione dello schema di Eulero implicito consiste nella determinazione di
Vk+1 a partire da Vk : in questo caso la soluzione numerica consiste ad ogni
passo nella soluzione di un sistema di N equazioni algebriche (anziché inverti-
re A che nella pratica può avere dimensione molto elevata, si sfruttano le sue
particolari proprietà di struttura: si vedano l’Appendice D e il paragrafo 5.8).

Esempio 1.22 (Equazione dei tre momenti per una sbarra appog-
giata). Consideriamo una sbarra elastica pesante ed omogenea (vedi Fig. 1.3),
uniforme di lunghezza L, appoggiata ad N − 1 punti equidistanti ad una
distanza δ > 0: N δ = L.

Fig. 1.3. Sbarra appoggiata a supporti equidistanti


18 1 Fenomeni ricorsivi ed equazioni alle differenze

Supponiamo che non vi siano forze agenti sulla sbarra ad eccezione del suo
peso e della reazione vincolare nei supporti d’appoggio. Vogliamo determinare
i momenti flettenti Mk , k = 1, , . . . , N − 1, nei punti di appoggio.
Sia Mk il momento flettente nel k-esimo supporto. Consideriamo tre supporti
consecutivi (di indici rispettivamente k − 1, k, k + 1) e collochiamo l’origine
nel supporto centrale. Sia poi x la distanza orientata da tale punto. Allora, il
momento flettente nel punto x è dato da:
⎧ x

⎨ Mk + (Mk − Mk−1 ) −δ ≤ x ≤ 0
δ
M (x) = (1.17)

⎩ Mk + (Mk+1 − Mk ) x 0≤x≤δ
δ
Dalla teoria delle sbarre elastiche sappiamo che lo spostamento verticale della
sbarra è descritto dal grafico di y = y (x) verificante

Y I y = M (x) (1.18)

dove Y I indica la rigidità a flessione della sbarra che supponiamo indipenden-


te da x (Y è il modulo di Young, I il momento di inerzia rispetto ad un asse
per il baricentro).
Integrando la relazione differenziale (1.18) ed usando (1.17) otteniamo


⎪ x2
⎨ Mk x + (Mk − Mk−1 ) + c1 −δ ≤ x ≤ 0

Y I y = (1.19)

⎪ 2
⎩ Mk x + (Mk+1 − Mk ) x + c2 0≤x≤δ

Poiché y deve essere continua in x = 0, otteniamo c1 = c2 = c.
Integrando (1.19)


⎪ 1 x3
⎨ Mk x2 + (Mk − Mk−1 ) + cx −δ ≤ x ≤ 0
2 6δ
YIy =

⎪ 3
⎩ 1 Mk x2 + (Mk+1 − Mk ) x + cx 0≤x≤δ
2 6δ
Poiché lo spostamento verticale y è nullo nei punti di appoggio (cioè per x =
0, ±δ) otteniamo due equazioni

1 δ2
Mk δ 2 − (Mk − Mk−1 ) − cδ = 0
2 6
1 δ2
Mk δ 2 + (Mk+1 − Mk ) + cδ = 0
2 6
che sommate danno l’equazione dei tre momenti:

Mk−1 + 4Mk + Mk+1 = 0 .


1.3 Metodo grafico 19

1.3 Metodo grafico

Per rendersi conto, almeno in prima approssimazione, del comportamento di


una soluzione di una equazione alle differenze del primo ordine
Xk+1 = f (Xk ) ∀k ∈ N
con f : I → R, I intervallo di R, può risultare conveniente ricorrere ad una
rappresentazione grafica che individua l’andamento, sia pur per pochi valori
iniziali di k, della successione Xk .
Illustriamo tale metodo in un caso particolare (che corrisponde ad una parti-
colare scelta dei parametri negli Esempi 1.5, 1.8, 1.9, 1.11 e 1.12):
Xk+1 = 1, 5 Xk − 0, 5. (1.20)
Nel piano cartesiano, tracciamo i grafici della funzione affine f : R → R,
f (x) = 1, 5 x − 0, 5 e della funzione identità id (x) = x.
Scegliamo ora un valore iniziale X0 sull’asse delle ascisse, ad esempio X0 = 2.
Allora il valore X1 = f (X0 ) = 2, 5 può essere ottenuto graficamente traccian-
do a partire dal punto (X0 , 0) una retta verticale fino ad incontrare la retta
di equazione y = 1, 5 x − 0, 5 (Fig. 1.4a) e successivamente proseguendo con
un segmento orizzontale fino all’asse verticale (Fig. 1.4b).
Per determinare graficamente X2 occorre riportare il valore di X1 sull’asse
delle ascisse. A questo scopo, si traccia un segmento orizzontale (Fig. 1.4c)
fino alla retta di equazione y = x: chiaramente la sua proiezione verticale
riporta X1 sull’asse delle ascisse.
Riportiamo (Fig. 1.4d) tutti i segmenti tracciati in un unico grafico, cancel-
lando i tratti orizzontali percorsi in andata e ritorno.
Si itera la procedura tracciando un segmento verticale a partire dal punto
(X1 , X1 ) fino al grafico della funzione f (Fig. 1.5a).
Il grafico ottenuto “suggerisce” nell’esempio particolare che la successione Xk
sia divergente a +∞ quando k → +∞.
Si noti, sempre nell’esempio sopra considerato, che, se X0 = 1, “non dobbia-
mo disegnare nulla” dato che ad ogni passo si ha Xk = 1.
Se consideriamo, invece X0 = 0, 5 , procedendo come indicato sopra, ottenia-
mo il grafico della Fig. 1.5b.
Questa volta ci aspettiamo che Xk → −∞ se k → +∞.
I diagrammi ottenuti con tale procedura saranno denominati nel seguito gra-
fici a ragnatela.
Invitiamo il lettore a fornire, ove possibile, una rappresentazione grafica del-
l’andamento delle successioni individuate negli esempi riportati nella prece-
dente sezione.
20 1 Fenomeni ricorsivi ed equazioni alle differenze

X1

a) b)

X0 X0

X1

c) d)

X0 X1 X0 X1

Fig. 1.4. Implementazione del metodo grafico

b)

a)

Fig. 1.5. Metodo grafico: f (x) = 1, 5x − 0, 5 ; a) X0 = 2, b) X0 = 0, 5

1.4 Esercizi di riepilogo

Il lettore è invitato ad affrontare gli esercizi prima della lettura dei capitoli
successivi, per poi confrontare le soluzioni trovate con le soluzioni svolte in
dettaglio che sono proposte nel Capitolo 8.
Esercizio 1.1. Una torta viene tagliata con tagli rettilinei in modo tale che due
tagli qualsiasi si intersecano in uno ed un solo punto ma tre tagli differenti non si
possono intersecare nello stesso punto. Si fornisca il modello alle differenze che de-
scrive ricorsivamente il numero Nk delle porzioni in cui viene suddivisa la torta con
1.4 Esercizi di riepilogo 21

k tagli. Utilizzare il risultato ottenuto per rispondere al quesito: qual è il numero


massimo di fette (eventualmente diverse fra loro) in cui si può dividere una torta
circolare mediante k tagli rettilinei?

Esercizio 1.2. Il lettore verifichi, a proposito dell’Esempio 1.8, che se

R ≤ rS0

non si riuscirà mai ad estinguere il debito!

Esercizio 1.3. Due sostanze radioattive (instabili) presenti inizialmente in quantità


Y0 e X0 , ogni anno decadono secondo il seguente schema:
• una frazione pY , 0 < pY < 1, del materiale denotato con Y si trasforma nel
secondo materiale X;
• una frazione pX , 0 < pX < 1, del materiale denotato con X si trasforma in
materiale inerte.
Individuare un sistema di due equazioni che descriva in forma ricorsiva le quantità
Yk+1 e Xk+1 delle due sostanze radioattive dopo k + 1 anni.

Esercizio 1.4 (Ammortamento uniforme). Un prestito di importo S viene rim-


borsato in n rate a quote capitale costanti di importo C, cioè C = S/n. Si fornisca
un’equazione ricorsiva che esprima la k-esima quota interessi Ik calcolata al tasso
costante r sul debito residuo Dk , ricordando che Dk+1 = Dk − C. Se ne calcoli poi
l’espressione in forma chiusa (Dk come funzione della sola k).

Esercizio 1.5 (Ammortamento progressivo). Un prestito di importo S viene


restituito in n rate costanti annue di importo R in cui l’interesse è calcolato al tasso
costante r sul debito residuo Dk , la prima delle quali viene versata un anno dopo
l’erogazione del prestito. Determinare l’espressione ricorsiva per la quota capitale
Ck e la quota interessi Ik .

Esercizio 1.6. Si deposita oggi (k = 0) una somma S in un conto corrente ban-


cario. Sapendo che gli interessi vengono calcolati ad un tasso annuo r in regime
di capitalizzazione composta e che la banca addebita a titolo di rimborso spese un
importo annuo pari a C, fornire, nell’ipotesi che non avvengano altre operazioni,
l’espressione ricorsiva dell’ammontare presente sul conto dopo k + 1 anni.

Esercizio 1.7. Un investimento finanziario di capitale iniziale C0 dopo un nume-


ro di giorni gg vale Cgg , cioè dà un ritorno percentuale pari a 100 (Cgg − C0 ) /C0 .
Si determini il tasso interno di rendimento annuo composto s, cioè la soluzione
dell’equazione (vedi l’Esempio 1.6)

Cgg = (1 + s/100)gg/365 C0 .

Il calcolo di s consente di confrontare l’investimento in esame con l’acquisto di uno


zero coupon bond , cioè un titolo a tasso fisso e privo di cedole.

Esercizio 1.8. Con riferimento al caso del decadimento radioattivo (Esempio 1.11),
assegnata una frazione r, 0 < r < 1 , di particelle che decadono nell’unità di tempo,
confrontare la vita media m (r) ed il tempo di dimezzamento d (r) al variare di r.
22 1 Fenomeni ricorsivi ed equazioni alle differenze

Esercizio 1.9. Un bambino dopo aver costruito una torre di k cubi li vuole riporre
nella cesta dei giochi. A questo scopo, li prende uno o due alla volta.
Descrivere con una equazione ricorsiva il numero dei modi differenti coi quali può
essere completata l’operazione.
Esercizio 1.10 (Problema della torre di Hanoi (Lucas8 , 1883)). Tre pioli so-
no allineati sul terreno. Sul piolo di sinistra sono impilati dischi di raggio differente
a partire da quello di raggio maggiore come illustrato dalla Fig. 1.6.
Si chiede di determinare la relazione che sussiste tra il numero minimo di mosse
Yk necessarie a spostare i dischi sul piolo di destra quando i dischi sono k ed Yk+1
numero minimo di mosse per effettuare la medesima operazione nel caso di k + 1
dischi. Una mossa equivale allo spostamento di un disco da un piolo all’altro e non
è possibile impilare alcun disco sopra uno di raggio inferiore.

Fig. 1.6. Torre di Hanoi

Esercizio 1.11. Nel problema posto dall’esercizio precedente, si aggiunga il divieto


di spostare i dischi direttamente dal piolo di sinistra a quello di destra e si calcoli il
numero minimo di mosse per spostare tutti i dischi in questa situazione.
Esercizio 1.12. Ciascuno dei tre lati di misura unitaria di un triangolo equilatero
viene suddiviso in k parti uguali; se si congiungono i punti così individuati mediante
linee parallele ai lati si individuano Xk triangoli equilateri il cui lato è pari ad 1/k.
Determinare una relazione ricorsiva che lega Xk+1 ad Xk .
Esercizio 1.13. Studiare graficamente il modello della ragnatela (Esempio 1.10)
nell’ipotesi
d a+c
= 0, 9 = 2.
b b
Si osservi che il disegno ottenuto suggerisce una spiegazione del nome di tale modello.

 Determinare
Esercizio 1.14. una formula ricorsiva per i coefficienti An dello svi-
luppo in serie +∞ n
n=0 An x di una soluzione y delle seguenti equazioni differenziali
del secondo ordine (x ∈ R):
 
equazione di Bessel x2 y + xy + x2 − k2 y = 0
equazione di Hermite y − 2xy + 2ky = 0
equazione di Laguerre xy + (1 − x) y + ky = 0
  
equazione di Legendre 1 − x2 y + k (k + 1) y = 0
8
François Edouard Anatole Lucas, 1842-1891.
1.4 Esercizi di riepilogo 23

dove k ∈ N è un assegnato parametro ed y , y denotano rispettivamente le derivate


prima e seconda di y rispetto ad x.

Esercizio 1.15. Discretizzare con il metodo di Eulero implicito le seguenti equazioni


differenziali:
(1) y  = xy x0 = 0
(2) y = ay (1 − y) x0 = 0

Esercizio 1.16. Discretizzare con metodi alle differenze finite le seguenti equazioni
differenziali alle derivate parziali:

∂2 u ∂2 u
a) equazione di Laplace 2
+ =0
∂x ∂y2
∂2 v ∂2v
b) equazionedi D’Alembert 2
− =0
∂t ∂x2
Esercizio 1.17 (Equazione di Black & Scholes). L’equazione differenziale
1 2 2
vt + σ x vxx + rxvx − rv = 0
2
nell’incognita v = v (x, t), con σ (volatilità) ed r (tasso d’interesse bancario)
parametri noti, si dice equazione di Black & Scholes. Risolvere tale equazione dif-
ferenziale consente di determinare il prezzo v di particolari strumenti finanziari de-
rivati (ad esempio, opzioni, contratti forward, futures) al tempo t e per un certo
valore x del prodotto finanziario sottostante (obbligazioni, azioni, materie prime,
indici finanziari).
Ad esempio, è importante risolvere il seguente problema per una singola opzione
d’acquisto (call ):

⎪ 1

⎪ vt + σ2 x2 vxx + rxvx − rv = 0 x > 0, 0 < t < T

⎪ 2

v (0, t) = 0 0<t<T


⎪ v (x, t) ∼ x
⎪ se x → +∞


v (x, T ) = max (x − E, 0)

ove E indica il prezzo di esercizio (strike price) previsto dal contratto. Si noti che
tale problema è un problema all’indietro: assegnato v (x, T ), con T > 0, si cercano
v (x, 0) prezzo del contratto al tempo 0 e la quantità − ∂v∂x
(x, 0) (indicata con Δ)
di grande importanza per equilibrare rispetto al rischio il portafoglio dell’istituto
finanziario (writer ) che emette il contratto.
Provare che con le trasformazioni

x = E ey ; t = T − 2τ /σ2 ; v (x, t) = E w (y, τ ) (1.21)

w (y, τ ) = eαy+βτ u (y, τ ) (1.22)


e con opportune scelte dei parametri α, β, il problema si traduce nell’equazione (vedi
Esempio 1.21) del calore in avanti (cioè con dato iniziale per t = 0) che è risolvibile
mediante le tecniche del paragrafo 5.8.
2
Equazioni alle differenze lineari

In questo capitolo sono esposte alcune tecniche di soluzione per equazioni alle
differenze lineari ad uno o più passi che descrivono delle grandezze incognite
che sono scalari, cioè numeri. Il caso non lineare e il caso vettoriale saranno
affrontati rispettivamente nei Capitoli 3, 4 e 5, 6.
Nel caso scalare lineare, la particolare struttura dell’insieme delle soluzioni
consente di dare una completa caratterizzazione di tali soluzioni. Questo vale,
come vedremo nel Capitolo 5, anche nel caso vettoriale, mentre nel caso non
lineare questo non è possibile.

2.1 Equazioni lineari ad un passo a coefficienti costanti


Definizione 2.1. Se a è una fissata costante (reale o complessa), si dice equa-
zione alle differenze (finite) lineare omogenea, del primo ordine, a
coefficienti costanti, l’insieme di infinite relazioni

Xk+1 = aXk ∀ k ∈ N. (2.1)

L’equazione precedente si dice lineare omogenea perché il secondo membro è


una funzione lineare di Xk , del primo ordine perché corrisponde ad una re-
lazione che lega solo due valori consecutivi della successione X, a coefficienti
costanti perché a non dipende da k.
La (2.1) regola fenomeni di “crescita” secondo una progressione geometrica di
ragione a: si vedano gli Esempi 1.6, 1.11, 1.12 e l’Esercizio 2.13.
Mediante sostituzioni successive, dalla (2.1) otteniamo la lista di relazioni:

X1 = aX0
X2 = aX1 = a2 X0
··· = ...
Xk−1 = aXk−2 = ak−1 X0
Xk = aXk−1 = ak X0
che conducono all’enunciato successivo.
E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione
UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_2, © Springer-Verlag Italia 2014
26 2 Equazioni alle differenze lineari

Teorema 2.2. Per ogni condizione iniziale X0 la (2.1) ammette l’unica solu-
zione:
Xk = ak X0 k ∈ N. (2.2)

Prova. Proviamo la correttezza della relazione (2.2) per induzione.


Se k = 1, la (2.2) è banalmente soddisfatta; supponiamo ora che per un indice fissato
k ≥ 1, valga Xk = ak X0 . Ne segue:

ipotesi di induzione
Xk+1 = aXk =
  proprietà delle potenze
= a ak X0 =
= ak+1 X0

cioè la successione (2.2) soddisfa la relazione (2.1) anche per k + 1: dal principio di
induzione segue la tesi. 
Esempio 2.3. Consideriamo una popolazione la cui evoluzione è descritta dal
modello di Malthus Xk+1 = τ Xk (si veda l’Esempio 1.12). Tale popolazione,
partendo da un valore iniziale X0 , al tempo k raggiunge il valore
Xk = τ k X0 . 

Un “modello di crescita” più lenta (si vedano gli Esempi 1.4, 1.5) è quel-
lo ad incrementi additivi costanti, tipica dell’andamento di una progressione
aritmetica:
Xk+1 = Xk + b ∀k ∈ N, b ∈ R
la cui soluzione è data da Xk = X0 + kb, come si verifica facilmente.
I due tipi di evoluzione appena illustrati sono casi particolari di equazioni
lineari affini.
Definizione 2.4. Se a e b sono fissate costanti con a = 0, si dice equazio-
ne alle differenze lineare affine, del primo ordine, a coefficienti
costanti, l’insieme di relazioni nell’incognita X

Xk+1 = aXk + b ∀k ∈ N (2.3)

Si dice equilibrio dell’equazione (2.3) ogni eventuale soluzione dell’equazione


algebrica
x ∈ R : (a − 1) x + b = 0 .
È naturale la scelta del termine equilibrio, perché una eventuale successione
costante che assuma tale valore è anche una soluzione di (2.3).
Ricordiamo che l’equazione alle differenze (2.3) corrisponde ad infinite equa-
zioni algebriche che debbono essere verificate contemporaneamente.
Spesso si usano i termini traiettoria o orbita come sinonimi di soluzione di
(2.3) perché i valori di una successione hanno la naturale interpretazione di
posizioni raggiunte dal sistema descritto dall’equazione alle differenze.
2.1 Equazioni lineari ad un passo a coefficienti costanti 27

Teorema 2.5. Per ogni valore iniziale X0 ∈ R , l’equazione alle differenze


(2.3) ha un’unica soluzione X = {Xk }. L’espressione esplicita di tali soluzio-
nidifferisce a seconda che il coefficiente a sia o non sia l’unità:

1)

se a = 1 allora Xk = X0 + kb k∈N

e in tal caso

(i) se b = 0, non esiste alcun equilibrio e tutte le traiettorie sono


divergenti;
(ii) se b = 0, allora tutti i valori sono di equilibrio e tutte le traiettorie
sono costanti;

2)

se a = 1 allora Xk = (X0 − α) ak + α k∈N (2.4)

ove α è l’unico equilibrio: α = b/ (1 − a); inoltre, in tal caso:

(i) se |a| < 1, allora lim Xk = α (infatti lim ak = 0, dunque tutte le


k k
traiettorie convergono ad α);  
(ii) se |a| > 1, allora lim |Xk | = +∞ (infatti lim ak  = +∞, e tutte le
k k
traiettorie corrispondenti sono divergenti, salvo quella (costante)
corrispondente a X0 = α);
(iii) se a = −1, allora l’equilibrio è α = b/2, e tutte le soluzioni oscil-
lano attorno a tale equilibrio:

X2k = X0 k∈N

X2k+1 = b − X0 k∈N .

Dunque, nel caso a = −1, tra le soluzioni vi è un’unica traiettoria costante


(se X0 = α = b/2) ed infinite traiettorie periodiche (se X0 = b/2):

se a = −1 allora:

X2k = X0
2k+1
2k+1 1 − (−1)
X2k+1 = (−1) X0 + b = 2α − X0 = b − X0
2
28 2 Equazioni alle differenze lineari

cioè X è periodica di periodo 2 ed oscilla attorno il valore α = b/2, e in tal


caso le oscillazioni hanno semiampiezza |X0 − α| = |X0 − b/2| .

Prova. L’unico fatto non banale è la rappresentazione esplicita (2.4) relativa al caso
a = 1: può essere provato per induzione, mostrando che la successione (2.4) descrive
una soluzione di (2.3) per ogni dato iniziale X0 , e dall’unicità (a dato iniziale fissato)
segue il fatto che (2.4) descrive tutte le soluzioni al variare di X0 .
È tuttavia interessante ricavare direttamente la formula (2.4) anziché provarne la
validità “a posteriori”, perché la dimostrazione costruttiva consente di comprenderne
meglio il significato. Si tratta di provare che il caso 2) è qualitativamente simile al
caso omogeneo (b = 0, Teorema 2.1) salvo cambiamenti affini di coordinate (in R):
nell’ipotesi a = 1, studiamo le successioni (al variare di X0 )

Zk = Xk − α ∀k ∈ N (2.5)

ove α = b/ (1 − a) è l’equilibrio dell’equazione (2.3). Ricavando Xk da (2.5) e sosti-


tuendo in (2.3), si ottiene

Zk+1 + α = a (Zk + α) + b

b ab
Zk+1 + = aZk + +b
1−a 1−a
Zk+1 = aZk
la cui soluzione, dedotta dal Teorema 2.2, Zk = ak Z0 , sostituita nella (2.5) dà infine

b b
Xk = Zk + α = ak (X0 − α) + α = ak X0 − + . 
1−a 1−a

Le Fig. 2.1 e 2.2 descrivono l’andamento qualitativo delle traiettorie nei casi
discussi nel Teorema 2.5

Osservazione 2.6. Nel caso a = 1, l’espressione (2.4) mostra che la distanza


|Xk − α| tra il k-esimo termine di X ed il valore di equilibrio è un fissato
multiplo del k-esimo termine della progressione geometrica di ragione |a|:
k
|Xk − α| = |X0 − α| |a| .

Dunque, se |a| < 1, si ottiene una stima della buona rapidità di convergen-
za all’equilibrio e del miglioramento della maggiorazione dell’errore a ciascun
passo:
|Xk+1 − α| = |Xk − α| |a| .

Esempio 2.7. Nell’Esempio 1.8, se si suppone che r = 0, poiché l’equilibrio


è R/r, dalla (2.4) segue
  k
R k R k (1 + r) − 1
Sk = S0 − (1 + r) + = (1 + r) S0 − R. 
r r r
2.1 Equazioni lineari ad un passo a coefficienti costanti 29

Xk+1 Xk

a=2
b = −1

Xk k

Xk+1 Xk

a=1
b=3

Xk k

Xk+1 Xk

a = 12
b=1

Xk k

Fig. 2.1. Soluzione grafica di (2.3) con a = 2, 1, 1/2, b = −1, 3, 1


30 2 Equazioni alle differenze lineari

Xk+1 Xk

a = − 12
b=5

Xk k

Xk+1 Xk

a = −1
b=5

Xk k

Xk+1 Xk

a = −2
b=6

Xk k

Fig. 2.2. Soluzione grafica di (2.3) con a = −1/2, −1, −2, b = 5, 5, 6


2.2 Equazioni lineari ad n passi a coefficienti costanti 31

Esempio 2.8 (Modello della Ragnatela). Riprendiamo l’Esempio 1.10 del


modello domanda-offerta. Se il livello dei prezzi segue la relazione ricorsiva
d a+c
Pk+1 = − Pk + a, b, c, d > 0
b b
allora −d/b < 0. Poiché l’equilibrio del modello è
a+c
α=
b+d
assegnato un livello iniziale dei prezzi P0 , per la (2.4) l’espressione in forma
chiusa del livello del prezzo di equilibrio al tempo k risulta
 k  
d a+c a+c
Pk = − P0 − + k ∈ N.
b b+d b+d

Si noti che la negatività del termine −d/b implica che il comportamento del
prezzo sarà sempre oscillante, e il fatto che ci sia convergenza o meno dipende
dal rapporto fra le pendenze delle curve di domanda e di offerta.
In particolare, se d < b allora i valori Pk dei prezzi convergeranno rapidamen-
te all’equilibrio α per k → +∞. Se d > b non si avrà una stabilizzazione del
prezzo. 

Esercizio 2.1. Date le seguenti equazioni lineari a coefficienti costanti



Xk+1 = Xk − 1
1
Xk+1 = Xk + 2 Xk+1 = 4Xk − 1
(1) (2) 3 (3) 1
X0 = 0 X0 = 1 X0 =
4

1
Xk+1 = − Xk + 3 Xk+1 = −Xk + 1 Xk+1 = −3Xk + 5
(4) 5 (5) (6)
X0 = 3 X0 = 2 X0 = 1

i) determinarne la soluzione in forma chiusa;


ii) studiare il comportamento asintotico della soluzione;
iii) disegnare il grafico a ragnatela e l’andamento della soluzione.

Esercizio 2.2. Ricavare le tesi del Teorema 2.5 iterando la (2.3) a partire da un
dato iniziale X0 .

2.2 Equazioni lineari ad n passi a coefficienti costanti

In questo paragrafo vediamo come sia possibile fornire una descrizione com-
pleta delle soluzioni per le equazioni lineari a coefficienti costanti anche nel
caso a più passi. A questo scopo è utile premettere alcune definizioni.
32 2 Equazioni alle differenze lineari

Definizione 2.9. La somma di due successioni F e G è la successione H il


cui generico elemento Hk è ottenuto come somma dei corrispondenti elementi
delle due successioni: Hk = Fk + Gk . Scriveremo H = F + G.

Definizione 2.10. Il prodotto di una successione F per una costante


complessa α è la successione W i cui elementi si ottengono moltiplicando
per α gli elementi corrispondenti di F : Wk = αFk . Notazione: W = αF.

Definizione 2.11. Due successioni F e G si dicono linearmente dipenden-


ti se esistono due costanti α e β, non entrambe nulle, tali che αF +βG è la suc-
cessione identicamente nulla. In caso contrario F e G si dicono linearmente
indipendenti.
Analogamente, n successioni F j , j = 1, 2, . . ., n, si dicono linearmen-
te dipendenti se esistono n costanti α1 , α2, . . . , αn non tutte nulle tali che
 n 1 2
j=1 αj F è la successione identicamente nulla (cioè α1 Fk + α2 Fk + · · · +
j

αn Fk = 0 , ∀k).
n

L’insieme delle successioni a valori complessi, dotato delle due operazioni sopra
introdotte, è uno spazio vettoriale di dimensione infinita. Questo significa
che la somma di (un numero finito) successioni o il prodotto di una succes-
sione per una costante sono ancora successioni, e che, comunque si scelga un
intero positivo n, è possibile trovare n successioni linearmente indipendenti.

Definizione 2.12. Assegnate n costanti a0 , a1 , . . . , an−1 con a0 = 0, si dice


equazione alle differenze, lineare omogenea, di ordine n, a coeffi-
cienti costanti, il sistema di infinite relazioni

Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = 0 ∀k ∈ N

(2.6)

L’espressione equazione ad n passi sarà usata come sinonimo di equazione


di ordine n.

Teorema 2.13 (Principio di sovrapposizione). Se X ed Y sono soluzioni


di (2.6), allora anche X + Y e cX sono soluzioni per ogni costante c.
Dunque, l’insieme delle soluzioni di (2.6) è uno spazio vettoriale.
Prova. Si ottiene per semplice sostituzione in (2.6). 

Il teorema precedente suggerisce l’opportunità di cercare “un numero suffi-


ciente di soluzioni” che formino una base per lo spazio delle soluzioni.
Per analogia con il caso delle equazioni lineari a coefficienti costanti del primo
ordine, si possono cercare soluzioni dell’equazione omogenea (2.6) del tipo

Xk = cλk , c = 0, λ = 0.
2.2 Equazioni lineari ad n passi a coefficienti costanti 33

Se una tale successione risolve (2.6), si ottiene per sostituzione:


 
λk λn + an−1 λn−1 + · · · + a1 λ + a0 = 0 ∀k ∈ N

cioè λ deve essere soluzione di

λn + an−1 λn−1 + · · · + a1 λ + a0 = 0.

Vedremo che tutte le soluzioni di (2.6) possono essere ottenute a partire da


queste.
Queste considerazioni giustificano le seguenti definizioni.
Definizione 2.14. Si dice polinomio caratteristico, indicato con P (λ),
associato all’equazione omogenea (2.6) il seguente polinomio di grado n nella
variabile λ:

P (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0

L’equazione

λ∈C: P (λ) = 0 (2.7)

si dice equazione caratteristica associata all’equazione omogenea.


Per il Teorema fondamentale dell’Algebra, l’equazione (2.7) ha esattamente n
soluzioni nel campo complesso: λ1 , . . . , λn (ciascuna di esse si intende contata
con la sua molteplicità). Anche se le costanti a0 , a1 , . . . , an−1 sono tutte reali
una o più radici λj possono essere complesse.
Teorema 2.15. L’equazione (2.6) ammette infinite soluzioni. Fra tali solu-
zioni se ne possono determinare n linearmente indipendenti; inoltre l’insieme
delle soluzioni della (2.6) è un sottospazio di dimensione n dello spazio delle
successioni.
Se λ è una soluzione semplice (cioè di molteplicità 1) dell’equazione caratte-
ristica (2.7), ad essa è associata una soluzione dell’equazione alle differenze
della forma

Fk = λk

Se λ è una soluzione dell’equazione caratteristica di molteplicità m, ad essa


sono associate le m soluzioni linearmente indipendenti

Fk0 = λk , Fk1 = kλk , Fk2 = k 2 λk , . . . Fkm−1 = k m−1 λk (2.8)


34 2 Equazioni alle differenze lineari

Tutte le soluzioni dell’equazione alle differenze (2.6) sono combinazioni lineari


di tali soluzioni.

Nel caso in cui i coefficienti aj dell’equazione (2.6) sono tutti reali, i risultati
contenuti nel Teorema 2.15 possono essere ulteriormente precisati: in partico-
lare ha interesse scrivere le soluzioni di (2.6) in forma reale anche se alcune
radici del polinomio caratteristico sono complesse.
Più precisamente: se a0 , a1 , . . . , an−1 sono reali e λ = a + ib è soluzione della
(2.7), con a e b reali e b diverso da 0, allora anche λ = a−ib è soluzione e a tale
coppia di soluzioni sono associate le due soluzioni linearmente indipendenti in
forma reale
Fk = ρk cos (θk) Gk = ρk sin (θk)

dove ρ è il modulo e θ è l’argomento di a + ib:


 a b
ρ = a2 + b 2 cos θ = √ sin θ = √ .
a + b2
2 a2 + b2
L’affermazione precedente si ottiene scrivendo in forma reale l’espressione se-
guente:
k k
c1 (a + ib) + c2 (a − ib) a, b ∈ R.
Precisamente, se a + ib = ρ (cos θ + i sin θ) , allora:

k k per la formula di De Moivre


(a + ib) = ρk (cos θ + i sin θ) =
= ρk (cos (θk) + i sin (θk)) .

Procedendo allo stesso modo su (a − ib)k , si può concludere che per ogni scelta
di c1 e c2 esistono due costanti 
c1 e 
c2 dipendenti da c1 , c2 e k, tali che
k k
c1 (a + ib) + c2 (a − ib) = 
c1 ρk cos (θk) + 
c2 ρk sin (θk) .
!
Si noti che, grazie
! alla formula di De Moivre, le due successioni ρk cos (θk)
e ρk sin (θk) generano, mediante combinazioni lineari a coefficienti in C, lo
stesso spazio bidimensionale di"successioni
# a valori complessi generato dalle
! k
combinazioni lineari di λk e λ .
Analogamente, se λ = a + ib è una soluzione complessa della (2.7) di molte-
plicità m ed a0 , a1 . . . , an−1 sono reali, allora ad essa e alla soluzione λ =
a − ib , pure di molteplicità m, sono associate le 2m soluzioni linearmente
indipendenti

Fk0 = ρk cos (θk) , Fk1 = kρk cos (θk) , . . . , Fkm−1 = k m−1 ρk cos (θk)

G0k = ρk sin (θk) , G1k = kρk sin (θk) , . . . , Gm−1


k = k m−1 ρk sin (θk)
2.2 Equazioni lineari ad n passi a coefficienti costanti 35

Prova del Teorema 2.15. Ad ogni n-upla di dati iniziali X0 , X1 , . . . , Xn−1 corri-
sponde una ed una sola soluzione ottenibile calcolando iterativamente i valori Xk .
Poiché ogni n-upla di dati iniziali si ottiene come combinazione lineare delle n scelte
di dati iniziali fra loro linearmente indipendenti

1, 0, 0, . . . 0, 0
0, 1, 0, . . . 0, 0
0, 0, 1, . . . 0, 0
...
0, 0, 0, . . . 0, 1

e, per il principio di sovrapposizione delle soluzioni, le combinazioni lineari di solu-


zioni di (2.6) sono ancora soluzioni, concludiamo che l’insieme di tutte le soluzioni è
un sottospazio di dimensione n dello spazio delle successioni. Si osservi che nessuna
radice del polinomio caratteristico P è nulla perché a0 = 0. Dunque tutte le n suc-
cessioni elencate nelle cornici sono non banali. Resta da provare che sono soluzioni
e che sono tra loro linearmente indipendenti.
Sia λ una soluzione dell’equazione caratteristica P (μ) = 0. Allora, sostituendo λk
al posto di Xk nel primo membro dell’equazione (2.6), si ottiene

λk+n + an−1 λk+n−1 + · · · + a0 λk = λk P (λ) (2.9)

che è nullo per ipotesi. Dunque, Xk = λk è una soluzione di (2.6).


Osserviamo che se λ è radice di molteplicità m > 1 dell’equazione P (μ) = 0, allora1

P (λ) = P  (λ) = · · · = P (m−1) (λ) = 0 . (2.10)


Sia λ una soluzione di molteplicità 2 dell’equazione caratteristica. Allora, sostituendo
kλk al posto di Xk nel primo membro della (2.6), si ottiene

(k + n) λk+n +(k + n − 1) an−1 λk+n−1 +· · ·+a0 kλk = kλk P (λ)+λk+1 P  (λ) (2.11)

dato che
P  (λ) = nλn−1 + (n − 1) an−1 λn−2 + · · · + 2a2 λ + a1 .
Poiché, per la (2.10), P (λ) = P  (λ) = 0, dalla (2.11) segue che kλk è soluzione di
(2.6).
Sia ora λ radice di molteplicità m ≥ 2 dell’equazione caratteristica. Fissato n, per
1 ≤ h ≤ m definiamo

Qh,k (μ) = (k + n)h−1 μk+n + (k + n − 1)h−1 an−1 μk+n−1 + · · · + kh−1 a0 μk =


n
= (k + s)h−1 as μk+s .
s=0

Qh,k (μ) è il polinomio nella variabile μ di grado minore o uguale a k + n che si


ottiene sostituendo kh−1 μk al posto di Xk nel primo membro della (2.6).
1
Infatti, se λ è radice di molteplicità h dell’equazione P (μ) = 0, si può scrivere:

P (μ) = (μ − λ)h Q (μ)

con Q polinomio di grado n − h in μ, e derivando si ottiene la (2.10).


36 2 Equazioni alle differenze lineari

Se Qh,k è esprimibile come combinazione lineare di P e delle sue derivate successive


fino all’ordine h − 1 con coefficienti che sono polinomi in μ di grado minore o uguale
a k (si noti che la (2.11) ci dice che ciò è vero se m = 2), cioè se


h−1
Qh,k (μ) = cj,k (μ) P (j) (μ) con grado cj,k ≤ k, (2.12)
j=0

allora da (2.10) segue Qh,k (λ) = 0, dunque kh−1 λk è una soluzione di (2.6) per ogni
1 ≤ h ≤ m.
Proviamo la (2.12), ragionando per induzione sull’indice h.
Se h = 1, la tesi è vera dato che la (2.9) si scrive come

Q1,k (μ) = μk P (μ) ∀k ∈ N.

Supponiamo ora che esista un intero 1 ≤ h < m per cui (2.12) è vera. Allora, per
ogni k, otteniamo:


n
n
Qh+1,k (μ) = (k + s)h as μk+s = (k + s)h−1 as (k + s) μk+s =
s=0 s=0
d  k+s  d
n n
= (k + s)h−1 as μ μ =μ (k + s)h−1 as μk+s =
s=0
dμ dμ s=0

d per l’ipotesi di induzione


=μ Qh,k (μ) =


h−1 
=μ cj,k (μ) P (j+1) (μ) + cj,k (μ) P (j) (μ) =
j=0


h
= cj,k P (j) (μ)

j=0

 
avendo posto cj,k = μ cj−1,k (μ) + cj,k (μ) . Quindi anche Qh+1,k (μ) si esprime co-
me combinazione lineare di P e delle sue derivate successive fino all’ordine h con
coefficienti che sono polinomi in μ di grado minore o uguale a k.
Rimane da provare l’indipendenza lineare delle soluzioni trovate.
Nel caso di n radici distinte λ1 , . . . , λn basterà provare l’indipendenza lineare dei
primi n valori delle successioni, cioè
⎡ ⎤
1 λ1 λ21 . . . λn−1
1
⎢ 1 λ2 λ22 . . . λn−1 ⎥
⎢ 2 ⎥
det ⎢ . . . . . ⎥ = 0
⎣ .. .. .. . . .. ⎦
1 λn λ2n . . . λn−1
n

disuguaglianza vera se λj sono distinti perché tale determinante (determinante di


Vandermonde2 ) vale

(λn − λn−1 ) (λn − λn−2 ) · · · (λn − λ1 ) (λn−1 − λn−2 ) · · · (λn−1 − λ1 ) · · · (λ2 − λ1 ) .


2
Alexandre-Théophile Vandermonde, 1735-1796.
2.2 Equazioni lineari ad n passi a coefficienti costanti 37

Se λ è radice di molteplicità m nell’equazione caratteristica e c1 , c2 , . . . , cm sono


costanti reali tali che
c1 λk + c2 kλk + c3 k2 λk + · · · + cm km−1 λk = 0 k∈N

allora deve anche valere

c1 + c2 k + c3 k2 + · · · + cm km−1 = 0 k∈N

e dal principio di identità dei polinomi segue c1 = c2 = · · · = cm = 0.


Omettiamo i dettagli nel caso in cui siano contemporaneamente presenti radici sem-
plici e multiple. 

Riassumendo, il Teorema 2.15 consente di costruire n soluzioni linearmente


indipendenti: infatti, le radici (contate con la loro molteplicità) del polinomio
caratteristico di un’equazione alle differenze di ordine n sono esattamente n,
grazie al Teorema fondamentale dell’Algebra.
Tutte le soluzioni dell’equazione (2.6) sono combinazioni lineari delle n solu-
zioni linearmente indipendenti elencate nelle cornici del Teorema 2.15. Una
tale combinazione è detta soluzione generale di (2.6) perché al variare dei
coefficienti si ottengono tutte le soluzioni. Precisamente, per ogni scelta dei
dati iniziali X0 , X1 , . . . , Xn−1 si determina un’unica scelta di tali coefficienti
e di conseguenza un’unica soluzione.

Esempio 2.16. All’equazione alle differenze

Xk+3 − 4Xk+2 + 5Xk+1 − 2Xk = 0


si associa l’equazione caratteristica λ3 − 4λ2 − 5λ − 2 = 0 che si fattorizza in
2
(λ − 1) (λ − 2) = 0.
Dunque, abbiamo la radice semplice 2 e la radice doppia 1. La soluzione
generale dell’equazione alle differenze è

Xk = c1 2k + c2 + c3 k k∈N

dove c1 , c2 e c3 sono costanti arbitrarie.


Se all’equazione alle differenze si aggiungono le condizioni iniziali X0 = 0,
X1 = 1 e X2 = 0, per sostituzione, si ottiene il sistema:
⎧ ⎧
⎨ c1 + c2 = 0 ⎨ c1 = −2
2c1 + c2 + c3 = 1 equivalente a c2 = 2
⎩ ⎩
4c1 + c2 + 2c3 = 0 c3 = 3

da cui Xk = −2k+1 + 3k + 2. 

Esempio 2.17. L’equazione



Ck+1 = Ck + Ck−1 k ∈ N\ {0}
C0 = 0, C1 = 1
38 2 Equazioni alle differenze lineari

che descrive ricorsivamente i numeri di Fibonacci (si veda l’Esempio 1.10) è


lineare, a coefficienti costanti, del secondo ordine. Il polinomio caratteristico
λ2 − λ − 1 ammette le radici
√ √
1+ 5 1− 5
λ1 = λ2 = ;
2 2
k k
dunque, la soluzione generale è data da Ck = c1 (λ1 ) + c2 (λ2 ) . Inoltre
√ √
1+ 5 1− 5
C0 = c1 + c2 = 0, C 1 = c1 + c2 =1
2 2
√ √
da cui segue c1 = +1/ 5, c2 = −1/ 5. Riassumendo:

$ √ %k $ √ %k
1 1+ 5 1 1− 5
Ck = √ − √ k∈N
5 2 5 2

Osserviamo che da  
 1 − √5 
 
|λ1 | =  <1
 2 

segue lim λk1 = 0 e quindi


k

Ck+1 λk+1
2 1+ 5
lim = lim k = λ2 = .
k Ck k λ2 2

Inoltre, ricordando che tutti i numeri di Fibonacci sono interi, da


 
 1 k 1
 √ λ1  <
 5  2

segue che Ck è l’intero più vicino a √1 λk o, se si preferisce, è la parte intera


5 2
di √15 λk2 + 12 . 

Esempio 2.18. Risolviamo l’equazione Xk+2 + Xk = 0 con le condizioni ini-


ziali X0 = 0, X1 = 1.
Primo metodo: si tratta di una equazione alle differenze lineare, a coefficienti
costanti, del secondo ordine, omogenea. L’equazione caratteristica λ2 + 1 =
0 ammette le due radici complesse coniugate λ1,2 = ±i e così la soluzione
generale dell’equazione considerata è

k
Xk = c1 ik + c2 (−i) k ∈ N.
2.2 Equazioni lineari ad n passi a coefficienti costanti 39

Imponendo le condizioni iniziali, otteniamo



0 = X0 = c1 + c2 c1 = −i/2
ossia
1 = X1 = ic1 − ic2 c2 = i/2
Secondo metodo: la formulazione reale (equivalente) della soluzione generale
è
Xk = d1 cos (kπ/2) + d2 sin (kπ/2) k∈N
ottenuta da |i| = |−i| = 1, π/2 = arg (i). Sostituendo i dati iniziali, si ottiene
Xk = sin (kπ/2).
Terzo metodo: si può osservare che i termini di indice pari e dispari sono
disaccoppiati. Posto:
Yk = X2k Zk = X2k+1
si ottiene
Yk+1 + Yk = 0 Zk+1 + Zk = 0
k k
Yk = (−1) Y0 Zk = (−1) Z0
k k
X2k = (−1) X0 X2k+1 = (−1) X1 .
k
Sostituendo i dati iniziali X2k = 0, X2k+1 = (−1) , ∀k. 

Consideriamo l’equazione alle differenze lineare, ad n passi, non omo-


genea

Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = b ∀k ∈ N

con b costante fissata, a0 , a1 , . . . , an−1 costanti assegnate, a0 = 0.


La soluzione generale Xk è data dalla somma della soluzione generale del pro-
blema omogeneo (2.6) più un termine del tipo ak m ove m è la molteplicità
dell’eventuale radice 1 del polinomio caratteristico (si pone m = 0 se 1 non è
radice) e a è una costante da determinarsi mediante sostituzione.
Esempio 2.19. Consideriamo l’equazione alle differenze
Xk+2 − 2Xk+1 + Xk = 1. (2.13)
L’equazione caratteristica dell’equazione omogenea Xk+2 − 2Xk+1 + Xk = 0
ammette 1 come radice doppia. Cerchiamo allora una soluzione dell’equazione
assegnata della forma
Yk = ak 2
con a costante reale da determinare. Sostituendo l’espressione di Yk in (2.13),
otteniamo: & '
2 2
a (k + 2) + −2 a (k + 1) + ak 2 = 1
cioè, confrontando i coefficienti delle potenze di k, a = 1/2.
40 2 Equazioni alle differenze lineari

1
In conclusione, la soluzione generale di (2.13) è Xk = c1 + c2 k + k 2 . 
2
Per l’analisi di casi più generali, si rimanda ai paragrafi 2.4 e 2.5.
Esercizio 2.3. Discutere, al variare di a e b in R, il comportamento asintotico della
soluzione dell’equazione lineare a due passi omogenea

Xk+2 + aXk+1 + bXk = 0 k ∈ N, b = 0 .

Esercizio 2.4. Determinare la soluzione generale delle seguenti equazioni alle dif-
ferenze:

(1) Xk+2 − 2Xk+1 − 3Xk = 0 (2) Xk+2 − 3Xk+1 + Xk = 0

(3) Xk+3 − Xk+2 + Xk+1 − Xk = 0 (4) Xk+3 + 5Xk+2 + 7Xk+1 + 3Xk = 0

(5) Xk+2 − 2Xk+1 − 3Xk = 2 (6) Xk+3 − Xk+2 + Xk+1 − Xk = −1 .

2.3 Stabilità di equilibri per equazioni ad n passi a


coefficienti costanti
Già nel caso dell’equazione alle differenze lineare ad un passo Xk+1 = aXk + b
abbiamo osservato che gli eventuali equilibri (soluzioni di (1 − a) x = b) pos-
sono avere natura molto diversa: possono “attrarre” le soluzioni corrispon-
denti ad ogni dato iniziale X0 (se |a| < 1), alternativamente “respingerle” (se
|a| > 1). Nel caso a = −1 non le attraggono né le respingono perché le soluzio-
ni sono periodiche; inoltre, se si parte vicino all’equilibrio la soluzione rimane
vicino all’equilibrio. Nel caso a = 1 se b è diverso da zero non vi sono equili-
bri, se b = 0 allora tutti i punti sono di equilibrio, dunque non attraggono, né
respingono, tuttavia hanno una proprietà di “stabilità”.
In questo paragrafo precisiamo la natura di questo tipo di proprietà degli
equilibri nel caso più generale di equazioni lineari a più passi.
Cominciamo con l’analisi di un problema lineare a due passi (a0 = 0)

Xk+2 + a1 Xk+1 + a0 Xk = b k ∈ N. (2.14)

Un equilibrio per una equazione (alle differenze) a due passi lineare a coef-
ficienti costanti è un valore α ∈ R tale che la successione costante Xk = α,
∀k ∈ N, è soluzione di (2.14).
Un equilibrio α si dice attrattivo se, per ogni coppia di dati iniziali X0 e X1 ,
la soluzione corrispondente tende all’equilibrio, cioè

lim Xk = α.
k

Un equilibrio α si dice stabile se a partire da dati iniziali “prossimi” all’equi-


librio si rimane “vicini” all’equilibrio, cioè se per ogni ε > 0 esiste un δ > 0
2.3 Stabilità di equilibri per equazioni ad n passi a coefficienti costanti 41

tale che

|X0 − α| + |X1 − α| < δ ⇒ |Xk − α| < ε ∀k ∈ N.

Poiché α è un equilibrio per (2.14) se e solo se è soluzione dell’equazione

x + a 1 x + a0 x = b

possiamo dedurre che:


• se 1 + a1 + a0 = 0, allora esiste un solo equilibrio α = b/ (1 + a1 + a0 ) per
(2.14);
• se 1 + a1 + a0 = 0 e b = 0, allora ogni α ∈ R è di equilibrio;
• se 1 + a1 + a0 = 0 e b = 0, allora non esistono equilibri.
Se λ1 , λ2 sono le radici del polinomio caratteristico, allora dall’espressione
della soluzione generale, si ricavano le seguenti conclusioni sulla stabilità di
eventuali equilibri:
• α è attrattivo se e solo se |λ1 | < 1 e |λ2 | < 1;
• α è stabile se e solo se entrambe le radici λ1 , λ2 hanno modulo minore o
uguale a 1 e le eventuali radici di modulo 1 sono tutte semplici e, nel caso
b = 0, diverse da 1;
• se α è attrattivo allora è anche stabile.

Consideriamo, in generale, l’equazione alle differenze ad n passi a coefficienti


costanti (a0 = 0)

Xk+n + an−1 Xk+n−1 + an−2 Xk+n−2 + · · · + a0 Xk = b k ∈ N (2.15)

dove a0 , a1 , . . . , an−1 , b sono assegnati numeri reali o complessi.


Definizione 2.20. Un equilibrio per la (2.15) è un numero α cui corrispon-
de la soluzione costante Xk = α.
Sostituendo, per ogni k, Xk = α in (2.15) si giunge facilmente alla conclusione
che:
• se 1 + an−1 + an−2 + · · · + a0 = 0, allora esiste un unico equilibrio:

α = b/ (1 + an−1 + an−2 + · · · + a0 ) ;

• se 1 +an−1 +an−2 +· · ·+a0 = 0, allora se b = 0 ogni α ∈ R è un equilibrio,


se b = 0 non esistono equilibri.
Definizione 2.21. Un equilibrio α di (2.15) si dice equilibrio stabile se per
ogni ε > 0 esiste un δ > 0 tale che


n−1
|Xj − α| < δ ⇒ |Xk − α| < ε ∀k ∈ N
j=0
42 2 Equazioni alle differenze lineari

cioè dati iniziali vicini all’equilibrio generano traiettorie che si mantengono


(uniformemente in k) vicine all’equilibrio. Altrimenti α si dice instabile.
Definizione 2.22. Un equilibrio α di (2.15) si dice equilibrio attrattivo se
per ogni n-upla di dati iniziali X0 , X1 , . . . , Xn−1 , la corrispondente soluzione
X = {Xk } converge ad α, cioè

lim Xk = α.
k

Teorema 2.23. Un equilibrio α dell’equazione lineare (2.15):


1) è attrattivo se e solo se ogni soluzione λ dell’equazione caratteristica ve-
rifica |λ| < 1;
2) è stabile se e solo se ogni soluzione λ dell’equazione caratteristica verifica
|λ| ≤ 1 , eventuali radici di modulo unitario sono semplici e, se b = 0,
diverse da 1;
3) se è attrattivo allora è anche stabile.

Prova. Il cambio di coordinate Yk = Xk − α ci riconduce al sistema omogeneo con


la stessa equazione caratteristica nell’incognita Y :

Yk+n + an−1 Yk+n−1 + an−2 Yk+n−2 + · · · + a0 Yk = 0.

α è stabile (rispettivamente attrattivo) per X se e solo se 0 è stabile (rispettivamente


attrattivo) per Y . Allora 1) e 2) seguono dall’espressione esplicita delle soluzioni

m−1

Yk = cjl kl λkj
λj l=0

ricordando che:  
|λ| < 1 ⇒ lim kl λk = 0
k

 
l ≥ 1 , |λ| = 1 ⇒ lim kl λk  = +∞ .
k

La 3) segue immediatamente da 1) e 2). 


Esempio 2.24. Data l’equazione lineare a due passi

6Xk+2 − 5Xk+1 + Xk = 2

ne determiniamo l’equilibrio e discutiamo la sua stabilità.


Dall’equazione (6 − 5 + 1) α = 2 si ricava α = 1. Le radici dell’equazione
caratteristica 6λ2 − 5λ + 1 = 0 sono λ1 = 1/2 e λ2 = 1/3. Dunque α = 1
risulta stabile e attrattivo. La soluzione generale è Xk = c1 2−k + c2 3−k + 1.
Nella Fig. 2.3 sono riportati i primi valori della soluzione corrispondente alle
condizioni iniziali X0 = 0 e X1 = 2: Xk = 23−k − 32−k + 1. 
2.3 Stabilità di equilibri per equazioni ad n passi a coefficienti costanti 43

Xk

Fig. 2.3. Grafico di Xk = 23−k − 32−k + 1

Xk

1
k

−32

Fig. 2.4. Grafico di Xk = 2k/2−1 (cos (kπ/4) − sin (kπ/4))

Esempio 2.25. Consideriamo l’equazione Xk+2 − 2Xk+1 + 2Xk = 0. L’equi-


librio è α = 0. Le soluzioni dell’equazione
√ caratteristica λ2 − 2λ + 2λ = 0 sono
λ1,2 = 1 ± i. Poiché |λ1,2 | = 2 l’equilibrio è instabile.
La soluzione generale dell’equazione è:
 π   π 
k k
Xk = c1 (1 + i) + c2 (1 − i) = 2k/2 c1 cos k + c2 sin k k ∈ N.
4 4
Se X0 = ε > 0 e X1 = 0, per sostituzione, si ricava c1 = ε e c2 = −ε e,
in accordo a quanto già detto, a partire da tali dati iniziali limk |Xk | = +∞
comunque si scelga ε, purché positivo.
44 2 Equazioni alle differenze lineari

Se si fosse partiti dall’equilibrio X0 = X1 = 0, allora la soluzione si sarebbe


mantenuta costante: Xk = 0 per ogni k. Riportiamo in Fig. 2.4 l’andamento
della soluzione particolare corrispondente ai dati iniziali X0 = 1, X1 = 0. 

Esempio 2.26. Consideriamo l’equazione Xk+3 + Xk = 0.


L’equilibrio è α = 0 e le soluzioni dell’equazione caratteristica λ3 +1 = 0 sono

1±i 3 π π
λ1 = −1 λ2,3 = = cos + i sin .
2 3 3
Dunque |λj | = 1 con radici distinte: l’equilibrio α è stabile ma non attrattivo.
k
La soluzione generale Xk = c1 (−1) + c2 cos (kπ/3) + c3 sin (kπ/3) è somma
di un primo termine 2 periodico e di due termini 3 periodici, pertanto Xk ri-
sulta essere periodica di periodo 6. Riportiamo in Fig. 2.5 l’andamento della
soluzione particolare corrispondente ai dati iniziali X0 = 1, X1 = 0 e X2 = 2.

Esempio 2.27. Consideriamo l’equazione 5Xk+2 − 8Xk+1 + 5Xk = 0. L’equi-


librio è α = 0. Le soluzioni dell’equazione caratteristica 5λ2 − 8λ + 5 = 0 sono
4 3
λ1,2 = ± i , distinte ed entrambe di modulo 1. Dunque α è stabile ma non
5 5    
è attrattivo. La soluzione generale Xk = c1 cos θk  + c2 sin θk  dove θ è
l’unico angolo in (0, π/2) espresso in radianti che risolve cos θ = 4/5, oscilla
attorno all’equilibrio, ma non è periodica. Infatti, l’angolo θ = arccos (4/5)
non è un sottomultiplo di 2π. 

Per riassumere il senso generale degli ultimi due esempi, osserviamo che nei
casi in cui sono presenti soluzioni dell’equazione caratteristica di forma λ1,2 =
cos θ ± i sin θ, allora la soluzione generale contiene termini del tipo

Zk = c1 cos (θk) + c2 sin (θk) . (2.16)

Xk

1

2


2 3
Fig. 2.5. Grafico di Xk = (−1)k + 3
sin (kπ/3), successione di periodo 6
2.3 Stabilità di equilibri per equazioni ad n passi a coefficienti costanti 45

Xk

   
 − 4 sin θk
Fig. 2.6. Grafico di Xk = 4 cos θk  , successione non periodica

È utile aver chiaro il comportamento di (2.16). Tale successione ha caratte-


ristiche
di stabilità, cioè se c1 e c2 sono piccole, allora Zk si mantiene piccola:
|Zk | ≤ c21 + c22 per ogni k. Inoltre:
• se θ = 2π/m per qualche m intero, allora Z è una successione periodica
di periodo minimo uguale ad m, cioè Zk+m = Zk , ∀k ∈ N, mentre una
relazione di tale tipo è falsa con valori minori di m;
• se θ = 2π/m per ogni m intero non nullo, allora Z non è periodica.

Riassumendo l’analisi qualitativa delle traiettorie corrispondenti all’equazio-


ne alle differenze lineare, omogenea ad n passi (2.6), possiamo affermare che i
modi naturali delle soluzioni (potenze intere delle radici del polinomio carat-
teristico, si veda (2.8)) hanno un andamento che dipende dalla posizione della
corrispondente radice λ nel piano complesso (in particolare |λ| > 1 implica
divergenza, |λ| < 1 implica convergenza a zero, |λ| = 1 implica limitatezza).
I vari comportamenti sono illustrati in Fig. 2.7.
La determinazione delle soluzioni dell’equazione caratteristica di un’equazione
alle differenze lineare a coefficienti costanti omogenea di ordine n, comporta
la soluzione di un’equazione algebrica di grado n (si veda l’Appendice B,
Equazioni algebriche): nella pratica tale problema per n ≥ 3 viene risolto nu-
mericamente (ad esempio, si veda il metodo di Newton, paragrafi 4.7 e 4.8).
Sono stati quindi elaborati dei criteri che consentono lo studio della stabilità
dell’equilibrio nullo per tali equazioni basati esclusivamente sulla conoscenza
dei coefficienti dell’equazione stessa. Riportiamo uno dei più noti.

Teorema 2.28 (di Schur). Siano a0 , a1 , . . . , an−1 i coefficienti dell’equa-


zione (2.6). Date le matrici triangolari di ordine n
⎡ ⎤ ⎡ ⎤
1 0 0 ··· 0 a0 a1 a2 · · · an−1
⎢ an−1 1 0 · · · 0 ⎥ ⎢ 0 a0 a1 · · · an−2 ⎥
⎢ ⎥ ⎢ ⎥
⎢ an−2 an−1 1 · · · 0 ⎥ ⎢ ⎥
A=⎢ ⎥ B = ⎢ 0 0 a0 · · · an−3 ⎥
⎢ .. .. .. . . .. ⎥ ⎢ .. .. .. . . .. ⎥
⎣ . . . . .⎦ ⎣ . . . . . ⎦
a1 a2 a3 · · · 1 0 0 0 · · · a0
46 2 Equazioni alle differenze lineari

Im

Re

Fig. 2.7. Modi naturali delle soluzioni di un’equazione alle differenze lineare a coef-
ficienti costanti, omogenea, in funzione della posizione delle parti reale e immaginaria
dell’autovalore λ nel piano complesso

indichiamo con A1 , A2 , . . . , An , e B1 , B2 , . . . , Bn i minori principali di NW


delle due matrici. Allora, l’equilibrio nullo dell’equazione (2.6) è attrattivo se
e solo sono tutti i positivi i determinanti delle seguenti matrici (a blocchi):
( ) ( ) ( ) ( )
A1 B1 A2 B2 A3 B3 An Bn
, , , . . ., .
BT1 AT1 BT2 AT2 BT3 AT3 BTn ATn
Esempio 2.29. Consideriamo l’equazione alle differenze
1
Xk+3 − Xk+2 + 2Xk+1 − Xk = 0 .
2
Si ha: ⎡ ⎤ ⎡ ⎤
1 0 0 − 12 2 −1
A = ⎣ −1 1 0 ⎦ B = ⎣ 0 − 12 2 ⎦
2 −1 1 0 0 − 12
e quindi
⎡ ⎤
( ) ( ) ( ) 1 0 − 12 2
A1 B 1 1
1 −2 A2 B 2 ⎢ −1 1 0 − 1 ⎥
= =⎢
⎣ −1 −1
2⎥
BT1 AT1 − 12 1 BT2 AT2 2 2 1 −1 ⎦
2 0 0 1
⎡ ⎤
1 0 0 − 12 2 −1
⎢ 1 ⎥
( ) ⎢ −1 1 0 0 − 2 12 ⎥
A3 B 3 ⎢ 2 −1 1 0 0 − ⎥
=⎢
⎢ −1
2⎥

BT3 AT3 ⎢ 2 10 0 1 −1 2 ⎥
⎣ 2 − 0 0 1 −1 ⎦
2
1
−1 2 − 2 0 0 1
2.4 Ricerca di soluzioni particolari con secondi membri di tipo particolare 47

Poiché
( ) ( ) ( )
A1 B 1 3 A2 B 2 9 A3 B 3 243
det = > 0 ; det = − < 0 ; det = >0
BT1 AT1 4 B T
2 A T
2 4 B T
3 A T
3 64

concludiamo che l’equilibrio nullo non è attrattivo.

Esercizio 2.5. Determinare eventuali equilibri dell’equazione


1 3
Xk+2 − Xk =
4 2
e discuterne la stabilità. Determinare inoltre la soluzione, rappresentandola grafica-
mente in corrispondenza ai dati iniziali X0 = 1 e X1 = 0.

Esercizio 2.6. Data l’equazione 2Xk+2 + 2Xk+1 + Xk = 0: (a) determinare la solu-


zione generale (sia in termini complessi, sia in termini reali); (b) determinare even-
tuali equilibri e studiarne la loro natura; (c) determinare la soluzione particolare
corrispondente ai dati iniziali X0 = 0 e X1 = −1.

Esercizio 2.7. Data l’equazione Xk+2 − 4Xk+1 + 5Xk = 6: (a) determinare la so-
luzione generale; (b) individuare eventuali equilibri, studiandone la natura.

Esercizio 2.8. Data l’equazione 2Xk+2 + 2Xk+1 + Xk = −10: (a) determinare la


soluzione generale; (b) determinare eventuali equilibri e studiarne la natura.

Esercizio 2.9. Dimostrare che l’equilibrio nullo α = 0 per l’equazione omogenea


del secondo ordine
Xk+2 + a1 Xk+1 + a0 Xk = 0
è stabile e attrattivo se e solo se valgono le relazioni

a0 < 1 1 + a1 + a0 > 0 1 − a1 + a0 > 0

equivalenti a
a0 < 1 |a1 | < 1 + a0 .

2.4 Ricerca di soluzioni particolari con secondi membri


di tipo particolare
Studiamo ora il caso lineare non omogeneo con il secondo membro non costan-
te, cioè dipendente da k. In questa sezione determiniamo le soluzioni con il
metodo elementare detto metodo dei coefficienti indeterminati. Nel suc-
cessivo paragrafo discutiamo una tecnica meno elementare ma più generale,
cioè la Z-trasformata.

Definizione 2.30. Se a0 è una costante diversa da zero ed F è una assegnata


successione, si dice equazione alle differenze lineare affine (o linea-
re non omogenea), di ordine n, a coefficienti costanti, il sistema di
48 2 Equazioni alle differenze lineari

infinite equazioni nell’incognita X:

Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = Fk ∀k ∈ N

(2.17)

Osservazione 2.31. Spesso l’equazione non omogenea (2.17) è chiamata


equazione completa, e con riferimento ad essa l’equazione (2.6), con gli stes-
si coefficienti a primo membro ed il secondo membro nullo, è detta equazione
omogenea associata alla (2.17).

Teorema 2.32. Se Y è una soluzione particolare dell’equazione completa


(2.17), allora tutte le soluzioni di (2.17) si esprimono come Y + X ove X
è una soluzione dell’equazione omogenea corrispondente.

Il teorema appena enunciato ci indica la strada per risolvere la (2.17). Una vol-
ta individuata la soluzione generale dell’equazione omogenea corrispondente,
è sufficiente determinare una soluzione particolare dell’equazione completa:
la somma di queste due soluzioni fornisce la soluzione generale dell’equazione
completa.
Si noti che, se Fk è una costante ed 1 non è radice del polinomio caratteristico
ed esiste un equilibrio, allora come soluzione particolare si può scegliere la
soluzione di equilibrio (2.17).

Esempio 2.33. Determiniamo la soluzione generale dell’equazione

Xk+2 − 4Xk+1 + 3Xk = 2k k ∈ N.

L’equazione caratteristica dell’equazione omogenea λ2 − 4λ + 3 = 0 ammette


come soluzioni λ1 = 1 e λ2 = 3. Dunque, la soluzione generale dell’equazione
omogenea è
Xk = c1 + c2 3k k ∈ N.
Cerchiamo ora una soluzione particolare dell’equazione completa del tipo X k =
a2k con a costante reale da determinare. Sostituendo tale espressione nell’e-
quazione completa, otteniamo

a2k+2 − 4a2k+1 + 3a2k = 2k k∈N

e dividendo per 2k

4a − 8a + 3a = 1 ⇒ a = −1.

In definitiva, la soluzione generale dell’equazione completa è

Xk = c1 + c2 3k − 2k k ∈ N. 
2.4 Ricerca di soluzioni particolari con secondi membri di tipo particolare 49

Esempio 2.34. Determiniamo la soluzione generale dell’equazione

Xk+2 − 4Xk+1 + 3Xk = bk k∈N

ove b è una costante reale, positiva e diversa da 1. Dall’esempio precedente co-


nosciamo già la soluzione generale dell’equazione omogenea. Proviamo allora a
cercare una soluzione particolare dell’equazione completa del tipo X k = βbk .
Per sostituzione, otteniamo

βbk+2 − 4βbk+1 + 3βbk = bk k∈N

e dividendo per bk = 0
 
βb2 − 4βb + 3β = 1 ⇒ β b2 − 4b + 3 = 1.

L’ultima equazione scritta individua univocamente la costante β a patto che


la quantità in parentesi tonda sia diversa da zero, ossia a patto che b non sia
soluzione dell’equazione caratteristica dell’equazione omogenea (cioè b = 1 e
b = 3).
Il lettore verifichi che se b = 1 o b = 3, allora una soluzione particolare
dell’equazione completa è del tipo X k = βkbk . 
Il metodo applicato negli esempi consente di determinare una soluzione espli-
cita nei casi in cui il secondo membro F è un polinomio, una funzione espo-
nenziale o una funzione trigonometrica, come sintetizzato nella Tabella 2.1.
Esercizio 2.10 (Somma di una progressione aritmetica). Provare che

k (k + 1)
1 + 2 + 3 + · · · + (k − 1) + k = k ∈ N.
2

Tabella 2.1. Metodi per la ricerca di soluzioni particolari dell’equazione (2.17)

Fk soluzione particolare

βk cβ k
km cm km + cm−1 km−1 + · · · + c1 k + c0
 
km β k β k cm km + cm−1 km−1 + · · · + c1 k + c0
sin (θk) o cos (θk) c1 sin (θk) + c2 cos (θk)
k k k
β sin (θk) o β cos (θk) β (c1 sin (θk) + c2 cos (θk))

La successione nella seconda colonna non deve essere soluzione dell’equazione


omogenea.
Se la successione nella seconda colonna è già soluzione dell’equazione omoge-
nea, allora occorre moltiplicarla per una potenza di k con esponente uguale alla
molteplicità della radice corrispondente.
50 2 Equazioni alle differenze lineari

Esercizio 2.11. Provare la seguente formula che fornisce la somma dei quadrati dei
primi k numeri interi positivi
1
1 + 4 + 9 + · · · + k2 = k (2k + 1) (k + 1) .
6
Esercizio 2.12. Calcolare la somma dei cubi dei primi k numeri interi.

Esercizio 2.13 (Somma di una progressione geometrica). Assegnato il nu-


mero complesso z poniamo


k
Pk = 1 + z + z 2 + · · · + z k = zn.
n=0

Calcolare Pk come funzione esplicita di k.

Esercizio 2.14. Assegnato z ∈ C, calcolare fh,k = z h + z h+1 + · · · + z h+k−1 + z h+k ,


h, k ∈ N.


+∞
Esercizio 2.15. Stabilire per quali valori di z ∈ C la serie geometrica zk è
k=0
convergente e calcolarne la somma (si veda l’Appendice A, 18)-26)).

Esercizio 2.16. Provare che il numero decimale rappresentato da 0, 9999999 . . .


(dove i puntini rappresentano una successione infinita di cifre tutte uguali a 9)
coincide con il numero 1.

Esercizio 2.17. Esplicitare la soluzione del sistema ottenuto nella soluzione dell’E-
sercizio 1.3.

Esercizio 2.18. Determinare la soluzione generale delle seguenti equazioni alle dif-
ferenze:
k
1) Xk+2 − 2X √k+1 − 3Xk = (−3)  √ 
2) Xk+2 − 2 3Xk+1 − 4Xk = 3 + 2 3 k
π 
3) Xk+3 − Xk+2 + Xk+1 − Xk = sin k
2 k
4) Xk+3 + 5Xk+2 + 7Xk+1 + 3Xk = (−1) .

2.5 La Z-trasformata
La Z- trasformata è uno strumento matematico di grande importanza nella
elaborazione dei segnali. Qui ne viene data una breve presentazione, quale pos-
sibile metodo per la soluzione di equazioni alle differenze lineari con secondi
membri non costanti. Precisamente, tale tecnica consente di determinare so-
luzioni particolari con dati iniziali assegnati anche nel caso di secondi membri
che non sono funzioni elementari dell’indice k.

Definizione 2.35. La Z-trasformata di una successione X = {Xk } (in-


dicata a volte con Z {X}) è una funzione x (z) della variabile complessa z
2.5 La Z-trasformata 51

definita come somma di una serie di potenze i cui coefficienti sono i termini
della successione X:


+∞ Xk
Z {X} (z) = x (z) = k
k=0 z

La funzione x è definita per tutti gli z complessi che rendono convergente la


serie. Ad esempio, se X è una successione limitata, allora la serie converge
per ogni z complesso tale che |z| > 1. Più in generale, se esiste una costante
c ∈ (0, +∞) tale che |Xk | < ck per ogni k, allora la serie converge per ogni
z ∈ C tale che |z| > c.
Il lettore che non abbia familiarità con i numeri complessi può comunque ope-
rare considerando la restrizione di tale funzione definita sulla sola semiretta
reale {x ∈ R : x > c}, con c opportuno numero reale positivo.
È immediato accertare la linearità della Z trasformata:

Z {aX + bY } = aZ {X} + bZ {Y } ∀a, b ∈ C, ∀X, Y

Teorema 2.36. La Z-trasformata di una successione è derivabile all’inter-


no dell’insieme di convergenza. Più precisamente, ammette derivate di ogni
ordine.

Presentiamo nel seguito alcuni esempi elementari ma importanti di Z-tras-


formate: i nomi (e la simbologia adottata) sono mutuati dalla terminologia in
uso nella teoria dei segnali discreti.

Esempio 2.37 (Segnale di Heaviside, U ). Se Uk = 1 per ogni k ∈ N,


allora, posto u (z) = Z {U }, risulta:
z
u (z) = .
z−1
Infatti, ricordando la formula che fornisce la somma di una serie geometrica
convergente, se |z| > 1, allora |1/z| < 1 e
+∞
 1 1 z
u (z) = = = . 
zk 1 − 1/z z−1
k=0

Esempio 2.38 (Impulso,


! K 0 ). Se K00 = 1 e Kk0 = 0 per ogni k ≥ 1, allora,
0 0
posto k (z) = Z K , vale
k 0 (z) = 1. 
52 2 Equazioni alle differenze lineari

Esempio 2.39 (Segnale di Kronecker, Kn ). Se Knn = 1 e Kkn = 0 per


ogni k = n, allora, posto k n (z) = Z {K n }, vale

k n (z) = z −n . 

Si noti che K 0 e K n sono successioni, mentre Kk0 e Kkn sono i corrispondenti


termini k-esimi di tali successioni.

Esempio 2.40 (Segnale lineare, L). Se Lk = k per ogni k ∈ N, allora,


posto l (z) = Z {L}, risulta
z
l (z) = 2 .
(z − 1)

Infatti
+∞
 +∞  
k d 1
l (z) = k
−z
z dz z k
k=0 k=0
$+∞ %  
d  1 d z z
= −z = −z = 2
dz zk dz z − 1 (z − 1)
k=0

ove si è sfruttata la commutatività delle operazioni di derivazione e di som-


ma di una serie, valida all’interno dell’insieme di convergenza di una serie di
potenze. 

Vediamo ora come agisce la Z-trasformata sullo “scorrimento” degli indici nel-
la successione da trasformare: l’estrema semplicità di tale azione è di grande
utilità nello studio delle equazioni alle differenze e nel trattamento di segnali
discreti con ritardo.

Definizione 2.41. Assegnata una successione X = {X0 , X1 , X2 , . . . }, si dice


traslazione in avanti la trasformazione τn che ad X associa la successione

τn X = {0, 0, . . . , 0, X0 , X1 , X2 , . . . } .
 

n termini

Con abuso di notazione, porremo, per brevità, τn X = {Xk−n }k∈N .

Definizione 2.42. Assegnata una successione X = {X0 , X1 , X2 , . . . }, si dice


traslazione all’indietro la trasformazione τ−n che ad X associa la succes-
sione
τ−n X = { Xn , Xn+1 , Xn+2 , . . . } .
Si noti che ora, oltre allo scorrimento, c’è la perdita dei primi n termini della
successione X.
Con abuso di notazione, sempre per brevità, porremo τ−n X = {Xk+n }k∈N .
2.5 La Z-trasformata 53

Fig. 2.8. Nella presentazione dei segnali discreti è utile visualizzare graficamente i
termini delle successioni: (a) K 0, (b) K n , (c) U , (d) L

Riportiamo qui un elenco che consente di ottenere rapidamente le trasfor-


mate e le antitrasformate in alcuni casi particolari (a sinistra è indicata la
successione, a destra la corrispondente Z-trasformata).

τ1 X z −1 x (z)

τn X z −n x (z)

τ−1 X zx (z) − zX0

τ−2 X z 2 x (z) − z 2 X0 − zX1

Enunciamo in generale come opera la Z-trasformata sulle traslazioni, lascian-


do la dimostrazione per esercizio.

Teorema 2.43. Sia X una successione. Allora, con riferimento alle Defini-
zioni 2.41 e 2.42

Z {τn X} = z −n x (z)
Z {τ−n X} = z n x (z) − z n X0 − z n−1 X1 − · · · − zXn−1 .

Gli esempi precedenti, ed altri analoghi, conducono alla compilazione di tabel-


le di trasformate che consentono di Z-trasformare le successioni ed effettuare
l’operazione inversa, cioè antitrasformare le funzioni definite nel complemen-
tare di dischi del piano complesso: in Appendice G tali risultati sono raccolti
in una tabella riassuntiva.Vediamo dapprima con un esempio come utilizza-
re il metodo della Z-trasformata per risolvere equazioni alle differenze a
coefficienti costanti con secondo membro funzione nota dell’indice.
54 2 Equazioni alle differenze lineari

Esempio 2.44. Determiniamo una espressione non ricorsiva di X tale che



Xk+2 − 2Xk+1 + Xk = 3k k∈N
X0 = 0, X1 = 2

La soluzione (che esiste ed è unica) potrebbe essere calcolata ricorsivamente o


con il metodo delle costanti indeterminate illustrato nel paragrafo preceden-
te, giacché Fk = 3k è un polinomio in k. Applichiamo invece il metodo della
Z-trasformata.
Posto x (z) = Z {X} dalla tabella in Appendice G otteniamo Z {k} = z/ (z − 1)2
2
e, per la linearità di Z, Z {3k} = 3z/ (z − 1) . Dunque, trasformando l’e-
quazione e, tenendo conto delle traslazioni, otteniamo un’equazione algebrica
nell’incognita x (z):

  3z
z 2 x − z 2 X0 − zX1 − 2 (zx − zX0 ) + x = 2
(z − 1)

equivalente a
3z 2z
x (z) = 4 + 2 .
(z − 1) (z − 1)
A questo punto, sempre dalla tabella
$  *%
−1 3z 1
Z 4 = k (k − 1) (k − 2)
(z − 1) 2
$  *%k
2z
Z −1 = 2k
(z − 1)2 k

otteniamo la soluzione

1
Xk = 2k + k (k − 1) (k − 2) . 
2

Generalizzando il secondo membro ed i dati iniziali nell’Esempio 2.44 :

Xk+2 − 2Xk+1 + Xk = Fk con X0 , X1 assegnati

cioè considerando una generica successione F anziché il caso particolare 3k e


dati generici X0 e X1 , si può osservare che la relazione tra f = Z {F } e x =
Z {X} è molto semplice:

1
x (z) = g (z)
z 2 − 2z + 1
2.5 La Z-trasformata 55

dove g è la somma di f (trasformata del secondo membro)  con una corre-


zione3 che dipende dai dati iniziali e dall’equazione: z 2 − 2z X0 + zX1 . In
 −1
questo contesto h (z) = z 2 − 2z + 1 è detta funzione di trasferimen-
to4 : la funzione di trasferimento è la trasformata della soluzione (o risposta) H
corrispondente al secondo membro (rispettivamente all’ingresso) K 0 impulso
unitario concentrato in zero, con dati iniziali nulli.
Per sfruttare appieno questa osservazione nella trattazione dei problemi con-
creti è utile ricordare a questo punto una definizione e un risultato assai
importanti.

Definizione 2.45. Date due successioni X, Y si dice convoluzione discre-


ta di X e Y la successione, indicata con X ∗ Y il cui termine generale è


k
(X ∗ Y )k = Xh Yk−h .
h=0

Si verifica facilmente che X ∗ Y = Y ∗ X e (aX) ∗ Y = a (X ∗ Y ) per ogni


coppia di successioni X, Y e per ogni costante a.

Teorema 2.46 (Z-trasformata della convoluzione discreta). Se X e Y


sono due successioni che ammettono Z-trasformata definita in un dominio di
C non vuoto, allora la loro convoluzione discreta X∗Y ammette Z-trasformata
(definita nell’intersezione dei rispettivi domini) e vale

Z {X ∗ Y } (z) = x (z) y (z)

Dunque, se H è la soluzione di un’equazione alle differenze a due passi (li-


neare, a coefficienti costanti) corrispondente ai dati iniziali X1 = X0 = 0
e con secondo membro K 0 impulso unitario, allora la soluzione della stessa
equazione corrispondente a X1 = X0 = 0 e dal generico secondo membro F , è

H ∗F .

Più in generale, per la stessa equazione, per ogni secondo membro F e per ogni
scelta dei dati iniziali X0 , X1 non necessariamente nulli, se H è la soluzione
3
Si noti che tale termine è la Z-trasformata della soluzione dell’equazione omo-
genea (Fk ≡ 0) con gli stessi dati iniziali. Si noti anche che tale soluzione può
essere calcolata direttamente (in modo più elementare) mediante le tecniche del
paragrafo 2.2).
4
Precisamente, funzione di trasferimento del filtro risolutore dell’equazione al-
le differenze, dove, fissata l’equazione omogenea e i dati iniziali, il filtro risolutore
corrisponde all’operazione lineare che ad ogni secondo membro associa la soluzione
dell’equazione non omogenea.
56 2 Equazioni alle differenze lineari

corrispondente all’impulso K 0 , allora la soluzione è

H ∗G

dove G = F + D ed il termine D dipende dai dati iniziali.


Nell’Esempio 2.44 si può osservare come la soluzione X sia esprimibile di-
rettamente come convoluzione discreta tra il secondo membro {3k}k∈N e
" −1 #
Z −1 z 2 − 2z + 1 cioè l’antitrasformata della funzione di trasferimento
con una correzione dovuta ai dati iniziali. Ricordiamo che la funzione di trasfe-
rimento è il reciproco del polinomio caratteristico associato al primo membro
dell’equazione alle differenze.
Si noti che la funzione di trasferimento dipende solo dal primo membro e si
calcola una volta per tutte, e può essere utilizzata per ogni secondo membro
trasformabile ed ogni dato iniziale.
Esempio 2.47. Sfruttando il teorema sulla convoluzione discreta, proviamo
 −1
che l’antitrasformata di z 2 − 2z + 1 ha termine generale Xk = k − 1 se
k ≥ 1 e X0 = 0:

  

1 1 1 Esempio 2.35
Z −1 = Z −1 ∗ Z −1 =
z 2 − 2z + 1 z−1 z−1
 
1 1 Teorema 2.41
= Z −1 u (z) ∗ Z −1 u (z) =
z z
= Z −1 {Z {τ1 U }} ∗ Z −1 {Z {τ1 U }} =
= τ1 U ∗ τ1 U

il cui termine k-esimo (poiché τ1 U = {0, 1, 1, 1, . . .}) è 0 se k = 0 e


k
(τ1 U )h (τ1 U )k−h = k − 1 se k ≥ 1. 
h=0

Riassumendo, vale il seguente teorema.

 −1 
Fig. 2.9. Z −1 z 2 − 2z + 1
2.5 La Z-trasformata 57

Teorema 2.48. Sia F una successione Z-trasformabile (cioè esiste a > 0 tale
che |Fk | ≤ ak per ogni k ∈ N). Allora l’unica soluzione di

Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = Fk
X0 = X1 = · · · = Xn−1 = 0
" −1 #
è data da X = T ∗ F ove T = Z −1 z n + an−1 z n−1 + · · · + a1 z + a0 .

Ricordiamo di seguito la definizione di medie mobili, spesso utilizzate nel


trattamento statistico dei dati, ed osserviamo che esse hanno una semplice
interpretazione in termini di convoluzione discreta.

Definizione 2.49. Le medie mobili di ampiezza n di una successione X


sono le medie aritmetiche di n termini consecutivi della successione:
Xk−n+1 + Xk−n+2 + · · · + Xk
(M n [X])k = .
n
Dunque:
 
1
n−1
1
(M n [X])k = Xk−j = X ∗ (U − τn U ) .
n n k
j=0

Può essere utile definire convenzionalmente anche i valori di Xk per k < 0, ad


esempio con valore nullo: in tal modo (M n [X])k è definita anche per 0 ≤ k <
n.
Una media mobile serve a filtrare fluttuazioni occasionali poco significative
per rilevare le eventuali tendenze di lungo periodo.
Nel caso di applicazioni economico-finanziarie la media mobile è particolar-
mente indicata quando è nota l’ampiezza del ciclo economico della grandez-
za considerata, può ad esempio servire a “destagionalizzare” i dati registrati
(operazione essenziale per stimare correttamente l’inflazione o gli acquisti di
materie prime).

1 
Fig. 2.10. Segnale U − U(s−1)
s
58 2 Equazioni alle differenze lineari

Esempio 2.50. Consideriamo le quotazioni Xk di un titolo azionario in un


periodo di 160 giorni (omettiamo per semplicità i giorni di chiusura della bor-
sa, e supponiamo quotato il titolo in ciascuno dei 160 giorni). In Fig. 2.11
riportiamo in un grafico i valori di Xk (Fig. 2.11a) ), l’andamento di M 10 [X]
(Fig. 2.11b) ) e M 20 [X] (Fig. 2.11c) ).
Le medie mobili sono uno degli strumenti dell’“analisi tecnica” dei titoli quo-
tati, spesso utilizzate per tentare “estrapolazioni” dei valori futuri e tendenze

160

140

120

100

80

(a)
60

40

20

160

140

120

100

80

(b)
60

40

20

160

140

120

100

80

(c)
60

40

20

Fig. 2.11. a) Grafico del prolungamento lineare a tratti; b) grafico della media
mobile a 10 giorni; c) grafico della media mobile a 20 giorni
2.5 La Z-trasformata 59

sul breve periodo. Vale la pena di osservare che tali previsioni vanno conside-
rate con grande cautela. Infatti, anche nel breve periodo, le stime dell’errore
di una estrapolazione richiedono una certa regolarità5 , mentre le serie storiche
disponibili sono estremamente irregolari: in questo senso l’esempio riportato
oltre ad essere un caso reale ha anche un comportamento tipico. È per questo
opportuno associare all’analisi tecnica l’analisi delle variabili economiche fon-
damentali che influenzano il titolo. I grafici dell’esempio visualizzano l’effetto
regolarizzante della convoluzione. 
Come abbiamo illustrato negli esempi, l’uso delle tabelle è molto utile sia per
calcolare le Z-trasformate sia per calcolare l’antitrasformata.
Qualora non si abbiano a disposizione tabelle o queste non contengano le
funzioni che si devono antitrasformare, si può ricorrere ad una tecnica tipica
dell’analisi complessa che qui ricordiamo senza dimostrazione.
Teorema 2.51 (Formula di inversione della Z-trasformata). Sia f una
Z-trasformata di una successione F , ed f sia derivabile in senso complesso
in tutto C salvo un numero finito di punti z1 , z2 , . . . , zN tali che6
p
per j = 1, . . . , N ∃ intero positivo pj : ∃ finito lim (z − zj ) j f (z) .
z→zj

Allora, detto Fk il termine generale della successione F , risulta



N
 
Fk = res z k−1 f (z) , zj
j=1

dove il residuo di f in zj , denotato con res(f, zj ), è un numero calcolabile


nel modo seguente:
(a) se pj = 1 allora res(f, zj ) = lim (z − zj ) f (z)
z→zj
 pj −1
1 d p
(b) se pj > 1 allora res(f, zj ) = lim ((z − zj ) j f (z)) .
z→zj (pj − 1)! dz
Vediamo alcuni esempi di applicazioni delle equazioni alle differenze alle reti
elettriche.
Esempio 2.52. Consideriamo il circuito elettrico della Fig. 2.12 in cui sono
presenti 2N resistori di resistenza R ed un generatore di differenza di poten-
ziale V . Ci poniamo il problema di determinare l’intensità di corrente Ik nel
k-esimo resistore orizzontale.
5
Qui regolarità significa esistenza e continuità di un certo numero di derivate: ad
esempio, Xk = f (k) con f ∈ C N (R). L’estrapolazione è precisa solo per grandez-
ze descritte da funzioni f analitiche, situazione molto diversa da quella dei valori
quotati nei mercati azionari.
6
Le ipotesi su f benché apparentemente restrittive, sono verificate nella maggior
parte dei problemi concreti. Inoltre possono essere ulteriormente indebolite: basta
che f abbia un numero finito di singolarità isolate.
60 2 Equazioni alle differenze lineari

Fig. 2.12. Circuito elettrico dell’Esempio 2.52

La formulazione di questo problema (e di altri analoghi che includono com-


binazioni varie di resistori, condensatori e induttanze) può essere effettuata
mediante le due leggi di Kirchhoff :
• in ciascun nodo la somma algebrica delle intensità è nulla;
• in ciascuna maglia la somma algebrica delle cadute di potenziale è nulla.
Ricordiamo che se I denota l’intensità di corrente, allora la caduta di potenzia-
le attraverso un resistore di resistenza R è uguale al prodotto IR. Applicando
la seconda legge rispettivamente alla prima maglia, alla k-esima maglia, con
2 ≤ k ≤ N − 1, e alla N -esima maglia si ottiene:

I1 R + (I1 − I2 ) R − V = 0

Ik R + (Ik − Ik+1 ) R − (Ik−1 − Ik ) R = 0


IN R + IN R + (IN − IN−1 ) R = 0
Dalla prima equazione I2 = 2I1 − V /R. Dalla seconda

Ik+2 − 3Ik+1 + Ik = 0 1≤ k ≤N −2

che ammette la soluzione generale


$ √ %k $ √ %k
3+ 5 3− 5
Ik = A +B (2.18)
2 2

Tenendo conto dei dati iniziali I1 e I2 , si ottiene


1 √   √  
A=− 5 − 5 I1 R + 3 5 − 5 V
10R
(2.19)
1 √   √  
B= 5 + 5 I1 R + 3 5 + 5 V
10R
Tenendo conto dell’equazione relativa all’ultima maglia, sappiamo inoltre che
IN = 13 IN−1 , relazione che consente di determinare per sostituzione IN . 
2.5 La Z-trasformata 61

Fig. 2.13. Circuito elettrico dell’Esempio 2.53

Esempio 2.53. Consideriamo il circuito elettrico della Fig. 2.13 in cui sono
presenti 2N resistori di resistenza R ed N generatori di differenza di poten-
ziale Vk , 1 ≤ k ≤ N . Ci poniamo il problema di determinare l’intensità di
corrente Ik nel k-esimo resistore orizzontale. Procedendo come nell’esempio
precedente, otteniamo un’equazione lineare non omogenea, a due passi:

Ik R + (Ik − Ik+1 ) R − (Ik−1 − Ik ) R = Vk

con “un dato iniziale” I1 e “un dato finale” (da determinare successivamente)
implicitamente forniti da

I2 = I1 − V1 /R and IN−1 = VN /(2R) . (2.20)

Per la genericità del termine noto è opportuno ricorrere al metodo della Z-


trasformata ponendo i (z) = Z {Ik }, v (z) = Z {Vk }:
 2  1
z − 3z + 1 i (z) = I1 z 2 + (I2 − 3I1 ) z + v (z) .
R
Chiamando Jk il secondo membro della (2.18) con le scelte di A e B ottenute
sostituendo nel sistema (2.20), e per k ≥ 2 ,
   √   √ k−1 
v (z) k−1
−1 1 3+ 5
Tk = Z = 5R V ∗

2 − 3−2 5
R (z 2 − 3z + 1) k

otteniamo
Ik = Jk + Tk . 

Osservazione 2.54. Un metodo per risolvere le equazioni alle differenze so-


stanzialmente identico a quello della Z-trasformata consiste nell’associare ad
ogni successione X la sua funzione generatrice:
+∞
  
1
Xk z k = x .
z
k=0
62 2 Equazioni alle differenze lineari

I due metodi sono ovviamente equivalenti. Abbiamo scelto di presentare la


Z-trasformata perché è maggiormente utilizzata nel trattamento dei segnali
ed altre applicazioni dell’ingegneria.

Esercizio 2.19. Risolvere il problema



Xk+2 − Xk+1 − 2Xk = k k∈N
X0 = 0 X1 = 1

Esercizio 2.20. Risolvere il problema seguente (con un segnale impulsivo al secondo


membro):
Xk+2 − 5Xk+1 + 6Xk = Kk0 k∈N
X0 = X1 = 0

Esercizio 2.21. Risolvere il problema seguente (con un segnale di Kronecker al


secondo membro):
Xk+1 − 2Xk = 3Kk4 k∈N
X0 = 1


k−1
Esercizio 2.22. Risolvere l’equazione 2Xk = 2 + 32 (k − s − 1) Xs , k ∈ N .
s=0

Esercizio 2.23. Calcolare la Z-trasformata di Xk = k3 , k ∈ N, senza utilizzare le


tabelle, deducendola da quella di Yk = k (k + 1) (k + 2) .

2.6 Equazioni lineari a coefficienti variabili


In questo paragrafo esaminiamo alcuni semplici esempi di equazioni lineari
alle differenze a coefficienti non costanti.

Definizione 2.55. Assegnata una successione A = {Ak }, si dice equazio-


ne alle differenze lineare, del primo ordine, a coefficienti variabili,
omogenea, l’insieme di equazioni

Xk+1 = Ak Xk ∀k ∈ N . (2.21)

Teorema 2.56. Per ogni dato iniziale X0 l’unica soluzione della (2.21) è:
$k−1 %
+
Xk = As X0 . (2.22)
s=0

,h
Qui e nel seguito il simbolo s=0 As denota il prodotto dei numeri A0 , A1 ,
. . . , Ah .
Omettiamo la prova del teorema poiché è del tutto analoga a quella del Teo-
rema 2.2.
2.6 Equazioni lineari a coefficienti variabili 63

Definizione 2.57. Assegnate due successioni A e B, si dice equazione al-


le differenze lineare, del primo ordine, a coefficienti variabili, non
omogenea, l’insieme di equazioni

Xk+1 = Ak Xk + Bk ∀k ∈ N (2.23)

Teorema 2.58. Per ogni dato iniziale X0 la (2.23) ha un’unica soluzione data
da:

 
,
k−1 
k−2 ,
k−1
Xk = X0 As + Bk−1 + Br As k≥1 (2.24)
s=0 r=0 s=r+1


k−1
Prova. Poniamo G0 = 1 e Gk = As se k > 0, e dividiamo entrambi i membri
s=0
della (2.23) per Gk+1 :
Xk+1 Xk Bk
= + . (2.25)
Gk+1 Gk Gk+1
Se, inoltre, denotiamo
Xk Bk
Zk = βk =
Gk Gk+1
allora la (2.25) si riscrive come Zk+1 = Zk + βk la cui soluzione è data da


k−1
k−1
Br
Zk = Z0 + βr = X0 + .
r=0 r=0
Gr+1

A questo punto, ricordando la sostituzione effettuata, otteniamo per la proprietà


distributiva
k−1    k−1  k−1 
 Br
k−1 
k−1  Br
Xk = Gk Zk = As X0 + = X0 As + As
s=0 r=0
Gr+1 s=0 s=0 r=0
Gr+1

da cui si ottiene la (2.24) grazie all’identità


k−1  k−1   k−1 
 Br
k−2 
As = Bk−1 + Br As . 
s=0 r=0
Gr+1 r=0 s=r+1

Osservazione 2.59. I passaggi della dimostrazione precedente sono corretti


solo se Ak = 0 ∀k. Tuttavia il risultato (2.24) continua a valere anche se qual-
che Ak si annulla, come si può facilmente verificare per sostituzione. Inoltre,
64 2 Equazioni alle differenze lineari

se qualche Ak si annulla, allora (2.24) si semplifica come segue:


⎛ ⎞

k−2 +
k−1
se ∃k ∈ N : Ak = 0 allora Xk = Bk−1 + Br ⎝ As ⎠ , ∀k > k,
r=k s=k+1

dunque, per k > k, il sistema non ha memoria della storia precedente: i valori
Xk con k > k non dipendono dagli Xk con k ≤ k.

Osservazione 2.60. Nel caso di una equazione alle differenze del primo or-
dine a coefficienti non costanti, omogenea, è opportuno notare che il numero
di operazioni necessarie al calcolo del termine Xk sia con la (2.21) sia con la
(2.22) è pari a k. Invece, se si considera una equazione non omogenea, mentre
il calcolo di Xk con la (2.23) richiede 2k operazioni, l’impiego della (2.24) ne
richiede una quantità dell’ordine di k 2 : dunque, la formula esplicita per Xk
(in dipendenza da k e dalla condizione iniziale X0 ) dà informazioni sulla solu-
zione ma non garantisce alcun vantaggio computazionale rispetto all’impiego
della formula ricorsiva nel calcolo dei valori Xk .

Osservazione 2.61. Nel caso particolare in cui Ak = 1 per ogni k, cioè


Xk+1 = Xk + Bk , la (2.24) si semplifica come segue:


k−1
Xk = X0 + Br .
r=0

Notiamo per inciso che il modello ad incrementi non costanti con Ak = 1 è


tipico della successione delle somme parziali di una serie. Infatti, data una
successione X = {X k } definiamo la successione S delle somme parziali Sk
associate alla serie +∞n=0 Xn la successione il cui termine generale si ottiene
dal precedente aggiungendo il termine generale di X, cioè


k
Sk = Xn .
n=0

Con tali notazioni, vale la relazione ricorsiva:

Sk+1 = Sk + Xk+1 .

Osserviamo che tale problema può essere risolto in molti casi con le tecniche
proposte nel paragrafo 2.4 e reltivi esercizi.

Esempio 2.62. Il numero dei triangoli equilateri di lato pari a 1/k che si
ricavano da un triangolo di lato unitario suddividendo ciascun lato in k parti
uguali e unendo tali punti mediante segmenti paralleli ai lati del triangolo
2.6 Equazioni lineari a coefficienti variabili 65

soddisfa la relazione (si veda l’Esercizio 1.12)



Xk+1 = Xk + 2k + 1
X1 = 1.

Per la (2.24), il numero dei triangolini cercato si ottiene ricordando la formula


della somma per la progressione aritmetica:


k−1
k (k − 1)
Xk = 1 + (2r + 1) = 1 + k − 1 + 2 = k2. 
r=1
2

Vediamo ora come si possono estendere le considerazioni ed i risultati prece-


denti alle equazioni a più passi.

Definizione 2.63. Date n successioni A0 , A1 , . . . , An−1 , verificanti ∃k̃ ∈ N


tale che A0k̃ = 0, si dice equazione lineare di ordine n omogenea (o anche
equazione lineare ad n passi omogenea), l’equazione

Xk+n + An−1
k Xk+n−1 + · · · + A1k Xk+1 + A0k Xk = 0. (2.26)

I teoremi che seguono forniscono una descrizione dell’insieme delle soluzioni


di (2.26).
È immediato verificare, calcolando iterativamente i valori di Xk , che per ogni
n-upla di dati iniziali X0 , X1 , . . . , Xn−1 , esiste un’unica soluzione di (2.26).
Con considerazioni analoghe al caso dei coefficienti costanti, si prova il se-
guente teorema.

Teorema 2.64 (Spazio delle soluzioni). Se Aj0 = 0 per j = 0, . . . , n − 1,


allora l’insieme delle soluzioni dell’equazione omogenea (2.26) è uno spazio
vettoriale di dimensione n.

Definizione 2.65. Date n successioni7 X 1 , X 2 , . . . , X n , si dice matrice di


Casorati di indice k la matrice n × n
⎡ 1 ⎤
Xk Xk2 . . . Xkn
⎢ X1 2 n ⎥
⎢ k+1 Xk+1 . . . Xk+1 ⎥
Wk = ⎢ ⎢ .. .. . . ..
⎥.

⎣ . . . . ⎦
1 2 n
Xk+n−1 Xk+n−1 . . . Xk+n−1

Il determinante det Wk si dice Casoratiano.

7
Il lettore ponga attenzione alla posizione degli indici: il numero X1 è parte del
dato iniziale, la successione X 1 è una soluzione, X11 è il termine con indice 1 di tale
successione.
66 2 Equazioni alle differenze lineari

Teorema 2.66. Date n soluzioni X 1 , . . . , X n dell’equazione omogenea (2.26)


con A0k = 0 ∀k ∈ N, le seguenti affermazioni sono equivalenti:
i) le successioni X 1 , . . . , X n sono linearmente dipendenti;
ii) esiste un k ∈ N tale che det Wk = 0;
iii) per ogni k ∈ N si ha det Wk = 0.

Prova. Se vale la i) allora esiste un vettore c di costanti non tutte nulle tale che
Wk c = 0: abbiamo così un sistema lineare omogeneo di n equazioni algebriche in n
incognite che ammette una soluzione non banale e quindi, per il teorema di Cramer,
deve essere det Wk = 0.
Se k0 è tale che det Wk0 = 0, allora esiste un vettore c di costanti non tutte nulle
tale che Wk0 c = 0. Posto allora Xk = c1 Xk1 + c2 Xk2 + · · · + cn Xkn , ∀k, possiamo
affermare che Xk è soluzione dell’equazione omogenea (vedi il Teorema 2.64) con
condizione iniziale Xk0 = · · · = Xk0 +n−1 = 0. Dal teorema di esistenza ed unicità
(Teorema 1.3) segue allora che Xk = 0 per ogni k e quindi le successioni X 1 , . . . , X n
sono linearmente dipendenti. 

Teorema 2.67. Se X 1 , . . . , X n sono soluzioni linearmente indipendenti del-


l’equazione omogenea (2.26), allora ogni soluzione di tale equazione è combi-
nazione lineare di tali soluzioni.

Il caso non omogeneo della (2.26) si tratta nel solito modo: addizionando ad
una soluzione particolare le soluzioni dell’equazione omogenea.

Esercizio 2.24. Posto


 +∞
Ik = e−x xk dx k∈N
0

determinare una relazione ricorsiva fra Ik e Ik−1 . Sfruttare il Teorema 2.58 per
ricavare un’espressione esplicita di Ik .

Esercizio 2.25. Risolvere le seguenti equazioni (Suggerimento: congetturare l’es-


pressione di Xk calcolando alcune iterazioni, poi verificarla per induzione):

k 3k + 1
(1) Xk+1 = Xk (2) Xk+1 = Xk
k+1 3k + 7

(3) Xk+1 = e3k Xk (4) Xk+1 = ecos 2k Xk

Esercizio 2.26. Determinare esplicitamente la soluzione generale dell’equazione ad


un passo
Xk+1 = k Xk + 1 .
Discutere la coerenza della soluzione ottenuta con i Teoremi 2.64 e 2.66.
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare 67

2.7 Esempi di equazioni non lineari ad un passo


riconducibili al caso lineare

Nel caso delle equazioni alle differenze non lineari non sono disponibili tec-
niche generali per esplicitare le soluzioni. Tuttavia in alcuni casi particolari
è possibile effettuare un cambio di variabile per trasformare le equazioni non
lineari in equazioni lineari, che sono risolubili mediante le tecniche viste nei pa-
ragrafi precedenti; quindi, effettuando il cambio di variabile inverso si ottiene
la soluzione in forma chiusa del problema di partenza.
In questo paragrafo vedremo che questo metodo si può sempre applicare al
caso delle equazioni alle differenze del primo ordine in forma normale quando
il secondo membro è una funzione lineare fratta dell’incognita.
Nel paragrafo 3.10, vedremo altre tecniche per risolvere equazioni non lineari.

Esempio 2.68. Consideriamo l’equazione alle differenze


1
Xk+1 = − .
Xk
Notiamo subito che, diversamente dal caso lineare, non è neppure evidente
che esista la soluzione: infatti, se per qualche k, Xk = 0, allora è impossibile
procedere con le iterazioni.
Comunque, quando esiste la soluzione, l’esplicitazione di Xk è immediata se
si osserva che, posto f (x) = −1/x risulta f (f (x)) = x, dunque

Xk+2 = Xk ∀k ∈ N

e la successione risulta X0 , −X0−1 , X0 , −X0−1 , X0 , . . . . 

Esempio 2.69. Consideriamo l’equazione alle differenze

Xk
Xk+1 = . (2.27)
1 + Xk
Anche in questo caso la soluzione può non esistere.
Supponendo di partire da un valore X0 per cui la soluzione esiste, procediamo
formalmente e poniamo Yk = 1/Xk per ogni k ottenendo, per sostituzione,

1 1/Yk
= cioè Yk+1 = Yk + 1 .
Yk+1 1 + 1/Yk

Tale problema è lineare affine e si risolve con la tecnica vista nel paragrafo
2.1: Yk = Y0 + k da cui
1 1 1 X0
Xk = = = −1 = . (2.28)
Yk Y0 + k X0 + k 1 + kX0
68 2 Equazioni alle differenze lineari

Osserviamo che la sostituzione effettuata ha senso solo se Xk = 0 per ogni k


e in particolare X0 = 0. Tuttavia, la formula ottenuta dà la soluzione Xk (lo
si verifichi per sostituzione) anche se X0 = 0 ! La formula vale anche per il
calcolo delle sole iterazioni sensate nel caso in cui non esiste la soluzione.
Ad esempio, se X0 = −1 allora la formula si arresta prima del calcolo di
X1 = −1/0; se invece X0 = −1/2, allora X1 = −1 ma X2 non è calcolabile
X2 = −1/0, e così via.
Comunque, se X0 > 0 allora la soluzione Xk di (2.27) è ben definita e positiva
per ogni k, dunque in tale caso vale

X0
Xk = ∀k ∈ N .
1 + kX0
Questa conclusione resta vera per tutti gli X0 < 0 che non conducono a −1
in un numero finito di passi.
Al fine di determinare i valori iniziali proibiti possiamo invertire l’iterazione
della funzione f (x) = x/ (1 + x), cioè iterare f −1 (z) = z/ (1 − z) e dunque
calcolare i valori Zk tali che

⎨ Zk
Zk+1 =
1 − Zk . (2.29)
⎩ Z = −1
0

Si noti che anche questa è un’equazione non lineare, ma, come vedremo tra po-
co, la sua soluzione si può esplicitare e si deduce che i valori vietati per il dato
X0 sono i valori −1/k con k = 1, 2, . . . come si può verificare per induzione.
Notiamo che sia (2.27) che (2.29) hanno secondi membri lineari fratti. 

Definizione 2.70. Una funzione lineare fratta è una funzione così defi-
nita
ax + b
f : R \ {−d/c} → R f (x) = dove (c, d) = (0, 0) .
cx + d
Definizione 2.71. Una trasformazione di Möbius è una funzione così
definita:
az + b
f : C\ {−d/c} → C f (z) = dove ad − bc = 0.
cz + d
Osservazione 2.72. Tutte le trasformazioni di Möbius sono composizioni di
traslazioni, omotetie di centro l’origine ed inversioni z → 1/z. Inoltre, tali
trasformazioni mandano ciascuna circonferenza o retta del piano complesso
in una circonferenza o in una retta del piano complesso.
z −i
Esempio 2.73. La funzione f(z) = definita in C\{−i} trasforma l’asse
z +i !
reale {x + iy : y = 0} nella circonferenza unitaria x + iy : x2 + y2 = 1 . 
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare 69

Consideriamo ora in generale l’equazione ricorsiva

aXk + b
Xk+1 = a, b, c, d ∈ R (2.30)
cXk + d

(I) Se c = 0 oppure ad − bc = 0, allora (2.30) è un’equazione lineare affine


e la espressione esplicita di Xk è data dal Teorema 2.5.

(II) Se c = 0 e ad − bc = 0, l’equazione (2.30) è non lineare, tuttavia essa


è del tipo Xk+1 = f (Xk ) con f trasformazione di Möbius ed è possibile, me-
diante un opportuno cambio di variabile incognita (di cui quello dell’Esempio
2.69 era un caso particolare) ricondursi ad una equazione lineare, e dunque
esplicitare i valori di Xk .
Poniamo
aα + b
α= (2.31)
cα + d
cioè cerchiamo gli α che scelti come dati iniziali X0 generano una soluzione
costante Xk = α, ∀k. Esplicitando (ricordiamo che c = 0)
1
2
a−d± (a − d) + 4bc
cα2 + (d − a) α − b = 0 ⇒ α1,2 = .
2c

Osserviamo che ad − bc = 0 assicura α1,2 = −d/c e α1,2 = a/c (in effetti


x = −d/c e y = a/c sono le equazioni degli asintoti dell’iperbole di equazione
y = (ax + b)/(cx + d) ).
Se X0 = α1 , allora Xk = α1 per ogni k; se X0 = α2 , allora Xk = α2 per ogni
k.
Se X0 = α1 e X0 = α2 , allora scelta una delle due radici, poniamo

1
Yk = (2.32)
Xk − α

e corrispondentemente

1
Xk = α + (2.33)
Yk
70 2 Equazioni alle differenze lineari

Sostituendo (2.33) in (2.30)


a
aα + +b
1 Yk
α+ = c
Yk+1 cα + +d
Yk

1 (aα + b) Yk + a per la (2.31)


= −α + =
Yk+1 (cα + d) Yk + c
a − αc
=
(cα + d) Yk + c

cα + d c
Yk+1 = Yk + . (2.34)
a − αc a − αc
Riassumendo, se c = 0 e ad − bc = 0, allora:

cα + d a−d
(i) Se = 1, allora α1 = α2 = e, per il Teorema 2.5,
a − αc 2c
1 c
Yk = +k
X0 − α a − αc

e, per tutti i k per cui Xk è definito

 −1
1 1 c
Xk = α + =α+ +k
Yk X0 − α a − αc

In particolare, se Xk è definito per ogni k, allora da c = 0 segue l’esistenza


del limite finito
lim Xk = α.
k

cα + d
(ii) Se = 1 (si ricordi che nelle nostre ipotesi è anche diverso da 0),
a − αc
allora α1 = α2 , l’equilibrio di (2.34) è, se α = α1 ,
c
γ = −1 = 0 (2.35)
2
(a − d) + 4bc

e dal Teorema 2.5 e dalla (2.33), segue:


 k
cα + d
Yk = (Y0 − γ) +γ (2.36)
a − αc
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare 71

$  k %−1
1 cα + d
Xk = α + −γ +γ (2.37)
X0 − α a − αc

Osserviamo che

 
 cα + d 
se  
 a − αc  > 1 allora esiste lim Xk = α1
k

 
 cα + d  1
 
se  a − αc  < 1 allora esiste lim Xk = α1 +
k γ
= α2

 
 cα + d 

Se   = 1 si possono avere comportamenti periodici o molto complicati
a − αc 
a seconda che l’argomento sia o meno un sottomultiplo di 2π.
2
Si noti che se a, b, c, d ∈ R ma α ∈ / R (cioè Δ = (a − d) + 4bc < 0) allora
necessariamente  
 cα + d 
 
 a − αc  = 1;
infatti    √ 
 cα + d   a + d ± i −Δ 
 = √ 
 a − αc   a + d ∓ i −Δ  = 1.

Tutto ciò è in accordo con il fatto che se a, b, c, d ∈ R ma α ∈


/ R allora Xk
non può ammettere limite, né finito, né infinito (infatti, Xk è sempre reale,
dunque non può convergere né ad α1 né ad α2 ).

Osservazione 2.74. Si noti che in (2.33) e (2.35)1 si era scelta α1 , e dunque


2
α + 1/γ = α2 . Scegliendo α2 si otterrebbe γ = c/ (a − d) + 4bc e nel caso
1 
 cα + d 
 
 a − αc  < 1 si avrebbe lim
k
Xk = α2 + 1/γ = α1 .

Osservazione 2.75. Per un metodo diverso di esplicitazione di Xk si veda


anche più avanti l’Esercizio 2.28. Informazioni qualitative sul comportamento
asintotico di Xk possono essere ottenute in modo più semplice con le tecniche
generali del Capitolo 3 (vedi Esercizio 3.40).

Osservazione 2.76. Per determinare i dati iniziali X0 che generano l’intera


successione iterando (2.30) occorre determinare i valori di X0 che non condu-
cono a −d/c in un numero finito di passi, cioè occorre escludere tutti i valori
72 2 Equazioni alle differenze lineari

Zk tali che 
Zk+1 = f −1 (Zk )
d
Z0 = −
c
dove f (x) = (ax + b) / (cx + d); se si pone z = (ax + b) / (cx + d), si ricava

x = f −1 (z) = (b − dz) / (cz − a) .

Si noti che se a + d = 0 (e quindi cZ0 = a), allora l’unico valore vietato per
X0 è −d/c. Infatti, in tal caso, X0 = −d/c implica

aXk + b a d
Xk+1 = = = − ∀k.
cXk − a c c
Esercizio 2.27. Si definisce sezione aurea di un segmento, la più lunga delle due
parti ottenute dividendo in due il segmento dato in modo tale che il quadrato della
lunghezza di tale parte sia uguale al prodotto delle lunghezze di tutto il segmento
per quella della parte rimanente. Calcolare la lunghezza di tale segmento riferita al
segmento intero.

Esercizio 2.28. Osserviamo che la parte aurea di un segmento di lunghezza unitaria


ha lunghezza x pari alla soluzione positiva di
1
x=
1+x
e “sostituendo il valore di x nel secondo membro”
1
x= .
1
1+
1+x
Iterando la procedura (ricavare x dalla prima equazione e sostituirlo nell’ultima
equazione trovata):
1
x=
1
1+
1
1+
1+ ···
Il secondo membro viene anche detto frazione continua.
Tale scrittura complicata (e vaga...) può essere precisata costruendo una successione
Xk tale che 1
Xk+1 =
1 + Xk
e andando a vedere se, per opportuni dati iniziali X0 , Xk approssima x.
(1) Determinare la forma esplicita di Xk .
(2) Mostrare che Xk tende alla parte aurea x per ogni dato X0 = −1.

Esercizio 2.29. Risolvere l’equazione Xk+1 Xk + 2Xk+1 + 4Xk + 9 = 0.


2.8 La Trasformata Discreta di Fourier 73

2.8 La Trasformata Discreta di Fourier

La trasformata di Fourier discreta è uno strumento di grande utilità per trat-


tare le successioni periodiche.
Definizione 2.77. Una successione X si dice periodica di periodo N , con
N ∈ N, se risulta Xk = Xk+N per ogni k in N.
Osserviamo che una successione X periodica di periodo N è completamente
descritta da un numero finito di termini consecutivi, cioè dal vettore ad N
 T
componenti X = X0 X1 · · · XN−1 .
!
Esempio 2.78. Le radici N -esime complesse dell’unità z ∈ C : z N = 1 so-
no esattamente N e sono espresse da e2πki/N con k = 0, 1, . . ., N − 1. Dunque,
posto ω = e2πi/N , la successione X definita da Xk = ωk è N -periodica e
percorre una traiettoria costituita esattamente da N punti sulla circonferenza
unitaria che rappresentano i vertici di un poligono regolare di N lati centrato
nell’origine. 
Osservazione 2.79. Se w è una radice N -esima complessa dell’unità (cioè
w ∈ C e w N = 1), allora


N−1
k N se w = 1
w =
1.
0 se w =
k=0

Infatti, il caso w = 1 è banale e gli altri seguono da


 
0 = wN − 1 = (w − 1) wN−1 + w N−2 + · · · + w + 1 . 

Se f è una funzione reale di variabile reale, continua e con derivata continua8 ,


periodica di periodo 2π, allora, per opportuni numeri cn , vale

f (x) = cn einx . (2.38)
n∈Z

Il secondo membro dell’uguaglianza precedente è detto sviluppo in serie di


Fourier della funzione f. I coefficienti di Fourier cn sono calcolati mediante
2 2π
1
cn = f (t) e−int dt . (2.39)
2π 0

Supponiamo ora che N sia un numero pari (in realtà la maggior convenienza
dal punto di vista dei calcoli numerici si ha quando N è una potenza di 2: cioè
8
In realtà è sufficiente che f sia 2π periodica, continua e che sia possibile dividere
[0, 2π] in un numero finito di intervalli Ik = [ak , bk ] tali che f abbia derivata continua
 
in ciascun Ik ed esistano finite f+ (ak ) e f− (bk ) per ogni k.
74 2 Equazioni alle differenze lineari

N = 2p , p ∈ N\ {0}), ed effettuiamo un calcolo numerico approssimato del-


l’integrale in (2.39) che richieda la conoscenza dei valori di f solo in N punti
equidistanti: utilizziamo il metodo delle tangenti (o dei trapezi)9 tenendo
conto che f (0) = f (2π)

1 2π 
N−1
1 
N−1  −kn
Cn = f (2kπ/N ) e−in2kπ/N = f (2kπ/N ) e2πi/N .
2π N N
k=0 k=0
(2.40)
Per rendere meno pesante la notazione poniamo
2π 2π
yk = f (2kπ/N ) ω = e2πi/N = cos + i sin .
N N
Poiché ω è una radice N -esima di 1 e le sue potenze ωk , k = 0, 1, . . . N −1, sono
tutte le radici N -esime complesse dell’unità (si veda Esempio 2.77), possiamo
scrivere
1 
N−1
Cn = yk ω−kn . (2.41)
N
k=0

Diamo ora una (utilissima) interpretazione dei coefficienti di Fourier appros-


simati Cn .
Cerchiamo un polinomio trigonometrico p (una somma finita anziché una
serie di termini oscillanti come in (2.38)) che interpoli f nel senso seguente:
N/2 −1

p (x) = γh eihx , p (2kπ/N ) = f (2kπ/N ) = yk , k = 0, 1, . . . , N − 1 .
h=−N/2
(2.42)
Le condizioni precedenti equivalgono al seguente sistema lineare algebrico in
N equazioni ed altrettante incognite γh


N/2−1
γh eih(2kπ/N) = yk k = 0, 1, . . . , N − 1
h=−N/2

che si può riscrivere nella forma:


N/2−1
γh ωhk = yk k = 0, 1, . . . , N − 1 . (2.43)
h=−N/2

9
L’errore effettuato calcolando l’integrale di una funzione f su un intervallo chiuso
e limitato col metodo delle tangenti è piccolo per N grande e si può stimare:
2π2
se f  è continua, allora |cn − Cn | ≤ max |f  |, inoltre
N
3
π
se f  è continua, allora |cn − Cn | ≤ max |f  |.
3N 2
2.8 La Trasformata Discreta di Fourier 75

Cambiamo incognite affinché l’indice delle sommatorie percorra l’insieme


0, 1, . . ., N − 1, anziché −N/2, −N/2 + 1, . . . , N/2 − 1, ponendo

Yh = γh se 0 ≤ h < N/2 , Yh = γh−N se N/2 ≤ h < N .


 T
Osserviamo che il vettore Y = Y0 Y1 · · · YN−1 definisce implicitamente
una successione Y periodica di periodo N . !
Grazie alla N periodicità della successione ωk , vale ωhk = ω(h−N)k , dunque
il sistema (2.43) diventa


N−1
Yh ωhk = yk k = 0, 1, . . . N − 1 (2.44)
h=0

e la matrice N × N dei suoi coefficienti ωhk = Fh k


⎡ ⎤
1 1 1 1 ··· 1
⎢1 ω ω 2
ω 3
··· ω N−1 ⎥
⎢ ⎥
⎢ 1 ω2 ω 4
ω 6
· · · ω 2(N−1) ⎥
F=⎢ ⎥ (2.45)
⎢ .. .. .. .. . . ⎥
⎣. . . . . . .
. ⎦
1 ωN−1 ω2(N−1) ω3(N−1) · · · ω(N−1)(N−1)

è una matrice simmetrica di Vandermonde (vedi Esercizio 2.44): le sue righe


(e le sue colonne) sono le potenze di esponenti 0, 1, . . . , N − 1 dei numeri
distinti 1, ω, ω2 , . . . , ωN−1 . Dunque det F = 0 ed F è invertibile. La sua ma-
trice inversa può essere espressa facilmente grazie all’Osservazione 2.78: scelto
w = ωk , si ottiene


N−1
N se k = 0 o k è multiplo intero di N
ωhk =
0 altrimenti
h=0

Poiché (ωk ) = ω−k , si deduce

 
  N−1
−hm
N−1
N se n = m
FF = ω nh
ω = ω h(n−m)
=
nm 0 altrimenti
h=0 h=0

1
cioè F F = N IN . Dunque F−1 = F e possiamo risolvere esplicitamente il
N
sistema (2.44):
1 
N−1
Yn = yk ω−kn . (2.46)
N
k=0

Confrontando (2.40) con (2.44) scopriamo che i coefficienti di Fourier appros-


simati con la regola dei trapezi coincidono con i coefficienti del polinomio
trigonometrico interpolante nei punti Xk = 2kπ/N definito da (2.42). Se con-
76 2 Equazioni alle differenze lineari
 T  T
sideriamo i vettori y = y0 y1 · · · yN−1 e Y = Y0 Y1 · · · YN−1 , allora
i sistemi (2.44) e (2.46), con riferimento alla (2.45), si scrivono nella forma

1
y = FY Y = F−1 y = Fy .
N
Inoltre, il vettore Y è detto Trasformata Discreta di Fourier di y (spesso
abbreviata in DFT, dall’inglese Discrete Fourier Transform) e y è detta
trasformata discreta di Fourier inversa di Y:

Y = DFT y , y = (DFT)−1 Y .

1
Dunque, la trasformazione consiste nella moltiplicazione per la matrice Fe
N
l’antitrasformazione consiste nella moltiplicazione10 per la matrice F (dove F
è definita in (2.45)).
In analogia con quanto detto per Y, il vettore y definisce implicitamente una
successione y periodica di periodo N :

y = {yh }h∈N tale che yh+N = yh ∀h ∈ N .

Esempio 2.80. Consideriamo la funzione 2π periodica definita mediante


f (x) = |x| se |x| < π e prolungata periodicamente a tutto R. Allora in [0, 2π]
abbiamo f (x) = x se 0 ≤ x ≤ π e f (x) = 2π − x se π ≤ x ≤ 2π. Scegliamo
N = 8, Xk = kπ/4 , yk = f (Xk ) con k = 0, . . . , 7. Otteniamo ω = eiπ/4 ,
( )T
π π 3 3 π π
y= 0 ππ π
4 2 4 4 2 4

e la trasformata di Fourier discreta Y = DFT y si ottiene da (2.46):


( √ √ √ √ )T
Y = 0 −2 + 2 π 0 −2 − 2 π π −2 − 2 π 0 −2 + 2 .
16 16 2 16 16
 T  T
Inoltre, grazie alla corrispondenza Y0 Y1 · · · Y7 = γ−4 γ−3 · · · γ3 ot-
teniamo il polinomio trigonometrico che interpola f su nove punti equidistanti
in [0, 2π]:
π π √  π √ 
p (x) = − 2 + 2 cos x + 2 − 2 cos 3x . 
2 8 8

10
Nelle applicazioni si incontra spesso una variante della definizione, che è sostan-
1
zialmente equivalente: trasformazione DFT effettuata moltiplicando per √ F ed
N
1
antitrasformazione ottenuta moltiplicando per √ F.
N
2.8 La Trasformata Discreta di Fourier 77

π 2π

Fig. 2.14. Polinomio trigonometrico che interpola la funzione f (Esempio 2.79)

Consideriamo in generale il polinomio


7
1 1 
q (z) = yk z k = y0 + y1 z + y2 z 2 + · · · + y7 z 7 z∈C.
8 8
k=0

Il calcolo effettivo di ciascun elemento Yn di Y = DFT y ha la complessità


computazionale11 del calcolo di q (polinomio di grado N − 1 rispetto a z)
nell’argomento ω = e2πi/N .
Proviamo infatti a calcolare Yn con l’algoritmo di Ruffini-Horner nel caso
dell’Esempio 2.79:
i) q = yN−1 ;
ii) per k = 6, 5, 4, . . . , 1, 0;
iii) q = qz + yk .
Nei tre precedenti passi per il programma di calcolo la notazione a = b si-
gnifica (secondo la convenzione usuale nei listati dei programmi di calcolo)
ad a si assegni il valore b. Dunque, nel caso del polinomio di grado 8 l’algo-
ritmo richiede 7 addizioni e 7 moltiplicazioni. In generale, esso richiede tante
addizioni e moltiplicazioni quanto è il grado del polinomio (cioè N − 1). Inol-
tre, le componenti di Y sono N , dunque il numero totale di moltiplicazioni
necessarie per calcolare la DFT è dell’ordine di N 2 . Tale numero può essere
proibitivo se N è grande.
Nel 1965 J.W. Cooley e J.Tukey idearono un algoritmo più rapido, che ri-
duce il numero di moltiplicazioni richieste: se N = 2p , allora sono richieste
N log2 N = N p moltiplicazioni, una notevole riduzione rispetto ad N 2 (sce-
gliamo ad esempio N = 212 = 4096 , allora p = 12 , N 2 = 16.777.216 mentre
N p = 49.152).

11
Numero di operazioni elementari da eseguire.
78 2 Equazioni alle differenze lineari

L’algoritmo di Cooley & Tuckey è chiamato FFT (dall’inglese Fast Fourier


Transform). Prima di entrare nei dettagli cerchiamo di comprendere l’idea
che sta alla base della FFT.
Riferendoci al problema di calcolare la DFT, supponiamo di dover calcolare
N valori di un polinomio di grado N − 1:

1  1  
N
q (z) = yk z k = y0 + y1 z + y2 z 2 + · · · + yN−1 z N−1 z∈C.
N N
k=0

Si può sfruttare il fatto che z = ω−n = e−2πin/N ed N è pari, anzi N = 2p .


Infatti, in tali ipotesi i numeri complessi in cui si vuole calcolare q si dividono
a coppie di numeri opposti che hanno lo stesso quadrato:

zn = e−2πin/N
 2
zn = − zn+N/2 zn2 = zn+N/2 .

Nel caso dell’Esempio 2.79 (p = 3, N = 8) q può essere scritto separando i


termini di grado pari e dispari:
   
q (z) = qp z 2 + qd z 2 =

   
= y0 + y2 z 2 + y4 z 4 + y6 z 6 + z y1 + y3 z 2 + y5 z 4 + y7 z 6 .

Per calcolare q (zn ) e q (zn+4 ), n = 1, 2, 3, 4, posto un = zn2 = zn+4


2
calcoliamo
qp e qd con 3 + 4 = 7 moltiplicazioni, da cui

q (zn ) = qp (un ) + qd (un )


q (zn+4 ) = qp (un ) − qd (un )

con 7 moltiplicazioni in tutto . Poiché le coppie di punti sono 4 si hanno in


tutto 4 · 7 = 28 anziché le 8 · 7 = 56 moltiplicazioni richieste da Ruffini-Horner.
Inoltre, poiché N = 2p anche i quadrati verificano la proprietà di essere, a due
a due, opposti e con lo stesso quadrato, dunque i polinomi qp e qd possono es-
sere calcolati negli zk con la stessa tecnica, e così via. Questo spiega l’efficacia
numerica dell’algoritmo DFT.
2.9 Algoritmo Fast Fourier Transform (FFT) 79

2.9 Algoritmo Fast Fourier Transform (FFT)

Consideriamo due vettori y e Y ad N componenti, con Y = DFT y, cioè:


N−1
yk = Yn ωkn k = 0, 1, . . . , N − 1
n=0
(2.47)

1 N−1
Yn = yk ω−kn n = 0, 1, . . . , N − 1 .
N k=0

Supponiamo che N sia decomponibile in un prodotto di interi: N = p1 p2 con


p1 = 1 = p2 . Allora gli indici n e k possono essere scritti nella forma:

n = n1 p2 + n0 n0 = 0, 1, . . . , p2 − 1 n1 = 0, 1, . . . , p1 − 1
k = k 1 p1 + k 0 k0 = 0, 1, . . . , p1 − 1 k1 = 0, 1, . . ., p2 − 1

Tenendo conto dell’identità ω−N = 1 si deduce

ω−n(k1 p1 +k0 ) = ω−nk0 ω−(n1 p2 +n0 )k1 p1 = ω−nk0 ω−n0 k1 p1

e sostituendo in (2.47)
p2 −1 p1 −1
1  
Yn = yk1 p1 +k0 ω−n(k1p1 +k0 ) =
N
k1 =0 k0 =0
p2 −1
$ p −1 %
1  −nk0 1 
1
−n0 k1 p1
= ω yk1 p1 +k0 ω = (2.48)
p1 p2
k0 =0 k1 =0
p2 −1
1  −nk0
= ω yk0 ,n0
p1
k0 =1

1 p1 −1
dove yk0 ,n0 = yk p +k ω−n0 k1 p1 .
p2 k1 =0 1 1 0
Nella terminologia della computer science l’effettuazione di una moltiplica-
zione e una addizione corrisponde ad un flops12. Il calcolo diretto di Y a
partire da y utilizzando la seconda delle (2.47) richiederebbe N 2 flops per
ogni componente. Osserviamo che, nell’ipotesi N = p1 p2 , la (2.48) ha ridotto
il numero di flops: nel calcolo di y si compiono p2 operazioni, e nella sostitu-

12
Più precisamente, il flops (o AM) è il numero di operazioni corrispondenti all’istru-
zione FORTRAN A (I, J ) = A (I, J ) + T ∗ A (I, K) : comprende una moltiplicazione
ed un’addizione in aritmetica floating-point, alcuni calcoli di indici e alcuni riferi-
menti alla memoria. Si incontra anche la definizione più recente di flops come una
operazione floating-point; in tal modo un flops nella prima definizione corrisponde
a due flops nella seconda.
80 2 Equazioni alle differenze lineari

zione in (2.48) se ne effettuano altre p1 . In conclusione, per calcolare ciascun


Yn , n = 0, . . . , N − 1, si effettuano N (p1 + p2 ) flops.
Se N si fattorizza ulteriormente N = p1 p2 · · · ps , allora il numero di flops si
riduce a N (p1 + p2 + · · · + ps ). Se N = ps otteniamo N ps = pN logp N flops.
In particolare:

se N = 2s allora FFT corrisponde a 2N log2 N flops

Esempio 2.81. Con riferimento alla terminologia della Teoria dei Segnali con-
sideriamo un segnale discreto cioè una successione di numeri ad indici interi
relativi13 X = {Xk }k∈Z .
Consideriamo un sistema o filtro causale, cioè una trasformazione che al
segnale discreto X in ingresso fa corrispondere un altro segnale Y = {Yk }k∈Z
in uscita, secondo la legge:
+∞

Yn = Kn−m Xm n∈Z (2.49)
m=−∞

X → filtro → Y


dove K = {Km }m∈Z è una successione assegnata verificante m |Km | < +∞
e Km = 0 se m è minore di zero14 . Osserviamo innanzitutto che, se l’ingresso
X è N periodico allora anche l’uscita Y è N periodica, infatti ∀n ∈ Z :
+∞
 +∞
 +∞

Yn+N = Kn+N−m Xm = Kn−m Xm−N = Kn−m Xm = Yn .
m=−∞ m=−∞ m=−∞

In realtà i segnali X e Y sono descritti da vettori ad N componenti che


 T  T
denoteremo con X = X0 X1 · · · XN−1 ed Y = Y0 Y1 · · · YN−1 .
Un problema importante consiste nel risolvere il filtro (2.49), cioè nel deter-
minare D tale che X = DY.
Il sistema (2.49) può essere rappresentato mediante un’applicazione lineare di
Rn in sè stesso (vedi Appendice D) cioè anziché calcolare le serie in (2.49) si
calcolano somme finite, corrispondenti alla moltiplicazione di una matrice per
13
In tutto il libro, salvo che nell’Esempio 2.81, l’indice di successione è sempre na-
turale (n ∈ N). Tuttavia, per descrivere l’azione di un filtro causale su un segnale
periodico la scelta degli indici k ∈ Z è quella naturale.
14
Quest’ultima proprietà caratterizza la causalità del filtro: ad un ingresso (non
periodico) X tale che Xk = 0 se k < 0, corrisponde una uscita Y tale che Yk = 0 se
k < 0.
2.9 Algoritmo Fast Fourier Transform (FFT) 81

un vettore. Dunque, cerchiamo di stabilire se esiste una matrice K di ordine


N × N tale che Y = KX e in caso affermativo di determinarla (D, se esiste,
è uguale a K−1 ). A questo scopo definiamo15 il vettore
+∞

K di componenti κn = Kn+jN n = 0, . . . , N − 1 .
j=−∞

Allora
+∞
 +∞ N−1
 
Yn = Kn−m Xm = Kn−(l−pN) Xl−pN =
m=−∞ p=−∞ l=0
+∞ N−1
  
N−1 +∞
 
N−1
= Kn+pN−l Xl = Xl Kn+pN−l = κn−l Xl .
p=−∞ l=0 l=0 p=−∞ l=0

Dunque, la (2.49) ha una formulazione N dimensionale quando X è N perio-


dico: sia K una matrice quadrata di ordine N tale che Kn m = κn−m . Allora:

Y = KX (2.50)

che è un sistema di N equazioni che semplifichiamo ulteriormente trasforman-


dolo in N equazioni scalari disaccoppiate.
Osserviamo che K è una matrice circolante, cioè ogni riga è una permuta-
zione ciclica della riga precedente.
Prendiamo la DFT−1 (antitrasformata di Fourier Discreta) di ambo i mem-
bri di (2.50) e, posto x = (DFT)−1 X, y = (DFT)−1 Y, k = (DFT)−1 K, si
ottiene
$ %
 N−1
N−1 
yn = κk−m Xm ωkn =
k=0 m=0

 N−1
N−1 
= κk−m ω(k−m)n Xm ωmn =
k=0 m=0

N−1 
N−1
= Xm ωmn κk−m ω(k−m)n =
m=0 k=0
= xn kn n = 0, . . . , N − 1
 T  T  T
dove x = x0 x1 · · · xN−1 , y = y0 y1 · · · yN−1 , k = k0 k1 · · · kN−1 .
Le N equazioni scalari yn = xn kn sono disaccoppiate, e se kn = 0, ∀n, si


15
Lavoriamo nell’ipotesi che +∞
m=−∞ |Km | < +∞, che è una condizione necessaria
e sufficiente affinché a segnali limitati in ingresso corrispondano segnali limitati in
uscita (proprietà denominata stabilità del filtro).
82 2 Equazioni alle differenze lineari

ricava
yn
xn =
kn
e applicando la DFT
1  yh −hn
N−1
Xn = ω .
N kh
h=0

Poiché y = (DFT)−1 Y, Xn si può esprimere in termini di Yn come:


N−1
Yj ωjh
1 
N−1
j=0
Xn = ω−hn
N kh
h=0

ossia,
1   
X = F diag k−1 −1 −1
0 , k1 , . . . , kN−1 FY =
N  
 −1 −1  −1
= DFT diag k0 , k1 , . . . , k−1N−1 (DFT) Y

ove ⎡ ⎤
k−1
0 0 ··· 0
 ⎢ ⎥
−1
 ⎢ 0 k1 · · · 0 ⎥
diag k−1
0 , k−1
1 , . . . , k−1
= ⎢ .. .. . . .. ⎥ .
N−1
⎣ . . . . ⎦
−1
0 0 · · · kN−1
Concludendo:
1   
D= F diag k−1 −1 −1
0 , k1 , . . . , kN−1 F.
N
Osserviamo infine che se N è grande, anziché calcolare i prodotti fra matrici,
conviene calcolare trasformate ed antitrasformate mediante FFT. 

Definizione 2.82. Definiamo la convoluzione circolare di due vettori


 T  T
N -dimensionali x = x0 x1 · · · xN−1 e y = y0 y1 · · · yN−1 :


N−1
(x ∗ y)k = xj yk−j k = 0, 1, . . ., N − 1
j=0

dove se k − j < 0 allora yk−j denota convenzionalmente il valore yk−j+N .

Osserviamo l’analogia fra le definizioni di convoluzione circolare di vettori e


la convoluzione discreta di successioni (vedi la Definizione 2.45 e l’Esercizio
2.47). Pur trattandosi di operazioni differenti, il fatto di indicarle con lo stesso
simbolo non crea equivoco perché tali operazioni si effettuano su oggetti di
natura diversa.
Illustriamo alcune utili relazioni fra convoluzione circolare e DFT.
2.10 Esercizi di riepilogo 83

Teorema 2.83. Dati due vettori N -dimensionali x e y , usando la notazione


3 = DFTx, y
x 3 = DFTy, valgono:

3
3
(I) x = N x
(II) x 3y
∗y = Nx 3
4y = x
(III) x 3 ∗y
3

Prova.

(I) x = (DFT)−1 x  = Fx = Fx =Nx .
(II) Tutte le somme vanno intese al variare dell’indice da 0 a N − 1:
  1 −kh 1 −k(h−l)
x
∗y k = ω xl yh−l = ω yh−l ω −kl xl =
N N
h l h,l

1 −kl −k(h−l)
= ω xl ω yh−l =
N
l h
  
1 −kl 1 −k(h−l)
=N ω xl ω yh−l =
N N
l h
x)k (
= N ( y )k .

, y = v
(III) Scegliendo x = u  nella (II), coniugando e tenendo conto della (I),
otteniamo:
  = Nu 
v
 =
1
u ∗v uv .
N


Trasformando uv = N u  , tenendo conto nuovamente di (I), otteniamo:
∗v

∗v
uv = u  = u
∗v
. 

2.10 Esercizi di riepilogo


Esercizio 2.30. Determinare il numero minimo di mosse Xk descritto ricorsiva-
mente nella soluzione degli Esercizi 1.9 e 1.10.

Esercizio 2.31. Assegnato λ ∈ R, determinare la soluzione del problema



1
Xk+1 = Xk − 2
3
X0 = λ

Studiare il comportamento asintotico di Xk al variare di λ ∈ R, e rappresentare


graficamente l’andamento della successione per λ = 0.
84 2 Equazioni alle differenze lineari

Esercizio 2.32. Assegnato λ ∈ R, determinare la soluzione dell’equazione



Xk+1 = −Xk + 3
X0 = λ

Studiare il comportamento asintotico al variare di λ ∈ R. Rappresentare grafica-


mente l’andamento della successione per λ = 0, 5.

Esercizio 2.33. Determinare la soluzione generale di ciascuna delle seguenti equa-


zioni alle differenze omogenee:

1) Xk+3 + Xk = 0 ∀k ∈ N 2) Xk+4 − Xk = 0 ∀k ∈ N

3) Xk+4 + Xk = 0 ∀k ∈ N 4) Xk+4 + 8Xk+2 + 16Xk = 0 ∀k ∈ N .

Esercizio 2.34. Risolvere il problema



Xk+2 − Xk+1 − 2Xk = k k∈N
X0 = 0, X1 = 1

Esercizio 2.35. Risolvere il problema:



Xk+2 − 5Xk+1 + 6Xk = Kk0
∀k ∈ N
X0 = X1 = 0

dove Kk0 denota l’impulso di Kronecker in 0: K00 = 1, Kk0 = 0, ∀k > 0.

Esercizio 2.36 (Rovina del giocatore). Un giocatore effettua una successione


di puntate di valore fissato del valore di un Euro, ogni puntata ha una probabilità
p ∈ (0, 1) di vittoria (p è noto e indipendente dalla puntata).
Se il giocatore inizia con k Euro e il gioco si interrompe quando il giocatore perde
tutto il denaro o riesce ad averne un importo s (dove s è noto e 0 ≤ k ≤ s), si calcoli
la probabilità Rk che il giocatore perda tutto cominciando con k Euro, essendosi
prefissato l’obiettivo di arrivare ad avere s Euro.

Esercizio 2.37 (Approfondimento critico sul modello della ragnatela). Nel


modello degli Esempi 1.10 e 2.8, mantenendo Qdk+1 = a − bPk+1 per la quantità
domandata, si supponga più realisticamente che la funzione di offerta sia

Qok+1 = −c + dPk+1
e

e
ove Pk+1 è il prezzo atteso al tempo k + 1 sulla base di aspettative che si formano
alternativamente in uno dei due modi seguenti:

1. (prezzo normale) il prezzo atteso dipende da quanto il prezzo attuale si disco-


sta dal prezzo normale PN , che per semplicità supponiamo sia pari al prezzo di
equilibrio PE = (a + c) / (b + d), che il produttore pensa che prima o poi sarà il
prezzo al quale venderà il proprio prodotto:
e
Pk+1 = Pk + δ (PN − Pk ) δ ∈ (0, 1) ;
2.10 Esercizi di riepilogo 85

2. (aspettative adattive) le aspettattive sono adattate in ogni periodo sulla base della
discrepanza fra quanto atteso e quanto osservato:
e
Pk+1 − Pke = β (Pk − Pke ) β ∈ (0, 1) .

In entrambi i casi, determinare l’espressione in forma chiusa dell’equazione dinamica


del prezzo, confrontando i risultati ottenuti con quelli del modello dell’Esempio 2.8.

Esercizio 2.38. Esplicitare i coefficienti dello sviluppo delle soluzioni particolari


individuate nell’Esercizio 1.14 per le equazioni di Bessel, Hermite, Laguerre e Le-
gendre. Esplicitare le corrispondenti soluzioni.

Esercizio 2.39. Consideriamo una operazione finanziaria che prevede k pagamenti


di importo costante (unitario) a k scadenze annuali (cominciando alla fine del primo
anno).
Calcolare il valore attuale Ak dell’operazione finanziaria, cioè l’importo equivalente
di un pagamento immediato, nelle ipotesi di tasso annuo di interesse composto e
costante uguale ad r.
Scrivere una relazione ricorsiva che lega Ak+1 e Ak , determinandone la soluzione in
forma chiusa.
Rispondere alle domande precedenti nel caso di tasso rk dipendente da k.

Esercizio 2.40. Viene erogato un mutuo di importo M che sarà estinto in k rate
costanti. Ipotizzando che il tasso annuo di interesse r sia composto e costante, ed i
pagamenti effettuati ai tempi 1, 2, . . . , k, calcolare l’importo Q di ciascuna rata.

Esercizio 2.41. Un’obbligazione di tipo reverse-floater fornisce cedole che varia-


no nel tempo secondo una formula prefissata all’atto dell’emissione, ma dipendente
da parametri legati all’andamento di indici economici. Consideriamo ad esempio
un’obbligazione della durata di 10 anni che fornisce una cedola del 6, 5% (annuo)
per i primi due anni ed in seguito un interesse percentuale pari a

rk = massimo fra {1, 5 e 15 − 2τk }

dove τk è l’indice Euribor a 12 mesi.


a) Determinare il massimo e il minimo tasso d’interesse cedolare annuo conseguibile
in ciascun anno.
b) L’obbligazione considerata ha una elevata componente di rischio/possibilità di
guadagno, non inferiore a quella di un titolo azionario. In particolare, il prezzo
dell’obbligazione sul mercato secondario16 sarà soggetto a notevoli fluttuazioni.
Per illustrare questa situazione si valuti il prezzo Pk al quale può essere rivendu-
ta l’obbligazione nell’anno k ad un acquirente che si attenda un flusso cedolare
non inferiore a τk e ipotizzi che non vi siano variazioni dell’indice Euribor fino
a scadenza.
c) Sulla base dell’ipotesi del punto precedente, valutare il saldo dell’operazione
ipotizzando di vendere l’obbligazione nell’anno k (senza aver nel frattempo rein-
vestito le cedole riscosse).

16
Nel mercato secondario vengono scambiati titoli obbligazionari prima della loro
scadenza.
86 2 Equazioni alle differenze lineari

d) Se l’indice Euribor assume i valori 5 5, 1 5, 2 4, 9 4 3 2, 5 2, 6 4 7, 5 nei va-


ri anni di vita del titolo, qual è il saldo dell’operazione se si vende il titolo a
scadenza?
Esercizio 2.42. Dimostrare il Teorema 2.46 sulla Z-trasformata della convoluzione
discreta.
Esercizio 2.43. Posto Sk = 1k + 2k + 3k + · · · + nk , mostrare che vale la relazione
!     "
1 k+2 k k+2
Sk+1 = (n + 1) − (n + 1) − Sk − · · · − S1 .
k+2 2 k+1

Esercizio 2.44. Nella prova del Teorema 2.15 si sfrutta la conoscenza del determi-
nante di Vandermonde. Verificare la correttezza dell’espressione utilizzata.
1
Esercizio 2.45. Calcolare la Z-trasformata della successione Xk = .
k!
Esercizio 2.46 (Sbarra elastica sostenuta da supporti). Consideriamo una
sbarra metallica di materiale omogeneo e sezione uniforme appoggiata a N − 1
supporti equidistanziati (Fig. 2.15) e soggetta a carichi W agli estremi.

Fig. 2.15. Sbarra appoggiata a supporti equidistanti e caricata agli estremi

In assenza di altri carichi, si può mostrare che i momenti flettenti in corrispondenza


dei supporti verificano l’equazione a due passi, detta equazione dei tre momenti (si
veda l’Esempio 1.22),

Mk−1 + 4Mk + Mk+1 = 0 1 ≤k ≤N −1

e che i momenti flettenti agli estremi della sbarra sono dati da

M0 = MN = −W d .

Determinare i momenti flettenti in corrispondenza dei supporti (si noti che anziché
due condizioni iniziali, abbiamo una condizione iniziale ed una condizione finale,
dette anche condizioni al bordo).
# $T
Esercizio 2.47. Siano assegnati due vettori X = X0 X1 · · · XN −1 e Y =
# $T
Y0 Y1 · · · YN −1 e due successioni X e Y i cui primi N termini coincidono ri-
spettivamente con le componenti di X e Y e Xk = Yk = 0 se k ≥ N . Provare che
(X ∗ Y )k = 0 se k > 2N − 2 e

(X ∗ Y)k = (X ∗ Y )k + (X ∗ Y )k+N k = 0, 1, . . . , N − 1 .
3
Sistemi dinamici discreti: equazioni
scalari ad un passo

In questo capitolo affrontiamo lo studio di alcuni problemi non lineari. I mo-


delli di cui ci occuperemo descrivono l’evoluzione di fenomeni a passi discreti
corrispondenti ad intervalli temporali di lunghezza prescritta (eventualmente
variabile). Per questo motivo essi vengono chiamati sistemi dinamici discreti.
È utile studiare tali modelli lasciando indeterminata la condizione iniziale,
perché spesso essa è conosciuta solo con un certo grado di approssimazio-
ne, e comunque ha interesse conoscere il comportamento qualitativo di tutte
le traiettorie per sapere se esse presentano o meno certe caratteristiche di
struttura.
A differenza del caso lineare, non si sanno esplicitare le soluzioni, salvo casi
particolari. È comunque utile il raffronto locale con sistemi dinamici discre-
ti lineari “vicini” per ottenere condizioni esplicite sul comportamento delle
traiettorie.
Data la complessità del problema, consideriamo qui solo sistemi dinamici di-
screti scalari, autonomi e ad un passo temporale.

3.1 Definizioni preliminari

Un sistema dinamico discreto, brevemente s.d.d., è la formalizzazione


di un fenomeno evolutivo completamente descritto da una funzione la cui
immagine è contenuta nel dominio: a partire da ogni stato iniziale ammissi-
bile, si genera una successione di stati mediante la ripetizione iterativa della
trasformazione indotta dalla funzione assegnata.
Vediamo una definizione formale di sistema dinamico discreto che comprende
i casi di cui ci occuperemo in questo capitolo e nel successivo.
Definizione 3.1. Siano I un intervallo contenuto in R contenente almeno due
punti distinti, ed f : I → I una funzione continua. La coppia {I, f} viene det-
ta sistema dinamico discreto su I, del primo ordine, autonomo, in
forma normale.
E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione
UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_3, © Springer-Verlag Italia 2014
88 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Osservazione 3.2. Si noti che, assegnati un s.d.d. {I, f} ed un valore ini-


ziale X0 ∈ I, è univocamente determinata una successione {Xk } definita per
ricorrenza da
Xk+1 = f (Xk ) k∈N
per cui risulta

X1 = f (X0 )
X2 = f (X1 ) = f (f (X0 ))
X3 = f (X2 ) = f (f (f (X0 )))
... = ...
Xk = f (Xk−1 ) = f (f (. . . (f (X0 )))) = f ◦ f ◦ · · · ◦ f (X0 )
 

k volte

dove tutte le valutazioni di f sono ben definite perché f (I) ⊆ I.


Viceversa, in molti casi le successioni definite per ricorrenza si possono in-
terpretare come successioni generate da un s.d.d. in corrispondenza ad un
particolare valore iniziale.

Esempio 3.3. Consideriamo alcuni esempi di s.d.d. {I, f} a fianco dei quali
abbiamo indicato la corrispondente legge ricorsiva:
1 1
f (x) = x I = [0, 1] Xk+1 = Xk
2 2

f (x) = 5x I=R Xk+1 = 5Xk

f (x) = 3x + 2 I=R Xk+1 = 3Xk + 2

x Xk
f (x) = I = (0, +∞) Xk+1 = 
1+x 1 + Xk
Per denotare la iterata k-esima di f adotteremo la seguente notazione

f 0 = identità
fk = f ◦ f ◦ · · · ◦ f
 

k volte

Dunque, tornando al s.d.d. {I, f}, risulta Xk = f k (X0 ), ∀k ∈ N.

Osservazione 3.4. Il lettore è probabilmente abituato ad utilizzare la nota-


zione (comoda, ma formalmente scorretta) che omette le parentesi per deno-
tare il prodotto per sè stesso del valore di una funzione: ad esempio, sin2 x
2
anziché (sin x) . Tale consuetudine andrebbe tuttavia limitata ai soli casi in
cui non può creare equivoco con la composizione ed evitata nei casi, come il
nostro, in cui sin2 x deve, più correttamente, indicare sin (sin x) .
3.1 Definizioni preliminari 89

Definizione 3.5. Un s.d.d. {I, f} si dice lineare se f è lineare; (lineare)


affine se f è (lineare) affine; non lineare se f non è lineare affine.

Esempio 3.6. Con riferimento all’Esempio 3.3, i primi due s.d.d. sono lineari,
il terzo è lineare affine, il quarto è non lineare. 

Sottolineiamo esplicitamente che, salvo casi molto particolari di cui vedremo


solo pochi esempi, non si sanno determinare espressioni esplicite per i s.d.d.
non lineari, cioè non si riesce a calcolare Xk come funzione nota di k ed X0 .
Pertanto diventa assai importante lo studio qualitativo dell’andamento del-
le successioni che soddisfano la relazione ricorsiva, del loro comportamento
asintotico e della dipendenza di tale comportamento dai dati iniziali.

Definizione 3.7. Assegnati un s.d.d. {I, f} ed un valore X0 ∈ I, la succes-


sione
!
{X0 , X1 , . . . , Xk , . . . } = X0 , f (X0 ) , f 2 (X0 ) , . . . , f k (X0 ) , . . .

si dice traiettoria (o orbita), indicata con γ (I, f, X0 ), del s.d.d. corrispon-


dente al valore iniziale X0 .

Definizione 3.8. L’insieme di tutte le orbite o traiettorie di un s.d.d. {I, f}


al variare di X0 ∈ I si dice quadro delle fasi (o quadro delle traiettorie).

È spesso utile una visualizzazione grafica del quadro delle fasi, in cui si evi-
denziano mediante frecce i successivi cambi di posizione dovuti alla iterazione
della funzione che governa il s.d.d.
!
Esempio 3.9. Consideriamo il s.d.d. R, x4 . Rappresentiamo R con una ret-
ta (orientata) verticale e disegnamo il quadro delle fasi. Si osservi che f (0) =
0, f (1) = 1 e f (x) > x se x > 1 , 0 < f (x) < x se 0 < x < 1 e f (x) > 0
se x < 0. Il disegno in Fig. 3.1 evidenzia che tutte le traiettorie diventano
non negative alla prima iterazione; inoltre, se 0 ≤ |x| < 1 la traiettoria f k (x)
tende a zero, mentre se |x| > 1 la traiettoria f k (x) tende a +∞ (i valori 0 ed
1 corrispondono a traiettorie costanti). 

Esempio 3.10. In Fig. 3.2 è tracciato il diagramma delle fasi del sistema
dinamico discreto {[−π, π] , cos x}. 

Esempio 3.11. Un sistema di infinite equazioni del tipo (equazione alle dif-
ferenze del primo ordine)

Xk+1 − Xk = g (Xk ) k∈N (3.1)

corrisponde al s.d.d. {I, f} qualora, posto f (x) = g (x) + x, si determini un


intervallo I ⊆ R tale che f (I) ⊆ I, nel senso che in tali ipotesi il quadro
delle fasi del s.d.d. {I, f} è l’insieme di tutte le soluzioni delle equazioni alle
differenze (3.1) che hanno valore iniziale X0 in I. 
90 3 Sistemi dinamici discreti: equazioni scalari ad un passo

% &
Fig. 3.1. s.d.d. R, x4 Fig. 3.2. s.d.d. {[−π, π] , cos x}

Osservazione 3.12. In molti modelli matematici discreti si incontrano fun-


zioni f la cui immagine non è contenuta nel dominio (ad esempio f (x) =
log x), o funzioni il cui dominio non è neppure un intervallo (ad esempio
f(x) = 1/x). In tali casi ha comunque interesse studiare l’equazione alle diffe-
renze1 Xk+1 = f (Xk ) che tuttavia risulta ben posta solo per quelle scelte del
valore iniziale X0 che garantiscono che f (Xk ) appartenga al dominio di f per
ogni k.

Definizione 3.13. Dato un s.d.d. {I, f}, un numero α ∈ R si dice equilibrio


(o punto fisso o punto stazionario) per il s.d.d. se vale

α = f (α) α∈I

Se si sceglie un dato iniziale X0 = α che è di equilibrio, allora l’orbita corri-


spondente si dice orbita stazionaria:

γ (I, f, α) = {α, α, α, . . . } .

1
Chiaramente equivale a Xk+1 − Xk = g (Xk ) dove g (x) = f (x) − x.
3.1 Definizioni preliminari 91

Più in generale, se per un certo X0 ∈ I esiste un k tale che f k (X0 ) = α =


f (α), allora la traiettoria è definitivamente stazionaria:
!
γ (I, f, X0 ) = X0 , f (X0 ) , f 2 (X0 ) , . . . , f k−1 (X0 ) , α, α, α, . . . .

Osservazione 3.14. La ricerca degli equilibri di un s.d.d. {I, f} è equivalente


alla determinazione delle intersezioni nel piano di coordinate x, y della retta
di equazione y = x con il grafico di f, di equazione y = f (x), con l’ulteriore
richiesta di limitarsi alle intersezioni contenute nell’insieme I × I.

Osservazione 3.15. Se α è un equilibrio


! per il s.d.d. {I, f}, allora α è un
equilibrio anche per il s.d.d. I, f k per ogni k ∈ N .

Definizione 3.16. Assegnato un s.d.d. {I, f}, se esiste un insieme di s valori


{α0 , α1 , . . . , αs−1 } appartenenti all’intervallo I, diversi tra loro e verificanti

α1 = f (α0 ) , α2 = f (α1 ) , . . ., αs−1 = f (αs−2 ) , α0 = f (αs−1 )

allora tale insieme si dice orbita periodica di (minimo) periodo s o ciclo


di ordine s o s ciclo); s prende il nome di periodo dell’orbita o ordine
del ciclo.
Se si sceglie come dato iniziale X0 = α0 , allora la corrispondente traiettoria
γ (I, f, α0 ) ha andamento s periodico:

γ (I, f, α0 ) = {α0 , α1 , α2 , . . . , αs−1 , α0 , α1 , α2 , . . . , αs−1 , α0 , . . . } .

Più in generale, un’orbita X di {I, f} si dice definitivamente periodica se


esistono h ∈ N ed {α0 , α1 , . . . , αs−1 } diversi tra loro e verificanti

Xh = α0 , Xh+1 = α1 , . . . , Xh+s = α0 .

Le eventuali orbite periodiche di periodo s di un s.d.d. {I, f} si determinano


come le traiettorie i cui valori appartengono all’insieme delle soluzioni dell’e-
quazione {x ∈ I : f !
s
(x) = x}, privato delle soluzioni di tutte le s−1 equazioni
x ∈ I : f (x) = x , h = 1, 2, . . . , s − 1 (si veda l’Osservazione 3.15).
h

Esempio 3.17. Il s.d.d. lineare {R, 2x} presenta un solo equilibrio (α = 0) e


nessuna orbita periodica. 

Esempio 3.18. Il s.d.d. lineare {R, −x} presenta un solo equilibrio (α = 0)


ed infinite orbite periodiche di periodo due: {X0 , −X0 } (si veda la Fig. 2.2). 

Esempio 3.19. Il s.d.d. non lineare {(0, +∞) , 1/x} presenta un! solo equili-
brio (α = 1) ed infinite orbite periodiche di periodo 2 : X0 , X0−1 (si veda la
Fig. 3.3). 
92 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Fig. 3.3. Equilibrio e orbite periodiche di {(0, +∞) , 1/x}

 !
Esempio 3.20. Il s.d.d. non lineare [0, 1] , a x − x2 con a ∈ R presenta
un’orbita definitivamente stazionaria per X0 = 1: {1, , 0, 0, . . . }. 
 2
!
Esempio 3.21. Il s.d.d. [0, 1] , 4 x −  x presenta
! due equilibri, 0 e 3/4,
2
che sono le soluzioni di x ∈ [0, 1] : 4 x − x = x , ed una sola orbita 2 pe-
 √   √  !
riodica 5 − 5 /8, 5 + 5 /8 ottenuta risolvendo
"     2  #
x ∈ [0, 1] : 4 4 x − x2 − 16 x − x2 =x . (3.2)

ed eliminando i valori 0 e 3/4. Si noti che l’equazione di quarto grado (3.2)


non è di risoluzione immediata; tuttavia si possono raccogliere i termini x e
(x − 3/4) riducendola ad una equazione di secondo grado. 

Esempio 3.22. La funzione continua



⎨ x+2 x < −1
f(x) = −x −1≤x≤1

x−2 x>1

genera la traiettoria definitivamente 2 periodica X : X0 = 5, X1 = 3, X2 =


1, X3 = −1, X4 = 1 . . . .

Il seguente teorema dà una condizione sufficiente per l’esistenza di punti fissi.

Teorema 3.23. Sia I = [a, b] un intervallo chiuso e limitato, contenuto in R


e f : I → I una funzione continua. Allora esiste α ∈ I tale che α = f (α).

Prova. La funzione g (x) = x − f (x) è continua in I, in quanto differenza di funzioni


continue, e
g (a) = a − f (a) ≤ 0 ≤ b − f (b) = g (b) .
3.1 Definizioni preliminari 93

a b
Fig. 3.4. Grafico di una funzione verificante le ipotesi del Teorema 3.23

Dunque, o g si annulla in a, o g si annulla in b, oppure, se non si annulla negli


estremi allora, per il teorema di esistenza degli zeri, g deve annullarsi all’interno
dell’intervallo [a, b]. 

Corollario 3.24. Se {I, f} è un s.d.d. ed I è un intervallo chiuso e limitato,


allora esiste un equilibrio.

Se I non è limitato oppure se I è aperto, allora vengono meno la tesi del


Teorema 3.23 e del Corollario 3.24, come illustrato dai seguenti esempi:

I=R f (x) = x + ex

I = (0, 1) f (x) = x2 .

Comunque vale il risultato seguente.


Teorema 3.25. Sia A un qualunque sottoinsieme non vuoto di R, f : A → A
una funzione continua, X0 ∈ A ed Xk+1 = f (Xk ), k ∈ N. Se esiste finito
L = lim Xk ed L ∈ A , allora L è un punto fisso di f, cioè L = f (L).
k

Prova. Se Xk → L ∈ A, si ha Xk+1 → L. Così:

perché Xk+1 =f (Xk )


L = lim Xk = lim Xk+1 =
k k

perché f è continua
= lim f (Xk ) =
k
 
= f lim Xk =
k
= f (L) . 
94 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Il Teorema 3.25 ci permette di applicare la seguente strategia per lo studio


del comportamento asintotico di un s.d.d. {I, f}:
se la funzione f è continua, si ricercano le eventuali soluzioni reali dell’equa-
zione
{L ∈ I : f (L) = L} .
Fra queste si trovano gli eventuali limiti finiti di Xk+1 = f (Xk ) al variare di
X0 in I.

Considerazioni di tipo monotonia consentono di stabilire l’esistenza o meno


di soluzioni divergenti nei casi in cui I è illimitato.

Esempio
√ 3.26. Consideriamo il s.d.d. {I, f} dove I = [−2, +∞) ed f (x) =
x + 2. Allora la funzione f è continua e ricordando che una radice aritmetica
è una quantità non negativa

√ L≥0
L+2= L ⇒ ⇒ L = 2.
L + 2 = L2

Per il Teorema 3.25, l’eventuale limite finito è l’equilibrio α = 2. Inoltre,


limk Xk = +∞ è da escludersi perché Xk ≤ 2 o Xk > 2 implicano rispettiva-
mente Xk+1 ≤ 2 o Xk+1 < Xk . 

Avere individuato i possibili comportamenti asintotici di un s.d.d. non conclu-


de l’analisi asintotica: occorre chiarire se le soluzioni {Xk } ammettono limite; a
tale scopo risulta utile il teorema di esistenza del limite per successioni
monotòne2:
una successione reale monotòna crescente (decrescente) ammette sempre limi-
te; tale limite è finito se e solo se la successione è limitata, è +∞ ( −∞) se e
solo se la successione è illimitata.

Spesso è comodo ricorrere al principio di induzione per provare la monotonia


di una soluzione Xk nei casi concreti.

Esempio 3.27. Consideriamo la successione Xk+1 = Xk2 con X0 = λ ∈ (0, 1)


e mostriamo, per induzione, che è strettamente decrescente.
Da λ ∈ (0, 1) segue X1 = λ2 < λ = X0 < 1. Inoltre, se 0 < Xk < Xk−1 allora
0 < Xk2 < Xk−12
cioè Xk+1 < Xk . Dunque Xk è strettamente decrescente.
Notiamo che, essendo la successione inferiormente limitata da 0, da quanto
appena dimostrato e dal Teorema 3.25 segue limk Xk = 0. 
Esercizio 3.1. Tracciare i diagrammi di fase dei seguenti s.d.d. {I, f }:

1
1) I = R, f (x) = arctan x 2) I = (0, +∞) , f (x) =.
x
2
Ricordiamo che una successione X si dice monotòna crescente (rispettivamente de-
crescente) se Xk+1 ≥ Xk (rispettivamente Xk+1 ≤ Xk ) per ogni k. La monotonia
si dice stretta quando tutte le disuguaglianze sono strette.
3.2 Ancora sull’analisi grafica 95

Esercizio 3.2. Determinare graficamente i punti fissi di {R, ex − 1}.


Esercizio 3.3. Determinare le orbite 3 periodiche di {[0, 1] , 1 − 2 |x − 1/2|}.
% &
Esercizio 3.4. Determinare eventuali equilibri e cicli di R, x2 .
% √ &
Esercizio 3.5. Determinare eventuali equilibri e cicli di [−3, 3] , 9 − x2 .
Esercizio 3.6. Determinare eventuali equilibri e cicli di {R, (|x| − x) /2}.
Esercizio 3.7. L’Esempio 3.17 ha mostrato che un s.d.d. può ammettere equilibri
senza ammettere orbite 2 periodiche. Dimostrare che se un s.d.d. {I, f } ammette
un’orbita 2 periodica allora ammette necessariamente un equilibrio.
Esercizio 3.8. Studiare la monotonia, al variare di λ in [−2, +∞), della successione

Xk+1 = Xk + 2
(3.3)
X0 = λ

Esercizio 3.9. Provare che se il s.d.d. {I, f } (I ⊂ R intervallo ed f continua) ha


un’orbita 2 periodica, allora ha un equilibrio nell’intervallo con estremi nei punti
dell’ orbita.

3.2 Ancora sull’analisi grafica


È di grande utilità nello studio dei s.d.d. l’uso del metodo grafico già intro-
dotto nel paragrafo 1.4 nel caso particolare di una funzione f lineare affine.
Ovviamente l’approccio grafico si può applicare con qualunque funzione f,
anche non lineare.
L’efficacia di tale metodo non dipende solo dall’aiuto che dà alla previsione
visiva delle traiettorie ma al fatto che corrisponde ad un semplice algoritmo
la cui iterazione può essere delegata a procedure di calcolo automatico: ad
esempio, se {I, f} è il s.d.d. ed X0 il dato iniziale, allora un programma per
calcolare con un computer le prime 100 iterazioni esegue le istruzioni seguenti

Algoritmo per l’analisi grafica

(1) k=0
(2) x = X0
(3) y = f (x)
(4) x=y
(5) k =k +1
(6) se k = 100 stop, se k < 100 torna a (3)

L’istruzione (6) interrompe ad un certo valore di k le iterazioni, altrimenti il


ciclo non avrebbe termine.
96 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Se si è interessati ai valori Xk basta inserire una istruzione (3’) tra (3) e (4):

(3’) stampa k e x

ottenendo in tal modo una tabella della traiettoria:


k 0 1 2 ... k ...

valori successione X0 X1 X2 . . . Xk . . .

Per riportare più passi con maggior chiarezza nella rappresentazione grafica
conviene omettere i segmenti verticali di estremi (Xk , 0) e (Xk , Xk ) ed i seg-
menti orizzontali di estremi (0, Xk+1 ) e (Xk , Xk+1 ) ottenendo delle spezzate
che spesso sono chiamate ragnatele.

Xk+1 Xk

Xk k

Fig. 3.5. Ragnatela di {R, ex }, X0 = −2 Fig. 3.6. Traiettoria

Xk+1 Xk

k
Xk

% &
Fig. 3.7. Ragnatela di R, e−x , X0 = −1 Fig. 3.8. Traiettoria
3.3 Comportamento asintotico in ipotesi di monotonia 97

Esercizio 3.10. Si affronti lo studio del s.d.d. dell’Esempio 3.26 con il metodo gra-
fico: si noti come sia molto più facile congetturare e provare le corrette proprietà di
monotonia. Inoltre i grafici suggeriscono una strategia di prova molto semplice: se
−2 ≤ x ≤ 2, allora x < f (x) < 2 , dunque Xk è monotòna e limitata. . . .

3.3 Comportamento asintotico in ipotesi di monotonia


Dato un s.d.d. {I, f}, lo studio della monotonia delle successioni indotte può
non risultare immediato. Più semplice appare lo studio della monotonia della
funzione f , studio dal quale si possono ricavare, con i risultati del paragrafo
precedente, alcune informazioni sull’andamento asintotico delle traiettorie.
Riassumiamo queste considerazioni in un paio di flow-chart (riportati nel se-
guito e denominati Algoritmo I e Algoritmo II) che descrivono un algoritmo
pratico per lo studio qualitativo delle traiettorie di {R, f} quando f è mono-
tòna, senza ulteriori ipotesi o informazioni sulla sua derivabilità. La dimostra-
zione è lasciata come esercizio.

Algoritmo I

Sia f : R → R una funzione continua e crescente. Allora

assegnato X0 ∈ R calcolare X1 = f (X0 )

se X1 = X0 , allora Xk = X0 per ogni k ∈ N



⎪ se esistono punti fissi di f maggiori di X0 , allora



⎨ Xk → α, minimo punto fisso maggiore di X0

se X1 > X0



⎪ se non esistono punti fissi di f maggiori


⎩ di X0 , allora Xk  +∞



⎪ se esistono punti fissi di f minori di X0 , allora



⎨ Xk → β, massimo punto fisso minore di X0

se X1 < X0



⎪ se non esistono punti fissi di f minori


⎩ di X0 , allora Xk  −∞
98 3 Sistemi dinamici discreti: equazioni scalari ad un passo

I simboli  e  denotano rispettivamente monotonia crescente e decrescente.


A proposito dell’Algoritmo II, si noti che se f è decrescente allora f 2 è cre-
scente, pertanto per la dimostrazione si può applicare il primo schema sepa-
ratamente alle successioni dei termini di indice pari e di indice dispari.

Algoritmo II

Sia f : R → R una funzione continua e decrescente. Allora

assegnato X0 ∈ R calcolare X1 = f (X0 )

se X1 = X0 allora Xk = X0 per ogni k ∈ N



⎪ se X2 = X0 , allora Xk è 2 periodica



⎪ X2k = X0 , X2k+1 = X1







⎪ ⎧



⎪ ⎪
⎪ 2
se esistono punti fissi di f maggiori

⎪ ⎪


⎪ ⎪
⎪ di X0 alloraX2k  α, minimo

⎪ ⎪


⎪ ⎪
⎪ 2
punto fisso di f maggiore di X0

⎪ ⎪

⎪ ⎪


⎪ ⎨ e X2k+1  β = f (α)




⎪ se X2 > X0

⎪ ⎪


⎪ ⎪
⎪ se non esistono punti fissi di f
2

⎪ ⎪


⎨ ⎪
⎪ X


maggiori di 0 , allora
se X1 = X0 ⎪
⎪ X2k  +∞, X2k+1  f (+∞)
⎪ ⎪


⎪ ⎩ ∗
( )







⎪ ⎧



⎪ ⎪
⎪ 2
se esistono punti fissi di f minori

⎪ ⎪


⎪ ⎪
⎪ di X0 , allora X2k  β , massimo

⎪ ⎪


⎪ ⎪
⎪ punto fisso minore di X0 ,

⎪ ⎪


⎪ ⎨ X2k+1  α = f (β)



⎪ se X2 < X0

⎪ ⎪


⎪ ⎪


⎪ ⎪
⎪ 2

⎪ ⎪

se non esistono punti fissi di f

⎪ ⎪


⎪ ⎪

minori di X0 , allora
⎩ ⎩ X2k  −∞, X2k+1  f (−∞)

(∗) f (+∞) = lim f (x), f (−∞) = lim f (x)


x→+∞ x→−∞
3.3 Comportamento asintotico in ipotesi di monotonia 99

Osservazione 3.28. La monotonia di f impone restrizioni qualitative alla di-


namica del s.d.d. {I, f} (immediata conseguenza degli Algoritmi precedenti):
• se f è crescente, allora il s.d.d. non può avere orbite periodiche, tuttavia
può avere equilibri;
• se f è decrescente, allora il s.d.d. può avere solo equilibri e orbite periodiche
di periodo 2; è esclusa l’eventualità di orbite con periodi maggiori.

Esempio 3.29. Per studiare l’andamento qualitativo delle traiettorie del


s.d.d. {R, x + sin x}, osserviamo che f (x) = x + sin x è una funzione cre-
scente (infatti f  (x) = 1 + cos x ≥ 0, ∀x ∈ R), dunque possiamo applicare
l’Algoritmo I, ottenendo:
• se X0 = kπ, allora Xk = X0 per ogni k;
• se esiste un intero k tale che 2kπ < X0 < (2k +1)π, allora Xk  (2k +1)π;
• se esiste un intero k tale che (2k + 1)π < X0 < (2k + 2)π, allora Xk 
(2k + 1)π. 

!
Esempio 3.30. Consideriamo il s.d.d. R, −x3 . La funzione f è monotòna
decrescente in senso stretto: applichiamo l’Algoritmo II. A tal fine, se X0 ∈ R
si ha
X1 = f (X0 ) = −X03

Fig. 3.9. Grafico di x + sin x e dell’identità


100 3 Sistemi dinamici discreti: equazioni scalari ad un passo

e quindi

X1 = X0 ⇔ −X03 = X0 ⇔ X0 = 0.

Così, se X0 = 0 si ricava Xk = 0 per ogni k ∈ N.


Se X0 = 0 si ha X1 = X0 e a questo punto è necessario determinare X2 :
 3
X2 = f (X1 ) = f 2 (X0 ) = − −X03 = X09 .

Poiché

X2 = X0 ⇔ X09 = X0 ⇔ X0 = 0 oppure X0 = ±1.

Possiamo così concludere:


• se X0 < −1, allora X2k  −∞ e X2k+1  +∞;
k+1
• se X0 = −1, allora Xk è 2 periodica: Xk = (−1) ;
• se −1 < X0 < 0, allora X2k  0 e X2k+1  0;
• se X0 = 0, allora Xk = 0 per ogni k;
• se 0 < X0 < 1, allora X2k  0 e X2k+1  0;
k
• se X0 = 1, allora Xk è 2 periodica: Xk = (−1) ;
• se X0 > 1, allora X2k  +∞ e X2k+1  −∞. 

Esercizio 3.11. Assegnato X0 ∈ R , determinare in forma chiusa la traiettoria del


s.d.d. dell’Esempio 3.30.
Esercizio 3.12. Stabilire il comportamento asintotico del s.d.d. {R, f } con f (x) =
(x + |x|) /4.
Esercizio 3.13. Stabilire il comportamento asintotico del s.d.d. {[−π, π] , f } con
(π − |x|)
f (x) = x + .
2
Esercizio 3.14. Dimostrare le implicazioni contenute negli Algoritmi I e II.
Esercizio 3.15. Risolvere l’Esercizio 3.8 utilizzando i risultati di questo paragrafo.

Fig. 3.10. f (x) = −x3 Fig. 3.11. f 2 (x) = x9


3.4 Teorema delle contrazioni 101

3.4 Teorema delle contrazioni

In questo paragrafo, che può essere saltato in una prima lettura, enunciamo
un risultato di grande importanza teorica e numerica: il Teorema delle Con-
trazioni. Nel caso particolare dei problemi studiati in questa trattazione, esso
consente di stabilire l’esistenza e l’unicità di punti fissi per s.d.d. {I, f} con
f non necessariamente derivabile e di effettuare una approssimazione nume-
rica di tali punti fissi. Tale approssimazione è assai utile quando l’equazione
{α ∈ I : α = f (α)} non è risolubile in forma chiusa.

Definizione 3.31. Sia I ⊆ R un intervallo. Una funzione f : I → I è una


contrazione se esiste una costante τ < 1 tale che

|f (x) − f (y)| ≤ τ |x − y| ∀x, y ∈ I

Si noti che una contrazione è sempre continua, anzi uniformemente continua.

Teorema 3.32 (Teorema delle contrazioni). Sia I un intervallo chiuso


di R , ed f : I → I sia una contrazione. Allora il s.d.d. {I, f} ha un unico
equilibrio α .
Inoltre, per ogni dato iniziale X0 ∈ I, posto Xk+1 = f (Xk ), risulta:

lim Xk = α .
k

Più precisamente, vale la seguente stima:

|f (X0 ) − X0 | k
|Xk − α| < τ .
1−τ

Prova. Fissato X0 ∈ I, si ha, per k = 1, 2, . . .

|Xk+1 − Xk | = |f (Xk ) − f (Xk−1 )| ≤ τ |Xk − Xk−1 |

e quindi, iterando
|Xk+1 − Xk | ≤ τ k |X1 − X0 | .
Sfruttando la disuguaglianza triangolare e quanto appena mostrato sopra, per ogni
h ≥ 1, si ricava


h−1
h−1
|Xk+h − Xk | ≤ |Xk+n+1 − Xk+n | ≤ |X1 − X0 | τ k τn =
n=0 n=0

1 − τh |X1 − X0 | k
= |X1 − X0 | τ k ≤ τ .
1−τ 1−τ
102 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Poiché τ < 1, la successione {Xk } è di Cauchy e , per la chiusura di I, esiste α ∈ I


tale che limk Xk = α. La continuità di f implica

f (α) = f (lim Xk ) = lim f (Xk ) = lim Xk+1 = α .


k k k

Da α1 , α2 punti fissi segue |α1 − α2 | = |f (α1) − f (α2)| ≤ τ |α1 − α2 |, cioè α1 = α2 .


|X1 − X0 | k
Se si tiene fisso k e si prende il limite per h → +∞ in |Xk+h − Xk | ≤ τ ,
1−τ
si deduce
|X1 − X0 | k
|α − Xk | < τ . 
1−τ

Osservazione 3.33. La tesi del Teorema 3.32 rimane vera anche se I ⊂ R è


solo un insieme chiuso e non vuoto, grazie alla completezza di R.

Osservazione 3.34. Una contrazione può non essere derivabile (ad esempio,
f (x) = |x| /2), comunque, grazie al teorema di Lagrange, ogni funzione f in
C 1 (I) per cui esiste τ tale che

|f  (x)| ≤ τ < 1 ∀x ∈ I

è una contrazione.

Esempio 3.35. Un’applicazione notevole del Teorema delle Contrazioni si ha


nella ricerca degli zeri di una funzione g : I → I

{x ∈ I : g (x) = 0}

nelle ipotesi g ∈ C 1 (I) e |1 + g (x)| ≤ τ < 1 oppure |1 − g  (x)| ≤ τ < 1.


Il problema è equivalente alla ricerca dei punti fissi di f : I → I, dove,
rispettivamente, f (x) = x + g (x) oppure f (x) = x − g (x), infatti:

f (x) = x ⇔ g (x) = 0.

Le ipotesi assicurano che una tale f è una contrazione, dunque g ha un unico


zero che può essere approssimato dalla successione Xk+1 = f (Xk ) a partire
da qualunque X0 ∈ I (oppure Xk+1 = −f (Xk )). 

Esercizio 3.16. Studiare la dinamica del s.d.d. {R, |x − 1| /2} .

3.5 La nozione di stabilità


In questa sezione introduciamo alcune definizioni allo scopo di precisare for-
malmente le proprietà di stabilità.

Definizione 3.36. Un equilibrio α del s.d.d. {I, f} si dice equilibrio sta-


bile se, per ogni ε > 0, esiste una costante δ > 0 tale che |X0 − α| < δ
3.5 La nozione di stabilità 103

e Xk = f k (X0 ), k ∈ N, implicano

|Xk − α| < ε ∀k ∈ N.

Viceversa, α si dice equilibrio instabile se non è stabile, cioè se esiste ε0 > 0


tale che, per ogni δ > 0, si possono determinare X0 ∈ I e  k > 0 tali che
 
|X0 − α| < δ X − α > ε0 .
k

La definizione precedente merita una attenta riflessione. La proprietà di sta-


bilità per un equilibrio α ha il seguente significato: il dato iniziale X0 = α
produce una traiettoria costante coincidente con l’equilibrio; inoltre, un dato
iniziale X0 “leggermente diverso” da α dà luogo ad una traiettoria che, per
tutti i suoi valori, “si discosta di poco” dall’equilibrio.
Lo studio della stabilità di un equilibrio ha enorme importanza nelle applica-
zioni: infatti il dato iniziale non è quasi mai noto con precisione, tuttavia è
spesso possibile stimare l’errore con cui viene determinato.
Si verifichi che gli equilibri degli Esempi 3.18 e 3.19 sono stabili (il primo
scegliendo δ = ε, il secondo con δ = ε/ (1 − ε), ovviamente per ε ∈ (0, 1)),
mentre lo 0 è instabile per (2x, R).
Definizione 3.37. Un equilibrio α del s.d.d. {I, f} si dice equilibrio glo-
balmente attrattivo se, per ogni X0 ∈ I, posto Xk = f k (X0 ), risulta

lim Xk = α.
k

Definizione 3.38. Un equilibrio α del s.d.d. {I, f} si dice equilibrio local-


mente attrattivo se esiste η > 0 tale che, per ogni X0 ∈ I ∩ (α − η, α + η),
posto Xk = f k (X0 ), risulta
lim Xk = α.
k
Si osservi che gli equilibri degli Esempi 3.18 e 3.19 non sono attrattivi (neanche
localmente), pur essendo entrambi stabili.
Definizione 3.39. Un equilibrio α del s.d.d. {I, f} si dice equilibrio glo-
balmente asintoticamente stabile se valgono le seguenti condizioni:
1) α è stabile;
2) α è globalmente attrattivo .
α si dice equilibrio localmente asintoticamente stabile se è stabile e
localmente attrattivo.
Osservazione 3.40. Se f è una contrazione in I, allora dal Teorema 3.32
segue che {I, f} è un s.d.d. con un unico equilibrio che risulta globalmente
asintoticamente stabile.
Esempio 3.41. Nel caso lineare, {R, f} con f (x) = ax + b, se vi è un equili-
brio attrattivo (cioè |a| < 1) allora esso è anche globalmente asintoticamente
stabile (ed è unico). Se f non è lineare la questione è più delicata. 
104 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Esercizio 3.17. Per acquisire familiarità con le varie definizioni, il lettore provi che
per il s.d.d. {R, f } con f (x) = x3 + x/2 , lo 0 è un equilibrio stabile e localmente
attrattivo, ma non globalmente attrattivo. Dunque 0 è localmente asintoticamente
stabile. 

Per comprendere la definizione successiva, è opportuno ricordare la nozione


di distanza di un punto x da un insieme chiuso C:

dist (x, C) = min {|x − c| : c ∈ C} .

Definizione 3.42. Un insieme A ⊂ I si dice attrattore (o pozzo, o insie-


me localmente attrattivo) per un s.d.d. {I, f} se valgono tutte le condizioni
seguenti:
1) A è chiuso, cioè contiene tutti i suoi punti di accumulazione;
2) A è invariante, cioè f (A) = A;
3) esiste η > 0 tale che, per ogni x ∈ I che verifica dist(x, A) < η, vale
 
lim dist f k (x) , A = 0;
k

4) A è minimale, cioè non vi sono sottoinsiemi propri di A che verificano


1), 2) e 3).

Definizione 3.43. Se A è un attrattore per {I, f} allora l’insieme



x ∈ I : lim f (x) ∈ A
k
k

è detto bacino di attrazione di A per il s.d.d. {I, f}.

Esempio 3.44. Un equilibrio localmente attrattivo è un attrattore. 

Esempio 3.45. Il s.d.d. {R, f} con f (x) = x e1−x ha due equilibri: 0 e 1 .


L’equilibrio 0 è instabile e non è attrattivo, 1 è localmente asintoticamen-
te stabile, l’intervallo [0, 1] è un insieme invariante ma non è un attrattore,
perch’e non verifica la 4) . 

Osservazione 3.46. Assegnato un s.d.d. {I, f}, l’insieme


5
T = f k (I)
k≥1

è sempre invariante, cioè f (T ) = T . Infatti, se si tiene conto delle inclusioni


f k+1 (I) ⊆ f k (I) , si ottiene:
⎛ ⎞ ⎛ ⎞
5 5   5 5
T = k
f (I) = f f (I) = f ⎝
k
f (I)⎠ = f ⎝
k
f (I)⎠ = f (T ) .
k

k≥1 k≥2 k≥2 k≥1


3.5 La nozione di stabilità 105
6
Spesso, ma non sempre, l’insieme T = k≥1 f k (I) è un attrattore o, perlome-
no, l’unione di più attrattori di {I, f}. Questo dipende dal fatto che, per ogni
6k
X0 ∈ I, le iterate f k (X0 ) approssimano T nel senso che f k (X0 ) ∈ j=1 f j (I)
e dalle inclusioni f k+1 (I) ⊆ f k (I) segue che lim f k (X0 ) appartiene alla
k
chiusura di T .

Definizione 3.47. Un’orbita periodica {α0 , α1 , . . . , αs−1 }, di minimo periodo


s, si dice orbita stabile per un s.d.d. {I, f} se i punti α0 , α1 , . . . , αs−1 sono
equilibri stabili per f s .

Definizione 3.48 (equivalente alla precedente). Un’orbita periodica


{α0 , α1 , . . . , αs−1}, di minimo periodo s, si dice orbita stabile per un s.d.d.
{I, f} se per ogni ε > 0 esiste δ > 0 tale che

assegnato j ∈ {0, . . . , s − 1} e Xj ∈ I : |Xj − αj | < δ

allora  k−j 
f (Xj ) − αk(mod s)  < ε ∀k > j
dove k (mod s) denota l’unico intero in {0, 1, . . . , s − 1} congruo a k modulo s
(cioè l’unico intero che dà lo stesso resto di k quando è diviso per s).

Definizione 3.49. Un’orbita periodica si dice localmente asintoticamen-


te stabile se è contemporaneamente un’orbita stabile ed un insieme localmente
attrattivo.
 
Esempio 3.50. Studio grafico del s.d.d. {(0, 1) , f} , f (x) = 3, 1 x − x2 .
Applicando l’Osservazione 3.14 ad f 2 si può mostrare che ha un’unica orbi-
ta 2 periodica {γ, β} e che essa è localmente asintoticamente stabile, men-
tre non è globalmente asintoticamente stabile a causa della presenza dei due
equilibri 0 e 21/31. Tali equilibri non sono né stabili, né localmente attratti-
vi.
Si noti che i singoli valori γ o β (appartenenti all’orbita periodica) non sono
attrattori qualora vengano considerati singolarmente (si vedano le Fig. 3.12,
3.13). 

Definizione 3.51. Un insieme R ⊂ I si dice insieme repulsivo (o repul-


sore) per il s.d.d. {I, f} se valgono tutte le seguenti condizioni:

1) R è chiuso;
2) R è invariante, cioè f (R) = R;
3) esiste un intorno aperto U di R (cioè R ⊂ U , R\U è chiuso) tale che, per
ogni intorno V di R esiste X0 ∈ V \R tale che f k (X0 ) ∈
/ U per infiniti
valori di k;
4) R è minimale, cioè non vi sono sottoinsiemi propri di R verificanti 1),
2), 3).
106 3 Sistemi dinamici discreti: equazioni scalari ad un passo

γ 21 β γ 21 β
31 31
   
Fig. 3.12. f (x) = 3, 1 x − x2 Fig. 3.13. f 2 con f (x) = 3, 1 x − x2

La definizione di insieme repulsivo formalizza quella di un insieme R trasfor-


mato in sè stesso da f, con la proprietà che tutti i punti prossimi ad R e non
appartenenti ad R vengono allontanati da R per infiniti valori di k.

Definizione 3.52. Un equilibrio repulsivo è un repulsore costituito da un


unico punto.

Osservazione 3.53. Un equilibrio è repulsivo se e solo se è instabile.

Attenzione, la repulsività non è la negazione di attrattività: ad esempio, tutte


le orbite periodiche di {R, − x} oscillano attorno all’equilibrio 0 che è stabile
ma non è né attrattivo, né repulsivo.

Osservazione 3.54. Se f : I → I è un omeomorfismo (continua, inverti-


bile con inversa continua) ed !A è attrattivo per il s.d.d. {I, f}, allora A è un
repulsore per il s.d.d. I, f −1 .
Se f : I → I è un omeomorfismo
! ed A è un repulsore per {I, f} allora A è
attrattivo per I, f −1 .

Osserviamo che se alle traiettorie di {I, f} si dà un’interpretazione


! di evolu-
zione di una grandezza nel tempo, allora le traiettorie di I, f −1 si ottengono
invertendo la freccia temporale.

Esempio 3.55. Consideriamo il s.d.d. {I, f} con I = [−1, 1] e f (x) = x3 .


Ci sono tre punti fissi: 0 e ±1; non vi sono !orbite periodiche. L’equilibrio√0
è attrattivo per {I, f},√repulsivo per I, f −1 (esplicitamente, f −1 (x) = 3 x
se x ≥ 0, f −1 (x) = − 3 −x se!x < 0). Gli equilibri −1 e +1 sono repulsivi per
{I, f}, attrattivi per I, f −1 .
Più precisamente, 0 è localmente asintoticamente stabile ! per {I, f}, mentre
±1 sono localmente asintoticamente stabili per I, f −1 . 
3.6 Condizioni di stabilità basate sulle derivate 107


Fig. 3.14. I = [−1, 1] , f (x) = x3 Fig. 3.15. I = [−1, 1] , f (x) = 3
x sign(x)

Osservazione 3.56. Circa l’analisi della stabilità di un s.d.d. osserviamo che


i metodi basati sulle proprietà di monotonia e sul teorema delle contrazioni
forniscono informazioni di natura globale che ne descrivono completamente
la dinamica. Tuttavia in molti casi non si possono utilizzare tali strumenti.
Per questo motivo si ricorre ad una analisi di tipo locale che, in tutti i casi
in cui la mappa associata al s.d.d. abbia derivate, consente di ottenere molte
informazioni, come illustrato nel paragrafo successivo.

3.6 Condizioni di stabilità basate sulle derivate


Quando una funzione f : I → I è dotata di una o più derivate continue,
è possibile ottenere informazioni sulla stabilità e/o la stabilità asintotica di
equilibri del s.d.d. {I, f} mediante semplici test.

Teorema 3.57 (Condizione del primo ordine di stabilità). Se α è un


equilibrio per il s.d.d. {I, f} e f è di classe C 1 , allora:

|f  (α)| < 1 ⇒ α localmente asintoticamente stabile

|f  (α)| > 1 ⇒ α instabile

Prova. Sia |f  (α)| < 1. Per la continuità di f  esistono d > 0 e r < 1 tali che |f  (x)| ≤
r < 1 se x ∈ (α − d, α + d). Per il teorema di Lagrange, se x, t ∈ (α − d, α + d), allora
esiste x tale che
 
|f (x) − f (t)| = f  (x) |x − t| ≤ r |x − t| .

Quindi la Definizione 3.36 di stabilità è verificata scegliendo δ = min {ε, d}.


108 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Inoltre, se x ∈ (α − d, α + d), allora


     
 k   k k   k−1 
f (x) − α = f (x) − f (α) ≤ r f (x) − f k−1 (α) ≤ · · · ≤ rk |x − α| .

Dunque, da limk rk = 0 segue che α è anche localmente attrattivo e quindi local-


mente asintoticamente stabile.
Sia ora |f  (α)| > 1. Per la continuità di f  esistono m > 1 e d > 0 tali che
|f  (x)| ≥ m > 1 per x ∈ (α − d, α + d). Per il teorema di Lagrange, se x = α e
x ∈ (α − d, α + d), allora f k (x) non può appartenere a (α − d, α + d) per tutti i k,
altrimenti si avrebbe
     
 k   k k   k−1 
f (x) − α = f (x) − f (α) ≥ m f (x) − f k−1 (α) ≥ · · · ≥ mk |x − α|

che sarebbe assurdo perché limk mk = +∞ e |x − α| = 0. 


Esempio 3.58 (Ricerca degli zeri di una funzione mediante appros-
simazioni successive). Se g : [a, b] → [a, b] è una funzione continua, il
problema della ricerca dei suoi zeri è equivalente alla ricerca dei punti fissi in
[a, b] della funzione f così definita: f (x) = x + g (x). Infatti, g (α) = 0 se e
solo se f (α) = α.
Se α è un equilibrio attrattivo allora, comunque si prenda X0 nel bacino di α,
la successione definita da Xk+1 = Xk + g (Xk ) converge ad α.
Se, ad esempio, g ∈ C 1 e |1 + g (α)| < 1, il Teorema 3.57 garantisce la conver-
genza del metodo. Se f (x) = x+g (x) è una contrazione (vedi il paragrafo 3.4)
il metodo funziona per ogni scelta di X0 in [a, b].
A volte, anche se la condizione |1 + g  (x)| < 1 non è verificata si può adattare
il metodo sostituendo ad f la funzione ϕ:

ϕ (x) = x + ψ (x) g (x)

con ψ ∈ C 1 che non si annulla in [a, b] e tale che risulti |ϕ (α)| < 1; in
tal caso le approssimanti sono generate in modo ricorsivo da Yk+1 = Yk +
ψ (Yk ) g (Yk ). 
Definizione 3.59. Diciamo che un equilibrio di un s.d.d. {I, f}, con f in
C 1 (I), è iperbolico se |f  (α) | = 1, superattrattivo se f  (α) = 0 e neutro
se |f  (α)| = 1.
Tornando allo studio della stabilità basato sulle proprietà delle derivate, os-
serviamo che il caso |f  (α)| = 1 non viene chiarito dal Teorema 3.57 e, in
effetti, può corrispondere a situazioni molto diverse fra loro.
Quando l’esame della derivata prima di f nell’equilibrio non consente di con-
cludere, è necessario approfondire l’analisi: cosa che faremo nel seguito. Pre-
mettiamo allo scopo la definizione seguente.
Definizione 3.60. Un punto α di equilibrio per il s.d.d. {I, f} si dice
semistabile superiormente  se per ogni ε > 0 esiste δ > 0 tale che α ≤


x < α + δ implica f k (x) − α < ε per ogni k ∈ N;
3.6 Condizioni di stabilità basate sulle derivate 109

• attrattivo superiormente se esiste η > 0 tale che α ≤ x < α +η implica


limk f k (x) = α;
• asintoticamente stabile superiormente se è semistabile superiormen-
te e attrattivo superiormente;
• instabile superiormente (o repulsivo superiormente) se non è se-
mistabile superiormente.

La definizione precedente corrisponde a limitare le proprietà formalizzate nel-


le Definizioni 3.36, 3.38 e 3.38 a valori iniziali maggiori di α. Il lettore può
facilmente riformulare tale definizione in un intorno sinistro di α, ottenen-
do le definizioni di semistabilità, attrattività, asintotica stabilità e repulsività
inferiori.
In Fig. 3.16 e 3.17 illustriamo con esempi grafici il senso del teorema prece-
dente.

Teorema 3.61. Sia α un equilibrio del s.d.d. {I, f}, con f ∈ C 1 , f  (α) = 1.
Allora

f convessa in un intorno di α ⇒ α semistabile inferiormente


f concava in un intorno di α ⇒ α semistabile superiormente

Se la convessità (rispettivamente, la concavità) di f è stretta, allora α è infe-


riormente asintoticamente stabile e superiormente repulsivo (rispettivamente,
superiormente asintoticamente stabile e inferiormente repulsivo).

Prova. Limitandoci al caso di funzioni convesse (f (x) ≥ f (α) + f (α)(x − α) ∀x),


basta osservare che esiste δ > 0 tale che

x−δ ≤x ≤α ⇒ x ≤ f (x) ≤ α

che diventa x < f (x) < α, se la convessità è stretta. 

Fig. 3.16. f convessa Fig. 3.17. f concava


110 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Il Teorema 3.61 vale anche se f non è né di classe C 1 , né convessa (o conca-


va) purché valgano le disuguaglianze evidenziate nella prova: l’argomento si
applica se α = f (α) e x ≤ f (x) (rispettivamente x ≥ f (x)) in un intorno
sinistro (rispettivamente destro) di α.
Teorema 3.62 (Condizione di stabilità del secondo ordine). Sia α un
equilibrio per il s.d.d. {I, f}, con f ∈ C 2 e f  (α) = 1. Allora valgono le
seguenti conclusioni:


 inferiormente asintoticamente stabile
f (α) > 0 ⇒ α
superiormente repulsivo

 superiormente asintoticamente stabile
f (α) < 0 ⇒ α
inferiormente repulsivo

Se f  (α) si annulla, si può proseguire l’analisi utilizzando l’argomento basato


sulla convessità o concavità di f separatamente in un intorno destro o sinistro
di α, ottenendo il seguente risultato.
Teorema 3.63 (Condizione di stabilità del terz’ordine). Sia α equili-
brio per il s.d.d. {I, f} con f ∈ C 3 , f  (α) = 1 e f  (α) = 0. Allora valgono:

f  (α) > 0 ⇒ α instabile

f  (α) < 0 ⇒ α localmente asintoticamente stabile

Il lettore provi a formulare e dimostrare una condizione di stabilità nel caso


f ∈ C 4 se

f  (α) = 1 f  (α) = 0 f  (α) = 0.

Rimane da studiare il caso

f (α) = α f  (α) = −1 . (3.4)

Prima di procedere, si suggerisce di effettuare lo studio con il metodo grafico di


qualche esempio in cui si verificano le condizioni (3.4) (come f (x) = 3x2 −x ),
e di riflettere sul caso lineare affine già studiato (ad esempio, f (x) = 2 − x).
Nel caso lineare affine si ha stabilità ma non asintotica stabilità: più pre-
cisamente, infinite orbite 2 periodiche oscillano attorno all’equilibrio. Questo
3.6 Condizioni di stabilità basate sulle derivate 111

fatto suggerisce di studiare il comportamento oscillante del generico s.d.d.,


considerando separatamente le due successioni corrispondenti agli indici pari
e dispari: {X2k }k∈N , {X2k+1 }k∈N .

Lemma 3.64. Sia α un equilibrio per il s.d.d. {I, f}.


Allora α è un equilibrio localmente asintoticamente stabile per {I, f} se e solo
se α è un equilibrio localmente asintoticamente stabile per {I, f 2 }.

Prova. α è un equilibrio per {I, f } dunque (Osservazione 3.15) α è un equilibrio


per {I, f 2 }. Sia ora α un equilibrio localmente asintoticamente stabile per il s.d.d.
{I, f }; allora, per ogni ε > 0 esiste δ > 0 tale che se X0 ∈ (α − δ, α + δ) si ha
f k (X0 ) in (α − ε, α + ε) per ogni k e lim f k (X0 ) = α. In particolare, le relazioni
k
precedenti
% valgono
& per k pari; dunque α è localmente asintoticamente stabile per il
s.d.d. I, f 2 .
Viceversa,
% & sia α equilibrio per {I, f } e α sia localmente asintoticamente stabile per
I, f 2 . Ne segue: per ogni ε > 0 esiste δ > 0 tale che se X0 ∈ (α − δ, α + δ); allora
f 2k (X0 ) ∈ (α − ε, α + ε) per ogni k e lim f 2k (X0 ) = α. Rimangono da considerare
k
le iterate dispari di f : per la continuità di f in α esiste δ1 , 0 < δ1 ≤ δ tale che, posto
ε1 = min (ε, δ), da X0 ∈ (α − δ1 , α + δ1 ) segue f (X0 ) ∈ (α − ε1 , α + ε1 ); dunque

f 2k+1 (X0 ) = f 2k (f (X0 )) ∈ (α − ε, α + ε) ; lim f 2k+1 (X0 ) = lim f 2k (f (X0 )) = α. 


k k

Teorema 3.65. Sia f : I → I con f ∈ C 3 , f (α) = α e f  (α) = −1. Allora

2
2f  (α) + 3 (f  (α)) > 0 ⇒ α localmente asintoticamente stabile

2
2f  (α) + 3 (f  (α)) < 0 ⇒ α instabile

Prova. Posto g (x) = f 2 (x), x ∈ I, consideriamo i due s.d.d. {I, f } e {I, g}. Grazie
al Lemma 3.64 ed al Teorema 3.63, è sufficiente verificare che:
 2
(i) g (α) = 1 (ii) g (α) = 0 (iii) g (α) = −2f  (α) − 3 f  (α) .

Le tre verifiche sono un delicato ed istruttivo esercizio sulla derivazione delle fun-
zioni composte che il lettore è invitato a svolgere da solo prima di confrontare il
risultato con i passaggi che seguono.

g (x) = (f (f (x))) = f  (f (x)) f  (x)

g (α) = f  (f (α)) f  (α) = f  (α) f  (α) = (−1) (−1) = 1


   2
g (x) = f  (f (x)) f  (x) = f  (f (x)) f  (x) + f  (f (x)) f  (x)
 2
g (α) = f  (α) f  (α) + f  (α) f  (α) = 0
112 3 Sistemi dinamici discreti: equazioni scalari ad un passo
  2 
g (x) = f  (f (x)) f  (x) + f  (f (x)) f  (x) =
 3
= f  (f (x)) f  (x) + 3f  (f (x)) f  (x) f  (x) + f  (f (x)) f  (x)
 2
g (α) = −2f  (α) − 3 f  (α) . 

Osservazione 3.66. Se la funzione f è un polinomio di secondo grado ed α è


un punto fisso di f tale che f  (α) = −1, allora α è localmente asintoticamente
stabile per {R, f}.
Infatti, f  ≡ 0 e l’affermazione segue dal Teorema 3.65.
Si provi che l’attrattività non è globale. 

Tabella 3.1. Schema riassuntivo per lo studio della stabilità di un equilibrio α


quando f è dotata di derivate

⎧   

⎪ f (α) < 1 ⇒ α l.a.s.









⎪ ⎧ ⎧

⎪ ⎪ f  (α) < 0 ⇒ s.l.a.s. & i.r.

⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪
⎪ f  (α) > 0 ⇒ s.r. & i.l.a.s.

⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪


⎪ ⎪


⎪ ⎪
⎪ f  (α) = 1

⎪ ⎪
⎪ ⎪

⎪ ⎪
⎪ ⎪


⎪ ⎪
⎪ ⎪
⎪ ⎧

⎪ ⎪
⎪ ⎪
⎪ ⎪ f  (α) < 0 ⇒ α l.a.s.
⎨ ⎨ ⎪
⎪ ⎨
   ⎪

f (α) = α f (α) = 1 ⎪
⎪ f 
(α) = 0

⎪ ⎪
⎪ ⎩ ⎪


⎪ ⎪
⎪ f  (α) > 0 ⇒ α r.

⎪ ⎪


⎪ ⎪


⎪ ⎪


⎪ ⎪


⎪ ⎪


⎪ ⎪


⎪ ⎪
⎪ ⎧  

⎪ ⎪
⎪ ⎪ 2f  (α) + 3 f  (α) 2 > 0 ⇒ α l.a.s.

⎪ ⎪
⎪ ⎨

⎪ ⎪


⎪ ⎪
⎪ f  (α) = −1

⎪ ⎪
⎩ ⎪
⎩  

⎪ 2f  (α) + 3 f  (α) 2 < 0 ⇒ α r.










⎩   
f (α) > 1 ⇒ α r.

Legenda: l.a.s. = localmente asintoticamente stabile,


s.l.a.s. = superiormente localmente asintoticamente stabile,
i.l.a.s. = inferiormente localmente asintoticamente stabile,
r. = repulsivo,
s.r. = superiormente repulsivo,
i.r. = inferiormente repulsivo.
3.7 Strategie di pesca 113

Esercizio 3.18. Determinare eventuali equilibri dei seguenti s.d.d., studiandone la


stabilità con il criterio delle derivate:
%   & % & % &
1) R, x3 + x /2 , 2) R, x3 + x2 , 3) R, xe1−x ,
% & % &
4) R, x3 + x2 + x , 5) {R, ex − 1} , 6) R, x − x3 ,
% & % & % &
7) R, x3 + x , 8) R, x2 − x , 9) R, x3 − x .

3.7 Strategie di pesca

In questo paragrafo discutiamo un esempio di applicazione dei modelli dina-


mici allo scopo di ottimizzare i risultati di una attività quali la caccia o la
pesca.

Consideriamo una specie ittica la cui dinamica (non disturbata da fattori


esterni) sia descritta, in una opportuna unità di misura, dalla legge ricorsiva

Xk+1 = 1, 5Xk − 0, 5Xk2 .

I passi del s.d.d. sintetizzano il succedersi delle stagioni riproduttive: si sup-


pone che la dinamica logistica (si veda l’Esempio 1.13) con la scelta dei para-
metri 1, 5 e 0, 5 descriva in modo soddisfacente l’effetto congiunto dell’attività
riproduttiva e della competizione tra individui della stessa specie.
Studiamo l’effetto che hanno su questa specie due diverse strategie di pesca.

Prima strategia. Quantità prefissata di pescato (in ogni passo):


dopo ogni stagione riproduttiva, si cattura una fissata quantità di pescato b.
Corrispondentemente la dinamica è descritta da

Xk+1 = 1, 5Xk − 0, 5Xk2 − b.

Se 0 < b < 1/8, allora si verifica facilmente (mediante il test della derivata
del Teorema 3.57) che vi sono due equilibri positivi, α1 ≥ α2 > 0 ,

1 1√
α1,2 = ± 1 − 8b
2 2
con α1 stabile e attrattivo, α2 repulsivo; per evitare l’estinzione, b va scelto
in modo tale che valga α2 = α2 (b) < X0 , cioè (poiché X0 è un dato mentre
b è la quantità che possiamo scegliere) b deve verificare:


⎨ 0<b< 1 1
se X0 ≥ ,
1 
8 2 (3.5)
⎪ 2 1
⎩ b< X0 − (X0 ) se 0 < X0 < .
2 2
114 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Se b = 1/8, vi è un solo equilibrio α1 = α2 = 1/2. Inoltre f  (α1 ) = 1 ed f


è concava. Pertanto l’equilibrio risulta semistabile superiormente ed instabile
inferiormente. Per evitare l’estinzione deve quindi risultare X0 ≥ 1/2. Si noti
che la situazione è pericolosa: se X0 < 1/2 si ha estinzione e se X0 ≥ 1/2,
dopo essersi avvicinati rapidamente all’equilibrio, si rischia per effetto di una
piccola perturbazione di cadere nel bacino di −∞.
Se b > 1/8 non vi sono equilibri e tutte le traiettorie portano all’estinzione:
f (x) < x per ogni x implica Xk+1 < Xk per ogni k, dunque esiste il limite
ma non può essere finito perché non vi sono equilibri (vedi Teorema 3.25).
Dunque, ogni b ≤ 1/8 è una quantità sostenibile di pescato per una stra-
tegia che prevede un quantitativo fisso di pescato in ogni stagione di pesca,
purché b non sia eccessivo rispetto alla popolazione iniziale.
Tuttavia quella a quantità prefissata di pescato è una strategia insoddisfacente,
perché quanto più ci si avvicina alla massima quantità sostenibile (cioè b si
avvicina ad 1/8 e corrispondentemente α1 si avvicina ad α2 e ad 1/2) tanto
più alto è il rischio che una minima fluttuazione dipendente  da fattori
 non
controllabili porti la popolazione verso l’estinzione: se b < X0 − X02 /2, allo-
ra tutta l’evoluzione si svolge in (α2 , α1 ), tuttavia una piccola perturbazione
può portare nella regione {x < α2 } che si trova nel bacino di −∞.

Seconda strategia. Quantità proporzionale di pescato (in ciascun pas-


so): si cerca di catturare una frazione fissata r della popolazione di pesci, con
r nell’intervallo (0, 1).
Corrispondentemente, il s.d.d. diventa Xk+1 = 1, 5Xx − 0, 5Xk2 − rXk , cioè:

Xk+1 = (1, 5 − r) Xk − 0, 5Xk2 .

In tal caso gli equilibri risolvono 0, 5α2 = (0, 5 − r) α , dunque

α1 = 1 − 2r α2 = 0.

Posto f (x) = (1, 5 − r) x − 0, 5x2, risulta f  (x) = (1, 5 − r) − x e f  (0) =


1, 5 − r, cioè lo 0 è stabile ed attrattivo se e solo se 0, 5 < r < 2, 5.
Ma a noi interessa r ∈ (0, 1) e, dunque, 0 è instabile (che è una buona proprie-
tà per la strategia in esame) se 0 < r ≤ 0, 5 (l’instabilità per r = 0, 5 segue
dal Teorema 3.62).
Studiamo l’altro equilibrio α1 = 1 − 2r. Da f  (1 − 2r) = 0, 5 + r segue che
• se 0 < r < 0, 5 allora α1 è stabile;
• se r > 0, 5 allora α1 è repulsivo;
• se r = 0, 5 allora α1 = α2 = 0 è equilibrio stabile superiormente (repulsivo
inferiormente).

Cerchiamo equilibri stabili positivi e quindi, per 0 < r < 0, 5 , α1 = 1 − 2r è


l’unico equilibrio positivo ed è stabile. Poiché α1 è attrattivo, allora Xk con-
verge ad α1 > 0 ed il pescato P (pari a rXk ) tende a stabilizzarsi nel lungo
3.7 Strategie di pesca 115

I) II)

α2 α1 α1

III)
I) b = 0, 04 < 1/8; X0 = 1, 5

II) b = 1/8; X0 = 1, 5

III) 1/8 < b = 0, 18; X0 = 1, 5

Fig. 3.18. Prima strategia di pesca: quantità prefissata

periodo al valore
P (r) = r (1 − 2r) = r − 2r 2 .
La scelta di r che massimizza il pescato P nel lungo periodo è rmax = 1/4 con
Pmax = 1/8.
Dunque 1/8 è il massimo pescato sostenibile con la strategia a frazione fissa
ed è compatibile con la stabilità.

Confronto delle due strategie di pesca


Il massimo pescato sostenibile è lo stesso nei due casi. Tuttavia vi è una
enorme differenza: nel primo caso corrisponde ad una situazione instabile, nel
secondo ad una stabile.
Seguendo la seconda strategia, se il pescato supera il valore 1/8 o se la popo-
lazione diminuisce per altri motivi, anche la quantità di pescato diminuisce,
permettendo alla popolazione di riprendersi.
Dunque la strategia a proporzione fissata è decisamente superiore.
Tuttavia è difficile da applicare per la difficoltà di valutare la popolazione Xk
e, di conseguenza, la quantità ottima di pescato Xk /4 in ciascuna stagione k.
116 3 Sistemi dinamici discreti: equazioni scalari ad un passo

I) II)

α2 α1 α2 α1

III)
I) r = 1/8 < 1/2; X0 = 0, 2 < α1

II) r = 1/8 < 1/2; X0 = 1, 3 > α1

III) r = 1/2; X0 = 1, 3 α1 = α2

Fig. 3.19. Seconda strategia di pesca: quantità proporzionale

In pratica, si tenta di applicare una “efficacia” costante della pesca: ad e-


sempio, pescare solo un numero fissato di giorni alla settimana (nella sola
stagione di pesca, ben lontana dal periodo riproduttivo) dovrebbe dare un
risultato proporzionale a Xk , il cui valore è difficile misurare con precisione.
Osserviamo inoltre che con i parametri da noi scelti nell’equazione di parten-
za il massimo pescato sostenibile Pmax è il 25% della popolazione. In gene-
rale, anche con altri parametri, se si tenta di ottenere risultati superiori al
massimo sostenibile si determina un drammatico calo della popolazione e di
conseguenza un altrettanto drammatico calo nella pesca.
Esercizio 3.19. Verificare che con altri parametri, ad esempio 1, 7 e 0, 7, o, più in
generale, con 1 + a ed a, con 0 < a < 2, si ottengono gli stessi risultati qualitativi
dell’esempio analizzato.
Esercizio 3.20. Osserviamo che modelli di strategia di pesca più realistici dovreb-
bero tenere conto del fatto che riproduzione ed attività di pesca avvengono in tempi
successivi. Ad esempio, proporzione fissata pescata prima della riproduzione:

Yk+1 = 1, 5 (1 − r) Yk − 0, 5 (1 − r)2 (Yk )2 ;

oppure, proporzione fissata pescata dopo la riproduzione:

Zk+1 = 1, 5 (1 − r) Zk − 0, 5 (1 − r) (Zk )2 .

Si provi a confrontare tali dinamiche, ed a modellare la prima strategia (quantità


prefissata) con la pesca effettuata prima oppure dopo la riproduzione.
3.8 Studio qualitativo e stabilità delle orbite periodiche 117

3.8 Studio qualitativo e stabilità delle orbite periodiche

Quando una funzione f : I → I è dotata di una o più derivate continue,


è possibile ottenere informazioni sulla stabilità e/o la stabilità asintotica di
orbite periodiche del s.d.d. {I, f} mediante semplici test.
Cominciamo, per semplicità, a considerare s.d.d. con orbite di periodo 2, espli-
citando le Definizioni 3.48 e 3.49.
La coppia {α0 , α1} costituisce un’orbita 2 periodica (o 2 ciclo) per il s.d.d.
{I, f} se
α0 = α1 f (α0 ) = α1 f (α1 ) = α0
e quindi
f 2k (α0 ) = α0 f 2k+1 (α0 ) = α1 k ∈ N.

Definizione 3.67. Il 2 ciclo {α0 , α1 } è localmente asintoticamente sta-


bile se
per ogni ε > 0 esiste δ > 0 tale che
⎧   
⎨ f 2k (X0 ) − α0  < ε, f 2k+1 (X0 ) − α1  < ε ∀k
X0 ∈ (α0 − δ, α0 + δ) ⇒
⎩ lim f 2k (X0 ) = α0 lim f 2k+1 (X0 ) = α1
k k
⎧   
⎨ f 2k (X1 ) − α1  < ε, f 2k+1 (X1 ) − α0  < ε ∀k
X1 ∈ (α1 − δ, α1 + δ) ⇒
⎩ lim f 2k (X1 ) = α1 lim f 2k+1 (X1 ) = α0
k k

cioè, se |X0 − α0 | < δ e |X1 − α1 | < δ , posto Xk = f k (X0 ), k ∈ N, allora:


• i termini pari X2k rimangono uniformemente vicini ad α0 e convergono
ad α0 ;
• i termini dispari X2k+1 rimangono uniformemente vicini ad α1 e conver-
gono ad α1 .

Un 2 ciclo è detto repulsivo quando è un insieme repulsivo.

Per discutere la eventuale stabilità di un 2 ciclo {α0 , α1} relativo al s.d.d.


{I, f} studiamo il s.d.d. {I, g} dove g = f 2 , analogamente alla discussione
svolta per un equilibrio α con f  (α) = −1 (Lemma 3.64 e Teorema 3.65).
Premesso che un equilibrio di f 2 corrisponde o a un equilibrio o a un 2 ciclo
di f, con dimostrazione analoga a quella del Lemma 3.64, si può provare il
seguente

Lemma 3.68. Sia f : I → I una funzione continua.


Allora {α0 , α1 } è un 2 ciclo per il s.d.d. {I, f} se e solo se
!
α0 , α1 = f (α0 ) sono equilibri di I, f 2 ma non di {I, f} .
118 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Un 2 ciclo {α0 , α1} per {I, f} è stabile (rispettivamente attrattivo, repulsivo)


se e solo se sono stabili (rispettivamente,
! attrattivi, repulsivi) entrambi gli
equilibri distinti α0 ed α1 per I, f 2 .

Ne segue, applicando il Teorema 3.57 agli equilibri di f 2 , che


     
     
se {α0 , α1} è un 2 ciclo di {I, f} t.c.  f 2 (α0 ) < 1 e  f 2 (α1 ) < 1
allora {α0 , α1 } è un 2 ciclo localmente asintoticamente stabile;
     
     
se {α0 , α1} è un 2 ciclo di {I, f} t.c.  f 2 (α0 ) > 1 o  f 2 (α1 ) > 1
allora {α0 , α1 } è un 2 ciclo repulsivo.
(3.6)
Osserviamo che la (3.6) è una condizione la cui verifica diretta negli esempi
e nelle applicazioni conduce a calcoli inutilmente laboriosi di composizione e
derivazione. Invece, l’enunciato seguente, del tutto equivalente a (3.6), è più
esplicito e può essere utile nei calcoli.

Teorema 3.69. Sia f ∈ C 1 (I) e sia {α0 , α1 } un 2 ciclo per il s.d.d. {I, f}.
Allora

|f  (α0 ) f  (α1 )| < 1 ⇒ {α0 , α1} localmente asintoticamente stabile

|f  (α0 ) f  (α1 )| > 1 ⇒ {α0 , α1} repulsivo

Prova. Basta applicare (3.6) sfruttando la relazione


 2   
f (α0 ) = f  (f (α0 )) f  (α0 ) = f  (α1 ) f  (α0) = f 2 (α1 ) . 

Esempio 3.70. Determiniamo eventuali orbite 2 periodiche del s.d.d.


{[0, 1] , 13x (1 − x) /4}. A tal fine, dopo aver osservato che
13 9
x (1 − x) = x ⇔ x = 0 oppure x =
4 13
esplicitiamo l’iterata seconda di f
( )( )  
13 13 13 169 13 13
f 2 (x)= x (1 − x) 1 − x(1 − x) = x (1 − x) 1 − x + x2 .
4 4 4 16 4 4

I suoi punti fissi, diversi da 0 e 9/13, sono le soluzioni di f 2 (x) = x, tali che
f (x) = x, cioè

2197 2 2873 221 17 ± 17
− x + x− = 0 ⇔ x1,2 = .
64 64 16 26
3.8 Studio qualitativo e stabilità delle orbite periodiche 119

Da f  (x) = 13 (1 − 2x) /4, si deduce:


     1  √ √ 
  17−√17  17+√17  1
f 26 f 26  = (−4 + 17)(−4 − 17) = <1
16 16
e grazie al Teorema 3.69 possiamo concludere che l’orbita 2 periodica
 √ √ *
17 − 17 17 + 17
,
26 26

è localmente asintoticamente stabile (vedi Fig. 3.20). 

√  
Esempio 3.71. Dato il s.d.d. {[0, 1] , f}, con f (x) = (1 + 2 2) x − x2 , de-
terminiamo le orbite 2 periodiche e studiamone la stabilità.
Sulla base del Lemma 3.68, cerchiamo i punti fissi di
√ & √ '& √ '
f 2 (x) = f (f(x)) = (1 + 2 2) (1 + 2 2)x(1 − x) 1 − (1 + 2 2)x(1 − x) =
√  √ √ 
= (9 + 4 2)x(1 − x) 1 − (1 + 2 2)x + (1 + 2 2)x2

che non siano anche punti fissi di f: (1 + 2 2)x (1 − x) = x, cioè diversi dai
due valori √
8−2 2
0 .
7
Sotto tali condizioni, con qualche calcolo, si ricava
√ √
2 4− 2 2+3 2
f (x) = x ⇔ x1 = oppure x2 = .
7 7

13 √
f(x) = 4 (x − x2 ) f(x) = (1 + 2 2)(x − x2 )

Fig. 3.20. Grafici di f e della sua iterata f 2 sull’intervallo [0, 1] (due esempi)
120 3 Sistemi dinamici discreti: equazioni scalari ad un passo
 √   √  !
Per studiare la stabilità dell’orbita periodica 4 − 2 /7, 2 + 3 2 /7 os-

serviamo che da f  (x) = (1 + 2 2) (1 − 2x) segue
  √   
  4− 2  2+3√2 
f 7 f 7  = |−3| > 1

e grazie al Teorema 3.69 concludiamo che l’orbita è repulsiva. 

Osservazione 3.72. Se {α0 , α1, . . . , αs−1} è un s ciclo per il s.d.d. {I, f} con
f ∈ C 1 (I), allora, per j = 0, 1, . . . , s − 1, vale l’identità
    
(f s ) (αj ) = f  f s−1 (αj ) f  f s−2 (αj ) · · · f  (αj ) =
= f  (α0 ) f  (α1 ) · · · f  (αs−1 )

cioè il numero (f s ) (αj ) non dipende da αj ma (come è naturale) dipende
da tutto il ciclo e può essere valutato senza bisogno di composizioni ma solo
moltiplicando tra loro le derivate in tutti i punti dell’orbita s periodica.
Se ne deduce, con lo stesso ragionamento utilizzato per provare il Teorema
3.69, una caratterizzazione della stabilità per gli s cicli.

Teorema 3.73. Sia f : I → I, f ∈ C 1 (I) e {α0 , α1, . . . , αs−1} un s ciclo per


il s.d.d. {I, f}. Allora

|f  (α0 ) f  (α1 ) · · · f  (αs−1 )| < 1 ⇒ s ciclo loc. asintot. stabile

|f  (α0 ) f  (α1 ) · · · f  (αs−1 )| > 1 ⇒ s ciclo repulsivo

I Teoremi 3.69 e 3.73 sono di applicazione molto semplice se il ciclo è noto. Ma


la difficoltà vera consiste nel sapere se esiste un s ciclo e nella sua effettiva de-
terminazione.Per convincersene basta pensare che già  nel caso
 di f polinomio
di secondo grado, ad esempio I = [0, 1] e f (x) = 4 x − x2 , per determinare
un 4 ciclo occorre trovare i punti fissi di f 4 , cioè risolvere f 4 (x) − x = 0 che
è una equazione di sedicesimo grado!

3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari

Come si è già detto, non sono noti metodi generali per esplicitare leggi ricor-
sive non lineari. Tuttavia nei casi in cui mediante opportune trasformazioni
(necessariamente non lineari) dell’incognita ci si riconduce ad un problema
lineare nell’incognita trasformata, è possibile esplicitare la soluzione utiliz-
zando i risultati relativi ai s.d.d. lineari (un caso particolare è stato discusso
nel paragrafo 2.7).
3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari 121

Consideriamo la successione X assegnata mediante una legge ricorsiva

Xk+1 = f (Xk )

dove è noto X0 ∈ I, I intervallo, e f : I → I è una funzione non di tipo lineare


affine.
Dunque X è una traiettoria del s.d.d. {I, f}.

Teorema 3.74. Sia f : I → I una funzione continua con derivata continua,


sia b una costante reale diversa da 0 e da 1, g : I → R una funzione continua
che verifica l’identità
b g(f (x)) = g(x) f  (x) (3.7)
e la condizione
g (t) = 0 ∀t ∈ I.
Se la funzione ψ : I → R è definita da
2 x
dt
ψ (x) = +c (3.8)
X0 g(t)
2 X1
1 dt
dove c = , si ottiene l’espressione esplicita delle traiettorie
b−1 X0 g(t)
del s.d.d. {I, f}:

 
Xk = ψ−1 bk ψ (X0 ) (3.9)

dove ψ−1 denota la funzione inversa di ψ 3


.

Osservazione 3.75. Si osservi che dal teorema fondamentale del calcolo in-
tegrale segue che ψ ∈ C 1 (I) e ψ (x) = 1/g (x) è sempre dello stesso segno in I
perché g è continua e diversa da zero nell’intervallo I. Dunque ψ è strettamente
monotòna e quindi invertibile.
Ne segue che l’identità (3.7) può essere soddisfatta solo in intervalli in cui f
è strettamente monotòna.

Osservazione 3.76. La maggior difficoltà che si incontra negli esempi è ri-


solvere l’equazione funzionale (3.7) nell’incognita g.

3
La tesi del Teorema 3.74 vale, più in generale, anche se g si annulla in un numero
finito di punti di I, purché g non cambi segno e la funzione 1/g risulti integrabile in
senso improprio su I.
122 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Prova del Teorema 3.74. Poiché ψ, f ∈ C 1 (I) (cfr. Osservazione 3.75), applicando
la regola di derivazione delle funzioni composte, si ottiene

d f  (x) per la (3.7)


ψ (f (x)) = ψ (f (x)) f  (x) = =
dx g (f (x))
b
= = b ψ (x) .
g (x)

Integrando da X0 ad x e ponendo uguale a zero la costante indeterminata,


ψ (f (X0 )) − bψ (X0 ) = 0 , si ricava

ψ (f (x)) = bψ (x) (3.10)

da cui , ricordando che X1 = f (X0 ) , si ottiene c = ψ (X0 ) = ψ (X1 ) /b e


' X dt
c = ψ (X1 ) − X01 e quindi
g (t)
 X1
1 dt
c= .
b−1 X0 g (t)

Sostituendo Xk ad x in (3.10), tenendo conto che Xk+1 = f (Xk ), otteniamo

ψ (Xk+1 ) = bψ (Xk ) k∈N

e con la sostituzione
Yk = ψ (Xk ) k∈N
giungiamo a
Yk+1 = bYk k∈N
Y0 = ψ (X0 )
la cui soluzione esplicita è
Yk = bk Y0 = bk ψ (X0 )
da cui  
Xk = ψ−1 bk ψ (X0 ) . 
 
Esempio 3.77. Studio della logistica di parametro a : ha (x) = a x − x2 . In
questo caso l’equazione (3.7) corrisponde alla ricerca di b e g tali che g (x) = 0,
b = 0, b = 1 e  
b g ax − ax2 = g(x) a (1 − 2x) . (3.11)
Un tentativo di soluzione della (3.11) è la ricerca di g lineare affine, cioè
g (x) = γx + δ: sostituendo tale g nella (3.11) si ottiene

−bγax2 + bγax + bδ = −2aγx2 + (aγ − 2aδ) x + aδ.

Uguagliando i coefficienti delle potenze corrispondenti di x, ricaviamo

b=a=2 γ = −2δ.

Dunque la scelta di g lineare affine consente di risolvere solo il caso a = 2.


3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari 123

Scegliamo γ = −1, δ = 1/2, ottenendo b = 2 e g (x) = −x + 1/2. Notiamo che


g si annulla in x = 1/2. Tuttavia basterà limitarsi all’intervallo (−∞, 1/2) do-
ve g non si annulla e non cambia segno poiché maxR h2 (x) = 1/2 = h2 (1/2).
Infatti, le traiettorie del s.d.d. diverse dalla traiettoria costante 1/2 assumono
solo valori strettamente minori di 1/2.
Sostituendo in (3.8), con X0 ∈ (−∞, 1/2), si ottiene
2 2 2
x
dt X1
dt (1 − 2X0 )
ψ (x) = 1 + 1 = ln = − ln (1 − 2x)
X0 2
−t X0 2
−t (1 − 2x) (1 − 2X1 )

1 
x= 1 − e−ψ
2
1
cioè ψ−1 (s) = 2 (1 − e−s ). A questo punto la (3.9) fornisce

1 1   1 2k

Xk = − exp −2k (− ln (1 − 2X0 )) = 1 − (1 − 2X0 ) .
2 2 2
Concludendo,

le traiettorie della logistica h2 con dato iniziale X0 ∈ R sono

1 2k

Xk = 1 − (1 − 2X0 ) k∈N
2

Il lettore verifichi che tale soluzione esplicita è valida anche nei casi X0 ≥ 1/2
e soddisfa le proprietà di monotonia e convergenza deducibili dallo studio
qualitativo con le tecniche dei paragrafi 3.1, 3.2 e 3.3 . 

Il Teorema 3.74 opera in ipotesi alquanto restrittive: richiede essenzialmen-


te f monotòna in tutto I (si veda l’Osservazione 3.75). Per trattare il caso
di f non monotòna (ad esempio, la logistica) occorre fare degli adattamenti
qualora, a differenza dell’esempio precedente, non si sappia a priori che le tra-
iettorie del sistema dinamico sono definitivamente contenute in un intervallo
di monotonia di f.
Nel caso in cui 0 ∈ I e 0 è equilibrio del s.d.d. (cioè f (0) = 0) si possono ripe-
tere gli argomenti della dimostrazione del Teorema 3.74, in ciascun intervallo
di monotonia di f: è utile considerare b = b (x) costante a tratti, più precisa-
mente, |b| costante e sign(b (x)) = sign(f  (x)), cioè b costante negli intervalli
Ij di monotonia di f.
In ciascun Ij si potrà costruire una funzione ψj ed una sua funzione inversa
ψj−1 . Sia Ψ la funzione ottenuta raccordando le ψj e sia Φ la funzione ottenuta
raccordando fra loro le ψj−1 , allora (cambiando variabili) il s.d.d. {I, Φ ◦ f}
pur non essendo lineare, ha una forma sufficientemente semplice per ottenere
124 3 Sistemi dinamici discreti: equazioni scalari ad un passo

ancora delle informazioni:

Yk+1 = b (Yk ) Yk .
k
Il modulo della soluzione si ottiene facilmente: |Yk | = |b| |Y0 |.
Se, inoltre, Φ risulta pari, allora
 
Xk = Φ (Yk ) = Φ (|Yk |) = Φ bk Ψ (X0 ) .

Illustriamo in un caso particolarmente interessante le considerazioni prece-


denti.

Esempio 3.78. Ancora sulla logistica ha . Consideriamo delle soluzioni di


(3.11) del tipo 
g (t) = t (1 − t)
che è una funzione positiva in (0, 1). Si ottiene
 
b a (x − x2 ) (1 − a (x − x2 )) = x (1 − x) a (1 − 2x)

equivalente per x ∈ (0, 1) a

b 
√ 1 − ax + ax2 = 1 − 2x
a

che è una identità in x solo per (si rilegga l’enunciato del Teorema 3.74):
a = 4 e b = 2, se x ∈ [0, 1/2);
a = 4 e b = −2, se x ∈ (1/2, 1];
∀a, b con a > 0 se x = 1/2, 0, 1 .
Poiché 0 ∈ I e f (0) = 0, si ha
2 x 2 x
dt dt √
ψ1 (x) =  = √√ = 2 arcsin x x ∈ [0, 1/2] .
0 t (1 − t) 0 t 1−t

Risulta così   2


ψ1−1 (y) = sin 12 y y ∈ [0, π/2] .
Inoltre
2
π x
−1 √
ψ2 (x) = +  dt = π − 2 arcsin x x ∈ [1/2, 1]
2 1/2 t (1 − t)
  2
ψ2−1 (y) = cos 12 y .
3.10 Esercizi di riepilogo 125

La conclusione si ottiene sostituendo b, ψ e ψ−1 nella (3.9).

Le traiettorie della logistica h4 con dato iniziale X0 ∈ [0, 1] sono


  √ 2
Xk = sin 2k arcsin X0 ∀k ∈ N

(3.12)
Verifichiamo√ la correttezza della formula trovata, ponendo per comodità
A = arcsin X0 :
  2    2    2   2
f (Xk ) = 4 sin 2k A 1 − sin 2k A = 4 sin 2k A cos 2k A =
 k+1 
= sin 2 A = Xk+1 .

In conclusione, la (3.12) fornisce esplicitamente le traiettorie. Nonostante l’ap-


parente semplicità di tale espressione le traiettorie del s.d.d. {[0, 1] , h4 } pre-
sentano una sorprendente ricchezza di struttura, come vedremo nel Capitolo
4. In particolare, per quasi tutti i valori iniziali, la traiettoria {Xk } ha un
andamento erratico e non periodico in [0, 1]. 

3.10 Esercizi di riepilogo


Esercizio 3.21. Utilizzando le tecniche del paragrafo 3.6, si discuta la stabilità di
eventuali equilibri del sistema dinamico {R, ax + b}.
Esercizio 3.22. Sia data la successione

4
Yk+1 = 1 − arctan Yk ∀k ∈ N\ {0}
π
Y0 = a

Per a = 4 determinare l’andamento della successione, provare che ha limite per


k → +∞ e calcolarne il valore.
Per quali altri valori reali di a la successione ammette limite?
Esercizio 3.23. Determinare al variare del parametro reale non negativo a il com-
portamento asintotico della successione

1 4
Yk+1 = Yk2 +
3 3
Y0 = a

Esercizio 3.24. Al variare del parametro reale non negativo a, determinare il com-
portamento asintotico della successione

1 6
Yk+1 = Yk2 +
5 5
Y0 = a
126 3 Sistemi dinamici discreti: equazioni scalari ad un passo

Esercizio 3.25. Determinare, al variare di a > 0, il limite della successione


⎨ 1
Yk+1 = 2Yk exp − Yk ∀k ∈ N
2

Y0 = a

Esercizio 3.26. Assegnati due numeri reali positivi a, b tali che a > b > 0, si
consideri la successione Y definita per ricorrenza:

⎨ 1 b
Yk+1 = Yk + ∀k ∈ N
2 Yk

Y1 = a

Mostrare che Yk è ben definita per ogni k, che è monotòna decrescente, che
√ esiste il
limite L di Yk per k → +∞ e calcolarlo. Cosa si può dire nel caso Y1 = b?
Posto k = |Yk − L|, mostrare che

2
k+1 = √k .
2 b

Calcolare 3 a meno di 10−7 .
( ) √
Esercizio 3.27. Provare che 6 + 6 + 6 + · · · = 3 .
Esercizio 3.28. Data g : R → R priva di punti fissi, posto f (x) = g (x) − x e
Yk+1 = Yk + f (Yk ), dimostrare che se il massimo assoluto di f è strettamente ne-
gativo, allora Yk → −∞, mentre se il minimo assoluto di f è strettamente positivo
allora Yk → +∞.
Esercizio 3.29. Un tipo di batterio si suddivide in due batteri con le sue stesse
caratteristiche oppure muore. Sia p la probabilità di suddivisione di ciascuno di tali
batteri (e di tutta l’eventuale discendenza). Qual è la probabilità s che la discendenza
di tale batterio non si estingua mai?
Esercizio 3.30. Studiare graficamente il s.d.d. {I, f } con I = [0, 1] ed
1
f (x) = sin (πx).

Esercizio 3.31. Studiare graficamente il s.d.d. {I, f } con I = [0, 1] ed
f (x) = sin (πx).
Esercizio 3.32. Mostrare che esiste α ∈ (0, 1) tale che limk→+∞ cosk x = α per
ogni x ∈ R.
Ricavare numericamente il valore α = 0, 73909 . . . .
Suggerimento: mostrare che tutte le orbite del s.d.d. {I, cos x} sono attratte dall’u-
nico equilibrio α.
Stimare tale equilibrio e mostrare che è stabile.
Esercizio
% &3.33. Determinare eventuali equilibri, studiandone la stabilità, del s.d.d.
R, x + x3 .
Esercizio
% &3.34. Determinare eventuali equilibri, studiandone la stabilità, del s.d.d.
R+ , x−2 .
3.10 Esercizi di riepilogo 127

Esercizio 3.35. Si studi al variare del parametro reale β la successione definita per
ricorrenza

Xk+1 = fβ (Xk ) con fβ (x) = β + x.

Esercizio 3.36. Dato il s.d.d. {[0, 1] , T } ove



2x 0 ≤ x < 1/2
T (x) =
2 (1 − x) 1/2 ≤ x ≤ 1

mostrare che il dato iniziale X0 = 1/7 genera una traiettoria definitivamente 3 perio-
dica e che il s.d.d. presenta due orbite di periodo 3 entrambe instabili (Suggerimento:
si studi graficamente l’equazione T 3 (x) = x ).

Esercizio 3.37. Assegnata f ∈ C 1 (I), con I ⊂ R intervallo ed 1 + f  (x) = 0 per


ogni x ∈ I, dimostrare che il s.d.d. {I, f } non ha orbite di minimo periodo 2.

Esercizio 3.38. (a) Assegnato il numero reale α, determinare un’espressione non


ricorsiva di Xk
Xk+2 = Xk+1 + Xk k∈N
X1 = 1, X2 = α
(b) Studiare il comportamento della successione Yk definita da
1
Yk+1 = k≥2
1 + Yk
Y2 = 1

(c) Sfruttando il punto (a) scrivere un’espressione non ricorsiva per Yk .


(d) Al variare del parametro β ∈ R, studiare il sistema dinamico discreto
1
Zk+1 = k≥2
1 + Zk .
Zk = β

Esercizio 3.39. Studiare il s.d.d. definito da Xk+2 = (Xk+1 )5 / (Xk )6 .

Esercizio 3.40. a) Studiare i s.d.d.


√ 1
Xk+1 = 1 + Xk Xk+1 = 1 + con X0 > 0 .
Xk
b) Provare che tutte le traiettorie dei due s.d.d. convergono allo stesso equilibrio
(in modo monotòno nel primo caso, oscillando nel secondo), cioè vale la seguente
identità tra un radicale iterato ed una frazione continua:
* + (
√ 1
1 + 1 + 1 + 1 +··· = 1 + .
1 + 1+ 1 1
1+···
4
Complessità dei sistemi dinamici non
lineari: biforcazioni e caos

Gran parte di questo capitolo è dedicato allo studio qualitativo del s.d.d.
associato alla crescita logistica discreta, sia per l’importanza di tale model-
lo matematico, sia perché, come vedremo in dettaglio, la dinamica ad esso
corrispondente è simile a quella di molti altri s.d.d. non lineari unimodali.
In tale studio incontreremo equilibri, orbite periodiche, biforcazioni e, in al-
cuni casi, anche comportamenti non banali che vengono definiti dinamiche
caotiche.
Alcune elementari nozioni di topologia, utili per la comprensione di questo
capitolo, sono richiamate in Appendice E.

4.1 Dinamica della crescita logistica


Consideriamo la crescita di una popolazione con tasso riproduttivo costante
che è un esempio rilevante di modello matematico discreto non lineare ad un
passo. Dalle osservazioni empiriche è chiaro che non esistono esempi di cresci-
ta illimitata di alcuna specie biologica. Come abbiamo già ricordato nel primo
capitolo (Esempi 1.12, 1.13), il modello malthusiano di crescita descritto dal
sistema dinamico lineare Xk+1 = aXk che fornisce successioni a crescita espo-
nenziale, necessita di correzioni poiché, anche trascurando la competizione con
altre specie e supponendo le risorse alimentari dell’habitat come illimitate, la
sovrappopolazione determina sempre fattori di competizione intraspecifica.
Per tenere conto di tali fenomeni sociali (una maggiore aggressività ed una
diminuita attitudine alla riproduzione) occorre introdurre nel modello dei ter-
mini che si oppongono alla crescita indiscriminata e contribuiscono a limitare
le dimensioni della popolazione entro valori sostenibili dall’ambiente.
La più semplice correzione che si può adottare è la modifica di Verhulst al
modello di Malthus, che consiste nel sostituire la relazione lineare con un
polinomio di secondo grado, ottenendo in tal modo il modello di crescita
E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione
UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_4, © Springer-Verlag Italia 2014
130 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

logistica:

Xk+1 = aXk (1 − Xk ) 0≤a≤4 (4.1)

Il polinomio ax (1 − x) si dice funzione logistica o mappa logistica ed il


suo grafico si dice parabola logistica. Nel modello (4.1), per piccole popola-
zioni prevale il termine lineare con coefficiente positivo, mentre per popolazio-
ni di grandi dimensioni prevale il termine quadratico di coefficiente negativo
(piccolo o grande hanno un significato relativo rispetto ai parametri in gio-
co e possono essere precisati quantitativamente). Si noti che la (4.1) si può
riscrivere come
Xk+1 = ha (Xk )
dove ha (x) = ax − ax2 , 0 ≤ a ≤ 4, e che se x ∈ [0, 1] allora ha (x) ∈ [0, 1].
Osserviamo esplicitamente che, per comodità di calcolo, si è effettuata una
normalizzazione delle unità di misura, cioè si considerano solo valori della
popolazione compresi tra 0 e 1. Quindi il coefficiente a (positivo per il suo
significato biologico) non deve superare il valore 4 affinché l’immagine di [0, 1]
mediante il polinomio ha sia contenuta in [0, 1] e, quindi, sia possibile il calcolo
delle iterate a partire da ogni dato X0 ∈ [0, 1] ottenendo Xk ∈ [0, 1] per ogni
k ∈ N.
Come nel modello di Malthus, anche nel modello logistico, quando è fissato il
valore iniziale della popolazione, tutta l’evoluzione è univocamente determina-

0 1

Fig. 4.1. Grafici di ha , a = 1/2, 1, 2, 3, 4: lo spessore del grafico cresce con a


4.1 Dinamica della crescita logistica 131

ta: diciamo che si tratta di modelli deterministici. Tuttavia, nel caso della
crescita logistica, non si ha più una descrizione qualitativa semplice dell’an-
damento di Xk , né tantomeno si può pensare a crescite indefinite, o estinzioni
per ogni dato iniziale e per ogni scelta del parametro positivo a; intervengono
invece oscillazioni ed altri fenomeni con una struttura molto complicata.
Anche senza un’analisi teorica, si può capire già da semplici esperimenti con
il metodo grafico, che si possono osservare molti tipi di comportamento qua-
litativo. Il lettore è invitato a fare degli esperimenti grafici sia a mano, sia al
computer, prima di proseguire (per generare le ragnatele si può utilizzare il
Notebook relativo proposto nell’Appendice H).
Cerchiamo di dare una idea di alcuni fenomeni che possono presentarsi, senza
alcuna pretesa di completezza; infatti, nonostante la formulazione del model-
lo sia elementare, la descrizione di tutte le sue soluzioni nasconde problemi
tutt’altro che elementari, e talora non risolti.
Consideriamo pertanto il s.d.d. {[0, 1] , ha } con a ∈ [0, 4].
Si può osservare graficamente (e si può dimostrare analiticamente) che, al cre-
scere del parametro a il comportamento qualitativo delle traiettorie cambia
radicalmente: il nostro scopo è quello di avere un’idea complessiva del quadro
delle traiettorie per tutti i valori di a. Per valori piccoli di a l’analisi è elemen-
tare, come vedremo nel seguito, ma al crescere di a la situazione è decisamente
più complessa e richiede l’introduzione di nuovi strumenti.
Il grafico di ha è una parabola di vertice (1/2, a/4), concava e simmetrica
rispetto alla retta verticale di equazione x = 1/2.
Risolvendo l’equazione ha (x) = x si deduce che il s.d.d. {[0, 1] , ha} ha sempre
l’equilibrio 0: tale equilibrio è unico se 0 ≤ a ≤ 1, invece, se 1 < a ≤ 4, ha
presenta anche il punto fisso αa = (a − 1) /a. Inoltre, ai valori iniziali 1 e (se
1 ≤ a ≤ 4) 1/a corrispondono traiettorie definitivamente costanti, giacché
ha (1) = 0 e ha (1/a) = αa.

h1/2 h1

0 1/2 1 0 1/2 1

Fig. 4.2 . Alcune ragnatele per ha a partire da X0 = 1/2 , per a = 1/2 ed a = 1


132 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Sulla base di quanto detto possiamo effettuare un’analisi qualitativa preli-


minare del quadro delle fasi di {[0, 1] , ha} al variare di a.
(I) Se a ∈ [0, 1], vi è il solo equilibrio 0; esso è globalmente asintoticamente
stabile, cioè tutte le traiettorie con dato iniziale X0 ∈ [0, 1] sono attratte da 0
che è equilibrio stabile. Infatti Xk+1 < Xk e ,

a ∈ [0, 1) ⇒ |ha (0)| = a < 1


a=1 ⇒ ha (0) = 1, ha (0) = −2a < 0

e la conclusione segue dai Teoremi 3.25, 3.57 e 3.62.


(II) Se 1 < a ≤ 4 vi sono due equilibri: 0 e αa. Precisamente 0 è instabile
(ha (0) = a > 1) e:
• se 1 < a < 3, allora αa è stabile ed attrattivo (|ha (αa)| = |2 − a| < 1) ed
il bacino di attrazione di αa è (0, 1);
• se a = 3, allora h3 (α3 ) = −1 e dunque α3 è stabile ed attrattivo per
l’Esempio 3.66;
• se 3 < a ≤ 4 anche αa è instabile (|ha (αa )| = a − 2 > 1).

(III) Se 3 < a ≤ 4 compare un’orbita di periodo 2. Infatti, h2a (x) = x ha


quattro soluzioni distinte di cui 2 sono 0 e αa (i punti fissi di ha ) e le altre
due appartengono all’unica traiettoria 2 periodica del s.d.d.

(IV) Se 3 < a < 1 + 6 = 3, 44949..., l’orbita 2 periodica è stabile ed
attrattiva, il motivo della stabilità si vedrà in seguito.

(V) Se a ≥ 1 + 6, l’analisi è molto più delicata e sarà oggetto dei paragrafi
successivi.
Proviamo una proposizione che sarà utile nel seguito e comunque chiarisce che
la parte significativa della dinamica associata ad ha si svolge in [0, 1].

Teorema 4.1. Consideriamo la mappa logistica ha in tutto R , con a > 1. Al-


lora tutti gli eventuali equilibri e le eventuali traiettorie periodiche di periodo
≥ 2 del s.d.d. {R, ha} sono contenute in [0, 1].

Prova. La parte relativa agli equilibri è una banale conseguenza dell’ipotesi a > 1.
Se s è un intero ≥ 2, allora, poiché 0 è un punto fisso di ha per ogni a e ha (1) = 0,
la tesi relativa alle orbite periodiche è dimostrata se si prova che tutte le soluzioni
di {x ∈ R : hsa (x) = x} sono contenute in [0, 1]. Proviamo questo fatto.
Se x < 0, allora ha (x) < x < 0, ricalcolando ha si ottiene ha2 (x) < ha (x) < x < 0,
e, iterando
hsa (x) < hs−1
a (x) < · · · < x ∀s ≥ 1.
Se x > 1 allora ha (x) < 0, e, iterando

hsa (x) < hs−1


a (x) < · · · < ha (x) < 0 < x ∀s ≥ 2. 
4.2 Il teorema di Sharkovsky 133

Il risultato appena dimostrato ci assicura che se a > 1, allora lo studio delle


iterate di ha può essere effettuato solo in [0, 1] senza perdere nulla della strut-
tura delle orbite di {R, I} perché ogni soluzione che non rimane confinata in
I è definitivamente decrescente strettamente.

4.2 Il teorema di Sharkovsky

Consideriamo il s.d.d. {R, f} dove f (x) = −3x2 + 5x/2 + 1/2. È immedia-


to verificare che {0, 1/2, 1} è un’orbita periodica di periodo 3: f (0) = 1/2,
f (1/2) = 1, f (1) = 0.
L’esempio precedente è stato costruito determinando l’unica funzione f del
tipo ax2 + bx + x passante per i punti (0, 1/2), (1/2, 1), (1, 0). Ci si potrebbe
chiedere quali e quante altre orbite periodiche vi sono per {R, f} . Una prima
risposta è fornita dal seguente sorprendente risultato.

Teorema 4.2. Se un s.d.d. {I, f}, con I intervallo contenuto in R, ammette


un’orbita periodica di periodo 3, allora {I, f} ha anche orbite periodiche di
periodo s, per ogni s intero positivo.

Il Teorema 4.2, già sorprendente in sé, è solo una piccola parte delle sorprese
relative alle orbite periodiche: si tratta di parte dell’informazione contenuta
nell’elegante risultato dimostrato nel 1964 da O.M. Sharkovsky1 , che enuncia-
mo nel seguito. Sottolineiamo che l’aspetto più interessante nella ricchezza di
struttura del quadro delle traiettorie di {I, f} è che la tesi segue dalla sola
ipotesi di continuità per f.

Xk+1 Xk

1/2

1/2 1 Xk
k
% &
Fig. 4.3. Orbita periodica {0, 1/2, 1} del s.d.d. R, −3x2 + 5x/2 + 1/2

1
Oleksandr Mikolaiovich Sharkovsky, 1936- .
134 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Definizione 4.3. Si dice ordinamento di Sharkovsky dei numeri natu-


rali, il seguente

1 ≺ 2 ≺ 22 ≺ 23 ≺ 24 ≺ · · · ≺ 9 · 2n ≺ 7 · 2n ≺ 5 · 2n ≺ 3 · 2n ≺ · · ·
≺ 9 · 22 ≺ 7 · 22 ≺ 5 · 22 ≺ 3 · 22 ≺ · · ·
≺9·2 ≺7·2 ≺5·2 ≺ 3·2 ≺ ···
≺9 ≺7 ≺5 ≺3

La relazione a ≺ b significa che a precede b nell’ordinamento. I primi puntini


sottintendono tutte le potenze di 2 in ordine crescente, i puntini successivi de-
notano tutte le potenze di 2 in ordine decrescente a fattore con tutti i numeri
dispari diversi da 1 in ordine decrescente (ad esempio, 7 · 24 ≺ 9 · 23 ).
Ogni numero naturale compare esattamente una ed una sola volta nell’ordi-
namento di Sharkovsky.

Teorema 4.4 (di Sharkovsky). Se f : I → I è una funzione continua


sull’intervallo I ⊆ R ed esiste un’orbita periodica di minimo periodo s per il
s.d.d. {I, f}, allora per ogni m ≺ s secondo l’ordinamento di Sharkovsky il
s.d.d. {I, f} ammette un’orbita periodica di minimo periodo m.

Osservazione 4.5. Il Teorema 4.4 è molto fine nel senso che si possono forni-
re esempi con orbite di periodo 5 senza orbite di periodo 3 e, più in generale,
se n ≺ s, si possono avere orbite di periodo n senza alcuna orbita di periodo s.

Esempio 4.6. Verifichiamo graficamente che il s.d.d. {[0, 1] , h3,1 } presenta


due equilibri ed una sola orbita periodica di periodo 2, ma che non vi è alcuna
altra orbita periodica coerentemente con il Teorema 4.4.
Il primo grafico di Fig. 4.4, mostra che vi sono due soli equilibri: 0 e 21/31
(gli equilibri non possono essere più di 2 perché h3,1 (x) = x è un’equazione
di secondo grado).
Dall’esame del secondo grafico, otteniamo quattro punti 2 periodici: 2 sono gli
equilibri già noti (0 e 21/31), gli altri due punti corrispondono necessariamente
ad un’orbita 2 periodica.

Fig. 4.4. Alcune iterazioni della logistica h3,1 : h3,1 , (h3,1 )2 , (h3,1 )4
4.2 Il teorema di Sharkovsky 135

Dall’esame del terzo grafico, si evidenziano solo quattro intersezioni con la


bisettrice del primo quadrante, cioè non si ha evidenza di altre radici diverse
dalle 4 già note, pertanto non vi sono orbite di minimo periodo pari a quat-
tro. Ma allora non ve ne sono di alcun altro periodo perché 4 precede tutti i
numeri diversi da 1 e 2 nell’ordinamento di Sharkovsky. 

A precisazione dell’argomento usato nell’esempio precedente, occorre ricorda-


re che, grazie al Teorema 4.1, se a > 1 allora tutti gli eventuali punti periodici
di ha sono situati nell’intervallo [0, 1] il che ci consente di tralasciare lo studio
della porzione di grafico in R\ [0, 1].
Per la dimostrazione completa del Teorema di Sharkovskii rinviamo a [6]. Qui
proviamo solo il Teorema 4.2 che ne costituisce un caso particolare: alla sua
dimostrazione premettiamo due lemmi.

Lemma 4.7. Siano I = [a, b] un intervallo chiuso e limitato, f : I → R una


funzione continua. Se f (I) ⊃ I allora esiste un punto fisso di f su I.

Prova. Poiché f (I) ⊃ I esistono c, d ∈ I tali che f (c) = a e f (d) = b. Se c = a


oppure d = b il lemma è dimostrato.
Altrimenti si ha c > a e d < b : in questo caso, posto g (x) = f (x) − x abbiamo
anche
g (c) = f (c) − c = a − c < 0 < b − d = f (d) − d = g (d) ;
grazie alla continuità di g, per il teorema di esistenza degli zeri esiste t nell’intervallo
di estremi c e d tale che g (t) = 0 cioè f (t) = t. 
La dimostrazione del lemma seguente è lasciata al lettore.

Lemma 4.8. Se U e V sono due intervalli chiusi e limitati ed f : U → R è


continua, allora V ⊂ f (U ) implica l’esistenza di un intervallo U0 ⊂ U tale
che f (U0 ) = V .

Osservazione 4.9. Il Lemma 4.7 non si estende al caso di funzioni di più


variabili: si può dare l’esempio di una funzione f : B → Rn , B ⊆ Rn , con B
compatto, non vuoto e tale che f (B) ⊃ B ma con f che non possiede punti
fissi in B (si veda l’Esempio 4.10).
In particolare, viene meno il Teorema 4.2 nel caso vettoriale, ossia in tal caso
il periodo 3 non implica necessariamente l’esistenza di tutti gli altri periodi
interi.
!
Esempio 4.10. Sia D = (x, y) ∈ R2 : x2 + y2 = 1, y ≥ 0 ed f : D → R2
definita in coordinate polari da f (ρ, θ) = (ρ, 2θ + π/2). Allora D ⊂ f (D) ma
f non ha punti fissi. 

Diamo per completezza la dimostrazione del Teorema 4.2 che può essere omes-
sa in una prima lettura senza pregiudicare la comprensione del seguito.
136 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Fig. 4.5. Intervalli I0 e I1

Prova del Teorema 4.2. Sia {a, b, c} l’orbita 3 periodica dove a < b < c. Supponiamo
f (a) = b, f (b) = c e f (c) = a (l’altro caso è analogo).
Siano I0 = [a, b] e I1 = [b, c]. Allora per il teorema dei valori intermedi

I1 ⊂ f (I0 ) , I0 ⊂ f (I1 ) , I1 ⊂ f (I1 ) .

Ma I1 ⊂ f (I1 ) implica, per il Lemma 4.7, l’esistenza di un punto fisso in I1 , dunque


esiste un equilibrio (cioè un’orbita di periodo 1).
Sia n > 1 ed n = 3: vogliamo mostrare l’esistenza di un’orbita n periodica.
Definiamo a tal fine gli intervalli chiusi Jk , k = 0, 1, . . . , n, tali che
(1) I1 = J0 ⊃ J1 ⊃ J2 ⊃ · · · ⊃ Jn ;
(2) f (Jk ) = Jk−1 k = 1, 2, . . . , n − 2;
(3) f k (Jk ) = I1 k = 1, 2,. . . , n − 2;
(4) f n−1 (Jn−1 ) = I0 ;
(5) f n (Jn ) = I1 .
Prima mostriamo che se esistono i Jn e sono verificate le condizioni (1)-(5), allora
esiste un’orbita periodica di minimo periodo n. Poi proveremo l’esistenza dei Jn .
La (5) ed il Lemma 4.7 assicurano l’esistenza di un punto p ∈ Jn tale che f n (p) =
p. Utilizziamo le (1)-(4) per mostrare che p ha minimo periodo n.
Per la (1) p ∈ I1 = [b, c] e per la (3)

f k (p) ∈ I1 k = 0, 1, . . . , n − 2

mentre per la (4) f n−1 (p) ∈ I0 = [a, b].


Deve essere p = c, altrimenti si avrebbe f (p) = f (c) = a ∈ / I1 e poiché f n−1 (p)
è l’unico elemento dell’orbita che non appartiene ad I1 ne seguirebbe n = 2 in
contraddizione con il periodo 3 di c.
Deve essere p = b; altrimenti, per assurdo, p = b e f 2 (p) = f 2 (b) = a ∈
/ I1 implica
n = 3, conclusione contraddittoria perché abbiamo supposto n = 3.
Riassumendo, p ∈ (b, c), f n−1 (p) ∈ I0 = [a, b] che è disgiunto da (b, c). Dunque
f n−1 (p) = p, cioè p non può avere minimo periodo n − 1.
Se il minimo periodo di p fosse strettamente minore di n − 1, allora la (3) ed il fatto
che p = b e p = c, implicherebbero che la traiettoria di p sia contenuta interamente
in (b, c), ma questo contraddice la (4). Dunque il minimo periodo di p è n.
Per mostrare l’esistenza dei Jn : sia n > 1 fissato. Costruiamo gli intervalli (dapprima
solo fino a Jn−2 ):
poniamo J0 = I1 . Poiché f (I1 ) ⊃ I1 , abbiamo f (J0 ) ⊃ J0 e per il Lemma 4.8
esiste J1 ⊂ J0 tale che f (J1 ) = J0 . Allora J1 ⊂ J0 implica f (J1 ) ⊃ J1 e si ripete il
ragionamento fino a k = n − 2, ottenendo le (1) e (2) fino ad n − 2.
4.2 Il teorema di Sharkovsky 137

Per provare la (3), osserviamo che dalla (2) si ha, per k = 1, 2, . . . , n − 2,

f 2 (Jk ) = f (f (Jk )) = f (Jk−1 ) = Jk−2 (k ≥ 2)


 
f 3 (Jk ) = f f 2 (Jk ) = f (Jk−2 ) = Jk−3 (k ≥ 3)
· · · = · · ·   
f k−1 (Jk ) = f f k−2 (Jk ) = f Jk−(k−2) = f (J2 ) = J1
 
f k (Jk ) = f f k−1 (Jk ) = f (J1 ) = J0 = I1

Per provare la (4) siamo ancora liberi di scegliere Jn−1 . Osserviamo che
 
f n−1 (Jn−2 ) = f f n−2 (Jn−2 ) = f (I1 )

e, da f (I1 ) ⊃ I0 , segue f n−1 (Jn−2 ) ⊃ I0 ; allora per il Lemma 4.8 esiste Jn−1 ⊂ Jn−2
tale che f n−1 (Jn−1 ) = I0 . Infine
 
f n (Jn−1 ) = f f n−1 (Jn−1 ) = f (I0 )

e f (I0 ) ⊃ I1 implica f n (Jn−1 ) ⊃ I1 , nuovamente per il Lemma 4.8 esiste Jn ⊂ Jn−1


tale che f n (Jn ) = I1 cioè la (5).

Pur senza fornire la dimostrazione completa del Teorema di Sharkovsky, os-


serviamo che, se è nota l’esistenza di un’orbita periodica per {I, f} di minimo
periodo qualsiasi allora si può provare facilmente l’esistenza di un punto fisso,
con f continua ed I intervallo. Infatti, se I è un intervallo chiuso e limita-
to, l’esistenza del punto fisso segue dal Corollario 3.24, altrimenti supposto
f (x) = x per ogni x ∈ I, sono possibili solo due casi: f (x) > x per ! ogni x,
oppure f (x) < x per ogni x. Ma se α, f (α) , f 2 (α) , . . . , f s−1 (α) è un’or-
bita s periodica, con s > 1, allora risulta nel primo caso α < f(α) < f 2 (α) <
· · · < f s (α) = α e nel secondo α > f(α) > · · · > f s (α) = α, conclusioni
comunque contraddittorie.
Concludiamo con un risultato il cui significato qualitativo è il seguente: se la
funzione f “non oscilla troppo” allora, per ogni fissato intero s, il s.d.d. {I, f}
può avere al più un numero finito di orbite di periodo esattamente s (tutta-
via può avere infinite orbite periodiche come è il caso dell’esempio presentato
all’inizio del paragrafo).

Definizione 4.11. Sia f : I → I di classe C 3 .


Chiamiamo derivata schwarziana di f, denotata con Df, la funzione (de-
finita in tutti i punti x di I tali che f  (x) = 0):
 2
f  (x) 3 f  (x)
(Df) (x) =  − .
f (x) 2 f  (x)

Teorema 4.12 (D. Singer, 1978). Sia {I, f} un s.d.d. con f ∈ C 3 (I)
ed f  si annulli al più in un numero finito di punti x1 , . . . , xm. Sia anche
138 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

(Df)(x) < 0, ∀x ∈ I\ {x1 , . . . , xm }. Allora, per ogni s ≥ 1, (I, f) può avere


solo un numero finito di orbite di periodo s.

Prova. Fissato s ∈ N\ {0}, studiamo f s . Si ha f s ∈ C 3 e (vedi l’Esercizio 4.2)

D (f s ) (x) < 0 x ∈ I\ {x1 , . . . , xm } .

Per mostrare la tesi basta provare che f s ha solo un numero finito di punti fissi, cioè
f s (x) = x ha un numero finito di soluzioni; per il teorema di Rolle, è sufficiente
verificare che l’equazione (f s ) (x) = 1 ha un numero finito di soluzioni in I.
Se questo fosse falso, allora, sempre per il Teorema di Rolle, (f s ) dovrebbe avere
una infinità di punti con derivata nulla ed una infinità di punti di minimo locale, e
in tali punti x si avrebbe
 
(f s ) (x) = 0 (f s ) (x) ≥ 0;

allora D (f s ) (x) < 0 implica (f s ) (x) < 0 e (f s ) (x) > 0. Dunque (f s ) è negativa
in infiniti punti x intercalati ad infiniti punti x in cui vale 1.
Ne segue l’esistenza di infiniti punti di I in cui (f s ) si annulla, cioè infiniti punti in
cui si annulla f  , in contraddizione con quanto supposto precedentemente. 

Il lettore è invitato a riflettere sul fatto che la tesi del Teorema 4.12 è banal-
mente vera per ogni f polinomio di secondo grado.

Osservazione 4.13. Se f : I → I, f ∈ C 3 con f (α) = α, f  (α) = −1


e (Df) (α) < 0, allora α è un equilibrio localmente asintoticamente stabile.
Infatti
2
2f  (α) + 3 (f  (α)) = −2 (Df) (α) > 0
e si può applicare il Teorema 3.65.

Esercizio 4.1. Determinare i parametri a, b e c in modo tale che tra le traiettorie


del s.d.d. {R, f } con f (x) = ax2 + bx + c vi sia il 3 ciclo {1, 2, 3}.

Esercizio 4.2. Verificare che, se f, g ∈ C 3 , allora la derivata schwarziana della


composizione f ◦ g è
 2
D (f ◦ g) (x) = (Df ) (g (x)) · g (x) + (Dg) (x) .

Esercizio 4.3. Provare il Lemma 4.8.

4.3 Biforcazioni di una famiglia ad un parametro di


s.d.d.
Con l’espressione famiglia ad un parametro di funzioni intendiamo una
collezione di funzioni fa ciascuna delle quali è individuata da un valore nume-
rico del parametro a che varia in un insieme numerico A. Analogamente, una
famiglia ad un parametro di sistemi dinamici discreti è una collezione
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 139

{I, fa } di s.d.d. dove fa : I → I e {fa }a∈A è una famiglia ad un parametro di


funzioni definite nello stesso intervallo I.
Ad esempio, l’insieme delle funzioni lineari da R in R è una famiglia ad un
parametro di funzioni fa (x) = ax ed a ∈ R è il parametro in questione.
La corrispondente famiglia di s.d.d. {R, fa} è stata studiata in dettaglio nel
Capitolo 2.
L’esempio più importante che vogliamo ulteriormente analizzare è quello della
dinamica logistica discreta ha , con a ∈ [0, 4].
Spesso i fenomeni fisici manifestano una dipendenza continua dai parametri
che figurano nelle leggi che li descrivono. Tuttavia in alcuni casi si manifestano
grandi cambiamenti in corrispondenza a piccole variazioni dei parametri, come
efficacemente si intende dire nel linguaggio comune mediante l’espressione “la
goccia che fa traboccare il vaso”. Lo studio delle biforcazioni si occupa appunto
di quelle particolari gocce: cioè studia i valori dei parametri che determinano
cambiamenti qualitativi rilevanti.
Studiamo in qualche esempio come varia il quadro delle traiettorie di una fa-
miglia ad un parametro di s.d.d., al variare di tale parametro. Per fare questo
si cerca di riassumere tutte le informazioni qualitative in un unico diagramma,
detto diagramma di biforcazione di {I, f}:
nell’insieme A × I si riportano i punti fissi di fa e delle sue iterate in funzione
di a, si determinano i valori di a per cui tali punti sono attrattivi e si rappre-
senta graficamente questa situazione mediante frecce verticali che puntano agli
equilibri; nelle regioni in cui gli equilibri sono repulsivi le frecce verticali se ne
allontanano, con gli ovvi cambiamenti si rappresentano gli equilibri nel caso
semistabile; si completa il diagramma con frecce verticali che siano coerenti
con la dinamica nelle regioni prive di punti fissi.
Esempio 4.14. Rappresentiamo in un diagramma di biforcazione la dinami-
ca associata alla famiglia fa (x) = ax di funzioni lineari, a ∈ R.
Se |a| < 1, il s.d.d. ha un solo equilibrio, 0, che è stabile e globalmente attrat-
tivo; se |a| > 1, allora 0 è ancora l’unico punto di equilibrio, ma è repulsivo;
se a = 1, vi sono infiniti equilibri stabili, né attrattivi, né repulsivi; se a = −1,
si hanno infinite orbite periodiche {α, −α}.

Fig. 4.6. Diagramma di biforcazione di {R, ax}


140 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Quando il valore di a cresce da −∞ a −1 (−1 escluso) la dinamica resta


qualitativamente invariata, analogamente se a varia in (−1, 1) o se a varia
in (1, +∞); ma quando a attraversa il valore −1 o il valore +1 si ha un
cambiamento repentino. 
È naturale cercare di formalizzare il fenomeno che corrisponde all’esistenza di
un valore a0 del parametro tale che la dinamica corrispondente ad a < a0 sia
diversa da quella corrispondente ad a > a0 .
Definizione 4.15. Sia fa : I → I una famiglia ad un parametro a ∈ A di
funzioni, I intervallo di R. Un valore a0 interno ad A si dice di biforcazione
per {I, fa } se esiste ε > 0 tale che il numero dei punti di equilibrio sommato
al numero dei punti distinti appartenenti ad orbite periodiche è costante in
(a0 − ε, a0 ) e in (a0 , a0 + ε), ma le due costanti differiscono.
Esempio 4.16. Sia I = R, fa (x) = aex , a ∈ R+ . Dall’analisi grafica dedu-
ciamo:
• se 0 < a < e−1 , allora fa ha due punti fissi x0 e x1 , con

0 < fa (x0 ) < 1 < fa (x1 )

dunque x0 è stabile e attrattivo, x1 è repulsivo. Il bacino di attrazione di


x0 è (−∞, x1 );
• se a = e−1 , allora fa ha un unico punto fisso x
 = 1, che risulta inferiormente
stabile ed attrattivo, superiormente instabile; il bacino di attrazione di xè
(−∞, 1);
• se a > e−1 , allora non vi sono punti fissi. Precisamente, da f (x) > x per
ogni x ∈ R, si deduce che per ogni dato iniziale reale x risulta limk f k (x) =
+∞ cioè non esistono punti fissi: dunque, per il teorema di Sharkovsky, se
a > e−1 non esistono neanche orbite periodiche.
L’analisi si può anche effettuare mediante il cambio di parametro b = ln a,
studiando la famiglia gb (x) = ex+b = fa (x) al variare di b in R. Con tale
scelta a = e−1 corrisponde a b = −1. In tal modo, scelti due valori b0 e b1
del parametro, i grafici di gb0 e gb1 si ottengono l’uno dall’altro mediante una
traslazione orizzontale di b1 − b0 .

b=− 1, 5 b=− 1 b=0

Fig. 4.7. Ragnatele relative ai s.d.d. {R, gb }, gb (x) = ex+b , b = −1, 5; −1; 0
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 141

x x

+1

+1

−1 O b
e−1
a
Fig. 4.8. Diagrammi di biforcazione: {R, fa } ,{R, gb }, fa (x) = aex , gb (x) = ex+b

O 1 2

Fig. 4.9. Diagramma di biforcazione di {R, a arctan x}, a ∈ [0, 2]

Si ottengono gli stessi risultati qualitativi con il valore di biforcazione b0 = −1


che corrisponde al valore di biforcazione a0 = e−1 . 
Esempio 4.17. Sia fa : R → R , fa (x) = a arctan x con a ∈ [0, 2].
Se 0 ≤ a ≤ 1, α = 0 è l’unico equilibrio globalmente asintoticamente stabile;
se 1 < a ≤ 2, lo 0 è ancora equilibrio ma diventa repulsivo ed appaiono
due altri equilibri, ±α, entrambi localmente asintoticamente stabili: il bacino
di attrazione di quello positivo è (0, +∞), il bacino di attrazione di quello
negativo è (−∞, 0). 
Per effettuare una analisi elementare dei punti di biforcazione di un s.d.d.
{I, f}, consideriamo in A × I l’insieme dei punti fissi e delle orbite periodiche:

7
{(a, α) ∈ A × I : fas (α) = α} .
s=1
142 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Sotto ipotesi ragionevoli circa la dipendenza di fa da a, tale insieme sarà


un’unione di curve regolari, le cui intersezioni hanno tangenti distinte e sono
isolate. In tale situazione, in base ad una analisi locale delle intersezioni, i
punti di biforcazione possono essere suddivisi in tre classi:
1) Una curva si ripiega in avanti o all’indietro (vedi Esempio 4.16). Questo
caso è denominato biforcazione sella-nodo.
2) Due curve si incontrano in un punto in un intorno del quale sono grafici
in base a. Questo caso è denominato biforcazione transcritica. Come
vedremo, la logistica ha presenta una biforcazione transcritica in a = 1.
3) Due curve si intersecano in un punto in cui una delle due si ripiega
in avanti o indietro (forchetta). La dinamica del s.d.d. associato può
corrispondere a una variazione del numero di equilibri (biforcazione a
forchetta, vedi Es. 4.15, a0 = 1) oppure ad un raddoppio di periodo
(vedi ha , a0 = 3).
Ad esempio (si veda la Fig. 4.10), possiamo considerare la famiglia ha di map-
pe logistiche (senza limitarci all’intervallo [0, 1]) come trasformazioni di R in
sè stesso al variare del parametro a, cioè i s.d.d. {R, ha } limitatamente ai
valori del parametro a compresi in [0, 4):
• se 0 < a < 1, allora vi sono due equilibri distinti: 0 localmente asintotica-
mente stabile e αa = (a − 1) /a, che è repulsivo;
• se a = 1, allora i due equilibri si riducono ad uno solo, lo 0, che è superior-
mente stabile ed attrattivo ed inferiormente instabile e repulsivo;
• se 1 < a < 3, allora 0 diventa repulsivo ed appare un altro equilibrio αa che
appartiene a (0, 1) ed è localmente asintoticamente stabile; dunque a = 1
è valore di biforcazione (transcritica);
• se a = 3, allora αa = 2/3 è localmente asintoticamente stabile: infatti
h3 (α3 ) = −1 e l’affermazione segue dall’Osservazione 3.66. È facile con-
vincersi mediante simulazioni numeriche che α3 attrae le orbite molto più
lentamente di αa con 1 < a < 3;
• se a > 3, allora anche αa è repulsivo (h (αa) = 2 − a < −1) e compa-
re un’orbita √2 periodica che si mantiene stabile ed attrattiva nel’intervallo
3 < a < 1 + 6; dunque, a = 3 è di biforcazione (raddoppio di periodo).

Ad illustrazione del caso 1 < a < 3, consideriamo ad esempio a = 2.

h1/2 h1 h2

1 1 1

Fig. 4.10. Parabole logistiche ha su R , a = 1/2, 1, 2


4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 143

1_
2

Fig. 4.11. Alcune iterate di h2 : h2 , h22 , h52 , h10


2

I grafici delle iterate di h2 suggeriscono la proprietà lim hk2 (x) = α2 = 1/2 se


k
0 < x < 1 (vedi Fig. 4.11). Si noti che la iterata decima ha un grafico con
tratti quasi verticali. La prova delle affermazioni relative all’orbita periodica
richiede un poco di analisi. Poiché

h2a (x) = a2 x (1 − x) (1 − ax (1 − x))

ricordando che α = 0 e αa sono equilibri per il s.d.d. {[0, 1] , ha } per a > 1,


la ricerca dei punti fissi di h2a si riduce alla soluzione di

1+a
ax2 − (1 + a) x + =0 x ∈ [0, 1] , 1<a<4.
a
L’equazione di secondo grado in x ammette due soluzioni βa e γa distinte e
diverse da 0 e da αa se e solo se a > 3 (vedi Esercizio 4.5):
 
a + 1 + (a + 1) (a − 3) a + 1 − (a + 1) (a − 3)
βa = γa = .
2a 2a
Dunque βa e γa appartengono all’orbita 2 periodica, infatti ha2 (x) = x è una
equazione di quarto grado, dunque non può avere altre soluzioni oltre 0, αa ,
βa e γa . In particolare {βa , γa } è l’unica orbita 2 periodica. Per studiare la
stabilità dell’orbita 2 periodica {βa , γa } osserviamo che da ha (x) = a (1 − 2x)
si deduce:
 
ha (βa ) = −1 − (a + 1) (a − 3) ha (γa ) = −1 + (a + 1) (a − 3)

ha (βa ) ha (γa ) = 1 − (a + 1) (a − 3) .


Tenuto conto che | ha (βa ) ha (γa )| < 1 se e solo se −2 < −(a + 1)(a − 3) < 0 ,
144 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

si deduce che,√ se a > 3, allora tale disequazione equivale a a2 − 2a − 5 < 0,


cioè a < 1 + 6 .
Da quanto ottenuto e dal Teorema 3.69 segue che se√a > 3 compare un’orbita
2 periodica,
√ che si mantiene stabile finché a < 1 + 6 e diventa instabile per
a > 1 + 6.

2<a<3 αa < 2/3


ha

0, 5 α a 0, 8

a=3 αa = 2/3
ha

0, 5 α a 0, 8

3<a<4 αa > 2/3


ha

0, 5 α a 0, 8

Fig. 4.12. Grafici di ha , h2a vicino all’equilibrio αa : a ∈ (2, 3), a = 3, a ∈ (3, 4)


4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 145

Fig. 4.13. Diagramma qualitativo di biforcazione per {R, ha }

Dunque a = 3 è di biforcazione per ha , e tale biforcazione è del tipo raddoppio


di periodo. Si noti che il ramo dei punti di equilibrio prosegue anche per a > 3,
ma non sono più equilibri stabili. Aumentando il valore del parametro a si in-
contrano nuove biforcazioni di tipo raddoppio di periodo, con la comparsa di
orbite di periodo 4, periodo 8 e così via: una cascata di raddoppi del periodo
corrispondenti alle potenze di due in accordo con la prima parte dell’ordina-
mento di Sharkovsky. Si può provare che, al crescere di a, in corrispondenza
ad un certo valore l’orbita 2 periodica diviene instabile e repulsiva e che questo
si verifica contemporaneamente alla comparsa di un’orbita 4 periodica stabile
ed attrattiva.
Proseguendo nell’analisi della logistica, al crescere del parametro a, si incon-
trano tutte le orbite con periodi 2n , n ∈ N, cioè si ha una cascata di raddoppi
di periodo. Precisamente esse compaiono tutte, ben prima di raggiungere il
valore 4, come proveremo nei paragrafi successivi.
Si comprende bene come la dinamica di ha risulti particolarmente complessa
quando a varia da 3 a 4. Per cercare di chiarirne la struttura utilizziamo un
risultato dovuto a Fatou2 , la cui dimostrazione è omessa.
!
Teorema 4.18 (di Fatou). Se il s.d.d. R, ax2 + bx + c con a = 0 ha
un’orbita periodica attrattiva, allora il valore critico −b/2a (lo zero della de-
rivata) è nel bacino di attrazione di tale orbita.

Corollario 4.19. Un polinomio quadratico può avere al più un’orbita perio-


dica attrattiva e stabile.

2
Pierre Joseph Louis Fatou, 1878-1929.
146 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Riassumendo le considerazioni precedenti: le orbite nella dinamica di un poli-


nomio quadratico possono essere molte ma una sola può essere stabile. Effetti-
vamente nel caso della cascata di raddoppi di periodo della logistica, ciascuna
nuova orbita che compare è stabile e contemporaneamente l’orbita precedente
diventa instabile.
L’unico punto critico di ha è 1/2, per ogni valore di a = 0. Dunque, se ha ha
un’orbita s periodica attrattiva (s = 1, 2 . . . ), allora la traiettoria che parte da
1/2 viene attratta dall’unica orbita periodica stabile. Questa informazione è
preziosa per costruire un diagramma di biforcazione più preciso di quello già
descritto che dia ulteriori informazioni quando a varia nell’intervallo [3, 4].
Un modo di sfruttare le conseguenze del Teorema di Fatou per effettuare una
simulazione numerica con un personal computer è il seguente: rappresentiamo
in ascissa i valori del parametro a e in ordinata i valori hak (1/2) delle iterate
di dato iniziale 1/2 per k grande, ad esempio k tra 100 e 300. Ovviamente
dovremo scegliere un numero finito di valori di a: possiamo scegliere un intero
N e fare una partizione uniforme dell’intervallo che ci interessa (per maggior
chiarezza consideriamo solo l’intervallo interessante [2, 4]):
1 2 1
2, 2 + , 2 + , ..., 4 − , 4.
N N N
Ovviamente al crescere di N dovrà crescere anche la memoria disponibile nel
computer e la nostra pazienza nell’attendere il risultato.
Se per un certo valore di a vi è un’orbita attrattiva, allora le iterate hka (1/2)
sono appunto attratte da tale orbita; con un certo ottimismo verso la spe-
rimentazione numerica e che pur sarebbe giustificabile con altri argomenti,
possiamo pensare che per k > 100 i valori siano così vicini all’attrattore da
risultare numericamente e graficamente indistinguibili da esso. Rappresentan-
do graficamente (vedi Fig. 4.14) tutte le iterazioni da 100 a 300, si possono
individuare orbite attrattive il cui periodo è minore di 200. Se per un valore
di a non vi è un’orbita attrattiva, ci attendiamo una distribuzione “caotica”
di punti sulla retta verticale di ascissa a.
Il programma può richiedere molto tempo per l’esecuzione, ma il risultato gra-
fico è sorprendentemente ricco di informazioni: si ritrova la stabilità di αa fino
ad a = 3, dopodiché si riescono a decifrare varie biforcazioni con transizione
verso orbite stabili di periodo doppio ottenendo delle stime dei corrispondenti
valori del parametro di biforcazione.
Poi sembra esservi solo confusione, ma si tratta in realtà di un ordine assai
strutturato e gerarchizzato.
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 147

0.8

0.6

0.4

0.2

1.5 2 2.5 3 3.5 4

1
0.9

0.8 0.8

0.7
0.6

0.6

0.4

0.5

0.2

3.7 3.75 3.8 3.85 3.9 3.95

Fig. 4.14. Diagramma di biforcazione per la logistica ha , a ∈ [1, 4] , con zoom su


alcuni dettagli
148 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

1 ηa 1

0 1 αa ηa 1 αa ηa 0 1
a

Fig. 4.15. Autosimilarità di dettagli del grafico di h2a con il grafico di hb

Due fasce più chiare, una attorno ad a = 3, 74 l’altra ad a = 3, 83 sembra-


no suggerire la presenza di orbite attrattive di periodo 5 e 3. Effettuando uno
zoom (vedi Fig. 4.14b)) si scopre una struttura analoga a quella del diagramma
principale vicino ad a = 3.
Questa sorta di autosimilarità tra l’insieme ed alcuni suoi dettagli si potrebbe
motivare analiticamente, tuttavia ci limitiamo ad una considerazione euristi-
ca: se è fissato un valore di a tale che 2 < a ≤ 4, allora, con riferimento
alla Fig. 4.15, il grafico qualitativo di h2a nei riquadri di vertici (1/a, 1/a) ed
((a − 1) /a, (a − 1) /a) ed in quello di vertici3 ((a − 1) /a, (a − 1) /a) e (ηa , ηa)
è qualitativamente simile al grafico di hb per un b opportuno in [0, 4] (serve al
più una riflessione), e di conseguenza (si veda al riguardo il paragrafo 4.5) le
dinamiche dei s.d.d. corrispondenti saranno analoghe.
La cascata di raddoppi del periodo presenta una ulteriore sorprendente rego-
larità: il rapporto fra le distanze di valori di biforcazione an conse-
cutivi
an − an−1
rn =
an+1 − an
tende, per n → +∞, alla costante di Feigenbaum. Tale costante, appros-
simata a tredici cifre decimali, è:

F = 4, 6692016091029 . . .

In tal modo è possibile stimare4 entro quale valore del parametro a la succes-
sione di raddoppi di periodo si sarà completata e, quindi, a partire da quale
valore di a vi saranno orbite 2n periodiche per ogni n.
Il fatto interessante è l’universalità della costante di Feigenbaum: infatti, la
presenza di una cascata di raddoppi di periodo con tale comportamento asin-
 √ 
3
ηa = a + a2 − 4 /2a verifica l’equazione h2a (ηa ) = αa .
4
Posto pn = an − an−1 , l’informazione limn pn /pn+1 =F > 1 assicura (vedi (21)
nell’Appendice A) che la serie dei passi è convergente: +∞
n=1 pn < +∞ .
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. 149

totico è tipico di molti sistemi dinamici (ad esempio, fa (x) = a sin (πx) oppure
ga (x) = ax2 sin (πx) in [0, 1]).
Più precisamente, se f verifica:
• f : [0, 1] → R è dotata di tutte le derivate;
• f ha un unico punto di massimo x  ∈ (0, 1) tale che f  (
x) < 0;
• f è strettamente crescente in [0, x) e strettamente decrescente in (x, 1];
• f ha derivata schwarziana (Df) (x) < 0 per ogni x ∈ [0, 1] con x = x  (vedi
Definizione 4.11);
allora al variare del parametro a in [0, 1/f (
x)] i valori ak di biforcazione corri-
spondenti a raddoppi di periodo della collezione di s.d.d. {I, af} sono tali che
le differenze ak − ak−1 formano una successione asintoticamente geometrica e:
ak − ak−1
lim = F.
k ak+1 − ak

A differenza di F il valore del parametro a∞ = limn an può ovviamente dipen-


dere da I e da f. Riepiloghiamo in una tabella i valori approssimati di alcuni
valori di biforcazione per la logistica: i valori ak corrispondenti alla compar-
sa del 2k ciclo, il loro limite a∞ ed aω che denota il valore del parametro
corrispondente alla comparsa del 3 ciclo.

Valori di biforcazione per la logistica ha Periodo delle orbite


(stabili se an < a ≤ an+1 )

a1 = 3
√ 2
a2 = 1 + 6 = 3, 449489 . . .
4
a3 = 3, 544090 . . .
8
a4 = 3, 564407...
16
a5 = 3, 568759...
32
a6 = 3, 569692...
64
a7 = 3, 569891 . . .
27
..
. ..
.
an
.. 2n
. ..
a∞ = 3, 5699456 . . . .

aω = 1 + 8 = 3, 828427 . . .
3
150 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

 4.4. Tracciare un diagramma di biforcazione di {R, fa } con fa (x) =


Esercizio

a x − x3 .
Esercizio 4.5. Determinare i punti della traiettoria di periodo 2 per il s.d.d.
{[0, 1] , ha } con 3 < a ≤ 4.
Esercizio 4.6. Mostrare che la traiettoria 2 periodica {βa , γa } della√ dinamica logi-
stica {[0,√1] , ha } con a > 3 è stabile ed attrattiva se 3 < a < 1 + 6, repulsiva se
a > 1 + 6.

Esercizio 4.7. Provare la stabilità del 2 ciclo {βa , γa } di ha se a = a2 = 1 + 6.
(Suggerimento: Provare che dato il s.d.d. {I, f } ed una sua orbita periodica {β, γ},
se g = f 2 , allora
2
2g (β) + 3 (g (β)) > 0
g (β) = g (γ) = −1 e 2
2g (γ) + 3 (g (γ)) > 0

implica che {β,√γ} è attrattiva e stabile. Quindi applicare tale proprietà ad f = ha2 ,
dove a2 = 1 + 6, e dedurne la stabilità del 2 ciclo).
Esercizio 4.8. Determinare mediante una simulazione numerica al computer (cioè
senza utilizzare le formule esplicite dell’Esercizio 4.2) i 2 cicli della parabola logistica
ha per a = 3, 1, a = 3, 2 e a = 3, 3. Provare che per ciascuno dei tre valori del para-
metro esiste un unico 2 ciclo. Provarne direttamente la stabilità usando il Teorema
3.69.
Disegnare alcune iterazioni con il metodo grafico per la ricerca di punti fissi di h2a
con i valori scelti.
Esercizio 4.9. Mediante simulazione numerica al computer determinare il 4 ciclo
per ha se a = 3, 5.
Provare poi che è stabile e attrattivo. Verificare graficamente (ragnatela) che è un
4 ciclo.
Plottare ha e le sue intersezioni con l’identità (è il modo più rapido per trovare il
ciclo). Si suggerisce di trovare le intersezioni con il metodo di Newton. Si ricorda
l’opportunità di inizializzare con il valore critico X0 = 1/2.
Esercizio 4.10. 1) Per il s.d.d. {[0, 1] , ha } il punto αa è un equilibrio stabile e at-
trattivo se e solo se 1 < a ≤ 3. Determinare l’unico valore b0 di a in (1, 3] per cui
αa risulta superattrattivo (cioè h (αa ) = 0).
2) Per il s.d.d. {[0, 1] , ha } l’orbita
√ 2 periodica {γa , βa } è stabile e attrattiva se e solo
se 3 = a1 < a ≤ a2 = 1 + 6. Determinare   b1 di a ∈ (a1 , a2 ) per cui
 l’unico valore
l’orbita {γa , βa } è superattrattiva (cioè h2a (γa ) = h2a (βa ) = 0 ).
Con riferimento ai valori ak di biforcazione corrispondenti alla cascata di raddoppi
di periodo per la logistica ha si può provare che, per ogni k ∈ N, esiste bk tale che
ak < bk < ak+1 , e per a = bk la logistica ha presenta un 2k ciclo superattrattivo ed
il valore 1/2 appartiene a tale ciclo.

Esercizio 4.11. Con a che varia in un intorno di aω = 1 + 8, plottare ha e (ha )3 ,
studiare graficamente e numericamente le soluzioni di (ha )3 (x) = x. Dedurne che per
a < aω non esistono orbite 3 periodiche e per a ≥ aω vi sono orbite 3 periodiche. Cal-
colare numericamente un 3 ciclo per ha corrispondente al valore a = 3, 84. Provare
poi che è stabile ed attrattivo.
4.4 Caos ed insiemi frattali 151

Esercizio 4.12. Verificare che la famiglia di s.d.d. {R, fa }, con fa (x) = ax(1 − x2 )
ed a ∈ R, presenta una biforcazione a forchetta.

4.4 Caos ed insiemi frattali

In questo paragrafo introdurremo alcune nozioni utili alla descrizione della


dinamica logistica per valori del parametro in corrispondenza ai quali tutti gli
equilibri e tutte le orbite periodiche sono repulsivi. Anche al di fuori di tale
contesto tali nozioni si sono rivelate paradigmi interpretativi di sorprendente
generalità nello studio delle dinamiche non lineari.
Cominciamo con l’esame di un esempio semplice, ma non quanto potrebbe
apparire a prima vista.
Esempio 4.20. La funzione tenda T è definita da


2x x ∈ [0, 1/2]
T : [0, 1] → [0, 1] T (x) =
2 − 2x x ∈ [1/2, 1]

Vogliamo studiare il corrispondente sistema dinamico {[0, 1] , T }. Il lettore è


invitato a considerare attentamente il comportamento delle iterate di T e a
riflettere sulla dinamica corrispondente, prima di proseguire nella lettura del
paragrafo.
Come si vede dai grafici in Fig. 4.16, l’immagine di T k ricopre 2k volte l’in-
tervallo [0, 1]. In particolare, posto Xk+1 = T (Xk ), se si sceglie X0 = 1/7 si
ottiene la traiettoria Xk di valori
1 2 4 6 2 4 6
, , , , , , , ...
7 7 7 7 7 7 7
cioè 1/7 appartiene al bacino del 3 ciclo {2/7, 4/7, 6/7}. Ma la presenza di un
3 ciclo implica per il Teorema di Sharkowski l’esistenza di cicli di ogni periodo
intero. Dunque la dinamica associata a T non è affatto banale; anzi, come pre-
ciseremo in seguito, manifesta una dipendenza assai sensibile dai dati iniziali,
a causa del gran numero di oscillazioni delle iterate di T .
Osserviamo che T k presenta 2k−1 picchi e corrispondentemente (Teorema de-
gli zeri) 2k intersezioni col grafico dell’identità (comprese quelle banali x = 0
e x = 2/3): dunque, eliminati i due punti fissi di T , i rimanenti 2k − 2 punti
corrispondono necessariamente ad orbite periodiche di T con un periodo che
deve essere un divisore di k. In particolare sono tutti k cicli se k è primo:
riassumendo, T ha due equilibri; per l’analisi di T 2 , T ha due equilibri ed un
2 ciclo; per l’analisi di T 3 , T ha due equilibri e due 3 cicli e così via.
152 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

T T2

T3 T4

Fig. 4.16. Grafici di T , T 2 , T 3 e T 4 e dell’identità

Esempio 4.21. Mappa D del raddoppio di fase.

D : [0, 2π) → [0, 2π) D (θ) = 2θ (mod2π)

Il lettore pignolo obietterà che D non è continua. Tuttavia, oltre all’esistenza


di importanti fenomeni descritti da leggi prive della proprietà di continuità,
osserviamo che in realtà D ha una interpretazione geometrica e cinematica di
grande importanza, e che corrisponde alla descrizione di un moto continuo:
se si interpreta θ come la posizione (espressa mediante la variabile angolare)
di una lancetta nel quadrante di un orologio, o come l’anomalia di un oggetto
in movimento uniforme su un’orbita circolare, allora è chiaro che ogni posi-
zione è individuata da molti valori diversi di θ, tuttavia la funzione D che
raddoppia l’angolo, o “fase”, trasforma con continuità i punti corrispondenti
4.4 Caos ed insiemi frattali 153

2π 2π

0 π 2π 0 π 2π

2π 2π

0 π 2π 0 π 2π

Fig. 4.17. Grafici di D , D2 , D3 , D4 e dell’identità. Si osservi che Dk ha un


grafico costituito da 2k tratti ascendenti

della circonferenza unitaria S:5

D:S→S
!
dove S = (x, y) ∈ R2 : x = cos θ, y = sin θ, θ ∈ [0, 2π) . È immediato verifi-
care che anche D ha almeno un’orbita 3 periodica (basta osservare che il grafico
di D3 ha intersezioni con quello dell’identità in punti che non appartengono
al grafico di D).
Inoltre la dinamica di D esibisce orbite di ogni periodo intero. Questa proprie-
tà va verificata direttamente poiché il Teorema 4.2 non si applica a funzioni
continue da S in S: si consideri ad esempio f(ϑ) = ϑ + 2π k che esibisce solo
punti k periodici. 

Vi sono varie definizioni di dinamica caotica, comunque tutte cercano di quan-


tificare le proprietà qualitative esibite dai s.d.d. {I, f} che, come nel caso

5
Ci consentiamo un lieve abuso di notazione, denotando con la stessa lettera una
funzione diversa ma strettamente associata a D.
154 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

della funzione tenda T , presentano orbite periodiche dense in I e sono gene-


rate da una funzione f le cui iterate distorcono fortemente la topologia di I,
determinando una estrema sensibilità alle variazioni dei dati iniziali.
Definizione 4.22. Un s.d.d. {I, f} è caotico (si dice anche che ha una di-
namica caotica) se:
• le orbite periodiche sono dense (si considerano tutti i periodi interi, 1 inclu-
so), cioè ogni intervallo (a, b) ⊆ I contiene almeno un punto appartenente
ad un’orbita periodica;
• f è topologicamente transitiva, cioè per ogni x, y ∈ I e per ogni ε > 0
esistono z ∈ I e k ∈ N tali che
 k 
|z − x| < ε, f (z) − y < ε;

• {I, f} esibisce una dipendenza sensibile dalle condizioni iniziali, cioè


esiste δ > 0 tale che, per ogni x ∈ I ed ε > 0 esistono z ∈ I e k ∈ N tali
che  k 
|x − z| < ε f (x) − f k (z) > δ.

Osservazione 4.23. La sola presenza di orbite periodiche arbitrariamente vi-


cine ad ogni punto di I non descrive necessariamente una dinamica caotica
(ad esempio, si pensi al semplice caso lineare f (x) = −x), tuttavia la densità
di orbite periodiche, unitamente alle altre due condizioni è un ingrediente ti-
pico delle dinamiche caotiche (si pensi alla presenza contemporanea di orbite
di tutti i periodi in presenza del periodo 3).
Osservazione 4.24. La proprietà “f è topologicamente transitiva” è equiva-
lente al verificarsi della condizione: “per ogni coppia di intervalli aperti non
vuoti U , V ⊂ I esistono z ∈ U e k ∈ N tali che f k (z) ∈ V ”. Questo significa
che comunque si scelgano due “piccoli” intervalli, in ognuno c’è almeno un
punto la cui traiettoria transita nell’altro.
Osservazione 4.25. La dipendenza sensibile dai dati iniziali ha il significa-
to seguente: se le iterazioni di una funzione con tale proprietà modellano il
comportamento a lungo termine di un sistema (economico, demografico, me-
teorologico, ecc.), allora errori comunque piccoli nella misurazione della ini-
zializzazione possono comportare grandi differenze fra il valore effettivo e la
stima dedotta dal modello. Poiché tutte le operazioni di misura sono affette
da errori, si tratta di un limite ineludibile di cui tener conto nelle applicazioni,
ad esempio limitando l’uso predittivo del modello a pochi passi o iterazioni.
Non si esclude tuttavia che si evidenzino attrattori (eventualmente con geo-
metria meno banale degli equilibri e delle orbite periodiche) relativamente ai
quali risultino significative anche previsioni di lungo periodo.
Osservazione 4.26. La Definizione 4.22 di dinamica caotica è una sorta di
miscela tra caos e ordine, nel senso che esclude una descrizione contemporanea-
mente semplice ed ordinata della dinamica, tuttavia prescrive con precisione
4.4 Caos ed insiemi frattali 155

alcuni requisiti geometrico-topologici alle traiettorie: ad esempio, arbitraria-


mente vicino ad ogni punto vi sono orbite periodiche. D’altro canto se si
interpreta il s.d.d. {I, f} come la deformazione di un filo elastico I mediante
la trasformazione f, allora nel caso di dinamica caotica I viene ripiegato in sè
stesso in modo sempre più complicato al crescere delle iterazioni di f.

Se I è un intervallo non banale ed f è continua, si può semplificare la de-


finizione di dinamica caotica come precisato nell’enunciato seguente, di cui
omettiamo la dimostrazione.

Teorema 4.27. Siano I ⊂ R un intervallo non banale ed f : I → I una


funzione continua. Se f è topologicamente transitiva ed i punti appartenenti
ad orbite periodiche di {I, f} sono densi in I, allora {I, f} esibisce anche
una dipendenza sensibile ai dati iniziali, dunque f dà luogo ad una dinamica
caotica in I.

Verifichiamo la definizione di sistema dinamico caotico su esempi espliciti: le


dinamiche generate dalla funzione tenda T e dal raddoppio di fase D sono
caotiche rispettivamente in [0, 1] e [0, 2π) oppure S.

Teorema 4.28. Il s.d.d. {[0, 1] , T } ha dinamica caotica.


Prova. Occorre verificare le proprietà 1)-2)-3) della Definizione 4.22. Per seguire il
ragionamento è utile tenere a mente i grafici di T e delle sue iterate (vedi Fig. 4.17);
osserviamo che per effettuare simulazioni al computer delle iterazioni di funzioni è
opportuno memorizzare ad ogni passo le composizioni ottenute, al fine di non far
ripetere alla macchina inutilmente una grande quantità di passaggi.
(1) Densità delle orbite periodiche:
Se k ∈ N denotando con Ih gli intervalli [h2−k , (h + 1) 2−k ), 0 ≤ h ≤ 2k − 1,
allora T k ristretta ad Ih è biunivoca a valori in [0, 1] (monotòna strettamen-
te crescente se h è pari, strettamente decrescente se h è dispari); ne segue che
{[0, 1] , T } ha esattamente 2k punti periodici di periodo s, 1 ≤ s ≤ k, ognuno
dei quali appartiene ad un intervallo Ih , come si deduce applicando il Teorema
degli zeri alla differenza T k (x) − x in ciascuno degli intervalli Ih .
(2) T è topologicamente transitiva:
Fissati x, y ∈ [0, 1] ed 0 < ε < 1/2, sia k ∈ N tale che 2k ε > 2. Allora l’immagine
di (x, x + ε) mediante T k è esattamente [0, 1], dunque (x, x + ε) contiene punti
la cui immagine mediante T k coincide con qualunque y ∈ [0, 1]. Ovviamente
nell’argomento precedente (x, x + ε) va sostituito con (x − ε, x) se x + ε > 1.
(3) La dipendenza sensibile dai dati iniziali:
segue da (1) e (2) e dal teorema precedente, tuttavia la sua dimostrazione diretta
è estremamente semplice: basta scegliere δ = 1/2 e ripetere l’argomento della
prova di (2) per ottenere la tesi. 

Osservazione 4.29. Tutte le orbite periodiche di {[0, 1] , T } di cui si è pro-


vata l’esistenza nella verifica di (1) sono repulsive. Infatti |T  (β)| = 2 > 1 in
ciascun punto β appartenente a tali orbite periodiche. Inoltre 0 (in cui non è
definita la derivata) è repulsivo.
156 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Teorema 4.30. Il s.d.d. {[0, 2π), D} ha una dinamica caotica.


Prova. I punti (2) e (3) si dimostrano in modo identico al caso di {[0, 1] , T } senza
usare il Teorema 4.27. Per il punto (1) osserviamo che pur non essendo continua D,
possiamo usare lo stesso argomento della dimostrazione precedente perché Dk (x)−x
è continua e cambia segno all’interno di ciascun Ih . 

Osservazione 4.31. Anche per il s.d.d. {[0, 2π), D} tutti gli equilibri e le
orbite periodiche sono repulsivi.

A ben riflettere, la complessità delle dinamiche associate a T e D non è co-


sì sorprendente. Basta pensare alle operazioni che compie un pasticcere per
preparare una pasta sfoglia: spianandola la allunga in una direzione, poi la
ripiega su sè stessa, cioè (trascurando la direzione non allungata) compie la
trasformazione T , quindi la ripete un gran numero di volte (k) cioè itera il
procedimento operando la trasformazione T k . Alla fine della procedura non è
sorprendente constatare che punti che erano prossimi possono ritrovarsi molto
lontani fra loro; inoltre piccole porzioni iniziali ricoprono con la loro proiezione
tutta la sfoglia.
Invece, iterare D corrisponde ad allungare, tagliare e sovrapporre anziché ri-
piegare, ripetendo più volte la stessa operazione: nuovamente si otterrà un
grande rimescolamento e non c’è speranza di mantenere la prossimità di tutte
le coppie di punti.
Studieremo ora alcuni esempi modello di insiemi frattali in R che appaiono
nello studio della dinamica di alcuni s.d.d..
Definiamo in modo “informale” un insieme frattale come un sottoinsieme di
R che verifica le proprietà seguenti:

• ha una struttura fine, cioè i dettagli sono definiti su scale arbitrariamente


piccole;
• non è un oggetto geometrico elementare: non coincide né localmente, né
globalmente con una unione di intervalli o di punti isolati;
• la “dimensione” non è intera6 ;

Fig. 4.18. Pasta sfoglia: prime operazioni del pasticcere interpretate mediante le
trasformazioni T e D iterate

6
Per una definizione formale di dimensione si veda l’Appendice E.
4.4 Caos ed insiemi frattali 157

• spesso esibisce proprietà di autosimilarità (o le approssima in modo sta-


tistico): le parti che lo costituiscono sono in corrispondenza biunivoca con
tutto l’insieme mediante una semplice trasformazione geometrica;
• spesso è possibile definirlo mediante la ripetizione ricorsiva di regole sem-
plici.
Esempio 4.32. Consideriamo l’esempio capostipite di insieme frattale:
l’insieme di Cantor C (o insieme di Cantor del terzo-medio) che si ot-
tiene rimuovendo dall’intervallo [0, 1] il segmento aperto intermedio (1/3, 2/3)
ed iterando tale operazione sui segmenti rimanenti: ciò che rimane è appunto
l’insieme di Cantor. Descriviamo i primi passi della costruzione:

E0 = [0, 1]
( ) ( )
1 2
E1 = 0, ∪ ,1
3 3
( ) ( ) ( ) ( )
1 2 1 2 7 8
E2 = 0, ∪ , ∪ , ∪ ,1
9 9 3 3 9 9
...

Ciascun Ek è unione di 2k , k ∈ N, intervalli di lunghezza 3−k e si pone

6

C= Ek
k=0

Osserviamo che:
• C è autosimilare: la sua intersezione con uno qualsiasi degli intervalli al
passo n nella costruzione precedente corrisponde ad un suo riscalamento di
un fattore 3−n , a meno di una traslazione;
• C ha una struttura fine: non riusciamo a disegnarlo o ad immaginarlo con
precisione;

E0

E1

E2

E3

E4

Fig. 4.19. I primi quattro passi nella costruzione dell’insieme di Cantor


158 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

• la definizione ricorsiva è estremamente semplice, benché la topologia di C sia


tutt’altro che banale: non è finito, né numerabile, è totalmente sconnesso
(cioè non contiene alcun intervallo non banale), ha misura 1–dimensionale
nulla, ma la dimensione corretta per “misurarlo” ha un valore strettamente
compreso fra 0 e 1 (si veda Appendice F).

Esempio 4.33. Consideriamo il s.d.d. {R, g} dove g = 3T /2.


g ripiega R\ {1/2} e lo trasforma in due copie di (−∞, 3/2).
g3 presenta punti fissi (che non sono punti fissi di g) dunque vi sono orbite di
periodo 3 per g e, per il Teorema di Sharkovsky, anche orbite di ogni periodo
intero. 

Teorema 4.34. Se g = 3T /2 e C è l’insieme di Cantor, allora g (C) = C, cioè


C è invariante per il s.d.d. {R, g}.

1.5

Fig. 4.20. Grafico di g (x) = 3T (x)/2 ; due punti fissi repulsivi: 0 , 3/4

Fig. 4.21. Grafici di g2 e g3 dove g (x) = 3T (x) /2


4.4 Caos ed insiemi frattali 159

_3
2

Fig. 4.22. Dinamica di {C, 3T/2}

Omettiamo la dimostrazione, ma osserviamo che l’insieme invariante C è re-


pulsivo per la dinamica di g; infatti:
• se x < 0, allora gk (x) = 3k x → −∞ se k → +∞;
• se x > 1, allora g (x) < 0 e g k (x) = gk−1 (g (x)) = 3k−1 g (x) → −∞ se
k → +∞;
• se x ∈ [0, 1] \C, allora esiste h tale che per x ∈ [0, 1] \Eh , si ha
 
gh (x) > 1 ; gh+1 (x) < 0 ; gk (x) = gk−h gh (x) → −∞ per k → +∞

(gli insiemi Eh sono quelli definiti nella costruzione dell’insieme di Cantor).


Si può anche dimostrare che le traiettorie contenute in C sono particolarmente
erratiche, precisamente vale il seguente
Teorema 4.35. La dinamica del s.d.d. {C, 3T /2} è caotica.
Esempio 4.36. Se a > 4, allora la mappa logistica ha determina in R una
dinamica simile a quella della funzione g = 3T /2 discussa in precedenza.
Questo fatto può essere provato mediante la coniugazione topologica che sarà
introdotta nel paragrafo successivo. 
160 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Fig. 4.23. ha con a > 4

Definizione 4.37. Un insieme non vuoto E ⊆ R si dice insieme di tipo


Cantor se
• E è chiuso e limitato;
• E è totalmente sconnesso, cioè non contiene intervalli con più di un punto;
• E non ha punti isolati, cioè
se p ∈ E, allora ∀r > 0, (E\ {p}) ∩ (p − r, p − r) = ∅.

Esempio 4.38. Ct : Insieme di Cantor t-medio, 0 < t < 1. Analogamente


alla costruzione dell’insieme di Cantor, a partire dall’intervallo chiuso [0, 1]
applichiamo una procedura iterativa che consiste nel rimuovere un interval-
lo aperto centrato in ciascun intervallo residuo, di lunghezza t volte quella
dell’intervallo che lo contiene.
Non rimane l’insieme vuoto, perché almeno gli estremi di tutti gli intervalli
aperti rimossi (che sono infiniti) sono nell’insieme.
Gli insiemi di Cantor t-medi (in particolare, C corrispondente ad t = 1/3)
sono insiemi di tipo Cantor. 

Elenchiamo alcune proprietà del s.d.d. {R, ha }, con a > 4, senza riportarne la
dimostrazione. Fissato a:
• l’insieme !
R = x ∈ [0, 1] : hka (x) ∈ [0, 1] ∀k ∈ N
che è per definizione invariante rispetto ad ha , è un insieme di tipo Cantor;
• R è repulsivo: limk hka (x) = −∞ ∀x ∈ R\R;
• la dinamica di ha ristretta ad R è caotica.

Concludiamo questo paragrafo riportando senza dimostrazione un risultato


importante che chiarisce come l’esistenza di orbite di periodo 3 oltre all’esi-
stenza di tutti gli altri periodi comporta una dinamica che rimescola molto la
dinamica di alcuni sottoinsiemi del dominio della funzione in esame.
4.4 Caos ed insiemi frattali 161

Teorema 4.39 (T.Y. Li & J.A. Yorke, 1975). Se il s.d.d. {I, f}, dove
I è un intervallo ed f : I → I è una funzione continua, ha un’orbita periodica
di minimo periodo 3, allora esiste un sottoinsieme E ⊆ I non numerabile e
non contenente alcuna orbita periodica, tale che:
per ogni x, y ∈ E con x = y valgono
   
max lim f k (x) − f k (y) > 0 min lim f k (x) − f k (y) = 0 ;
k k

per ogni x ∈ E ed y ∈ I con y periodico, si ha


 
max lim f k (x) − f k (y) > 0 .
k

La tesi del Teorema 4.39 viene espressa in modo colloquiale nella forma se-
guente “il periodo 3 implica caos”. Tale affermazione è corretta solo in un
contesto in cui (nella definizione di caos) non si richiede la densità delle orbite
periodiche in tutto I, e limitatamente ai s.d.d. scalari.

Esercizio 4.13. Consideriamo una lancetta che si muove con velocità angolare uni-
forme ed unitaria nel quadrante di un cronometro, cioè compie un giro in 60 unità
di tempo (secondi).
Descrivere il s.d.d. che fa corrispondere alle varie posizioni iniziali le traiettorie della
lancetta ad intervalli di tempo di un secondo.
Dire se tale s.d.d. è topologicamente transitivo, se le orbite periodiche sono dense,
e se vi è dipendenza sensibile dai dati iniziali.

Esercizio 4.14. Consideriamo un orologio con due lancette, quella delle ore e quel-
la dei minuti, che si muovono a scatti, la prima ogni ora, la seconda ogni minuto.
Descrivere la dinamica Xk = ϕk − ψk dove ϕk è la posizione angolare delle lancette
delle ore e ψk di quella dei minuti (si considerino angoli in [0, 2π)).

Esercizio 4.15. Consideriamo il s.d.d. {R, g} dove g (x) = 10x.


Mostrare che tale s.d.d. lineare non è caotico, tuttavia esibisce dipendenza sensibile
dai dati iniziali. Dunque quest’ultima proprietà non si presenta solo nelle dinamiche
non lineari ma anche in quelle lineari.

Esercizio 4.16. Provare che esiste un insieme denso E ⊂ [0, 1] tale che per ogni
X0 ∈ E si ha limk T k (X0 ) = 0 (per la precisione, esiste k0 = k0 (X0 ) tale che
T k (X0 ) = 0 per ogni k > k0 ), dove T è la funzione tenda.

Esercizio 4.17. Provare che esiste un insieme denso E ⊂ [0, 1] tale che per ogni
X0 ∈ E si ha limk Dk (X0 ) = 0 (per la precisione, esiste k0 = k0 (X0 ) tale che
Dk (X0 ) = 0 per ogni k > k0 ), dove D è la mappa del raddoppio di fase.

Esercizio 4.18. Utilizzando la caratterizzazione di insiemi frattali autosimili ed il


Teorema F.1 (si veda l’Appendice F), determinare la dimensione di Hausdorff del-
l’insieme di Cantor e, più in generale, la dimensione di Hausdorff di un insieme di
tipo Cantor t medio.

Esercizio 4.19. Sia A = C1/2 . Determinare la dimensione di A e di A × A.


162 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Esercizio 4.20. Il Sierpinski gasket quadrato Q si ottiene da un quadrato con il


bordo e l’interno, suddiviso in nove quadrati uguali, rimuovendo quelli non adiacenti
ai vertici e iterando l’operazione. Calcolarne la dimensione di Hausdorff.
Esercizio 4.21. Modificare la costruzione dell’Esercizio precedente suddividendo
in sedici quadrati uguali e calcolare la dimensione di Hausdorff dell’insieme W così
ottenuto.

4.5 Coniugazione topologica di sistemi dinamici discreti

A volte lo studio diretto di un s.d.d. risulta sorprendentemente difficoltoso,


ma è possibile studiare un altro sistema che è più semplice da analizzare ed
ha il quadro delle fasi qualitativamente identico a quello in esame. In tale caso
i due s.d.d. si diranno topologicamente coniugati.
Vedremo, ad esempio, che la funzione tenda T in [0, 1] ha una dinamica topo-
logicamente coniugata a quella della parabola logistica h4 in [0, 1]; questo fatto
ci consentirà di provare, tra l’altro, che la parabola logistica corrispondente
al valore 4 del parametro ha una dinamica caotica.
L’idea di partenza è molto semplice: dato un s.d.d. {I, f}, se si cambiano ra-
gionevolmente le coordinate nel dominio I e nell’immagine f (I), e si cambia
coerentemente la funzione f, allora gli aspetti qualitativi del quadro delle fasi
non dovrebbero cambiare.
Definizione 4.40. Siano I, J ⊂ R intervalli e f : I → I, g : J → J.
Le funzioni f e g si dicono topologicamente coniugate se esiste ϕ : I → J
continua, invertibile, con inversa ϕ−1 continua tale che

g = ϕ ◦ f ◦ ϕ−1 . (4.2)

In tal caso, ϕ si dice coniugazione topologica di f e g.


Analogamente, i s.d.d. {I, f} e {J, g} si dicono topologicamente coniuga-
ti se f e g sono topologicamente coniugate.
Si noti che (4.2) è equivalente a ciascuna delle seguenti relazioni

g◦ϕ= ϕ◦f f = ϕ−1 ◦ g ◦ ϕ ϕ−1 ◦ g = f ◦ ϕ−1


come è facile verificare effettuando adeguate composizioni con ϕ e ϕ−1 e sem-
plificando.
Grazie a questa equivalenza, per verificare la eventuale coniugazione topolo-
gica negli esempi si sceglie di volta in volta la più comoda tra le precedenti
uguaglianze.
La situazione di coniugazione tra f e g è rappresentata dal diagramma
f
I −→ I
−1
ϕ ↑ ↓ϕ
g
J −→ J
4.5 Coniugazione topologica di sistemi dinamici discreti 163

Osservazione 4.41. Se ϕ : I → J è continua, invertibile, con inversa conti-


nua, allora è strettamente monotòna e:
1) U ⊂ I è chiuso in I se e solo se ϕ (U ) è chiuso in J;
2) la successione {Xk } è convergente in I se e solo se la successione {ϕ (Xk )}
è convergente in J;
3) A ⊂ I è denso in I ⇔ ϕ (A) è denso in J.
Teorema 4.42. Siano I, J ⊂ R intervalli, f : I → I, g : J → J due funzioni,
e ϕ : I → J una coniugazione topologica tra f e g. Allora:
(i) ϕ ◦ f k = gk ◦ ϕ, per ogni k ∈ N, cioè anche f k e gk sono topologica-
mente coniugate;
(ii) se la successione {Xk } è una traiettoria di {I, f}, allora la successione
{ϕ (Xk )} è una traiettoria di {J, g};
(iii) α è un punto s periodico per {I, f} se e solo se ϕ (α) è punto s periodico
per {J, g} ;
(iv) se A ⊂ I è un attrattore e B ⊂ I è il suo bacino di attrazione, allora
ϕ (A) è un attrattore e ϕ (B) è il suo bacino di attrazione;
(v) le orbite periodiche di {I, f} sono dense in I se e solo se le orbite
periodiche di {J, g} sono dense in J;
(vi) {I, f} è topologicamente transitivo se e solo se {J, g} è topologicamente
transitivo;
(vii) {I, f} è caotico se e solo se {J, g} è caotico.

Prova. Per le prime sei affermazioni si tratta di semplici verifiche da effettuarsi


nell’ordine di enunciazione. Limitiamoci alla verifica della prima:
    
ϕ ◦ f k = ϕ ◦ f ◦ ϕ−1 ϕ ◦ f ◦ ϕ−1 · · · ϕ ◦ f ◦ ϕ−1 ϕ = gk ◦ ϕ.
, -. /
k volte

La (vii) segue da (v), (vi) e dal Teorema 4.27. 

Relativamente alle (v), (vi) e (vii) osserviamo che la dipendenza sensibile dai
dati iniziali da sola non si conserva in generale per coniugazione topologica,
come mostra il controesempio seguente.
! !
Esempio 4.43. Siano (0, 1) , x2 e (1, +∞) , x2 . Allora ϕ (x) = 1/x è una
coniugazione topologica tra i due s.d.d.. Ma il primo non ha una dipenden-
za sensibile dai dati iniziali, dato che 0 ne attrae tutte le traiettorie, men-
tre 0 ∈ (1, +∞) e
 il secondo
 ha dipendenza sensibile dai dati iniziali: X0 , X
  
X0 − X0  = ε > 0 implicano
   
 k  = X 2k − X
 2k  =
Xk − X 0 0
  
 0  X 2k−1 + X 2k−2 X  2k−1 ≥ 2kε.
0 + · · · + X
= X0 − X 0 0 0 
Tuttavia vale il seguente teorema di cui non diamo la dimostrazione.
164 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Teorema 4.44. La dipendenza sensibile dai dati iniziali si preserva per co-
niugazione topologica se l’intervallo I (e di conseguenza anche J) è chiuso e
limitato.

Esplicitiamo alcuni importanti risultati che seguono facilmente dagli strumenti


introdotti in questo paragrafo.

Teorema 4.45. La mappa logistica di parametro 4, h4 in [0, 1] , è topologica-


mente coniugata alla funzione tenda T in [0, 1] , dove T è definita nell’Esem-
pio 4.20.

Prova. La funzione ϕ (x) = (sin (πx/2))2 è una coniugazione topologica tra i due
s.d.d. {[0, 1] , h4 } e {[0, 1] , T }. Infatti ϕ ([0, 1]) = [0, 1], ϕ è continua in [0, 1], stret-
tamente monotòna e inoltre:
     π 4
  π 2   π 2
π 2
h4 (ϕ (x)) = 4 sin x − sin x = 4 sin x cos x =
2 2 2 2

(sin (πx))2 se 0 ≤ x ≤ 1/2
= (sin (πx))2 = =
(sin (πx − π))2 se 1/2 < x ≤ 1
= ϕ (T (x)) . 

Il primo esempio del paragrafo 4.2 mostra che la dinamica! di un s.d.d. as-
sociato ad una funzione unimodale come R, ax2 + bx + c con a < 0 può
presentare orbite di periodo 3.
La coniugazione topologica ed i Teoremi 4.44 e 4.45 assicurano che la dina-
mica della logistica h4 in [0, 1] produce orbite di periodo
√ 3: questo in realtà
avviene a partire dal valore aω di a (con aω = 1 + 8 = 3, 828427...). Dun-
que, in accordo con il Teorema di Sharkovsky, se a > aω allora la logistica ha
traiettorie periodiche di ogni periodo intero.

Teorema 4.46. La mappa logistica di parametro 4 determina una dinamica


caotica in [0, 1] ed il quadro delle traiettorie di {[0, 1] , h4 } coincide qualitati-
vamente con il quadro delle traiettorie di {[0, 1] , T }.

Prova. È una conseguenza immediata dei Teoremi 4.28, 4.42 e 4.45. 


Osserviamo che, dati due s.d.d., non è in generale semplice verificare se sono
topologicamente coniugati. Il riscontro di eventuali differenze nella dinamica
prova che non lo sono (vedi Teorema 4.42). Invece, provare la coniugazione
topologica corrisponde alla determinazione esplicita della funzione di coniu-
gazione ϕ. Le tecniche del paragrafo 3.9 consentono in alcuni casi di esplicitare
tale coniugazione topologica: il Teorema 3.74 fornisce esplicitamente la coniu-
gazione tra un s.d.d. non lineare e un s.d.d. lineare. Nell’Esempio 3.77 si prova
la coniugazione topologica di {(0, 1/2) , h2 } con {(0, +∞) , 2x}; le considera-
zioni successive al Teorema 3.74 consentono di esplicitare le soluzioni in forma
non ricorsiva per casi più complicati mediante trasformazioni non biunivoche
4.5 Coniugazione topologica di sistemi dinamici discreti 165

(si veda l’analisi di h4 nell’Esempio 3.78). Nelle ipotesi del Teorema 3.74,
utilizzando le notazioni del paragrafo 3.9, osserviamo che J = ψ (I) è un
intervallo, i s.d.d. {I, f} e {J, bx} sono topologicamente coniugati, la coniuga-
zione topologica è data da ψ e risulta f = ψ−1 ◦ v ◦ ψ. Osserviamo infine che il
s.d.d. {J, bx} è ben definito (cioè per ogni y ∈ J risulta by ∈ J); anche questo
fatto è una conseguenza del Teorema 3.74, infatti se y ∈ J allora esiste x ∈ I
tale che y = ψ (x), dunque, posto x  = f (x) si ottiene by = bψ (x) = ψ (
x) che
ovviamente appartiene a J.
Esercizio 4.22. Verificare che il cambio di variabili ϕ (x) = x − b/ (1 − a), utiliz-
zato nella dimostrazione del Teorema 2.5 per studiare il s.d.d. {R, ax + b} nel caso
a = 1, è effettivamente una coniugazione topologica tra la funzione lineare affine
f (x) = ax + b e la funzione lineare g (x) = ax.

Esercizio 4.23. Mostrare con un esempio che due s.d.d. lineari possono non essere
topologicamente coniugati.

Esercizio 4.24. Siano f e g topologicamente coniugate, ed x  un punto fisso per f :


f ( . Dimostrare che se 
x) = x t è il punto corrispondente
 a 
x mediante una coniuga-
t è punto fisso per g: g 
zione topologica, allora  t =t (la coniugazione topologica
preserva i punti fissi ).

Esercizio 4.25. Dimostrare che se f e g sono topologicamente coniugate mediante


una funzione ϕ monotòna crescente ed esiste un intervallo H contenuto nel dominio
I di f tale che f (x) > x per ogni x ∈ H, allora risulta g (t) > t per ogni t ∈ ϕ (H).

Esercizio
% 4.26. Mostrare
& che i sistemi dinamici {[0, 1] , h4 } e {[0, 1] , g} dove g (x) =
min 4x2 , 4 (x − 1)2 non sono topologicamente coniugati, nonostante il fatto che sia
h4 sia g sono unimodali, continue, suriettive e strettamente monotòne crescenti in
(0, 1/2), decrescenti in (1/2, 1).

Esercizio 4.27. Provare che se f e g sono topologicamente coniugate mediante ϕ,


ed f è monotòna in un intervallo H, allora anche g è monotòna (nello stesso senso)
in ϕ (H) (la coniugazione topologica preserva la monotonia).

Si osservi che dagli esercizi precedenti segue una condizione necessaria per la
coniugazione topologica fra due funzioni f e g: vi deve essere una corrispon-
denza tra tutti gli eventuali punti e/o intervalli in cui f e g coincidono con
la funzione identità.

Esercizio 4.28. Dimostrare che il Teorema di Sharkovsky vale anche per i s.d.d.
del tipo {I, f } con I intervallo aperto.

Esercizio 4.29. Utilizzare gli schemi di approssimazione numerica di Eulero espli-


cito ed Eulero implicito (si veda l’Esempio 1.20) per approssimare la soluzione
del seguente problema di Cauchy, relativo all’equazione differenziale ordinaria della
crescita logistica a tempo continuo

u = b (u − u2 )
u(0) = u0 ,
166 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

dove l’incognita u è una funzione continua e derivabile in [0, ∞) e i parametri reali


b ed u0 sono assegnati e verificano b > 0, 0 < u0 < 1 .
Analizzare il comportamento delle soluzioni ottenute con i due schemi numerici
utilizzando la teoria sviluppata nei Capitoli 3 e 4.

4.6 Metodo di Newton


Un esempio notevole di s.d.d. è quello associato al metodo di Newton per la
determinazione degli zeri di funzioni non necessariamente polinomiali.
Si tratta di un metodo iterativo che consente di ottenere una buona appros-
simazione numerica del risultato in ipotesi molto generali: è necessario ac-
contentarsi di una approssimazione, perché in generale non sono disponibili
formule risolutive neppure per calcolare gli zeri di polinomi di grado quinto o
superiore. Il metodo di Newton è molto utilizzato per la sua grande efficienza
numerica, benché si tratti di una tecnica ormai classica.
Il metodo di Newton per la ricerca degli zeri di una funzione g derivabile
consiste nel seguente metodo iterativo: si costruisce la funzione

g (x)
Ng (x) = x −
g (x)

il cui dominio coincide con quello di g, privato degli zeri di g , poi, a partire
da un valore X0 , si genera per ricorrenza la successione X = {Xk } iterando
la funzione Ng :

X1 = Ng (X0 ) , X2 = Ng (X1 ) , . . . , Xk+1 = Ng (Xk ) = Ngk+1 (X0 ) .

X0 X1 X2

Fig. 4.24. Metodo di Newton


4.6 Metodo di Newton 167

Se g ha almeno uno zero e la scelta di X0 è stata effettuata in modo op-


portuno, la successione X risulta rapidamente convergente ad una soluzione
dell’equazione
g (x) = 0 x ∈ dom (g) .
Quando X0 ∈ R e g è una funzione reale di variabile reale, il significato geo-
metrico della successione X è il seguente: noto Xk , si traccia la tangente in
(Xk , g (Xk )) al grafico di g e si denota con Xk+1 l’ascissa della sua intersezione
con l’asse reale. Per questo motivo il metodo di Newton è anche noto come
metodo delle tangenti.
Osservazione 4.47. I punti fissi di Ng sono gli zeri di g in cui la derivata
g non si annulla. Volendo studiare la stabilità di un punto fisso α del s.d.d.
 g (x) g  (x)
associato a Ng , supposta g ∈ C 2 , possiamo calcolare (Ng ) (x) = 2
(g (x))
 
da cui, se g (α) = 0 e g (α) = 0, si deduce (Ng ) (α) = 0.
L’Osservazione precedente ed il Teorema 3.57, provano il seguente
Teorema 4.48. Se g (α) = 0 e g  (α) = 0, allora α è localmente asintotica-
mente stabile per Ng (più precisamente, è superattrattivo).
Il risultato precedente, utile sul piano teorico, non precisa ai fini pratici quanto
vicino ad α si debba partire (scelta di X0 ) per sentire l’effetto dell’attrattività
locale di α.
Più utile è il seguente risultato elementare, che richiamiamo senza dimostra-
zione, relativo alla ricerca degli zeri di una funzione reale di variabile reale.

Teorema 4.49. Sia g : [a, b] → R una funzione convessa e derivabile, con


g (a) < 0 < g (b). Allora g ha uno ed un solo zero α in (a, b).
Inoltre, comunque si scelga X0 ∈ [a, b] tale che g (X0 ) > 0, la successione
{Xk } generata con il metodo di Newton a partire da X0

g (Xk )
Xk+1 = Xk −
g (Xk )

è definita per ogni k in N e converge ad α in modo decrescente

lim Xk = α, α < Xk+1 < Xk < X0 ∀k ∈ N.


k

Se, inoltre, g ∈ C 2 ([a, b]), allora vale la seguente stima dell’errore:

max g 2
0 < Xk+1 − α < (Xk − α) .
2g (α)
168 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

In particolare, se si parte da un valore X0 prossimo ad α, la convergenza è


molto rapida.

Per utilizzare correttamente il metodo di Newton, occorre fare attenzione alla


verifica delle ipotesi del Teorema 4.49. Ad esempio, è chiaro che la tesi con-
tinua a valere se sostituiamo l’ipotesi di convessità con quella di concavità,
pur di scegliere X0 tale che f (X0 ) < 0 ottenendo la monotonia crescente per
X a partire da valori X0 tali che f (X0 ) < 0. Tuttavia, se vi sono cambi di
concavità nell’intervallo [a, b] si possono avere delle sorprese.

Esempio 4.50. Consideriamo la funzione f : R → R, f (x) = arctan x. È ben


noto che essa ha un solo zero (nell’origine). Tuttavia essa è convessa in (−∞, 0)
e concava (0, +∞), dunque il Teorema 4.49 non vale, e se vogliamo utilizzare il
metodo di Newton per trovare tale zero dobbiamo porre attenzione alla scelta
di X0 .
Ad esempio, se x è l’unica soluzione dell’equazione
2x
arctan x = x ∈ (0, +∞)
1 + x2
cioè la tangente in ( ) al grafico di arctan interseca l’asse delle a-
x, arctan x
scisse in (−x, 0),
 allora
 il metodo di Newton (corrispondente alle iterazioni di
Nf (x) = x − 1 + x2 arctan x) se inizializzato in X0 = x , dà luogo ad una
traiettoria 2 periodica: X1 = − , X3 = −
x, X2 = x x, . . . , Xk = (−1)k x.
Si noti che (Nf ) (x) = −2x arctan x < 0 per ogni x = 0, risultando nul-
la in x = 0. Nf è strettamente decrescente in R ed è dispari. Dunque, l’e-
quazione
" {x ∈ R : Nf (x) # = x} ha la sola soluzione x = 0; invece l’equazione
2
x ∈ R : (Nf ) (x) = x ammette le soluzioni 0 e ± x (quest’ultima afferma-
zione segue dal fatto che Nf dispari e monotòna decrescente assicura che i
2
punti fissi di (Nf ) coincidano con le soluzioni di {x ∈ R : Nf (x) = −x}, che
sono appunto 0 e ± x perché Nf è convessa in (−∞, 0) e concava in (0, +∞)).
Utilizzando l’Algoritmo II (vedi pag. 98) o,
 più semplicemente,
 dallo studio
del segno della differenza arctan x − 2x/ 1 + x2 (vedi Fig. 4.26) si ottie-

−x x

x
 
Fig. 4.25. Grafici di arctan x e 2x/ 1 + x2 ; 2 ciclo di {R, Narctan }
4.7 Sistemi dinamici discreti nel campo complesso 169

Fig. 4.26. s.d.d. associato a Narctan ; 2 ciclo {


x, −
x} di Narctan

ne una descrizione completa del quadro delle fasi del s.d.d. {R, Nf } che qui
riassumiamo:
k
• se |X0 | = x
, allora Xk = (−1) x ;
k
• se |X0 | < x
, allora limk Xk = 0, sign(Xk ) = (−1) sign(X0 ), |Xk |  0;
k
• se |X0 | > x, allora limk |Xk | = +∞, sign(Xk ) = (−1) sign(X0 ), |Xk | 
+∞.
Lo 0 è un equilibrio stabile e localmente attrattivo, mentre {
x, −
x} è un 2 ciclo
repulsivo.7 

Esercizio 4.30. Calcolare numericamente gli zeri di f : R → R, f (x) = ex − 3, con


un errore minore di 10−3 .

4.7 Sistemi dinamici discreti nel campo complesso

L’ambiente naturale in cui studiare il (sistema dinamico discreto associato al)


metodo di Newton è il piano complesso C. Infatti, il metodo, se ben inizializ-
zato, converge ad uno zero della funzione; tuttavia, già nel caso dei polinomi,
il Teorema fondamentale dell’Algebra garantisce l’esistenza di soluzioni in C,
dunque le soluzioni cercate possono non essere numeri reali.
Nell’ambiente complesso, assegnata la funzione g di cui si cercano gli zeri
complessi, il metodo e la funzione iterata corrispondente Ng hanno formula-
zione identica al caso reale; invece ciò che non vale in C è l’interpretazione
geometrica come metodo delle tangenti.

7
 > 1/ 2 segue dal teorema degli zeri e da
L’esistenza di x

2x  2√ π 1
2  √
= 2 > = arctan √ .
1 + x x=1/ 2 3 4 2
 
La non esistenza di altri valori positivi tali che arctan x = 2x/ 1 + x2 (che
originerebbero altri 2 cicli!) segue dallo studio di (Nf )2 .
170 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Precisiamo la nozione di s.d.d. nel caso di iterazioni che trasformano un gene-


rico sottoinsieme del piano complesso C in sè stesso.
Faremo uso di definizioni valide in un ambito più generale di quello consi-
derato nel Capitolo 3. Il lettore è invitato verificare l’analogia formale di tali
definizioni con quelle del caso reale.

Definizione 4.51. Se I = ∅ è un sottoinsieme di C e f : I → I , la cop-


pia {I, f} è detta sistema dinamico discreto su I, del primo ordine,
autonomo, in forma normale.

Definizione 4.52. α è un equilibrio per il s.d.d. {I, f}se α ∈ I e α = f (α).

Definizione 4.53. Un equilibrio α del s.d.d. {I, f} si dice equilibrio stabile


se, ∀ε > 0, esiste un δ > 0 tale che |X0 − α| < δ, X0 ∈ I e Xk = f k (X0 )
implicano
|Xk − α| < ε ∀k ∈ N.
Viceversa, α si dice equilibrio instabile (o repulsivo) se non è stabile, cioè
se esiste ε0 > 0 tale che, per ogni δ > 0, si possono determinare X0 ∈ I e
k > 0 tali che
|X0 − α| < δ |Xk − α| > ε0 .

Per confronto con le definizioni dei paragrafi 3.1 e 3.5, si osservi che l’insieme
{z ∈ C : |z − α| < δ} è un disco, mentre l’insieme {x ∈ R : |x − α| < δ} è un
intervallo.
Definizione 4.54. Un equilibrio α di un s.d.d. {I, f} si dice equilibrio lo-
calmente attrattivo se esiste η > 0 tale che, per ogni valore iniziale X0 ∈
I ∩ {z ∈ C : |z − α| < η}, posto Xk = f k (X0 ), risulta

lim Xk = α.
k

Definizione 4.55. Un equilibrio α del s.d.d. {I, f} si dice equilibrio local-


mente asintoticamente stabile se è stabile e localmente attrattivo.

α α+δ

Fig. 4.27. Disco di centro α e raggio δ in C


4.7 Sistemi dinamici discreti nel campo complesso 171

Per i s.d.d. {I, f}, con f ∈ C 1 (I) ed I disco nel piano complesso, continua a
valere il criterio di stabilità del Teorema 3.57, pur di sostituire il modulo di
numero reale con quello di numero complesso.

Teorema 4.56. Se α è un equilibrio per il s.d.d. {I, f}, con I ⊂ C, f in


C 1 (I), allora

|f  (α)| < 1 ⇒ α localmente asintoticamente stabile

|f  (α)| > 1 ⇒ α instabile

Prova. La dimostrazione di tale teorema nel caso complesso è formalmente identica


al caso reale, salvo il fatto che non vale il teorema di Lagrange. Si può comunque
usare l’identità seguente:
 z  1
f (z) − f (w) = f  (u) du = f  (w + t (z − w)) (z − w) dt
w 0

(valida se il segmento che congiunge z a w è contenuto in I) da cui si ottiene


  
|f (z) − f (w)| ≤ max f   |z − w|

e max |f  | può essere stimato in un opportuno disco di centro α in modo tale che
risulti max |f  | < 1. 
Alla luce del Teorema 4.56 è naturale conservare anche nel caso complesso la
terminologia della Definizione 3.59 (equilibri superattrattivi, neutri). Riconsi-
deriamo dal punto di vista dei sistemi dinamici complessi il metodo di Newton
per la ricerca delle radici di un polinomio nel campo complesso.

Teorema 4.57. Sia p un polinomio non costante di variabile complessa. De-


finiamo
p (z)
Np (z) = z − 
p (z)
dove è sottointesa l’eventuale semplificazione tra fattori comuni di p e p .
Valgono le seguenti conclusioni:

1) Np è definita e derivabile nell’insieme I di tutti i punti del piano com-


plesso salvo gli zeri di p che non siano anche zeri di p. In particolare,
senza ulteriori condizioni, è definita e continua in tutti gli zeri di p.
2) L’insieme dei punti fissi di Np in I coincide con l’insieme delle radici
complesse di p.
3) Tutti i punti fissi di Np sono localmente asintoticamente stabili per il
s.d.d. {I, Np }.
4) Gli zeri semplici di p sono superattrattivi per il s.d.d. {I, Np }.
172 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Prova. Sia α una radice di p con molteplicità m. Allora p(z) = (z − α)m q(z) con
q (α) = 0 e
p (z) (z − α) q (z)
Np (z) = z −  =z− .
p (z) (z − α) q (z) + mq (z)
Np (α) = α.
Viceversa, se Np (α) = α, allora α − p (α) /p (α) = α cioè8 p (α) = 0.
Infine
2
(p (z)) − p (z) p (z) p (z) p (z)
(Np ) (z) = 1 − 2 = .

(p (z)) (p (z))2
Dunque, se α è uno zero semplice di p, cioè p (α) = 0 e p (α) = 0, allora (Np ) (α) = 0
cioè α è stabile e superattrattivo.
Se α non è uno zero semplice, cioè p (α) = p (α) = 0, allora esiste m ≥ 2 tale che
p (z) = (z − α)m q (z) e q (α) = 0; ne segue

(Np ) (z) =
 
m
(z − α) q (z) m (m − 1) (z − α) q (z) + 2m (z − α)m−1q (z) + (z − α)m q (z)
m−2

 2
m (z − α)m−1 q (z) + (z − α)m q (z)
 
q (z) m (m − 1) q (z) + 2m (z − α) q (z) + (z − α)2 q (z)
=
(mq (z) + (z − α) q (z))2

m (m − 1) q (α)2 m−1
(Np ) (α) = 2 = <1
2
m q (α) m
cioè α è attrattivo e stabile. 
Grazie al fatto che le funzioni di variabile complessa derivabili con derivata
continua e non costanti hanno solo zeri isolati e di ordine finito ed intero, si
può provare nello stesso modo il seguente risultato di portata più generale con
una dimostrazione identica a quella del Teorema 4.57.
Teorema 4.58. Sia f ∈ C 1 (Ω), Ω ⊂ C aperto connesso, ed f non costante.
Definiamo
f (z)
Nf (z) = z − 
f (z)
dove è sottointesa l’eventuale semplificazione di fattori comuni di f e f  . Al-
lora:
1) Nf è definita e derivabile nell’insieme I = Ω\{z ∈ Ω : f  (z) = 0 =
f(z)}.
2) Nf è definita e continua negli zeri di f.
3) L’insieme dei punti fissi di Nf in Ω coincide con l’insieme degli zeri di f.
4) Tutti i punti fissi di Nf sono localmente asintoticamente stabili per il
s.d.d. {I, Nf }.
5) Gli zeri semplici di f sono superattrattivi per il s.d.d. {I, Nf }.
8
Nell’espressione p (α) /p (α) deve essere sempre sottointesa l’eventuale
semplificazione.
4.7 Sistemi dinamici discreti nel campo complesso 173

Enfatizziamo il fatto che la locale asintotica stabilità garantisce convergenza


solo se il valore iniziale X0 è scelto “sufficientemente vicino” alla radice che si
vuole approssimare. Quanto vicino è in generale questione delicata che richie-
de un’analisi accurata caso per caso (si vedano al riguardo il Teorema 4.49 e
l’Esempio 4.50).
Esempio 4.59. Sia p (z) = az + b con a e b assegnati in C, a = 0. L’unico
zero (−b/a) di p è globalmente asintoticamente stabile in C per Np (z) = −b/a
(tutte le traiettorie sono definitivamente costanti: Xk = −b/a per k ≥ 1) ed
il suo bacino di attrazione è tutto C. 
Nel caso di funzioni f non lineari il quadro delle fasi di Nf è decisamente più
complicato.
Prima di affrontare un’analisi sistematica, il lettore è invitato a studiare grafi-
camente e con simulazioni al computer le iterazioni di Nf in R corrispondenti
a f (x) = x2 ± 1, x ∈ R.
In particolare, ci si rende conto che anche nel caso semplice in cui p è un
polinomio (e dunque ha un numero finito di radici e tutte localmente asinto-
ticamente stabili per Np ), il dominio di Np (ossia C privato degli zeri di p che
non sono zeri di p) in generale non è l’unione dei bacini di attrazione degli
zeri di p.
Studiamo sistematicamente il caso dei polinomi quadratici:

p (z) = az 2 + bz + c a, b, c, ∈ C , a = 0. (4.3)

La funzione di Newton associata è pertanto

az 2 + bz + c az 2 − c
Np (z) = z − = . (4.4)
2az + b 2az + b
Lemma 4.60. Se p, Np sono definiti da (4.3) e (4.4), e a = 0 , allora Np è
topologicamente coniugato a

z2 + D
Nq (z) =
2z
dove

q (z) = z 2 − D e D = b2 − 4ac è il discriminante di p

tramite il cambio di variabili ϕ (z) = 2az + b.

Prova. Basta verificare che ϕ (Np (z)) = Nq (ϕ (z)). 

Grazie al Teorema 4.42 ed al Lemma 4.60, per studiare la dinamica di Np è


sufficiente conoscere quella di Nq , con q (z) = z 2 − D, al variare della costante
D in C.
Cominciamo a studiare il caso D ∈ R, limitandoci per semplicità al caso di
coefficienti a, b, c reali ed alla dinamica in R.
174 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

Teorema 4.61. Sia p (x) = ax2 + bx + c con a, b, c, x ∈ R e a = 0. Ne segue:

• Se D = 0, allora q (x) = x2 , Nq (x) = x/2 e 0 (la radice doppia di q) è


l’unico punto fisso globalmente asintoticamente stabile per {R, Nq }. Corri-
spondentemente {R\ {0} , Np } ha un unico punto fisso globalmente asinto-
 = ϕ−1 (0) = −b/2a (radice doppia di p).√
ticamente stabile: x
• Se D > 0, allora q (x) = x2 − D ha radici reali  semplici ± D che coin-
cidono con i punti fissi di Nq (x) = x2 + D /2x e sono localmente asin-

toticamente stabili e superattrattive per il s.d.d. {R\√{0} , Nq }. Inoltre + D
ha come bacino di attrazione (0, +∞), mentre − D ha come bacino di
attrazione (−∞, 0). Corrispondentemente {R\ {−b/2a} , Np } ha due punti
fissi localmente asintoticamente stabili e superattrattivi:
 √    
 = ϕ−1 ± D = −b ± b2 − 4ac /2a
x

i cui bacini di attrazione sono rispettivamente (−b/2a, +∞)√e (−∞, −b/2a).


• Se D < 0, allora q (x) = x2 − D ha radici immaginarie ±i −D che sono i
punti  localmente asintoticamente stabili per {C\ {0} , Nq } con Nq (x) =
fissi
x2 + D /2x, ma la dinamica di {R\ {0} , Nq } è caotica. Corrispondente-
mente la dinamica di Np è caotica e priva di punti fissi.

Prova. Il caso D = 0 non√ richiede commenti. √


Se
√ D > 0, 0 < X 0 < D e Xk = (Nq )k (X0 ), allora valgono X0 < D < X1 e
D < Xk+1 √ < Xk per k ≥ 1. La monotonia di X ed il Teorema 3.25 implicano
limk Xk = √D. √
Se D > 0 e D ≤ X0 , allora√ D < Xk+1 < Xk per k ∈ N e con lo stesso argomento
di monotonia limk Xk = D. √
Il caso D > 0 e X0 < 0 è analogo (limk Xk = − D).
Veniamo al caso non banale D < 0. Per evitare complicazioni tecniche, studiamo solo
il caso D = −1 cioè q (x) = x2 +1 (questo basta perché Nx2 +c e Nx2 +1 sono topologi-

camente coniugati se c è positivo mediante il cambio di coordinate ψ (x) = c x , in-
fatti ψ ◦Nx2 +1 = Nx2 +c ◦ψ). Gli esperimenti numerici e grafici suggeriscono la caoti-
cità della dinamica. Questa può essere dimostrata
 formalizzando
 il discorso seguente:
consideriamo il prolungamento di Nx2 +1 (x) = x2 − 1 / (2x) con valore ∞ in x = 0
e in x = ∞. In tal modo, Nx2 +1 manda R∪ {∞} in sè stesso ed è topologicamente co-
niugata mediante la funzione τ : [0, 2π) → R∪ {+∞}, τ (x) = cot (x/2) = 1/tg (x/2)
alla mappa del raddoppio di fase D : S → S, D (θ) = 2θ(modulo 2π) che sappiamo
essere caotica (Esempio 4.21 e Teorema 4.30).
Verifichiamo la coniugazione tra Nx2 +1 e D:

(cot (x/2))2 − 1 (cos (x/2))2 − (sin (x/2))2


Nx2 +1 (τ (x)) = = =
2 cot (x/2) 2 sin (x/2) cos (x/2)
cos x
= = cot x = τ (D (x)) .
sin x
Le tesi formulate per la dinamica di Np si ottengono da quelle relative alla dinamica
di Nq mediante il Lemma 4.60. 
4.7 Sistemi dinamici discreti nel campo complesso 175


D


− D

X0 D


− D

 
Fig. 4.28. D > 0, dinamica di Nq (x) = x2 + D /2x , q (x) = x2 − D

 
Fig. 4.29. D < 0, dinamica di Nq (x) = x2 − 1 /2x, q (x) = x2 + 1
176 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

z1 r

z2

Fig. 4.30. Il bacino di z1 è ombreggiato, quello di z2 è bianco

Il risultato precedente è in realtà un caso particolare del seguente teorema in


cui i coefficienti a, b, c del polinomio p sono generici numeri complessi, con a
non banale.

Teorema 4.62. Siano a, b, c ∈ C ed a = 0.


Se il polinomio p (z) = az 2 +bz +c ha due radici distinte z1 , z2 , allora il s.d.d.

az 2 − c
{ C\ {(z1 + z2 ) /2} , Np } con Np (z) =
2az + b
è caotico sulla retta r perpendicolare al segmento di estremi z1 , z2 e passante
per il punto medio (z1 + z2 ) /2. Inoltre tale retta r separa due semipiani aperti
che sono i bacini di attrazione di z1 e z2 (stabili e superattrattivi).
Se il polinomio p (z) = az 2 + bz + c ha una sola radice, allora tutti i pun-
ti di C sono nel bacino di attrazione di tale radice che risulta globalmente
asintoticamente stabile (in questo caso il s.d.d. è definito in tutto C).

Prova. Per il Lemma 4.60, nel primo caso p è topologicamente coniugato in C a


z 2 − 1 mediante una trasformazione lineare del piano complesso che trasforma z1 e
z2 rispettivamente in −1 e +1, nel secondo caso, Np è topologicamente coniugato in
C a Nz 2 .
La tesi segue dunque dal Teorema 4.42. 

Osservazione 4.63. L’informazione relativa ai bacini di attrazione risale ad


Arthur Cayley9 (1879), mentre la descrizione della dinamica su r è molto più
recente.

Finora siamo stati intenzionalmente vaghi nella descrizione del s.d.d. associa-
to ad Np con p polinomio di secondo grado: anche se Np è definito in ogni
z ∈ C diverso da (z1 + z2 ) /2 = −b/2a tuttavia esiste una infinità di valori

9
Arthur Cayley, 1821-1895.
4.7 Sistemi dinamici discreti nel campo complesso 177

complessi a partire dai quali le iterazioni di Np non generano una successione.


az 2 − c
Infatti, se p (z) = az 2 + bz + c, allora Np (z) = e,
2az + b
• se b2 −4ac = 0, allora Np (z) = z/2−b/(4a) e {C, Np} è un s.d.d. ben definito;
• se b2 − 4ac = 0, vi sono una infinità di punti (insieme che denotiamo con
Z) contenuti nella retta r perpendicolare al segmento [z1 , z2 ] nel suo punto
medio, a partire dai quali le iterate di Np portano al valore vietato −b/2a
in un numero finito di passi; dunque in tale caso il s.d.d. definito corretta-
mente è {C\Z , Np }.
Per provarlo basta studiare il caso p (z) = z 2 + 1, z1,2 = ±i (il caso gene-
rico segue
 per coniugazione topologica): in questo semplice caso
 N! p (z) =
z 2 − 1 /2z e risolvendo in z l’equazione z ∈ C : w = z 2 − 1 /2z si ot-

tengono i due rami di Np−1 : Np−1 (w) = w ± w 2 + 1. Così Z è l’insieme di
tutti i valori che si ottengono iterando Np−1 a partire da 0: ϕj1 ◦ ϕj2 ◦ · · · ◦
√ √
ϕjk (0), jk = 1, 2, ϕ1 (z) = z + z 2 + 1, ϕ2 (z) = z − z 2 + 1. In tal modo
è immediato dedurre che Z è infinito e contenuto in R (ϕ1 è strettamente
monotòna).
 
Esempio 4.64. Sia p (z) = z 3 − 1. Allora Np (z) = 2z 3 + 1 /3z 2 , i cui pun-
ti fissi localmente attrattivi sono 1, e2πi/3 , e4πi/3 . Si provi ad effettuare un
esperimento numerico con un computer: scelta una griglia di punti nella re-
gione quadrata di vertici (±1 ± i) 9/5, a partire da ciascuno di tali punti si
calcoli il valore delle prime 60 iterazioni di Np ; per la superattrattività, se

Fig. 4.31. Dinamica del Metodo di Newton relativa a f (z) = z 3 − 1: bacini di 1,


e2πi/3 , e4πi/3 denotati con varie tonalità di grigio
178 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

|X60 − 1| < 1/4 è ragionevole supporre che  X0 sia nel bacino di attrazione
di 1 e decidiamo di colorarlo in grigio, se X60 − e2πi/3  < 1/4 è ragionevole
supporre che X0 sia4πi/3
nel bacino
 di attrazione di e2πi/3 e decidiamo di colorarlo

in nero, se X60 − e  < 1/4 è ragionevole supporre che X0 sia nel bacino
di attrazione di e4πi/3 e decidiamo di colorarlo in bianco.
Se le risorse di calcolo lo consentono, senza rendere eccessivamente lunghi i
tempi di attesa, si sostituisca 60 con 100.
Qualche commento su come sono stati ottenuti i diagrammi: la Fig. 4.31 rap-
presenta i bacini di attrazione delle tre radici complesse di 1 rispetto alla
dinamica di Nz3 −1 .
Nei punti di una griglia 200 × 200 collocata nel quadrato del piano complesso
{z ∈ C : |Re (z)| ≤ 2, |Im (z)| ≤ 2} si calcolano le iterate di Nz3 −1 fino a che
si ottiene un valore che differisce meno di 0, 5 da una delle tre radici com-
plesse dell’unità (1, exp 2πi/3, exp 4πi/3). Quando è soddisfatto tale test di
prossimità si arrestano i calcoli e si assegna un colore convenzionale: grigio in
prossimità ad 1, nero in prossimità ad exp (2πi/3), bianco in prossimità ad
exp (4πi/3). 

La Fig. 4.32 illustra mediante diverse tonalità di grigio i bacini di attrazione


per il metodo di Newton Nzn −1 quando n varia da 1 a 12. L’algoritmo è più
raffinato del precedente ed utilizza delle routine di calcolo interne al Mathe-

matica  versione
 4.1: per ciascun punto della griglia in {z ∈ C : Re(z) ≤
1, 3 , Im(z) ≤ 1, 3} si calcolano 35 iterazioni (ricordiamo che tutti gli zeri
sono semplici e dunque superattrattivi) poi si attribuisce un valore all’argo-
mento del numero complesso ottenuto (che sarà praticamente indistinguibile
dall’argomento dell’attrattore corrispondente).
Esaminiamo comparativamente i vari casi della Fig. 4.32.
Se n = 1 allora z = 1 è globalmente asintoticamente stabile e la dinamica è
particolarmente semplice (ricordiamo che Nz−1 (z) = 1). Tutte le traiettorie
sono definitivamente costanti.
Se n = 2, si conferma quanto detto in precedenza nello studio dettagliato di
Nz2 −1 . Ricordiamo che la frontiera (o bordo) dei due bacini pur essendo geo-
metricamente banale (è una retta), è sede di una dinamica caotica e contiene
un insieme infinito e denso a partire dal quale le traiettorie sono definite solo
per un numero finito di passi.
Quando si passa ad n ≥ 3 la situazione si complica moltissimo: tutti i bacini
hanno una frontiera (comune a ognuno di essi) che necessariamente (essendo
n > 2) è un oggetto topologicamente complicato, che presenta molte proprietà
di simmetria e autosimilarità, ma non è un oggetto geometrico elementare.
La Fig. 4.32 suggerisce una ricchezza di proprietà delle frontiere che non è
possibile visualizzare graficamente nei dettagli.
Osserviamo che se il bordo che separa i bacini di attrazione non è una curva
nel senso elementare abbiamo una manifestazione di comportamento caotico o
quantomeno poco prevedibile, di tipo nuovo; la competizione tra più attrattori
può determinare l’esistenza di regioni di tipo frattale di dimensione maggiore
4.7 Sistemi dinamici discreti nel campo complesso 179

di 1 nelle quali si ha una dipendenza sensibile dallo stato iniziale: col-


locando lo stato inziale X0 nel bordo di un bacino di attrazione, ci si trova
automaticamente sul bordo di tutti gli n bacini10 . Inoltre la ramificazione di
tale bordo rende problematiche le previsioni sulla dinamica asintotica per un
generico dato iniziale, a meno di non esssere ben all’interno di un bacino.
Nel caso di polinomi p di terzo grado, la dinamica in C di Np è estrema-
mente complessa ed al tempo stesso ricca di strutture topologicamente ed
esteticamente interessanti.
Concludiamo con lo studio qualitativo di alcuni altri esempi di dinamica com-
plessa. Ci limitiamo alle dinamiche generate da polinomi, perché non presen-
tano problemi di dominio, essendo trasformazioni di tutto C in sè stesso.

Esempio 4.65. Sia f (z) = az, a ∈ C. La moltiplicazione per il numero com-


plesso a corrisponde ad una rotazione del piano complesso di angolo pari
all’argomento θ di a composta con una omotetia pari al modulo |a| di a:

a = |a| (cos θ + i sin θ) = |a| eiθ θ ∈ [0, 2π) .

Fig. 4.32. Bacini di attrazione in C delle radici n-esime complesse dell’unità per
la dinamica associata al metodo di Newton Nz n −1 con n = 1, . . . , 12

10
Ricordiamo che z appartiene al bordo dell’insieme E ⊂ C se per ogni r > 0
esistono w ∈ E e u ∈ C\E tali che |z − w| < r e |z − u| < r. Dunque z nel bordo di
tutti i bacini significa che per ogni r > 0 esistono w1 , . . . , wn tali che |z − wj | < r
ed ogni wj è nel bacino della j-esima radice complessa di 1.
180 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos

a = (8/7) (cos π/6 + i sin π/6) a = (7/8) (cos π/6 + i sin π/6)

Fig. 4.33. Traiettorie a spirale del s.d.d. {C, az} : convergenti se |a| < 1 ,
divergenti se |a| > 1

Dunque tutte le traiettorie di {C, az} sono del tipo Xk = ak X0 . Il disegno se-
guente evidenzia i primi passi di alcune traiettorie di {C, az} di punto iniziale
X0 = 1.
Dunque:
• se |a| < 1, allora 0 è l’unico equilibrio di {C, az} ed esso è anche global-
mente asintoticamente stabile;
• se |a| > 1, allora 0 è ancora l’unico equilibrio, ma in tal caso è repulsivo;
• se a = 1, allora tutti i punti di C sono equilibri e tutte le traiettorie sono
costanti;
• se |a| = 1 ma a = 1, allora 0 è nuovamente l’unico equilibrio, stabile ma
non attrattivo: le traiettorie ruotano attorno all’origine; sono tutte perio-
diche se l’argomento di a è un sottomultiplo di 2π, in caso contrario non
esistono orbite periodiche.

Osserviamo che se restringiamo il dominio di f alla circonferenza unitaria S =


{z ∈ C : |z| = 1}, il s.d.d. {S, az} con |a| = 1 ed arg a/2π ∈ Q, è topologica-
mente transitivo e manifesta dipendenza sensibile dai dati iniziali. 

Più interessante è la dinamica generata in C dai polinomi quadratici.


!
Esempio 4.66. Il s.d.d. C, z 2 ha due equilibri, 0 e 1.
0 è localmente asintoticamente stabile e il suo bacino è {z ∈ C : |z| < 1}.
1 è repulsivo. Tutti i punti z di modulo unitario e diversi da 1 sono valori
iniziali di traiettorie che ruotano sulla circonferenza di raggio 1. Tutti i punti
z ∈ C tali che |z| > 1 sono valori iniziali di traiettorie chedivergono all’infinito:

Xk+1 = Xk2 , |X0 | > 1 ⇒ lim |Xk | = +∞


k
4.7 Sistemi dinamici discreti nel campo complesso 181

Come nell’esempio precedente, tutti i polinomi quadratici az 2 + bz + c presen-


tano l’alternativa tra i dati iniziali le cui traiettorie sono divergenti e quelli le
cui traiettorie rimangono limitate. 
Esercizio 4.31. Dato il polinomio  q (z) = z 2 + c, con c, z ∈ C, provare che se
|z| > %|c| + 1 allora  k 
2
& limk q (z) = +∞ e di conseguenza per ogni traiettoria del
s.d.d.
  C, z + c vale l’alternativa: è divergente oppure è contenuta nel disco {z ∈
C : z  ≤ c| + 1}.

L’esercizio precedente
! potrebbe far pensare che la dinamica del sistema di-
namico C, z 2 + c sia relativamente semplice. In realtà, se c = 0, allora il
bordo che separa i due insiemi di dati iniziali in cui le traiettorie divergono o
rimangono limitate hanno una struttura molto complicata che prende il nome
di insieme di Julia, dal nome del matematico francese Gaston Julia (1893-
1978) che ne ha studiato le proprietà assai prima che l’avvento dei computers
ne consentisse un’efficace visualizzazione mediante simulazioni numeriche.
Si dice insieme pieno di Julia e!si denota con Kc l’insieme dei punti iniziali
di traiettorie del s.d.d. C, z 2 + c che rimangono limitate. Dunque l’insieme
di Julia è il bordo dell’insieme pieno di Julia.
Per effettuare simulazioni numeriche è utile sfruttare il seguente risultato ge-
nerale che contiene il Teorema 4.18.

Teorema 4.67. Se un polinomio p complesso ha un’orbita periodica attrattiva


allora nel bacino dell’orbita vi deve essere almeno uno zero della derivata di p.

Questo risultato suggerisce, per trovare le orbite periodiche di q (z) = z 2 + c,


di iterare a partire da X0 = 0. Inoltre assicura che di orbite periodiche e sta-
bili ve ne è al più una. Accenniamo brevemente ai sistemi dinamici di ordine
superiore al primo nel campo complesso.
Definizione 4.68. Se I è un qualunque sottoinsieme di C ed

F : I ×I ×···×I → I
 

n termini

è una funzione continua, la coppia {I n , F } è detta sistema dinamico di-


screto su I, di ordine n, autonomo, in forma normale.
Ad un s.d.d. di ordine n è associato un sistema di infinite equazioni del tipo

Xk+n = F (Xk+n−1 , Xk+n−2 , . . . , Xk ) k ∈ N. (4.5)

Ogni n-upla di condizioni iniziali {X0 , X1 , . . . , Xn−1 } determina in modo uni-


co la successione che risolve (4.5), che è detta traiettoria del s.d.d. corrispon-
dente alla n-upla di condizioni iniziali.
Esempio 4.69. Sia F : C × C → C definita da F (z, w) = z + w. Si ottiene:

Xk+2 = Xk+1 + Xk
182 4 Complessità dei sistemi dinamici non lineari: biforcazioni e caos
2 2

1 1

0 0

-1 -1

-2 -2
-2 -1 0 1 2 -2 -1 0 1 2
2 2

1 1

0 0

-1 -1

-2 -2
-2 -1 0 1 2 -2 -1 0 1 2
2 2

1 1

0 0

-1 -1

-2 -2
-2 -1 0 1 2 -2 -1 0 1 2

Fig. 4.34. Insiemi pieni di Julia Kc , c = 0; c = 0, 01 + 0, 4i; c = −1; c = −0, 7 +


0, 2i; c = −0, 09 + 0, 7i; c = −0, 41 + 0, 59i

cioè la definizione ricorsiva che, con i dati iniziali X0 = 0 e X1 = 1 genera i


numeri di Fibonacci, e, per una generica coppia di numeri complessi X0 e X1
genera la successione
$ √ %n $ √ %n
1   √   1+ 5 1   √   1− 5
√ 2X1 − 1 − 5 X0 + √ 2X1 + 1 + 5 X0 .
2 5 2 2 5 2
4.8 Esercizi di riepilogo 183

4.8 Esercizi di riepilogo


Esercizio 4.32. Se α è un equilibrio del {I, f } con f ∈ C 1 (I), il numero f  (α) si
dice moltiplicatore dell’equilibrio.
Provare che una coniugazione topologica C 1 (I) con inversa C 1 preserva il moltipli-
catore di ogni equilibrio del sistema dinamico.

Esercizio 4.33. Se {α1 , . . . , α


s } è una orbita s periodica del s.d.d. {I, f } con f ∈
C 1 (I), il numero (f s (α1 )) = sj=1 f  (αj ) si dice moltiplicatore dell’orbita.
Provare che una coniugazione topologica C 1 (I) con inversa C 1 preserva il moltipli-
catore di ogni orbita periodica del sistema dinamico.

Osservazione 4.70. Le proprietà provate nei due precedenti esercizi (che si


applicano anche a s.d.d. in domini del I del campo complesso), nel caso rea-
le forniscono una precisazione del punto (iv) del Teorema 4.42 nel caso di
equilibri e punti periodici.
Si noti che tali proprietà possono essere utilizzate anche in negativo: ad esem-
pio per provare che non esistono coniugazioni topologiche C 1 con inversa C 1
tra {[0, 1/2], x − x2 } ed un s.d.d. associato ad una funzione lineare su un in-
tervallo [a, b]. Infatti a dovrebbe essere un equilibrio ed una tale coniugazione
topologica dovrebbe conservare il moltiplicatore 1 nell’equilibrio a, dunque la
funzione lineare sarebbe necessariamente l’identità che ha infiniti equilibri, a
differenza del s.d.d. di partenza: in contraddizione con il Teorema 4.42.
5
Sistemi dinamici discreti: equazioni
vettoriali

In questo capitolo consideriamo l’evoluzione a tempi discreti di quantità vet-


toriali. Ci limitiamo allo studio di leggi lineari (o lineari affini) ad un passo,
che descrivono le variazioni di tali quantità a passi successivi.
Sono discusse alcune applicazioni a modelli della demografia e della genetica.
Per una buona comprensione di questo capitolo è opportuno conoscere alcuni
risultati elementari di algebra lineare che, per completezza, sono riportati in
Appendice D.

5.1 Definizioni e notazione

Consideriamo un semplice esempio: il modello di Leslie (si veda l’Esempio 1.16)


per una popolazione X divisa in classi di età disgiunte e di ampiezza uguale
al passo temporale; per semplicità consideriamo solo tre classi d’età, in ordine
progressivo di anzianità. A, B e C denotano le tre corrispondenti successioni
scalari
A = {Ak } B = {Bk } C = {Ck }
dove Ak , Bk e Ck denotano la consistenza numerica di ciascuna classe d’età
 T
al tempo k. Con X indichiamo il vettore a tre componenti X = A B C .
Se indichiamo con a, b, c i tassi di natalità, rispettivamente nelle classi A, B,
C, e con α, β e γ i tassi di mortalità delle classi A, B e C, si ottiene il sistema
che descrive l’evoluzione della popolazione. Per semplicità, supporremo γ = 1
(il che equivale a dire che gli individui della classe C non hanno speranza di
vita superiore ad un intervallo temporale):

⎨ Ak+1 = aAk + bBk + cCk
Bk+1 = (1 − α) Ak .

Ck+1 = (1 − β) Bk

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_5, © Springer-Verlag Italia 2014
186 5 Sistemi dinamici discreti: equazioni vettoriali

Con notazione vettoriale, otteniamo la legge ricorsiva

Xk+1 = M Xk
(5.1)

avendo posto ⎡ ⎤ ⎡ ⎤
Ak a b c
Xk = ⎣ Bk ⎦ M = ⎣1 − α 0 0⎦.
Ck 0 1−β 0
È immediato esprimere in forma chiusa (provarlo per induzione) il termine
generale di (5.1)

Xk = Mk X0 ∀k ∈ N

k volte

 
dove Mk = M · M· · · · · M ed M · M è l’usuale prodotto righe per colonne. Tut-
tavia, nonostante la conoscenza esplicita (non ricorsiva) della successione X,
rimane un problema di calcolo: infatti, la moltiplicazione fra matrici è una
operazione lunga anche se effettuata con procedure di calcolo automatico, e
deve essere effettuata anche per valori grandi di k. Ad esempio, sapere che al
tempo 50 risulta X50 = M50 X0 , non dà molta informazione sulla suddivisione
in classi di età della popolazione X50 , a meno di non calcolare effettivamen-
te M50 . Nella pratica anche la dimensione della matrice M è ben maggiore
di tre, il che aumenta in modo sostanziale la complessità computazionale del
problema.
Un poco di algebra lineare può però fornire molte informazioni qualitative su
Mk X0 , anche senza effettuare il calcolo esatto, o ridurre la complessità com-
putazionale se la matrice ha una particolare struttura (come in effetti avviene
nel caso del modello di Leslie).
Ricordiamo due importanti definizioni di algebra lineare (rinviamo all’Appen-
dice D per ulteriori dettagli).

Definizione 5.1. Sia M una matrice quadrata di ordine n. Si dicono autova-


lori di M le radici (nel piano complesso C) del suo polinomio caratteristico
P (λ) = det (M − λI) :
{λ ∈ C : P (λ) = 0} .

Per il Teorema fondamentale dell’Algebra, una matrice M di ordine n ha esat-


tamente n autovalori nel campo complesso (purché si contino con la stessa
molteplicità delle radici di P (λ)).
5.2 Applicazioni alla genetica 187

Definizione 5.2. Un vettore V ∈ Cn \ {0} si dice autovettore della matrice


quadrata M di ordine n se esiste un numero complesso λ tale che

MV = λV.

In tal caso λ è necessariamente un autovalore della matrice M (associato


all’autovettore V).
Se è possibile1 determinare n autovettori reali e linearmente indipendenti
V1 , . . . , Vn, di una matrice M, di ordine n, allora V1 , . . . , Vn formano una
base di Rn ; pertanto ogni vettore W ∈ Rn può essere rappresentato (in modo
unico) mediante tale base come

W = c 1 V 1 + c 2 V 2 + · · · + cn V n (5.2)

e questo consente, in tali ipotesi, un semplice calcolo2 dell’espressione Mk W:

 
Mk W = Mk c1 V1 + c2 V2 + · · · + cn Vn = c1 λk1 V1 + · · · + cn λkn Vn

(5.3)
ove λj è l’autovalore associato a Vj , j = 1, 2, . . ., n.
Qualora non vi siano n autovettori linearmente indipendenti l’esplicitazione
di Mk W è più tecnica (si veda l’Osservazione 5.9).
Nel seguito, analogamente al caso scalare, chiameremo orbita o traiettoria
una qualsiasi successione di vettori {Xk } che risolve il sistema (5.1).

Esercizio 5.1. Determinare, nei vari casi, la soluzione esplicita del s.d.d. vettoriale
Xk+1 = M Xk con il dato iniziale X0 :
⎡ ⎤
0 1 1 0 0
13 # $T # $T
1) M = , X0 = 1 2 ; 2) M = ⎣ 2 −1 0 ⎦ , X0 = 4 −1 0 ;
02
3 −2 −3
⎡ ⎤
1 0 −1 #√ $T
3) M = ⎣ 0 −1 0 ⎦ , X0 = 2 − 1 3 −1 .
−1 0 −1

5.2 Applicazioni alla genetica

Le caratteristiche dei singoli individui di una specie biologica sono determi-


nate dai geni ereditati dai genitori. Quando un determinato gene G presenta
1
Questo non è sempre vero, tuttavia questa ipotesi è verificata in molti casi; ad
esempio, se M è una matrice simmetrica: Mij = Mji , ∀i, j, o se gli autovalori di M
sono tutti semplici.
2
Ricordiamo che se λ è autovalore di una matrice quadrata S con autovettore
associato V = 0, allora λk è autovalore di Sk con autovettore associato V.
188 5 Sistemi dinamici discreti: equazioni vettoriali

due sole forme dette alleli (allele G e allele g), ogni individuo ereditando un
allele da ciascun genitore, può avere nel suo patrimonio genetico quattro tipi
di coppie di alleli del gene G: (G, G), (g, g), (G, g), (g, G). I primi due tipi
sono detti omozigoti, gli altri eterozigoti.
Consideriamo, per semplicità, il caso in cui l’ordine degli alleli non ha influen-
za, cioè consideriamo indistinguibili (G, g) e (g, G). Dunque, abbiamo tre tipi
di individui relativamente alle caratteristiche determinate dal gene G: due
omozigoti (G, G), (g, g) e un eterozigote (G, g).

Legge di Hardy-Weinberg
Supponiamo che due geni allelomorfi G e g siano presenti nella popolazione
in proporzioni rispettivamente p e q con p, q ∈ [0, 1] e p + q = 1 e che
1) non vi siano mutazioni da G a g o viceversa;
2) nessuno degli individui (G, G), (g, g) o (G, g) sia avvantaggiato rispetto
agli altri e gli accoppiamenti avvengano in modo casuale;
3) il numero di individui della popolazione sia molto grande;
4) non vi siano immigrazioni di geni G o g per effetto di incroci con popo-
lazioni contigue.
Allora le proporzioni dei due alleli rimangono invariate nelle generazioni suc-
cessive.
Inoltre, le proporzioni di individui rispettivamente G omozigoti, g omozigoti
ed eterozigoti sono, a partire dalla prima generazione, p2 , q 2 e 2pq.
Ad esempio, se G determina la colorazione cutanea ed è recessivo3 , mentre g
impedisce la formazione del pigmento (gene dell’albinismo), supponendo alla
generazione 0 che le percentuali dei due alleli siano rispettivamente 99, 9% e
0, 1% (cioè p = 0, 999 e q = 0, 001), allora tali percentuali si conservano inal-
terate nelle generazioni successive. Inoltre, a partire dalla generazione 1 vi è
una frazione q 2 = 0, 000001 pari allo 0, 0001% (un individuo su un milione) di
individui albini omozigoti e vi è una frazione 2pq = 0, 001998 cioè lo 0, 1998%
di albini eterozigoti (complessivamente in tale situazione quasi due individui
su mille sono albini).

Osservazione 5.3. Si noti che nella pratica si pone il problema inverso: si


osserva la popolazione e si deduce, tramite la legge di Hardy-Weinberg la
frequenza di ciascuno dei due geni.

Osservazione 5.4. Le ipotesi 1) - 4) nella legge di Hardy-Weinberg corrispon-


dono alla stabilità (assenza di evoluzione); se una o più fra esse vengono meno
si hanno spinte evolutive:
• [non 1)] mutazioni g → G o viceversa;
3
Se un individuo eterozigote (G, g) presenta le qualità corrispondenti al gene G,
allora G si dice dominante, se presenta quelle legate al gene g, allora G si dice
recessivo.
5.2 Applicazioni alla genetica 189

• [non 2)] vantaggio di individui con una determinata composizione genetica


(migliore fitness) e conseguente selezione naturale;
• [non 3)] limitazione numerica della popolazione;
• [non 4)] migrazione dei geni da popolazioni contigue.

Prova della legge di Hardy-Weinberg. Non è necessario conoscere P0 cioè p al tempo


0 (Q0 , cioè q al tempo 0, si deduce da Q0 = 1 − P0), né il numero di maschi o
femmine.
Scriviamo un s.d.d. del primo ordine per Pk cioè esprimiamo Pk+1 in funzione del
valore di Pk .
Siano, nella generazione k, M ed F rispettivamente i numeri (incogniti) di maschi
e di femmine. Siano, nella generazione k + 1:

A la proporzione di omozigoti (G, G)


a la proporzione di omozigoti (g, g)
b la proporzione di eterozigoti (G, g)
N il numero totale di individui.

Un individuo (G, G) riceve due alleli G dai genitori della generazione k (uno da
ciascun genitore) e vi sono (Pk M ) (Pk F ) possibili modi di riceverli dalle diverse
possibili coppie di genitori M F . Dunque la frazione di omozigoti (G, G) è

(Pk M ) (Pk F )
A= = Pk2 .
MF

Corrispondentemente, vi sono Pk2 N individui omozigoti (G, G) nella generazione


k + 1 ed essi hanno complessivamente 2Pk2 N alleli G.
Analogamente, sempre nella generazione k + 1, vi è una frazione 2Pk (1 − Pk ) di
individui eterozigoti, cioè vi sono 2Pk (1 − Pk ) N individui eterozigoti, ed essi han-
no in totale 2Pk (1 − Pk ) N alleli G e  2Pk (1 − Pk ) N alleli g. La popolazione ha
complessivamente 2Pk2 + 2Pk (1 − Pk ) N = 2Pk N alleli G (gli omozigoti (g, g) non
ne hanno), mentre il totale di alleli è 2N . Dunque la frazione Pk+1 di alleli G nella
k + 1 generazione è
2N Pk
Pk+1 = = Pk
2N
cioè Pk è costante in k: Pk = P0 = p per ogni k e, per sostituzione:

• gli individui G omozigoti nella generazione k + 1 sono p2 N , cioè la frazione p2


del totale;
• gli individui g eterozigoti nella generazione k + 1 sono 2pqN , cioè la frazione 2pq
del totale;
• gli individui g omozigoti nella generazione k + 1 sono q2 N , cioè la frazione q2 del
totale.

La legge di Hardy-Weinberg spiega perché gli alleli recessivi non scompaiono


dalla popolazione.
Supponiamo ora, a differenza delle ipotesi precedenti, che venga meno la con-
dizione 2: ad esempio, gli omozigoti (g, g) sono sterili o muoiono prima della
190 5 Sistemi dinamici discreti: equazioni vettoriali

maturità sessuale e g è recessivo. Allora G ha un vantaggio selettivo e g è un


gene letale (benché recessivo).

Principio di selezione
Se gli individui omozigoti (g, g) non si riproducono, mentre gli eterozigoti e
gli omozigoti (G, G) si riproducono normalmente, allora la frazione di g alleli
nella generazione k-esima è dato (in assenza di mutazioni) da

Q0
Qk =
1 + kQ0
dove Q0 è la frazione iniziale. Dunque l’allele letale g tende ad estinguersi
(sia pur lentamente).

Prova. Siano come nel caso precedente Pk2 , 2Pk Qk e (1 − Pk )2 le proporzioni di


(G, G), (G, g) , (g, g) della popolazione alla (k + 1)-esima generazione, composta da
N individui. Ci interessa la frazione di alleli recessivi g presenti nella popolazione
che giungerà a riprodursi, cioè
 2 
Pk + 2Pk (1 − Pk ) N = Pk (1 + Qk ) N .

Essi hanno 2Pk (1 + Qk ) N alleli in totale. Ma l’allele g è presente solo negli etero-
zigoti, cioè ve ne sono 2Pk Qk N , dunque la frazione di alleli g nella popolazione della
(k + 1)-esima generazione che giunge a riprodursi è:

2Pk Qk N Qk
Qk+1 = = .
2Pk (1 + Qk ) N 1 + Qk

Otteniamo così un s.d.d. non lineare del primo ordine Qk+1 = f (Qk ) con f fun-
zione di Moebius (si veda il paragrafo 2.7 ed in particolare l’Esempio 2.69). Con la
sostituzione Wk = Q−1k otteniamo la soluzione esplicita

Q0
Qk = . 
1 + kQ0

È opportuno fare qualche considerazione sul principio di selezione. Abbiamo


già osservato che la frazione di g alleli tende a zero, ma lentamente: se, ad
esempio, nella popolazione iniziale vi è solo l’1% di tali alleli, cioè Q0 = 0, 01
allora Q1 = 1/101 = 0, 0099009901 ossia Q1 non è molto diverso da Q0 ; per
Q0 Q0
dimezzare la frazione iniziale (Qk = Q0 /2) occorre risolvere =
2 1 + kQ0
dunque k = 1/Q0 = 100 , cioè occorrono 100 generazioni (circa 2500 anni per
una popolazione umana).
Il principio di selezione è attivo in natura nei casi in cui gli omozigoti (g, g)
sono sterili mentre gli eterozigoti e gli omozigoti (G, G) non lo sono.
Vi è chi ha pensato di applicare il principio di selezione alla specie umana
nel caso di alleli non letali e che non impediscono la riproduzione, ma cor-
rispondono a caratteristiche fisiche o mentali non desiderate in determinati
contesti culturali, cercando di simulare l’effetto descritto con prescrizioni so-
5.2 Applicazioni alla genetica 191

ciali (eugenetica negativa): divieto di avere figli e perfino soppressione della


prole, con l’intento di eliminare dalla popolazione il tratto non desiderato (se
l’allele g è recessivo tale “forzatura” sociale ovviamente poteva essere esercita-
ta solo sugli omozigoti (g, g) prima che vi fosse la possibilità di determinare il
corredo genetico). A prescindere da considerazioni etiche, e dalla soggettività
con cui possono essere considerate non desiderabili determinate caratteristiche
degli individui, le considerazioni quantitative precedenti illustrano il motivo
della totale inefficacia della eugenetica negativa sulla popolazione umana: la
lentezza dell’effetto è tale da rendere certa una variazione dei “gusti” sul-
le caratteristiche desiderate prima che gli effetti risultino rilevanti. A questo
bisogna aggiungere che sul lungo periodo l’ipotesi di assenza di mutazioni
è assai debole. Infine, la differenza biologica è sempre una ricchezza e, in
particolare la varietà genetica in una specie va preservata perché spesso, ca-
ratteri apparentemente insignificanti (e relativamente poco diffusi) si rivelano
sorprendentemente abbinati a maggiori resistenze a determinate patologie.
Esaminiamo infine gli effetti di una mutazione senza vantaggio selettivo; sup-
porremo che nessuno dei due alleli sia dominante e che la probabilità di ripro-
dursi degli individui non dipenda dall’allele.
Siano Pk e Qk rispettivamente la frazione di alleli G e g nella popolazione
alla generazione k prima della mutazione. In assenza di mutazione, avremmo
Pk+1 = Pk e Qk+1 = Qk per la legge di Hardy-Weinberg. Assumiamo invece
che una frazione s ∈ (0, 1) di alleli G muti in alleli g prima della riproduzione.
Ripetendo l’argomento della prova di Hardy-Weinberg, otteniamo:

Pk+1 = (1 − s) Pk ∀k
k
Pk = (1 − s) P0

Riassumendo, abbiamo ottenuto il

Principio di mutazione
Se
1) la frazione di alleli G che mutano in g è s ∈ (0, 1) e non vi è mutazione
di g in G;
2) nessuno degli individui (G, G), (g, g) o (G, g) è avvantaggiato rispetto
agli altri e gli accoppiamenti avvengono in modo casuale;
3) il numero di individui della popolazione è molto grande;
4) non vi sono immigrazioni di geni G o g per effetto di incroci con popo-
lazioni contigue
allora la proporzione di G alleli nella k-esima generazione è
k
Pk = (1 − s) P0 .

Osserviamo che Pk tende a zero ma non così rapidamente come potrebbe


sembrare, perché s è in generale piccolo. Le variazioni sono più rapide se le
generazioni hanno breve durata temporale, come nel caso di alcuni batteri.
192 5 Sistemi dinamici discreti: equazioni vettoriali

Osservazione 5.5. Nei tre esempi precedenti si è dedotta l’evoluzione del vet-
 T
tore Pk Qk dallo studio della quantità scalare Pk , sfruttando la semplice
ed esplicita relazione tra Pk e Qk : Pk + Qk = 1.

Esempio 5.6 (Geni legati al sesso). Le caratteristiche dei singoli individui


(dette fenotipi ) sono determinate dalle caratteristiche genetiche (dette genoti-
pi ). Molti fenotipi sono determinati da coppie di geni, detti alleli. Se un allele
a è dominante mentre l’altro allele è recessivo, allora un individuo presenta il
carattere recessivo α se e solo se entrambi gli alleli della corrispondente coppia
nel suo corredo cromosomico sono recessivi: sono cioè (α, α).
Per taluni caratteri le donne hanno una coppia di alleli, mentre gli uomini ne
hanno uno solo (ereditato dalla madre): questi caratteri sono detti caratteri
legati al sesso. Daltonismo ed emofilia sono esempi (che comportano svan-
taggi, pur non essendo letali) di tali caratteri legati al sesso. Pertanto, se un
uomo eredita l’allele a, presenterà il fenotipo dominante (a), se eredita l’allele
α, presenterà il fenotipo recessivo (α). Poiché gli alleli che corrispondono al
daltonismo o all’emofilia sono entrambi recessivi, vedremo nel seguito come sia
molto più probabile che tali fenotipi (caratteri legati al sesso) si manifestino
nell’uomo che nella donna.
Da una coppia costituita da una donna di genotipo (a, α) ed un uomo (a) (en-
trambi non affetti dalla malattia, perché a è dominante), un eventuale figlio
maschio erediterà al 50% l’allele a o l’allele α dalla madre, e dunque ha il 50%
di probabilità di essere di genotipo (α), cioè di presentare manifestamente la
malattia (fenotipo α); una eventuale figlia femmina avrà con pari probabilità
uno dei due genotipi (a, a) o (a, α) e in ogni caso non manifesterà la malattia
(nel secondo caso, sarà portatrice sana).
Vogliamo studiare l’andamento del carattere nell’arco di più generazioni. Limi-
tatamente alla popolazione femminile nella generazione k, siano Pk la propor-
zione di a alleli e Qk = 1 − Pk la proporzione di α alleli .
Analogamente, siano Pk e Qk le corrispondenti frazioni (con Pk + Qk = 1)
nella popolazione maschile alla generazione k-esima. Siano, rispettivamente,
u, v, w le frazioni nella popolazione femminile alla generazione (k + 1)-esima
di omozigoti dominanti (a, a), eterozigoti (a, α) ed omozigoti recessivi (α, α).
Si deduce ⎧
⎨ u = P k Pk
v = P k Qk + Pk Q k

w = Q k Qk
Se vi sono D donne nella generazione (k + 1)-esima, esse avranno complessiva-
mente 2D alleli del tipo in esame. Gli a alleli sono 2uD (dovuti agli omozigoti
dominanti) più vD (dovuti agli eterozigoti) cioè

(2u + v) D = D (2Pk Pk + Pk Qk + Pk Qk ) =
da Pk +Qk =1=Pk +Qk

= D (Pk Pk + Pk Qk + Pk Pk + Pk Qk ) =
= D (Pk + Pk ) .
5.2 Applicazioni alla genetica 193

La frazione Pk+1 di a alleli nella popolazione femminile alla (k + 1)-esima


generazione è
D (Pk + Pk ) 1
Pk+1 = = (Pk + Pk ) .
2D 2
Venendo agli uomini, che hanno un solo allele, la frazione di essi che possiede
l’allele a (rispettivamente α) nella generazione k coincide con la proporzione di
alleli a (rispettivamente α) nella stessa generazione, cioè Pk (rispettivamente
Qk ).
Per passare alla frazione di uomini con allele dominante alla generazione k +
1 occorre calcolare la probabilità che un uomo erediti l’allele dominante a.
Poiché lo eredita da una donna della generazione k, risulta

Pk+1 = Pk Qk+1 = Qk .

Riassumendo, la frazione di a allele (dominante) tra uomini e donne verifica


il sistema dinamico discreto vettoriale ad un passo

⎨ Pk+1 = 1 (Pk + Pk )
2

Pk+1 = Pk

1◦ metodo di analisi dell’Esempio 5.6


Per sostituzione, ci riduciamo ad un sistema dinamico discreto scalare a due
passi (sostituiamo k +1 a k nella prima equazione, poi utilizziamo la seconda):

1 1 1
Pk+2 = (Pk+1 + Pk+1 ) = Pk+1 + Pk
2 2 2
ossia

2Pk+2 − Pk+1 − Pk = 0

L’equazione caratteristica 2λ2 − λ − 1 = 0 ammette le soluzioni λ1 = 1 e


λ2 = −1/2; quindi
 k
1
P k = c 1 + c2 − ∀k ∈ N .
2

Imponendo le condizioni iniziali P0 e P1 ricaviamo poi



 ⎪
P 0 = c 1 + c2 ⎨ c1 = P0 + 2P1
1 ⇒ 3
P 1 = c1 − c 2 ⎪ 2
2 ⎩ c 2 = (P 0 − P1 )
3
194 5 Sistemi dinamici discreti: equazioni vettoriali

Osserviamo che
P0 + 2P1
lim Pk = c1 = .
k 3
Poiché l’attuale popolazione è il risultato del succedersi di molte generazioni
precedenti, possiamo assumere k grande, e dunque Pk = c1 l’attuale frazio-
ne di alleli dominanti nell’attuale popolazione femminile (in questi discorsi il
“dato iniziale” è privo di significato).
k−1
Poiché anche Pk = Pk−1 = c1 + c2 (−1/2) è prossimo a c1 , possiamo rite-
nere Pk = c1 sia l’identico valore della frazione di alleli a nella popolazione
maschile.
Dunque, la frazione di allele dominante a (rispettivamente allele recessivo α)
si stabilizza su un valore c1 = r (rispettivamente 1 − r) sia per la popolazione
maschile sia per la popolazione femminile. Ne segue che in ciascuna gene-
razione le frazioni di omozigoti dominanti, eterozigoti ed omozigoti recessivi
nella popolazione femminile sono, rispettivamente,
2
u = r2 v = 2r (1 − r) w = (1 − r) .

Per un particolare tipo di daltonismo, la frazione di α allele, e corrisponden-


temente la proporzione di maschi che presentano tale problema visivo risulta
circa 1 − r = 0, 01. Invece, la frazione di donne con la stessa patologia è
2 2
(1 − r) = (0, 01) = 0, 0001.

2◦ metodo di analisi dell’Esempio 5.6


Posto ( ) ( )
P 1/2 1/2
X= M=
P 1 0
il vettore frazione di allele dominante delle popolazioni femminile e maschile
è una successione di valori che verifica il sistema dinamico discreto vettoriale

Xk+1 = M Xk

la cui soluzione è
Xk = Mk X0
 T
con X0 = P0 P0 . L’equazione caratteristica det (M − λI) = 0, cioè

2λ2 − λ − 1 = 0

ammette le soluzioni

λ1 = 1 λ2 = −1/2 .

Un autovettore V1 relativo a λ1 è una soluzione del sistema lineare omogeneo


5.2 Applicazioni alla genetica 195

(M − λ1 I) V1 = 0 ossia, in componenti

⎪ 1 1
⎨ − V11 + V12 = 0
2 2 ⇒ V11 = V12 .


V11 − V12 = 0
 T
Scegliamo V1 = 1 1 .
Analogamente, un autovettore V2 relativo all’autovalore λ2 risolve il sistema
lineare omogeneo (M − λ2 I) V2 = 0 ossia, in componenti
⎧ 1


⎨ V11 + 2 V12 = 0 1
⇒ V11 = − V12 .

⎪ 2
⎩V + 1V = 0
11 12
2
 T
Scegliamo V2 = −1 2 .
Per calcolare M X0 , scriviamo dapprima X0 come combinazione lineare di
k

V1 e V2 :
X0 = c1 V1 + c2 V2 c 1 , c2 ∈ R
(le costanti c1 e c2 esistono e sono uniche); ne segue (vedi la (5.3))
 k
1
Xk = Mk X0 = c1 V1 + c2 − V2 .
2
k
Poiché lim (−1/2) = 0, si ricava
k
( )
1
lim Xk = c1 V1 = c1 .
k 1
 T
Dato che Xk = Pk Pk , si riottiene la conclusione che
1
lim Pk = lim Pk = c1 = (P0 + 2P1 )
k k 3
cioè dopo molte generazioni, le due frazioni si stabilizzano e sono uguali fra lo-
ro. La selezione genetica non elimina completamente le malattie recessive che
non risultano letali prima del raggiungimento dell’età riproduttiva. Abbiamo
già osservato che la diversità biologica è un fatto positivo per il patrimo-
nio genetico di una specie in quanto a volte allo stesso genotipo recessivo si
accompagnano più caratteri del fenotipo, solo alcuni dei quali comportano
svantaggi biologici. Un esempio classico a tale rigurado è dato dalla resistenza
alla malaria associata alla talassemia o anemia mediterranea.

Osservazione 5.7. Il fatto di avere due metodi di analisi (scalare a più passi
o vettoriale ad un passo) è di natura generale.
196 5 Sistemi dinamici discreti: equazioni vettoriali

Più precisamente: un’equazione scalare lineare, omogenea, di ordine n

Xk+n + an−1 Xk+n−1 + an−2 Xk+n−2 + · · · + a0 Xk = 0 a0 = 0

con assegnate condizioni iniziali X0 , X1 , . . . , Xn−1 , è equivalente, come si può


verificare per semplice sostituzione, al sistema lineare ad un passo

Vk+1 = FVk
 T
con dato iniziale V0 = X0 X1 · · · Xn−1 , dove
⎡ ⎤
0 1 0 0 ··· 0
⎢ 0 0 1 0 ··· 0 ⎥
⎢ ⎥
⎢ 0 0 0 1 · · · 0 ⎥  T
⎢ ⎥
F=⎢ . Vk = Xk Xk+1 · · · Xk+n−1
.. ⎥
. . . . . .
⎢ .. .. .. .. .. ⎥
⎢ ⎥
⎣ 0 0 0 0 ··· 1 ⎦
−a0 −a1 −a2 −a3 · · · −an−1

Ovviamente, il polinomio caratteristico è lo stesso (a meno del segno!) e per


questo è indicato con lo stesso nome. F è detta forma elementare di Frobenius.
Viceversa, ogni s.d.d. vettoriale di dimensione n, Vk+1 = MVk , con
det M = 0 e tutti gli autovalori della matrice M che hanno molteplicità geo-
metrica 1 (non si esclude che alcune molteplicità algebriche siano maggiori di
1) può essere trasformato in una “equazione lineare omogenea ad n passi”

n
Zk+n = − bn−j Zk+n−j (5.4)
j=1

con condizioni iniziali

Z0 = W0 Z1 = W1 ... Zn−1 = Wn−1 .

Il polinomio ⎛ ⎞

n
P (λ) = (−1)n ⎝λn + bn−j λn−j ⎠
j=1

è il polinomio caratteristico di M calcolato in λ e W = U V0 dove


⎡ ⎤
0 1 0 0 ··· 0
⎢ 0 0 1 0 ··· 0 ⎥
⎢ ⎥
⎢ 0 0 0 1 ··· 0 ⎥
⎢ ⎥
U M U−1 = ⎢ . .. .. .. . . .. ⎥ .
⎢ .. . . . . . ⎥
⎢ ⎥
⎣ 0 0 0 0 ··· 1 ⎦
−b0 −b1 −b2 −b3 · · · −bn−1

Si noti che (5.4) è una vera equazione ad n passi perché b0 = (−1)n det M = 0.
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari 197

In presenza di autovalori con molteplicità geometrica maggiore di 1 il s.d.d.


vettoriale Vk+1 = MVk non è equivalente ad una singola equazione ad n
passi (perché ogni matrice in forma elementare di Frobenius ha solo autova-
lori con molteplicità geometrica esattamente uguale a 1), tuttavia il sistema
vettoriale si disaccoppia in più equazioni ciascuna delle quali è equivalente ad
una singola equazione a più passi e la somma del numero di passi delle varie
equazioni è uguale ad n.
Dunque, non è vero in generale che un qualsiasi sistema lineare vettoriale ad
un passo Vk+1 = MVk sia riconducibile ad una equazione scalare, lineare di
ordine n: ad esempio, se n > 1 allora In non è simile ad una matrice nella
forma elementare di Frobenius.
Nei casi in cui sono disponibili entrambe le formulazioni equivalenti (vettoriale
ad 1 passo e scalare ad n passi) ci si può chiedere quale su quale sia il meglio
operare: in realtà non c’è differenza sostanziale. Tuttavia, la struttura ad un
passo (equazione vettoriale) è più naturale in molti problemi e in dimensio-
ne alta è più semplice la trattazione diretta del sistema vettoriale al fine di
ottenere informazioni qualitative sulle soluzioni.
In ogni caso, se la dimensione n del vettore è grande, allora le radici del poli-
nomio caratteristico non sono calcolabili esattamente ma possono essere solo
stimate.

5.3 Stabilità di sistemi dinamici discreti vettoriali lineari

Torniamo ad esaminare il caso generale del sistema dinamico discreto


vettoriale, lineare, omogeneo, ad un passo (di dimensione n):
Xk+1 = M Xk ∀k ∈ N (5.5)
e supponiamo che λj ∈ C, j = 1, 2, . . . , n, siano gli autovalori di M.
È naturale definire equilibrio di (5.5) ogni soluzione V ∈ Rn di V = MV,
cioè gli autovettori di M associati all’autovalore 1 e, ovviamente, l’origine di
Rn , che è sempre un equilibrio perché 0 = M 0 per ogni M.
Le definizioni di stabilità e attrattività di un equilibrio si ottengono adat-
tando al caso vettoriale le Definizioni 3.36 - 3.39 date nel caso scalare: ba-
sta sostituire il modulo (dove è presente) con la norma euclidea. Osserviamo
esplicitamente che nel caso vettoriale lineare l’attrattività locale coincide con
l’attrattività globale, in particolare un equilibrio del s.d.d. (5.5) è globalmente
asintoticamente stabile se e solo se è localmente asintoticamente stabile.
Una soluzione X di (5.5) si dice orbita periodica di (minimo) periodo s ∈ N
del s.d.d. (5.5) in Rn se Xk+s = Xk ∀k ed i vettori X0 , X1 , Xs−1 sono diversi
fra loro.
Teorema 5.8. Se |λj | < 1 per ogni autovalore λj di M, allora 0 è l’unico equi-
librio del s.d.d. e tutte le soluzioni di (5.5) per qualunque condizione iniziale
X0 verificano
lim Xk = 0 .
k
198 5 Sistemi dinamici discreti: equazioni vettoriali

In tal caso l’equilibrio 0 è stabile ed attrattivo.


Se esiste un autovalore λj t.c. |λj | > 1, allora 0 non è né attrattivo né stabile:
la dinamica esibisce alcune orbite divergenti in norma.

Prova. Se esiste una base di autovettori Vj di M, allora, per ogni X0 , esistono (e


sono uniche) n costanti c1 , . . . , cn tali che


n
X0 = cj V j
j=1
 
k k

n
j

n
n
Xk = M X0 = M cj V = cj Mk Vj = cj λkj Vj . (5.6)
j=1 j=1 j=1

Così
2 2
2 n 2
2 k j2 disuguaglianza triangolare
lim Xk Rn = lim 2 cj λj V 2 ≤
k k 2 2
j=1
n 2
2
2 k j2 omogeneità della norma
≤ lim 2cj λj V 2 =
k
j=1
n 
2 2  
2 2 
= lim |cj | 2Vj 2 λkj  = teorema limite somma
k
j=1

n 2 2
2 2
= |cj | 2Vj 2 lim |λj |k = 0.
k
j=1

Se non esiste una base di autovettori, la prova è più tecnica ma il risultato continua
a valere. Si considera una base di Rn associata alla forma canonica di Jordan (Ap-
pendice D): tale base è costituita da autovettori generalizzati; esplicitamente, sono
soluzioni di (M − λj In )mj W = 0 dove mj è la molteplicità algebrica di λj .
M si decompone come M = S + T, dove S è diagonale (i termini sulla diagonale
sono gli autovalori) e T è nilpotente, perciò ST = TS, e si può facilmente esplicitare
l’espressione della potenza k-esima di M:

k (k − 1) k−2 2
Mk = Sk + kSk−1 T + S T + · · · + kSTk−1 + Tk . (5.7)
2
Si noti che nella (5.7), per ogni k, possono essere diversi da O al più i primi n
addendi4 .
Dunque, la soluzione Xk si esprime come combinazione lineare finita degli autovet-
tori generalizzati W j a coefficienti dipendenti dalla rappresentazione di X0 nella
base di Jordan, moltiplicati per kh λk−h
j con 0 ≤ h ≤ n. Dunque, anche in que-
sto caso, vale limk→+∞ Xk  = 0 per ogni dato iniziale X0 , grazie all’implicazione
|λ| < 1 ⇒ lim kn λk = 0. 
k

4
Infatti: Tm = O se m è la massima dimensione di un sottoblocco di Jordan, e vale
m ≤ n.
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari 199

a b

0 1 0 1
0, 5 0 0 −0, 5
Fig. 5.1. Illustrazione del Teorema 5.8: a) , b)
0 0, 3 0, 5 0

Osservazione 5.9. Esplicitando l’argomento della dimostrazione precedente


nel caso di matrice M non diagonalizzabile, a partire da (5.7) si può provare
che, indicati con Wj,i,r gli autovettori generalizzati di M nella base di Jordan,
ove
j = 1, . . . , J ;
J è il numero degli autovalori distinti di M ;
i = 1, . . . , Jj ;
Jj è il numero dei sottoblocchi di Jordan relativi all’autovalore λj ;
r = 1, . . . , si ;
si è la dimensione dell’i-esimo sottoblocco di Jordan relativo a λj ;
Jj
mj = si è la molteplicità algebrica dell’autovalore λj ,
i=1

allora da

J  
Jj si
X0 = cj,i,r Wj,i,r
j=1 i=1 r=1
e
MWj,i,r = λj Wj,i,r + Wj,i,r+1 r < si
MWj,i,si = λj Wj,i,si
si esplicita il termine generale definito da Xk = Mk X0 :
Jj si min(si ,k)  

J    k
Xk = λk−h+1 cj,i,r−h+1 Wj,i,r .
r=1
h − 1 j
j=1 i=1 h=1
Tale espressione si riduce alla (5.6) nel caso (diagonalizzabile) in cui vale
mj = 1 per ogni j.
Senza sviluppare in dettaglio l’analisi qualitativa delle traiettorie corrispon-
denti alle soluzioni del s.d.d. lineare omogeneno Xk+1 = M Xk , possiamo
200 5 Sistemi dinamici discreti: equazioni vettoriali

dire che i modi naturali delle soluzioni (potenze intere dell’autovalore, dalle
cui combinazioni lineari vettoriali è costituita la soluzione generale) hanno
un andamento qualitativo che dipende solo dalla posizione del corrispondente
autovalore nel piano complesso. In particolare, si ha convergenza a zero se
|λ| < 1, divergenza all’infinito se |λ| > 1, mentre |λ| = 1 assicura la limitatez-
za. Alla luce dell’Osservazione 5.7, la Fig. 2.7 fornisce informazioni qualitative
anche sui modi naturali del caso vettoriale in esame.
Esempio 5.10. Se M è una matrice di ordine 2 con un solo autovalore λ di
molteplicità algebrica 2 e geometrica 1, allora M non è diagonalizzabile. Sia V
un autovettore di M di norma 1 e sia U tale che (M − λIn ) U = V ed U = 1.
Allora U è un autovettore generalizzato indipendente da V ed M è nella forma
di Jordan rispetto alla base {V, U}. Infine, se X0 = aV + bU, allora
 
Xk = aλk + bkλk−1 V + bλk U 
Analizziamo ora i casi in cui gli autovalori λj non sono strettamente minori di
1 in modulo, ma verificano solo la disuguaglianza |λj | ≤ 1. Osserviamo che gli
equilibri sono caratterizzati dalla condizione X = M X e dunque sono tutti
gli autovettori dell’eventuale autovalore λ = 1. Limitiamoci, per semplicità,
al caso n = 2 ed M reale. Nel seguito è fissato
X0 = c1 V1 + c2 V2
dove V1 e V2 sono autovettori generalizzati (in particolare, almeno V2 è sem-
pre autovettore) di M corrispondenti alla base associata alla forma canonica
di Jordan.

1) Se λ1 = 1, |λ2 | < 1, allora tutto lo spazio generato da V1 è costituito da


equilibri e la soluzione è
Xk = c1 V1 + c2 λk2 V2
e poiché lim λ2k = 0, risulta
k
lim Xk = c1 V1
k

dove c1 dipende solo dal valore iniziale. 0 è un equilibrio stabile ma non at-
trattivo poiché le soluzioni possono avere come limite qualunque multiplo di
V1 , e tali multipli sono tutti equilibri.
Questo è il caso dell’Esempio 5.6.
2) Se λ1 = −1, |λ2 | < 1, ragionando come sopra, da λk2 → 0 segue
Xk ∼ c1 (−1) V1 .
k

La traiettoria di Xk approssima una traiettoria 2 periodica che, tramite c1 ,


dipende da X0 .
3) Se λ1 = 1, λ2 = −1, abbiamo
Xk = c1 V1 + c2 (−1) V2
k
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari 201

cioè: un equilibrio, se c2 = 0; un’orbita di periodo 2 (o 2 ciclo) dipendente,


tramite c1 e c2 , da X0 , se c2 = 0.
4) Se λ1 = a + ib e λ2 = a − ib, a e b numeri reali tali che a2 + b2 = 1, allora
esiste θ ∈ [0, 2π) tale che
( ) ( )
a −b cos θ − sin θ
M= = .
b a sin θ cos θ
M è dunque una matrice di rotazione (cioè moltiplicare a sinistra un vettore
V ∈ R2 per M significa ruotarlo positivamente di un angolo di θ radianti).
Dunque, se θ = 2πk/h con k, h ∈ Z primi fra loro, allora Xk ha un compor-
tamento periodico di periodo |h|, cioè
Xk+l|h| = Xk ∀l ∈ N;
inoltre, Xk  = X0 , ∀k ∈ N.
Se non esistono tali h, k non si ha periodicità, ma comunque tutti gli Xk appar-
tengono alla stessa circonferenza: Xk  = X0 , ∀k ∈ N; inoltre si potrebbe
provare che in tal caso ogni traiettoria è densa in questa circonferenza.

5) Se λ1 = λ2 = 1 ed esistono due autovettori V1 e V2 linearmente indipen-


denti, allora
Xk = c1 V1 + c2 V2 = X0 ∀k ∈ N.

6) Se λ1 = λ2 = −1 ed esistono due autovettori V1 e V2 linearmente


indipendenti, allora
Xk = c1 (−1) V1 + c2 (−1) V2 = (−1) X0
k k k
∀k ∈ N.

7) Se λ1 = λ2 = 1 e ( )
10
M= a = 0
a1

X1

X2 X0 = X6

X3 X5

X4
# $T
Fig. 5.2. Esempio di orbita (caso 4) : θ = π/3, X0 = cos (π/6) sin (π/6)
202 5 Sistemi dinamici discreti: equazioni vettoriali

allora ( ) ( ) ( )
1 0 1 0
V1 = V2 = Mk =
0 1 ka 1
e da X0 = c1 V1 + c2 V2 , si ottiene la soluzione seguente, che può essere
illimitata:
( )
0
Xk = Mk X0 = c1 V1 + c2 V2 + ka =
c1 V11 + c2 V12
= c1 V 1 + c 2 V 2 + c 1 a k V 2 .

8) Se λ1 = λ2 = −1 e
( ) ( )
−1 0 10
M= = (−1) a = 0
a −1 −a 1
tenendo conto che
( ) ( ) ( )
1 0 10
V1 = V2 =
k
Mk = (−1)
0 1 −ka 1
da X0 = c1 V1 +c2 V2 si ottiene la soluzione seguente, che può essere illimitata:
 ( )
0
Xk = Mk X0 = (−1)k c1 V1 + c2 V2 − ka =
  c1 V11 + c2 V12
= (−1)k c1 V1 + c2 V2 − c1 a k V2 .
Le conclusioni relative agli ultimi due casi seguono dalla seguente decompo-
sizione M = S + T con S matrice diagonale e T matrice nilpotente; poiché
ST = TS e T2 = O, si dimostra agevolmente (si veda l’Esercizio 5.7) che
Mk = Sk + kTSk−1.
Invece, se esiste un λj tale che |λj | > 1, allora esistono soluzioni illimitate; ad
esempio, con X0 = Vj (autovettore relativo a λj ), si deduce
8 8
Mk X0 = Mk Vj = λk X0 ej lim 8Mk X0 8 = +∞ ,
k

e, per avere maggiori informazioni si può studiare Yk = μ−k Xk dove si è po-


sto μ = maxj |λj | > 1. In tal caso, Yk rientra nei casi studiati in precedenza
e si possono dedurre informazioni qualitative sul comportamento di Xk per k
“grande”.
Nel caso di s.d.d. vettoriali bidimensionali Xk+1 = MXk , con M matrice di
ordine 2, è ancora possibile ricorrere all’analisi grafica per rappresentare le
traiettorie: se ne può dare una rappresentazione prospettica nello spazio a
tre dimensioni (t, X1 , X2 ) come in Fig. 5.4a, oppure considerare (Fig. 5.4b) le
proiezioni sul piano (X1 , X2 ), detto piano delle fasi, come nella Fig. 5.3 che
sintetizza i risultati dell’analisi precedente.
Esercizio 5.2. Determinare la soluzione del s.d.d. vettoriale Xk+1 = MXk con
0 1 0 1 0 1
11 10 11
1) M = , 2) M = , 3) M = .
01 01 11
5.3 Stabilità di sistemi dinamici discreti vettoriali lineari 203

Nodo stabile 0 < λ2 < λ1 < 1 Nodo instabile λ1 > λ2 > 1

Sella 0 < λ1 < 1 < λ2 (MI diagonale) Nodo 0 < λ1 = λ2 < 1

Nodo degenere 0 < λ2 < λ1 = 1 (MI triangolare inf.) Nodo 0 < λ1 = λ2 < 1

Fig. 5.3a. Traiettorie di s.d.d. bidimensionali lineari nel piano delle fasi: λ1 , au-
tovalori della matrice reale M; assi orizzontale e verticale orientati rispettivamente
come i corrispondenti autovettori generalizzati V1 e V2 . Si noti che nell’ottavo e
nono diagramma la divergenza o convergenza delle traiettorie procede in senso ora-
rio; tuttavia poiché l’autovalore ha molteplicità geometrica 2, è lecito scambiare V1
con V2 nella rappresentazione grafica: in tal modo si l’andamento è antiorario
204 5 Sistemi dinamici discreti: equazioni vettoriali

(MI triangolare inf.) Nodo λ1 = λ2 = 1 (λ non reale) Fuoco stabile |λ| < 1

(λ non reale) Fuoco instabile |λ| > 1 (λ non reale) Centro |λ| = 1

Fig. 5.3b. Continua

t X2

X1
X1 X2

(a) (b)

Fig. 5.4. (a) Grafico di una traiettoria, (b) una traiettoria nel piano delle fasi
5.4 Matrici strettamente positive e Teorema di Perron-Frobenius 205

5.4 Matrici strettamente positive e Teorema di


Perron-Frobenius

In questo paragrafo proviamo un risultato teorico sulle proprietà algebriche


delle matrici con tutti gli elementi positivi. Tale risultato sarà utile nelle
applicazioni demografiche del paragrafo successivo.
Un sistema dinamico discreto, lineare positivo è un sistema
Xk+1 = MXk k∈N (5.8)
in cui tutte le componenti di Xk sono non negative per ogni valore di k. Que-
sta situazione si verifica, ad esempio, se si parte da un dato X0 a componenti
non negative e tutti gli elementi di M sono positivi, ed è tipica di molte ap-
plicazioni economiche, gestionali, demografiche e della teoria dei giochi. Le
proprietà di non negatività della matrice M hanno conseguenze profonde ed
eleganti; il risultato centrale è il Teorema di Perron-Frobenius5 , che assicu-
ra che, se mij > 0 per ogni i, j, allora tutte le traiettorie del sistema (5.8)
hanno lo stesso comportamento asintotico. Per svolgere un’analisi accurata,
precisiamo la definizione di positività di una matrice.
Definizione 5.11. Una matrice M = [mij ] è
M ≥ O, debolmente positiva o non negativa, se mij ≥ 0 per ogni i, j
M > O, positiva, se mij ≥ 0 per ogni i, j e mij > 0 per almeno una coppia
di indici i, j
M O, strettamente positiva, se mij > 0 per ogni i, j. 6
Analogamente, un vettore V si dice non negativo, positivo o strettamente po-
sitivo se, rispettivamente, Vj ≥ 0 per ogni j, V è non negativo ed esiste j tale
che Vj > 0, per ogni j, Vj > 0, per ogni j.

Teorema 5.12 (Perron-Frobenius). Se M O, allora il suo autovalo-


re di massimo modulo (detto autovalore dominante) risulta essere unico,
reale, maggiore di zero e semplice (algebricamente e, dunque, geometricamen-
te); inoltre, esiste un autovettore strettamente positivo VM associato a tale
autovalore λM > 0.

Teorema 5.13. Siano M > O ed h ∈ N tale che Mh O. Allora vale la tesi


del Teorema di Perron-Frobenius per M.

5
Oskar Perron (1880–1975), Ferdinand Georg Frobenius (1849–1917)
6
Il lettore è invitato a non confondere una matrice positiva con una matrice defi-
nita positiva: si confronti la Definizione 5.11 con quella di matrice definita positiva
riportata nell’Appendice
0 1D. 0 1
2 −1 12
Ad esempio, è definita positiva ma non è positiva. Viceversa, è
−1 2 21
strettamente positiva ma non è definita positiva.
206 5 Sistemi dinamici discreti: equazioni vettoriali

Teorema 5.14. Sia M ≥ O. Allora esiste un autovalore λ ≥ 0 verificante


|μ| ≤ λ per ogni autovalore μ di M e tale che a λ corrisponde un autovettore
V > 0. Ne segue l’unicità di tale autovalore, che viene indicato con λM e
viene denominato autovalore dominante anche in questo caso.

Osserviamo esplicitamente che VM è univocamente determinato (a meno di


multipli positivi) se valgono le ipotesi del Teorema 5.12 o 5.13. Invece se va-
le l’ipotesi del Teorema 5.14 vi possono essere autovettori positivi associati
all’autovalore dominante λM linearmente indipendenti (la molteplicità geome-
trica di λ può essere maggiore di 1): basta considerare l’esempio della matrice
identità in 2 dimensioni.
I tre teoremi precedenti molto “fini”, come illustrato dagli esempi seguenti. La
loro dimostrazione è rinviata alla fine del paragrafo.
( )
1 1
Esempio 5.15. Se M = allora M O e per il Teorema 5.12 esiste un
1 1
autovalore dominante positivo e semplice (λM = 2) con autovettore stretta-
 T
mente positivo 1 1 . 
( )
1 1
Esempio 5.16. La matrice A = non è strettamente positiva, tuttavia
1 0
A2 O e per il Teorema 5.13  esiste
√  un autovalore dominante strettamente
positivo semplice λM = 12 1 + 5 , con autovettore strettamente positivo
1 √  T
2
1+ 5 1 . 
( ) ( ) ( )
10 01 00
Esempio 5.17. Siano B = , D= , E= . Nessuna delle tre
01 10 10
matrici ha una potenza strettamente positiva, dunque non si posono applica-
re i Teoremi 5.12 e 5.13, tuttavia il Teorema 5.14 si applica. B ha autovalore
dominante positivo λB = 1 che non è semplice ed ha molteplicità algebrica e
geometrica uguale a 2. D ha due autovalori di massimo modulo (±1). E ha au-
tovalore dominante λE = 0 che ha molteplicità algebrica pari a 2 e geometrica
pari ad 1. 
Teorema 5.18. Se M O, oppure M > O ed esiste h tale che Mh O, al-
lora tutte le traiettorie di
Xk+1 = MXk
verificano
−k
(λM ) Xk = cM VM + σ (k)
(5.9)
M
dove λM è l’autovalore dominante di M , V 0 il corrispondente autovet-
tore dominante (vedi Teoremi 5.12 e 5.13), cM è il coefficiente di X0 lungo
la componente VM rispetto alla base di Jordan di M e σ (k) è un infinitesimo
per k → +∞.
5.4 Matrici strettamente positive e Teorema di Perron-Frobenius 207

Prova. Siano λM e VM rispettivamente l’autovalore dominante semplice e positivo ed


il corrispondente autovettore positivo di M, la cui esistenza è assicurata dai Teoremi
5.12 e 5.13. 
Se X0 = cM VM + j cj Vj dove Vj sono autovettori generalizzati che con VM
formano una base di Rn , allora

Xk = cM λM k VM + Wk

dove il vettore Wk è una somma finita (a coefficienti indipendenti da k) di termini


a crescita al più kn λkj , con |λj | < |λM |.
Pertanto possiamo scrivere λM −k Xk = cM VM + σ (k). 

Il teorema precedente riduce l’analisi del comportamento di lungo periodo del-


le traiettorie al calcolo dell’autovalore ed autovettore dominanti (e viceversa:
dalla eventuale conoscenza delle serie storiche di una grandezza generata da
un sistema lineare strettamente positivo, si possono avere stime dell’autova-
lore dominante e dell’autovettore dominante). Questi fatti sono precisati nel
Teorema seguente.
Teorema 5.19. Se X0 > 0 e M O (o X0 > 0, M > O ed ∃h : Mh O),
allora la soluzione X del s.d.d. vettoriale Xk+1 = MXk , k ∈ N, con dato
iniziale X0 , tende ad allinearsi con il corrispondente autovettore dominante
VM O di M :
Xk VM
lim = . (5.10)
k Xk  VM 
T
Inoltre l’autovettore dominante VM 0 di MT è ortogonale ad ogni auto-
vettore di M diverso da VM e ad ogni autovettore generalizzato di M diverso
da VM ; infine, se cM è il coefficiente VM nello sviluppo di X0 rispetto alla base
di Jordan di M, allora vale
cM > 0 . (5.11)

Prova. Basta provare che


T
VM ⊥ V ∀ V autovettore generalizzato di M diverso da VM . (5.12)

Infatti (5.12) implica che lo spazio generato da tutti gli autovettori generalizzati di
M diversi da VM interseca l’“ottante” {X ∈ Rn : X ≥ 0} solo in 0, dunque X0 > 0
implica (5.11). Infine (5.10) è una immediata conseguenza di (5.11) e del Teorema
5.18. Rimane dunque da provare la (5.12).
Se λj è un autovalore diverso da λM e Vj è il corrispondente autovettore, si ottiene:
T T T
λj  Vj , VM  =  M Vj , VM  =  Vj , MT VM  =
T T
= λM  Vj , VM  = λM  Vj , VM  ,
T
ne segue  Vj , VM  = 0 poiché λj = λM .
Se gli autovettori di M non formano una base, si consideri la base di Jordan costitui-
ta da autovettori generalizzati di M ; in tal caso, per ogni fissato blocco massimale di
208 5 Sistemi dinamici discreti: equazioni vettoriali

Jordan B di dimensione r corrispondente all’autovalore λj (con riferimento al Teo-


rema D.6 ed alla Fig. D.2 dell’Appendice D, si noti che ad ogni autovalore possono
corrispondere più blocchi di Jordan) ordiniamo ed etichettiamo la sottobase relativa
a tale blocco B come segue:

Vj−r+1 , Vj−r+2 , . . . , Vj−1 , Vj con Vj autovettore,

dunque

MVj = λj V , MVj−s = λj Vj−s + Vj−s+1 , s = 1, . . . , r − 1 . (5.13)


T
Se ne deduce: Vj−r+1 , Vj−r+2 , . . . , Vj−1 , sono tutti ortogonali a VM . Infatti
T
sappiamo che Vj è ortogonale a VM , dunque basterà procedere per induzione pro-
MT T
vando che V j−s+1
⊥V implica Vj−s ⊥VM . Questa implicazione si prova come
segue: da (5.13) segue λj V j−s
= MV j−s
− Vj−s+1 e
T T T
λj  Vj−s , VM  =  M Vj−s − Vj−s+1 , VM  =  M Vj−s , VM  =
T T T
=  Vj−s , MT VM  = λM  Vj−s , VM  = λM  Vj−s , VM 

T
che implica  Vj−s , VM  = 0 poiché λj = λM . 

Prova del Teorema di Perron-Frobenius. Nel seguito le disuguaglianze fra vettori


vanno intese nel senso di confronto con 0 della differenza, cioè:

V ≥ W ⇔ V−W ≥ 0 ; V > W ⇔ V −W > 0; V W ⇔ V−W 0.

Sia
λM = max {λ ∈ R : ∃X > 0 tale che MX ≥ λX} . (5.14)
Si noti che l’insieme di cui si calcola il massimo è non vuoto (contiene λ = 0), chiuso
(si possono scegliere sempre gli X in modo tale che X = 1) e limitato:
   

(MX)j = Mji Xi ≤ Mij max Xi ≤ Mij max Xi ⇒ λ≤ mij .
i i
i i i,j i,j

Dunque, tale λM esiste e verifica

0 ≤ λM < +∞.

Fino a questo punto è stata usata solo l’ipotesi M ≥ O. Se, inoltre, M  O allora
λM ≥ minj Mjj > 0. Dunque 0 < λM < +∞.
Sia VM > 0 tale che MV M ≥ λM VM .
(I) Proviamo che λM è un autovalore e VM è il corrispondente autovettore che
verifica VM  0.
Poiché M  O segue MX  0 per ogni X > 0, dunque
 
M MVM −λM VM  0 oppure MVM = λM VM .
5.4 Matrici strettamente positive e Teorema di Perron-Frobenius 209

Se MVM > λM VM , allora Y = MVM > 0 e dunque MY  λM Y. Allora λM potrebbe


essere leggermente aumentato contraddicendo la sua definizione come massimo.
Dunque vale MVM = λM VM .
Inoltre, poiché VM > 0 implica MVM 0, allora MVM = λM VM implica VM  0.
(II) Proviamo che |λ| < λM per ogni autovalore λ di M.
Sia λ = λM un autovalore di M ed Y = 0 l’autovettore corrispondente a λ. Defi-
 di componenti Yj = |Yj | , con j = 1, · · · , n, e consideriamo il
niamo il vettore Y

vettore MY di componenti:
 
MY = mj1 |Y1 | + mj2 |Y2 | + · · · + mjn |Yn | ≥ |mj1 Y1 + mj2 Y2 + · · · + mjn Yn |
j

cioè

 ≥ (MY)
MY

MY  = |λ| Y
 ≥ (λY) 
e dalla definizione di λM segue |λ| ≤ λM . Per provare la disuguaglianza stretta, con-
sideriamo la matrice Mδ = M − δIn dove δ > 0 è scelto in modo tale che Mδ  O
1
(ad esempio, ponendo δ = minij mij ).
2
Dall’identità (μ − δ) In − Mδ = μIn − M, per ogni μ ∈ C, segue che (λM − δ) e
(λ − δ) sono autovalori di Mδ . Inoltre, per la stretta positività di Mδ , vale

|λ − δ| ≤ λM − δ (5.15)

poiché λM − δ è il massimo autovalore di Mδ .


Se |λ| = λM e λ = λM si ha una contraddizione con (5.15). Si è usato il fatto (illustra-
to in Fig. 5.5) che la sottrazione di una quantità positiva da un numero complesso
riduce maggiormente (a parità di modulo) il modulo del numero reale positivo.
(III) Proviamo che λM ha molteplicità geometrica uguale ad 1.
Supponiamo per assurdo che esista un altro autovettore Y linearmente indipenden-
te da VM . Dalla disuguaglianza VM  0 segue l’esistenza di una costante reale α
tale che, posto W = αVM +Y si abbia W > 0 ma non valga W  0. Tuttavia, da
M  O segue λM W = MW  0 che è una contraddizione.

λ−δ λ

−δ 0 λMI − δ λMI

Fig. 5.5. |λ| = λM = λ e δ > 0 ⇒ |λ − δ| > λM − δ


210 5 Sistemi dinamici discreti: equazioni vettoriali

(IV) Proviamo che λM ha molteplicità algebrica pari ad 1.


Supponiamo per assurdo che la molteplicità algebrica di λM sia maggiore di
1. Abbiamo allora almeno due autovettori generalizzati VM e U associati a
λM tali che

(M − λM In ) U = VM
(M − λM In ) VM = 0.

Sia W l’unico autovettore strettamente positivo di MT corrispondente a λM ,


allora  T 
M − λM In W = 0 WT (M − λM In ) = 0
9 :
0 = WT (M − λM In ) U = W, VM

che è una contraddizione perché VM 0eW 0.


Si osservi che si è implicitamente provato anche l’enunciato del Teorema 5.14
con una tesi lievemente diversa: autovettore VM debolmente positivo; ma un
autovettore per definizione non può essere nullo, il che prova completamente
la tesi del Teorema 5.14.
Per provare il Teorema 5.13 basta osservare che A = Mh verifica le ipotesi√ del
Teorema 5.12 e tra gli autovalori di M ed A intercorre la relazione λM = h λA .
Dalla precedente dimostrazione segue anche l’informazione che la (5.14), detta
formula di Collatz-Wielandt, fornisce il valore dell’autovalore dominante:
λM = max {λ ∈ R : ∃X > 0 tale che MX ≥ λX} .
Osservazione 5.20. In alcuni casi può essere utile una stima dell’autovalore
dominante, senza dover ricorrere al calcolo effettivo. Vale il seguente risultato:
Se M ≥ O e λM ≥ 0 è il suo autovalore dominante, allora, se Cj ed Rj sono
rispettivamente le somme degli elementi della j-esima colonna e j-esima riga
di M, valgono
min Cj ≤ λM ≤ max Cj , (5.16)
j j

min Rj ≤ λM ≤ max Rj . (5.17)


j j

M
Infatti,
n posto M = [mij
], se V M≥ 0 è unMautovettore associato a λM tale che
M
V = 1, allora j mij Vj = λM Vi e sommando anche in i si ottiene
j=1 jM
j j Vj = λM da cui (5.16). Ragionando su M si ottiene la (5.17).
T
C

Esempio 5.21. Consideriamo la seguente matrice strettamente positiva:


⎡ ⎤
123
M = ⎣2 2 2⎦
411
Da (5.16) si ottiene 5 ≤ λM ≤ 7, ma da (5.17) si ottiene 6 ≤ λM ≤ 6 cioè
λM = 6 senza scrivere il polinomio caratteristico. 
5.5 Applicazioni alla demografia 211

5.5 Applicazioni alla demografia

Riprendiamo l’analisi del modello demografico di Leslie (vedi l’Esempio 1.16).


Se indichiamo con Y j il numero di individui di età j (j = 1, 2, . . . , n), ϕj
il tasso di fertilità (nati per individuo) degli individui di età j e σj il tasso
di sopravvivenza di individui di età j fino all’età j + 1, ad ogni tempo di-
screto k (con passo uniforme, pari all’ampiezza delle classi di età) si ha un
 T
vettore Yk = Yk1 Yk2 . . . Ykn che descrive la struttura della popolazione.
L’evoluzione di Y è descritta dall’equazione
Yk+1 = LYk
ove ⎡ ⎤
ϕ1 ϕ2· · · ϕn−1 ϕn
⎢ σ1 0 ··· 0 0 ⎥
⎢ ⎥
⎢ ··· 0 0 ⎥
L =⎢ 0 σ2 ⎥
⎢ .. ..
.. . .. ⎥
⎣ . . . .. . ⎦
0 0 · · · σn−1 0
i
Al tempo k + 1 il numero degli individui della i-esima classe è dato da Yk+1 =
n j n
L Y
j=1 ij k mentre la popolazione totale al generico tempo k è pari a i
i=1 k .
Y
Se σi > 0, i = 1, . . . , n − 1 e ϕj > 0, j = 1, . . . , n, allora la matrice L
pur non essendo strettamente positiva ha una potenza strettamente positiva
(Ln O). (vedi Fig. 5.6). Allora, per il Teorema 5.13, L ha un autovalore
dominante λL > 0 semplice e tale che |λ| < λL per ogni altro autovalore λ di
L. Inoltre, alle traiettorie del s.d.d. Yk+1 = LYk si applica il Teorema 5.18:
in particolare, la distribuzione asintotica della popolazione è descritta dall’au-
tovettore dominante (che è strettamente positivo per il Teorema di Perron-
Frobenius), cioè la ripartizione tra le varie classi d’età è proporzionale alle
componenti dell’autovettore dominante positivo VL .
L’autovettore dominante rappresenta la cosiddetta distribuzione stabile d’età
cioè descrive in quali proporzioni la popolazione tende a ripartirsi nelle varie
classi (in assenza di perturbazioni).
In dipendenza dai valori di sopravvivenza e fertilità l’autovalore dominante
descrive la prospettiva di crescita od estinzione della popolazione:

λL > 1 popolazione in crescita esponenziale;


λL = 1 popolazione che tende ad un equilibrio (strettamente positivo);
0 < λL < 1 popolazione che si avvia all’estinzione in modo esponenziale.
Se 0 < λL < 1, allora 0 è un equilibrio stabile ed attrattivo.
Se λL = 1, allora ogni multiplo positivo dell’autovettore dominante VL è un
equilibrio stabile ma non attrattivo (semiretta di equilibri).
Se λL > 1, allora 0 è un equilibrio instabile e repulsivo.
Si osservi nella Fig. 5.6 come, al crescere della potenza di L aumentano le
212 5 Sistemi dinamici discreti: equazioni vettoriali
⎡ ⎤⎡ ⎤⎡ ⎤
           
⎢ 0 0 0 0 0 0 0 0⎥ ⎢        ⎥⎢        ⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎢0  0 0 0 0 0 0 0⎥ ⎢ ⎥⎢ ⎥
⎢ ⎥⎢ 0 0 0 0 0 0 0 0 ⎥⎢        ⎥
⎢0 ⎥
0  0 0 0 0 0 0 ⎥⎢ 0  0 0 0 0 0 0 0 ⎥
⎢ ⎢ 0⎥
⎢ ⎥⎢ 0 0 0 0 0 0 0 ⎥
⎢0 0 0  0 0 0 0 0⎥ ⎢ 0 0  0 0 0 0 0 0 ⎥⎢ 0  0 0 0 0 0 0 0⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎢0 0 0 0  0 0 0 0⎥ ⎢ ⎥⎢  0⎥
⎢ ⎥⎢ 0 0 0  0 0 0 0 0 ⎥⎢ 0 0 0 0 0 0 0 ⎥
⎢0 0 0 0 0  0 0 0⎥ ⎢ 0 0 0 0  0 0 0 0 ⎥⎢ 0 0 0  0 0 0 0 0⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎣0 0 0 0 0 0  0 0 ⎦⎣ 0 0 0 0 0  0 0 0 ⎦⎣ 0 0 0 0  0 0 0 0⎦
0 0 0 0 0 0 0  0 0 0 0 0 0 0  0 0 0 0 0 0 0  0 0 0
⎡ ⎤⎡ ⎤⎡ ⎤
           
⎢
⎢        ⎥ ⎥⎢
⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢
⎢        ⎥ ⎢
⎥⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢
⎢        ⎥⎢        ⎥
⎥ ⎢ ⎢
⎥⎢        ⎥⎥
⎢
⎢ 0 0 0 0 0 0 0 0⎥ ⎥⎢
⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢0  0 0 0 0 0 0 0⎥ ⎢ ⎥⎢ ⎥
⎢ ⎥⎢ 0 0 0 0 0 0 0 0 ⎥⎢        ⎥
⎢0
⎢ 0  0 0 0 0 0 0 ⎥⎢ 0  0 0 0 0 0 0 0 ⎥
⎥ ⎢ ⎢
⎥⎢ 0 0 0 0 0 0 0 0⎥⎥
⎣0 0 0  0 0 0 0 0 ⎦ ⎣ 0 0  0 0 0 0 0 0 ⎦ ⎣0  0 0 0 0 0 0 0⎦
0 0 0 0  0 0 0 0 0 0 0  0 0 0 0 0 0 0  0 0 0 0 0 0
⎡ ⎤⎡ ⎤⎡ ⎤
           
⎢        ⎥ ⎢        ⎥⎢        ⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎢        ⎥ ⎢ ⎥⎢ ⎥
⎢ ⎥⎢        ⎥⎢        ⎥
⎢        ⎥ ⎢        ⎥⎢        ⎥
⎢ ⎥⎢ ⎥⎢ ⎥
⎢
⎢        ⎥ ⎢
⎥⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢
⎢        ⎥ ⎥⎢
⎢        ⎥⎢
⎥⎢        ⎥⎥
⎢
⎢        ⎥ ⎢
⎥⎢        ⎥⎢
⎥⎢        ⎥⎥
⎣ 0 0 0 0 0 0 0 0 ⎦⎣        ⎦⎣        ⎦
0  0 0 0 0 0 0 0  0 0 0 0 0 0 0 0         

Fig. 5.6. L, L2 , . . . , L9 con L matrice di Leslie di ordine 9 (i quadratini neri


indicano gli elementi strettamente positivi)

righe 0 e la diagonale 0 scende.

L’autovalore e l’autovettore dominante possono essere calcolati con metodi


numerici a partire dalla definizione algebrica oppure simulando il sistema per
un periodo sufficientemente lungo: se X0 ha componente cL non nulla lungo
VL nella base di Jordan di L, allora (grazie al Teorema 5.18) si ha:
Xk+1 
λL = lim VL = lim λL−k c−1
L Xk .
k Xk  k

Osservazione 5.22. Se L è una matrice di Leslie, allora il determinante vale


1+n
det L = (−1) ϕn σ1 σ2 · · · σn−1.
5.5 Applicazioni alla demografia 213

Fig. 5.7. Popolazione residente in Italia, per sesso e classi di età (fonte ISTAT)

Fig. 5.8. Due popolazioni (1998), ripartite per sesso e in classi di età di 10 anni

Esempio 5.23. Un modello di ripartizione degli studenti.


Consideriamo gli studenti che in un ateneo frequentano un corso di laurea di
cinque anni. Siano:
S j il numero di studenti iscritti all’anno j di corso, j = 1, 2, . . . , 5;
Sk6 il numero dei laureati nell’anno k;
214 5 Sistemi dinamici discreti: equazioni vettoriali

aj il coefficiente corrispondente alla frazione di abbandoni all’anno j;


pj il coefficiente di passaggio dall’anno j all’anno j + 1, j = 1, . . . , 4;
p5 la frazione di laureati;
Mk gli immatricolati o trasferiti da altre sedi nell’anno k (è un vettore a 6
componenti, l’ultima nulla).
Ad ogni tempo discreto k si ha un vettore a sei componenti Sk che descrive
la struttura della popolazione studentesca.
Il modello di evoluzione è descritto da

Sk+1 = ASk + Mk

con
⎡ ⎤
1 − p 1 − a1 0 0 0 0 0
⎢ p 1 − p − a 0 0 0 0⎥
⎢ 1 2 2 ⎥
⎢ ⎥
⎢ 0 p2 1 − p 3 − a3 0 0 0⎥
A=⎢


⎢ 0 0 p 3 1 − p 4 − a 4 0 0⎥⎥
⎢ ⎥
⎣ 0 0 0 p4 1 − p 5 − a5 0⎦
0 0 0 0 p5 0

Si noti che A ≥ O ma non vi sono potenze Ah O dato che Ah ha l’ultima


colonna di 0 per ogni h. Inoltre, A è di tipo matrice diagonale più matrice
nilpotente, pur non essendo nella forma di Jordan. Il calcolo degli autovalori
è immediato: 1 − p1 − a1 , 1 − p2 − a2 , . . . , 0. Per un’analisi del modello si
possono utilizzare i risultati del paragrafo 5.6. 

Esercizio 5.3. Dimostrare l’affermazione contenuta nell’Osservazione 5.22.

5.6 Equazioni vettoriali lineari affini

Consideriamo il sistema dinamico discreto lineare affine

Xk+1 = AXk + B
(5.18)

dove B ∈ Rn ed A, matrice di ordine n, sono assegnati. Siamo interessati ad


esplicitare Xk , cioè a darne una espressione non ricorsiva e, successivamente,
a studiare l’esistenza di eventuali equilibri e discuterne la stabilità.
Seguendo lo stesso ragionamento formale del caso scalare affine (paragrafo 2.1,
Teorema 2.5) sarà utile effettuare un cambio di incognita per ricondursi al ca-
so lineare: cerchiamo di adattare i passaggi della prova del Teorema 2.5, con
le precauzioni dovute al fatto che A è una matrice.
5.6 Equazioni vettoriali lineari affini 215

Teorema 5.24. Se tutti gli autovalori di A sono diversi da 1 , allora In − A


è invertibile e vale

Xk = Ak (X0 − A) + A (5.19)

dove il vettore A = (In − A)−1 B è l’unico equilibrio del s.d.d. (5.18).

Si osservi la forte analogia di (5.19) con la formula (2.4) relativa al caso lineare
affine scalare.

Prova. Nel seguito scriveremo brevemente I anziché In . La matrice I − A è invertibile


perché 1 non è autovalore di A. Gli eventuali equilibri A del s.d.d. (5.18) risolvono

A = AA + B

la cui soluzione (unica) è A = (I − A)−1 B .


Posto Yk = Xk − A ∀k, sostituendo nell’equazione (5.18), si ottiene il s.d.d.

Yk+1 + A = A (Yk + A) + B

equivalente a
Yk+1 = AYk + AA − A + B
ossia
Yk+1 = AYk − (I − A) A + B.
Dalla definizione di A ricaviamo infine:

Yk+1 = AYk − (I − A) (I − A)−1 B + B =


= AYk − B + B = AYk . 

Nel caso generale (cioè se non si esclude la possibilità del valore 1 fra gli
autovalori di A) si decompone Rn come Rn = V0 ⊕ V1 ⊕ V2 dove

V0 è l’autospazio generalizzato associato all’autovalore 0;


V1 è l’autospazio generalizzato associato all’autovalore 1;
V2 è l’unione degli autospazi generalizzati di tutti gli altri autovalori.

La matrice A nelle coordinate della forma di Jordan si esprime come


⎡ ⎤
A0 O O
A = ⎣ O A1 O⎦
O O A2

dove A0 , A1 , A2 sono matrici quadrate con A0 nilpotente. Tutti i vettori


 T
W di Rn si decompongono come W = W0 W1 W2 . Il sistema (5.18) si
disaccoppia in tre sistemi.
216 5 Sistemi dinamici discreti: equazioni vettoriali
 T
Ogni equilibrio A = A0 A1 A2 risolve A = AA + B cioè
(I − A0 ) A0 = B0 (I − A1 ) A1 = B1 (I − A2 ) A2 = B2 .
Poiché (I − A0 ) e (I − A2 ) sono invertibili, A0 e A2 sono univocamente deter-
minati
−1 −1
A0 = (I − A0 ) B0 A2 = (I − A2 ) B2 .
Però (I − A1 ) non è invertibile (è nilpotente), pertanto possono esservi o meno
soluzioni A1 e se esistono non sono uniche (precisamente, ve ne sono se e solo
se B1 ⊥ ker (I − A1 ) ).
T

Le conclusioni sono riassunte nell’enunciato seguente, che descrive la dinamica


nel caso generale, senza escludere a priori la presenza dell’autovalore 1.
 T
Teorema 5.25. Il sistema (5.18) ammette equilibri A = A0 A1 A2 se e
1 T
solo se la componente B di B in V1 è ortogonale al nucleo di (I − A1 ) .
 T
In caso affermativo, le soluzioni Xk = X0 X1 X2 decomposte secondo V0 ,
V1 , V2 si esplicitano:
k 
X0k = (A0 ) X00 − A0 + A0
k 
X2k = (A2 ) X20 − A2 + A2
 W T

X1k = XU k Xk

dove U è lo spazio associato al blocco di Jordan banale e V2 è l’unione degli


spazi associati ai blocchi di Jordan non banali relativi all’autovalore 0:
XU U U W
k = kB per ogni k, con B componente di B in U, e Xk si può esprimere
in dipendenza da BW ed XW 0 in ciascun sottoblocco di Jordan non banale di
dimensione l − j corrispondente all’autovalore 0.
Dunque:


⎪ (I) 1 non è autovalore, cioè V1 = U ⊕ W = {0}





⎨ oppure
∃ equilibri A ⇔ (II) 1 è autovalore e B1j = 0 per ogni j, salvo

⎪ eventualmente le ultime componenti in



⎪ ciascuno dei blocchi di Jordan non


banali dell’autovalore 1
Nel primo caso esiste un unico equilibrio
& −1 0  −1 'T
−1
A = (I − A) B = I − A0 B I − A2 B .
Nel secondo caso esistono infiniti equilibri:
 T
A = A0 A1 A2
 T  T
A1 = AU AW = 0 AW
 T
AW = costituito da vettori 0 0 . . . 0 Bl in ciascun blocco ldimensionale.
5.6 Equazioni vettoriali lineari affini 217

• Se |λ| < 1 per ogni autovalore, allora siamo nel caso I e l’equilibrio A è
stabile ed attrattivo.
• Se esiste un autovalore λ tale che |λ| > 1, allora l’eventuale equilibrio (casi
I o II) è instabile.
• Se λ = 1 è autovalore e vi è equilibrio, allora siamo nel caso II ed A è sta-
bile se le molteplicità algebriche e geometriche dell’autovalore 1 coincidono
(comunque A non è attrattivo).

Si suggerisce di confrontare la discussione svolta sugli equilibri e la loro sta-


bilità con quella relativa alle equazioni alle differenze scalari ad m passi.

Esempio 5.26. Sia M una matrice di ordine 9 data, nelle coordinate di Jor-
dan corrispondenti alla base e1 , e2 , . . . , e9 (le componenti non indicate sono
nulle) ⎡ ⎤
0 0
⎢ 1 0 ⎥
⎢ ⎥
⎢ 1 0 ⎥
⎢ ⎥
⎢ 1 1 ⎥
⎢ ⎥
M=⎢ ⎢ 1 0 ⎥

⎢ 1 1 ⎥
⎢ ⎥
⎢ λ1 0 0 ⎥
⎢ ⎥
⎣ 0 λ2 0 ⎦
0 0 λ3
con

V0 = e1 ⊕ e2 V1 = e3 ⊕ e4 ⊕ e5 ⊕ e6 V2 = e7 ⊕ e8 ⊕ e9 .

I modi naturali sono individuati da


0, 1, k, k 2 , k 3 , λk1 , λk2 , λk3 . 

Osservazione 5.27. Il modello di ripartizione degli studenti considerato nel-


l’Esempio 5.23 in una situazione stazionaria (Mk = M, ∀k, cioè supposto
costante il numero di immatricolati e di trasferimenti) rientra nella forma
(5.18) studiata in questo paragrafo.

Concludiamo con alcune considerazioni generali sui s.d.d. lineari positivi. Un


sistema lineare affine Xk+1 = AXk + B può non avere equilibri A che ve-
rificano A ≥ 0 anche se A O eB 0 (ad esempio, se n = 1, A = 2 e
B = 1 allora A = −1). È peraltro rilevante chiedersi quando, date A e B
non negative, anche gli equilibri risultano non negativi. Questa questione è
strettamente connessa con la stabilità. Enunciamo un risultato che illustra
solo alcuni aspetti del problema.

Teorema 5.28. Sia dato il s.d.d. vettoriale Xk+1 = AXk + B, dove A O,


B 0.
218 5 Sistemi dinamici discreti: equazioni vettoriali

Allora sono equivalenti le condizioni seguenti:


(i) |λ| < 1 per ogni autovalore λ di A;
(ii) esiste A ≥ 0 equilibrio del sistema.
In particolare, se vale (i) oppure (ii) allora tale A è stabile ed attrattivo e
A 0.

Prova. (i) ⇒ (ii): Se |λ| < 1 per ogni autovalore λ, allora la matrice I − A è inverti-
bile, e per il Teorema 5.24 vi è un unico equilibrio A stabile ed attrattivo. Inoltre,
se si inizializza il sistema dinamico con un dato X0 ≥ 0, allora risulta Xk  0 per
ogni k ≥ 1 e ne segue A ≥ 0 . Inoltre da AA ≥ 0, B  O segue A = AA + B  0.
(ii) ⇒ (i): Se esiste A ≥ 0 tale che (I − A) A = B, allora A = AA + B  0.
Osservato che AT  O e che A ed AT hanno gli stessi autovalori, denotiamo con
λA > 0 l’autovalore dominante di A (e dunque anche di AT ) e con U un autovettore
dominante strettamente positivo di AT (vedi Teorema 5.12):

U0 AT U = λA U B, U > 0.

Allora
3   4
(1 − λA ) A, U = A, I − AT U = (I − A) A, U = B, U > 0

e dalla disuguaglianza A, U > 0 segue λA < 1.


Dunque, 0 < λA < 1 e 0 ≤ |λ| < λA < 1 per ogni λ autovalore. 

Esercizio 5.4. Data la matrice quadrata A di ordine n i cui elementi sono tutti
uguali a 1/ (2n) e un vettore B ∈ Rn , B  0, studiare il s.d.d. Xk+1 = AXk + B.

5.7 Sistemi dinamici discreti vettoriali non lineari


Accenniamo al caso di sistemi di più equazioni non lineari ad un passo.

Definizione 5.29. Sia I ⊂ R un intervallo ed F : I n → I n una funzione


continua.
Allora la coppia {I n , F } è detta sistema dinamico discreto vettoriale.

Ad ogni s.d.d. {I n , F } vettoriale è associato un sistema di infinite equazioni


Zk+1 = F (Zk ), k ∈ N. Per ogni scelta di n dati iniziali Z0 , Z1 , . . . , Zn−1 vi è
una sola successione {Zk } che risolve tale sistema di equazioni: tale successione
è detta traiettoria del s.d.d. associata alla n-upla di dati iniziali.
Tutte le definizioni formulate nel caso scalare circa i punti di equilibrio e la loro
stabilità possono essere riformulate con ovvie modifiche nel caso vettoriale.
 T  T
Esempio 5.30. Sia n = 2, F (x, y) = f (x, y) g (x, y) , Zk = Xk Yk .
Allora, ∀k ∈ N
Xk+1 = f (Xk , Yk )

Yk+1 = g (Xk , Yk )
5.7 Sistemi dinamici discreti vettoriali non lineari 219

Come nel caso scalare, non vi sono metodi generali per esplicitare le soluzioni
di sistemi non lineari. Ci limiteremo a discutere il comportamento asintotico
e la stabilità degli equilibri.
È utile introdurre la seguente definizione.

Definizione 5.31. Sia A una matrice quadrata di ordine n. Allora il numero

A = max {AV : V ∈ Rn , V = 1}

è detta norma di A.
 T
Teorema 5.32. Siano n = 2, A = α1 α2 un equilibrio: F (A) = A, cioè
in componenti
α1 = f (α1 , α2 ) α2 = g (α1 , α2)
dove F : I 2 → I 2 è una funzione munita di derivate parziali continue e
⎡ ⎤
∂f ∂f
(α1 , α2) (α1 , α2 )
⎢ ∂x ∂y ⎥
⎢ ⎥
J (A) = ⎢ ⎥.
⎣ ∂g ∂g ⎦
(α1 , α2) (α1 , α2 )
∂x ∂y
Se tutti gli autovalori di J verificano |λ| < 1, allora α è un equilibrio stabile
 T  T
e localmente attrattivo (cioè se X0 Y0 è “vicino” ad α1 α2 , allora la
traiettoria associata a tale dato iniziale converge ad A).
Se esiste un autovalore λ tale che |λ| > 1, allora α è instabile.

Esempio 5.33 (Modello di Lotka-Volterra (predatore-preda)). Consi-


deriamo due specie che interagiscono in un ambiente: le prede, descritte dalla
successione X (X0 descrive quantitativamente la struttura della popolazio-
ne al tempo 0, X1 al tempo 1, ...). In assenza di predatori Xk evolverebbe
secondo la legge di tipo lineare

Xk+1 = aXk .

Se consideriamo la presenza di una specie predatrice Y che si alimenta prin-


cipalmente della specie X è opportuno modificare la legge che descrive la
dinamica come segue
Xk+1 = aXk − bXk Yk .
L’evoluzione dei predatori (per cui non si trascura la competizione sociale) è
descritta da
Yk+1 = cYk − dYk2 + eXk Yk
che tiene conto degli “incontri” con le prede.
Nel quadrante x > 0, y > 0 vi sono quattro regioni determinate dall’interse-
zione delle rette di equazione y = a/b e y = (e/d) x + (c − 1) /d in cui Xk ed
Yk hanno precise monotonie. Tutte le traiettorie “ruotano” in senso antiorario
220 5 Sistemi dinamici discreti: equazioni vettoriali

attorno all’equilibrio α la cui eventuale stabilità dipende dal valore numerico


scelto per i parametri. Al variare dei parametri a, b, c, d, e, tutti positivi, con
a > 1 e c > 1, il sistema presenta diversi comportamenti.
Esaminiamo un esempio numerico: se

a=2 b=1 c = 1, 5 d=2 e=1

allora
Xk+1 = 2Xk − Xk Yk
Yk+1 = 1, 5Yk − 2Yk2 + Xk Yk
cioè ⎡ ⎤
2x − xy
F (x, y) = ⎣ 3 ⎦.
y − 2y2 + xy
2
Le equazioni soddisfatte dagli equilibri sono

α1 = α1 α2
0, 5α2 + α1 α2 = 2α22

Gli equilibri sono 3: (0, 0) , (0, 1/4), e (3/2, 1) . La parte di piano significativa
è il quadrante x > 0, y > 0 cui appartiene un solo equilibrio: (3/2 , 1). Poiché
  ( ) √
3 1 −3/2 2
J ,1 = λ1,2 (J) = ± i
2 1 −1 2

per il Teorema 5.32 l’equilibrio (3/2, 1) è stabile e localmente attrattivo.


Nel quadrante x > 0, y > 0 vi sono quattro regioni determinate dall’interse-
zione delle rette di equazione

1 1
y=2 y= x+
2 4

in cui Xk ed Yk hanno precise monotonie. Tutte le traiettorie “ruotano” in


senso antiorario attorno all’equilibrio α la cui eventuale stabilità dipende dal
valore numerico scelto per i parametri.
Per discutere la stabilità dell’equilibrio (0, 0) osserviamo che
( ) ( )
a0 2 0
J (0, 0) = =
0c 0 3/2

dunque (0, 0) è stabile se e solo se |a| < 1 e |c| < 1 .


Si verifichi che (0, 1/4) è instabile.
Le regioni di monotonia delle popolazioni sono visualizzate in Fig. 5.9. 
5.8 Schemi numerici per la risoluzione di problemi lineari 221

Yk
y = dc x + c−1
d

Xk+1 − Xk < 0 Xk+1 − Xk < 0


Yk+1 − Yk < 0 Yk+1 − Yk > 0

Xk+1 − Xk > 0 Xk+1 − Xk > 0


Yk+1 − Yk < 0 Yk+1 − Yk > 0

c−1
d

Xk

Fig. 5.9. Piano delle fasi del modello di Lotka-Volterra

5.8 Schemi numerici per la risoluzione di problemi


lineari

Spesso si deve affrontare il problema di calcolare le soluzioni di un siste-


ma di equazioni algebriche lineari (vedi Appendice D): ad esempio, gli sche-
mi numerici per la soluzione di equazioni differenziali lineari consistono nel-
la risoluzione di tali sistemi con grande dimensione (numero di equazioni).
Nell’Esempio 1.21 abbiamo incontrato uno schema alle differenze finite che
consente di approssimare la soluzione di una equazione alle derivate parziali
mediante la soluzione di un sistema di equazioni algebriche lineari. In teoria
il Teorema di Rouché-Capelli e la regola di Cramer danno una risposta com-
pleta al problema di risolvere un tale sistema algebrico. Tuttavia tali metodi
sono inapplicabili per la determinazione effettiva delle soluzioni se la dimen-
sione del sistema non è molto piccola oppure se la matrice associata non è
diagonale. Inoltre, negli schemi alle differenze finite che approssimano equa-
zioni differenziali tale dimensione è molto grande e la matrice associata non
è banale. È dunque importante individuare schemi numerici efficienti per la
soluzione esatta o approssimata di sistemi lineari algebrici di dimensione ele-
vata, perlomeno nei casi di matrici aventi particolare struttura (come avviene
nel caso della discretizzazione di equazioni differenziali).

Iniziamo considerando un esempio importante di matrice sparsa cioè con molti


termini nulli.
222 5 Sistemi dinamici discreti: equazioni vettoriali

Esempio 5.34. Si verifica7 che la matrice quadrata tridiagonale N × N (con


elementi nulli fuori dalle tre diagonali principali)
⎡ ⎤
2 −1
⎢ −1 2 −1 ⎥
⎢ ⎥
⎢ . ⎥
⎢ −1 2 . . ⎥
⎢ ⎥
⎢ .. .. .. ⎥
T=⎢ . . . ⎥ (5.20)
⎢ ⎥
⎢ . . ⎥
⎢ . . . . −1 ⎥
⎢ ⎥
⎣ −1 2 −1 ⎦
−1 2
 2

ha autovalori λk (T) = 4 sin per 1 ≤ k ≤ N , associati agli
2 (N + 1)
autovettori Uk (T) di componenti (Uk )j = sin (jkπ/ (N + 1)).
Ne segue che, per ogni N , la matrice T è definita positiva e i suoi autovalori
λk (T) verificano 0 < λk (T) ≤ 4 per ogni k; inoltre, λmin (T) = λ1 (T) ∼
 2
π
. 
N +1

Esempio 5.35 (Problema di autovalori per l’operatore –d 2/dx 2 in un


intervallo). La ricerca di costanti λ cui corrispondono funzioni u = u (x)
non identicamente nulle che risolvono

−u (x) = λ u (x) 0 < x < l
(5.21)
u (0) = u (l) = 0

è detto problema di autovalori.


 2
Il problema (5.21) ha infinite soluzioni date dalle coppie λlk = kπ l
e
uk (x) = Ck sin kπx
l con k = 1, 2, . . . e Ck costanti arbitrarie.
Approssimando la derivata seconda con le differenze finite centrate:
uk−1 − 2uk + uk−1
u (xk ) ∼ dove
h2
h = l/ (N + 1) ; xk = kh ; uk ∼ u (xk ) ; 1≤k≤N

si ottiene il problema seguente (approssimazione numerica del problema


(5.21)):

7
Si sostituiscano T, λk (T) e Uk (T) nella definizione di autovalore ed autovettore e
si utilizzino le identità:
2
sin α2 = 1−cos
2
α
; sin (α + β) = sin α cos β + sin β cos α .
5.8 Schemi numerici per la risoluzione di problemi lineari 223

Determinare le costanti λ per cui esiste un vettore non nullo


# $T
U = U1 U2 · · · UN soluzione del sistema lineare N × N :

1
TU = λU .
h2

Quest’ultimo consiste nella determinazione degli autovalori della matrice h−2 T


dove T è la matrice tridiagonale (5.20): pertanto gli autovalori di h−2 T sono
 2
−2 4 kπ
λh,k = h λk (T) = 2 sin 1≤k≤N .
h 2(N + 1)

Si noti che, fissati l ed k, se h → 0, allora N → +∞ e λh,k = λlk , ∀k. 

Esempio 5.36 (Metodo di Eulero esplicito per l’equazione del calo-


re). Con riferimento all’Esempio 1.21 ed alle sue notazioni, una soluzione
approssimata del problema

⎪ ∂v ∂2v

⎨ ∂t = ∂x2 x ∈ (0, a) , 0 < t < T
(5.22)

⎪ x ∈ [0, a]
⎩ v (x, 0) = f (x)
v (0, t) = v (a, t) = 0 t > 0

può essere ottenuta mediante il metodo di Eulero esplicito, cioè dallo schema
numerico

Wj,k+1 = αWj−1,k + (1 − 2α) Wj,k + αWj+1,k α = h/s2
(5.23)
W0,k+1 = WN,k+1 = 0.

In termini di sistemi dinamici discreti lo schema numerico (5.23) genera una


traiettoria del s.d.d. vettoriale Wk+1 = BWk a partire da W0 , campiona-
mento del dato iniziale f, con B = IN − αT, dove T è la matrice tridiagonale
(5.20), α = h/s2 , h è il passo di discretizzazione temporale, s quello spaziale.
⎡ ⎤
1 − 2α α
⎢ α 1 − 2α α ⎥
⎢ ⎥
⎢ .. ⎥
⎢ α 1 − 2α . ⎥
⎢ ⎥
⎢ . . . ⎥
B=⎢ .. .. .. ⎥
⎢ ⎥
⎢ .. .. ⎥
⎢ . . α ⎥
⎢ ⎥
⎣ α 1 − 2α α ⎦
α 1 − 2α

Effettuando esperimenti numerici con un computer è facile verificare che, se


vale la condizione di stabilità numerica 0 < α ≤ 1/2, allora il metodo di
Eulero esplicito ha un buon comportamento, cioè i valori numerici ottenuti
224 5 Sistemi dinamici discreti: equazioni vettoriali

Fig. 5.10. Discretizzazione alle differenze finite con Eulero esplicito (5.23)

approssimano la soluzione esatta. Viceversa, se vale la condizione di insta-


bilità numerica α > 1/2, allora i valori numerici ottenuti oscillano senza
controllo anziché approssimare la soluzione cercata.
L’obiettivo è quello di evitare le eventuali amplificazioni degli errori introdotti
nella valutazione (con precisione aritmetica finita) del dato iniziale.
La condizione α ≤ 1/2 (cioè h ≤ s2 /2) va dunque imposta per ottenere ri-
sultati significativi; tuttavia essa risulta assai costosa nella pratica di calcolo:
raddoppiare nello spazio i punti della griglia di discretizzazione comporta una
quadruplicazione di tali punti nel tempo, cioè il numero complessivo di punti
ed il relativo tempo di calcolo aumentano di otto volte. Per tale motivo si pre-
ferisce utilizzare il metodo di Eulero implicito che risulta stabile senza alcuna
condizione sul valore numerico di α = h/s2 , anche se tale metodo richiede la
soluzione di un sistema lineare algebrico con matrice non diagonale, mentre
nel caso di Eulero esplicito (5.23) il sistema algebrico è già risolto.
Per comprendere il senso della condizione di stabilità numerica per il metodo
di Eulero esplicito, facendo riferimento all’Esempio 5.36, osserviamo che la
matrice T è diagonalizzabile. Dunque anche B = IN − αT è diagonalizzabile
ed i suoi autovettori ed autovalori sono rispettivamente

Uk (B) = Uk (T) 1≤k≤N


 2

λk (B) = 1 − αλk (T) = 1 − 4α sin 1≤k≤N .
2 (N + 1)
Allora gli autovalori di B sono tutti semplici; inoltre:

λk (B) ≤ 1 ⇔ 0 ≤ α ≤ 1/2 .

Per il Teorema 5.8 e le considerazioni successive, relativamente al s.d.d.


Wk+1 = BWk , possiamo affermare che l’equilibrio 0 risulta stabile se 0 ≤
α ≤ 1/2 ed attrattivo se 0 < α < 1/2.
Se si ha un errore di arrotondamento iniziale E0 (Ej,0 è l’errore nella valuta-
zione numerica di f (js)) allora si genera un errore Ek al passo k. Si verifica
5.8 Schemi numerici per la risoluzione di problemi lineari 225

che tale errore risolve il s.d.d. Ek+1 = BEk con dato iniziale E0 . Concluden-
do, se vale la condizione di instabilità numerica gli inevitabili (per quanto
piccoli) errori verranno amplificati dalle iterazioni successive, mentre se vale
la condizione di stabilità numerica essi rimarranno “ben controllati”. 

Esempio 5.37 (Metodo di Eulero implicito per l’equazione del ca-


lore). Sempre con riferimento all’Esempio 1.21 ed alle sue notazioni, una
soluzione approssimata del problema (5.22) può essere ottenuta mediante il
metodo di Eulero implicito, cioè dallo schema numerico8

(1 + 2α) Vj,k+1 − αVj−1,k+1 − αVj+1,k+1 = Vj,k
(5.24)
V0,k+1 = VN+1,k+1 = 0.

In termini di sistemi dinamici discreti, lo schema numerico (5.24) genera una


traiettoria del s.d.d. vettoriale AVk+1 = Vk a partire da V0 , campionamento
del dato iniziale f, con A = IN + αT, dove T è la matrice tridiagonale (5.20),
α = h/s2 , h è il passo di discretizzazione temporale, s quello spaziale.
⎡ ⎤
1 + 2α −α
⎢ −α 1 + 2α −α ⎥
⎢ ⎥
⎢ .. ⎥
⎢ −α 1 + 2α . ⎥
⎢ ⎥
A=⎢ ⎢ . .. . .
.. .. ⎥

⎢ ⎥
⎢ .. .. ⎥
⎢ . . −α ⎥
⎣ −α 1 + 2α −α ⎦
−α 1 + 2α

Ora ciascun passo risolutivo risulta numericamente non banale perché corri-
sponde ad invertire la matrice tridiagonale A.
Grazie all’analisi svolta nell’Esempio 5.34 osserviamo che A è diagonalizzabile
ed i suoi autovettori ed autovalori sono rispettivamente

Uk (A) = Uk (T) 1≤k≤N


 2

λk (A) = 1 + αλk (T) = 1 + 4α sin 1≤k≤N .
2 (N + 1)
Dunque
λk (A) > 1 1 ≤ k ≤ N , ∀α > 0 .
Pertanto A è sempre invertibile per
 ogni
 α > 0, inoltre gli autovalori della
−1
matrice inversa verificano 0 < λk A−1 = (λk (A)) < 1 per ogni k.

8
Se il dato al bordo (condizioni sui valori di v (0, t) e v (a, t)) per l’equazione (5.22)
non è 0, allora, a causa delle equazioni estreme si deve modificare il secondo membro
come segue:
# $T
Vk = Vk + αV0,k+1 0 · · · 0 αVN,k+1 .
226 5 Sistemi dinamici discreti: equazioni vettoriali

Fig. 5.11. Discretizzazione alle differenze finite con Eulero implicito (5.24)

Il Teorema 5.8 assicura che per il s.d.d. Vk+1 = A−1 Vk l’equilibrio 0 risulta
stabile ed attrattivo per ogni α > 0.
In questo caso l’eventuale errore di arrotondamento Ek nella valutazione di
Vk è governato dal s.d.d. Ek+1 = A−1 Ek con dato iniziale E0 (errore di di-
scretizzazione del dato iniziale), pertanto lo schema di Eulero implicito risulta
numericamente stabile per ogni α > 0, cioè per ogni h > 0 e per ogni s > 0.
Riassumendo, abbiamo ricondotto la soluzione dell’equazione del calore ad
una cascata di problemi algebrici lineari. 

Osserviamo che T, A, A−1 sono matrici definite positive per ogni α, mentre
B è definita positiva solo se 0 < α < 1/4 .
In pratica, per risolvere il sistema AVk+1 = Vk non si inverte la matrice A
(che ha dimensione N ) perché ciò richiederebbe troppe operazioni (dell’ordi-
ne di N 2 ). Inoltre A è tridiagonale, dunque occupa poco spazio in memoria
(3N − 2 dati), mentre A−1 non è una matrice sparsa e dunque occuperebbe
troppo spazio in memoria (N 2 dati).
Allora anziché invertire A si ricorre ad algoritmi numerici più efficienti. Ne
citiamo solo due: la decomposizione LU che è un metodo diretto, ed il
metodo SOR che è un metodo iterativo. Li illustriamo, per semplicità, con
riferimento alla matrice A = IN + αT che appare nello schema di Eulero
implicito per l’equazione del calore.

Esempio 5.38 (Il metodo LU). Assegnata la matrice A = IN + αT con T


definito da (5.20), cerchiamo due matrici, una triangolare inferiore L, l’altra
triangolare superiore U rispettivamente della forma
⎡ ⎤ ⎡ ⎤
1 0 0 ··· 0 y1 z1 0 · · · 0
⎢ .. ⎥ ⎢ .. ⎥
⎢ l1 1 . . . .⎥ ⎢ 0 y2 . . . . ⎥
⎢ ⎥ ⎢ ⎥
⎢ .. .. .. ⎥ ⎢ . . . ⎥
L=⎢0 . . . 0⎥ ⎥ U = ⎢ . . . ⎥
⎢ ⎢0 . . . 0 ⎥
⎢. .. .. ⎥ ⎢ . .. .. ⎥
⎣ .. . . 0⎦ ⎣ .. . . zN−1 ⎦
0 · · · 0 lN−1 1 0 ··· 0 0 yN
5.8 Schemi numerici per la risoluzione di problemi lineari 227

tali che valga l’uguaglianza A = LU. Per determinare gli elementi li , yi e zi


delle due matrici effettuiamo il prodotto LU: ponendo il risultato uguale ad
A, otteniamo:

y1 = (1 + 2α) (5.25)
α2
yi = (1 + 2α) − i = 2, . . . , N
yi−1
zi = −α
α
li = − i = 1, . . . , N − 1.
yi

Dunque, le sole quantità da calcolare e memorizzare sono le yi al variare di


i = 2, . . . , N , da cui si deducono i valori di li e zi .
Il problema di partenza AVk+1 = Vk può essere riscritto nella forma
L (UVk+1 ) = Vk : tale sistema è equivalente ai due sottoproblemi

UVk+1 = Wk LWk = Vk

ove Wk è un vettore intermedio.


La soluzione effettiva dei due sistemi algebrici si ottiene come segue. Dalla
prima equazione del sistema LWk = Vk si deduce il valore di W1,k mentre
gli altri valori delle componenti del vettore Wk si determinano grazie alle
relazioni ricorsive
αWj−1,k
Wj,k = Vj,k + j = 2, . . . , N .
yj−1

Infine, risolvendo il sistema UVk+1 = Wk si determina immediatamente il


valore
WN,k+1
VN,k+1 =
yN
e a ritroso i valori delle restanti componenti del vettore Vk+1 :

Wj,k + αVj+1,k+1
Vj,k+1 = j = 1, . . . , N − 1 . 
yj

Esempio 5.39 (Il metodo SOR). Il metodo LU sopra illustrato rappre-


senta un metodo diretto per risolvere un sistema lineare algebrico del tipo
AVk+1 = Vk nel senso che le incognite vengono determinate in un unico
passo. In alternativa, si possono considerare dei metodi iterativi.
Il metodo SOR (Successive Over-Relaxation) si può considerare un versione
particolare del metodo di Gauss-Seidel, che a sua volta è uno sviluppo del
metodo di Jacobi.
Il punto di partenza di tutti e tre questi metodi è l’osservazione che il sistema

(1 + 2α) Vj,k+1 − αVj−1,k+1 − αVj+1,k+1 = Vj,k


228 5 Sistemi dinamici discreti: equazioni vettoriali

può essere riscritto nella forma equivalente


1
Vj,k+1 = (Vj,k + α (Vj−1,k+1 + Vj+1,k+1 )) . (5.26)
1 + 2α
Questo semplice riarrangiamento isola i termini diagonali del membro sinistro.
Il metodo di Jacobi consiste nel partire da un valore iniziale approssima-
to per Vj,k+1 con 1 ≤ j ≤ N − 1, sostituendolo nel membro di destra della
(5.26) per ottenere un nuovo valore approssimato per Vj,k+1 . Tale processo
viene iterato fino a quando l’approssimazione non cambia significativamente
da una iterazione alla successiva: quando ciò accade si interrompono le itera-
m
zioni perché è stata calcolata la soluzione cercata. Più precisamente: se Vj,k+1
0
rappresenta la m-esima iterata di Vj,k+1 e Vj,k+1 è l’approssimante iniziale, ci
si aspetta che
m
lim Vj,k+1 = Vj,k+1 .
m
m m+1
Una volta calcolato Vj,k+1 si può determinare Vj,k+1 a partire da

m+1 1   m m

Vj,k+1 = Vj,k + α Vj−1,k+1 + Vj+1,k+1 (5.27)
1 + 2α
e il processo viene iterato fino a quando l’errore
8 m+1 8  2
8V m 82
k+1 − Vk+1 = V m+1
j,k+1 − V m
j,k+1
j

diventa sufficientemente piccolo da non giustificare ulteriori iterazioni. A que-


m+1
sto punto si può considerare Vj,k+1 come valore di Vj,k+1 . Si verifica che il
metodo di Jacobi converge alla soluzione corretta per ogni α > 0.
Il metodo di Gauss-Seidel rappresenta un raffinamento del metodo di Jaco-
m+1
bi. Punto di partenza è l’osservazione che quando si calcola Vj,k+1 nella (5.27)
m+1 m
è già noto il valore di Vj−1,k+1: si usa allora tale valore al posto di Vj−1,k+1 e
dunque la (5.27) diventa
m+1 1  
m+1 m

Vj,k+1 = Vj,k + α Vj−1,k+1 + Vj+1,k+1 . (5.28)
1 + 2α
Sintetizzando, possiamo affermare che il metodo di Gauss-Seidel utilizza un’ap-
prossimante appena questa diventa disponibile aumentando così, rispetto al
metodo di Jacobi, la velocità di convergenza. La maggior efficienza del meto-
do di Gauss-Seidel è dovuta anche al fatto che l’aggiornamento delle iterate
avviene immediatamente riscrivendo la singola iterata calcolata al passo pre-
cedente9 , mentre applicando il metodo di Jacobi è necessario memorizzare
separatamente le vecchie iterate in quanto tutte vengono coinvolte nel calco-
lo delle iterate al passo successivo. Osserviamo infine che anche nel caso del
metodo di Gauss-Seidel si può dimostrare la convergenza per ogni valore di
α > 0.
9 m+1 m m+1
In memoria si sovrascrive Vj−1,k+1 su Vj−1,k+1 prima di calcolare Vj,k+1 .
5.8 Schemi numerici per la risoluzione di problemi lineari 229

Il metodo SOR rappresenta un raffinamento del metodo di Gauss-Seidel. Si


parte dall’identità banale
 
m+1
Vj,k+1 m
= Vj,k+1 m+1
+ Vj,k+1 − Vj,k+1
m
.
Poiché m → +∞ implica Vj,k+1 m
→ Vj,k+1 , si può pensare che il termine
 
Vj,k+1 − Vj,k+1 rappresenti un termine correttivo che deve essere aggiunto
m+1 m

m
a Vj,k+1 per renderlo più vicino al vero valore Vj,k+1 . Si può cercare di sovra-
m+1
correggere (over-correct): precisamente, il valore Vj,k+1 viene determinato in
due tempi a partire dalle relazioni
m+1 1  
m+1 m

Yj,k+1 = Vj,k + α Vj−1,k+1 + Vj+1,k+1
1 + 2α
 
m+1 m
Vj,k+1 = Vj,k+1 m+1
+ ω Yj,k+1 − Vj,k+1
m

dove ω > 1 si dice parametro di sovrarilassamento (over-relaxation).


m+1
Si noti che il valore Yj,k+1 è quello fornito dal metodo di Gauss-Seidel per
m+1 m+1
Vj,k+1 : invece, con il metodo SOR il termine Yj,k+1 − Vj,k+1
m
viene visto come
m m+1
una correzione da apportare a Vj,k+1 al fine di ottenere Vj,k+1 . Si dimostra
che il metodo SOR converge alla soluzione cercata per ogni valore di α > 0
a patto che 0 < ω < 2. Si può inoltre dimostrare l’esistenza di un unico va-
lore del parametro ω compreso fra 1 e 2 in corrispondenza del quale si ha la
massima velocità di convergenza. Tale valore dipende dalla dimensione della
matrice considerata e dalla tipologia dei suoi elementi. 
Consideriamo ora un semplice ma istruttivo esempio: il sistema di equazioni
lineari algebriche
( ) ( ) ( )
1 1 X1 B1
EX = B dove E= X= B= .
1 1, 01 X2 B2

Poiché det E = 0 si sa che qualunque sia la scelta di B esiste una ed una sola
soluzione del sistema. Tuttavia il sistema è mal condizionato nel senso se-
guente: a piccole variazioni del dato B possono corrispondere grandi variazioni
della soluzione.  T  T  T
Ad esempio, se B = 2 2, 01 allora X = 1 1 , se invece B = 2 1, 9
 T
allora X = 12 −10 .
Ciò si verifica perché (benché E sia definita positiva e strettamente positiva)
il rapporto tra massimo e minimo autovalore di E è molto grande; infatti,
risolvendo l’equazione
 caratteristica
√  λ2 − 2, 01λ + 0, 01 = 0 si ricavano gli
autovalori λ1,2 = 201 ± 40001 /200, cioè:

λ1 = 4, 9875 × 10−3 λ2 = 2, 005

da cui si ottiene
λ2
∼ 400.
λ1
230 5 Sistemi dinamici discreti: equazioni vettoriali

Si noti che λ2 è stimabile senza calcolarlo effettivamente (Osservazione 5.20):


2 ≤ λ2 ≤ 2, 01.
I problemi mal condizionati vanno affrontati con opportune manipolazioni
preliminari alla soluzione numerica, allo scopo di evitare errori grossolani. Cer-
chiamo di formalizzare questo discorso discutendo la sensibilità delle soluzioni
del sistema lineare
MX = B (5.29)
rispetto alle perturbazioni del vettore dato B. Consideriamo il problema per-
turbato
M (X + δX) = (B + δB) (5.30)
dove δB è una perturbazione di B e X + δX è la soluzione corrispondente al
dato perturbato B + δB.
Osserviamo che, grazie alla linearità, da (5.29) e (5.30) segue M δX = δB .

Teorema 5.40 (Stima dell’errore relativo dovuto a perturbazioni del


dato nella soluzione di un sistema lineare algebrico). Se M è una
matrice invertibile, (5.29) e (5.30) implicano

δX δB
≤ X (M)
X B
8 −1 8
dove X (M) = M 8M 8 è detto numero di condizionamento della
matrice non singolare M ed M = max (MX / X) è la norma di M
X =0
come trasformazione lineare in Rn (si veda la Definizione 5.31).
Prova. Da (5.29) e (5.30) seguono

δX = M−1 (B + δB) − X = M−1 (B + δB − B) = M−1 δB

δX δB δB δB


≤ ||M−1 || ≤ ||M−1 || ||M|| ≤ X (M) . 
X X ||M|| X B

Osservazione 5.41. Nei casi in cui M è una matrice simmetrica reale e defi-
nita positiva, vale X (M) = λmax (M) /λmin (M).

Vediamo le conseguenze del Teorema 5.40 e dell’Osservazione 5.41 in qualche


esempio concreto.
Osserviamo che la matrice tridiagonale reale simmetrica dell’Esempio 5.34 pur
essendo definita positiva è mal condizionata:
 2
λmax (T) N +1
∼ .
λmin (T) π

Invece la matrice B = I − αT è ben condizionata se 0 < α < 1/8 perché in tal


caso
1
0 < < λmin (B) < λmax (B) < 1 .
2
5.8 Schemi numerici per la risoluzione di problemi lineari 231
−1
La matrice A−1 = (I + αT) è ben condizionata se α > 0 perché in tal caso

1    
0< < λmin A−1 < λmax A−1 < 1
5
dunque il problema algebrico che si deve risolvere nello schema di Eulero
implicito è ben condizionato.

Osservazione 5.42. Supponiamo di affrontare il problema Δu = f nel qua-


drato (0, a) × (0, a) con condizione di Dirichlet omogenea (u = 0 sul bor-
do del quadrato) utilizzando la formula del Laplaciano a cinque punti (ve-
di Esercizio 1.16 di cui utilizziamo le notazioni). Suddividendo in 101 inter-
vallini ciascun lato del quadrato, si ottiene una griglia nei cui nodi interni
.
(100 × 100 = 10 000) deve essere soddisfatta una relazione lineare. In de-
finitiva, si deve risolvere il sistema algebrico lineare MU = F dove M ha
. . . .
10 000 × 10 000 = 100 000 000 elementi. Se anche ciascun elemento della ma-
trice avesse a disposizione un solo bit (in pratica ve ne sono di più) avremmo
una occupazione di memoria di 100 megabytes solo per archiviare la discre-
tizzazione del dato, a meno di non sfruttare algoritmi adatti a matrici sparse
come è il caso di M o algoritmi di tipo parallelo. È dunque essenziale sfruttare
al massimo la struttura della matrice M quando la sua dimensione è elevata,
come abbiamo fatto con la decomposizione LU o il metodo SOR.

Osservazione 5.43. Il problema di determinare il prezzo di una opzione de-


scritta dal modello di Black and Scholes può essere risolto numericamente con
i metodi descritti in questo paragrafo per l’equazione del calore dopo aver
effettuato la trasformazione dell’Esercizio 1.17.

Esercizio 5.5. Data la matrice tridiagonale


⎡ ⎤
5 2 0 0 ··· 0
⎢2 5 2 0 ··· 0⎥
⎢ ⎥
⎢0 2 5 2 ··· 0⎥
⎢ ⎥
M=⎢
⎢0
.⎥
⎢ 0 2 5 · · · .. ⎥⎥
⎢. .. .. .. . . ⎥
⎣ .. . . . . 2⎦
0 0 0 ··· 2 5

a) stimarne (in modo semplice!) l’autovalore dominante;


b) provare che è definita positiva e calcolarne gli autovalori.
232 5 Sistemi dinamici discreti: equazioni vettoriali

5.9 Esercizi di riepilogo


Esercizio 5.6. Date le matrici
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 0 1 123 123 100
10 1 −1 ⎣3 2 1⎦ ⎣3 2 1⎦ ⎣3 1 0⎦
11 1 1
111 122 122

determinare la forma canonica di Jordan associata e la base corrispondente.


Esercizio 5.7. Dimostrare che se M è una matrice quadrata di ordine 2 che am-
mette la decomposizione M = S + T con S semisemplice e T nilpotente, allora
Mk = Sk + kTSk−1 .
Esercizio 5.8. Provare che se A è una matrice quadrata reale di ordine n, e λ =
a + ib è autovalore di A (con a, b ∈ R, b = 0), allora anche λ = a − ib è autovalore
di A ed gli autovettori associati a λ e λ sono complessi e coniugati.
Nel caso n = 2, mostrare 0 che 1esiste una base reale rispetto alla quale la matrice
a −b
A si rappresenta come , cioè una omotetia composta con una matrice di
b a
rotazione.
Esercizio 5.9. Consideriamo una matrice di Leslie L e supponiamo (più realistica-
mente di quanto fatto nel paragrafo 5.5) che il tasso di fertilità dell’ultima classe
d’età sia nullo: ϕn = 0. In tal caso il Teorema 5.13 non si applica: ogni potenza Lk
ha l’ultima colonna di elementi nulli.
⎡ ⎤
 0
⎢  0 0 0 0 0⎥
⎢ ⎥
⎢ 0  0 0 0 0⎥
L=⎢ ⎢ ⎥

⎢ 0 0  0 0 0⎥
⎣ 0 0 0  0 0⎦
0 0 0 0  0

Si applica comunque il Teorema 5.14.


Si provi a dire qualcosa di più preciso sulla dinamica di Yk+1 = LYk considerando
la matrice di Leslie B di ordine n − 1 ottenuta rimuovendo l’ultima riga e l’ultima
colonna.
Esercizio 5.10. Se si considerano molte classi di età nel modello di Leslie, allora è
necessario considerare il tasso di fertilità nullo per la classe più giovane, e.g. ϕ1 = 0,
o per alcune delle classi più giovani della popolazione.
Si studi la dinamica del s.d.d. di Leslie nel caso in cui si abbiano solo le informazioni
seguenti: ϕj ≥ 0 j = 1, . . . , n , ϕn−1 > 0, σj > 0 j = 1, . . . , n − 1. Il caso peggiore
possibile dal punto di vista della positività stretta della matrice è suggerito (per
n = 6) dalla seguente matrice:
⎡ ⎤
0 0 0 0  0
⎢  0 0 0 0 0⎥
⎢ ⎥
⎢ 0  0 0 0 0⎥
L=⎢ ⎢ ⎥

⎢ 0 0  0 0 0⎥
⎣ 0 0 0  0 0⎦
0 0 0 0  0
5.9 Esercizi di riepilogo 233

Esercizio 5.11. Calcolare l’autovalore dominante (o perlomeno stimarne il valore)


per le matrici: ⎡ ⎤ ⎡ ⎤
1234 1142
⎢4 3 2 1⎥ ⎢1 1 2 2⎥
A=⎢ ⎣5 5 0 0⎦
⎥ B=⎢ ⎥
⎣2 1 0 2⎦
2233 2200

Esercizio 5.12. Determinare l’espressione non


⎡ ricorsiva⎤ delle soluzioni del s.d.d.
# $T 0 1 0
Xk+1 = AXk con X0 = 1 0 −1 dove A = ⎣ 0 0 −1 ⎦ .
2 −1 0
6
Catene di Markov

Le catene di Markov1 sono modelli astratti che descrivono processi di estrema


importanza nelle applicazioni del calcolo delle probabilità.
Considereremo un insieme finito di eventi; supporremo che tali eventi si sus-
seguano secondo un parametro discreto (che in molti casi è il tempo), e si
verifichino con una probabilità che dipende solo dall’evento verificatosi prece-
dentemente.
In un sistema dinamico deterministico ad un passo lo stato al tempo k + 1 è
determinato in modo unico da quello al tempo k, invece nel caso delle catene
di Markov considerate in questo capitolo è la distribuzione di probabilità dei
vari eventi al tempo k + 1 ad essere univocamente determinata da quella al
tempo k. Ci limiteremo al caso in cui tale legame di dipendenza sia lo stesso
per ogni k.
Denoteremo con P (E) la probabilità di realizzazione di un evento E; dun-
que, P (E) è sempre un numero reale appartenente all’intervallo [0, 1]. Per un
sommario delle identità elementari che sono utili nel calcolo delle probabilità
rinviamo all’Appendice C.

6.1 Esempi, definizioni e notazioni


Prima di introdurre delle definizioni formali, esaminiamo degli esempi.
Riprendiamo in esame il problema della “rovina del giocatore”, già discusso
nell’Esempio 1.17 e risolto nell’Esercizio 2.36 come equazione scalare a due
passi. Qui ne presentiamo un modello meno elementare allo scopo di affrontare,
mediante le tecniche di questo paragrafo, un esempio già studiato.

Esempio 6.1. Due giocatori A e B possiedono rispettivamente a e b Euro,


a > 0, b > 0.
1
Andrei A. Markov, 1856-1922. Uno dei fondatori del moderno calcolo delle
probabilità.

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_6, © Springer-Verlag Italia 2014
236 6 Catene di Markov

A e B giocano a testa o croce con una moneta equa (la probabilità p di avere
testa è uguale alla probabilità q di avere croce: p = q = 1/2): chi vince un
turno prende un Euro all’avversario. Vince la partita chi rovina l’avversario,
ottenendo tutti gli a + b Euro. Poniamo a + b = s.
Per descrivere la situazione del gioco ad un dato turno, consideriamo il nu-
mero Xk di Euro posseduti dal giocatore A (B ne possiede s − Xk ) prima di
giocare il turno (k + 1)-esimo.
È comodo riportare in un diagramma le possibili storie della partita: si veda
la Fig. 6.1.
Per calcolare la probabilità che A dopo tre lanci della moneta possegga a + 1
Euro, dobbiamo valutare la probabilità di ciascuno dei possibili “percorsi” che
si concludono in tre tappe in a + 1 :
 3
A perde A vince A vince 1
a −→ a − 1 −→ a −→ a + 1 : probabilità
2
 3
A vince A perde A vince 1
a −→ a + 1 −→ a −→ a + 1 : probabilità
2
 3
A vince A vince A perde 1
a −→ a + 1 −→ a + 2 −→ a + 1 : probabilità .
2
Poiché i tre percorsi rappresentano tre storie diverse (eventi disgiunti) la pro-
babilità richiesta è data dalla somma delle probabilità di ciascun pecorso, cioè
da 3/8.
Gli stati possibili sono i valori che può assumere Xk nel corso della partita,
cioè {0, 1, . . . , s}.
Può essere utile visualizzare graficamente le possibili transizioni tra i vari stati:
con riferimento alla Fig. 6.2, utilizziamo gli archi orientati per rappresentare
la probabilità di transizione da un valore ad un altro della somma posseduta
da A . Ad ogni arco corrisponde una probabilità di transizione2 . Ciascuna

a
 
a−1 a+1
   
a−2 a a+2
     
a−3 a−1 a+1 a+3

Fig. 6.1. Possibili andamenti del capitale di A corrispondenti a tre lanci conse-
cutivi della moneta

2
Il lettore familiare con il calcolo delle probabilità può osservare che la probabili-
tà di transizione da uno stato E ad un altro stato F è un esempio di probabilità
condizionale, cioè la probabilità che si cada in F essendo certi di partire dallo stato E.
6.1 Esempi, definizioni e notazioni 237

Fig. 6.2. Grafo che illustra le possibili transizioni e le loro probabilità

di queste probabilità dipende dalla moneta ma non dipende dal numero di


turni di gioco effettuati in precedenza.
Avendo supposto che la moneta non sia truccata, e dunque che il gioco sia
equo, 1/2 è la probabilità di passare da j a j + 1 o da j a j − 1 Euro, se
0 < j < s, invece è 1 la probabilità di passare da 0 a 0 o da s ad s Euro (sono
due situazioni cui si può pervenire, ma da cui non si può uscire).
Calcoliamo la probabilità che A vinca il gioco. Questo corrisponde al verificarsi
di un evento dell’infinità dei seguenti possibili sviluppi del gioco:

A vince al primo turno


A vince al secondo turno
A vince al terzo turno
..
.

Ciascuno di questi eventi si realizza con un numero finito di percorsi nel grafo
(tale numero cresce rapidamente al crescere del numero d’ordine del turno
della vittoria) la cui probabilità è data dal prodotto delle probabilità del ve-
rificarsi di ciascuna transizione. La probabilità di vittoria è la somma delle
probabilità di tali eventi. Posto P (j), j = 0, 1, . . . , s, la probabilità di vincere
partendo con j Euro, si ottiene

1
P (j) = (P (j − 1) + P (j + 1)) j≥1 (6.1)
2
formula che ha una interpretazione geometrica: ogni terna di coordinate
(j − 1, P (j − 1)), (j, P (j)), (j + 1, P (j + 1)) corrisponde a tre punti allineati
nel piano. Inoltre, da P (0) = 0 e P (s) = 1 segue che ogni coppia (j, P (j))
appartiene ad una retta passante per l’origine:

j
P (j) = .
s
Dunque, la probabilità di vittoria per A (uguale alla probabilità di rovina per
B) sostituendo i nostri dati iniziali è
a
P (a) = .
a+b
238 6 Catene di Markov

Come si era già osservato, pur essendo equo il gioco, le probabilità sono a
favore di chi detiene un più cospicuo capitale iniziale (si rifletta sul fatto che
A in caso di vittoria conquista b Euro, B invece ne conquista a).
Una completa descrizione dell’evoluzione del gioco può essere ottenuta utiliz-
zando l’Algebra Lineare per esprimere in modo sintetico tutte le informazioni
contenute nella Fig. 6.2:
 T
se Pk = Pk (0) Pk (1) . . . Pk (s) è il vettore delle probabilità Pk (t) di ave-
re t Euro dopo k turni, abbiamo un esempio di catena di Markov ad s + 1
stati descritta da
⎡ ⎤
1 1/2 0 0 · · · 0 0
⎢ 0 0 1/2 0 · · · 0 0 ⎥
⎢ ⎥
⎢ 0 1/2 0 1/2 · · · 0 0 ⎥
⎢ ⎥
⎢ .. .. .. .. ⎥
Pk+1 = MPk dove M=⎢ 0 0 1/2 . . . . ⎥.
⎢ ⎥
⎢. . . . ⎥
⎢ .. .. .. . . 0 1/2 0 ⎥
⎢ ⎥
⎣ 0 0 0 · · · 1/2 0 0 ⎦
0 0 0 . . . 0 1/2 1

Con tale notazione, se si inizia con j Euro allora la probabilità di vittoria


dopo k turni, cioè Pk (s), è data dall’ultima componente del vettore Mk P0 ,
 T
ove P0 = 0 · · · 1 · · · 0 la cui unica componente non banale è la
j-esima. 

Esempio 6.2. Due urne contengono delle biglie colorate. La prima ne contie-
ne 2 bianche e 3 nere, la seconda 4 bianche e 5 nere. Si estrae una biglia dalla
prima urna, se ne registra il colore e la si reintroduce nella sua urna. Se era
bianca si effettua la successiva estrazione dalla prima urna, se era nera, dalla
seconda. Quindi si itera il procedimento.
Ci si chiede qual è la probabilità che alla quinta estrazione la biglia sia bian-
ca.
Si tratta di un esempio di catena di Markov a due stati: uno stato è l’estra-
zione di una biglia bianca, l’altro è l’estrazione di una biglia nera. Se la k-esima
biglia estratta è bianca, allora alla (k + 1)-esima estrazione la probabilità di
estrarre bianca è 2/5, quella di estrarre nera è 3/5; se la k-esima biglia è ne-
ra, allora alla (k + 1)-esima estrazione la probabilità di estrarre bianca è 4/9,
nera 5/9.
Per risolvere il problema posto, consideriamo tutti i casi possibili e definia-
mo Pk la probabilità che la k-esima estrazione sia bianca e Qk = 1 − Pk la
probabilità che sia nera.
Sappiamo, estraendo dalla prima urna, che P1 = 2/5 e Q1 = 3/5. Se la
k-esima estrazione è bianca, allora la probabilità che la (k + 1)-esima sia an-
cora bianca è 2/5; se la k-esima estrazione è nera, allora la probabilità che la
(k + 1)-esima sia bianca è 4/9. Poiché si tratta di eventi disgiunti la cui unione
dà tutti i casi in cui si può ottenere bianca alla (k + 1)-esima estrazione, si
6.1 Esempi, definizioni e notazioni 239

ha:
2 4
Pk+1 = P k + Qk (6.2)
5 9
e ricordando che Pk + Qk = 1
4 2
Pk+1 = − Pk .
9 45
Si tratta di una equazione lineare a coefficienti costanti; mediante la (2.4)
e ponendo attenzione al fatto che si parte da k = 1 si ricava la soluzione
generale:
 k−1
20 2
Pk = + − (P1 − 20/47) , k ∈ N\ {0} .
47 45

Dunque lim Pk = 20/47 ∈ R, cioè Pk tende all’equilibrio.


k
Si potrebbe procedere con le stesse regole ma iniziando ad estrarre dalla se-
conda urna; tuttavia l’argomentazione precedente prova che la scelta della
prima urna e la prima estrazione non influenzano la probabilità Pk per valori
di k “grandi”. Dunque, se avessimo cominciato dalla seconda urna non sarebbe
cambiato molto: Pk tende allo stesso valore L qualunque sia l’urna da cui si
inizia, tuttavia P1 = 2/5 se si inizia dalla prima urna, mentre P1 = 4/9 se si
inizia dalla seconda urna. T
In generale, posto Pk = Pk Qk possiamo tradurre la (6.2) nel modo se-
guente:
( )
2/5 4/9
Pk+1 = MPk k≥1 dove M= .
3/5 5/9

Se vi fossero state biglie con più di due colori, avremmo avuto una cate-
na di Markov con più di due stati ed avremmo utilizzato matrici di ordine
corrispondente al numero dei colori. 
In generale, una catena di Markov è un modello per descrivere una suc-
cessione di esperimenti in ciascuno dei quali i risultati possibili (ad esempio,
estrazione di una biglia bianca o nera) sono gli stessi in ogni esperimento. Tut-
tavia la probabilità di uno stesso evento (ad esempio, biglia bianca) dipende
solo dal risultato dell’esperimento precedente. Nel caso in cui il parametro è
il tempo si usa anche dire che le catene di Markov descrivono fenomeni che
dipendono dal passato solo tramite il presente.
Diamo a questo punto una definizione formale. Qui e nel seguito il parametro
k che descrive il processo è sempre considerato come tempo.
Definizione 6.3. Una catena di Markov finita e omogenea è un pro-
cesso descritto da un insieme finito Ω = {s1 , s2 , . . . , sn } di stati (o eventi)
si distinti tali che, per ogni coppia ordinata di stati sj , si , è assegnata una
probabilità mij di transizione dallo stato sj allo stato si , indipendente da k.
240 6 Catene di Markov

Le probabilità di transizione di una catena di Markov soddisfano le relazioni:


n
0 ≤ mij ≤ 1 i, j = 1, . . . , n ; mij = 1 ∀j = 1, . . . , n . (6.3)
i=1

La probabilità con cui si può visitare uno stato si al tempo k + 1 a partire da


uno stato sj al tempo k, dipende solo da sj , cioè dallo stato che si è presentato
al tempo k e non dagli stati che si sono visitati in tempi precedenti a k:
 
mij = P Xk+1 = si | Xk = sj , Xk−1 = sjk−1 , . . . , X1 = sj1 , X0 = sj0 =
= P (Xk+1 = si | Xk = sj ) .

Come si è fatto per l’Esempio 6.1 nella Fig. 6.2, una catena di Markov può esse-
re descritta e visualizzata mediante un grafo orientato, cioè un insieme di verti-
ci (gli eventi) e di lati (frecce che collegano gli eventi). È sottinteso che ad ogni
vertice A collegato mediante una freccia ad un altro vertice (incluso il vertice
stesso A) e a ciascuna freccia è associata una probabilità di transizione positi-
va; non si tracciano i cammini che corrispondono a probabilità di transizione
nulla. Per una trattazione più approfondita dei grafi si veda il Capitolo 7.
Dal punto di vista algebrico, è comodo rappresentare una catena di Markov
mediante la matrice di transizione (o matrice stocastica) M = [mij ] i
cui elementi sono le probabilità di transizione mij dallo stato sj allo stato si .
Noi studieremo solo il caso, detto omogeneo, in cui M è costante; nei casi non
omogenei si ha M = M (k).
La (6.3) assicura che M è una matrice positiva e la somma degli elementi di
ciascuna sua colonna è pari a 1.
Lemma 6.4. Sia M = [mij ] una matrice positiva di dimensione n. Valgono
le seguenti conclusioni:
(1) M è stocastica se e solo se:
 T
1 è autovalore di MT con autovettore associato 1 = 1 1 . . . 1 ;
(2) se M è stocastica, ogni suo autovalore λs soddisfa |λs | ≤ 1.

Prova. (1) È sufficiente osservare che la condizione di stocasticità per una matrice
positiva M equivale a MT ·1 = 1 e ricordare che M ed MT hanno gli stessi autovalori.
(2) Se Vs è un autovettore associato a λs allora:
 
n   n
n n

n
s
n
 
|λs | s
|Vi | = s
|λs Vi | =  mij Vj  ≤ mij Vjs  =
 
i=1 i=1 i=1 j=1 i=1 j=1
 n 

n
   s
n
= mij Vjs  = Vj  .
j=1 i=1 j=1

n
Poiché r=1 |Vrs | = 0 si ottiene la tesi. 
6.1 Esempi, definizioni e notazioni 241

Si noti che una matrice stocastica può ammettere più autovalori di modulo
unitario. Inoltre, possono esservi anche autovalori doppi, nulli o negativi come
accade per le seguenti matrici stocastiche:
( ) ( ) ( )
1 0 0 1 1/2 1/2
0 1 1 0 1/2 1/2

o anche complessi se n ≥ 3 (cfr. Esercizio 6.13).3


 T
Siano M = [mij ] una matrice stocastica e Pk = Pk1 Pk2 . . . Pkn il vettore
j
delle probabilità di ciascuno stato al tempo k (Pk è la probabilità di osservare
lo stato sj al tempo k). Si ha per ogni k ∈ N:


n
0 ≤ Pkj ≤ 1 , j = 1, . . . , n ; Pkj = 1 ∀k ∈ N . (6.4)
j=1

Dalle ipotesi fatte, per ogni k ∈ N


j
Pk+1 = Pk1 mj1 + Pk2 mj2 + · · · + Pkn mjn

dunque le n equazioni alle differenze che descrivono la probabilità degli n stati


ammissibili al tempo k + 1 in funzione delle corrispondenti probabilità al tem-
po precedente, costituiscono un sistema dinamico discreto vettoriale, ad un
passo, lineare omogeneo4 :

Pk+1 = M Pk ∀k ∈ N
(6.5)

Lemma 6.5. Se M è stocastica e P è una successione che soddisfa (6.5), al-


lora la validità di (6.4) per un valore fissato 
k, implica la validità di (6.4) per
ogni k > k.

Prova. La (6.5) dice che Pk+1 è combinazione lineare delle colonne di M con coeffi-
cienti dati dalle componenti di Pk .

0 1
ab
3
Se n = 2 e M = , con a, b, c, d ≥ 0, il polinomio caratteristico P (λ) =
cd
λ − (a + d) λ + (ad − bc) ha discriminante uguale a (a − d)2 + 4bc ≥ 0, dunque
2

tutti gli autovalori sono reali; inoltre, per la regola dei segni di Cartesio, entrambi
sono positivi se ad > bc, uno positivo e uno nullo se ad = bc, uno positivo e uno
negativo se ad < bc.
4
Attenzione: in alcune trattazioni si assume che mij rappresenti la probabilità di
j n
transizione da i a j e quindi Pk+1 = mhj Pkh ossia Pk+1 = MT Pk ; in tali casi
h=1
è la somma degli elementi di ogni riga di M ad essere uguale ad 1.
242 6 Catene di Markov

Da mij ≥ 0 e Pkj ≥ 0 j
∀i, j segue Pk+1 ≥0 ∀j. Inoltre
   n   n 

n
j

n
n
n
n
Pk+1 = mjh Pkh = mjh Pkh = mjh Pkh =
j=1 j=1 h=1 h=1 j=1 h=1 j=1


n
= Pkh = 1.
h=1

Ne segue anche
j
Pk+1 ≤1 ∀j.
Si è provata la validità di (6.4) per k = 
k + 1. Il caso generale (k > 
k) segue per
induzione. 

Riassumendo, il Lemma appena dimostrato afferma che una matrice stocasti-


ca trasforma un vettore distribuzione di probabilità in un altro vettore
distribuzione di probabilità. In generale, una catena di Markov sarà descritta
dal s.d.d. vettoriale (6.5) con matrice M stocastica e con dato iniziale di tipo
distribuzione di probabilità (distribuzione di probabilità iniziale), cioè


n
0 ≤ P0j ≤ 1, j = 1, . . . , n; P0j = 1 . (6.6)
j=1

La dinamica di tale sistema si svolge nel sottoinsieme proprio S di Rn :



n 
S = V ∈ R : Vj ≥ 0 ∀j ,
n
Vj = 1 ,
j=1

cioè tutte le traiettorie sono contenute in S.


S è detto n-simplesso. S è convesso, chiuso e limitato e coincide con l’insie-
me di tutte le possibili distribuzioni di probabilità su un insieme di n stati. Il
Lemma 6.5 può essere riformulato nel modo seguente:
il simplesso S è invariante per la dinamica del s.d.d. vettoriale (6.5) nel senso
che se P ∈ S allora MP ∈ S.

Studieremo in dettaglio la dinamica del sistema (6.5) ristretta ad S.

1
1
0 1 n=2

n=1
1
1
n=3
1

Fig. 6.3. n simplessi, n = 1, 2, 3


6.1 Esempi, definizioni e notazioni 243

Sistemi dinamici vettoriali ad un passo del tipo (6.5) sono stati studiati nel
Capitolo V. La loro soluzione esplicita è:

Pk = Mk P0 ∀k ∈ N

Poiché {s1 , . . . , sn } descrive una collezione di tutti gli stati possibili (suppo-
(k)
sti distinti), si verifica che il generico elemento mij di Mk rappresenta la
probabilità di transizione dallo stato j allo stato i in k passi, cioè:
(k)
mij = P (Xn+k = si | Xn = sj ) . (6.7)

In generale, per ogni k e h in N, valgono le relazioni:

(k+h)

n
(k) (h)
(equazioni di Chapman-Kolmogorov) mij = mir mrj .
r=1

Nel contesto delle catene di Markov si introduce una denominazione probabi-


listica per l’equilibrio del sistema dinamico discreto vettoriale corrsipondente:
quella di distribuzione di probabilità invariante.
Definizione 6.6. Data una catena di Markov finita che opera su uno spazio
 T
di n stati con matrice stocastica M, un vettore P = P 1 P 2 . . . P n si dice
distribuzione di probabilità invariante se


n
MP = P, Pj ≥ 0 e Pj = 1
j=1

Come già ricordato, una catena di Markov ad n stati è un sistema dinamico


discreto vettoriale lineare le cui traiettorie (e dati iniziali) sono vincolati ad
essere contenuti nell’n-simplesso S di Rn . Da questo punto di vista una distri-
buzione di probabilità invariante è un equilibrio: l’orbita stazionaria associata
è caratterizzata dal fatto che la probabilità di trovare il sistema in un dato
stato non dipende dal tempo k.
( )
01  T
Esempio 6.7. Se M = allora gli autovalori sono ±1, e P = 1/2 1/2
10
è l’unica distribuzione di probabilità invariante (nel 2-simplesso S delle distri-
buzioni di probabilità su 2 stati). Dunque, P è l’unico equilibrio del s.d.d.
Pk+1 = MPk in S, inoltre se il dato iniziale P0 = P allora Pk evolve secondo
una traiettoria 2 periodica. 

M ammette
Osservazione 6.8. Se una matrice stocastica  un autovettore
W > 0 relativo all’autovalore 1, allora W/ jW
j
è una distribuzione
di probabilità invariante per M.
244 6 Catene di Markov

Quando la matrice di transizione M ha l’autovalore 1 semplice e non ha al-


tri autovalori di modulo unitario l’analisi asintotica della catena di Markov
associata è descritta in modo completo dal Teorema seguente.
Teorema 6.9. Sia M una matrice stocastica, V1 , . . . , Vn una base di auto-
vettori (o base di Jordan di autovettori generalizzati se necessario) di M cui
corrispondono gli autovalori λ1 , . . . , λn verificanti λ1 = 1, |λj | < 1, ∀j = 1.
Allora si può secgliere V1 > O, dunque non è restrittivo supporre anche che
V1 sia una distribuzione di probabilità

Vj1 = 1 (6.8)
j

scelta che presupporremo nel seguito.


Inoltre ogni distribuzione di probabilità iniziale P0 , si può rappresentare me-
diante
n
P0 = cj V j con c1 = 1 (6.9)
j=1

e la corrispondente soluzione Pk del sistema dinamico (6.5) verifica

Pk = V1 + c2 λk2 V2 + · · · + cn λkn Vn (6.10)

se V1 , . . . , Vn sono tutti autovettori


(o in generale, se nella base sono presenti anche autovettori generalizzati,

Pk = V1 + Wk (6.11)

dove il vettore Wk è una somma finita con coefficienti indipendenti da k di


termini a crescita al più k mj −1 λkj , con |λj | < 1, mj molteplicità geometrica
di λj ) . Inoltre:
lim Pk = V1 . (6.12)
k


Prova. Fissato P0 , per opportuni (unici) cj vale P0 = n j=1 cj V . Tenendo conto
j

dell’Osservazione 5.9 otteniamo le rappresentazioni (6.10) e (6.11), che implicano

lim Pk = c1 V1 , da cui c1 Vj1 ≥ 0 ∀j . (6.13)


k

n
Poiché risulta h=1 Pkh = 1, ∀k, si ricava


n
n
1 = lim Pkh = c1 Vj1
k
h=1 j=1

n
cioè c1 = 0 , h=1 Vh1 = 0 e

1
c1 = . (6.14)
V11 + V21 + · · · + Vn1
6.1 Esempi, definizioni e notazioni 245

Da (6.4) e (6.13) segue che c1 V1 ha tutte le componenti non negative ed almeno


una strettamente positiva, dunque è lecito scegliere V1 distribuzione di probabilità;
ne segue c1 = 1 e (6.12). 

Abbiamo così provato che ogni distribuzione di probabilità iniziale P0 ha una


componente non banale lungo V1 , anzi la componenete di P0 lungo V1 coin-
cide con V1 se tale autovettore è stato selezionato (cosa sempre possibile)
come una distribuzione di probabilità (si confronti la conclusione con il Teo-
rema 5.19 valida nel caso di s.d.d. vettoriali la cui dinamica non è confinata
al simplesso S delle distribuzioni di probabilità).
Osservazione 6.10. L’informazione c1 = 1 nella tesi del Teorema 6.9 può
apparire sorprendente ad una prima lettura. In realtà diventa assai naturale
se si considera che, per ogni matrice stocastica M la distribuzione di proba-
bilità uniforme [1/n 1/n · · · 1/n]T è autovettore relativo all’autovalore 1 per
la sua trasposta MT , e nel caso in esame tale autovalore è semplice per MT
perché semplice per M; dunque, osservato che ogni distribuzione di probabi-
lità iniziale P0 verifica P0 > 0, si può ripetere l’argomento nella prova del
Teorema 5.19 (senza usare il Teorema di Perron-Frobenius che serviva solo per
la semplicità dell’autovalore di massimo modulo che qui vale 1 ed è semplice
per ipotesi) ottenendo che tutti gli autovettori generalizzati (diversi da V1 )
Vj j ≥ 2 sono ortogonali a [1/n 1/n · · · 1/n]T che a sua volta è ortogonale al
simplesso di tutte le distribuzioni di probabilità.
La situazione illustrata nel Teorema 6.9 (autovalore dominante semplice ugua-
le ad 1 associato ad un autovettore positivo) è particolarmente semplice e ben
descritta. È utile saperla identificare in generale.
Definizione 6.11. Una catena di Markov regolare è una catena di Mar-
kov con matrice di transizione M per cui esiste un valore di k tale che la
matrice Mk è strettamente positiva (Definizione 5.11).
In tale caso anche la matrice M si dice regolare.
Dunque, una catena di Markov è regolare se esiste un k intero positivo tale che
la probabilità di transizione in k passi fra due suoi stati qualsiasi è positiva.
Esempio 6.12. La matrice stocastica
( )
0 1/2
M=
1 1/2

è regolare dato che


( )( ) ( )
0 1/2 0 1/2 1/2 1/4
M2 = = .
1 1/2 1 1/2 1/2 3/4

La matrice stocastica ( )
1 1/2
M=
0 1/2
246 6 Catene di Markov

non è regolare; infatti


( )( ) ( )
1 1/2
2 1 1/2 1 3/4
M = =
0 1/2 0 1/2 0 1/4

e, supponendo che sia ( )


1 pk−1
M k−1
=
0 1 − pk−1
si ottiene
( )( ) ( )
1 1/2 1 pk−1 1 (pk−1 + 1)/2
M = M·M
k k−1
= = . 
0 1/2 0 1 − pk−1 0 (1 − pk−1 )/2

Per riconoscere se una matrice stocastica è regolare risulta utile il seguente


teorema.

Teorema 6.13. Se una catena di Markov è regolare, allora la sua matrice di


transizione M ha esattamente un solo autovalore uguale ad 1 e tutti gli al-
tri sono strettamente minori di 1 in modulo. A tale autovalore dominante è
associato un autovettore strettamente positivo.

Prova. Sappiamo (vedi Lemma 6.4) che 1 è un autovalore di M e che non vi sono
autovalori di modulo maggiore di 1. Per il Teorema di Perron-Frobenius (Teoremi
5.12 e 5.13) se la catena è regolare, allora M ha un autovalore dominante positivo e
semplice che necessariamente è l’autovalore 1. Il corrispondente autovettore è stret-
tamente positivo per lo stesso teorema, dunque se ne può determinare un multiplo
strettamente positivo la cui somma delle componenti sia esattamente 1 (cioè sia una
distribuzione di probabilità). 
I Teoremi 6.9 e 6.13 mostrano che i s.d.d. associati a catene di Markov regola-
ri hanno notevoli proprietà qualitative e quantitative: il quadro generale sarà
sintetizzato nel Teorema 6.39.

Esempio 6.14. La matrice stocastica


⎡ ⎤
1 0 1/3
M = ⎣ 0 1 1/3 ⎦
0 0 1/3

non è regolare, avendo autovalori λ1 = λ2 = 1 e λ3 = 1/3. 

Definizione 6.15. Uno stato assorbente per una catena di Markov ad n


stati, è uno stato sj tale che mjj = 1.

Esplicitamente, uno stato sj è assorbente se il suo verificarsi al tempo k implica


la certezza di riottenere sj al tempo k + 1.
6.1 Esempi, definizioni e notazioni 247

Osservazione 6.16. Se sj è uno stato assorbente, la j-esima colonna della


matrice di transizione M è del tipo
 T
0 ... 0 1 0 ... 0 (6.15)

j-esima posizione

Inoltre, ad sj corrisponde un autovalore di M uguale a 1 che ha (6.15) come


autovettore associato.
Tale autovettore è una distribuzione di probabilità invariante.

Definizione 6.17. Una catena di Markov assorbente è una catena di


Markov che verifica le due condizioni seguenti:
• esiste almeno uno stato assorbente;
• da ogni stato iniziale si può pervenire ad uno stato assorbente, cioè per
ogni j esiste un indice i ed un intero k > 0 tali che si è assorbente e
(k)
mij > 0.

Esempio 6.18. La seguente matrice


⎡ ⎤
0 0 0
M = ⎣1 0 0 ⎦
0 1 1

è associata ad una catena di Markov assorbente. 

Esempio 6.19. Per la catena di Markov con matrice di transizione


⎡ ⎤
1 0 0
M = ⎣ 0 1/2 1/2 ⎦
0 1/2 1/2

il primo stato è assorbente, inoltre non vi sono transizioni dal secondo né dal
terzo al primo: il corrispondente Problema 6.24 è disaccoppiato. Dunque la
catena di Markov non è assorbente. 

Esempio 6.20. La catena di Markov con matrice di transizione


⎡ ⎤
1 0 1/2 1/3
⎢ 0 1 1/2 2/3 ⎥
M=⎢ ⎣0 0 0

0 ⎦
0 0 0 0

è assorbente. 
248 6 Catene di Markov

Esempio 6.21. Consideriamo la catena di Markov assorbente a 5 stati (i


primi due sono assorbenti) con matrice di transizione:
⎡ ⎤
1 0 0, 2 0 0, 1
⎢ 0 1 0, 2 0, 3 0, 2 ⎥
⎢ ⎥
M=⎢ ⎥
⎢ 0 0 0, 2 0, 3 0, 3 ⎥ .
⎣ 0 0 0, 2 0, 4 0, 2 ⎦
0 0 0, 2 0 0, 2

Si noti che ci si può trovare fuori dagli stati 1 e 2 per tempi arbitrariamente
lunghi, ma in ogni evoluzione, ad ogni k, ad ogni stato vi è probabilità positiva
di cadere o nello stato 1 o nello stato 2. 
Esempio 6.22. Consideriamo la catena di Markov a quattro stati, non assor-
bente, con uno stato assorbente (il primo) e con matrice di transizione:
⎡ ⎤
1 0, 2 0 0
⎢ 0 0, 2 0 0 ⎥
M=⎢ ⎥
⎣ 0 0, 3 0, 5 0, 5 ⎦ ;
0 0, 3 0, 5 0, 5

in questo caso, se si transita nel 3◦ o 4◦ stato, il primo diventa inaccessibile. 


Osservazione 6.23. Si noti che la presenza anche di un solo stato assorbente
in una catena di Markov con almeno 2 stati fa sì che la catena non possa
essere regolare: infatti la corrispondente matrice di transizione M non è stret-
tamente positiva (nella colonna corrispondente allo stato assorbente vi sono
degli zeri) e ciascuna sua potenza intera presenterà almeno uno zero (dato che
la suddetta colonna rappresenta un autovettore di M).
Esercizio 6.1. Stabilire quali delle catene di Markov associate alle seguenti matrici
di transizione sono regolari:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1/2 0 1/5 1/2 0 1/5 1/2 0 0
M1 = ⎣ 0 1 2/5 ⎦ ; M2 = ⎣ 0 0 2/5 ⎦ ; M3 = ⎣ 0 1/3 3/5 ⎦ .
1/2 0 2/5 1/2 1 2/5 1/2 2/3 2/5

Esercizio 6.2. Con riferimento alle matrici di transizione dell’esercizio precedente,


stabilire a quali corrispondono catene di Markov assorbenti.

6.2 Analisi asintotica di modelli descritti da catene di


Markov assorbenti
In questo paragrafo descriviamo alcuni strumenti per lo studio qualitativo
delle catene di Markov.
La legge ricorsiva Pk+1 = MPk che definisce una catena di Markov (che è
un s.d.d. vettoriale lineare omogeneo) ci consente di calcolare le probabilità
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti 249

dei vari stati al tempo k + 1 se è nota la probabilità di ciascuno di essi al


tempo k (ricordiamo che ∀k ∈ N, Pk è il vettore distribuzione di probabilità
n dimensionale corrispondente agli n stati del sistema). In tali situazioni è di
grande interesse per le applicazioni risolvere il seguente problema:

Problema 6.24. Assegnato uno stato iniziale5 si o, più in generale, una di-
stribuzione di probabilità iniziale P0 , calcolare o perlomeno stimare la pro-
babilità che l’evoluzione si concluda in un prefissato stato finale sj cioè lo si
raggiunga e vi si rimanga definitivamente (quale che sia la storia con cui si
perviene a tale stato).

Studiamo il Problema 6.24 solo nel caso di catene assorbenti: come sarà chia-
rito dal Teorema 6.26, se la catena è assorbente allora il problema 6.24 è
significativo solo se lo stato finale sj è assorbente, infatti, in tal caso la proba-
bilità di rimanere indefinitamente in uno stato non assorbente sj risulta nulla.
Denoteremo con P la successione di vettori di probabilità: Pk+1 = MPk con
P0 assegnato, dove M ha ordine n.
Per risolvere il problema si potrebbero determinare tutte le possibili evoluzioni
che, partendo da P0 conducono ad sj , calcolarne le corrispondenti probabilità
ed infine sommarle. Questa tecnica si rivela in pratica proibitiva.
Tuttavia, nei casi in cui assegnato P0 sia possibile mostrare che esiste

P∞ = lim Pk
k

e si sa calcolare P∞ , il problema posto è risolto dal valore della componente


j-esima di tale P∞ .

Esempio 6.25. Se ( )
1/2 1/2
M=
1/2 1/2
allora non vi sono stati assorbenti. Vi è però una distribuzione di probabilità
invariante (vedi Definizione 6.6)) che è strettamente positiva:
 T
P = 1/2 1/2 .

Poiché Mk = M per ogni k ≥ 1, la dinamica associata è banale: Pk = Mk P0 =


P per ogni k ≥ 1. Osserviamo che, qualunque sia la distribuzione iniziale,
l’evento permanenza definitiva in un fissato stato ha probabilità nulla. 
Premettiamo che, se M è la matrice di transizione di una catena di Markov
assorbente, allora non è restrittivo supporre che gli stati assorbenti siano i pri-
mi m (1 ≤ m < n), eventualmente riordinando gli stati (cioè con un cambio
5
Prescrivere lo stato iniziale si , i ∈ {1, 2, . . . , n}, coincide con l’assegnazione
# $T
della distribuzione di probabilità iniziale P0 = 0 . . . 0 1 0 . . . 0 dove l’unica
componente non banale è quella di posizione i-esima.
250 6 Catene di Markov

di coordinate in Rm di tipo permutazione della base, si vedano gli Esercizi 6.6


e 6.7).
Il vettore Pk delle probabilità può essere decomposto in due vettori Pk e Qk ,
dove Pk corrisponde alle prime m componenti di Pk (probabilità degli stati
assorbenti), Qk corrisponde alle ultime h componenti di Pk (probabilità degli
stati non assorbenti). Dunque, posto h = n − m ≥ 1, abbiamo
( ) ( )
Im B Pk
M= Pk = (6.16)
Oh,m A Qk

dove Im è la matrice identità di ordine m, Oh,m è la matrice di ordine h × m


con tutti gli elementi nulli; infine A (quadrata di ordine h) può essere la ma-
trice nulla Oh , mentre B (di ordine m × h) non può essere nulla perchè la
catena è assorbente.

Teorema 6.26. Sia M la matrice stocastica n × n di una catena di Markov


assorbente con m stati assorbenti decomposta come in (6.16).
Se si parte da uno stato non assorbente, o più in generale da una distribuzio-
 T
ne di probabilità P0 = P0 Q0 , allora esiste la distribuzione di probabilità
 T
P∞ := P∞ Q∞ dove

P∞ = lim Pk Q∞ = lim Qk = 0
k k

precisamente, posto h = n − m il numero di stati non assorbenti, si ottiene

  −1  T
Pk = P0 + B Ih − Ak (Ih − A) Q0 P k = P k Ak Q 0

−1  T
P∞ = P0 + B (Ih − A) Q0 P∞ = P ∞ 0

 T
In particolare, a partire da P0 Q0 :
• la probabilità di rimanere definitivamente in uno stato non assorbente è
nulla;
• la probabilità di rimanere definitivamente in uno stato assorbente sj è pari
alla componente j-esima di P∞ ;
• se A = O, la dinamica è banale: Pk = P0 + BQ0 k ≥ 1, Qk = 0 k ≥ 1.
Prima di procedere con la dimostrazione del teorema è opportuno introdurre
una definizione ed un lemma.
Definizione 6.27. Una matrice quadrata A si dice substocastica se:
• A ≥ O;
• la somma degli elementi di ogni colonna di A è ≤ 1;
• almeno una delle precedenti somme è < 1.
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti 251

Lemma 6.28. Se A è la sottomatrice di una matrice stocastica assorbente M


che agisce su tutti gli stati non assorbenti, allora A è substocastica e tutti gli
autovalori di A hanno modulo strettamente minore di 1.

Prova. Grazie alle stime (5.16) e (5.17) dell’autovalore dominante (la cui esistenza
è garantita Teorema di Perron-Frobenius, 3a formulazione) con il max delle som-
me sulle colonne, l’autovalore dominante λA verifica 0 ≤ λA ≤ 1. Se per assurdo
fosse λA = 1, a λA corrisponderebbe la distribuzione di probabilità invariante P
per A (autovettore normalizzato di A) e la distribuzione di probabilità invariante
 = [ 0 P ]T per M:
P
# $T # $T
 =
MP Im 0 AP = 0 AP 
= P

 =P
Mk P  ∀k.

 contraddice il fatto che ciascuno degli h stati non assorbenti


Ma l’esistenza di P
deve comunicare con almeno uno degli m stati assorbenti, cioè con l’esistenza di k0
t.c. almeno una delle prime m componenti di Mk P  sia strettamente positiva.

Si noti che una matrice substocastica può avere autovalori di modulo 1:


( )
1 1/2
.
0 1/3

Prova del Teorema 6.26. La catena di Markov è descritta dalla relazione


0 1 0 10 1
Pk+1 Im B Pk
= .
Qk+1 O A Qk

Si noti che è corretto operare algebricamente come se Pk+1 , Qk+1 , Im , B, A fossero


numeri perché si tratta di vettori e matrici le cui dimensioni soddisfano le relazioni
richieste per l’effettuazione delle somme e dei prodotti righe per colonne.
In particolare, il sistema dinamico associato alla catena di Markov si può disaccop-
piare in due sistemi dinamici discreti

Pk+1 = Pk + BQk
Qk+1 = AQk

Dal secondo si ottiene

Qk = Ak Q0 ∀k ∈ N. (6.17)

Poiché i primi m sono tutti gli stati assorbenti della catena di Markov, le colonne di
B non possono essere tutte contemporaneamente nulle, dunque la matrice A è sub-
stocastica. Per il Lemma 6.28, tutti gli autovalori di A hanno modulo strettamente
252 6 Catene di Markov

minore di 1. Allora limk Ak = O e da (6.17) segue6

lim Qk = 0.
k

Sostituendo (6.17) nel primo sistema dinamico discreto, otteniamo

Pk+1 = Pk + BAk Q0

la cui soluzione è (verificarlo per induzione)


k−1 
j  
Pk = P0 + B A Q0 = P0 + B Ih − Ak (Ih − A)−1 Q0 .
j=0

Il fatto che Ih − A sia sempre invertibile segue dal fatto che tutti gli autovalori di A
hanno modulo strettamente minore di 1.
Passando al limite per k → +∞, si ottiene

P∞ = P0 + B (Ih − A)−1 Q0 . 

Il Teorema provato fornisce una descrizione completa delle dinamiche associa-


te ad una catena di Markov assorbente: se si parte da uno stato assorbente
sj cioè P0j = 1, allora vi si rimane indefinitamente cioè la dinamica è banale;
se invece non si parte da uno stato assorbente cioè P0 = 0, allora la dina-
mica è molto più ricca e interessante per le applicazioni e, per ogni scelta
P0 = [ 0 Q0 ]T , l’insieme delle distribuzioni di probabilità invarianti attrae le
corrispondenti traiettorie.

6.3 Passeggiate casuali, duelli e partite di tennis

Applichiamo i risultati del paragrafo precedente ad alcuni esempi.

Esempio 6.29. Consideriamo un ubriaco che esce da un bar: alla sua sinistra
si trova un lago, alla sua destra la propria casa; supponiamo che l’ubriaco
non stia mai fermo e che la probabilità che faccia un passo verso casa sia 0, 5
mentre la probabilità che faccia un passo nella direzione opposta, verso il lago,
sia 0, 5. Egli continua a camminare in modo casuale fino a quando o arriva a
casa o finisce nel lago!
Al solo scopo di ridurre la dimensione del problema, senza alterarne la sostan-
za, abbiamo ridotto le distanze in questione: la casa dista un passo dal bar, il
lago due.
Allora vi sono quattro stati, a, b, c, e d; il vettore che descrive le probabilità
 T
di ciascuno stato al tempo k è Wk = ak bk ck dk , mentre la matrice di

6
Si noti che passare al limite nella prima equazione, tenendo conto di questo
risultato (limk Qk = 0), anche supponendo che ∃ limk Pk , conduce all’identità
lim Pk+1 = lim Pk che non dà alcuna informazione.
k k
6.3 Passeggiate casuali, duelli e partite di tennis 253

Fig. 6.4. Passeggiata a caso dell’ubriaco

transizione e la catena di Markov sono rispettivamente


⎡ ⎤
1 0, 5 0 0
⎢0 0 0, 5 0 ⎥

T=⎢ Wk+1 = TWk .
⎣0 0, 5 0 0 ⎦
0 0 0, 5 1

Si noti l’analogia con il gioco “testa o croce” con moneta equa qualora uno dei
giocatori inizi con una somma pari alla posta e l’altro con una somma dop-
pia. Utilizziamo un ragionamento (diverso da quello utilizzato per i lanci della
moneta) che si presta a generalizzazioni. È utile separare gli stati assorbenti
dagli altri anteponendo il quarto stato a secondo e terzo:

A1 = a , A2 = d , B1 = b , B2 = c.

Nelle nuove coordinate abbiamo


⎡ ⎤
1 0 0, 5 0
⎢ 0 1 0 0, 5 ⎥
M=⎢ ⎥ Pk+1 = MPk (6.18)
⎣ 0 0 0 0, 5 ⎦
0 0 0, 5 0

e, al tempo k,

Pk1 = prob. di A1 , Pk2 = prob. di A2 , Pk3 = prob. di B1 , Pk4 = prob. di B2 .

La seconda equazione
2
Pk+1 = Pk2 + 0, 5Pk4
dice che la probabilità di arrivare a casa dopo k + 1 passi è data dalla somma
della probabilità di essere a casa dopo k passi e di 0, 5 volte la probabilità di
essere in b = B1 dopo k passi. Posto
⎡ ⎤
1 0 0, 5 0
( )
I2 B ⎢0 1 0 0, 5 ⎥
M= = ⎢
⎣0 0 0
⎥ (6.19)
O A 0, 5 ⎦
0 0 0, 5 0
254 6 Catene di Markov

e
( ) ( )
P1 P3  T  T
P= Q= P = P Q = P1 P2 P3 P4
P2 P4

riscriviamo a blocchi il s.d.d. di partenza


( ) ( )( )
Pk+1 I2 B Pk
= .
Qk+1 OA Qk

In tali casi, cioè se P0 = 0, le probabilità di finire in uno stato assorbente


sono, con riferimento alla notazione (6.19):
−1
lim Pk = B (I2 − A) Q0
k
( ) ( )
0, 5 0 1 −0, 5
B= I2 − A = .
0 0, 5 −0, 5 1
Inoltre, si ricava: ( )
4/3 2/3
(I2 − A)−1 = .
2/3 4/3
Allora, se siamo sicuri che la passeggiata inizia dal bar ... abbiamo
 T  T
P0 = 0 0 Q0 = 0 1
( )T
−1 1 2
B (I2 − A) Q0 =
3 3
In conclusione, partendo dal bar, la probabilità di arrivare a casa è 2/3 mentre
quella di essere “assorbito” dal lago è 1/3. 

Esempio 6.30. Immaginiamo una sequenza da film western in cui si svolga un


duello simultaneo tra tre pistoleros A, B, C. Supponiamo che A, buon tiratore,
abbia una percentuale di bersagli colpiti del 70%, B meno preciso abbia una
percentuale del 50% mentre C decisamente scarso ha una percentuale del 30%.
Il duello si svolge a turni successivi: in ciascun turno, ciascuno spara ad uno
degli altri due scelto in modo tale da massimizzare le proprie chance di vittoria.
Come migliore strategia ciascuno cerca di colpire il migliore dei due avversari
rimanenti. Pertanto al primo turno A cerca di colpire B, mentre B e C cer-
cano di colpire A. Se più di uno sopravvive si passa ad un turno successivo.
Ci si chiede quale dei tre ha le maggiori possibilità di sopravvivere, e più in
generale, quali sono le probabilità delle varie conclusioni possibili (con uno o
nessun vincitore).
Il problema presenta analogie interessanti con lo studio dei turni elettorali
con più di due candidati (o partiti) ed analizzarlo matematicamente conduce
a delle conclusioni sorprendenti.
6.3 Passeggiate casuali, duelli e partite di tennis 255

Conviene studiare il caso generale, indicando con a, b e c le probabilità di


colpire il bersaglio scelto rispettivamente da parte di A, B e C, con i vincoli

0<c<b<a<1.

Ogni stato è un insieme di possibili superstiti dopo un turno del duello. Gli
stati assorbenti sono:
E1 nessuno sopravvive
E2 sopravvive solo A
E3 sopravvive solo B
E4 sopravvive solo C
Gli stati non assorbenti sono: s1 solo A e C sopravvivono, s2 solo B e C
sopravvivono, s3 tutti vivi. Non si può verificare il caso in cui solo A e B
sopravvivono (se non come stato iniziale), poiché se sono tutti vivi, nessuno
cerca di colpire C.
Siano Pk1 , Pk2 , Pk3 e Pk4 le probabilità di E1 , E2 , E3 e E4 dopo k turni, e Qk1 ,
Qk2 e Qk3 le probabilità di s1 , s2 e s3 .
1
Calcoliamo Pk+1 . Vi sono tre casi da considerare che corrispondono alla non
sopravvivenza di alcuno dopo il turno k + 1: nessun sopravvissuto dopo il
turno k, con probabilità Pk1 ; solo A e C dopo il turno k che si eliminano reci-
procamente al turno k + 1, con probabilità Qk1 · a · c; solo B e C dopo il turno
k che si eliminano reciprocamente al turno k + 1, con probabilità Qk2 · b · c.
Sommando le probabilità relative ai tre casi:
1
Pk+1 = Pk1 + Qk1 · a · c + Qk2 · b · c.
2
Per ottenere Pk+1 consideriamo due casi: solo A sopravvive dopo k turni; solo
A e C sopravvivono dopo k turni ed al (k + 1)-esimo turno A colpisce C e C
manca A:
2
Pk+1 = Pk2 + a (1 − c) Qk1 .

Analogamente si ottiene:
3
Pk+1 = Pk3 + b (1 − c) Qk2
4
Pk+1 = Pk4 + c (1 − a) Qk1 + c (1 − b) Qk2 + a (b + (1 − b) c) Qk3
1
Qk+1 = (1 − a) (1 − c) Qk1 + a (1 − b) (1 − c) Qk3
2
Qk+1 = (1 − b) (1 − c) Qk2 + (1 − a) (b + (1 − b) c) Qk3
3
Qk+1 = (1 − a) (1 − b) (1 − c) Qk3

Per effettuare i calcoli occorre porre attenzione a valutare la probabilità che


B o C o entrambi colpiscano A. Questo avviene in due modi: nel primo B
colpisce A (e dunque non interessa cosa fa C), nel secondo B sbaglia e C
colpisce. Dunque la probabilità è b + (1 − b) c.
256 6 Catene di Markov

(1−a)(1−b)(1−c)

ABC

a(1−b)(1−c)
(1− a)(b+ (1− b)c)

a(b + (1− b)c)

AC (1− a)(1− c) BC
(1− a)(1− c)
ac c(1− b)
bc
a(1− c) c(1− a) b(1− c)

1 A 1 C 1 B 1 O

Fig. 6.5. Probabilità di transizione nel duello a tre

Si noti che è molto utile (in questo esempio, ma soprattutto in situazioni più
complicate con molti stati) utilizzare un diagramma per stabilire quali sono
tutti i percorsi possibili che conducono ad un certo stato finale (vedi Fig. 6.5).
In pratica, prima si disegna il diagramma dei soli percorsi possibili, poi si
calcolano le probabilità di ciascuna transizione (matrice M di Fig. 6.6).
Dal Teorema 6.26 sappiamo che det (I3 − A) = 0. Peraltro la verifica diretta
di tale proprietà è immediata perché A è triangolare superiore e dunque sono

⎡ ⎤
ac bc 0
⎢ a (1 − c) 0 0 ⎥
⎢ ⎥
! ⎢ I
" 0 b (1 − c) 0 ⎥
I4 B ⎢ 4 ⎥
⎢ c (1 − a) c (1 − b) a (b + (1 − b) c) ⎥
M= =⎢ ⎥
O4,3 A ⎢ ⎥
⎢ (1 − a) (1 − c) a (1 − b) (1 − c) ⎥
⎢ 0 ⎥
⎣ 0 (1 − b) (1 − c) (1 − a) (b + (1 − b) c) ⎦
O4,3
0 0 (1 − a) (1 − b) (1 − c)

Fig. 6.6. Matrice di transizione del duello a tre


6.3 Passeggiate casuali, duelli e partite di tennis 257
−1
tali anche I3 − A e (I3 − A) :

det(I3 − A) = [1 − (1 − a) (1 − c)] [1 − (1 − b) (1 − c)] [1 − (1 − a) (1 − b) (1 − c)]

e ogni parentesi tonda contiene una quantità compresa fra 0 e 1 per l’ipotesi
a, b, c ∈ (0, 1); così i prodotti contenuti in ogni parentesi quadrata forniscono
ancora numeri compresi fra 0 e 1 e tale è la quantità in ciascuna parentesi
quadrata.
Se, ritornando all’esempio, consideriamo i dati

a = 0, 7 b = 0, 5 c = 0, 3

otteniamo (è consigliabile effettuare i conti mediante programmi di calcolo


numerico) ⎡ ⎤
0, 79 0 −0, 245
I3 − A = ⎣ 0 0, 65 −0, 195 ⎦
0 0 0, 895
⎡ ⎤
1, 2658 0 0, 34651
−1
(I3 − A) = ⎣ 0 1, 5385 0, 3352 ⎦ .
0 0 0, 1173
Utilizzando la formula del Teorema 6.26, a partire dalla situazione iniziale s3 ,
 T
cioè tutti vivi e Q0 = 0 0 1 , si ottiene
⎡ ⎤ ⎡ ⎤
0, 26582 0, 23078 0, 12305 ⎡ ⎤ 0, 12305
0
⎢ 0, 62024 0 0, 16979 ⎥ ⎢ ⎥
⎥ ⎣ 0 ⎦ = ⎢ 0, 16979 ⎥ .
P∞ = B (I3 − A) Q0 = ⎢
−1
⎣ 0 0, 53848 0, 11732 ⎦ ⎣ 0, 11732 ⎦
1
0, 11392 0, 23078 0, 58984 0, 58984

Riassumiamo ed interpretiamo i risultati approssimando alla terza cifra de-


cimale.
La probabilità che nessuno sopravviva è 0, 123 , la probabilità che A vinca è
0, 170, la probabilità che B vinca è 0, 117 e la probabilità che C vinca è 0, 589.
Il risultato è meno sorprendente di quanto non possa apparire a prima vista:
basta riflettere sul fatto che dopo il primo turno A è vivo solo nel 35% dei
casi e B nel 50% dei casi, mentre C è sicuramente vivo, anzi C vince al primo
turno in 45, 5 casi su 100.
Se B non si presenta al duello le cose vanno diversamente: si parte da s1 e si
ottiene (M è la stessa, basta cambiare Q0 scegliendo Q0 = [ 1 0 0 ]T )
⎡ ⎤ ⎡ ⎤
0, 26582 0, 23078 0, 12305 ⎡ ⎤ 0, 26582
1 ⎥
⎢ 0, 62024 0 0, 16979 ⎥ ⎢
⎥ ⎣ 0 ⎦ = ⎢ 0, 62024 ⎥ .
B (I3 − A) Q0 = ⎢
−1
⎣ 0 0, 53848 0, 11732 ⎦ ⎣ 0 ⎦
0
0, 11392 0, 23078 0, 58984 0, 11392

In questo caso l’eventualità che nessuno sopravviva ha probabilità 0, 266, A


258 6 Catene di Markov

vince con probabilità 0, 620, B non vince perché non partecipa7 e C vince con
probabilità 0, 114. Chiaramente C si augura che B partecipi al duello.
Anche nelle competizioni elettorali con turni di ballottaggio successivi si pos-
sono creare paradossi in cui candidati deboli si avvantaggiano su candidati
più forti per la presenza di candidati di disturbo.8 

Esempio 6.31. Consideriamo una partita di tennis fra due giocatori A e B:


vince la partita il giocatore che per primo si aggiudica 2 set su tre a disposi-
zione. Ciascun set è suddiviso in più giochi e per vincere un set uno dei due
giocatori deve vincere 6 giochi se nel frattempo l’avversario non ne ha vinti
più di 4 (se ciò non accade, al 5 pari, solitamente si passa al cosiddetto tye
break).
In ogni gioco (game) la sequenza di punteggi che un giocatore può ottenere pri-
ma della vittoria è 15, 30, 40. Dunque, i primi possibili risultati parziali di un
game possono essere i seguenti (ordinati secondo l’ordinamento lessicografico):

0 − 15 0 − 30 0 − 40 15 − 0 15 − 15 15 − 30 15 − 40

30 − 0 30 − 15 30 − 30 30 − 40 40 − 0 40 − 15 40 − 30

Inoltre, se a partire da un punteggio di 40 − 30 oppure 30 − 40 il giocatore


in svantaggio vince il punto, il punteggio diventa di “parità”: da questa situa-
zione si passa a quella di “vantaggio” per uno dei due giocatori dopodiché o
si torna in parità oppure il game termina con la vittoria del giocatore che era
in vantaggio.
Un modo di tenere conto del diverso livello dei due giocatori è quello di attri-
buire due valori pA e pB = 1 − pA rispettivamente alla probabilità di vittoria
di un punto in un game da parte di A e di B. Un game è quindi un sistema
i cui stati sono i possibili risultati parziali oltre alla situazione di parità e di
vittoria di uno dei due giocatori.
La transizione da uno stato ad un altro dipende (oltre che dalla quantità
pA) solo dallo stato di partenza ma non dagli stati precedenti. I possibili
svolgimenti di una partita sono dunque descritti da una catena di Markov.
Ci limitiamo a rappresentare mediante un grafo le possibili transizioni in una
partita (vedi Fig. 6.7).
Come la nozione di stato assorbente, anche le definizioni di stato transiente
e stato ricorrente che introdurremo nel capitolo seguente (Definizione 7.47)
sono assai utili nell’analisi dei possibili esiti di una partita. 

7
E non perde...
8
Queste situazioni possono essere favorite o scoraggiate a seconda delle normative
e protocolli di voto.
6.4 Ancora sull’analisi asintotica 259

Fig. 6.7. Grafo dei possibili svolgimenti di un game con le probabilità di transizione
fra i vari stati. Parità indica sia la situazione “40 pari” sia situazioni di parità
successive

6.4 Ancora sull’analisi asintotica

Con riferimento alla Definizione 6.6, affrontiamo nell’ordine il problema del-


l’esistenza, unicità e stabilità della distribuzione di probabilità invariante.
Osservazione 6.32. L’esistenza di una distribuzione di probabilità invarian-
te per una generica catena di Markov finita omogenea è una conseguenza
immediata del Teorema 5.14 e della Osservazione 6.8, perchè ogni autovettore
≥ 0 deve essere anche > 0 .
Presentiamo anche un enunciato in tal senso basato su una dimostrazione
costruttiva che non fa riferimento alla teoria delle matrici positive.
Teorema 6.33. (di Markov-Kakutani) Una matrice di transizione su un
insieme finito di stati Ω ha sempre almeno una distribuzione di probabilità
invariante.

Prova. L’esistenza di una probabilità invariante per M coincide con l’esistenza di


punto fisso della funzione continua M : S → S .
Fissato V ∈ S, definiamo per ogni k ∈ N\ {0}

1 h
k−1
Vk = M V.
k
h=0

Allora Vk ∈ S, ∀k, grazie al Lemma 6.5.


260 6 Catene di Markov

Per il teorema di Bolzano-Weierstrass esiste una sottosuccessione Vkl ed esiste W ∈


S tali che
lim Vkl = W.
l

Ma W è una distribuzione di probabilità invariante perché, cancellando i termini


uguali nelle due sommatorie,
k −1 kl −1

1 h h+1
l

Vkl − MVkl = M V− M V =
kl
h=0 h=0
1  kl

= V−M V
kl

2 per l → +∞in ambo i membri,


passando poi2al limite  tenendo conto che kl → +∞,
VRn ≤ 1 e 2Mkl V2Rn ≤ 1, segue V − Mkl V /kl → 0, dunque W−MW = 0. 

Osservazione 6.34. Una ulteriore prova più diretta, ma meno elementare,


del Teorema di Markov-Kakutani è la seguente. Poiché S è un chiuso, limita-
to e convesso di Rn ed M : S → S è continua, l’esistenza del punto fisso segue
dal Teorema di Brower.
Osservazione 6.35. I discorsi precedenti assicurano in ogni caso, anche se
né M né alcuna sua potenza sono strettamente positive, l’esistenza (ma non
l’unicità) di una distribuzione di probabilità invariante (positiva ma non ne-
cessariamente strettamente positiva).
Per quanto riguarda l’unicità, in generale è facile costruire esempi con più
di una probabilità invariante: si pensi al caso di catene con più di uno stato
assorbente.
Inoltre, se P, Q sono probabilità invarianti, allora tP + (1 − t) Q è una pro-
babilità invariante ∀t ∈ [0, 1], dunque le probabilità invarianti di M formano
un convesso chiuso contenuto nell’n-simplesso (se vi sono n stati). Pertan-
to, qualora venga meno l’unicità, le distribuzioni di probabilità invarianti so-
no infinite, dunque il s.d.d. associato alla catena di Markov presenta infiniti
equilibri.
Grazie al Teorema 6.26 l’insieme di tutte le distribuzioni di probabilità in-
varianti di una catena di Markov assorbente è un attrattore nel senso della
Definizione 3.42 (si noti che essa si adatta senza alcuna modifica al caso di
s.d.d. vettoriali).
Per una catena di Markov non assorbente, l’insieme delle probabilità invarianti
non è necessariamente attrattivo: si considerino i due esempi seguenti.
La matrice stocastica ⎡ ⎤
1 0 0
⎣ 0 0 1⎦ (6.20)
0 1 0
ha 2 (e dunque infinite) distribuzioni di probabilità invarianti (P  =
[ 1 0 0 ] , P = [ 0 1/2 1/2 ] ): a partire dalla probabilità iniziale P0 =
T T

[ 1/2 1/2 0 ]T , (6.20) genera la dinamica periodica Pk verificante P2h =


6.4 Ancora sull’analisi asintotica 261

[ 1/2 1/2 0 ]T , P2h+1 = [ 1/2 0 1/2]T ; in tal caso non esiste il limite della
seconda e terza colonna delle potenze k-esime di (6.20) per k → +∞.
Invece le matrici regolari ammettono sempre un’unica distribuzione di proba-
bilità invariante, perché hanno un autovalore dominante semplice.
Concludiamo con alcuni risultati riepilogativi che legano il comportamento
asintotico e le distribuzioni di probabilità invarianti.

Teorema 6.36. Data una catena di Markov con n stati e matrice di tran-
sizione M = [mij ], se esiste il limite di una colonna di Mk per k → +∞,
cioè
(k)
∃j ∈ {1, 2, . . . , n} : ∀i ∈ {1, 2, . . . , n} ∃ lim mij = Pi (6.21)
k

 T
allora il vettore P = P1 P2 · · · Pn è una distribuzione di probabilità
invariante.

Prova. La (6.21) implica: Pj ≥ 0 j = 1, . . . , n ,


n
n
(k)

n
(k)
Pi = lim mij = lim mij = 1 (6.22)
k k
i=1 i=1 i=1

(k) (k+1)

n
(k)
Pi = lim mij = lim mij = lim mis msj =
k k k
s=1

n
(k)

n
= lim mis msj = mis Ps .
k
s=1 s=1

Dunque MP=P. 

Esempio 6.37. La matrice stocastica


⎡ ⎤
1 0 0
M = ⎣ 0 1/2 1/2 ⎦
0 1/2 1/2

verifica limk Mk = M = Mh per ogni h , inoltre M ha due (e dunque infinite)


distribuzioni di probabilità invarianti [ 1 0 0 ]T e [ 0 1/2 1/2 ]T che coincidono
rispettivamente con la prima e le ultime 2 colonne di limk Mk . 

Esempio 6.38. La matrice stocastica


⎡ ⎤
1 0 0
A = ⎣ 0 1/3 2/3 ⎦
0 2/3 1/3
262 6 Catene di Markov

verifica ⎡ ⎤
 k−1 0 0 0
1 1 ⎣ 0 −1 1 ⎦
Ak = M + − k≥1
6 3
0 1 −1
e limk Ak = M dove M è la matrice dell’Esempio 6.37; inoltre M ha due (e
dunque infinite) distribuzioni di probabilità invarianti [ 1 0 0 ]T e [ 0 1/2 1/2 ]T
che coincidono rispettivamente con la prima e le ultime 2 colonne di limk Ak . 

Sotto determinate condizioni si può dimostrare l’unicità della distribuzione


di probabilità invariante ed una sorta di viceversa del Teorema 6.36, come
illustrato dal seguente risultato.

Teorema 6.39. Ogni catena di Markov regolare (Definizione 6.11) ad n stati


ha un’unica distribuzione di probabilità invariante P. Inoltre, se M è la matri-

ce di transizione associata alla catena, allora: P è l’autovettore di M positivo
e normalizzato rispetto alla somma delle sue componenti associato all’autova-
lore dominante e semplice 1; tutti gli autovettori ed autovettori generalizzati
di M diversi da (multipli di) P  sono ortogonali alla distribuzione di probabi-
lità uniforme [ 1/n 1/n · · · 1/n ]T che è l’autovettore dominante (strettamente
positivo) di MT ; per ogni distribuzione di probabilità iniziale P0 risulta

,
lim Mk P0 = P (6.23)
k

 quando k tende a +∞ :
in particolare tutte le colonne di Mk convergono a P
 |P
lim Mk = [ P  | ··· |P
 ]. (6.24)
k

Prova. Le affermazioni della tesi diverse da (6.24) sono una riformulazione dei Teo-
remi 6.9, 6.13 e della Osservazione 6.10; alternativamente sono una conseguenza
immediata del Teorema 5.19 sui s.d.d. vettoriali considerando la restrizione della
dinamica generata da M al simplesso S delle distribuzioni di probabilità.
La (6.24) si prova sostituendo eh (certezza di iniziare nello stato h) a P0 nella (6.23):

.
colonna h-esima di Mk = Mk eh → P 

Il Teorema di Markov-Kakutani garantisce l’esistenza di almeno una distri-


buzione di probabilità invariante in ogni caso. Il Teorema 6.39 fornisce una
condizione sufficiente (catena regolare) per l’unicità della distribuzione di pro-
babilità invariante e assicura che tale distribuzione è un equilibrio globalmente
asintoticamente stabile per il s.d.d. (M, S) descritto dalla catena di Markov
regolare nel simplesso S. Che la condizione di regolarità della catena non sia
necessaria per l’unicità è mostrato dall’Esempio 6.7. Vi sono anche esempi di
catene di Markov che presentano cicli o traiettorie periodiche: si veda (6.20).
6.5 Esercizi di riepilogo 263

6.5 Esercizi di riepilogo


Esercizio 6.3. Verificare, mediante un calcolo diretto, che la matrice stocastica
0 1
a b
M= 0<a<1, 0<b<1
1−a 1−b

ammette un unico vettore di probabilità invariante strettamente positivo.

Esercizio 6.4. Data la catena di Markov a tre stati con matrice di transizione
⎡ ⎤
1 1/2 1/4
M = ⎣ 0 1/2 1/2 ⎦
0 0 1/4
(k)
determinare m23 per ogni k ∈ N .

Esercizio 6.5 (Ponte di Wheatstone). Consideriamo il circuito elettrico della


Fig. 6.8 costituito da 5 interruttori A, B, C , D ed E, che possono trovarsi chiusi
con probabilità rispettivamente pari a a, b, c, d ed e (dunque la probabilità che
ciascuno degli interruttori si trovi aperto è...).
Supponendo che tutti gli interruttori siano fra loro indipendenti, si calcoli la proba-
bilità che nel circuito passi corrente. Tale probabilità si dice affidabilità del circuito.

Esercizio 6.6. Una matrice stocastica T i cui elementi non hanno valori diversi da
0 e 1 e con det T = ±1, si dice matrice di permutazione. Spiegare il motivo di
tale nome.

Esercizio 6.7. Provare che i cambi di coordinate (nello spazio Rn degli stati) di
tipo permutazione trasformano matrici stocastiche in matrici stocastiche.
Si osservi che questa proprietà è stata implicitamente usata nello studio delle pas-
seggiate a caso e del duello per separare gli stati assorbenti dagli altri.

Esercizio 6.8. Tre macchinari producono rispettivamente r1 , r2 ed r3 pezzi, corri-


spondenti ad un totale di r = r1 + r2 + r3 pezzi, di cui d1 , d2 e d3 sono difettosi. Si
estrae a caso un pezzo fra quelli prodotti e si verifica che è difettoso. Determinare la
probabilità che il pezzo estratto sia stato prodotto rispettivamente dalla macchina
1, 2 o 3.

Fig. 6.8. Ponte di Wheatstone


264 6 Catene di Markov

Esercizio 6.9. Passeggiate a caso in montagna. Con riferimento all’Esempio 6.29


della passeggiata a caso dell’ubriaco, introduciamo una variante: supponiamo che a
causa della pendenza della strada la probabilità di fare un passo verso casa sia 0, 3,
e quella di fare un passo verso il lago sia 0, 7. Si chiede la probabilità di concludere
la passeggiata asciutti.

Esercizio 6.10. Con riferimento all’Esempio 6.30, partendo da s3 e conservando la


validità delle restrizioni 0 < c < b < a < 1, vi sono scelte per le probabilità a, b, c
che rendono A favorito?

Esercizio 6.11. Scrivere la matrice di transizione riferita ai possibili andamenti di


un game in una partita a tennis ordinando gli stati in ordine lessicografico.

Esercizio 6.12. Determinare la probabilità che a partire da un punteggio di 0 − 40


il giocatore A riesca a vincere il game.

Esercizio 6.13. Mostrare con esempi che una matrice stocastica può avere autova-
lori complessi (se n ≥ 3).

Esercizio 6.14. Consideriamo un set di pallavolo, a partire dalla situazione di pun-


teggio 14 − 15 tra due squadre A e B ed il servizio tocchi ad A. Se p ∈ [0, 1] è la
probabilità che A si aggiudichi un singolo palleggio, descrivere con un grafo i possi-
bili stati successivi del set e le relative probabilità di transizione; scrivere la matrice
di transizione corrispondente; calcolare la probabilità che A vinca il set.

Esercizio 6.15. Una variante del duello a tre: i partecipanti sparano uno alla vol-
ta, iniziando cavallerescamente dai tiratori meno precisi ancora in vita, e si continua
ove necessario. Si analizzi l’andamento del duello supponendo

A tiratore infallibile a=1


B tiratore discreto b = 2/3
C tiratore maldestro c = 1/3

e che ciascun duellante adotti la migliore strategia.


Si chiede a chi sparerà il primo colpo C (che inizia la partita)?
7
Matrici positive e grafi

In questo capitolo approfondiamo l’analisi delle proprietà di matrici positive


già incontrate nella Sezione 5.4, introducendo le matrici di permutazione e le
matrici irriducibili, studiamo i legami con la teoria dei grafi e delle relative
matrici di adiacenza ed illustriamo alcune applicazioni alle reti con l’interpre-
tazione della navigazione su internet come sistema dinamico discreto di tipo
catena di Markov.
Il risultato centrale del capitolo è il Teorema di Frobenius che precisa le pro-
prietà dello spettro delle matrici irriducibili positive; in base a tali proprietà
le matrici irriducibili sono suddivise in due classi: le matrici primitive e le
matrici cicliche.

7.1 Matrici irriducibili


Per le notazioni relative a matrici e vettori si fa riferimento all’Appendice D
e alle nozioni di matrice debolmente positiva, positiva e strettamente positiva
della Definizione 5.11.
Ci sarà utile considerare dei cambi di base molto particolari: quelli che riordi-
nano gli elementi di una base di Rn e sono dunque associati in modo naturale
alle matrici di permutazione.
Definizione 7.1. Si dice matrice di permutazione una matrice quadrata
T = [tij ] di soli 0 ed 1 che hanno un solo 1 in ogni riga ed in ogni colonna.
Osservazione 7.2. Se T è una matrice di permutazione, allora anche la sua
trasposta TT è di permutazione ed entrambe sono ortogonali (cioè T−1 = TT ,
da cui | det T| = 1).
Una matrice di permutazione T corrisponde in modo naturale alla permuta-
zione τ sui primi n numeri naturali che verifica τ (j) = i se e solo se tij = 1.
Il cambio di base (vedi Appendice D) associato a T

y = Tx B = TAT−1 = TATT
E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione
UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_7, © Springer-Verlag Italia 2014
266 7 Matrici positive e grafi

opera sulla base canonica {e1 , . . . , en }, sul generico vettore x e sulla generica
matrice quadrata A nel modo seguente:

• permuta le componenti della base di Rn riordinandole nella sequenza u1 ,


. . . , un , dove ui = ej se tij = 1.
• permuta le componenti di x (se tij = 1 allora yi = xj ),
• scambia le righe di A mediante la permutazione τ associata a T ed anche
le colonne mediante la stessa permutazione τ (Bτ(i),τ(j) = Ai,j ).
In particolare, gli elementi fuori dalla diagonale principale di A sono riallo-
cati fuori dalla diagonale principale; gli elementi della diagonale principale
di A sono comunque riallocati sulla diagonale principale: esplicitamente
(senza convenzione di somma sugli indici ripetuti)

se tij = 0 allora bii = ajj .

Si noti che con il cambio di coordinate associato ad una permutazione gli even-
tuali elementi nulli non si creano e non si distruggono. Questa proprietà invece
non vale con cambiamenti di coordinate più generali anche se ortogonali, come
illustrato dal seguente esempio.

Esempio 7.3. Il cambio di coordinate ortogonale (rotazione rigida di π/4


radianti in senso antiorario) associato alla matrice:
(√ √ )
2/2 −√2/2
U= √
2/2 2/2
 T  √ T
trasforma il vettore x = 1 1 nel vettore y = Ux = 0 2 , e trasforma
la matrice ( )
1 1
A=
1 1
nella matrice ( )
−1 0 0
B = UAU = . 
0 2

Esercizio 7.1. Si verifichi che una matrice di permutazione è doppiamente sto-


castica (cioè sia T sia TT sono stocastiche).

Esercizio 7.2.
• Calcolare il numero delle permutazioni di n elementi.
• Calcolare il numero delle permutazioni cicliche di n elementi.
• Calcolare il numero delle permutazioni circolari di n elementi.
Si ricorda che: una permutazione τ si dice ciclica se esiste t ∈ {1, . . . , n} tale che
τ (j) = j +t mod n, ∀j; una permutazione circolare di n oggetti corrisponde ad una
loro disposizione ordinata su una circonferenza (i modi in cui si possono disporre
n invitati ad una cena servita su un tavolo circolare: non conta su quale sedia sia
collocato l’invitato, ma solo la sua collocazione rispetto agli altri).
7.1 Matrici irriducibili 267

Definizione 7.4. Una matrice A quadrata di ordine n > 1 si dice riducibile


se esistono un intero r con 0 < r < n ed una matrice di permutazione T tali
 = TATT è della forma
che la matrice A
( )
= B O
A
C D

dove B e D sono matrici quadrate di ordine rispettivamente r ed n − r, e la


matrice (con r righe ed n − r colonne) O ha tutti gli elementi nulli.
La matrice A si dice irriducibile se non è riducibile.

Osservazione 7.5. Si può facilmente mostrare (vedi Esercizio 7.7) che una
matrice A quadrata di ordine n è riducibile se e solo se esiste una matrice di
 = TT AT è della forma
permutazione T tale che la matrice A
( )
 B C
A=
O D

con B e D matrici quadrate ed O matrice.

Si osservi che, in generale, la matrice nulla O può non essere quadrata.

Esempio 7.6. Le seguenti matrici sono riducibili:


( ) ( ) ( ) ()
1 0 1 0 1 1 −1 0
A1 = ; A2 = ; A3 = ; A4 = .
1 1 0 1 0 1 0 1

A1 , A2 , A4 sono già nella forma richiesta dalla definizione: si noti che non si
esclude che vi possano essere degli zeri nella matrice C della Definizione 7.4.
La A3 può essere ricondotta alla A1 mediante la matrice di permutazione
( )
0 1
T= . 
1 0

Esempio 7.7. Le seguenti matrici sono irriducibili:


( ) ( ) ( ) ( )
1 1 0 1 0 1 0 1
A5 = ; A6 = ; A7 = ; A8 = . 
1 0 1 1 1 0 −1 0

Esempio 7.8. Le seguenti matrici sono irriducibili:


⎡ ⎤ ⎡ ⎤
1 1 0 1 1 1
A9 = ⎣ 1 1 1 ⎦ A10 = ⎣ 1 1 1 ⎦ . 
1 1 1 0 1 1

Esercizio 7.3. (a) Mostrare con degli esempi che non tutte le matrici di permuta-
zione (di ordine n > 1) sono irriducibili.
(b) In quali casi una matrice di permutazione è irriducibile?
268 7 Matrici positive e grafi

Esempi di matrici di permutazione irriducibili e loro autovalori:


⎡ ⎤ ⎡ ⎤
( ) 0 1 0 0 0 1
0 1 ⎣0 0 1⎦ ⎣1 0 0⎦
1 0
1 0 0 0 1 0
λ = ±1 λ = e2hπi/3 h = 0, 1, 2 λ = e2hπi/3 h = 0, 1, 2
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 0 0 0 0 0 1 0 0 0 1
⎢0 0 1
⎢ 0⎥⎥
⎢0 0 1
⎢ 0⎥⎥
⎢1 0 0
⎢ 0 ⎥

⎣0 0 0 1⎦ ⎣1 0 0 0⎦ ⎣0 1 0 0 ⎦
1 0 0 0 0 1 0 0 0 0 1 0
λ = ±1, ±i λ = ±1, ±i λ = ±1, ±i

Esempi di matrici di permutazione riducibili e loro autovalori:


⎡ ⎤ ⎡ ⎤
( ) 1 0 0 0 0 1
1 0 ⎣0 1 0⎦ ⎣0 1 0⎦
0 1
0 0 1 1 0 0
λ = 1 doppio λ = 1 triplo λ = 1, 1, −1
⎡ ⎤
⎡ ⎤ ⎡ ⎤ 0 1 0 0
1 0 0 0 1 0 ⎢1 0 0 0 ⎥
⎣0 0 1⎦ ⎣1 0 0⎦ ⎢ ⎥
⎣0 0 0 1 ⎦
0 1 0 0 0 1
0 0 1 0
λ = 1, 1, −1 λ = 1, 1, −1 λ = ±1 doppi

Si noti la proprietà di invarianza, rispetto a opportune rotazioni, dello spet-


tro nel caso irriducibile (coerentemente con il Teorema 7.13 successivo); que-
sta proprietà può venir meno nel caso riducibile. È immediato verificare che
le 4 matrici di permutazione riducibili di ordine 3 presentano l’autovalore
1 almeno doppio. Questa è una proprietà generale, valida per matrici di per-
mutazione riducibili di ogni ordine, perché nei blocchi della Definizione 7.4
C = O e sulla diagonale sono presenti due sottomatrici quadrate (anch’esse
di permutazione e dunque stocastiche).

Osservazione 7.9. Le matrici A e B dell’Esempio 7.3 mostrano che un cam-


bio di base (anche ortogonale) se non è associato ad una permutazione della
base può trasformare una matrice irriducibile in una riducibile.

Dalla Definizione 7.4 seguono alcuni utili criteri:

• se una matrice quadrata di ordine n > 1 è irriducibile allora non può avere
né una riga né una colonna di soli zeri;
• se una matrice quadrata di ordine n > 1 è riducibile allora deve avere
almeno n − 1 elementi nulli (vedi Esercizio 7.6).
7.1 Matrici irriducibili 269

Nonostante l’ultimo criterio enunciato, la presenza di n o più elementi nulli


non implica la riducibilità: ad esempio è irriducibile la seguente matrice di
ordine 3 ⎡ ⎤
0 1 0
⎣1 0 1⎦ . (7.1)
0 1 0

Esercizio 7.4. Dimostrare che se A e B sono matrici quadrate dello stesso ordine,
con A > O e irriducibile, B  O, allora AB  O.

Sottolineiamo che nella definizione di irriducibilità (Definizione 7.4) non si


sono fatte ipotesi sul segno degli elementi; nel seguito ci occuperemo quasi
esclusivamente di matrici non negative per l’importante ruolo che svolgono
nelle applicazioni.
Si noti che una matrice strettamente positiva è irriducibile, mentre il viceversa
non è vero come illustrato nel seguente esercizio.

Esercizio 7.5. Verificare che la matrice


⎡ ⎤
0 1/2 1/3
A = ⎣ 1/4 1/2 1/3 ⎦
3/4 0 1/3

non è strettamente positiva ma è irriducibile (si utilizzi la Definizione 7.4).

Tenuto conto degli effetti delle matrici di permutazione sugli elementi diago-
nali di una matrice è chiaro che:

• una matrice che ha zeri al più sulla diagonale principale è irriducibile;


• una matrice triangolare (in particolare diagonale) è riducibile se n > 1.

Sarà pertanto utile avere criteri per stabilire quando una matrice con alcuni
zeri sia sulla diagonale principale sia fuori da essa è irriducibile. Una prima
risposta è data dal seguente Teorema 7.10, mentre una risposta completa ver-
rà data dal Teorema 7.29 nel caso di matrici senza condizioni sul segno degli
elementi.

Teorema 7.10. Se A ≥ O è irriducibile e di ordine n, allora:

(I + A)n−1 O.

Prova. È sufficiente mostrare che

(I + A)n−1 x  0 ∀x > 0. (7.2)

Poiché eventuali zeri di z = (I + A) x devono essere anche zeri di x, la (7.2) è si-


curamente verificata se per ogni vettore positivo x > 0 il vettore z = (I + A) x ha
meno elementi nulli di quanti ne abbia x.
270 7 Matrici positive e grafi

Supponiamo per assurdo che x e z abbiano lo stesso numero di zeri, e quindi, a meno
di opportune permutazioni, siano della forma
0 1 0 1
u w
x= , z= , u  0, w  0
0 0

con u e w vettori colonna della stessa dimensione. Ponendo


0 1
A11 A12
A=
A21 A22

dove l’ordine di A11 è uguale alla dimensione di u, la relazione z = (I + A) x si


riscrive come
u + A11 u = w
A21 u = 0 ,
dunque u  0 implica A21 = O contro l’ipotesi che A sia irriducibile. 
Dal Teorema precedente segue immediatamente il seguente risultato che si
preciserà nel Teorema 7.29:

Corollario 7.11. Se A > O è una matrice irriducibile di ordine n, allora per


ogni coppia di indici i, j ∈ {1, . . . , n} esiste un intero positivo q = q (i, j),
q ≤ n, tale che
(q)
aij > 0. (7.3)
Più precisamente, q soddisfa:

q ≤m−1 se i = j; q≤m se i = j,

dove m è il grado del polinomio minimo di A cioè del polinomio ψ con


coefficiente direttore uguale ad 1 e di grado minimo tale che ψ(A) = O.

Prova. Per il Teorema 7.10


 

n−1
n
I+ Ak = (I + A)n−1  O . (7.4)
k=1
k

(2) (n−1)
Dall’ultima relazione segue che se i = j i numeri non negativi aij , aij , . . . , aij
non possono essere tutti nulli.
Inoltre, (I + A)n−1  O ed A > O implicano A (I + A)n−1  O (vedi Esercizio 7.4),
(2) (n)
cioè i numeri non negativi aii , aii , . . . , aii non possono essere tutti nulli.
Infine, se ψ (il polinomio minimo di A) ha grado m strettamente minore del polino-
mio caratteristico di A, esistono unici i polinomi q ed r tali che

(1 + λ)n−1 = q (λ) ψ (λ) + r (λ) grado di r < m.


7.1 Matrici irriducibili 271

Allora da ψ (A) = O segue

(I + A)n−1 = q (A) ψ (A) + r (A) = r (A) =



m−1
m−1
= c k Ak = c 0 I + c k Ak .
k=0 k=1

Dall’ultima relazione e da (I + A)n−1  O, segue che se i = j i numeri non negativi


(2) (m−1)
aij , aij , . . . , aij non possono essere tutti nulli.
Inoltre, r(A)  O implica A r(A)  O (vedi Esercizio 7.4), cioè i numeri non
(2) (m)
negativi aii , aii , . . . , aii non possono essere tutti nulli. 

Osservazione 7.12. Se A ≥ O ed esiste k ∈ N\ {0, 1} tale che Ak O allora


A è irriducibile. Infatti, dalla definizione di matrice riducibile, risulta che il
minore NE (o SE) di soli zeri permane in ogni potenza, dunque le matrici
riducibili non possono avere potenze strettamente positive.
Si noti poi che, nonostante il Corollario 7.11, l’implicazione opposta non vale:
ad esempio ( )
0 1
A= (7.5)
1 0
è irriducibile, dunque verifica (7.3), ma non esiste alcuna sua potenza stret-
tamente positiva. Infatti:
( )
1 0 q = 1 se i = j
A2 = e ; Ak+2 = Ak .
0 1 q = 2 se i = j

Grazie al concetto di irriducibilità, Frobenius negli anni 1909-1912 estese il


risultato di Perron del 1907 (che per semplicità espositiva nel Capitolo 5 è
chiamato Teorema di Perron-Frobenius, vedi Teoremi 5.12 e 5.13) come segue
(per la dimostrazione vedi Gantmacher [8]).
Teorema 7.13 (Frobenius). Una matrice quadrata A positiva e irriduci-
bile ammette un autovalore reale positivo λA di molteplicità algebrica 1, tale
che ogni altro autovalore λ ha modulo non superiore: λA ≥ |λ|. All’autova-
lore λA corrisponde un unico autovettore (a meno di costanti moltiplicative)
strettamente positivo.
Inoltre, se A ammette h autovalori di modulo pari a λA allora tali autovalori
sono tutti diversi tra loro e sono radici dell’equazione
h
λh − (λA ) = 0.

In generale, l’insieme degli autovalori (spettro) di A è invariante per rotazioni


del piano complesso di angolo 2π/h.
Illustriamo nel seguito alcune importanti conseguenze del Teorema 7.13.
Teorema 7.14. Una matrice A positiva e irriducibile non può avere due au-
tovettori positivi linearmente indipendenti.
272 7 Matrici positive e grafi

Più precisamente, ogni autovettore (anche generalizzato) di A diverso da VA


T
è ortogonale a VA O , autovettore dominante per AT .

Prova. Osservato che ogni autovalore di A relativo ad un autovettore positivo deve


essere reale positivo, la dimostrazione è identica a quella del Teorema 5.19 salvo il
fatto che si usa il Teorema 7.13 al posto del Teorema 5.12 sia per A che per AT . 
Il Teorema 7.13 giustifica l’introduzione della seguente
Definizione 7.15. Sia A > O una matrice irriducibile con h autovalori λ1 ,
λ2 , . . . , λh di massimo modulo:

λ1 = |λ2 | = · · · = |λh | .

Allora A si dice:
• primitiva se h = 1;
• ciclica se h > 1.
La matrice (7.5) è irriducibile ma non è primitiva.
Il legame fra la nozione di primitività e quanto visto nel Capitolo 5 è chiarito
dal seguente risultato (per la prova si veda ad esempio [8]).
Teorema 7.16. Una matrice A > O è primitiva se e solo se qualche potenza
di A è strettamente positiva:

∃k ∈ N\ {0} : Ak O.

Teorema 7.17. Se A è una matrice primitiva di ordine n, indicato con VA


l’autovettore positivo di norma 1 associato all’autovalore dominante λA , scel-
to un ordinamento decrescente degli autovalori rispetto ai moduli λA = λ1 >
|λ2 | ≥ · · · ≥ |λn |, allora:
• se λ2 = 0 allora per k → +∞
 T  
Ak = (λA )k VA VA + O k m2 −1 |λ2 |
k

dove m2 è la molteplicità algebrica di λ2 ;


• se λ2 = 0 allora per k ≥ n − 1
 T
Ak = (λA )k VA VA .

Inoltre, ogni soluzione del s.d.d. Xk+1 = AXk verifica


−k
(λA ) Xk = cA VA + σ (k)

dove λA è l’autovalore dominante di A, cA è il coefficiente del dato iniziale


X0 lungo la componente VA rispetto alla base di Jordan di A e σ (k) è un
infinitesimo per k → +∞.
7.1 Matrici irriducibili 273

Infine, per ogni dato iniziale X0 > 0 la soluzione Xk verifica

Xk VA
lim = .
k Xk  VA

Prova. La dimostrazione è una conseguenza immediata dei Teoremi 5.18 e 5.19 con le
precisazioni del caso relative all’infinitesimo σ (k) deducibili dall’Osservazione 5.9. 

Esempio 7.18. La matrice strettamente positiva


( )
1/2 1/2
A=
1/2 1/2

soddisfa Ak = A. I suoi autovalori sono λA = 1 e λ2 = 0, con


√ √ T
VA = 2/2 2/2 .

È immediato verificare che:


 T  √ √ T  √ √ 
VA VA = 2/2 2/2 2/2 2/2 = A.

Esercizio 7.6. Dimostrare che se una matrice quadrata A di ordine n è riducibile


allora deve avere almeno n − 1 elementi nulli.

Esercizio 7.7. Dimostrare che una matrice A quadrata di ordine n è riducibile se e


 = TT AT è della
solo se esiste una matrice di permutazione T tale che la matrice A
forma 0 1
= B C
A
O D
con B e D matrici quadrate.
Si noti la diversa posizione della matrice O rispetto alla Definizione 7.4.

Esercizio 7.8. Dimostrare che una matrice quadrata A di ordine n > 1 è riducibile
se l’insieme degli indici {1, 2, . . . , n} può essere separato in due insiemi disgiunti
{i1 , i2 , . . . , ir } e {j1 , j2 , . . . , jn−r } con 0 < r < n, tali che

aiα jβ = 0 α = 1, . . . , r, β = 1, . . . , n − r .

Esercizio 7.9. Dimostrare che una matrice quadrata A di ordine n è riducibile se


e solo se il corrispondente operatore lineare A : Rn → Rn ha un sottospazio di
coordinate invariante di dimensione r, con r < n.

Esercizio 7.10. Verificare che la matrice


⎡ ⎤
1/4 1/2 1/3
A = ⎣ 1/4 1/2 1/3 ⎦
1/2 0 1/3

è irriducibile.
274 7 Matrici positive e grafi

Esercizio 7.11. Mostrare con degli esempi che la somma di matrici irriducibili può
non essere una matrice irriducibile.
Mostrare con degli esempi che la somma di matrici riducibili può non essere una
matrice riducibile.

7.2 Grafi e matrici


Introduciamo ora la definizione formale di grafo e ne analizziamo alcune pro-
prietà sfruttando le analogie con quelle delle matrici irriducibili, discutendo
successivamente l’applicazione ai grafi dei risultati precedentemente esposti.
A differenza dei semplici esempi già incontrati nel Capitolo 6, i grafi che
compaiono nella modellazione di molti problemi reali (quali ad esempio ora-
ri ferroviari, linee aeree, reti di telecomunicazioni, supply chains) hanno di-
mensioni enormi: la grande quantità di nodi e lati ne rende molto difficile
o praticamente impossibile una visualizzazione grafica. Per questo motivo è
importante definire e studiare le principali proprietà strutturali e qualitative
dei grafi, interpretandole con strumenti di Algebra Lineare.

Definizione 7.19. Un grafo (orientato) G è una coppia (V, L) ove V =


{v1 , . . . , vn } è un insieme finito di elementi detti nodi (o vertici) mentre
L = {l1 , . . . , lm } ⊆ V × V è un insieme di coppie ordinate di tali nodi, dette
lati (o archi).
Considerato un lato (vs , vk ) di un grafo G, il nodo vs si dice coda del lato,
il nodo vk si dice testa del lato e il lato (vs , vk ) si dice uscente da vs ed
entrante in vk .
Per definizione, il lato (vs , vk ) è diverso dal lato (vk , vs ).
Si definisce sottografo di un grafo G = (V, L) un grafo G = (V, L) tale che
V ⊆ V , L ⊆ L (in particolare L contiene solo coppie di elementi in V).

È consuetudine visualizzare un grafo indicando i nodi mediante punti e i lati


mediante frecce che connettono tali punti (vedi Fig. 7.1) con direzione dalla
coda alla testa del lato.

10 9 8 7 6

1 2 3 4 5
Fig. 7.1. Esempio di grafo orientato: l’orientamento dei lati è dato dall’ordine delle
coppie (vs , vk ) nella relazione L
7.2 Grafi e matrici 275

Il grafo di Fig. 7.1 ha nodi {1, 2, . . . , 9, 10}. Sono lati, ad esempio, le coppie
ordinate (1, 2), (1, 1), (6, 5) e (5, 4) mentre non sono lati le coppie (2, 1), (4, 3),
(4, 5) o (6, 9). I lati di tale grafo sono in tutto 14.
Definizione 7.20. Dato un grafo orientato G = (V, L) con V = {v1 , . . . , vn }
e L = {l1 , . . . , lm }, si dice cammino
! orientato C (da vi0 a vip ) una sequen-
za di nodi C = vi0 , vi1 , . . . , vip tali che vik ∈ V per ogni k = 0, . . . , p, e
 
vik−1 , vik ∈ L per ogni k = 1, . . . , p.
I nodi vi0 e vip di dicono estremi del cammino C.
L’intero p si dice lunghezza del cammino C. !
Un cammino orientato C = vi0 , vi1 , . . . , vip si dice:
• semplice se tutti i suoi nodi sono distinti fra loro, cioè

vis = vik ∀s, k = 0, . . . , p : s = k;

• chiuso se i suoi estremi coincidono:

vi0 = vip ;
!
• ciclo (orientato) se il cammino ! stesso vi 0 , vi 1 , . . . , vi p è chiuso ed il
cammino vi0 , vi1 , . . . , vip−1 è semplice;
• cappio (orientato) se è un ciclo ridotto ad un solo nodo.
Con riferimento al grafo di Fig. 7.1, il cammino {1, 2, 9, 8, 3} è semplice, il cam-
mino {5, 4, 6, 5, 4, 6, 5} è chiuso ma non è un ciclo, il cammino {2, 9, 8, 3, 2} è
un ciclo, i cammini {1, 1} e {7, 7} sono cappi.
Precisiamo le possibili relazioni fra coppie di nodi.
Definizione 7.21. Dato un grafo orientato G = (V, L) si dice che:
• un nodo vi ∈ V è connesso con un nodo vj ∈ V , e scriviamo vi → vj , se
k
esiste in G un cammino da vi a vj (useremo la notazione vi → vj quando
sia necessario specificare che partendo da vi si arriva in vj in k passi);
• un nodo vi ∈ V è fortemente connesso con un nodo vj ∈ V , e scriviamo
vi ↔ vj , se vi → vj e vj → vi .
Un grafo orientato G si dice fortemente connesso se ha un solo nodo oppure
se tutti i suoi nodi sono fortemente connessi fra loro.
Nel grafo di Fig. 7.1 il nodo 2 è fortemente connesso con il nodo 8, il nodo 9
è connesso con il nodo 5 (ma non è vero il viceversa): quindi il grafo non è
fortemente connesso.
Dato un grafo orientato G = (V, L), la relazione di connessione forte è una
relazione di equivalenza sull’insieme dei nodi V , che si può quindi partiziona-
re nel senso che esistono classi di equivalenza di nodi V1 , V2 , . . . , Vq tali che
;q
V = Vj e Vi ∩ Vj = ∅ se i = j. La definizione che segue caratterizza ciascun
j=1
grafo indotto in G dai nodi appartenenti ad una classe di equivalenza.
276 7 Matrici positive e grafi

Definizione 7.22. Dato un grafo orientato G = (V, L) si dice componen-


te fortemente connessa di G ciascun sottografo di G che sia fortemente
connesso e massimale (cioè non contenuto strettamente in un altro sottografo
fortemente connesso).
Esempio 7.23. Tutte le componenti fortemente connesse del grafo di Fig. 7.1
sono quattro: V1 = {1}, V2 = {2, 9, 8, 3}, V3 = {4, 5, 6, 7} e V4 = {10}. 
Esercizio 7.12. Dato un grafo orientato G = (V, L), dimostrare che la relazione di
connessione forte è una relazione di equivalenza sull’insieme dei suoi nodi V .
Un ulteriore utilissimo modo di rappresentare un grafo orientato è fornito
dalla nozione di matrice di adiacenza che segue.
Definizione 7.24. Si dice matrice di adiacenza di un grafo orientato G =
(V, L) di n nodi, la matrice quadrata A = [aij ] di ordine n tale che

1
aij = 1 se (vj , vi ) ∈ L cioè vj −→ vi .
0 se (vj , vi ) ∈ L

Viceversa, se consideriamo una qualsiasi matrice A di ordine n, non nega-


tiva (aij ≥ 0 ∀i, j), ad essa si associa in modo naturale il grafo orientato
GA = (VA , LA ) con

VA = {1, 2, . . . , n} e LA = {(j, i) ∈ VA × VA : aij > 0} .

Esempio 7.25. La matrice di adiacenza del grafo nella Fig. 7.1 è:


⎡ ⎤
1 0 0 0 0 0 0 0 0 0
⎢1 0 1 0 0 0 0 0 1 0⎥
⎢ ⎥
⎢0 0 0 0 0 0 0 1 0 0⎥
⎢ ⎥
⎢0 0 1 0 1 0 1 0 0 0⎥
⎢ ⎥
⎢0 0 0 0 0 1 0 0 0 0⎥
⎢ ⎥
⎢0 0 0 1 0 0 0 0 0 0⎥
⎢ ⎥
⎢0 0 0 0 0 1 1 0 0 0⎥
⎢ ⎥
⎢0 0 0 0 0 0 0 0 1 0⎥
⎣0 1 0 0 0 0 0 0 0 0⎦
0 0 0 0 0 0 0 0 0 0

Esercizio 7.13. Data la matrice


⎡ ⎤
2 1 0 1 0 3
⎢0 0 4 0 0 0⎥
⎢ ⎥
⎢0 5 0 0 0 0⎥
A=⎢
⎢0

⎢ 0 0 3 0 0⎥⎥
⎣0 3 0 0 2 0⎦
1 0 2 0 0 1

disegnare il grafo associato, individuando tutte le sue eventuali componenti forte-


mente connesse.
7.2 Grafi e matrici 277

Assegnata una matrice A non negativa, ogni suo elemento non nullo aij > 0
può essere considerato un peso associato al lato del grafo associato GA che
congiunge j con i. Più in generale, dato un cammino C = {i0 , i1 , . . . , ip } in
GA, con p ≥ 1, diciamo peso del cammino C il prodotto
ai1 i0 · ai2 i1 · . . . · aip ip−1 > 0.
& '
(k)
Se Ak = aij allora si dimostra che per ogni k ≥ 2

(k)

n
(k−1)

aij = ais asj = ai1 i0 · ai2 i1 · . . . · aik ik−1
s=1
i0 = j, ik = i
is ∈ VA , ∀s
(k)
cioè aij è la somma dei pesi dei cammini distinti di lunghezza k da j a i.
Tale risultato implica immediatamente la seguente conclusione:
(k)
aij > 0 se e solo se GA ha un cammino di lunghezza k da j a i.
(k)
In particolare, se A è la matrice di adiacenza di un grafo orientato, allora aij
rappresenta esattamente il numero (intero) dei cammini distinti di lunghezza
k fra i nodi vj e vi .
Teorema 7.26. Un grafo GA è fortemente connesso se e solo se per ogni i e
(k)
j esiste k = k (i, j) tale che aij > 0.
Precisiamo in termini di grafi la nozione di irriducibilità di una matrice qua-
drata non negativa.
Teorema 7.27. Una matrice quadrata non negativa A = [aij ] di ordine n > 1
è irriducibile se e solo se il grafo GA associato ad A è fortemente connesso.

Prova. Se A è irriducibile allora per ogni coppia di indici i, j ∈ {1, . . . , n} esiste un


(k)
intero positivo k (dipendente da i e j) tale che aij > 0 (vedi Corollario 7.11) e
ciò equivale a dire che ogni coppia di nodi j, i in VA è connessa, ossia il grafo GA è
fortemente connesso.
Per provare il viceversa, dimostriamo che se A è riducibile allora GA non è fortemen-
te connesso. Infatti, se A è riducibile, allora mediante una opportuna permutazione
T, può essere trasformata nella matrice E
0 1
B O
E = TAT−1 =
C D

con dim B = r, 0 < r < n. Per ogni i ≤ r < j, sul grafo associato ΓE non esistono
cammini di lunghezza 1 da vj a vi . Di conseguenza, per ogni i ≤ r < j, non esi-
stono cammini da vj a vi , cioè GE , che coincide con GA a meno della permutazione
associata a T degli indici che etichettano i nodi, non è fortemente connesso. 

Da quanto appena provato segue che una matrice di ordine n > 1 è riduci-
bile se e solo se il grafo ad essa associato ammette almeno due componenti
fortemente connesse.
278 7 Matrici positive e grafi

Osservazione 7.28. Il complesso dei Teoremi 7.26 e 7.27 ci dice che una
matrice quadrata non negativa A di ordine n > 1 è irriducibile se e solo se
(q)
∀i, j ∃q = q (i, j) : aij > 0 (7.6)
cioè vale il viceversa del Corollario 7.11.
Grazie alla corrispondenza tra grafi e matrici possiamo ora provare una ca-
ratterizzazione delle matrici irriducibili non necessariamente positive (si veda
al riguardo anche il Teorema 7.10).
Teorema 7.29. Una matrice quadrata A di ordine n > 1 è irriducibile se e
solo se
n−1
(I + |A|) O
avendo posto |A| = [|aij |].

Prova. Osserviamo che A è irriducibile se e solo se lo è |A|.


Se A è irriducibile allora lo è |A| e per il Teorema 7.10 vale (I + |A|)n−1  O.
Viceversa sia (I + |A|)n−1  O e supponiamo per assurdo che A sia riducibile. Quin-
di anche |A| è riducibile e per il Teorema 7.27 il grafo orientato G|A| associato ad
|A| non è fortemente connesso, ossia esiste j = i tale che j non è connesso con i nel
grafo G|A| . Ma allora anche il grafo orientato GI+|A| associato ad I + |A| non sarebbe
fortemente connesso e quindi l’elemento di posto (i, j) di (I + |A|)n−1 sarebbe 0,
contro l’ipotesi. 

Definizione 7.30. Dato un grafo orientato G = (V, L), si dice periodo del
nodo vi ∈ V , indicato con d (vi ), il massimo comun divisore delle lunghezze
dei cammini chiusi passanti per vi :
" #
k
d (vi ) = MCD k ∈ N\ {0} : vi → vi .

Il periodo di un nodo per cui non passa nessun cammino è posto uguale a 0
per convenzione.
Un nodo si dice aperiodico se ha periodo 1.
Si noti che un cappio è associato ad un nodo aperiodico.
Esempio 7.31. Con riferimento al grafo della Fig. 7.1, osserviamo che:
• il nodo 10 ha periodo 0;
• i nodi 1 e 7 hanno periodo 1;
anche i nodi 4, 5, e 6 hanno periodo 1, perché 7 ha il laccio e gli altri
appartengono a cammmini chiusi che contengono il laccio;
• i nodi 2 e 9 hanno periodo 2;
anche i nodi 3, e 8 hanno periodo 2, perché attraversati da cammini chiusi
di lunghezze 4 e 6: {8,3,2,9,8}, {8,3,2,9,2,9,8}. 
Lemma 7.32. Dato un grafo orientato G = (V, L) se due suoi nodi appar-
tengono alla stessa componente fortemente connessa allora hanno lo stesso
periodo.
7.2 Grafi e matrici 279

Prova. Siano vi ∈ V e vj ∈ V due qualsiasi nodi della medesima componente forte-


mente connessa di G. Basta provare che d(vj ) divide d(vi ). A tal fine è sufficiente
limitarsi a considerare i cammini γ di lunghezza k da vi a vi che non contengono
vj . Per ipotesi, esiste un cammino η di lunghezza h da vj a vj che passa per vi .
Se consideriamo la somma di cammini γ + η, allora d(vj ) divide sia h che h + k e
dunque divide k. 

Il risultato precedente consente di dare la seguente


Definizione 7.33. Il periodo di una componente fortemente connessa
di un grafo orientato è il periodo di uno qualsiasi dei nodi che la compongono.
Ricordando che le matrici irriducibili non negative sono associate a grafi for-
temente connessi vale la seguente.
Definizione 7.34. Si dice periodo di una matrice (quadrata, non negativa
e) irriducibile A, indicato con dA , il periodo d di uno qualsiasi dei nodi di GA.
La matrice A si dice:
• aperiodica se dA = 1;
• periodica se dA > 1.
Lemma 7.35. Sia A > 0 una matrice quadrata di ordine n > 1 irriducibile.
(kd)
Allora per ogni i = 1, . . . , n esiste un intero k0 (i) > 0 tale che aii > 0 per
ogni k ≥ k0 (i) , dove d = dA è il periodo della matrice A.
 
(k)
Prova. Denotiamo con H(i) l’insieme k ∈ N\ {0} : aii > 0 . Esso rappresenta
l’insieme delle lunghezze dei cammini che partono e arrivano in i nel grafo GA asso-
ciato ad A. Per definizione, dA è il massimo comun divisore di H(i); inoltre H(i) è
chiuso rispetto alla somma di cammini, nel senso che per ogni k1 ∈ H(i) e k2 ∈ H(i)
si ha
(k +k ) (k ) (k )
aii 1 2 ≥ aii 1 aii 2 > 0 ⇒ (k1 + k2 ) ∈ H(i) .
Dunque H(i) contiene tutti i multipli positivi del suo MCD eccetto al più un numero
finito di questi. 

Sappiamo (vedi Definizione 7.15) che una matrice primitiva è una particolare
matrice positiva e irriducibile caratterizzata dall’avere un unico autovalore di
massimo modulo che risulta semplice e positivo. Il risultato che segue precisa
il legame fra matrici primitive ed irriducibili in termini di periodicità.
Teorema 7.36. Sia A > 0 una matrice quadrata di ordine n > 1 irriducibile.
Allora
• A è primitiva se e solo se è aperiodica;
• A è ciclica se e solo se è periodica.

Prova. Sia A primitiva. Poiché esiste k0 tale che Ak  0 per ogni k ≥ k0 segue che
ogni nodo di GA è aperiodico perché appartiene ad un cammino chiuso di lunghezza
k per ogni k ≥ k0 .
280 7 Matrici positive e grafi

Viceversa, supponiamo che A sia irriducibile aperiodica. Allora (Teorema 7.26) per
(k )
ogni i e j esiste k0 = k0 (i, j) tale che aij 0 > 0 ed esiste (Lemma 7.35) k1 (j) > 0
(k)
tale che ajj > 0 per ogni k ≥ k1 (j). Scelto quindi k2 (j) = k0 + k1 (j), per ogni
intero k ≥ k2 (j) si ha
(k) (k ) (k−k )
aij ≥ aij 0 ajj 0 > 0 .
Scelto k3 = maxj {k2 (j)} si ottiene Ak  O per ogni k ≥ k3 , che implica A primi-
tiva. 

Esempio 7.37. Se si considera il grafo orientato associato alla matrice di


adiacenza ⎡ ⎤
0 0 1 0 0 1
⎢ 1 0 0
⎢ 0 0 0⎥ ⎥
⎢ 0 1 0 0 0 0⎥ ⎥
A=⎢ (7.7)
⎢ 1 0 0
⎢ 0 0 0⎥ ⎥
⎣ 0 0 0 1 0 0⎦
0 0 0 0 1 0
si verifica che per il nodo v1 passano i cammini chiusi {v1 , v2 , v3 , v1 } e
{v1 , v4 , v5 , v6 , v1 } quindi il nodo è aperiodico. Dato che il grafo è fortemente
connesso si conclude che il grafo è aperiodico e la matrice (7.7) è irriducibile
e primitiva. Si può verificare che Ak O se k ≥ 12.

Esercizio 7.14. Determinare, quando è definito, il periodo delle seguenti matrici:


0 1 0 1 0 1
0 1 1 0 0 1
A1 = A2 = A3 = .
1 0 0 1 1 1

⎡ ⎤ ⎡ ⎤
0 1 0 1 1 1
A4 = ⎣ 1 0 1 ⎦ A5 = ⎣ 1 1 0 ⎦.
0 1 0 1 0 0

Esercizio 7.15. Determinare i periodi delle componenti fortemente connesse del


grafo associato alla matrice nell’Esempio 7.13.

Esercizio 7.16. Provare che tutti gli autovalori di una matrice di permutazione T
hanno modulo uguale a 1. Più precisamente, essi sono le radici di un polinomio del
m 
 
tipo λkj − 1 dove k1 + k2 + · · · + km = n ed n è l’ordine della matrice T.
j=1
Tale polinomio coincide a meno del segno con il polinomio caratteristico di T, inol-
tre, se la matrice T è irriducibile allora gli autovalori sono tutti semplici (le radici
complesse dell’unità).

Riassumiamo in due tabelle le relazioni fra le numerose definizioni e proprie-


tà introdotte in questo capitolo, mostrando che le diverse terminologie che
sorgono in modo naturale in differenti contesti spesso descrivono proprietà
equivalenti con riferimento ai teoremi del testo.
7.3 Ancora sulle Catene di Markov 281

Tabella 7.1. Proprietà delle matrici: |A| denota la matrice di elementi |aij |

Se A matrice quadrata di ordine n > 1 allora

A irriducibile ⇐⇒ (In + |A|)n−1  O ⇐⇒ (In + |A|) primitiva

Tabella 7.2. Proprietà delle matrici positive

Se A ≥ 0 matrice quadrata di ordine n > 1 allora

A irriducibile ⇐⇒ (In + A)n−1  O

 
(k)
GA fortemente connesso ⇐⇒ ∀i,j ∃k (i, j) ∈ N\{0} : aij > 0

∃k ∈ N\ {0} : Ak  O ⇐⇒ A primitiva ⇐⇒ A irriducibile aperiodica

(k)
Legenda: aij denota l’elemento di riga i e colonna j della matrice Ak .

7.3 Ancora sulle Catene di Markov

Le nozioni sviluppate in questo capitolo forniscono utili strumenti per l’analisi


delle catene di Markov introdotte nel Capitolo 6. Facendo riferimento alla de-
finizione di nodi fortemente connessi di un grafo (Definizione 7.21), quando si
studia una catena di Markov con matrice di transizione M è naturale chiamare
stati comunicanti quelli che corrispondono a nodi fortemente connessi nel
grafo GM associato a tale catena, come precisato dalla seguente definizione.

Definizione 7.38. Sia M = [mij ] la matrice di transizione di una catena di


Markov omogenea ad n stati s1 , . . . , sn . Diciamo che:
(k)
• si è accessibile dallo stato sj se esiste k ∈ N\ {0} tale che mij > 0 (in
k
tal caso scriveremo sj → si o brevemente sj → si );
k h
• si ed sj sono comunicanti se sj → si e si → sj per k, h opportuni
(in tal caso scriveremo si ←→ sj ).

Essere stati comunicanti è una relazione di equivalenza sull’insieme degli n


stati {s1 , s2 , . . . , sn } di una catena di Markov, dunque tale insieme può essere
partizionato in classi di equivalenza disgiunte, dette classi di stati comu-
282 7 Matrici positive e grafi

nicanti (o più semplicemente classi comunicanti) tali che in ciascuna di


esse gli stati sono fra loro comunicanti. Parleremo indifferentemente di classi
comunicanti dell’insieme degli stati o della matrice di transizione.
Una classe comunicante C è chiusa se si ∈ C e si → sj implicano sj ∈ C.
Uno stato si è assorbente se {si } è una classe comunicante chiusa.
Esempio 7.39. Per determinare le classi comunicanti corrispondenti alla ma-
trice stocastica ⎡ ⎤
1/3 0 1/4 0 0 0
⎢ 2/3 0 0 0 0 0⎥
⎢ ⎥
⎢ 0 1 0 0 0 0⎥
M=⎢ ⎥
⎢ 0 0 1/4 1/2 0 0 ⎥
⎣ 0 0 1/2 1/2 0 1 ⎦
0 0 0 0 1 0
si può ricorrere al grafo corrispondente, ottenendo le classi {1, 2, 3}, {4} e
{5, 6}: solo quest’ultima è chiusa. 
Esempio 7.40. La seguente matrice stocastica
⎡ ⎤
0 1 0 0 0 0 0 0
⎢0 0 1 0 0 0 0 0⎥
⎢ ⎥
⎢0 0 0 1 0 0 0 0⎥
⎢ ⎥
⎢0 0 0 0 1/2 0 0 0 ⎥
A=⎢ ⎥
⎢1 0 0 0 0 1 0 0⎥
⎢ ⎥
⎢0 0 0 0 0 0 1 0⎥
⎣0 0 0 0 0 0 0 1⎦
0 0 0 0 1/2 0 0 0

è irriducibile e primitiva (ha periodo 1 perché, dall’esame del grafo associato,


vi sono i periodi 4 e 5), ha un’unica classe comunicante. Corrispondenemente il
grafo associato GA ha un’unica componente fortemente connessa. Il polinomio
1 1
caratteristico di A è: λ8 − λ4 − λ3 = λ3 (λ − 1)(λ4 + λ3 + λ2 + λ + 1/2).
2 2
Gli autovalori sono 1, 0, −0, 668809 ± 0, 338851 i , 0, 168809 ± 0, 927891 i , so-
no tutti semplici salvo 0 che è triplo e, in accordo con il Teorema di Frobenius
hanno tutti modulo minore dell’autovalore dominante che è 1. 
Esempio 7.41. La seguente matrice stocastica
⎡ ⎤
0 1 0 0 0 0 0 0 0
⎢0 0 1 0 0 0 0 0 0 ⎥
⎢ ⎥
⎢0 0 0 1 0 0 0 0 0 ⎥
⎢ ⎥ ( )
⎢0 0 0 0 1 0 0 0 0 ⎥
⎢ ⎥ F1 O
B = ⎢1 0 0 0 0 0 0 0 0 ⎥ =
⎢ ⎥ O F2
⎢0 0 0 0 0 0 1 0 0 ⎥
⎢ ⎥
⎢0 0 0 0 0 0 0 1 0 ⎥
⎣0 0 0 0 0 0 0 0 1 ⎦
0 0 0 0 0 1 0 0 0
7.3 Ancora sulle Catene di Markov 283

è riducibile con due classi comunicanti e chiuse, una (costituita dai primi cin-
que stati) periodica di periodo 5, l’altra (costituita dagli ultimi quattro stati)
periodica di periodo 4. Il corrispondente grafo GB ha due componenti forte-
mente connesse (quella costituita dai primi 5 nodi e quella costituita dagli
ultimi 4).   
Il polinomio caratteristico di B è λ5 − 1 λ4 − 1 ; gli autovalori sono tutte
le radici quarte e quinte complesse di 1: sono tutti semplici salvo λ = 1 che è
doppio.
Si noti la struttura dei blocchi quadrati Fj del tipo forme elementari di Fro-
benius. 
È naturale la seguente definizione.
Definizione 7.42. Una catena di Markov irriducibile è una catena di Mar-
kov la cui matrice di transizione è irriducibile.
Una catena di Markov riducibile è una catena di Markov la cui matrice di
transizione è riducibile.
Un esempio significativo di catene di Markov riducibili è fornito dalle catene
di Markov assorbenti che, con opportuno ordinamento degli stati, hanno la
forma (6.16) e la cui analisi asintotica è descritta nel Teorema 6.26. Riducibile
non implica assorbente (si veda l’Esempio 7.43).
Dall’Osservazione 7.28 e il Teorema 7.27 segue che una catena di Markov è
irriducibile se l’insieme degli stati è costituito da un’unica classe comunicante
(che dunque è chiusa) o, equivalentemente, se per ogni coppia di stati si ed
(k)
sj esiste k = k (i, j) tale che mij > 0.
Si noti che la matrice M dell’Esempio 7.39 è riducibile.
Esempio 7.43. La catena di Markov con matrice di transizione
⎡ ⎤
1/3 1/2 0 0
⎢ 2/3 1/2 0 0 ⎥
M=⎢ ⎣ 0

0 3/4 1/4 ⎦
0 0 1/4 3/4

è riducibile. Si noti che se si assume come dato iniziale il vettore distribuzione


di probabilità con 1 in una delle due prime (rispettivamente, ultime) posizioni,
la dinamica del sistema si svolgerà esclusivamente fra i primi (rispettivamente,
ultimi) due stati. 
Esercizio 7.17. Dimostrare che ogni matrice di transizione (di dimensione finita)
ha almeno una classe comunicante chiusa.

Definizione 7.44. Data una catena di Markov omogenea ad n stati s1 , . . . ,


(k)
sn , uno stato si si dice aperiodico se esiste k0 ∈ N\ {0} tale che mii > 0
per ogni k > k0 .
Una catena di Markov si dice catena aperiodica se ogni suo stato è aperio-
dico.
284 7 Matrici positive e grafi
" #
(k)
Uno stato si è quindi aperiodico se e solo se l’insieme k ∈ N\{0} : mii > 0
non ha divisori comuni maggiori di 1.
(k)
Se una catena di Markov è aperiodica, allora esiste k ∈ N\ {0} tale che mii >
0 per ogni i.
Con la terminologia introdotta possiamo riformulare il Lemma 7.32 ed il Teo-
rema 7.36 come segue.
Lemma 7.45. Se M è irriducibile e ha uno stato aperiodico, allora ogni suo
stato è aperiodico.

Teorema 7.46. Sia M la matrice di transizione di una catena di Markov ir-


(k)
riducibile e aperiodica. Allora esiste k0 ∈ N\ {0} tale che mij > 0 per ogni
k > k0 e per ogni i, j.

Se una catena di Markov ha matrice di transizione che soddisfa le ipotesi


del Teorema 7.13 (Frobenius) allora l’esistenza, l’unicità e la stabilità globale
della distribuzione di probabilità invariante è garantita solo nel caso h = 1.

Definizione 7.47. Data una catena di Markov ad n stati, un suo stato si si


dice:
• transiente se esiste uno stato sj con sj = si tale che si → sj ma sj → si ;
• ricorrente se non è transiente, cioè se: si → sj ⇒ sj → si .

In parole semplici: uno stato è ricorrente se il processo prima o poi vi tornerà


sicuramente, ossia vi tornerà infinite volte; uno stato è transiente se il processo
dopo esservi transitato può non tornarci più.
Si noti che per una catena di Markov (con un numero finito di stati):
1. ogni stato è in modo esclusivo transiente oppure ricorrente;
2. uno stato assorbente è un particolare stato ricorrente;
3. se uno stato è ricorrente allora comunica con se stesso;
4. gli stati non possono essere tutti transienti (perché la dinamica deve com-
piere infiniti passi);
5. uno stato ricorrente che non è assorbente può comunque essere visitato
infinite volte in tempi successivi.
Per quanto riguarda invece la partizione in classi comunicanti di una catena
di Markov, valgono le seguenti conclusioni:
1. gli stati in una classe comunicante o sono tutti transienti o sono tutti
ricorrenti; nel primo caso la classe si dice transiente, nel secondo ricorrente;
2. ogni classe comunicante è chiusa se e solo se è ricorrente.
Una conseguenza rilevante di quanto appena esposto è il seguente enunciato.
Teorema 7.48. Una catena di Markov (con un numero finito di stati) irri-
ducibile ha tutti gli stati ricorrenti.
7.3 Ancora sulle Catene di Markov 285

Esempio 7.49. Gli stati ricorrenti dell’Esempio 6.31 (vedi Fig. 6.6) sono “vin-
ce A” e “vince B”. Tutti gli altri stati sono transienti. Si noti che gli stati tran-
sienti “vantaggio A”, “vantaggio B” e “parità” possono essere visitati più volte
da una traiettoria, mentre tutti altri stati transienti possono essere visitati al
più una volta.
Osserviamo inoltre che la catena è assorbente ed i suoi stati assorbenti sono
gli stati ricorrenti “vince A” e “vince B”. Questo vale in generale: gli stati
assorbenti di una catena assorbente sono ricorrenti.
La matrice di transizione riferita ai possibili andamenti di un game giunto in
una situazione di parità (ordinando i cinque stati assorbenti o ricorrenti da
sinistra a destra come in Fig. 6.6) è
⎡ ⎤
1 pA 0 0 0
⎢ 0 0 pA 0 0 ⎥
⎢ ⎥
⎢ 0 pB 0 pA 0 ⎥
⎢ ⎥
⎣ 0 0 pB 0 0 ⎦
0 0 0 pB 1 . 

Riassumendo le considerazioni precedenti, per le probabilità invarianti di una


catena di Markov, valgono le seguenti conclusioni:
 T
1. se si è uno stato transiente e P = P1 P2 · · · Pn è una distribuzione di
probabilità invariante per la matrice di transizione M, allora Pi = 0;
2. vi sono q vettori distribuzione di probabilità invariante linearmente indi-
pendenti se e solo se la catena ha q classi di stati ricorrenti;
3. una catena ha un unico vettore distribuzione di probabilità invariante se e
solo se ha un’unica classe di stati ricorrenti e

Pi = 0 se si transiente , Pi > 0 se si ricorrente ;

4. se una catena è irriducibile allora esiste un unico vettore distribuzione di


probabilità invariante e risulta P 0;
5. se una catena è (irriducibile e) primitiva allora l’unica distribuzione di
probabilità invariante è globalmente attrattiva per il s.d.d. associato.

Osservazione 7.50. Le definizioni di matrice riducibile e irriducibile sono


state introdotte solo nel caso di matrici quadrate di ordine n > 1 (Defi-
nizione 7.4): l’esclusione del caso n = 1 è naturale qualora ci si riferisca alle
proprietà della decomposizione in blocchi di una matrice, come è nel caso della
Sezione 7.1. Nulla impedisce di rimuovere la restrizione sull’ordine, ricorrendo
ad una definizione convenzionale. Tuttavia l’opportunità della convenzione va-
ria a seconda del contesto. In un approccio puramente algebrico (Sezione 7.1)
conviene considerare irriducibili tutte le matrici quadrate di ordine n = 1 in
modo tale da conservare la validità del Teorema 7.29 anche per n = 1: ma
nel caso dei grafi tale convenzione corrisponderebbe a considerare solo grafi
dotati di cappi in ogni vertice. Per questo motivo, nel contesto dei grafi e delle
286 7 Matrici positive e grafi

catene di Markov, è più naturale stabilire per convenzione che una matrice di
ordine 1 è riducibile (rispettivamente irriducibile) se il suo unico elemento è
nullo (rispettivamente diverso da 0), in modo tale da conservare l’equivalenza
tra forte connessione del grafo e irriducibilità della sua matrice di adiacenza
anche per l’ordine 1.

7.4 Algoritmo PageRank: perché un buon motore di


ricerca sembra leggere nel pensiero di chi lo interroga

Esaminiamo un’applicazione di grande successo delle proprietà delle matri-


ci discusse in questo capitolo: l’algoritmo PageRank utilizzato dal motore di
ricerca Google ideato nel 1998 da Sergei Brin e Lawrence Page. Il nome com-
merciale Google rimanda ad un numero stratosferico (google=10100): il motivo
è che la scala del problema che i motori di ricerca devono affrontare e risolvere
è immensa.
Il problema risolto da Google nel rispondere ai milioni di queries quotidiane
consiste nel fornire delle risposte ciascuna delle quali deve ordinare miliardi di
pagine Web1 . Il requisito essenziale per il successo di tale procedura è un va-
lido e veloce criterio di ordinamento di tutte le pagine che soddisfano i criteri
delle query in oggetto. Una volta ottenuto un metodo efficiente per ordinare
le pagine Web in rapporto alla loro significatività si può utilizzare lo stesso
criterio di ordinamento nella risposta a ciascuna singola query.
Il meccanismo esatto del funzionamento di Google non è pubblicamente noto
(ovviamente molti dettagli algoritmici sono segreti tutelati da copyright) ed
alcuni aspetti della sua notevole efficienza sono chiariti solo in parte [5],[4],[13],
comunque esso si basa su una procedura di ordinamento fra pagine che pre-
scinde dal loro effettivo contenuto ed utilizza la struttura topologica del Web,
cioè il tipo di connessioni esistenti fra le pagine internet. L’idea è quella di as-
sociare ad ogni pagina un indice di significatività (authority measure) che
dipenda dal numero delle citazioni (hyperlinks o brevemente links) ottenute
da altre pagine e dall’indice di significatività di queste ultime: tale proce-
dura è denominata algoritmo PageRank. Descriviamo nel seguito un modo
euristico per introdurre e calcolare l’indice di significatività, introducendo un
modello della navigazione su Internet come processo descritto da una catena
di Markov.
Un insieme di pagine Web P1 , . . . , Pn può essere rappresentato come un gra-
fo orientato G = (V, L) ove i vertici vi coincidono con le pagine Pi e il lato
(vj , vi ) ∈ L se e solo se esiste un link dalla pagina Pj alla pagina Pi .
Indichiamo con A = [aij ] la matrice di adiacenza di G = (V, L), quindi

1 se esiste il link da Pj a Pi
aij = .
0 se non esiste il link da Pj a Pi
1
Per il “vocabolario” del Web un utile riferimento è la pagina www.webopedia.com.
7.4 Algoritmo PageRank 287

Si noti che la somma degli elementi della i-esima riga di A rappresenta il nu-
mero delle pagine che hanno un link che conduce a Pi , mentre la somma degli
elementi della j-esima colonna di A rappresenta il numero di pagine alle quali
si può pervenire partendo da Pj .
La dimensione della matrice A è gigantesca, si pensi che già nel 1997 si sti-
mava la presenza di circa 100 milioni di pagine Web, cifra che è enormemente
aumentata nel momento in cui scriviamo e che sarà aumentata ulteriormente
nel momento in cui leggerete questa pagina!
L’indice di significatività xj ≥ 0 della j-esima pagina Pj deve soddisfare due
requisiti: da una parte deve risultare elevato se si riferisce ad una pagina citata
da molte altre pagine, dall’altra deve risultare elevato se riferito ad una pagina
citata da (eventualmente poche) pagine molto significative. Dunque il mero
conteggio dei link che puntano ad una pagina non è adeguato a rappresen-
tarne l’indice di significatività (non soddisfacendo al secondo requisito); più
adeguato appare definire l’indice di significatività xj della pagina Pj in modo
tale che esso risulti proporzionale, con costante di proporzionalità c uguale
per tutte le pagine, alla somma degli indici di significatività delle pagine che
rinviano a Pj tramite un link. Illustriamo con un esempio quanto introdotto.

Esempio 7.51. Date quattro pagine Web P1 , P2 , P3 e P4 , supponiamo che


la pagina P1 sia citata dalla pagina P2 , la pagina P2 sia citata da P1 e P4 , la
pagina P3 sia citata solo da P2 e la pagina P4 sia citata da tutte le altre tre
pagine. Gli indici di significatività x1 , x2 , x3 e x4 sono soluzioni positive del
seguente sistema lineare algebrico:


⎪ x1 = c x2

x2 = c (x1 + x4 )
(7.8)

⎪ x 3 = cx2

x4 = c (x1 + x2 + x3 )

Se A è la matrice di adiacenza corrispondente al grafo delle connessioni fra


 T
pagine Web ed x = x1 x2 x3 x4 è il vettore dei livelli di significatività delle
quattro pagine, in termini vettoriali il problema precedente si riscrive come
x = cAx o, essendo c = 0, Ax = λx avendo posto λ = 1/c. Esplicitamente:
⎡ ⎤
0 1 0 0
⎢ 1 0 0 1 ⎥
A = ⎢ ⎣ 0 1 0 0 ⎦ .
⎥ (7.9)
1 1 1 0

Risolvendo (7.8) si ottengono i valori:


cA = 0, 5651978 , autovalore dominante λA = 1, 769292 , autovettore dominan-
 A = [ 0, 321595 0, 568996 0, 321595 0, 685125 ]T .
te R
L’ordinamento delle pagine rispetto all’indice di significatività ottenuto in tal
modo è: R4 > R 2 > R1 = R3 . 
288 7 Matrici positive e grafi

L’esempio precedente evidenzia come la ricerca dell’indice di significatività


per un dato set di pagine Web sia riconducibile alla ricerca di un autovalo-
re positivo λ con associato autovettore positivo R della matrice di adiacenza
del grafo associato alle pagine Web considerate. Ovviamente data la natura
del problema, è auspicabile che le soluzioni cercate siano uniche, o perlome-
no, se non sono uniche, che tutte le soluzioni trovate diano luogo allo stesso
ordinamento per indice di significatività dei rank R  j di ciascuna pagina Pj .
Osserviamo che la considerazione della matrice di adiacenza (che assegna un
peso pari ad 1 ad ogni pagina in uscita da una data pagina) rischia di so-
pravvalutare l’indice di significatività delle pagine che presentano molti link
in entrata da pagine poco rilevanti e/o che sono poco selettive nell’inserire
i link. È quindi opportuno considerare la matrice M = [mij ] i cui elementi
soddisfano

1/Nj se esiste il link da Pj a Pi
mij = (7.10)
0 se non esiste il link da Pj a Pi

ove Nj , per j = 1, . . . , n, indica il numero delle pagine alle quali si può perve-
nire in un passo partendo dalla pagina Pj (ossia Nj è la somma degli elementi
della colonna j-esima della matrice A).
Con tale procedura, nel caso dell’Esempio 7.51, alla matrice (7.9) si sostituisce
⎡ ⎤
0 1/3 0 0
⎢ 1/2 0 0 1 ⎥
M = ⎢ ⎥
⎣ 0 1/3 0 0 ⎦ . (7.11)
1/2 1/3 1 0

Risolvendo Mx = λx si ottiene: cM = 1 , autovalore dominante λM = 1 ,


autovettore dominante RM = [ 0, 133333 0, 399999 0, 133333 0, 333333 ]T .
L’ordinamento delle pagine rispetto agli indici di significatività ottenuto in
tal modo è: R2 > R4 > R1 = R3 .
Si noti che l’uso meno raffinato della matrice A dava la maggior significatività
alla pagina P4 che veniva linkata da tutte le altre ma linkava solo verso la P2 ;
mentre l’utilizzo più efficace della matrice M attribuisce la maggiore signifi-
catività alla pagina P2 che è linkata solo da P1 e P4 ma ha più links in uscita
(verso tutte le altre).
Se da ogni pagina Web si può pervenire ad almeno un’altra pagina, allora la
corrispondente matrice M di elementi costruita come in (7.10) è stocastica.
Di fatto la matrice M è la matrice di transizione di una catena di Markov che
descrive una passeggiata aleatoria fra le pagine Web nell’ipotesi che navigan-
do nel Web ci si muova da una pagina verso le altre a caso, che le transizioni
siano equiprobabili e avvengano solo cliccando sui vari link disponibili. In tal
caso l’autovalore dominante di M è λM = 1 e la soluzione del problema di
determinare l’indice di significatività di tutte le pagine Web equivale alla ri-
7.4 Algoritmo PageRank 289

cerca di un unico equilibrio R  (distribuzione di probabilità invariante) per la



catena di Markov associata: R  = MR, R j ≥ 0, 
j Rj .
Se M fosse (positiva irriducibile e) primitiva allora (per il Teorema 7.17) tale
soluzione sarebbe fornita dall’unico autovettore positivo  VM normalizzato (ri-
spetto alla somma delle proprie componenti V 1 = j VjM ) e calcolabile
M

con il metodo delle potenze: questa situazione ideale può descrivere solo un
grafo del Web fortemente connesso (vedi Teorema 7.27).
Tuttavia è naturale supporre che (come nell’Esempio 7.51) ogni pagina non
sia linkata con sé stessa, cioè la matrice M nella diagonale principale abbia
tutti gli elementi nulli. Inoltre non è neppure vero che la matrice di adiacenza
di tutto il Web abbia una potenza strettamente positiva.
Nel caso reale sia i gruppi significativi di pagine Web sia tutta la rete del World
Wide Web nel suo complesso non sono fortemente connessi. In particolare si
presentano i seguenti problemi:
• (p1) assegnata una pagina Pj , non è detto che da Pj si possa arrivare ad
alcuna altra pagina; in tal caso Pj si dice pagina dangling e la j-esima
colonna della matrice M è costituita solo da zeri, dunque M non è neppure
stocastica; il grafo corrispondente GM non è connesso;
• (p2) anche se da ogni pagina si può arrivare ad almeno un’altra pagina,
non è detto che da ciascuna pagina si possa arrivare ad una qualsiasi altra
pagina: in tal caso la matrice M non è irriducibile e il grafo corrispondente
GM non è fortemente connesso.
Vi sono diversi metodi per rimediare ai problemi (p1) e (p2) evidenziati: tutte
queste possibilità sono basate sul fatto che il transito da una pagina all’altra
non avviene solo mediante links già presenti ma anche digitando l’indirizzo
delle pagine. Ci limitiamo a citare solo una delle possibilità per ciascuno di
tali problemi.
Per risolvere il problema (p1), una possibilità è quella di ipotizzare che tutte
le pagine dangling puntino ad ogni pagina del Web: ciò equivale a sostitui-
re alle corrispondenti colonne di soli zeri nella matrice M il vettore colonna
1  T
1n = 1/n 1/n · · · 1/n , ottenendo così una matrice stocastica M: 
n

 = M + 1 1 n BT
M
n
ove gli elementi del vettore colonna B sono Bj = 1 se Pj è dangling, Bj = 0
negli altri casi. Si noti che ciò corrisponde ad ipotizzare una distribuzione di
probabilità uniforme circa il passaggio ad altre pagine senza utilizzo dei links,
ma ipotesi più generali (e personalizzate) possono essere fatte.
L’aggiustamento della matrice di adiacenza appena descritto, pur garantendo
di lavorare con una matrice stocastica M,  non ne garantisce la irriducibilità.
Per ottenere tale proprietà (cioè risolvere il problema (p2)) nel caso generale
di tutto il Web, denotando con 1In la matrice quadrata di ordine n con tutti gli
elementi uguali ad 1, si può perturbare la matrice stocastica M  nel seguente
290 7 Matrici positive e grafi

modo:
 + (1 − d) E
G = dM
(7.12)
1 1
d ∈ (0, 1) E= 1n 1Tn = 1In
n n
ottenendo una matrice di transizione che è strettamente positiva: G O.
Dunque G è irriducibile e primitiva; inoltre G è stocastica perchè sia M che
E lo sono.
Per il Teorema di Markov-Kakutani G ammette una distribuzione di proba-
bilità invariante, per il Teorema di Perron-Frobenius essa è unica. Denotiamo
con R tale distribuzione di probabilità invariante:

GR = R, R ≥ 0, Rj = 1 . (7.13)
j

Tale R; oltre ad essere l’autovettore dominante di G; fornisce l’ordinamento


delle sue componenti Rj , ordinamento che può essere utilizzato come valida
alternativa all’ordinamento delle componenti R j , attribuendo l’indice di si-
gnificatività Rj alla pagina Pj : sottolineiamo che non interessa tanto il valore
numerico degli Rj quanto il loro ordinamento decrescente ([4]).
R è il vettore cercato dei livelli di significatività delle pagine Web: la compo-
nente Rj è l’indice di significatività della pagina Pj .
I Teoremi 6.36, 6.39 e 7.17 assicurano

lim Gk P0 = R per ogni P0 distribuzione di probabilità, (7.14)


k

 quando k tende a +∞ :
tutte le colonne di Mk convergono a R
 |R
lim Gk = [ R  | ··· |R
 ]. (7.15)
k

Questi risultati teorici consentono anche di affrontare il vero problema costi-


tuito dalle dimensioni delle matrici in gioco (si stima attualmente che siano
presenti almeno 9 · 109 pagine). Infatti l’algoritmo di calcolo dell’autovettore
principale mediante il metodo delle potenze è molto veloce: il Teorema 7.17
assicura che la velocità è legata al secondo autovalore di G (circa la stima
tramite d del secondo autovalore per la matrice G si veda ([13]).
Le (7.14) e (7.15) descrivono l’analisi asintotica del s.d.d. associato alla catena
di Markov regolare di matrice stocastica G :

Pk+1 = G Pk P0 distribuzione di probabilità. (7.16)

Per la natura della matrice E il s.d.d. vettoriale omogeneo (7.16) è equivalente


al s.d.d. vettoriale lineare non omogeneo

 Pk + (1 − d) 1n .
Pk+1 = d M (7.17)
n
7.5 Esercizi di riepilogo 291

Si noti che la matrice M è molto sparsa, al contrario G ha tutti gli elementi


strettamente positivi: dunque è assai utile sfruttare l’equivalenza evidenziata
ed implementare il metodo delle potenze mediante (7.17) anziché (7.16).

7.5 Esercizi di riepilogo


Esercizio 7.18. Dire se la matrice stocastica
⎡ ⎤
0 0 0 1/2
⎢ 1 0 1/4 0 ⎥
M=⎢ ⎣ 0 1 0 1/2 ⎦

0 0 3/4 0

è riducibile o irriducibile.

Esercizio 7.19. Provare che la matrice quadrata A di ordine n è riducibile se e solo


se corrisponde ad una applicazione lineare di Rn in Rn che trasforma in sé stesso un
sottospazio V (non ridotto al solo 0) generato da vettori della base canonica di Rn .

Esercizio 7.20. Assumendo che tutti i tassi di sopravvivenza siano strattamente


positivi (σj > 0, j = 1, . . . , n − 1), provare che la matrice del modello di Leslie è
irriducibile se e solo se il tasso di natalità dell’ultima classe verifica ϕn > 0.

Esercizio 7.21. Provare che se la matrice del modello di Leslie è irriducibile (cioè,
se ϕn > 0) allora è primitiva se almeno due classi di età consecutive sono fertili.
Mostrare che la condizione non è necessaria.

Esercizio 7.22. Nel modello per l’attribuzione dell’indice di significatività o il cal-


colo dell’autovettore R (Sezione 7.4 - Algoritmo PageRank) abbiamo implicitamente
supposto che il risultato non dipenda dall’ordinamento (arbitrario) delle pagine, cioè
dall’indice j secondo il quale vengono elencate le pagine Pj . Si provi la validità di
tale ipotesi.
Suggerimento: per mostrare l’indipendenza di R rispetto a una permutazione τ del-
le pagine basterà sfruttare l’invarianza degli autovalori ed autovettori rispetto alla
trasformazione di G in TGTT dove T è la matrice di permutazione associata a τ.

Esercizio 7.23. Con riferimento all’Esempio 7.51 i gestori della pagina P1 sono in-
soddisfatti dell’indice di significatività attribuito al tale pagina (inferiore a quello
attribuito alla pagina P4 ). Nel tentativo di aumentarlo, creano una ulteriore pagina
P5 con un link da P5 a P1 ed un link da P1 a P5 .
Questa operazione riesce a far aumentare l’indice di significatività di P1 oltre quello
di P4 ?
8
Soluzioni degli esercizi

8.1 Soluzioni degli esercizi del Capitolo 1


Soluzione 1.1. Se proviamo a tracciare successivamente le varie rette, attribuen-
do ad ognuna un orientamento convenzionale, allora sulla (k + 1)-esima retta sono
presenti k punti distinti e ordinati p1 , p2 , . . . , pk , intersezioni di tale retta con le
rette preesistenti. Tali punti identificano sulla retta k − 1 segmenti e due semirette.
Ciascuno di questi k + 1 oggetti geometrici sconnette una ed una sola delle regioni
che “attraversa”, per cui
Nk+1 = Nk + k + 1
N0 = 1
1 1
la cui soluzione è data da Nk = k2 + k + 1. Tale formula può essere provata per
2 2
induzione. La tecnica per ottenere la formula è illustrata nel Capitolo 2.
Per rispondere al quesito, basta osservare che conviene effettuare i tagli in modo tale
che ogni coppia di tagli si intersechi internamente al cerchio, ma non più di due si
intersechino in ciascuno di tali punti. Pertanto il numero massimo è proprio quello
1 1
fornito dalla formula trovata: Nk = k2 + k + 1.
2 2

a) b)

p2

p1

Fig. 8.1. Se k = 2 allora si ha: a) Nk+1 = 7 , b) (k + 1)-esima retta

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_8, © Springer-Verlag Italia 2014
294 8 Soluzioni degli esercizi

Soluzione 1.2. Procediamo per induzione. Si ha:

S1 = (1 + r) S0 − R ≥ (1 + r) S0 − rS0 = S0

e quindi la proposizione è vera per k = 1. Supposta ora vera l’affermazione per un


k ≥ 1, otteniamo:

perché R≤rS0

Sk+1 = (1 + r) Sk − R ≥
per l’ipotesi d’induzione
≥ (1 + r) Sk − rS0 ≥
≥ (1 + r) Sk − rSk =
= Sk .

Concludendo, se R ≤ rS0 , allora Sk+1 ≥ Sk , cioè il debito non diminuisce al passare


del tempo.
Soluzione 1.3. La quantità Yk+1 è una proporzione, con coefficiente 1 − pY , della
quantità Yk . Invece, per ottenere Xk+1 si deve considerare la proporzione (1 − pX ) Xk
di materiale presente al tempo precedente che non decade, alla quale va sommato
l’apporto pY Yk del primo materiale. In definitiva:

Yk+1 = (1 − pY ) Yk
Xk+1 = pY Yk + (1 − pX ) Xk

Per la soluzione di questo semplice caso si rimanda all’Esercizio 2.17. Per la soluzio-
ne in forma chiusa di sistemi di equazioni lineari alle differenze nel caso generale si
rimanda al Capitolo 5.
Soluzione 1.4. La quota interessi al tempo k + 1, per definizione, è data da Ik+1 =
rDk . Possiamo così scrivere

S
Ik+1 − Ik = rDk − rDk−1 = r (Dk − Dk−1 ) = −rC = − r
n
ossia
S
Ik+1 = Ik −r.
n
Per determinare l’espressione in forma chiusa di Ik procediamo iterativamente:

S S S
Ik+1 = Ik − r = Ik−1 − 2 r = Ik−2 − 3 r = · · · =
n n n
S S n−k+1
= I1 − (k − 1) r = rS − (k − 1) r = rS .
n n n
Soluzione 1.5. La quota interessi al tempo k + 1 è data da:

Ik+1 = rDk = r (Dk−1 − Ck ) =


perché Ck =R−Ik
= Ik − rCk =
= (1 + r) Ik − rR .
8.1 Soluzioni degli esercizi del Capitolo 1 295

Così, dall’uguaglianza che esprime la costanza delle rate (Ck+1 + Ik+1 = Ck + Ik )


segue
Ck+1 = Ck + (Ik − Ik+1 ) = Ck + rCk = (1 + r) Ck
da cui Ck = (1 + r)k−1 C1 = (1 + r)k−1 (R − rS).
Soluzione 1.6. L’ammontare Sk+1 presente sul conto dopo k + 1 anni è dato dal-
l’ammontare Sk dell’anno precedente al quale vanno sommati gli interessi maturati
rSk e detratte le spese fisse C:

Sk+1 = Sk + rSk − C.
 
Soluzione 1.7. s = 100 (Cgg /C0 )365/gg − 1 .

Soluzione 1.8. Poiché per 0 < r < 1 valgono

1
+∞ +∞ +∞
m (r) = nkrk (1 − r) = (1 − r) krk = r (1 − r) krk−1 =
n
k=1 k=1 k=1


d x  r
= (1 − r) r  =
dx 1 − x x=r 1−r

e
5 5
k 1 log 2
d (r) = max k ∈ N : (1 − r) ≥ = max k ∈ N : k ≤ − =
2 log (1 − r)

log 2
= parte intera di −
log (1 − r)

si conclude che

r log 2
m (r)  d (r) ⇔  parte intera di − .
1−r log (1 − r)

Soluzione 1.9. Sia Yk il numero di operazioni necessarie per riporre k cubi. Se


k = 0 ovviamente Y0 = 0, mentre per k = 1 si ha Y1 = 1. Se, invece, si vogliono
riporre nella cesta dei giochi k + 2 cubi, si hanno due sole possibilità: al primo passo
si toglie un cubo, avendo poi Yk+1 differenti modi per portare a termine l’operazio-
ne, oppure, sempre al primo passo, se ne tolgono due, restando così Yk modi per
operare. In definitiva:
Yk+2 = Yk+1 + Yk .
Si osservi che l’equazione ricorsiva coincide con quella dei numeri di Fibonacci (Esem-
pio 1.15).
Soluzione 1.10. Si supponga di dover spostare k + 1 dischi. Per poter “liberare”
quello di raggio maggiore si può pensare di spostare i restanti dischi sul piolo centra-
le (vedi Fig. 1.6): il numero minimo di mosse necessarie per ottenere tale risultato è
dato da Yk perché coincide con il numero minimo di mosse necessarie per spostare
i primi k dischi sul piolo di destra; con una sola mossa si può spostare il disco di
raggio maggiore dal piolo di sinistra a quello di destra, mentre ci vogliono ancora Yk
mosse per spostare dal piolo centrale a quello di destra i restanti dischi. Otteniamo
296 8 Soluzioni degli esercizi

così:
Yk+1 = Yk + 1 + Yk = 2Yk + 1.
Osserviamo che tale numero Yk+1 di mosse è ovviamente sufficiente; che sia il mini-
mo segue dal fatto che Yk era minimo per k dischi e lo spostamento del disco più
grande è una operazione necessaria per completare lo spostamento della torre.
Soluzione 1.11. Se i dischi sono k + 1, con Xk mosse si spostano i primi k dischi
sul piolo di destra, poi con una mossa si sposta l’ultimo disco sul piolo di mezzo; a
questo punto con altre Xk mosse si spostano i primi k dischi sul piolo di sinistra,
con una mossa si sistema sul piolo di destra il disco di raggio maggiore ed infine con
Xk mosse si spostano sul piolo di destra i rimanenti dischi. In conclusione:

Xk+1 = 3Xk + 2.

Soluzione 1.12. Supponiamo di aver diviso ciascun lato del triangolo in k + 1


parti: il numero di triangoli Xk+1 è dato dal numero dei triangoli Xk che si otten-
gono considerando, a partire dal vertice, le prime k parti, al quale va aggiunto il
numero k + 1 dei triangolini la cui base giace sulla base del triangolo di partenza e
i k triangolini che hanno il loro vertice nei punti che suddividono la base:

Xk+1 = Xk + k + 1 + k = Xk + 2k + 1.

Soluzione 1.13. Nella Fig. 8.2 sono riportate le prime iterazioni del modello della
ragnatela (nel caso: Pk+1 = − 0, 9 Pk + 2 ) ottenute con il metodo grafico.

+∞
Soluzione 1.14 (Equazione di Bessel). Posto y (x) = xh An xn , con h ≥ 0
n=0
ed A0 = 0, derivando formalmente termine a termine e sostituendo nell’equazione

20
9

Fig. 8.2. Modello della ragnatela


8.1 Soluzioni degli esercizi del Capitolo 1 297

assegnata, si deduce il valore identicamente nullo per la quantità seguente:


+∞
+∞
+∞
+∞
(n + h)(n + h − 1)An xn+h+ (n + h) An xn+h + An xn+h+2−k2 An xn+h
n=0 n=0 n=0 n=0

Operando il cambio di indici m = n + 2 nella terza serie e raccogliendo, possiamo


scrivere

+∞
# $
+∞
(m + h)2 − k2 Am xm+h + Am−2 xm+h = 0.
m=0 m=2

A questo punto, uguagliando i coefficienti dei termini di ugual grado otteniamo


⎧ 2 2

⎨ h − k A0 = 0
2
((h + 1) − k2 )A1 = 0

((m + h)2 − k2 )Am + Am−2 = 0 ∀m ≥ 2

Poiché A0 = 0, dalla prima relazione si ricava che h = k e così, dalla seconda equa-
zione, segue A1 = 0: dunque tutti i coefficienti di ordine dispari sono nulli mentre
quelli di ordine pari sono individuati a partire da A0 dalla relazione

A2n−2
A2n = − n ≥ 1.
4n (n + k)

Osserviamo per completezza che, oltre alla soluzione trovata ed ai suoi multipli, ve
ne sono altre definite solo per x = 0.

+∞
Equazione di Hermite. Con la posizione y (x) = An xn , derivando formalmen-
n=0
te termine a termine e sostituendo nell’equazione data, si giunge a


+∞
+∞
+∞
n (n − 1) An xn−2 − 2 nAn xn + 2k An xn = 0
n=2 n=1 n=0

che grazie al cambio di indici m = n − 2 nella prima serie, si riscrive come


+∞
+∞
+∞
(m + 1) (m + 2) Am+2 xm − 2 mAm xm + 2k Am xm = 0
m=0 m=1 m=0

ovvero

+∞
[(m + 1) (m + 2) Am+2 + 2 (k − m) Am ] xm = 0.
m=0

Imponendo l’annullamento dei coefficienti dei termini di ogni grado, otteniamo la


relazione ricorsiva:

2 (m − k) Am
Am+2 = m ∈ N.
(m + 1) (m + 2)
298 8 Soluzioni degli esercizi

Equazione di Laguerre. Procedendo come nell’esempio precedente, otteniamo


+∞
+∞
+∞
+∞

n (n − 1) An xn−1 + nAn xn−1 − nAn xn + k An xn = 0.
n=2 n=1 n=1 n=0

Questa volta dobbiamo “sistemare” gli indici delle prime due serie:


+∞
+∞
+∞
+∞
n (n + 1) An+1 xn + (n + 1) An+1 xn − nAn xn + k An xn = 0.
n=1 n=0 n=1 n=0

Non resta che uguagliare i coefficienti dei termini di ugual grado:

n−k
A1 + kA0 = 0, An+1 = An .
(n + 1)2

Equazione di Legendre. Con lo stesso metodo:


 +∞ 
n−1

+∞
n+1

+∞
nAn x − nAn x + k (k + 1) An xn = 0
n=1 n=1 n=0

calcolando formalmente la derivata


+∞
+∞
+∞

n (n − 1) An xn−2 − n (n + 1) An xn + k (k + 1) An xn = 0.
n=2 n=1 n=0

Con il cambio di indici n → n + 2 nella prima serie, si ricava


+∞
+∞
+∞
(n + 1) (n + 2) An+2 xn − n (n + 1) An xn + k (k + 1) An xn = 0
n=0 n=1 n=0

e uguagliando i coefficienti dei termini di ugual grado:

n (n + 1) − k (k + 1)
An+2 = An n ∈ N.
(n + 1) (n + 2)

L’esplicitazione dei coefficienti nei vari casi è illustrata nell’Esercizio 2.38.


Soluzione 1.15. Utilizziamo Eulero implicito ed il passo di discretizzazione h > 0.
Se Yk approssima y (hk), allora

(1) (1 − h (k + 1)) Yk+1 = Yk

(2) ah (Yk+1 )2 + (1 − ah) Yk+1 − Yk = 0

Soluzione 1.16. a) e Sia Uj,k un’approssimazione di u (js, hk). Allora per ap-
prossimare le derivate seconde di una generica funzione f , tra i possibili schemi alle
differenze finite, utilizziamo le differenze seconde centrate:

f (ξ + δ) + f (ξ − δ) − 2f (ξ) 1 f (ξ + δ) − f (ξ) f (ξ) − f (ξ − δ)


f  (ξ) = = −
2 δ2 2δ δ δ
8.1 Soluzioni degli esercizi del Capitolo 1 299

si ottiene

s2 h2
Uj,k = (Uj,k+1 + Uj,k−1 ) + (Uj+1,k + Uj−1,k ) .
2 (s2 2
+h ) 2 (s + h2 )
2

1
Si noti che se s = h allora Uj,k = (Uj,k+1 + Uj,k−1 + Uj+1,k + Uj−1,k ), cioè ogni
4
valore di Uj,k è la media aritmetica di quattro valori adiacenti per ogni nodo interno,
dunque è compresa tra il massimo ed il minimo tra essi.
Ne segue il Principio del massimo discreto per l’equazione di Laplace: se si
risolve l’equazione in un aperto limitato con dati al bordo ed una griglia uniforme
(s = h) allora maxj,k Uj,k è assunto al bordo (lo stesso discorso vale per il minimo).
In particolare, se il massimo (o il minimo) viene assunto in un nodo interno allora
Uj,k è indipendente da k e j cioè costante.
b) Sia Vj,k un’approssimazione di v (js, kh); utilizzando ancora le differenze cen-
trate, otteniamo:
 
2 h2 − s2 Vj,k = h2 (Vj+1,k + Vj−1,k ) − s2 (Vj,k+1 + Vj,k−1 ) .

Soluzione 1.17. Operando le sostituzioni (1.21) e ponendo k = 2r/σ2 , si ottiene:



wτ = wyy + (k − 1) wy − kw
w (y, 0) = max (ey − 1, 0) .

Sostituendo la (1.22), si ricava:

βu + uτ = α2 u + 2αuy + uyy + (k − 1) (αu + uy ) − ku.

Imponendo le condizioni

β = α2 + (k − 1) α − k
0 = 2α + (k − 1)

e risolvendo il sistema, si ottengono i valori dei parametri

1 1
α = − (k − 1) β = − (k + 1)2
2 4

rispetto ai quali il problema alle derivate parziali si scrive come




⎨ ut = uyy nel semipiano: − ∞ < y < +∞, τ > 0
 

⎩ u (y, 0) = u0 (y) = max e 21 (k+1)y − e 21 (k−1)y , 0

dato che
1 1 2
w (y, τ ) = e− 2 (k−1)y− 4 (k+1) u (y, τ ) .
300 8 Soluzioni degli esercizi
 +∞
1 2 /4τ
Poiché è noto u (y, τ ) = √ u0 (s) e−(y−s) ds si conclude
2 πτ −∞

v (x, t) = xN (d1 ) − Ee−r(T −t) N (d2 )

dove si è posto
 d
1 2 /2
N (d) = √ e−s ds
2π −∞
2

σ σ2
log (x/E) + r + (T − t) log (x/E) + r − (T − t)
2 2
d1 = √ d2 = √ .
σ T −t σ T −t

8.2 Soluzioni degli esercizi del Capitolo 2


Soluzione 2.1. Sviluppiamo esplicitamente solo i punti i) e ii).

(1) Xk = −k, ∀k ∈ N; lim Xk = −∞;



k k
1
(2) Xk = −2 + 3, ∀k ∈ N; lim Xk = 3;
3 k
1 k 1
(3) Xk = − 4 + , ∀k ∈ N; lim Xk = −∞;
12

k 3 k
1 1 5 5
(4) Xk = − + , ∀k ∈ N; lim Xk = ;
2 5 2 k 2
3 k 1
(5) Xk = (−1) + , ∀k ∈ N;  lim Xk ; Xk oscilla ed assume solo due
2 2 k
valori;
1 5
(6) Xk = − (−3)k + , ∀k ∈ N;  lim Xk . Il modulo |Xk | diverge a +∞.
4 4 k

Soluzione 2.2. A partire dalla (2.3) ricaviamo la seguente tabella:

X1 = aX0 + b
X2 = aX1 + b = a (aX0 + b) + b = a2 X0 + b (1 + a)
   
X3 = aX2 + b = a a2 X0 + b (1 + a) = a3 X0 + b 1 + a + a2
... = ...  
Xk = ak X0 + b 1 + a + a2 + · · · + ak−1

Poiché (vedi l’esercizio precedente)



⎨ 1−a
k
2 k−1 a = 1
1 +a + a +··· +a = 1−a

k a=1

sostituendo il valore di α, si ottengono le formule risolutive del Teorema 2.5.


8.2 Soluzioni degli esercizi del Capitolo 2 301

Soluzione 2.3. L’equazione caratteristica λ2 + aλ + b = 0 ammette le due radici



−a ± a2 − 4b
λ1,2 = .
2

Se b = a2 /4, allora la soluzione generale è Xk = (c1 + c2 k) λ1k con λ1 = −a/2, e,


dunque, Xk ha limite finito (uguale a 0) per ogni dato iniziale se e solo se |λ1 | < 1
cioè se e solo se |a| < 2.
Se b = a2 /4, allora la soluzione generale è Xk = c1 λ1k + c2 λ2k e Xk ammette limite
finito per ogni dato iniziale se e solo se |λ1 | < 1 e |λ2 | < 1, cioè per avere convergenza
di tutte le soluzioni:
 
• se b > a2 /4, allora deve valere a2 + 4b − a2 < 4 cioè b < 1 ;
2

b2 < 0 < a /4, allora deve valere a − 4b < min {2 + a , 2 − a} cioè
• se 2

a <4
;
b > (|a| − 1)
2
√  a <4
• se 0 < b < a2 /4, allora deve valere  a2 − 4b ± a < 2 cioè .
(a − 1) < b
Soluzione 2.4.
(1) Xk = c1 (−1)k + c2 3k , k ∈ N ;
(2) Xk = c1 cos (πk/6) + c2 sin (πk/6) , k ∈ N ;
(3) Xk = c1 + c2 cos (πk/2) + c3 sin (πk/2) , k ∈ N ;
(4) Xk = (c1 + c2 k) (−1)k + c3 (−3)k , k ∈ N ;
(5) Xk = c1 (−1)k + c23k − 1/2, k ∈ N ;
(6) Xk = c1 + c2 cos (πk/2) + c3 sin (πk/2) − k/2, k ∈ N .
Soluzione 2.5. α = 2, α è stabile ed attrattivo;
Xk = −3 (−2)−k−1 − 5 (2)−k−1 + 2, k ∈ N .
Soluzione 2.6.

k
k √
k

−1 − i −1 + i 2 3 3
(a) Xk = c1 +c2 = 
c1 cos πk + 
c2 sin πk ;
2 2 2 4 4
√ k
(b) α = 0, stabile ed attrattivo (c) Xk = 2/2 (−2 sin (3πk/4)) , k ∈ N .

Soluzione 2.7. (a) Xk = c1 (2 − i)k + c2 (2 + i)k + 3, k ∈ N


(b) α = 3, non è stabile.
Soluzione 2.8.

k
k
−1 − i −1 + i
(a) Xk = c1 + c2 −2=
2 2

k

2 3 3
= 
c1 cos πk +  c2 sin πk −2 ;
2 4 4

(b) α = −2, stabile ed attrattivo.


Soluzione 2.9. Osserviamo preliminarmente che se P (λ) = 0 è l’equazione carat-
teristica associata all’equazione alle differenze considerata, allora:

1 + a1 + a0 = P (1) ; 1 − a1 + a0 = P (−1)
302 8 Soluzioni degli esercizi

e a0 è uguale al prodotto delle due radici λ1 e λ2 (eventualmente complesse) di P:


a0 = λ1 λ2 .
Se valgono le condizioni sui coefficienti, allora si ricava:
a1
−a1 < 1 + a0 < 2 ⇒ − <1
2
a1
−a1 > −1 − a0 > −2 ⇒ − > −1.
2
Dunque, P (1) > 0 e P (−1) > 0 e l’ascissa del vertice della parabola P (λ) appartiene
all’intervallo (−1, 1): se le radici λ1 e λ2 sono reali, necessariamente appartengono
all’intervallo (−1, 1). Se le radici sono complesse, poiché λ2 = λ1 , si ottiene:

1 > a0 = λ1 λ2 = λ1 λ1 = |λ1 |2

da cui |λ1 | = |λ2 | < 1.


Viceversa, se α = 0 è attrattivo, allora le radici λ1 e λ2 sono in modulo minori di 1
e il loro prodotto è in modulo minore di 1.
Se λ1 e λ2 sono reali, allora λ1 λ2 = a0 < 1 e necessariamente P (−1) > 0 e P (1) >
0.
Se λ1 e λ2 sono complesse coniugate, allora
 
1 > |λ1 λ2 | = λ1 λ1  = |λ1 |2 = a0

e ovviamente, P (−1) > 0, P (1) > 0.


n
Soluzione 2.10. Posto Sk = k=1 k, l’esercizio richiede di scrivere la soluzione
esplicita del problema

Sk+1 = Sk + (k + 1) , S0 = 1 .

Si tratta di una equazione ad un passo lineare non omogenea. La soluzione generale


della equazione omogenea associata è l’insieme di tutte le traiettorie costanti. Cer-
chiamo una soluzione particolare della equazione non omogenea, del tipo k(ak + b):
sostituendo nell’equazione, si ottiene

a(k + 1)2 + b(k + 1) = ak2 + bk + k + 1 ,

la cui soluzione è a = b = 1/2. Imponendo la condizione iniziale, si ottiene c = 0 da


cui la tesi.
Alternativamente, si poteva provare la formula per induzione.
Ricordiamo anche la soluzione costruttiva proposta da Gauss: posto Sk = 1 + 2 +
· · · + (k − 1) + k = kn=1 n, possiamo riscrivere i termini della sommatoria come
Sk = k + (k − 1) + · · · + 3 + 2 + 1 e sommare le due relazioni:

2Sk = (1 + k) + (2 + k − 1) + · · · + (k − 1 + 2) + (k + 1) =
= (k + 1) + (k + 1) + · · · + (k + 1) = k (k + 1) .
, -. /
k volte

Soluzione 2.11. Come di consueto, se è noto il risultato, o se si vuole provare a


verificare una congettura circa il risultato, si effettua una verifica per induzione.
8.2 Soluzioni degli esercizi del Capitolo 2 303

Tuttavia utilizziamo una tecnica che è indipendente dalla conoscenza del risultato.
 k
Posto Sk = n2 , possiamo scrivere:
n=1


Sk+1 − Sk = (k + 1)2
S0 = 0

La soluzione generale T del problema omogeneno associato Tk+1 − Tk = 0 è data


dalle successioni costanti. Cerchiamo una soluzione particolare X del problema non
omogeneo di tipo polinomio di terzo grado (perché il membro destro è polinomio di
secondo grado, e la costante risolve il problema omogeneo): Xk = ak3 + bk2 + ck.
Sostituendo nell’equazione di partenza, si ottiene:

a (k + 1)3 + b (k + 1)2 + c (k + 1) = ak3 + bk2 + ck + k2 + 2k + 1

(3a − 1) k2 + (3a + 2b − 2) k + (a + b + c − 1) = 0

a = 1/3 b = 1/2 c = 1/6 .


La soluzione generale è

1 1 1
Sk = d + Xk = d + k3 + k2 + k k∈N
3 2 6

e dalla condizione iniziale S0 = 0 si deduce il valore della costante (d = 0), da cui:

1
Sk = k (2k + 1) (k + 1) k ∈ N.
6

1 2
Soluzione 2.12. Sk = k (k + 1)2 .
4
Soluzione 2.13. L’esercizio richiede di scrivere la soluzione esplicita del problema

Pk+1 = Pk + z k+1 , P0 = 1 .

Si tratta di una equazione ad un passo lineare non omogenea. Se z = 1 allora la


soluzione del problema è Pk = k.
Consideriamo ora z = 1. La soluzione generale della equazione omogenea associa-
ta è l’insieme di tutte le traiettorie costanti. Cerchiamo una soluzione particolare
della equazione non omogenea, con k–esimo termine uguale a az k+1 : sostituendo
nell’equazione, si ottiene

az k+2 = az k+1 + z k+1 , a = 1/(z − 1) .

La soluzione generale dell’equazione non omogenea è quindi Pk = c + z k+1 /(z − 1).


Imponendo la condizione iniziale P0 = 1 si ottiene c = 1/(1 − z), da cui

1 1 1 − z k+1
Pk = − + z k+1 = .
z−1 z−1 1−z
304 8 Soluzioni degli esercizi

1 − z k+1
Se z = 1, allora Pk = k + 1. Se z = 1, allora Pk = ; quest’ultima relazione
1−z
può essere provata per induzione oppure osservando che
   
(1 − z) Pk = 1 + z + z 2 + · · · + z k − z + z +2 +z 3 + · · · + z k+1 = 1 − z k+1 .

Dividendo per (1 − z) si ottiene la formula cercata.


Soluzione 2.14. Con la notazione dell’Esercizio 2.13, se z = 1, allora fh,k = k +
1 − z k+1
 1, allora fh,k = z hPk = z h
1. Se z = .
1−z
Soluzione 2.15. Condizione necessaria per la convergenza di una serie è che il
termine generale sia infinitesimo, dunque non si ha convergenza se |z| ≥ 1.
Se z ∈ C e |z| < 1, allora la serie converge assolutamente e vale


+∞
1
zk = ∀z ∈ C : |z| < 1.
1−z
k=0

Infatti, ricordando l’espressione delle somme parziali (vedi Esercizio 2.13)


 

+∞
k

k
n 1 − z k+1 1
z = lim z = lim = .
k
n=0
k 1−z 1−z
k=0


+∞  −k
9 +∞ 9 1
Soluzione 2.16. 0, 99999 . . . = 9 · 10−k = 10 = = 1.
k=1 10 k=0 10 1 − 1/10
Soluzione 2.17. Con riferimento alla soluzione dell’Esercizio 1.3, l’equazione in Y
è disaccoppiata ed ha soluzione Yk = (1 − pY )k Y0 . Sostituendo nell’altra equazione
otteniamo l’equazione lineare, non omogenea, del primo ordine:

Xk+1 = (1 − pX ) Xk + pY (1 − pY )k Y0 .

La soluzione generale dell’equazione omogenea associata è c (1 − pX )k . Utilizzando


la Tabella 2.1 per la ricerca di soluzioni particolari, si conclude che:

pY pY
• se pX = pY , allora Xk = X0 − Y0 (1 − pX )k + Y0 (1 − pY )k
pX − pY pX − pY
k∈N.
• se pX = pY = 1, allora cercando soluzioni particolari del tipo ak (1 − pX )k ,
si ottiene
pX
Xk = X0 (1 − pX )k + Y0 k (1 − pX )k k∈N.
1 − pX

• se pX = pY = 1, allora Xk = Yk = 0, ∀k > 1.

Soluzione 2.18.
1
(1) Xk = c1 (−1)k + c2 3k + (−3)k , k∈N;
π 
12
π  √
18 − 10 3
(2) Xk = c1 cos k + c2 sin k −k+ , k∈N;
6 6 3
8.2 Soluzioni degli esercizi del Capitolo 2 305
π  π  1 π  1 π 
(3) Xk = c1 + c2 cos k + c3 sin k + sin k + cos k , k∈N;
2
2 4 2 4 2
1
(4) Xk = c1 + c2 k + k2 (−1)k + c3 (−3)k , k∈N.
4
Soluzione 2.19. Impieghiamo la Z-trasformata. Posto Z {X} = x (z), dalla Ta-
bella in Appendice G ricaviamo
z
Z {k} =
(z − 1)2
Z {Xk+1 } = z (x (z) − X0 ) = zx (z)
Z {Xk+2 } = z 2x (z) − z 2 X0 − zX1 = z 2 x (z) − z.

Sostituendo nell’equazione
  z
z 2 − z − 2 x (z) = +z
(z − 1)2

si ottiene
z z
x (z) = + .
(z − 2) (z + 1) (z − 1)2 (z − 2) (z + 1)
Così
5
5
z 1/3 1/3 1 k 
Z −1 = Z −1 z − = 2 − (−1)k
(z − 2) (z + 1) z−2 z+1 3

5
z
Z −1 = Res (f, 2) + Res (f, −1) + Res (f, 1) =
(z − 2) (z + 1) (z − 1)2

1 k 1 d zk 
= 2 − (−1)k +  =
3 12 dz (z − 2) (z + 1) z=1
1 1 k 1
= 2k − (−1)k − − .
3 12 2 4
In definitiva:

2k+1 5 k 1 1  k+3 
Xk = − (−1)k − − = 2 + 5 (−1)k+1 − 6k − 3 k ∈ N.
3 12 2 4 12
Soluzione 2.20. Impiegando la Z-trasformata, posto x (z) = Z {X}, trasformando
l’equazione
 2 
z 2 x (z) − 5zx (z) + 6x (z) = 1 ⇒ z − 5z + 6 x (z) = 1

si ricava
1
x (z) = Z {X} = .
(z − 2) (z − 3)
Così:
1 1 1
X0 = Res (g0 , z = 0) + Res (g0 , z = 2) + Res (g0 , z = 3) = − + =0
6 2 3
Xk = Res (gk , z = 2) + Res (gk , z = 3) = 3k−1 − 2k−1 k ≥ 1.
306 8 Soluzioni degli esercizi
5
1
Alternativamente Z −1 può essere calcolata mediante la convolu-
(z − 2) (z − 3)
zione discreta:
5 5 5
−1 1 −1 1 −1 1
Z =Z ∗Z =Y ∗Z
(z − 2) (z − 3) z−2 z−3

avendo posto

Yk = 2k−1 ∀k ≥ 1 Zk = 3k−1 ∀k ≥ 1
Y0 = 0 Z0 = 0

Si ricava X0 = Y0 Z0 = 0 e


k
k−1
3k−1 − 2k−1
Xk = Yn−j Zj = 3j−1 2n−j−1 = = 3k−1 − 2k−1 ∀k ≥ 1
j=0 j=1
3−2

avendo impiegato nell’ultima uguaglianza l’identità


 
am − bm = (a − b) am−1 + am−2 b + · · · + abm−2 + bm−1 .

Soluzione 2.21. Prendendo la Z-trasformata di entrambi i membri dell’equazione


assegnata, otteniamo:
3
zx (z) − z − 2x (z) = 4
z
e, risolvendo in x,

z 3 z z
x (z) = + 4 = + 3z −5 .
z−2 z (z − 2) z−2 z−2

Calcolando l’antitrasformata di tale espressione mediante la Tabella in Appendice


G si deduce
k
  2 0≤k≤4
Xk = Z −1 {x} k = 2k + 3 · 2k−5 Uk+5 =
2k + 3 · 2k−5 k ≥ 5 .

Soluzione 2.22. Si tratta di un’equazione di tipo Volterra.


Sostituendo k al posto di k + 1 nell’espressione di Xk e dividendo per 2, otteniamo


k
Xk+1 = 1 + 16 (k − s) Xs = 1 + 16 k ∗ Xk .
s=0

Applicando la Z-trasformata ad entrambi i membri, si ricava


z z
zx (z) − z = + 16 x (z)
z−1 (z − 1)2

z (z − 1) 1 1 1 z 1 z
x (z) = =z + = +
(z − 5) (z + 3) 2 (z − 5) 2 (z + 3) 2z−5 2z+3
1 k 1
e dunque Xk = 5 + (−3)k .
2 2
8.2 Soluzioni degli esercizi del Capitolo 2 307

−3!z 3
Soluzione 2.23. Calcoliamo prima Z {Y }: sia |z| < 1, allora Z {Y } =
(z − 1)4
per


+∞
3
+∞
3
k (k + 1) (k + 2) 3 d 1 3 d 1 −z 3
= (−z) = (−z) = 3! .
k=0
z k dz z k dz 1−z
k=0
(z − 1)4

Dalla identità k3 = k (k + 1) (k + 2) − 3k2 − 2k e dalle

z % & z (z + 1)
Z {k} = Z k2 =
(z − 1)2 (z − 1)3

otteniamo per linearità

% & −6z 3 z (z + 1) z
Z {X} = Z {Y } − 3Z k2 − 2Z {k} = −3 −2 =
(z − 1)4 (z − 1)3 (z − 1)2
−11z 3 + 4z 2 + z
= .
(z − 1)4

Soluzione 2.24. Integrando per parti, per ogni b, b > 0, e per ogni k ∈ N, si ha:
 b 6 7b  b  b
e−x xk dx = −e−x xk + k e−x xk−1 dx = −e−b bk + k e−x xk−1 dx .
0 0 0 0

Passando al limite per b → +∞, si deduce



Ik = kIk−1
I0 = 1


k
la cui soluzione esplicita è Ik = ( s)I0 = k!
s=1

Soluzione 2.25.
(1) X1 = 0 · X0 = 0 e dunque Xk = 0 per ogni k (per ogni dato iniziale X0 ) ;
3k − 2 3k − 5 4 1  3j + 1
k−1
(2) Xk = ··· X0 = X0 ;
3k + 4 3k + 1 11 7 j=0 3j + 7  
3(k−1) 3(k−1) 3(k−2) 3 0

k−1
(3) Xk = e Xk−1 = e e . . . e e X0 = X0 exp 3 j =
j=0

3
= X0 exp k (k − 1) ;
2
 
cos 2(k−1) cos 2(k−2) cos 2 cos 0 
k−1
(4) Xk = e e ...e e X0 = X0 exp cos 2j .
j=0
308 8 Soluzioni degli esercizi

Soluzione 2.26. L’equazione assegnata è un’equazione ad un passo lineare non


omogenea a coefficienti variabili (Definizione 2.63).
Se k parte da 0 (con generico dato iniziale X0 ∈ R) allora X1 = 1 e dalla (2.24) si
ricava, per ogni k ≥ 2 (la restrizione vale per i calcoli; ma la formula vale per k ≥ 1):


k−2
k−2
1 1
k−1
Xk = 1 + (k − 1) (k − 2) · · · (h + 1) = 1 + (k − 1)! = (k − 1)! ,
h! h!
h=0 h=0 h=0

dunque, dopo poche iterazioni il termine generale Xk cresce molto rapidamente ed


è ben approssimato (con un trascurabile errore relativo) da e (k − 1)! .
Se invece si parte da k = 1 (con generico dato iniziale X1 ∈ R), la soluzione in forma
chiusa si ricava dalla formula semplificata fornita dall’Osservazione (2.59), ponendo
Ak = k e BK = 1 ∀k ≥ 2 (la restrizione vale per i calcoli; ma la formula vale per
k ≥ 1):


k−1
Xk = (k − 1)!X1 + (k − 1) (k − 2) · · · (h + 1) =
h=1


k−1
(k − 1) (k − 2) · · · (h + 1) h!
= (k − 1)!X1 + =
h!
h=1
 
1
k−1
= (k − 1)! X1 + ∼ (e + X1 ) (k − 1)! .
h=1
h!

Un modo alternativo (più semplice) per ottenere la soluzione generale, partendo da


X0 per k = 0, consiste nel cambiare variabile ponendo Zk = Xk /(k − 1)! ∀k ≥ 1:
in tal modo si ottiene la semplice
 relazione ricorsiva Yk+1 = Xk + 1/k! ∀k ≥ 2, di
soluzione immediata ( Yk = k−1 h=0 1/h! ) da cui si ricava Xk (occorre apportare le
ovvie modifiche se si parte da X1 per k = 1).
I risultati trovati sono coerenti con i Teoremi 2.64 e 2.66: l’equazione alle differenze
a un passo a coefficienti non costanti ha infinite soluzioni, l’insieme delle soluzioni
è uno spazio vettoriale di dimensione 1. Coerentemente con l’Osservazione 2.59 nel
problema inizializzato a k = 0 si ha perdita di memoria da k = 1: le soluzioni si
differenziano solo per il valore iniziale X0 , ma per ognuna di esse vale X1 = 1 e tutte
coincidono per k ≥ 1.
Inoltre, con riferimento al Teorema 2.66 valgono i) ed ii) ma non vale la iii) (qui
n = 1 ed il determinante della matrice 1x1 coincide con il suo unico elemento):
infatti le soluzioni del problema omogeno Yk+1 = kYk , con dato iniziale Y0 in k = 0,
verificano Yk = 0 ∀k ≥ 1; ciò non contraddice il Teorema, ma illustra il fatto che
l’ipotesi A0k = 0 ∀k non si può rimuovere (nel caso considerato vale A00 = 0).
Soluzione 2.27. Si hax · x =√1 · (1 − x) cioè x2 + x − 1 = 0 che ammette le due
soluzioni distinte x1,2 = −1 ± 5 /2: di esse è accettabile solo quella positiva. La
√ 
lunghezza della sezione aurea di un segmento misura 5 − 1 /2.
8.2 Soluzioni degli esercizi del Capitolo 2 309

Soluzione 2.28.
(1) Xk risolve un problema del tipo (2.28) con a = 0 e b√ =c=d  = 1. Operiamo
una sostituzione come in (2.30), scegliendo α = x = 5 − 1 /2.

−1
5−1
Posto Yk = Xk − , la (2.32) si scrive come
2

5−1 √
+1 1 5+1 2
Yk+1 = 2 √ Y √ √ Yk + √
k + =
1− 5 5−1 1− 5 5−1
2 2
e dal Teorema 2.5, si ricava


k
1 1+ 5 1
Yk = X0 − √ √ +√
5 1− 5 5
e dunque
√ 

k −1
5−1 1 1+ 5 1
Xk = + X0 − √ √ + √ ;
2 5 1− 5 5
 √  √
 1 + 5 k 5−1
(2) 
Da lim  
√  = +∞ segue che lim Xk = = x.
k 1− 5 k 2

Soluzione 2.29. Ricaviamo Xk+1 in funzione di Xk : Xk+1 = (4Xk + 9) / (Xk + 2).


Zk+1
Se si pone Xk = − 2, l’equazione data si riscrive come
Zk
Zk+2 + 2Zk+1 + Zk = 0

che ha soluzione generale Zk = c1 (−1)k + c2k (−1)k . Di conseguenza, le soluzioni


dell’equazione di partenza sono, posto c3 = c2 /c1 ,

−3 − c3 (3k + 1)
Xk =
1 + c3 k
con c3 costante arbitraria; si noti che a tale rappresentazione va aggiunta la soluzione
k+1
Xk = − − 2 corrispondente al caso c1 = 0.
k
Si è risolto un caso particolare di equazione di Riccati: assegnate le successioni
P , Q, ed R, determinare X verificante la relazione

Xk+1 Xk + Pk Xk+1 + Qk Xk + Rk = 0

Zk+1
che, mediante il cambio di variabili Xk = − Pk , si trasforma in una equazione
Zk
lineare in Z:

Zk+2 + (Qk − Pk+1 ) Zk+1 + (Rk − Pk Qk ) Zk = 0 .

Soluzione 2.30. (a) Xk = 2k − 1; (b) Xk = 3k − 1.


310 8 Soluzioni degli esercizi

Soluzione 2.31. Xk = 3−k (λ + 3) − 3, k ∈ N. Quindi, se k → +∞, Xk → −3,


qualunque sia il valore di λ. Graficamente si ha

−3 0

−3

Fig. 8.3. Soluzione dell’Esercizio 2.31

Soluzione 2.32. Xk = (−1)k (λ − 1, 5) + 1, 5 k ∈ N. Quindi, se k → +∞, il


limite di Xk non esiste a meno che sia λ = 1, 5 ; in tal caso la soluzione è costante
(Xk = 1, 5 ∀k), altrimenti la soluzione è 2 periodica. Se λ = 0, 5 allora graficamente
si ha

3 2.5

0.5

0.5 3

Fig. 8.4. Soluzione dell’Esercizio 2.32

Soluzione 2.33.
π  π 
1) Xk = c1 (−1)k + c2 cos k + c3 sin k , ∀k ∈ N ;
3   3  
π π
2) Xk = c1 + c2 (−1)k + c3 cos k + c4 sin k , ∀k ∈ N ;
2 2

π  π  3π 3π
3) Xk = c1 cos k + c2 sin k + c3 cos k + c4 sin k , ∀k ∈ N ;
4 4 4 4
π  π 
4) k
Xk = 2 (c1 + c2 k) cos k
k + 2 (c3 + c4 k) sin k , ∀k ∈ N.
2 2
8.2 Soluzioni degli esercizi del Capitolo 2 311

Soluzione 2.34. L’equazione caratteristica λ2 − λ − 2 = 0 ammette le radici sem-


plici λ = −1 e λ = 2. Pertanto la soluzione generale del problema omogeneno è data
da
Xk = c1 2k + c2 (−1)k k ∈ N.
Cerchiamo ora una soluzione particolare dell’equazione non omogenea del tipo X k =
ak + b. Sostituendo nell’equazione assegnata, si ottiene:

a (k + 2) + b − a (k + 1) − b − 2ak − 2b = k .

Uguagliando i coefficienti dei termini in k di ugual grado, si ricava il sistema



−2a = 1
2a + b − a − b − 2b = 0

1 1
le cui soluzioni sono a = −1/2 e b = −1/4. Quindi X k = − k − e
2 4
1 1
Xk = c1 2k + c2 (−1)k − k − k ∈ N.
2 4
Infine, imponendo i dati iniziali nella soluzione generale appena scritta, si deducono
i valori c1 = 2/3 e c2 = −5/12. La soluzione richiesta è così:

1 k+1 5 1 1
Xk = 2 − (−1)k − k − k ∈ N.
3 12 2 4
Soluzione 2.35. Utilizziamo la Z-trasformata. Posto x (z) = Z {X}, trasformiamo
l’equazione  2 
z − 5z + 6 x (z) = 1
1
x (z) =
(z − 3) (z − 2)

z k+1 z k−1
Xk = res , 0 +res , 3 = −2k−1 +3k−1 k ≥ 1.
(z − 2) (z − 3) (z − 2) (z − 3)
Si noti che


1 1 1
X0 = res , 0 + res , 2 + res ,3 =
z (z − 2) (z − 3) z (z − 2) (z − 3) z (z − 2) (z − 3)
1 1 1
= − − = 0.
6 2 3
Alternativamente, da
1 1 1
= −
(z − 3) (z − 2) z−3 z−2

e da 5  
1
Z −1 = τ1 ak
z−a
si ricava
5

1 1 0 se k = 0
x (z) = Z −1 − = .
z−3 z−2 k
3k−1 − 2k−1 se k ≥ 1
312 8 Soluzioni degli esercizi

Soluzione 2.36. Nel caso particolare k = a ed s = a+b si risolve anche il problema


dell’Esempio 1.17.
Inoltre, osserviamo che le possibili storie diverse di una rovina sono infinite e dunque
è poco pratico calcolarne le corrispondenti probabilità e poi sommarle.
Sia q = 1 − p. La probabilità Rk+1 di rovina iniziando il gioco con k + 1 Euro
può essere vista come somma delle probabilità di vittoria al primo turno seguita da
rovina e della probabilità di sconfitta al primo turno seguita da rovina:

Rk+1 = pRk+2 + qRk

che per p = 0 si riscrive come


1 q
Rk+2 = Rk+1 − Rk .
p p
L’equazione caratteristica
1 q
λ2 −
λ+ =0
p p
ammette le radici λ1 = 1 e λ2 = q/p. Posto r = q/p

• se p = q, allora Rk = c1 + c2 rk e tenendo conto che R0 = 1 e Rs = 0, si ottiene

rk − rs 1
Rk = se p =
1 − rs 2

• se p = q = 1/2, allora Rk = c1 + c2 k e tenendo conto che R0 = 1 e Rs = 0, si


ottiene
s−k 1
Rk = se p =
s 2

Ad esempio, p = 0, 48, k = 10 , s = 20, rientra nel caso p = 1/2 e mostra come,


anche per p di poco minore di 0, 5 risulta R10 > 0, 5 (R10 = 0, 690066). Dunque, in
tale caso, è molto più probabile rovinarsi che conservare e/o aumentare il capitale.
Se si ripetono i calcoli con k = 100 e s = 200, il risultato ha una evidenza ancora
più drammatica: R100 > 0, 999.
L’esempio p = 0, 5 , k = 10, s = 20, rientra nel caso p = 1/2: si ottiene Rk = 0, 5.
La situazione è molto migliore della precedente; anche se è possibile rovinarsi in un
caso su due! Si noti che anche p = 0, 5, k = 100, s = 200 conduce a Rk = 0, 5.
Dunque, è meglio non scommettere ripetutamente quando le probabilità sono anche
leggermente contrarie. Se si è obbligati a scommettere avendo le probabilità avverse
(p < 1/2), allora il miglior modo per sperare di raddoppiare il capitale è scommettere
tutto subito!
Riassumendo, se si vuole raddoppiare il capitale (s = 2k), si hanno tre casi:
rk − 1
• se p < q, allora r > 1 e Rk =  1;
− r−k
rk
1
• se p = q, allora r = 1 e Rk = , ∀k;
2
rk − 1
• se p > q, allora r < 1 e Rk = k  0.
r − r−k
8.2 Soluzioni degli esercizi del Capitolo 2 313

Osserviamo che la funzione k → Rk non descrive una storia di scommesse successive,


ma corrisponde alla dipendenza dalla somma iniziale k (0 ≤ k ≤ s) della probabilità
Rk di rovinarsi in alternativa al raggiungimento della somma s.
Soluzione 2.37. Studiamo separatamente i due modelli.
(1) Posto PN = PE , dall’uguaglianza Qdk+1 = Qok+1 si ricava l’equazione

d a+c d
Pk+1 = − (1 − δ) Pk + − δPE .
b b b
Si noti che l’equazione ammette l’unico equilibrio α = PE . La soluzione in
forma chiusa è
k
d
Pk = − (1 − α) (P0 − PE ) + PE .
b
poiché    
 d   
− (1 − α) < − d  α ∈ (0, 1)
 b   b
ne segue che:
• se c’è convergenza nel modello della ragnatela, c’è anche convergenza nel
modello con prezzo normale;
• se ci sono oscillazioni di ampiezza costante nel modello della ragnatela,
allora diventano oscillazioni smorzate;
• se ci sono oscillazioni amplificate nel modello della ragnatela, nel modello
con prezzo normale può capitare di tutto.
(2) Dalla relazione Qok+1 = −c + dPk+1
e
e la condizione di equilibrio Qok+1 = Qdk+1
si ricava
e Qo + c a + c − bPk+1
Pk+1 = k+1 =
d d
e sostituendo nella
e
Pk+1 − (1 − β) Pke = βPk β ∈ (0, 1)

si ricava

d a+c
Pk+1 = 1−β 1+ Pk + β .
b b
L’unico equilibrio è PE , quindi si trova:

k
d
Pk = 1−β 1+ (P0 − PE ) + PE .
b

La condizione di stabilità è



 
1 − β 1 + d  < 1 ⇔ β 1+
d
<2 ⇔
d 2
< − 1.
 b  b b β

2
Poiché − 1 > 1, l’ultima condizione di stabilità è meno stringente di quella
β
del modello della ragnatela (Esempio 2.8).
314 8 Soluzioni degli esercizi

Soluzione 2.38. Con le notazioni dell’Esercizio 1.14, utilizziamo il Teorema 2.56


(con Xn uguale ad An , A2n o A2n+1 a seconda dei casi) per determinare i coefficien-
ti dello sviluppo in serie di una soluzione particolare y delle equazioni differenziali
proposte.
A2n−2
Bessel: I coefficienti di indice dispari sono nulli. Da A2n = − segue
4n (n + k)

(−1)n k!
A2n = A0
n! (n + k)!22n

Dividendo tutti i coefficienti An per la stessa costante k!A0 si ottiene la soluzione


particolare Jk , chiamata funzione di Bessel di prima specie di ordine k:

(−1)n  x 2n+k
+∞

Jk (x) =
n=0
n!(n + k)! 2

Per l’integrale generale dell’equazione di Bessel si veda [9],[18]).


2 (n − k) An
Hermite: Partiamo da An+2 = .
(n + 1) (n + 2)
Nel caso k pari consideriamo A0 = 1 e A1 = 0 : ne segue

2n (k − 2n + 2)!!
A2n+1 = 0 ∀n , A2n = 0 ∀n > k/2 , A2n = (−1)n se 0 ≤ n ≤ k/2 ,
(2n)!

dove m!! = m (m − 2) (m − 4) . . . . Nel caso k dispari consideriamo A0 = 0 e A1 =


1 : ne segue
A2n = 0 ∀n , A2n+1 = 0 ∀n > (k − 1)/2 ,
2n (k − 2n + 1)!!
A2n+1 = (−1)n se 0 ≤ n ≤ (k − 1)/2 .
(2n + 1)!
In entrambi i casi le soluzioni considerate sono polinomi Hk di grado minore o uguale
a k, chiamati polinomi di Hermite di ordine k.
n−k
Laguerre: da An+1 = 2 An segue
(n
 +1)
(−1)n k
An = A0 n = 0, 1, . . . , k , An = 0 ∀n > k ,
n! n
da cui si ricava la soluzione particolare pk (polinomio di Laguerre):


+∞
(−1)n k!
pk (x) = 2 (k − n)!
xn =
n=0
(n!)

1 k k
= (−1)k x − xk−1 + · · · + (−1)k−1 kx + (−1)k .
k! 1!(k − 1)!
8.2 Soluzioni degli esercizi del Capitolo 2 315

n (n + 1) − k (k + 1) (n − k) (n + k + 1)
Legendre: da An+2 = An = An .
(n + 1) (n + 2) (n + 1) (n + 2)
Nel caso k pari: consideriamo A0 = 1 e A1 = 0 : ne segue

A2n+1 = 0 ∀n , A2n = 0 ∀n > k/2 ,


(−1)n (k − 2n + 1)!! k!!
A2n = se 0 ≤ n ≤ k/2 ,
(2n)! (k − 2n)!! (k + 1)!!

ovviamente in tutti i coefficienti si può omettere il fattore comune k!!/(k + 1)!!


Nel caso k dispari: consideriamo A0 = 0 e A1 = 1 : ne segue

A2n = 0 ∀n , A2n+1 = 0 ∀n > (k − 1)/2 ,


(−1)n (k + 2n)!! (k + 1)!!
A2n+1 = se 0 ≤ n ≤ (k − 1)/2 ,
(2n + 1)! (k − 2n − 1)!! k!!

ovviamente in tutti i coefficienti si può omettere il fattore comune (k + 1)!!/k!!


In entrambi i casi le soluzioni considerate sono polinomi Pk di grado minore o uguale
a k, chiamati polinomi di Legendre di ordine k.
Soluzione 2.39. Il valore attuale VA di un pagamento di importo (o valore
nominale) VN effettuato dopo n anni ipotizzando un regime ad interessi composti
con un tasso d’interesse costante r è dato dalla formula

VA = VN (1 + r)−n .

La scelta del valore r opportuno non è semplice ed una sua corretta determinazione
è importante per l’efficacia del modello. Per ogni singolo caso esisteranno valori ade-
guati. Ad esempio, per valutare l’opportunità di effettuare un investimento il tasso
r per l’attualizzazione può essere scelto pari al rendimento di titoli di stato di durata
compatibile con l’investimento considerato.
Tornando all’esercizio:

1 1 1 1 1 − (1 + r)−k 1 − (1 + r)−k
Ak = + 2 +··· + = −1 = .
1+r (1 + r) (1 + r) k 1 + r 1 − (1 + r) r

Dunque
1 − vk
Ak = v = (1 + r)−1
r
Se Ak è il valore attuale a tasso composto r di una rendita di k rate unitarie alle
scadenze 1, . . . , k, allora Ak+1 si ottiene aggiungendo ad Ak il valore attuale delle
rata unitaria riscossa al tempo k + 1:

Ak+1 = Ak + (1 + r)−k+1 = Ak + v k+1

e applicando la formula dell’Osservazione 2.61 si ritrova il risultato sopra determi-


nato.
316 8 Soluzioni degli esercizi

Se r = rk , allora


k
1
Ak = Ak+1 = Ak + (1 + rk )−k+1 .
n=1
(1 + rk )n

Soluzione 2.40. Utilizzando la formula dell’esercizio precedente, si ricava la rela-


1 − vk
zione M = Q da cui
r

Mr
Q= v = (1 + r)−1
1 − vk

Soluzione 2.41.
a) Poiché τk > 0, risulta rk ∈ [1, 5 , 15]. Il tasso dell’1, 5% si dice floor dell’ob-
bligazione.
b) Si deve soddisfare l’equazione

Pk 100
=
rk τk
Di conseguenza, nelle ipotesi semplificatorie effettuate, tale prezzo dovrebbe
essere
Pk = 100 max {1, 5 , 15 − 2τk } /τk .
Osserviamo l’elevata volatilità del titolo: se τk = 7, 25 allora Pk si riduce a
20, 68 (in base 100) cioè si subisce una grossa perdita; ma, se τk → 0 allora il
prezzo tende a +∞. È chiaro che i valori di Pk variano molto anche se τk varia
poco (effetto leva).
c) Pk +100 (r1 + r2 + · · · + rk−1 ). Vendendo il titolo a scadenza si ottiene il valore
100 (1 + r1 + · · · + r10 ).
d) 100 (1 + 5 + 5, 1 + 5, 2 + 4, 9 + 4 + 3 + 2, 5 + 2, 6 + 4 + 7, 5) .

Soluzione 2.42. Poiché è possibile riordinare i termini delle serie assolutamente


convergenti, si ha:


+∞
1
+∞ k
1
+∞ k
Xh Yk−h
Z {X ∗ Y } = (X ∗ Y )k
= X h Yk−h = =
zk zk z h z k−h
k=0 k=0 h=0 k=0 h=0
+∞ +∞
 +∞  +∞ 
Xh Ys Xh Ys
= = = Z {X} Z {Y } .
s=0 h=0
zh zs h=0
zh s=0
zs

Soluzione 2.43. Dalla formula del binomio di Newton segue che


 
k
k
k
(m + 1) = mk−s m ∈ N.
s=0
s
8.3 Soluzioni degli esercizi del Capitolo 3 317

Sostituendo in tale formula successivamente al posto di m i primi n numeri interi


positivi e sommando tali relazioni, si ricava:
    n  
n n k
k k
k k−s k
k
(m + 1)k = mk−s = m = Sk−s
m=1 m=1 s=0
s s=0
s m=1 s=0
s

che si riscrive come


   
k k k
k
Sk − 1 + (n + 1) = Sk + Sk−s
0 s=1
s

da cui si ricava  
k
k
Sk−1 = (n + 1)k − 1 Sk−s .
s=2
s
Soluzione 2.44. Se n = 2, allora
0 1
1 μ1
det = μ2 − μ1
1 μ2

Se n = 3, allora sostituendo μ al posto di μ1 nella matrice


⎡ ⎤
1 μ1 μ21
⎣ 1 μ2 μ2 ⎦
2

1 μ3 μ23

calcolando il determinante, otteniamo un polinomio P (μ) di secondo grado. Se si


sostituisce l’incognita μ anche al posto di μ2 oppure di μ3 il determinante si an-
nulla e dunque μ2 e μ3 sono radici di P (μ). Ciò significa che vale l’uguaglianza
P (μ) = a (μ − μ2 ) (μ − μ3 ) dove a è il coefficiente del termine di secondo grado μ2
di P . Dunque a coincide con il complemento algebrico di μ21 e di conseguenza
⎡ ⎤
1 μ1 μ21
det ⎣ 1 μ2 μ22 ⎦ = (μ3 − μ2 ) (μ1 − μ2 ) (μ1 − μ3 ) .
1 μ3 μ23

La formula relativa al caso di dimensione n si ottiene analogamente, supponendo


nota quella del caso di dimensione n − 1.
5 +∞
1  1
Soluzione 2.45. Z = k
= e1/z .
k! k=0 z k!

8.3 Soluzioni degli esercizi del Capitolo 3


5 5
2 4 6 2 4 8
Soluzione 3.3. , , , , , .
7 7 7 9 9 9
Soluzione 3.4. Gli equilibri sono soluzione di x2 = x cioè α1 = 0 e α2 = 1. Per
determinare eventuali cicli, notiamo che l’iterata k-esima della mappa è x2k e quindi
318 8 Soluzioni degli esercizi

si deve risolvere
x2k = x
che ha soluzioni α1 = 0 oppure α2 = 1 Si conclude che non esistono orbite periodiche.
Soluzione 3.5. L’equazione
)
x ∈ [−3, 3] : 9 − x2 = x

equivale a
x≥0 3√
⇒ α= 2.
2x2 = 9 2
Per determinare eventuali orbite 2 periodiche, risolviamo
+ ) 2 √
9− 9 − x2 = x ⇒ x2 = x ⇒ |x| = x.

Ogni x ≥ 0 è soluzione e quindi (a parte α) appartiene ad un’orbita 2-periodica.


Infine è sufficiente notare che se x ∈ [−3, 0) allora f (x) ≥ 0 e quindi
√ tali punti
appartengono ad orbite definitivamente 2 periodiche oppure (−3 2/2) ad orbite
deinitivamente stazionarie.
Soluzione 3.6. Gli equilibri sono soluzione di

|x| − x
=x ⇒ |x| = 3x ⇒ α = 0.
2
Poiché se X0 > 0 allora f (X0 ) = 0 tali punti appartengono ad orbite definitiva-
mente stazionarie. Inoltre, se X0 < 0 allora f (X0 ) > 0 e quindi anche tali punti
appartengono ad orbite definitivamente stazionarie. In definitiva non ci sono orbite
periodiche.
Soluzione 3.7. Sia {α0 , α1 } un ciclo di ordine 2 per il s.d.d. {I, f }. Poiché per
definizione α0 = α1 , possiamo supporre che sia α0 < α1 Dunque:

α0 < α1 = f (α0 ) ; α1 > α0 = f (α1 ) .

Dalla continuità di f e dal fatto che α0, α1 ∈ I segue l’esistenza di c ∈ (α0 , α1 ) tale
che f (c) = c.
Soluzione 3.8. Osserviamo che
√ X0 + 2 − X02
X1 − X0 = X0 + 2 − X0 = √ ≥0 ⇔ −2 ≤ X0 ≤ 2.
X0 + 2 + X0

Proviamo che {Xk } è strettamente crescente per λ ∈ [−2, 2). A questo scopo, do-
po aver notato che la successione è a termini positivi, verifichiamo che se X0 ∈
[−2, 2) allora Xk < 2 per ogni k ∈ N. Infatti, X0 ∈ [−2, 2); inoltre se si suppone, per
k ≥ 1, (ipotesi di induzione) che Xk < 2 si ottiene:
√ √
Xk+1 = Xk + 2 < 2 + 2 = 2.

Mostriamo ora che, se X0 ∈ [−2, 2), allora {Xk } è una successione crescente . Per
8.3 Soluzioni degli esercizi del Capitolo 3 319

ogni k ≥ 1, si ha:

√ moltiplicando e dividendo per Xk +2+Xk
Xk+1 − Xk = Xk + 2 − Xk =
Xk + 2 − Xk2 fattorizzando
= √ =
Xk + 2 + Xk
− (Xk + 1) (Xk − 2) perché Xk <2
= √ ≥
Xk + 2 + Xk
≥ 0.
% √ &
Ne segue che, per ogni λ ∈ [−2, 2), il s.d.d. [−2, 2), x + 2 individua una succes-
sione convergente ad α = 2 (si confronti con la discussione dell’Esempio 3.26).
Invitiamo il lettore ad analizzare il caso λ > 2, verificando che si ottiene una suc-
cessione (decrescente e) convergente ad α = 2.
Soluzione 3.9. Sia {α0 , α1 } l’orbita 2 periodica, con α0 < α1 .

α0 < α1 = f (α0) α1 > α0 = f (α0) .

Applicando il Teorema degli zeri alla funzione continua x − f (x) nell’intervallo


[α0, α1 ] ⊂ I, segue l’esistenza di α ∈ (α0 , α1 ) tale che α = f (α).
 3 2
Soluzione 3.11. X1 = − (X0 )3 = −X03 , X2 = − −X03 = (−1)2 (X0 )3 = X09 .
k
Iterando: Xk = (−1)k (X0 )3 k ∈ N.
Soluzione 3.12. Per prima cosa disegnamo il grafico della funzione f : R → R,
f (x) = (x + |x|) /4. L’unico punto di equilibrio è α = 0. Se X0 < 0, allora X1 =
f (X0 ) = 0 e dunque Xk = 0 per ogni k ∈ N. Se X0 > 0, l’analisi grafica suggerisce
che la successione {Xk } sia decrescente e convergente a 0: la conferma può essere
ottenuta per induzione.

X0

Fig. 8.5. Grafico di f (x) = (x + |x|) /4


320 8 Soluzioni degli esercizi

Soluzione 3.13. Il sistema dinamico presenta due equilibri: α1 = −π e α2 = π.


Dall’analisi grafica si deduce che qualunque sia il dato iniziale in (−π, π) la succes-
sione corrispondente {Xk } risulta crecente e convergente a π.
Soluzione 3.14. Proviamo gli algoritmi nel caso più generale f : I → I, I ⊆ R
intervallo chiuso.
Algoritmo I. Sia X0 ≤ X1 . Dimostriamo che X è crescente, procedendo per induzio-
ne. Per k = 1 la relazione è vera per ipotesi. Se (ipotesi di induzione) Xk−1 ≤ Xk ,
poiché f è crescente, si ricava f (Xk−1 ) ≤ f (Xk ) che equivale a Xk ≤ Xk+1 . Allo
stesso modo si procede se X0 ≥ X1 .
Sia ora f crescente e continua sull’intervallo chiuso I, e X0 < X1 . Se I ha estre-
mo superiore b ∈ R, allora, per il Teorema 3.23, f ammette almeno un punto fisso
in [X0 , b]. L’insieme dei punti fissi di f su [X0, b] è sicuramente limitato (perché è
limitato [X0 , b]), è non vuoto (perché f ammette almeno un punto fisso). Quindi,
l’insieme dei punti fissi di f ammette estremo inferiore, diciamo α, che è anche mi-
nimo. Infatti, se {αn } è una successione di punti fissi tale che αn → α per n → +∞,
dalla continuità di f segue f (αn ) → f (α) ed essendo f (αn ) = αn , ∀n, ciò implica
f (α) = α ovvero α appartiene all’insieme dei punti fissi.
Verifichiamo ora che Xk ≤ α per ogni k. Se k = 0, la relazione è vera perché
α ∈ (X0 , b]. Se (ipotesi di induzione) Xk ≤ α , dato che f è crescente, si ha

Xk+1 = f (Xk ) ≤ f (α) = α.

In conclusione, X è una successione crescente e limitata superiormente: dunque, essa


ammette limite finito L ≤ α. Ma essendo f continua, per il Teorema 3.25 L è punto
fisso per f e non potendo essere minore di α si ricava L = α.
Infine, se I è illimitato superiormente, e f non ammette punti fissi “a destra” di X0 ,
X risulterà una successione illimitata, perché altrimenti il suo limite sarebbe punto
fisso di f .
Procedendo allo stesso modo si dimostra il caso X1 < X0 .
Algoritmo II. La funzione g = f ◦ f = f 2 risulta crescente, e X2k = f (X2k−1 )
implica
X2k+1 = f (X2k ) = g (X2k−1 ) .
Concludiamo così che la successione {X2k+1 } è definita per ricorrenza mediante la
funzione crescente g e le conclusioni seguono dall’Algoritmo I. Allo stesso modo si
procede per {X2k }.
Sia ora X1 ≤ X2 . Supponendo che, per k ≥ 1 fissato, sia X2k−1 ≤ X2k , si deduce

perché g è crescente e X2k−1 ≤X2k


X2k+1 = g (X2k−1 ) ≤
≤ g (X2k ) = X2k+2 .

Per il principio di induzione risulta così X2k−1 ≤ X2k per ogni k ≥ 1.


Soluzione 3.16. La funzione f : R → R definita da f (x) = |x − 1| /2 ammette un
unico punto fisso α = 1/3, soluzione di

|x − 1|
x∈R: = x.
2
8.3 Soluzioni degli esercizi del Capitolo 3 321

Poiché f è una contrazione (con costante 1/2), il Teorema 3.32 permette di conclu-
dere che qualunque sia il dato iniziale X0 ∈ R la successione corrispondente Xk =
f (Xk−1 ) converge ad 1/3. Dall’analisi grafica si può dedurre che la convergenza non
è monotòna.
Soluzione 3.18. Nei vari casi gli equilibri verificano:
 
1. α = 1, 0, −1; f (x) = 12 3x2 + 1 ; f  (0) = 12 (l.a.s.); f  (±1) = 2 (repulsivo);


1√ 1 1√ 1
2. α = 5 − ,− 5 − , 0; f  (x) = 3x2 + 2x; f  (0) = 0 (l.a.s.);
2 2
2 2
1√ 1 7 1√  √  √
f 5− = − 5 > 1 , f  − 12 5 − 12 = 12 5 + 72 > 1 (repulsivi);
2 2 2 2
3. α = 0,1; f  (x) = (1 − x) e1−x ; f  (0) = e (repulsivo); f  (1) = 0 (l.a.s.);
4. α = −1, 0; f  (x) = 3x2 + 2x + 1; f  (0) = 1; f  (x) = 6x + 2; f  (0) = 2
(s.r. e i.l.a.s.); f  (−1) = 2 (repulsivo);
5. α = 0; f  (x) = ex ; f  (0) = 1; f  (x) = ex ; f  (0) = 1 (s.r. e i.l.a.s.);
6. α = 0, f  (x) = 1 − 3x2 , f  (0) = 1, f  (x) = −6x, f  (0) = 0, f  (x) = −6 < 0
(l.a.s.);
7. α = 0; f  (x) = 3x2 + 1; f  (0) = 1; f  (x) = 6x; f  (0) = 0; f  (0) = 6 > 0
(instabile);
2
8. α = 0, 2; f  (x) = 2x − 1; f  (0) = −1; 2f  (0) + 3 (f  (x)) = 4 > 0 (l.a.s.);
f  (2) = 3 (repulsivo)
√ √  √ 
9. α = 2, − 2, 0; f  (x) = 3x2 − 1; f  (0) = −1, f  ± 2 = 5 (repulsivo);
2
f  (x) = 6x; f  (x) = 6; 2f  (0) + 3 (f  (0)) = 30 > 0 (l.a.s.).

Soluzione 3.19. Con la prima   prefissata): f (x) = (1 + a) x −


strategia (quantità
)
2
ax − b, gli equilibri sono α1,2 = 1 ± 1 − 4b/a /2 , e

• se 0 < b < a/4, allora vi sono due equilibri positivi: α1 > α2 > 0, con α1 stabile
e attrattivo e α2 repulsivo;
• se b = a/4, allora α1 = α2 = 1/2 che è instabile;
• se b > a/4, allora non vi sono equilibri.
Riassumendo, il massimo pescato sostenibile con la prima strategia è a/4, che però
corrisponde ad una situazione instabile.
Con la seconda strategia (proporzione fissata), f (x) = (1 + a − r) x − ax2 , gli equi-
libri sono α2 = 0, α1 = 1 − r/a, f  (α1 ) = 1 − a + r, α1 stabile se 0 < r < a (la
condizione r > a − 2 è automatica se a < 2, dovendo essere r ∈ (0, 1)).
Dunque, con la seconda strategia

a/4 0≤a≤2
Pmax (a) = max rα1 = .
[a−2,a]∩[0,1] 1 − 1/a a > 2

Osserviamo che la quantità massima di pescato Pmax (a) è funzione crescente di a.


Osserviamo inoltre che se a > 2 può convenire la prima strategia, a condizione di
non eccedere... .
322 8 Soluzioni degli esercizi

Soluzione 3.21. Gli eventuali equilibri sono soluzione dell’equazione

x∈R: (1 − a) x = b.

Se a = 1 e b = 0, ogni c ∈ R è di equilibrio; se a = 1 e b = 0, non ci sono punti di


equilibrio; infine, se a = 1, vi è un solo punto di equilibrio: c = b/ (1 − a).
Per quanto riguarda la stabilità, se a = 1 e b = 0, ogni punto di equilibrio è stabile
ma non attrattivo; se a = 1, poiché g (x) = a, per il Teorema 3.57, ogni punto di
equilibrio è globalmente asintoticamente stabile se |a| < 1, repulsivo se |a| > 1. Si
confrontino i risultati ottenuti con grafici e commenti del paragrafo 2.1.
Soluzione 3.22. Utilizziamo l’Algoritmo II.
4
La funzione f (x) = 1 − arctan x è continua e strettamente decrescente, con
π
4
−1 < 1 − arctan x < 1 ∀x ∈ R .
π
4
Se Y0 = 4, allora Y1 = 1 − arctan 4 = Y0 , e anche Y2 < Y0 . È necessario allora
π
determinare eventuali punti fissi di

4 4
f 2 (x) = 1 − arctan 1 − arctan x .
π π

Osserviamo che f 2 (0) = 0 e f 2 (1) = 1. Inoltre:


  16 1
f 2 (x) = 2 
2 
π 4
(1 + x2 ) 1 + 1 − arctan x
π
 
e quindi f 2 (x) < 1 per ogni x ≥ 1: a destra di x = 1 non vi sono altri punti fissi
di f 2 . Allora, per l’Algoritmo II, si deduce che Y2k  1 e Y2k+1  f (1) = 0.

 3.23. Tracciando il grafico della funzione f : R → R definita da f (x) =


Soluzione
 2
x + 4 /3 ci si rende conto che non esistono punti di equilibrio: qualunque sia
a ≥ 0, la successione risulta crescente e non limitata, quindi divergente a +∞.
In effetti, ∀a ≥ 0, si ha:

Yk2 + 4 1 2 
Yk+1 − Yk = − Yk = Yk − 3Yk + 4 ≥ 0 ∀k ∈ N
3 3
dato che il discriminante del polinomio di secondo grado in parentesi è negativo.
Inoltre, poiché
4Yk ≤ Yk2 + 4
la differenza fra due termini consecutivi cresce con k
1 2  1
Yk+1 − Yk = Yk − 3Yk + 4 ≥ Yk
3 3
e quindi la successione non è superiormente limitata.
8.3 Soluzioni degli esercizi del Capitolo 3 323

 3.24. Tracciando il grafico della funzione f : R → R definita da f (x) =


Soluzione
 2
x + 6 /5, ci si rende conto della presenza di due punti di intersezione, in x = 2 e
x = 3, fra il suo grafico e la bisettrice del primo e terzo quadrante. Ciò significa che
vi sono due punti di equilibrio:

se a = 2 Yk = 2 ∀k ∈ N
se a = 3 Yk = 3 ∀k ∈ N.

Da un’analisi grafica si deduce che il primo equilibrio è attrattivo, il secondo è


repulsivo e, più precisamente:
• se |a| < 3, allora limk Yk = 2;
• se |a| > 3, allora limk Yk = +∞.
Cerchiamo una conferma analitica di tali risultati. Grazie al Teorema 3.57, dato che
4 6
f  (2) = <1 f  (3) = >1
5 5
deduciamo che α = 2 è un equilibrio localmente asintoticamente stabile, mentre
α = 3 è repulsivo. Inoltre, poiché f , per x > 0, è strettamente crescente, grazie
all’Algoritmo I si deduce che:
• poiché Y1 < Y0 = a per ogni a ∈ (2, 3), si ha limk Yk = 2;
• poiché Y1 > Y0 per ogni a ∈ (0, 2), segue che limk Yk = 2;
• poiché Y1 > Y0 per ogni a ∈ (3, +∞), segue che Yk  +∞.
I risultati nel caso x < 0 si ottengono per simmetria dai precedenti.
Soluzione 3.25. Per prima cosa, tracciamo il grafico della funzione f : R → R,
f (x) = 2x exp (−x/2). A tale scopo, notiamo che

lim f (x) = −∞ lim f (x) = 0+ ;


x→−∞ x→+∞
x 
f  (x) = e−x/2 (2 − x) f  (x) = e−x/2 −2
2
e quindi

f  (x) ≥ 0 ⇔ x≤2

f (x) ≥ 0 ⇔ x ≥ 4.

Per determinare eventuali punti fissi, osserviamo che f (0) = 0 e f  (0) = 2. Ciò
significa che, per x > 0, il grafico della funzione identità interseca il grafico di f in
un solo punto, diciamo x. Inoltre, poiché
2 4
f (1) = √ > 1 = f (1) f (2) = < 2 = f (2)
e e
si ha 1 < x < 2.
Da quanto sopra ricavato, per l’Algoritmo I, la successione Y converge a x, se 0 <
a < x oppure x < a ≤ 2. Se a > 2, poiché necessariamente

Y1 = f (Y0 ) < 2

si rientra nel caso precedente e quindi di nuovo si ha convergenza al valore x.


324 8 Soluzioni degli esercizi

Fig. 8.6. Grafico di 2xe−x/2


Soluzione 3.26. Per ogni Y0 = a > b la successione calcolata per ricorrenza da

1 b
Yk+1 = Yk + ∀k ∈ N
2 Yk

è ben definita. Infatti, si prova per induzione, che √ Yk > b, ∀k ∈ N. Per k = 1,
l’affermazione è vera per ipotesi. Supposto ora Yk > b (ipotesi di induzione), si ha:

√ 1 b √
Yk+1 − b = Yk + − b=
2 Yk
1  2 √  quadrato del binomio
= Yk − 2 bYk + b =
2Yk
1  √ 2 ipotesi di induzione
= Yk − b >
2Yk
> 0.

La successione Y è strettamente decrescente. Infatti, per ogni k ≥ 1,


√  √ 

b − Yk b + Yk
1 b b − Yk2
Yk+1 − Yk = Yk + − Yk = = <0
2 Yk Yk Yk

per quanto mostrato al punto precedente. Quindi, Y è strettamente decrescente,


limitata inferiormente e perciò ammette limite L ∈ R. Inoltre, L deve essere punto
fisso per g, e quindi:

1 b √
L= L+ ⇔ L = α.
2 L
√ √
Da quanto appena ottenuto, se Y0 = b la successione Y è costante: Yk = b,
∀k ∈ N.
8.3 Soluzioni degli esercizi del Capitolo 3 325

Calcoliamo la distanza k+1 dall’equilibrio al passo k + 1 in funzione della corrispon-


dente distanza k al passo k:

√ vedi sopra
0 ≤ k+1 = Yk+1 − b =
 √ 2
Yk − b per definizione
= =
2Yk

2 se Yk > b>0
= k <
2Yk
2
< √k .
2 b


Posto β = 2 b, risulta


2
4
2k
k k−1 1
k+1 < β <β < ··· < β ∀k ≥ 1.
β β β

Si ha dunque un buon algoritmo per calcolare la radice quadrata del numero α dato
che l’espressione ricorsiva Yk+1 = f (Yk ) è semplice e la stima dell’errore k converge
velocemente a zero.
Ad esempio, se b = 3 e Y0 = 2, risulta β < 4 e


1 2− 3 1 1 1
= √ = √  √  = √ < .
β 2 3 2 3 2+ 3 6+4 3 10

Di conseguenza
2 < 4 · 10−4 3 < 4 · 10−8

e quindi

√ 1 3 1 97 3 · 56
3 ! Y3 = Y2 + = + = 1, 7321 .
2 Y2 2 56 97


Soluzione 3.27. √Consideriamo il s.d.d. {(−6, +∞) , f } dove f (x) = 6 + x.
Poniamo Xk+1 = 6 + Xk avendo fissato X0 √ > −6. Allora vi è un solo equilibrio
α = 3, perché 3 è l’unica soluzione di 0 < α = 6 + α.
α è localmente asintoticamente stabile perché f  (3) = 1/6. Più precisamente, è glo-
balmente attrattivo perché se X0 = 3, allora Xk = 3 per ogni k, altrimenti Xk ≥ 0
per ogni k ≥ 1 e

x>3 ⇔ 3 < f (x) < x


0<x<3 ⇔ x < f (x) < 3.

Dunque ogni traiettoria {Xk } risulta strettamente monotòna e convergente a 3.


326 8 Soluzioni degli esercizi

Soluzione 3.28. Sia max f = β < 0. Allora:


R

Y1 = Y0 + f (Y0 ) < Y0 + β
Y2 = Y1 + f (Y1 ) < Y1 + β < Y0 + 2β
... = ...
Yk+1 = Yk + f (Yk ) < Yk + β < Y0 + (k + 1) β.

Per il teorema del confronto sui limiti, limk (k + 1) β = −∞ implica limk Yk = −∞.
Allo stesso modo si procede per dimostrare la seconda parte della tesi.
Soluzione 3.29. (1 − s) è la probabilità che il batterio (o un suo discendente) si
estingua.
(1 − s)2 è la probabilità che entrambi gli eventuali eredi diretti si estinguano.
Confrontando due generazioni successive, otteniamo l’equazione in s (p è un dato!):
 
s = p 1 − (1 − s)2 . (8.1)

Infatti, il batterio per non estinguersi deve risprodursi (con probabilità p) e non
debbono estinguersi entrambi gli eredi. L’equazione (8.1) ha due soluzioni: s = 0 e
s = 2 − 1/p.
Se p ≤ 1/2, allora è accettabile la sola soluzione s = 0 (perché la probabilità non è
mai negativa), dunque il batterio si estingue.
Se p > 1/2, allora occorre scegliere tra le due soluzioni il corretto valore di s: sia
Sk la probabilità che il batterio riesca a riprodursi per almeno k generazioni. Allora
 
Sk+1 = p 1 − (1 − Sk )2
S1 = p

perché un batterio arriva alla generazione (k + 1)-esima se e solo se si suddivide ed


almeno uno dei suoi due discendenti si riproduce k volte. L’analisi grafica mostra
che se p > 0, allora {Sk } è monotòna convergente a 2 − 1/p.
Concludendo, per completezza, se p > 1/2 il batterio ha probabilità s = 2 − 1/p
di essere “immortale” (ne è sicuro solo se p = 1), poiché la probabilità di essere
immortale è il limk→+∞ Sk . % &
Per provare la monotonia, studiamo il s.d.d. R+ , f con f (x) = 2px−px2 al variare
di p ∈ [0, 1].
Se p = 0 la dinamica è banale.
Se p ∈ (0, 1], il grafico di f è una parabola (concava). Determiniamo eventuali
equilibri:

−px2 + 2px = x ⇔ x [px − (2p − 1)] = 0 ⇔ x = 0 oppure x = 2 − 1/p.

Poiché f  (x) = 2p (1 − x), tenendo conto che deve essere x ≥ 0 possiamo concludere
che:

• se p ∈ (0, 1/2), allora vi è solo l’equilibrio nullo che è stabile in quanto f  (0) =
2p < 1;
• se p = 1/2, allora l’unico equilibrio è lo 0 che è stabile in [0, 1] perché è semistabile
superiormente in R;
• se p ∈ (1/2, 1], allora vi sono due equilibri α0 = 0 e α1 = 2 − 1/p; α0 è insta-
bile dato che f  (α0 ) = 2p > 1, mentre α1 è localmente asintoticamente stabile
8.3 Soluzioni degli esercizi del Capitolo 3 327

1
1 1 2

1 1
2 2

1 2 1 2 1

Fig. 8.7. Ragnatele dell’Esercizio 3.29 : 0 ≤ p < 1/2 , p = 1/2 , 1/2 < p < 1

poiché f  (α1 ) = 2 (1 − p) < 1, ed il suo bacino è (0, +∞). Dunque, partendo da


S1 = p > α1 , Sk converge ad α1 decrescendo.
Soluzione 3.32. Tracciando il grafico di f (x) = cos x e della funzione identità,
ricaviamo l’esistenza di un unico equilibrio α del s.d.d. assegnato.
Necessariamente α ∈ (0, 1) e da f  (x) = − sin x si deduce |f  (α)| = |sin α| < 1.
Dunque, per il Teorema 3.57, α è un equilibrio stabile.
Osserviamo ora che X1 ∈ [−1, 1] e X2 ∈ [0, cos 1] qualunque sia X0 ∈ R. Inoltre

−1 < − sin 1 ≤ f  (x) ≤ 0 ∀x ∈ [0, cos 1] .

Dunque, se k ≥ 3, allora Xk − α e Xk+1 − α hanno segni opposti e |Xk+1 − α| ≤


c |Xk − α| avendo posto c = sin 1. Quindi {Xk } converge ad α oscillando. Risolvendo
numericamente l’equazione α = cos α si può ottenere il valore cercato.
Soluzione 3.33. Notiamo che la mappa f (x) = x + x3 è strettamente crescen-
te, quindi utilizziamo l’Algoritmo 1. Consideriamo un dato iniziale X0 e calcoliamo
X1 = X0 + X03 . Si ha:
X1 = X0 ⇔ X0 = 0
quindi α = 0 è l’unico equilibrio del s.d.d.. Inoltre:

X1 > X0 ⇔ X0 > 0

0.5

2 4 6 8 10 12

-0.5

-1

Fig. 8.8. Grafici di f , f 2 ,f 5, f 20 con f (x) = cos x


328 8 Soluzioni degli esercizi

e quindi, per l’Algoritmo 1, si ha:

∀X0 > 0 lim f k (X0 ) = +∞


k

∀X0 < 0 lim f k (X0 ) = −∞.


k

Soluzione 3.34. Dato che la mappa considerata è strettamente decrescente, uti-


lizziamo l’Algoritmo 2 per l’analisi. Consideriamo un dato iniziale X0 > 0 e dato
X1 = X0−2 osserviamo che

X1 = X0 ⇔ X03 = 1 ⇔ X0 = 1.

Quindi α = 1 è l’uncio equilibrio del sistema. Per X0 = 1, dato che X2 = X04 si


conclude che
X2 = X0 ⇔ X03 = X0 ⇔ X0 = 1
ossia non ci sono 2 cicli. Poiché

X2 > X0 ⇔ X03 > X0 ⇔ X0 > 1

per l’Algoritmo 2,
lim X2k = +∞; lim X2k+1 = 0+ .
k k

Se X0 ∈ (0, 1) allora

lim X2k = 0+ ; lim X2k+1 = +∞ .


k k

Soluzione 3.35. La funzione fβ , per ogni valore di β, è continua e crescente.


Cerchiamone eventuali punti fissi:
% √ & % √ & % &
x ≥ 0 : β + x = x = x ≥ 0 : x = x − β = x ≥ max {0, β} : x = (x − β)2 =
% &
= x ≥ max {0, β} : x2 − (2β + 1) x + β 2 = 0 .

Il discriminante Δ = (2β + 1)2 − 4β 2 = 1 + 4β risulta non negativo se e solo se β ≥


−1/4. In conclusione:
• se β < −1/4 non vi sono punti di equilibrio;
• se β = −1/4 vi è un unico punto di equilibrio: α = β + 1/2 = 1/4;
• se β > −1/4 occorre determinare le soluzioni del sistema

⎪ x≥0

x≥β √ √

⎩ x = β + 1 + 1 + 4β oppure x = β + 1 − 1 + 4β .
1 2
2 2
Evidentemente x1 è sempre accettabile mentre x2 lo è solo quando
)
1 − 1 + 4β ≥ 0 ⇔ β ≤ 0.

Studiamo ora i vari casi individuati. Se β < −1/4, dopo un numero finito di passi
l’iterazione si deve arrestare in quanto esiste un k tale che Xk < 0. Dunque, in tal
caso la successione non è definita.
8.3 Soluzioni degli esercizi del Capitolo 3 329

Se β = −1/4, allora X1 < X0 per ogni X0 = 1/4 e dunque, per l’Algoritmo I, quando
X0 < 1/4 allora Xk → α mentre per 0 ≤ X0 < 1/4 il sistema si arresta dopo un
numero finito di passi. √
1 + 1 + 4β
Se −1/4 < β ≤ 0 esistono due equilibri, α1 = β + e α2 = β +
√ 2
1 − 1 + 4β
con 0 < α2 < α1. Sempre in base all’Algoritmo I, possiamo concludere
2
che se X0 > α1 allora X0 → α1 ; se α2 < X0 < α1 poiché X1 > X0 e α1 > X0 si
conclude nuovamente che Xk → α2 ; infine, partendo a sinistra di α2 , per β = 0, il
sistema si ferma dopo un numero finito di passi.

1 + 1 + 4β
Se β > 0 vi è un unico equilibrio α = β + . Se X0 > α allora X1 < X0 è
2
così l’Algoritmo I ci dice che Xk → α e la stessa cosa accade per X0 < α in quanto
X1 > X0 .
Soluzione 3.36. L’equzione T 3 (x) = x presenta 8 soluzioni (vedi Fig. 8.9): due
sono equilibri, le altre 6 corrispondono a due orbite 3 periodiche (vedi Esercizio 3.3).
Le due orbite 3 periodiche sono entrambe instabili come si deduce adattando l’argo-
mento del Teorema 3.73.
Una di tali orbite periodiche è {2/7, 4/7, 6/7}.
Inoltre T (1/7) = 2/7, dunque 1/7 è nel bacino del 3 ciclo indicato e la traiettoria
che parte da 1/7 è definitivamente periodica:

1 2 4 6 2 4 6 2
, , , , , , , , ...
7 7 7 7 7 7 7 7

Fig. 8.9. Grafici di T e T 3

Soluzione 3.37. Per assurdo, se esitessero α0 , α1 ∈ I tali che α0 = α1 e α1 =


f (α0), α1 = f (α0), otterremmo:
 α1
0 = (1 + f  (x)) dx = α1 − α0 + f (α1 ) − f (α0) = 0 .
α0

2
Soluzione
 √  L’equazione caratteristica λ −λ−1 = 0 ammette le due soluzioni
3.38.
λ1,2 = 1 ± 5 /2 e quindi la soluzione generale dell’equazione è

k √
k
1+ 5 1− 5
Xk = c1 + c2 .
2 2
330 8 Soluzioni degli esercizi

Sostituendo i valori X1 e X2 si determinano le costanti c1 e c2 e dunque la soluzione


particolare
√ √
k √ √
k
1 2α − 1 + 5 1 + 5 1 2α − 1 − 5 1 − 5
Xk = √ √ −√ √ .
5 1+ 5 2 5 1− 5 2

Si noti che se α = 1, Xk coincide per k ≥ 1 con la successione dei numeri di


Fibonacci.
(b) Si ha Yk+1 = f (Yk ) dove f : R\ {−1} → R, f (x) = (1 + x)−1 è una funzione
non lineare. La successione Y ha termini positivi perché se x > 0, allora f (x) > 0.
√ limite finito deve risolvere {x ≥ 0 : f (x) = x} la cui unica soluzione è
Un eventuale

l = −1 + 5 /2. Effettivamente risulta limk Yk = l. Infatti, poiché f è strettamente
decrescente nell’intervallo (0, +∞) e f (l) = l, seguono le implicazioni

x>l ⇒ f (x) < l; 0 < x < l ⇒ f (x) > l



−1 + 5
e dunque Y2k+1 < < Y2k per ogni k ≥ 1.
2
Inoltre la successione {Y2k } è strettamente decrescente e {Y2k+1 } è strettamente cre-
scente. Infatti, posto g (x) = f 2 (x) = f (f (x)) = 1−(2 + x)−1 , vale 0 < g (x) < 1/2
per ogni x > 0, da cui, applicando a g ∈ C 1 (0, +∞) il Teorema di Lagrange,

|Y2k+2 − l| = |f (f (Y2k )) − f (f (l))| = |g (Y2k ) − g (l)| =


  1 |1 − l|
= g (ξ) · |Y2k − l| < |Y2k − l| < k+1 k≥0
2 2
e analogamente

1 l − 1/2
|Y2k+1 − l| <|Y2k−1 − l| < k ≥ 0.
2 2k
 √ 
Concludendo, Yk converge rapidamente a −1 + 5 /2 oscillando attorno a tale
valore.
(c) Yk è esprimibile con la frazione continua

1
Yk = .
1
1+
1+ ···
Il calcolo dei primi valori della successione
1 2 3 5
Y2 = 1, Y3 = , Y4 = , Y5 = , Y6 = ,...
2 3 5 8
porta a congetturare l’espressione
 √ k−1  √ k−1
Fk−1 1+ 5 − 1− 5
Yk = =2  √ k  √ k ∀k ≥ 2
Fk 1+ 5 − 1+ 5

dove {Fk } è la successione dei numeri di Fibonacci. Proviamola per induzione.


8.3 Soluzioni degli esercizi del Capitolo 3 331

Se k = 2 allora Y2 = 1 = F1 /F2 . Supposta ora vera la relazione per un k ≥ 2 fissato,


si ha
1 Fk Fk
Yk+1 = = = .
1 + Yk Fk + Fk−1 Fk+1
Si noti che √
Fk−1 5−1
lim = lim Yk = .
k Fk k 2
√   √ 
(d) Il s.d.d. presenta due soli equilibri α1 = 5 − 1 /2 e α2 = − 5 − 1 /2.
α1 è stabile e attrattivo perché f ∈ C 1 (R\ {−1}) e |f  (α1 )| < 1; α2 è instabile
perché |f  (α2 )| > 1.
Se β > −1, allora si può ripetere l’analisi fatta al punto (b), concludendo che Zk > 0
per ogni k ≥ 2, e Zk tende rapidamente ad l qualunque sia il dato iniziale , oscillando
rispetto ad l.
Il caso β ≤ −1 è più delicato: infatti, la successione {Zk } risulta definita per ogni
k ≥ 2 se e solo se β = −1 ed ogni valore di Zk calcolato a partire da β è diverso
1−t
da −1. A questo scopo consideriamo la funzione inversa f −1 di f : f −1 (t) = e
t
denotiamo con Wk la successione così definita

Wk+1 = f −1 (Wk )
W1 = −1

i cui primi termini sono {−1, −2, −3/2, −5/3, −8/5, −13/8, . . . }.

Fig. 8.10. Ragnatele relative all’Esercizio 3.28


332 8 Soluzioni degli esercizi

Si verifica per induzione che Wk = −Fk+1 /Fk per ogni k ≥ 1:

F2 1 − Wk Fk + Fk+1 Fk+2
W1 = −1 = − , Wk+1 = =− =− .
F1 Wk Fk+1 Fk+1

Si noti che −2 ≤ Wk ≤ −1, per ogni k.


Dunque il s.d.d. è ben definito per ogni valore iniziale α ∈ R diverso da −Fk+1 /Fk ,
∀k ∈ N, dove Fk è il k-esimo numero di Fibonacci.
Se β < −2 è un dato iniziale (automaticamente ammissibile), allora Zk > −1 per
ogni k ≥ 3 e per l’analisi precedente Zk converge oscillando ad l.
Se −2 < β < 1 è un dato iniziale ammissibile (cioè β = −Fk+1 /Fk per ogni k) allo-
ra, come al punto (b), si prova che Zk oscilla attorno ad α2 , passando dalla regione
{x ∈ R : −2 < x < α2 } a quella {x ∈ R : α2 < x < −1} e viceversa in modo tale che
|Zk − α2 | risulta monotòno strettamente crescente, fino a che Xk < −2, dopodiché
Zk+1 > −1 e la traiettoria finisce per essere attratta anch’essa dall’equilibrio α1 con
le modalità descritte in (b).
Soluzione 3.39. Supponendo X0 > 0 e X1 > 0, si ha che Xk > 0 per ogni k ∈ N.
Allora, il problema assegnato è equivalente a

log Xk+2 = 5 log Xk+1 − 6 log Xk k∈N

che è una equazione alle differenze lineare del secondo ordine (nella nuova incognita
Zk = log Xk ) ottenuta prendendo il logartimo di entrambi i membri. L’equazione
caratteristica λ2 − 5λ + 6 = 0 ammette le due radici λ1 = 2 e λ2 = 3, e dunque la
soluzione generale è
Zk = c1 2k + c2 3k k ∈ N.
da cui si ricava  
Xk = exp c1 2k + c2 3k k ∈ N.
Osserviamo che se X0 = 0 o X1 = 0, la successione non è definita. Inoltre, se X0 =
0 = X1 , allora la successione ha lo stesso segno di X1 , ∀k ≥ 1.

8.4 Soluzioni degli esercizi del Capitolo 4


Soluzione 4.1. Affinché vi sia il 3 ciclo {1, 2, 3} si deve verificare X0 = 1, f (X0 ) =
X1 = 2, f (X1 ) = X2 = 3 e f (X2 ) = X3 = 1, cioè deve ammettere soluzione il
sistema ⎧
⎨a+ b+c = 2
4a + 2b + c = 3

9a + 3b + c = 1.
Si ricava che tale sistema ammette l’unica soluzione: a = −3/2, b = 11/2, c = −2 .
Soluzione 4.5. L’equazione x ∈ [0, 1] : ha (x) = x ammette le soluzioni α = 0 e
αa = (a − 1) /a che sono i punti fissi del s.d.d.. I punti della traiettoria 2 periodica
sono soluzioni di
x ∈ [0, 1] : h2a (x) = x, ha (x) = x.
8.4 Soluzioni degli esercizi del Capitolo 4 333

Poiché
 
h2a (x) = a [ax (1 − x)] [1 − ax (1 − x)] = a2 x (1 − x) 1 − ax + ax2

si ottiene
#   $
h2a (x) − x = x a2 1 − ax + ax2 − x + ax2 − ax3 − 1 =
# $
= x −a3 x3 + 2a3 x2 − 2a2 (a + 1) x + a2 − 1 =
0 1
1+a a2 − 1
= −a3 x x3 − 2x2 + x− .
a a3

Sapendo che αa è punto fisso per ha , fattorizziamo effettuando la divisione per


(x − αa ), ricavando

h2a (x) − x =

a−1 a+1 a+1


= −a3 x x − x2 − x+ =
a a a2


a−1 a + 1 + a2 − 2a − 3 a + 1 − a2 − 2a − 3
= −a3 x x − x− x− .
a 2a 2a

Dunque, se a > 3
) )
a+1+ (a + 1) (a − 3) a+1− (a + 1) (a − 3)
βa = , γa =
2a 2a

sono i punti dell’orbita 2 periodica. Si noti che β3 = γ3 e βa > γa se a > 3.


In particolare

a2 = 1 + 6 = 3, 449489 . . .
√ √
β a2 = 1 + 3 − 2 = 1, 3178 . . .
√ √
γa2 = 1 + 2 − 3 = 0, 68216 . . .

I conti svolti provano direttamente che {βa , γa } è l’unica orbita 2 periodica di {R, ha }.
Soluzione 4.6. Essendo esplicitamente noti i valori βa e γa dall’esercizio prece-
dente, possiamo calcolare ha (βa ) e ha (γa ). Poiché ha (x) = a (1 − 2x), si ricava
 ) 
a+1+ (a + 1) (a − 3) )
ha (βa ) = a 1−2 = −1 − (a + 1) (a − 3)
2a
 ) 
a+1− (a + 1) (a − 3) )
ha (γa ) = a 1−2 = −1 + (a + 1) (a − 3)
2a

e quindi
ha (βa ) ha (γa ) = 1 − (a + 1) (a − 3) .
334 8 Soluzioni degli esercizi

γa βa γa α a βa

Fig. 8.11. Grafici di h3,1 e h23,1

Così
|ha (βa ) ha (γa )| < 1 ⇔ |1 − (a + 1) (a − 3)| < 1
⇔ −1 < 1 − (a + 1) (a − 3) < 1
⇔ −2 < − (a + 1) (a − 3) < 0
se a > 3
⇔ −2 < − (a + 1) (a − 3)
⇔ a2 − 2a −
√5 < 0
⇔ a < 1 + 6.
La conclusione segue dal Teorema 3.69. √
Si noti che nell’intervallo 3 < a < 1 + 6 si ha ha (βa ) < −1 e 0 < ha (γa ) < 1.
Soluzione 4.7. Le relazioni proposte dal suggerimento assicurano, grazie al Teo-
rema 3.65, che βa e γa sono equilibri stabili e localmente attrattivi per g = f 2 , ed il
Lemma 3.68 consente di provare l’affermazione contenuta nel suggerimento.
Sia ora f = ha2 ed g = h2a2 . Calcoliamo le derivate
 2 
ha = ha (ha ) ha
 2   2
ha = ha (ha ) ha + ha (ha ) ha
 2    3
ha = h
a (ha ) ha + 3ha (ha ) ha ha + ha (ha ) h
a .

Tenendo conto di

ha (x) = a (1 − 2x) , ha (x) = −2a, h


a (x) = 0

e
ha (γa ) = βa , ha (βa ) = γa , h2a (γa ) = γa , h2a (βa ) = βa
ha (γa ) ha (βa ) = −a2 + 2a + 4
otteniamo g (γa2 ) = g (βa2 ) = −1 e, utilizzando le espressioni esplicite di γa e βa
ricavate nell’Esercizio 4.5,
 )  √ 
g (γa ) = −12a2 1 − a2 − 2a − 3 = 12a2 2−1 >0
8.4 Soluzioni degli esercizi del Capitolo 4 335
2
da cui 2g (γa2 ) + 3 (g (γa2 )) > 0
 
g (γa ) = −2a a2 (1 − 2γa )2 + a (1 − 2βa ) =

a + 1 − a2 − 2a − 3 2 a + 1 − a2 − 2a − 3
= −2a2 a 1 − +a 1−
a a
 √   √ √ 
g (γa2 ) = 2 1 + 6 1+ 3 6−2

−1 − a2 − 2a − 3
g (βa ) = 3 (−2a) (−2a) a (1 − 2βa2 ) = 12a3
a
 √  √ 
g (βa2 ) = −12 7 + 2 6 1 + 2

 2  √  √ √ √ 
3 g (βa2 ) = 12 7 + 2 6 28 + 12 3 − 4 6 − 12 2 >
 √  √ 
> 12 7 + 2 6 2 + +2 2 = −2g (βa2 ) .

Soluzione 4.8. Si suggerisce di partire da X0 = 1/2 (in modo di utilizzare il Teore-


ma di Fatou) e calcolare una sessantina di iterazioni, verificando che
{X2k } e {X2k+1 } si stabilizzano con un certo numero di decimali e poi calcolare
h (X60 ) h (X61 ).
Si osservi che comunque, grazie alla stabilità, tutti i valori iniziali diversi da 0, αa ,
1 sono nel bacino di attrazione dell’orbita periodica.
L’unicità del 2 ciclo segue dal fatto che ha2 (x) = x è un’equazione di quarto grado,
e quindi ha al più quattro soluzioni, di cui due sono equilibri.
Soluzione 4.10
1) αa è un equilibrio superattrattivo se risolve a (1 − 2αa ) = 0 con 1 < a ≤ 3.
Dunque, b0 = 2 e α2 = 1/2 è l’equilibrio superattrattivo.
2) Per il Teorema di Fatou 1/2 è nel bacino di attrazione dell’orbita {γa , βa }.
Risolvendo in a ∈ (a1 , a2 ) l’equazione h2a (1/2) = 1/2 otteniamo il valore b1
di a per cui 1/2 appartiene al 2 ciclo. Per tale valore il 2 ciclo è superattrattivo
grazie al Teorema 3.69:
 2   
ha (γa ) = h2a (βa ) = (ha ) (γa ) (ha ) (βa ) .

Si tratta dunque di risolvere



a3 − 4a2 + 8√
=0
3< a ≤ 1+ 6 .

Alternativamente, sfruttando la conoscenza esplicita di γa e βa (vedi Esercizio



4.5), si risolve ina ∈ √
(a1, a2 ) l’equazione γa = 1/2. Si ottiene b1 = 1 + 5,
γb1 = 1/2, βb1 = 1 + 5 /4.
Per la determinazione dei valori bk si può procedere in modo analogo. Tuttavia
k
la risoluzione in a ∈ (ak , ak+1 ) dell’equazione (ha )2 (1/2) = 1/2 è delicata. Co-
k
munque la superattrattività del 2 ciclo corrispondente ad a = bk è garantita dal
Teorema 3.73.
336 8 Soluzioni degli esercizi

Fig. 8.12. Grafici di (ha )3 con a vicino ad aω nei casi: a < aω , a = aω , a > aω

Soluzione 4.11. I punti di un’orbita di periodo 3 risolvono l’equazione

x ∈ [0, 1] : ha (ha (ha (x))) = x e ha (x) = x.

Per a vicino ad aω il grafico di (ha )3 presenta il seguente comportamento qualitativo:


è simmetrico rispetto ad x = 1/2 che è punto di minimo relativo, vi sono 4 mode
(massimi relativi), le radici complesse di (ha )3 (x) = x sono 8, le eventuali radici
reali sono tutte in [0, 1] (Teorema 4.1).
Se a < aω le radici reali di (ha )3 (x) = x sono solo due (gli equilibri di ha ), dunque
non vi sono orbite 3 periodiche.
Se a = aω allora le radici reali distinte di (ha )3 (x) = x sono 5 di cui tre doppie dovu-
te ai punti di tangenza. Poiché 3 è un numero primo le radici doppie corrispondono
necessariamente ad un’orbita 3 periodica.
Se a > aω , vi sono 8 radici reali distinte. Necessariamente, quelle che non sono punti
fissi di ha sono due orbite 3 periodiche, di cui una stabile, l’altra instabile, come
si può verificare graficamente osservando le pendenze nei punti di attraversamento
della bisettrice (si veda la Fig. 8.12).
Dunque, il valore a = aω è di biforcazione per ha , differente da quelli classificati nel
paragrafo 4.3.
Sfruttando le informazioni contenute nel diagramma di biforcazione riportati nel-
le Fig. 4.13 e 4.14 si ottengono numericamente i valori del 3 ciclo con a = 3, 84 :
{0, 1494, 0, 4880, 0, 9594} approssimato a 4 cifre decimali. Si verifica numericamente
che tale 3 ciclo è stabile (Teorema 3.73):

h3,84 (0, 1494) h3,84 (0, 4880) h3,84 (0, 9594) = −0, 87552 .

Soluzione 4.12. Risolvendo fa (x) = x si trovano 3 equilibri per a > 1 ed 1 solo


per a ≤ 1 ; inoltre si ha una sola orbita 2 periodica (α1 , α2 ) per ogni a > 0, dove
αj sono le soluzioni diverse da 0 di fa (x) = −x.
Soluzione 4.13. Una possibile descrizione è data dal sistema dinamico discreto
seguente {[0, 2π), (θ + π/30) mod 2π} in cui la variabile angolare θ è misurata in
radianti. Tutte le orbite di tale s.d.d. sono periodiche (di periodo 60) e dunque le
orbite periodiche sono dense. Il s.d.d. non è topologicamente transitivo perché se
θ0 = ψ + hπ/30, ∀h ∈ {0, 1, . . . , 59}, allora le traiettorie di dato iniziale θ0 hanno
una minima distanza positiva da ψ. Infine, vi è dipendenza sensibile dai dati iniziali
perché per ogni ε > 0 se θ0 < π/30 < ϕ0 e ϕ0 − θ0 < ε allora, chiamando θk e
8.4 Soluzioni degli esercizi del Capitolo 4 337

ϕk rispettivamente la traiettoria di punto iniziale θ0 e ϕ0 , si ha θ60 − ϕ60 > 59π/30.


Concludendo, la dinamica non è caotica.
Tuttavia, la dipendenza sensibile dai dati iniziali è in certa misura sorprendente. In
effetti, la funzione che descrive il s.d.d. non è continua; ciò nonostante, è possibile
descrivere in modo più soddisfacente il movimento della lancetta modellandolo con
un altro s.d.d. (la scelta di un modello è altrettanto importante della sua analisi):
consideriamo l’insieme S = {z ∈ C : |z| = 1} cioè la circonferenza unitaria del pia-
no complesso (ricordiamo che tutti i suoi punti hanno la forma eiθ con θ ∈ R) e la
 iθ
funzione f : S → S definita da f e = ei(θ+π/30) , continua rispetto alla distanza
tra numeri complessi; allora, il s.d.d. {S, f } descrive in modo più soddisfacente il
moto della lancetta dei secondi (si vedano l’Esempio 4.21 e il paragrafo 4.7). Anche
il s.d.d. {S, f } ha le orbite periodiche dense e non è topologicamente transitivo, dun-
que non ha dinamica caotica; però, a differenza del precedente, non ha dipendenza
sensibile dai dati iniziali:

|θk − ϕk | = |θ0 − ϕ0 | ∀θ0 , ϕ0 ∈ S e ∀k ∈ N.

Soluzione 4.14. A differenza dell’Esercizio precedente, in questo caso la variabile


significativa è quella angolare θ ∈ R considerata modulo
 π 2π con riferimento alla

posizione nel quadrante ed il s.d.d. è {A, g} con A = h , h = −59, . . . , +55 e
30
g : A → A tale che, a partire da X0 = 0, risulta Xk = gk (0) con

Xk = −kπ/30 se k = 0, 1, . . . , 59
X60 = π/6, X61 = 4π/30 , . . . , X65 = 0, X66 = −π/30,
X67 = −2π/30, . . . , X119 = −54π/30X120 = π/3, X121 = 9π/30, . . .

Le altre traiettorie si deducono da quella di dato iniziale 0.


Xk descrive un moto periodico con periodo 720. A è un insieme finito, tutte le or-
bite sono periodiche e dunque sono dense. Tutte le traiettorie percorrono tutto A,
dunque il sistema è topologicamente transitivo. Infine, non può esservi dipendenza
sensibile dai dati iniziali per alcun s.d.d. il cui dominio ha un numero finito di punti.
Soluzione 4.15. Sappiamo esplicitare il termine generale: Xk = 10k X0 , ∀X0 ∈ R.
Dunque, il s.d.d. non è topologicamente transitivo ed è privo di orbite periodiche;
in particolare, la dinamica non è caotica.
Tuttavia si ha dipendenza sensibile dai dati iniziali perché un errore comunque
piccolo nella misura di X0 viene amplificato enormemente:

0 = ε > 0
se X0 − X k = 10k ε .
allora Xk − X

In altre parole, poiché ad ogni iterazione si sposta la virgola verso destra di una
posizione nella rappresentazione decimale di X0 , per calcolare tutti i valori di Xk
occorre conoscere X0 con precisione infinita, cioè avere a disposizione tutte le cifre
della sua rappresentazione decimale.
Soluzione 4.16. E = {x ∈ R : x = h2n ; h, n ∈ N, h ≤ 2n }, k0 (h2n ) = n.
338 8 Soluzioni degli esercizi
1
Soluzione 4.18. L’insieme di Cantor è del tipo medio, dunque
3
S1 (x) = x/3 S2 (x) = 1 + (x − 1) /3
ρi = 1/3 , i = 1, 2.

s
1
La dimensione s di C verifica dunque l’equazione 2 = 1, da cui
3

dimH (C) = dimB (C) = (ln 2) / (ln 3) .

Per l’insieme Ct di tipo Cantor t medio abbiamo


1−t 1−t 1−t
S1 (x) = x S2 (x) = 1 + (x − 1) ρi = , i = 1, 2
2 2 2

s
1−t
si ottiene l’equazione 2 = 1, da cui
2

ln 2
dimH (Ct ) = dimB (Ct ) = .
ln 2 − ln (1 − t)

Soluzione 4.19. Dall’esercizio precedente dimH A = 1/2. Usando come ricopri-


mento i quadrati che intervengono nella costruzione iterativa
√ di √ A × A alla iterazione
k-esima si ottiene la disuguaglianza H1δ (A × A) ≤ 4k 4−k 2 = 2. D’altro canto, le
proiezioni di questi stessi quadrati sulle rette
√ perpendicolari di equazione y = 2x e
y = −x/2 sono segmenti di lunghezza 3/ 2. Ne segue

3 √
√ ≤ H1δ (A × A) ≤ 2 ∀δ > 0
5
3 √
√ ≤ H1 (A × A) ≤ 2 .
5
Dunque la dimensione di Hausdorff di A × A è 1. Pur avendo dimensione intera è
tutt’altro che un insieme elementare, e non corrisponde affatto all’idea intuitiva di
linea unidimensionale.
Soluzione 4.20. dimH (Q) = dimB (Q) = 2 ln 2/ ln 3.

Fig. 8.13. Prodotto di insiemi di Cantor: C1/2 × C1/2 (terza iterazione)


8.4 Soluzioni degli esercizi del Capitolo 4 339

Soluzione 4.21. dimH (W ) = dimB (W ) = 1. L’esempio mostra che esistono sot-


toinsiemi del piano con dimensione di Hausdorff pari a 1 che non presentano alcuna
delle proprietà intuitive di una curva elementare.
Soluzione 4.22. Da ϕ (x) = x − b/ (1 − a) seguono ϕ−1 (x) = x + b/ (1 − a) e ϕ ◦
f ◦ ϕ−1 = g.
Soluzione 4.23. Tra i quattro s.d.d. {R, x/2}, {R, 2x}, {R, x} e {R, x + 1} non
vi è alcuna coppia di s.d.d. topologicamente coniugati. L’affermazione si deduce dal
Teorema 4.42.
Soluzione 4.24. Se f : I → I, g : J → J e ϕ : I → J è la coniugazione topologica,
con 
t = ϕ (
x), si ha:

 ϕ è una coniugazione topologica


g 
t = g (ϕ (
x)) =
 è un punto fisso
x
= ϕ (f (
x)) =
x) = t .
= ϕ (

Soluzione 4.25. Se t ∈ ϕ (H) esiste x ∈ H tale che t = ϕ (x); per tali valori
risulta, per ipotesi,  
ϕ−1 (t) = x < f (x) = f ϕ−1 (t) .
 
Applicando ϕ ad ambo i membri di ϕ−1 (t) < f ϕ−1 (t) e tenendo conto della
monotonia di ϕ     
t = ϕ ϕ−1 (t) < ϕ f ϕ−1 (t) = g (t) .
Si noti che nel caso ϕ decrescente si sarebbe provato con la stessa tecnica: t > g (t).
Soluzione 4.26. Vi sono vari modi di provarlo.
I modo: basta osservare (vedi Fig. 8.14) che h4 e g hanno un differente numero di
punti fissi (rispettivamente 2 e 3).
II modo: per l’esercizio precedente, se esistesse una coniugazione topologica ϕ cre-
scente allora h4 (x) − x e g (x) − x dovrebbero avere lo stesso segno in un intorno
destro di 0, conclusione falsa; se esistesse ϕ decrescente, allora h4 (x) − x e g (x) − x
dovrebbero avere segno opposto vicino a 0, che è falso.

Fig. 8.14. Due mappe unimodali in [0, 1] associate a s.d.d. non topologicamente
coniugati
340 8 Soluzioni degli esercizi

Le due dinamiche sono effettivamente diverse: in particolare 0 è repulsivo per h4 ,


mentre è localmente attrattivo per g.
Soluzione 4.27. Siano f e ϕ monotòne crescenti. Allora per ogni t1 , t2 ∈ ϕ (H)
con t1 < t2 esistono x1 , x2 ∈ H tali che x1 < x2 e ϕ1 (x1 ) = t1 , ϕ2 (x2 ) = t2 ,
     
g (t1 ) = ϕ f ϕ−1 (t1 ) = ϕ (f (x1 )) < ϕ (f (x2 )) = ϕ f ϕ−1 (t2 ) = g (t2 ) .

Gli altri tre casi si trattano allo stesso modo (si ricordi che ϕ è sempre monotòna).
Soluzione 4.28. Se I è aperto esiste ϕ : I → R continua con inversa continua.
Il Teorema 4.4 si applica a {R, g} dove g = ϕ ◦ f ◦ ϕ−1 e per il Teorema 4.42 la
dinamica di {R, g} ha le stesse proprietà della dinamica di {I, f }.
Soluzione 4.29. Il problema di Cauchy ammette un’unica soluzione

−1
1 − u0 b(t0−t)
u(t) = 1+ e ,
u0

cioè una funzione monotona strettamente crescente in [0, +∞) , di cui esiste il limite
limt→+∞ u(t) = 1 .
Metodo di Eulero esplicito
Fissato il parametro di discretizzazione h > 0 si ottiene lo schema ricorsivo

U0 = u0 ∈ (0, 1) , Uk+1 = (1 + bh) Uk − b h (Uk )2 , k ≥ 1 .

La funzione f (x) = (1 + bh)x − bhx2 si annulla in 0 ed in x = 1# + (bh)−1 ed$ ha


massimo uguale a (1 + bh)2 /(4bh), dunque f trasforma l’intervallo 0, 1 + (bh)−1 in
un proprio sottoinsieme per ogni h ∈ (0, 3/b). Analizziamo in dettaglio la soluzione
prodotta% dallo schema numerico
& nel caso 0 < h < 3/b .
I s.d.d. [0, 1 + (bh)−1 ], f e {[0, 1], ha } , dove a = 1 + bh , sono topologicamente
bh 1 + bh
coniugati, tramite la funzione ϕ , con ϕ(x) = x , ϕ−1 (x) = x , cioè
1 + bh bh

ϕ ◦ f ◦ ϕ−1 (x) = h1+bh (x) .

Al variare di h in (0, 3/b), il parametro della logistica a = 1 + bh varia in (1, 4).


Dunque vi è sempre l’equilibrio αa della logistica, che risulta globalmente asintoti-
camente stabile se 0 < h ≤ 2/b (superattrattivo se h = 1/b) al quale le traiettorie
si avvicinano con velocità esponenziale e con la corretta%monotonia se e solo & se
0 < h ≤ 1/b. Osserviamo esplicitamente che l’equilibrio di (0, 1 + (bh)−1 ), f , cor-
rispondente nella coniugazione topologica ad αa , è x = 1 (cioè coincide con il valore
del limite, per t tendente a +∞, della soluzione continua u) inoltre, se 0 < h ≤ b−1
il valore 1 è anche anche limite monotono, per k tendente a +∞, della successione
Uk corrispondente alla soluzione discreta.
Riassumiamo le principali informazioni qualitative che si possono trarre dalla co-
niugazione topologica con la logistica discreta di cui si è descritta la dinamica nel
Capitolo 4.
La discretizzazione con lo schema di Eulero esplicito dà una buona descrizione della
soluzione del problema in esame, se e solo se 0 < h ≤ b−1 .
8.4 Soluzioni degli esercizi del Capitolo 4 341

Se b−1 < h ≤ 2b−1 , allora la soluzione numerica è data da una successione che
converge ad 1 in modo oscillante.
Se h > 2b−1 , allora 1 cessa di essere attrattivo per il s.d.d. associato ad f e, al
crescere di h, compaiono oscillazioni periodiche di tutti i periodi interi (oscillazioni
numeriche, che non hanno riscontro nella soluzione esatta), finché, all’approsssimarsi
di h a 3b−1 , la soluzione numerica ha un comportamento caotico (le traiettorie han-
no un andamento erratico nell’intervallo (0, 1)) dunque è ben lontana dal descrivere
il comportamento monotòno della soluzione esatta.
Se h > b−1 alle traiettorie erratiche se ne aggiungono altre divergenti a −∞ .
Metodo di Eulero implicito
Fissato il parametro di discretizzazione h > 0 si ottiene lo schema ricorsivo

V0 = u0 ∈ (0, 1) , bh (Vk+1 )2 + (1 − bh) Vk+1 − Vk = 0 , k ≥ 1.

Ad ogni passo è necessario risolvere un’equazione di secondo grado in Vk+1 con Vk


noto. Per effettuare la scelta tra le due soluzioni algebriche, ricordiamo che la solu-
zione (crescente) dell’equazione differenziale deve assumere valori positivi, inoltre il
discriminante è maggiore di zero per ogni h > 0, e vi sono sempre una variazione ed
una permanenza (che garantiscono una radice positiva ed una negativa). Scegliamo
dunque l’unica radice positiva:

Vk+1 = g(Vk )
1  ) 
g(x) := −1 + bh + (1 − bh)2 + 4bh x .
2bh
La funzione g trasforma l’intervallo [0, 1] in sé. Il s.d.d. {[0, 1], g} ha un solo equi-
librio (x = 1) (oltre allo 0 che è repulsivo). Risulta g ∈ C 1 , g (1) = (1 + bh)−1 ,
0 < g (1) < 1 per ogni h > 0. Dunque (Teorema 3.51) x = 1 è stabile ed attrattivo
(il suo bacino è (0, 1]) e, per ogni h > 0, tutte le traiettorie generate dallo schema
numerico di Eulero implicito convergono ad 1 (in modo monotono) per t che tende a
+∞ ; andamento questo che è in buon accordo con la soluzione esatta dell’equazione
differenziale.
Dunque lo schema di Eulero implicito, pur richiedendo la soluzione di una equazio-
ne non lineare, è più soddisfacente perchè fornisce una buona approssimazione della
soluzione esatta (Vk è una approssimazione di u(kh)), senza particolari restrizioni
sul passo di discretizzazione h.
Il fatto che si sia riusciti a determinare esplicitamente per h un intervallo di valori
in cui la discretizzazione è soddisfacente anche se effettuata con il metodo di Eulero
esplicito, dipende dalla particolare scelta dell’equazione differenziale di cui sono ben
note la soluzione esatta e la dinamica associata alla corrispondente discretizzazione.
Tutto questo non è noto per generiche equazioni differenziali non lineari (altrimenti
sarebbe inutile fare approssimazioni numeriche ...).
Nel caso generale di una equazione differenziale ordinaria autonoma u = F (u) con
dato iniziale u0 ed F  limitata (|F  | ≤ L), il metodo di Eulero implicito conduce alla
situazione seguente:

Vk+1 − h F (Vk+1 ) − Vk = 0
d
(Id − h F ) = 0 se h < L−1 .
du
342 8 Soluzioni degli esercizi

Dunque Id−hF è localmente invertibile. Sia g = (Id − hF )−1 l’inversa locale. Allora
risulta α = g(α) se e solo se F (α) = 0 ; cioè α è un equilibrio (α = g(α) ) del s.d.d.
sse u(t) ≡ α è la soluzione del problema di Cauchy con u0 = α . Poniamo

Vk+1 = g(Vk ) k ≥ 1.

Da g = (1 − hF  )−1 ◦ g segue

1 1
g (α) = = .
1 − hF  (g(α)) 1 − hF  (α)

Concludendo, se F  (α) < 0, allora 0 < g (α) < 1 , α è stabile per il s.d.d. associato
a g e Vk  α . Cioè il metodo di Eulero implicito è stabile ed accurato per ogni
h ∈ (0, L−1 ) .
Soluzione 4.30. ex − 3 è convessa e di classe C ∞ ; e1 = e < 3 < e5/4 , dunque
applicando i Teoremi 4.48 e 4.49 vi è un unico zero α = ln 3 = 1, 09861... in (1, 5/4)
che è semplice e, dunque, superattrattivo per il metodo di Newton.
Scelto X0 = 5/4 abbiamo max[1,5/4] g = e5/4 , min[1,5/4] g = e, dunque vale la
stima dell’errore

0 < Xk+1 − α < 4 e (Xk − α)2 /2
e da X1 − X0 < 1/4 segue 0 < Xk+1 − α < 4−2k < 10−3 se k = 3. Iterando
Ng (x) = x − 1 + 3e−x si ottiene 1, 098 < α < 1, 099.
Soluzione 4.31. Se |z| > |c| + 1, q (z) = z 2 + c, allora:

  disuguaglianza triangolare
|q (z)| = z 2 + c ≥
 
≥ z 2  − |c| ≥
≥ (|c| + 1)2 − |c| = |c|2 + |c| + 1.

Dunque
 2   
q (z) = |q (q (z))| = |q (z)|2 + c ≥
 2
≥ |q (z)|2 − |c| ≥ |c|2 + |c| + 1 − |c| =
= |c|4 + 2 |c|3 + 3 |c|2 + |c| + 1 ≥
≥ 3 |c|2 + |c| + 1.

Per induzione, si ottiene


   
 k  k 2
q (z) ≥ 2 − 1 |c| + |c| + 1.

Poiché il membro di destra della disuguaglianza tende a +∞ se k diverge, si ottiene


la tesi.
Soluzione 4.32. Siano α un equilibrio per {I, f }, ϕ ∈ C 1 (I) una funzione scalare
di una variabile a valori in J con inversa C 1 (J ) e g = ϕ ◦ f ◦ ϕ−1 .
8.5 Soluzioni degli esercizi del Capitolo 5 343
   −1
Allora ϕ−1 (ϕ(α)) = (ϕ (α)) , ϕ(α) è un equilibrio per {J, g} e
 
g (ϕ(α)) = ϕ ◦ f ◦ ϕ−1 (ϕ(α)) =
     
= ϕ f ϕ−1 (ϕ(α)) f  ϕ−1 (ϕ(α)) ϕ−1 (ϕ(α)) =
= ϕ (f (α)) f  (α) (ϕ−1 ) (ϕ(α)) =
= f (α) .

Soluzione 4.33. Siano {α1 , . . . , αs } un’orbita periodica per {I, f }, ϕ ∈ C 1 (I) una
funzione scalare di una variabile a valori in J con inversa C 1 (J ) e g = ϕ ◦ f ◦ ϕ−1 .
Allora {ϕ(α1 ), . . . , ϕ(αs )} è un’orbita periodica per {J, g}, anche {I, f s } e {J, gs }
sono topologicamente coniugati tramite ϕ, dunque il moltiplicatore  (f s (α1 )) del-
l’equilibrio α1 di {I, f } si conserva (Esercizio 4.32), ma (f (α1 )) = sj=1 f  (αj ) è
s s 

anche il moltiplicatore dell’orbita.

8.5 Soluzioni degli esercizi del Capitolo 5


Soluzione 5.1
1) Gli autovalori di M sono λ1 = 1 e λ2 = 2 a cui corrispondono, rispettivamente,
gli autovettori (linearmente indipendenti)
# $T # $T
V1 = 1 0 V2 = 3 1 .

La soluzione generale del sistema è quindi


0 1 0 1 0 1
1 3 c1 + 3c2 2k
Xk = c1 + c2 2k = k k∈N.
0 1 c2 2

Imponendo la condizione iniziale, si ricavano i valori delle costanti: c1 = −5,


c2 = 2.
Si noti che data la forma triangolare della matrice M si poteva procedere più
rapidamente risolvendo la seconda equazione del sistema e successivamente la
prima,⎡dopo⎤ aver sostituito
⎡ ⎤la soluzione⎡trovata
⎤ al primo passo.
4 0 0
2) Xk = ⎣ 4 ⎦ + 5 (−1)k ⎣ −1 ⎦ − 6 (−3)k ⎣ 0 ⎦ k∈N.
1 1 1
⎡ ⎤ ⎡√ ⎤
0  √ k 2−1
k⎣ ⎦
3) Xk = 3 (−1) 1 − − 2 ⎣ 0 ⎦ k∈N.
0 1

Soluzione 5.3. Ricordiamo l’identità det L = det LT . La formula (D.2) dell’Appen-


dice D, detta sviluppo di Laplace del determinante rispetto alla riga i-esima,
applicato alla matrice LT ci assicura che il determinante può essere calcolato in modo
analogo sviluppando rispetto ad una qualunque colonna. Applicando tale sviluppo
rispetto all’ultima colonna, si ottiene

det L = (−1)1+n ϕn det diag {σ1 , σ2 , . . . , σn−1 } .


344 8 Soluzioni degli esercizi

Soluzione 5.4. Per il Teorema di Frobenius-Perron e l’Osservazione 5.20 la matri-


ce A ha un autovalore dominante strettamente positivo λA = 1/2 (poiché la matrice
A ha rango 1 tutti gli altri autovalori sono nulli). Poiché A  O, B  0 il Teorema
5.28 assicura che il s.d.d. vettoriale ha un unico equilibrio stabile e attrattivo dato
da A = (I − A)−1 B. La soluzione generale è data da Xk = 1/n2k U (X0 − A) + A
dove U è la matrice i cui elementi sono tutti pari a 1.
Soluzione 5.5. a) Applicando l’Osservazione 5.20 alla matrice debolmente po-
sitiva M si deducono le disuguaglianze 7 ≤ λM ≤ 9.
b) Con riferimento agli Esempi 5.34 e 5.36, vale M = tB con t numero reale da
determinare. Risolvendo il sistema:

t − 2αt = 5
tα = 2

si ottiene α = 2/9 e t = 9. Da 0 < 2/9 < 1/4 si deduce che la matrice M è definita
positiva e

2

λk (M) = 9λk (B) = 9 − 8 sin 1≤k≤N .
2 (N + 1)

In particolare 1 ≤ λk (M) ≤ 9 per ogni k, qualunque sia la dimensione di M .


Soluzione 5.7. Poiché M = S + T e ST = TS, impiegando la formula del binomio
di Newton (che vale se gli addendi commutano), si può scrivere
 
k
k
k k j k−j
M = (S + T) = S T ;
j=0
j

ma T2 = O e quindi Tk = O per ogni k ≥ 2, da cui

Mk = Sk T0 + kSk−1 T = Sk + kSk−1 T.

In modo analogo si può provare la relazione (5.7) utilizzata nella dimostrazione del
Teorema 5.8.
Soluzione 5.8. λ risolve det (A − λI) = 0, cioè è radice di un polinomio a coeffi-
cienti reali. Ricordando che A è reale
   
0 = det (A − λI) = det A − λI = det A − λI

cioè anche λ è autovalore di A. Poiché A è reale, AV = λV con V = 0 implica

/ Rn
V∈ e AV = AV = λV = λ V

cioè V = 0 è autovettore relativo all’autovalore λ e V, V ∈ Cn \Rn . Posto

1   1 
V1 = V−V = Im (V) V2 = V+V = Re(V)
2i 2
8.5 Soluzioni degli esercizi del Capitolo 5 345

allora V1 , V2 ∈ Rn e

1  
AV1 = λV−λV = Im (λV) = b Re (V) + a Im (V) = aV1 + bV2
2i
1 
AV2 = λV+λV = Re (λV) = a Re (V) − b Im (V) = −bV1 + aV2
2
% & # $
cioè, riscrivendo A nella base V1 , V2 , posto U−1 = V1 V2 , si ottiene
0 1
a −b
B = UAU−1 = .
b a

Infatti le colonne della matrice associata ad una applicazione lineare sono le imma-
gini (rispetto alla stessa base) dei vettori della base.
Se λ = 0, allora a = b = 0 e B = O.
Se 0 = λ = a + ib = ρeiθ con ρ > 0, allora:
0 1 0 10 1 0 1
a −b ρ0 cos θ − sin θ cos θ − sin θ
B= = =ρ .
b a 0ρ sin θ cos θ sin θ cos θ

Soluzione 5.9. B è una matrice che verifica le ipotesi del Teorema 5.13 (se σ1 , . . . ,
σn−1 e ϕ1 , . . . , ϕn−1 sono strettamente positivi). Per l’Osservazione 5.22, det L = 0
e det B = 0. Dunque l’autovalore dominante λB > 0 e l’autovettore dominante VB
di B, sono tali anche per L (che aggiunge agli autovalori di B il solo autovalore nullo
perché det L = 0):
0 1
VB
λL = λB VL = t∈R.
t

Rimane da provare che t > 0 (per avere VL  0): esplicitamente da LVL = λVL
segue t = λL−1 σn−1 Vn−1
B
> 0. Studiando la dinamica del sistema Xk+1 = BXk il
Teorema 5.18 assicura che la ripartizione in classi di età che si osserva sul lungo
periodo è quella fornita dal vettore VL .
Soluzione 5.10. L’elemento nella prima riga e n − 2–esima colonna di L2 è uguale
a σn−2 × ϕn−1 = ϕn−1 > 0. Per induzione si verifica che ad ogni aumento della
potenza gli elementi strettamente positivi della prima riga aumentano di almeno uno
verso sinistra, e quelli che già lo erano conservano tale proprietà, fino ad ottenere
Ln con tutta la prima riga strettamente positiva, salvo al più l’ultimo elemento.
Siamo dunque ricondotti al caso dell’Esercizio precedente: Ln−2 verifica le ipotesi
fatte nell’Esercizio 5.9. Allora i Teoremi 5.13, 5.14 e 5.18 assicurano che esiste un
autovalore dominante λL > 0 con associato un unico autovettore dominante VL > 0
e la ripartizione in classi di età che si osserva sul lungo periodo è quella fornita dal
vettore VL .
Soluzione 5.11. Utilizzando l’Osservazione 5.20 sulle righe per A e sulle colonne
per B si ottiene:
λA = 10 5 ≤ λB ≤ 6 .
# $T
Soluzione 5.12. Xk = 2k 0 (−1)k+1 , k ∈ N.
346 8 Soluzioni degli esercizi

8.6 Soluzioni degli esercizi del Capitolo 6


Soluzione 6.1. e 6.2. M1 assorbente e non regolare, M2 regolare e non assorbente,
M3 né regolare né assorbente.
# $T
Soluzione 6.3. Dobbiamo determinare un vettore U = U1 1 − U1 , dove U1
appartiene a [0, 1], tale che U = MU, cioè U1 sia soluzione del sistema

aU1 + b (1 − U1 ) = U1 b
⇒ U1 = .
(1 − a) U1 + (1 − b) (1 − U1 ) = 1 − U1 1+b−a

Poiché b > 0 e 1 − a > 0 segue U1 ∈ (0, 1) e quindi U è un vettore stocastico


strettamente positivo.
Soluzione 6.4. I tre autovalori di M sono distinti:
1 1
λ1 = 1; λ2 = ; λ3 = .
2 4

Allora grazie alla rappresentazione (6.10) di Pk = Mk P0 ed alla osservazione che


(k)
la colonna h-esima di Mk è uguale ad Mk e0 , sappiamo che il termine m23 si può
esprimere nella forma

k
k
(k) 1 1
m23 = a + b +c
2 4
(0) (1)
con a, b, c costanti da determinare. Poiché m23 = 0 , m23 = 1/2 e, come si verifica
(2)
agevolmente col calcolo di M2 , m23 = 3/8 si ottiene il sistema lineare

⎪ a+b+c= 0


⎨ 1 1 1
a+ b+ c =
⎪ 2 4 2


⎩a + 1b + 1 c = 3
4 16 8
le cui soluzioni sono a = 0, b = 2, c = −2 .
Soluzione 6.5. Definiamo i seguenti eventi:
• E1 = “gli interrutori A e D sono chiusi”;
• E2 = “gli interrutori A, C, E sono chiusi”;
• E3 = “gli interrutori B, C, D sono chiusi”;
• E4 = “gli interrutori B e E sono chiusi”.
L’affidabilità è allora data da: P (E1 ∪ E2 ∪ E3 ∪ E4 ). Dall’ipotesi di indipendenza
si ricava:
P (E1 ) = ad P (E2 ) = ace P (E3 ) = bcd P (E4 ) = be
P (E1 ∩ E2 ) = acde P (E1 ∩ E3 ) = abcd P (E1 ∩ E4 ) = abde

P (E2 ∩ E3 ) = abcde P (E2 ∩ E4 ) = abce P (E3 ∩ E4 ) = bcde

P (E1 ∩ E2 ∩ E3 ) = P (E1 ∩ E2 ∩ E4 ) = P (E1 ∩ E3 ∩ E4 ) = P (E2 ∩ E3 ∩ E4 ) =


= P (E1 ∩ E2 ∩ E3 ∩ E4 ) = abcde
8.6 Soluzioni degli esercizi del Capitolo 6 347

Possiamo così concludere, grazie al principio d’inclusione-esclusione (si veda il punto


7 dell’Appendice C), che l’affidabilità del ponte di Wheatstone è:

P (E1 ∪ E2 ∪ E3 ∪ E4 ) =
= ad + ace + bcd + be − acde − abcd − abde − abce − bcde + 2abcde .

Fig. 8.15. Diagramma ad albero relativo all’Esercizio 6.5

Soluzione 6.6. Una matrice di permutazione ha su ogni riga e su ogni colonna


un solo elemento uguale ad 1 e tutti gli altri nulli. Se l’elemento tij di T vale 1,
allora per ogni vettore V, la componente i di TV è uguale alla componente j di V:
l’effetto della moltiplicazione per V è una permutazione delle componenti di V.
In particolare, T è anche una matrice di cambio di coordinate ortogonale: T−1 = TT .
Soluzione 6.7. Sia H = TMT−1 = TMTT. Allora da mij = [M ]ij ≥ 0, tij = [T ]ij ≥

n 
n
0 per ogni i e j, segue hij = [H]ij ≥ 0 per ogni i e j. Inoltre, da tij = mij = 1
i=1 i=1
per ogni j, segue


n
n
hij = tis msk tjk = 1 ∀j .
i=1 i,s,k=1

In altre parole, il cambio di coordinate indotto dalla matrice di permutazione T


corrisponde a porre hij = mt(i),t(j) dove t (s) è la posizione di colonna nella riga s
di T in cui si ha l’elemento 1.
Soluzione 6.8. Definiti gli eventi
• Hi = “un pezzo scelto a caso è stato prodotto dalla macchina i” ;
• A = “un pezzo scelto a caso è difettoso” ,
per determinare la soluzione ricaviamo dal diagramma ad albero della Fig. 8.15 le
probabilità

ri di
P (Hi ) = P (A|Hi ) = i = 1, 2, 3 .
r ri
Dalla legge di Bayes, ricaviamo così la probabilità che il pezzo difettoso provenga
348 8 Soluzioni degli esercizi

dal macchinario i:
di
P (Hi |A) = i = 1, 2, 3
d1 + d2 + d3
che è il rapporto tra il numero dei pezzi difettosi da essa prodotti ed il totale dei
pezzi difettosi.
Soluzione 6.9. Questa volta la moneta non è equa...
Soluzione 6.10. Se a > b = 0, 5 e c > 0, allora C ha maggior possibilità di A
anche se a = 1 (cioè A tiratore infallibile). Infatti, se a = 1 allora B è spacciato ed
il duello si conclude comunque in pochi turni. Precisamente

P (A vince) = 0, 5 (1 − c)2 , P (C vince) = 0, 5(1 + c)

P (A muore) = 0, 5 + 1, 5c − c2 , P (B muore) = 1, P (A tutti muoiono) = c (1 − c) .


Invece, se a < 1, allora fissato c, occorre ridurre b fino a che le probabilità di vittoria
di A superano quelle di C; ciò è possibile solo per piccoli valori di c: con riferimento
all’Esempio 6.30, si deve imporre

2 3
P (E2 ) > P (E3 ) P∞ > P∞
ossia 2 1
.
P (E2 ) > P (E4 ) P∞ > P∞
⎡ ⎤
001
Soluzione 6.13. La matrice di permutazione T = ⎣ 1 0 0 ⎦ ha autovalori λ1 = 1,
010
 √ 
λ2,3 = −1 ± i 3 /2. Tutti gli autovalori hanno modulo pari a 1. L’autovalore λ1
non è dominante, λ2 e λ3 non sono reali.
Si noti che la catena di Markov associata a T presenta il 3 ciclo
# $T # $T # $T 
100 , 010 , 001 .

⎡ la forma di⎤Jordan reale di T in opportune coordinate è data da


Inoltre,
1 0 √0
J = ⎣0 √ −1/2 − 3/2 ⎦ e mostra che un generico cambio di coordinate non conserva
0 3/2 −1/2
la proprietà di essere una matrice stocastica o di transizione.
Soluzione 6.14. La Fig. 8.16 mostra il grafo relativo al set di pallavolo dove
le situazioni di 15 pari e vantaggio pari sono considerate equivalenti. Dal grafo si
deducono facilmente le altre risposte.
Soluzione 6.15. Se C spara ad A, le sue probabilità di sopravvivenza sono 59/189.
Se C spara a B, le sue probabilità di sopravvivenza sono 50/189 (si deve tener pre-
sente che: che quando viene il turno di B, questi deve sparare ad A se A è vivo;
quando viene il turno di A, questi deve sparare ad B se B è vivo). Dunque a C con-
viene sparare in aria: questo gesto magnanimo gli concede ben 25/63 di probabilità
di sopravvivere.
8.7 Soluzioni degli esercizi del Capitolo 7 349

1-p
14-15 14-15
batte A p batte B

p
1-p 1-p
parità parità
batte A p batte B

p
1-p 1-p
p

1-p 1-p
vant.A vant.A vant.B vant.B
vince A batteA batte B batte A batte B 1-p vince B
p p p

Fig. 8.16. Set di pallavolo a partire dal punteggio 14 − 15

8.7 Soluzioni degli esercizi del Capitolo 7


Soluzione 7.2 Dati n elementi:
• Il numero delle loro permutazioni è n! , come si verifica per induzione sul numero
di elementi.
• Le loro permutazioni cicliche sono n : corrispondente al numero di possibili scelte
distinte di t; le permutazioni cicliche diverse dall’identità sono n − 1.
• Le loro permutazioni circolari sono (n − 1)! . Infatti, distinguendo le “sedie per gli
invitati”, vi sono esattamente n! fattoriale modi di accomodarli sulle sedie (per-
mutazioni); ma vi sono sistemazioni sullle sedie equivalenti a meno di una rotazio-
ne; le rotazioni possibili sono n (permutazioni cicliche); dunque le permutazioni
circolari sono (n − 1)! = n!/n.
Soluzione 7.3 (a) L’identità In ovviamente è riducibile per ogni n > 1.
(b) Fra le n! matrici di permutazione di ordine n > 1, tutte e sole le (n − 1)!
matrici di permutazione di ordine n associate ad una permutazione circolare sono
irriducibili.
Infatti, se esiste un elemento lasciato fisso dalla permutazione, allora la matrice
associata è riducibile.
Se non esistono elementi fissi ma la permutazione non è circolare allora esiste un
elemento che per effetto della permutazione percorre un ciclo di lunghezza maggiore
o uguale a 2 e strettamente minore di n, dunque la matrice associata è riducibile.
Inoltre, se T è una fissata permutazione circolare di ordine n > 1 allora
 
n−1 k
n−1
(In + T)n−1 = T O (8.2)
k
k=0

L’ultima disuguaglianza è motivata dal fatto che per ogni i e j esiste una iterata di
ordine k della permutazione circolare T che manda j in i, cioè esiste k dipendente da
350 8 Soluzioni degli esercizi
(k)
i e j tale che tij = 1. Essendo T ≥ 0 la validità della (8.2) è condizione necessaria
e sufficiente per l’irriducibilità di T (vedi Teorema 7.29).
Molto più semplicemente (con riferimento alla teoria sviluppata nella Sezione 7.2), si
può osservare che ogni matrice associata ad una permutazione circolare è la matrice
di adiacenza di un grafo fortemente connesso, dunque è irriducibile.
Soluzione 7.6. Se nella Definizione 7.4 la dimensione della sottomatrice nulla di
 è (n − r) × r, con 0 < r < n, allora:
A

(n − r) × r − (n − 1) = (r − 1) (n − r − 1) ≥ 0.

Soluzione 7.16. Calcoliamo il polinomio caratteristico P (λ) = det (T − λIn )


mediante la formula

n
det B = ε (σ) bi,σ(i)
σ i=1

dove la somma è estesa a tutte le permutazioni σ di n elementi ed ε (σ) è la segnatura


di tali permutazioni.
Se T = In allora P (λ) = (1 − λ)n . In particolare la tesi segue per n = 1.
Sia ora n > 1. Se T è irriducibile allora è anche la matrice di adiacenza di un grafo for-
temente connesso; pertanto è la matrice di permutazione associata ad una permuta-
zione circolare,
 dunque verifica det T = (−1)n−1 , da cui P (λ) = (−1)n−1 + (−λ)n =
λ − 1 (−1) , cioè il polinomio cercato, a meno del segno. Negli altri casi (T ridu-
n n

cibile), a meno di una permutazione S delle coordinate, la matrice ha una struttura


a blocchi quadrati irriducibili sulla diagonale, orlati da zeri:

⎡ ⎤
A1
⎢ A2 ⎥
⎢ ⎥
−1 ⎢ A3 ⎥
A = STS =⎢ ⎥ dim Aj = kj .
⎢ .. ⎥
⎣ . ⎦
Am

La costruzione esplicita si ottiene considerando tutti i cicli di periodo kj contenuti


nella permutazione σ.
Soluzione 7.17. Se la matrice è irriducibile allora la tesi è vera. Se la matrice è
riducibile allora è possibile rappresentarla con un blocco di zeri in posizione nord-
est. Il corrispondente blocco quadrato di sud-est deve essere stocastico. Si applica il
ragionamento precedente a tale blocco fino a trovare, per la finitezza della matrice,
una sottomatrice irriducibile.
Soluzione 7.18. Dall’analisi del grafo GM corrispondente si deduce che esso è
fortemente connesso, perché esiste il ciclo {1, 2, 3, 4, 1}, quindi la matrice M è irri-
ducibile.
Soluzione 7.20. Poiché i tassi di sopravvivenza sono tutti strettamente positivi,
nel grafo associato alla matrice vi sono tutti gli archi (vi , vi+1 ) per i = 1, . . . , n − 1;
di conseguenza, se ϕn > 0, allora esiste anche l’arco (vn, v1 ); quindi il grafo risulta
fortemente connesso.
8.7 Soluzioni degli esercizi del Capitolo 7 351

Soluzione 7.21. Se due classi consecutive sono fertili, e.g. esiste i ∈ {1, . . . , n − 1}
t.c. ϕi > 0, ϕi+1 > 0, allora nel grafo associato alla matrice vi sono due cammini
chiusi, di lunghezze rispettivamente i ed i + 1 (il cui M CD è 1). Dunque la matrice
è aperiodica.
La condizione non è necessaria: infatti il M CD dele lunghezze dei cicli è 1 nella sola
ipotesi che valga ϕ1 > 0. Osserviamo che nemmeno considerare “consecutivi” defini-
to ciclicamente renderebbe la condizione necessaria: ad esempio, ϕi > 0, ϕk > 0 con
j e k primi tra loro assicurano la presenza di cicli che rendono la matrice primitiva.
Soluzione 7.23. No, non riesce.
Precisamente, se si analizza il problema con la matrice di adiacenza del grafo
⎡ ⎤
0 1 0 0 1
⎢ 1 0 0 1 0 ⎥
⎢ ⎥
A = ⎢ ⎢ 0 1 0 0 0 ⎥
⎥ (8.3)
⎣ 1 1 1 0 0 ⎦
1 0 0 0 0

si ottiene λA = 1, 905166 , xA = [ 0, 396483 0, 5472576, 0, 287249 0, 646133 0, 208109 ] .


Se si analizza il problema con la matrice resa stocastica normalizzando le colonne:
⎡ ⎤
0 1/3 0 0 1
⎢ 1/3 0 0 1 0 ⎥
⎢ ⎥
M = ⎢ ⎢ 0 1/3 0 0 0 ⎥
⎥ (8.4)
⎣ 1/3 1/3 1 0 0 ⎦
1/3 0 0 0 0

si ottiene λM = 1 , xM = [ 0, 176470 0, 352941, 0, 117647 0, 294117 0, 058823 ] .


Si noti che l’operazione ha migliorato lievemente l’indice di significatività (molto
meno con l’uso di M) ed ha consentito di superare (solo) la pagina P3 che aveva
un indice identico: l’esempio illustra come tale operazione non consenta di aggirare
differenze molto significative in termini di link.
Appendice A
Somme e serie


n
1) Ak = A0 + A1 + · · · + An
k=0
n 
n+r
2) Ak = Ak−r
k=0 k=r
n m 
m 
n
3) Ak,j = Aj,k
k=s j=t j=t k=s
n 
n
4) cAk = c Ak
k=0 k=0
n 
n 
n
5) (Ak + Bk ) = Ak + Bk
k=0 k=0 k=0

6) Sommazione per parti n


n−1 s


n   
Ak Bk = Bn Ak − (Bs+1 − Bs ) Ak
k=0 k=0 s=0 k=0


n 1−x n+1
7) xk = ∀x = 1
k=0 1−x
n 1
8) k= n (n + 1)
k=1 2
n 1
9) k2 = n (n + 1) (2n + 1)
k=1 6
n 1
10) k3 = n2 (n + 1)2
k=1 4
n 1  
11) k4 = n (n + 1) (2n + 1) 3n2 + 3n − 1
k=1 30
n 1 2  
12) k5 = n (n + 1)2 2n2 + 2n − 1
k=1 12
n 1 Γ  (n + 1)
13) =γ+ = γn + ln n
k=1 k n!


n 1 π2 Γ
14) 2
= − (n + 1)
k=1 k 6 Γ

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_A, © Springer-Verlag Italia 2014
354 Appendice A Somme e serie


n 1 Γ
15) 3
= (n + 1) + ζ (3)
k=1 k Γ
' +∞ −t x−1
dove: Γ (x) = 0 e t dt , ∀ x > 0 Funzione Gamma
di Eulero

γ = −Γ  (1) = 0, 57721566490153286060... Costante di


Eulero-Mascheroni

γn ∈ [0, 1], γn  γ


+∞
ζ (x) = k−x , ∀x > 1 Funzione Zeta
k=1
di Riemann
16) Disuguaglianza di Cauchy-Schwarz:
 n 2   

n
n
Aj Bj ≤ Aj2 Bj2 ∀Aj , Bj ∈ R
j=1 j=1 j=1

17) Identità di Lagrange: ∀Aj , Bj ∈ R


 n  n   n 2
1
n n
Aj2 Bj2 − Aj Bj = (Aj Bk − Ak Bj )2
j=1 j=1 j=1
2 j=1 k=1


+∞ 
n
18) Ak = lim Ak se esiste finito
k=0 n→+∞ k=0

+∞ 1
19) = +∞
k=1 k
 1
+∞ π2
20) 2
=
k=1 k 6
 k
+∞ 1
21) x = |x| < 1
k=0 1−x

+∞ x
22) kxk = |x| < 1
k=0 (1 − x)2

+∞ 2x3
23) k (k − 1) xk = |x| < 1
k=0 (1 − x)3
k 
24) (A ∗ B)k = Ak−j Bj = As Bj Convoluzione discreta
j=0 s+j=k

+∞ 
+∞ 
+∞ 
+∞ 
+∞
25) (A ∗ B)k = Ak Bk se |Ak | < +∞, |Bk | < +∞
k=0 k=0 k=0 k=0 k=0
+∞ Serie di potenze nella
26) Un’espressione del tipo k=0 Ak xk è detta
variabile x.

Per ogni scelta dei coefficienti Ak , esiste R, verificante 0 ≤ R ≤ +∞, detto raggio
di convergenza della serie di potenze, tale che la somma della serie è ben definita
per ogni numero complesso x verificante |x| < R.
Appendice B
Numeri Complessi

L’insieme C dei numeri complessi è l’insieme delle coppie ordinate (x, y) di nume-
ri reali (o, equivalentemente, l’insieme dei punti del piano cartesiano) munito delle
operazioni di somma e di una operazione di prodotto verificanti le proprietà elencate
nel seguito.
Se indichiamo con i il numero complesso (0, 1) (detto unità immaginaria) allora
ogni numero complesso (x, y) si può rappresentare1 nella forma usuale x + iy. Si
scrive anche x = Re z e y = Im z. I numeri reali x e y sono detti rispettivamente
parte reale e parte immaginaria del numero complesso x + iy.
Se z1 = x1 + iy1 e z2 = x2 + iy2 sono due numeri complessi, somma e prodotto sono
definite da
z1 + z2 = (x1 + x2 ) + i (y1 + y2 )
z1 · z2 = (x1 x2 − y1 y2 ) + i (x1 y2 + x2 y1 )

(si noti che, per la seconda definizione, risulta i2 = −1 ) .


Tali operazioni verificano le seguenti proprietà, per ogni z1 , z2 , z3 ∈ C:
z1 + z 2 = z 2 + z 1 z1 z2 = z2 z1
(z1 + z2 ) + z3 = z1 + (z2 + z3 ) (z1 z2 ) z3 = z1 (z2 z3 )
z1 + 0 = z1 1 · z1 = z1
x − iy
z + (−z) = 0 z = x + iy = 0 ⇒ ∃ z −1 =
x2 + y 2
(z1 + z2 ) z3 = z1 z3 + z2 z3
Se z = x + iy , allora il numero z = z − iy è detto coniugato di z.
Si noti che z = z se e solo se z è reale
) (cioè y = 0).
Il modulo di z è il numero |z| = x2 + y2 (radice aritmetica). Ne segue che |z| =
0 se e solo se z = 0 cioè x = y = 0. Inoltre:
|z1 + z2 | ≤ |z1 | + |z2 | |z1 z2 | = |z1 | |z2 |

Per ogni z = 0: z −1 = z/ |z|2 .


1
x + iy corrisponde a x (1, 0) + y (0, 1) avendo posto i = (0, 1). Analogamente si
scrive 0 anziché (0, 0) ed 1 anziché (1, 0).

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_B, © Springer-Verlag Italia 2014
356 Appendice B Numeri Complessi

L’esponenziale di un numero complesso z = x + iy è così definito:

ex+iy = ex (cos y + i sin y)

e verifica ez1 +z2 = ez1 ez2 per ogni z1 , z2 ∈ C. In particolare, ∀θ ∈ R

eiθ − e−iθ eiθ + e−iθ


sin θ = cos θ = .
2i 2
Per ogni z = x + iy esiste un unico θ ∈ [0, 2π) detto argomento di z tale che posto
ρ = |z| vale

x + iy = ρ (cos θ + i sin θ) = ρeiθ

La seconda e la terza espressione sono dette rispettivamente forma polare e for-


ma esponenziale di un numero complesso e sono particolarmente adatte al cal-
colo dei prodotti (la forma cartesiana è invece utile per il calcolo delle somme): se
z = ρ (cos θ + i sin θ) e w = r (cos ϕ + i sin ϕ ), allora valgono le formule di de
Moivre:2

z w = ρ r (cos (θ + ϕ) + i sin (θ + ϕ)) = ρ r ei(θ+ϕ)


z n = ρn (cos (nθ) + i sin (nθ)) = ρn einθ ∀n ∈ N

Se n è un intero maggiore di zero allora ogni numero complesso z = ρeiθ diverso da


zero (cioè tale che ρ > 0) ha esattamente n radici n-esime complesse w1 , w2 , . . . , wn
distinte (cioè n numeri wj soddisfacenti wjn = z per ogni j = 1, . . . , n):

√ θ √ θ+2π √ θ+4π √ θ+2(n−1)π


w1 = n ρei n w2 = n ρei n w3 = n ρei n . . . wn = n ρei n


n
dove ρ denota la radice n-esima aritmetica del numero reale positivo ρ.

Definizione. Una funzione f : C → C è derivabile in senso complesso in z0 ∈ C se


esiste un numero complesso chiamato derivata di f e indicato con f  (z0 ) tale che
 
 f (z0 + h) − f (z0 ) 
∀ε > 0 ∃δ > 0 :  − f 
(z ) 
0  < ε ∀h ∈ C: |h| < δ.
 h

Le funzioni derivabili in tutto C in senso complesso sono chiamate funzioni anali-


tiche intere: esse possiedono anche tutte le derivate successive in ogni punto di C
e sono somma di una serie di potenze convergente in tutto il piano complesso. Ad
esempio, sono funzioni analitiche exp, sin e cos per cui valgono:


+∞ k
z
+∞
z 2k+1
+∞
z 2k
exp (z) = sin (z) = (−1)k cos (z) = (−1)k .
k! (2k + 1)! (2k)!
k=0 k=0 k=0

2
Abraham de Moivre, 1667-1754.
Appendice B Numeri Complessi 357

e5πi/6 eπi/6

−i

Fig. B.1. Radici cubiche di i

Equazioni algebriche
Teorema fondamentale dell’Algebra. Ogni polinomio P in una variabile, con
grado n maggiore o uguale ad 1, ha esattamente n radici complesse (contate con la
loro molteplicità), cioè esistono z1 , . . . , zn ∈ C non necessariamente distinti ed una
costante c ∈ C\ {0} tali che

P (z) = c (z − z1 ) (z − z2 ) · · · (z − zn ) . 

Nel seguito a, b, c, . . . sono numeri complessi assegnati con a = 0, x è la variabile


incognita.

· denota sempre la radice aritmetica (non negativa) di un numero reale non nega-
tivo.

Equazione di primo grado: ax + b = 0


Soluzione: x = −b/a

Equazione di secondo grado: ax2 + bx + c = 0



−b ± b2 − 4ac
Soluzioni: x = se b2 − 4ac ≥ 0
2a

−b ± i 4ac − b2
x= se b2 − 4ac < 0
2a

−b ± ρ eiθ/2
x= se b2 − 4ac = ρeiθ ∈ C\R con ρ > 0, θ ∈ [0, 2π)
2a
358 Appendice B Numeri Complessi

Equazione di terzo grado: ax3 + bx2 + cx + d = 0


Con il cambio di variabili x = t − b/ (3a) ci si riduce all’equazione equivalente
nell’incognita t:
t3 + pt + q = 0
le cui soluzioni sono

tk = yk − p/ (3yk ) k = 1, 2, 3
+
q q2 p3
dove yk sono le radici cubiche complesse di − + + .
2 4 27

Equazione di quarto grado: a4 x4 + a3 x3 + a2 x2 + a1 x + a0 = 0


Con il cambio di variabili x = z − a3 /4a4 ci si riduce (per opportuni a, b, c) all’e-
quazione equivalente nell’incognita z:

z 4 + az 2 + b = cz . (B.1)
√  √ 2  √ 
Aggiungendo (2 b − a)z 2 ad ambo i membri: z2 + b = cz + 2 b − a z 2 ,
√ √
equazione che, posto b = q e 2 b − a = p , si trasforma in

(z 2 + q)2 = cz + pz 2 . (B.2)

Aggiungendo 2tz 2 + t2 + 2tq ad ambo i membri di (B.2):


) )
(z 2 + q + t)2 = (p + 2t)2 z 2 + cz + (t2 + 2tq)2 . (B.3)

Se si può scegliere t in modo che il secondo membro di (B.3) sia il quadrato di un


binomio in z, allora (B.3) si riconduce a 2 equazioni
√ di secondo
) grado in z; per ot-
tenere questo, basta sceglere t in modo che c = 2 p + 2t t2 + 2tq , cioè risolvere
l’equazione di terzo grado in t:

2 t3 + (p + 4q) t2 + 2pq t − c2 /4 , (B.4)

che è chiamata risolvente cubica di Ferrari e, risolta, fornisce la soluzione di (B.1).

Le equazioni di quinto grado o superiore, salvo casi particolari, non possono


essere risolte mediante radicali.
Appendice C
Aritmetica della probabilità

Se A, B, Aj denotano eventi di cui è definita la probabilità e P denota la probabilità,


allora:
1) 0 ≤ P (A) ≤ 1
2) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
3) P (A ∪ B) = P (A) + P (B) se A ∩ B = ∅
 
8
∞ 

4) P Aj = P (Aj ) se Ak ∩ Ah = ∅, ∀k = h
j=1 j=1

5) P (A ∩ B) = P (A) · P (B) se e solo se A e B sono tra loro indipendenti


6) P (A) ≤ P (B) se A ⊆ B
7) Principio di inclusione-esclusione:
 
8
n
P Aj =
j=1

n
 
= P Aj − P (Ai ∩ Aj ) + P (Ai ∩ Aj ∩ Ak ) − · · ·
j=1 1≤i<j≤n 1≤i<j<k≤n

· · · − (−1)n P (A1 ∩ A2 ∩ · · · ∩ An )

P (A ∩ H)
8) Probabilità condizionata: P (A|H) = se P (H) = 0
P (H)

9) Legge di Bayes:

P (B|Hi ) P (Hi )
P (Hi |B) =

n
P (B|Hj ) P (Hj )
j=1

8
n
dove Hi ∩ Hj = ∅ se i = j, Hj contiene tutti gli eventi, P (Hj ) = 0 per
j=1
ogni j.

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_C, © Springer-Verlag Italia 2014
Appendice D
Algebra lineare

Un vettore n dimensionale v è una n-upla ordinata di numeri reali (o complessi)


v1, v2, . . . , vn che rappresentiamo come colonna:
⎡ ⎤
v1
⎢ v2 ⎥
⎢ ⎥
v =⎢ . ⎥.
⎣ .. ⎦
vn

La somma di due vettori n dimensionali v e w è il vettore


⎡ ⎤
v1 + w 1
⎢ v2 + w 2 ⎥
⎢ ⎥
v + w =⎢ .. ⎥.
⎣ . ⎦
vn + w n

Il prodotto di un vettore n dimensionale v per un numero α reale (o complesso) è


il vettore ⎡ ⎤
αv1
⎢ αv2 ⎥
⎢ ⎥
αv = ⎢ . ⎥ .
⎣ .. ⎦
αvn
L’insieme dei vettori n dimensionali, munito di tali operazioni è indicato con Rn
(o Cn ).
 1/2
La norma di un vettore v è il numero reale v = |v1 |2 + |v2 |2 + · · · + |vn |2 .
Il prodotto scalare di due vettori di ugual dimensione v e w è il numero

v, w = v1 w1 + v2 w2 + · · · + vn wn .

Ne segue v2 = v, v ≥ 0, ∀v, e la disuguaglianza di Cauchy-Schwarz:

|v, w| ≤ v w ∀v, w.

Due vettori v e w si dicono ortogonali se e solo se v, w = 0.

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_D, © Springer-Verlag Italia 2014
362 Appendice D Algebra lineare

k vettori n dimensionali v1 , v2 , . . . , vk di dicono linearmente dipendenti se


esistono k numeri α1 , . . . , αk non tutti nulli tali che

α1 v 1 + α2 v 2 + · · · + αk v k = 0 (D.1)

dove 0 denota il vettore n dimensionale le cui componenti sono tutte nulle.


Se la (D.1) risulta soddisfatta solo per α1 = α2 = · · · = αk = 0, allora i vettori v1 ,
v2 , . . . , vk si dicono linearmente indipendenti.
Si faccia attenzione alla posizione degli indici: vj è il vettore di componenti vij :
⎡ ⎤
v1j
⎢ v2j ⎥
⎢ ⎥
vj = ⎢ . ⎥ .
⎣ .. ⎦
vnj

Una espressione del tipo α1 v1 + α2 v2 + · · · + αk vk è detta combinazione lineare


dei vettori vj . Si noti che ogni insieme di k vettori n dimensionali con k > n è
linearmente dipendente.
Un insieme di vettori di Rn è una base di Rn se tali vettori verificano le due
condizioni seguenti:

1) sono linearmente indipendenti;


2) generano Rn (cioè ogni elemento di Rn è uguale ad una combinazione lineare
a coefficienti reali di essi).

Rn ha infinite basi, ma ognuna di esse è costituita esattamente da n vettori. Una base


si dice ortonormale se è costituita da vettori di norma 1 e a due a due ortogonali.
I vettori ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ . ⎥, ⎢ . ⎥, ..., ⎢ . ⎥
⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦
0 0 1
sono un esempio di base ortonormale in Rn , detta base canonica di Rn .
Analogamente, una base di Cn è un insieme di n vettori linearmente indipendenti
le cui combinazioni a coefficienti complessi generano Cn .
Una matrice di ordine n × m è una tabella di n righe ed m colonne:
⎡ ⎤
a11 a12 . . . a1m
⎢ a21 a22 . . . a2m ⎥
⎢ ⎥
A =⎢ . .. . . . ⎥
⎣ .. . . .. ⎦
an1 an2 . . . anm

dove aij denota l’elemento di A nella i-esima riga e j-esima colonna. Diremo breve-
mente ordine n nel caso di matrici quadrate di ordine n × n.
I vettori di Rn sono matrici n × 1 (colonne). Scriveremo brevemente A = [aij ].
Il prodotto di una matrice A per un numero α è la matrice [αaij ] i cui elementi nella
posizione i,j sono α aij .
Appendice D Algebra lineare 363

La coniugata A di una matrice è una matrice delle stesse dimensioni tale che A =
[aij ].
Una matrice A è detta triangolare superiore se i > j implica aij = 0, triangolare
inferiore se i < j implica aij = 0.
La trasposta di una matrice A di ordine n × m è la matrice AT di ordine m × n
tale che aTij = aji .
Una matrice A di ordine n × m può essere moltiplicata per una matrice B di ordine
m × l ottenendo una nuova matrice D di ordine n × l mediante il prodotto righe
per colonne:
m
D = AB, dij = aik bkj .
k=1

Si noti che dij è il prodotto scalare in Rm della i-esima riga di A per la j-esima
colonna di B. In particolare, anche il prodotto scalare di due vettori si interpreta
come prodotto di una matrice colonna per una matrice riga:

v, w = wT v wT = [w1 , w2 , . . . , wn ] .

Se n = l, allora sono definiti sia il prodotto AB che il prodotto BA (mediante la


regola righe per colonne), tuttavia essi non sempre sono uguali0 cioè
1 il prodotto
0 1 di
11 01
matrici non è commutativo (si considerino, ad esempio, A = eB= ).
11 00
I multipli della matrice identità commutano con ogni altra matrice quadrata. Si
dicono matrici diagonali (o semisemplici), le matrici quadrate con tutti gli ele-
menti fuori dalla diagonale principale nulli (aij = 0 se i = j); osserviamo che la
moltiplicazione a sinistra (rispettivamente destra) di A con una matrice diagona-
le, corrisponde a moltiplicare la riga (rispettivamente colonna) j-esima di A per il
j-esimo elemento della diagonale.
Se A è una matrice quadrata di ordine n se ne definisce la funzione determinante
che è un numero che indicheremo con det A.
0 1
ab
Se n = 2, A = allora det A = ad − bc. Tale valore è l’area orientata del paral-
cd
0 1 0 1
a b
lelogramma associato ai vettori e
c d
⎡ ⎤
a11 a12 a13
Se n = 3, A = ⎣ a21 a22 a31 ⎦, allora il determinante di A
a31 a32 a33

det A =a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21
⎡ ⎤⎡ ⎤⎡ ⎤
a11 a12 a13
è il volume orientato del parallelepipedo associato ai vettori ⎣ a21 ⎦ ⎣ a22 ⎦ ⎣ a23 ⎦.
a31 a32 a33
In generale, se n è l’ordine della matrice quadrata A, la definizione di determinante
è data in modo ricorsivo a partire dalla conoscenza del calcolo di determinanti di
ordine (n − 1): fissato i, 1 ≤ i ≤ n, allora

det A = (−1)i+1 ai1 det Ai1 + · · · + (−1)i+n ain det Ain (D.2)
364 Appendice D Algebra lineare

Ha 12 ,a 22 ,a 32 L

Ha 13 ,a 23 ,a 33 L
c

H a 11 ,a 21 ,a 31 L

b a

Fig. D.1. Significato geometrico del determinante per n = 2, 3

dove Aij denota la matrice (n − 1) × (n − 1) ottenuta da A eliminando la i-esima


riga e la j-esima colonna. Si noti che tale espressione (detta sviluppo di Laplace
rispetto alla riga i-esima) non dipende dalla scelta della riga i.

Proprietà dei determinanti (A e B matrici di ordine n)


• det AT = det A ;
• det (AB) = det A det B ;
• det (αA) = αn det A ;
• se A è triangolare superiore (o inferiore) allora det A = a11 a22 · · · ann .

Una matrice quadrata A di ordine n è invertibile se esiste una matrice A−1 di


ordine n tale che AA−1 = In dove In indica la matrice identità:

⎡ ⎤
1 0 ... 0
⎢0 1 ... 0⎥
⎢ ⎥
In = ⎢ . .. .. .. ⎥ .
⎣ .. . . .⎦
0 0 ... 1

Se esiste A−1 è unica e inoltre vale A−1 A = In . Condizione necessaria e sufficiente


per l’esistenza di A−1 è che det A = 0. Se det A = 0, allora l’elemento di posizione
i, j di A−1 è (−1)i+j det Aji / det A dove Aij è la matrice
 ottenuta da A eliminando
la i-esima riga e la j-esima colonna, e risulta det A−1 = (det A)−1 .
Osserviamo che il numero di operazioni necessarie per calcolare il determinante me-
diante la definizione (D.2) cresce così rapidamente con n da renderne proibitivo il
calcolo anche se l’ordine n non è particolarmente elevato. Sono molto utili espressioni
che consentano di ridurre il numero di tali operazioni sfruttando eventuali proprietà
di struttura della matrice (triangolare, a blocchi, etc.).
Appendice D Algebra lineare 365

Sistemi di equazioni algebriche lineari


Il sistema di n equazioni in n incognite xj


⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1

⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2
..

⎪ .


an1 x1 + an2 x2 + · · · + ann xn = bn
⎡ ⎤ ⎡ ⎤
x1 b1
⎢ ⎥ ⎢ ⎥
può essere scritto nella forma Ax = b dove A = [aij ], x = ⎣ ... ⎦, b = ⎣ ... ⎦ .
xn bn

Teorema D.1 (Rouché-Capelli). Il sistema omogeneo Ax = 0 ha soluzioni non


banali (cioè diverse dal vettore 0) se e solo se det A = 0.
Se det A = 0, allora il sistema Ax = b ha un’unica soluzione data dalla Regola di
Cramer
det Dj
xj =
det A
dove Dj è la matrice ottenuta sostituendo b alla j-esima colonna di A.
Se det A = 0, allora o il sistema Ax = b non ha soluzioni oppure ne ha infinite:
precisamente vi sono infinite soluzioni se e solo se

b, y = 0 ∀y : AT y = 0.

 è una soluzione di Ax = b, allora le altre sono del tipo x


Inoltre, se x  + z dove z
risolve Az = 0.
Osserviamo che il teorema precedente ha grande importanza teorica, ma può esse-
re applicato per calcolare numericamente la soluzione x solo per n molto piccolo,
a causa della già citata difficoltà di calcolo dei determinanti. Invece nella pratica
del calcolo numerico si devono risolvere sistemi di grandi dimensioni; in tali casi
si può ricorrere a metodi diretti di soluzione, ad esempio il metodo di elimina-
zione di Gauss, o a metodi di tipo iterativo molto efficienti dal punto di vista
computazionale (si veda il paragrafo 5.8).

Funzioni lineari e spazi vettoriali


Se A è una matrice n × m, allora la funzione che ad ogni x ∈ Rm associa il vettore
Ax ∈ Rn è una funzione lineare cioè

A (αx+βy) = αAx+βAy ∀α, β ∈ R ∀x, y ∈ Rm

e viene anch’essa denotata con A.


Il nucleo di A è l’insieme

ker A = {x ∈ Rm : Ax = 0 ∈ Rn } .
366 Appendice D Algebra lineare

L’immagine di A è l’insieme

im A = {z ∈ Rn : ∃x ∈ Rm , Ax = z} .

Un sottoinsieme V di Rn è uno spazio vettoriale (reale) se è chiuso rispetto alle


operazioni di somma e prodotto per un numero reale, cioè:

∀v, w ∈ V, ∀α ∈ R v + w ∈V, αv ∈ V.

Un sottoinsieme W ⊂ Cn è uno spazio vettoriale (complesso) se è chiuso rispetto


alle operazioni di somma e prodotto per un numero complesso, cioè:

∀v, w ∈ W, ∀α ∈ C v + w ∈W, αv ∈ W.

Più in generale, un qualsiasi insieme chiuso rispetto all’operazione di somma e pro-


dotto per uno scalare è detto spazio vettoriale.
Una base di uno spazio vettoriale è un insieme linearmente indipendente che
genera lo spazio. Se tale insieme è finito, il numero dei suoi elementi è detto dimen-
sione dello spazio vettoriale. Rn è uno spazio vettoriale di dimensione finita
(uguale ad n). L’insieme delle successioni di numeri reali è un esempio di spazio
vettoriale di dimensione infinita.

Teorema D.2. Se A : Rm → Rn è una funzione lineare, allora ker A e im A sono


spazi vettoriali e vale
dim (im A) + dim (ker A) = m.
Inoltre, se n = m, allora

ker A = {0} ⇔ im A = Rn ⇔ A è biunivoca ⇔ det A = 0.

Se u1 , u2 , . . . , un sono n vettori linearmente


# iindipendenti
$−1 in Rn allora essi formano
una base di R e la matrice quadrata U = uj
n
di ordine n (inversa della matrice
le cui colonne sono i vettori ui ) è detta matrice del cambio di base:
se x è un vettore ed A è una funzione lineare le cui componenti sono, rispettivamente,
xj e aij rispetto alla base canonica, allora le componenti, rispettivamente yi e bij , di
y e B corrispondenti a x ed A nella base u1 , u2 , . . . , un, sono date rispettivamente
da
y = Ux B = UAU−1 .
Si dice somma di due sottospazi U e V di Rn l’insieme W dei vettori w che sono
somma di un elemento u di U e di un elemento v di V : w = u + v. L’insieme somma
è anch’esso uno spazio vettoriale. Se la rappresentazione di ogni elemento di W è
unica diciamo allora che W è somma diretta di U e V e scriveremo W = U ⊕ V . Si
dimostra che condizione necessaria e sufficiente affinché la somma di due sottospazi
U e V di Rn sia una somma diretta è che U ∩ V = {0}.
Appendice D Algebra lineare 367

Autovalori ed autovettori
Sia A una matrice n × n e λ un numero reale o complesso. Eventuali vettori v ∈ Cn
non banali (cioè v = 0) soluzioni del sistema

Av = λv

sono detti autovettori di A. Se v è un autovettore il corrispondente (unico) valore


λ che risolve Av = λv è detto autovalore associato all’autovettore v.
Se v è un autovettore associato all’autovalore λ, allora anche ogni multiplo di v
è pure autovettore. Ad un autovalore possono corrispondere un solo autovettore
con i suoi multipli (in tal caso l’autovalore è detto autovalore semplice) oppure
più autovettori linearmente indipendenti (autovalore multiplo). In ogni caso gli
autovettori associati ad un fissato autovalore λ formano con 0 uno spazio vettoria-
le detto autospazio di λ; la dimensione di tale autospazio è detta molteplicità
geometrica dell’autovalore λ.
Gli autovalori di A sono tutti e soli gli zeri di det (A − λIn ). Osserviamo che
det (A − λIn ) è un polinomio di grado n in λ, detto polinomio caratteristico
della matrice A. Gli autovalori sono dunque esattamente n purché vengano contati
con la loro molteplicità algebrica.
Autovettori corrispondenti ad autovalori distinti sono linearmente indipendenti e,
T
se A = A allora sono anche ortogonali.
Se esiste una base di Rn costituita da n autovettori v1 , v2 , . . . , vn di A e λ1 , λ2 ,
. . . , λn sono i corrispondenti autovalori (non necessariamente tutti distinti), allora
la matrice associata ad A in questa base è diagonale:
⎡ ⎤
λ1 0 0 ... 0
⎢ 0 λ2 0 ... 0 ⎥
⎢ ⎥
⎢ 0 ⎥
B=⎢ 0 0 λ3 ... ⎥
⎢ . .. .. .. .. ⎥
⎣ .. . . . . ⎦
0 0 0 ... λn
# $−1
dove B = UAU−1 e U = u1 , u2 , . . . , un . In tal caso, la matrice A si dice diagona-
lizzabile.
Si noti che A e B hanno lo stesso polinomio caratteristico, infatti:
 
det (B−λIn ) = det U (A−λIn ) U−1 = det U det (A−λIn ) (det U)−1 = det (A−λIn ) .

Dunque, se A, matrice quadrata di ordine n, ha esattamente n autovalori distinti


con molteplicità algebrica 1 allora A è diagonalizzabile. Inoltre, valgono i seguenti
risultati.
Teorema D.3 (Teorema spettrale). Sia A : Rn → Rn simmetrica (cioè tale
che A = AT ). Allora esiste una base ortonormale di Rn costituita di autovettori
di A.
T
Sia A : Cn → Cn hermitiana (cioè A = A ). Allora esiste una base ortonormale
di C costituita da autovettori di A.
n
368 Appendice D Algebra lineare

Teorema D.4. Se A : Rn → Rn è definita positiva, cioè

∃α > 0 : Ax, x ≥ α x2 ∀x ∈ Rn

allora tutti gli autovalori λ di symA = (A + AT )/2 sono reali t.c. λ ≥ α, dunque
strettamente positivi.

Teorema D.5 (Teorema di Cayley-Hamilton). Se P (λ) = det (A − λIn ), al-


lora P (A) = O (matrice quadrata di ordine n con elementi tutti nulli).

Forma canonica di Jordan


Non sempre0 è 1possibile0 1diagonalizzare una matrice mediante un cambio di base (ad
10 11
esempio e non sono diagonalizzabili). Tuttavia è sempre possibile ef-
11 01
fettuare un cambio di base che renda triangolare la matrice. Più precisamente si può
ridurre alla forma canonica di Jordan: cioè triangolare con elementi diversi da zero
solo sulla diagonale principale e al più sulla diagonale adiacente inferiore (aij con
i = j + 1).
Già sappiamo che se una matrice quadrata ha tutti gli autovalori semplici allora
è diagonalizzabile. Dunque le matrici che potrebbero1 non essere diagonalizzabili
sono quelle che hanno almeno un autovalore algebricamente non semplice. Quelle
che effettivamente non sono diagonalizzabili presentano almeno un autovalore con
molteplicità algebrica strettamente maggiore della molteplicità geometrica.
Sia A una matrice n × n. Nel seguito V denoterà Rn se i termini aij , λj sono reali
∀i, j = 1, 2, . . . , n ; V denoterà Cn se vi sono coefficienti o autovalori complessi.
Se λ è un autovalore di A allora l’autospazio associato ad A è ker (A − λIn ). Se tale
autospazio ha dimensione minore della molteplicità algebrica di λ allora A non è
diagonalizzabile. Definiamo l’autospazio generalizzato relativo all’autovalore λ:
9
ker (A − λIn )k .
k∈N

Teorema D.6. Per ogni autovalore λ di A l’autospazio generalizzato corrispondente


ha dimensione uguale alla molteplicità algebrica di λ.
Ogni elemento di V può essere ottenuto (in modo unico) mediante una combinazione
lineare di elementi degli autospazi generalizzati corrispondenti a tutti gli autovalori.
Esiste una base di V (l’unione delle basi di tutti gli autospazi generalizzati) in cui la
matrice ha tutti gli elementi nulli salvo gli autovalori disposti in ordine lessicografico2
crescente sulla diagonale principale, ed elementi uguali a 1 o 0 sulla diagonale adia-
cente inferiore; ha inoltre una struttura a blocchi quadrati sulla diagonale principale
di dimensione pari alla dimensione degli autospazi.
Ciascun autospazio generalizzato può presentare una ulteriore sottostruttura in mo-
do tale che i corrispondenti sottoblocchi abbiano solo valori uguali ad 1 sulla sot-
todiagonale. Tali sottoblocchi sono detti blocchi di Jordan. Un blocco di Jordan

1
I2 è ovviamente diagonale pur avendo l’autovalore 1 con molteplicità algebrica e
geometrica uguale a 2.
2
Cioè λ1 ≺ λ2 se Re(λ1 ) < Re(λ2 ) oppure Re(λ1 ) = Re(λ2 ) e Im(λ1 ) <Im(λ2 ).
Appendice D Algebra lineare 369

B di dimensione k è caratterizzato dalla presenza dell’autovalore λ sulla diagonale


principale e dal fatto che la matrice T = B − λIk verifica Tk−1 = Ok = Tk .
Oltre all’ordinamento con gli autovalori, i sottoblocchi di Jordan di un blocco relati-
vo ad uno stesso autovalore possono essere ordinati in ordine crescente di dimensione
(vedi Fig. D.2).

⎡0 1 ⎤
λ1 0
⎢ 1 λ1 ⎥
⎢ ⎥
⎢ [λ2 ] 0 ⎥
⎢ 1 ⎥
⎢ λ2 0 ⎥
⎢ ⎥
⎢ 1 λ2 ⎥
⎢ 0 1 ⎥
⎢ λ2 0 ⎥
⎢ ⎥
⎢ 1 λ2 ⎥
⎢ ⎡ ⎤ ⎥
⎢ λ2 0 0 ⎥
⎢ ⎥
⎢ ⎣ 1 λ2 0 ⎦ ⎥
⎢ ⎥
⎢ 0 1 λ2 ⎡ ⎥
⎢ ⎤⎥
⎢ λ3 0 0 0 ⎥
⎢ ⎥
⎢ ⎢ 1 λ3 0 0 ⎥ ⎥
⎢ ⎢ ⎥⎥
⎣ ⎣ 0 1 λ3 0 ⎦ ⎦
0 0 1 λ3
Fig. D.2. Matrice in forma di Jordan: λ1 ≺ λ2 ≺ λ3 (elementi omessi nulli)

Osserviamo che la forma di Jordan può presentare termini complessi sulla diagonale
anche se A è reale. In tal caso, gli autovalori si presentano a coppie complesse co-
niugate di uguale molteplicità e gli autovettori generalizzati sono dunque una base
in Cn , se A ha ordine n.
Nel caso di A reale, ma con autovalori complessi, si può comunque ottenere una
forma canonica reale, adottando piccole modifiche alla base: si abbinano a coppie
gli autovalori ed autovettori coniugati e si osserva che se Av = λv, Av = λv allora
1
z = 2i (v−v) e w = 12 (v+v) sono i vettori reali (non autovettori) da sostituire
nell’ordine a v e v per ottenere una base di Rn in cui la matrice ha come elementi
non banali solo blocchi del tipo riportato a destra delle frecce nella Fig. D.3.
Si noti che dall’identità (a + ib) (x + iy) = (ax − by) + i (bx + ay) si deduce che la
moltiplicazione dei numeri complessi del tipo z = (x + iy) per il numero complesso
λ = (a + ib) corrisponde, in coordinate reali (x, y)T , ad una rotazione accompagnata
da dilatazione o contrazione, descritta dalla moltiplicazione per la matrice:
0 1 0 1 )
a −b cos θ − sin θ
A= =ρ , dove ρ = a2 + b2 , θ = arctan (b/a) .
b a sin θ cos θ

Dalla forma di Jordan si deduce che ogni matrice A, in opportuna base di Cn si rap-
presenta come somma di una matrice semisemplice o diagonale S e di una matrice
nilpotente T (cioè tale che Tk = O per opportuno intero k ≤ n): A = S + T.
Con riferimento alla decomposizione di Jordan A = S + T, la matrice diagonale o
semisemplice S commuta nel prodotto con la nilpotenete T perché in realtà si molti-
plicano fra loro solo i blocchi di Jordan, che sono somma di un multiplo dell’identità
più un nilpotente.
370 Appendice D Algebra lineare
⎡ ⎤ ⎡ ⎤
0 1 0 1 λ 0 0 0 a −b 0 0
λ 0 a −b ⎢1 λ 0 0 ⎥ ⎢ b a 0 0 ⎥
−→ ⎢ ⎥− →⎢ ⎥
0 λ b a ⎣ 0 0 λ 0⎦ ⎣ 1 0 a −b ⎦
0 0 1 λ 0 1 b a
Fig. D.3. Blocchi di Jordan reali associati ad autovalori complessi λ = a ± ib
semplici e doppi

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0 0 0 0 0 0 0
⎢1 0 0 0⎥ ⎢0 0 0 0⎥ ⎢0 0 0 0⎥
T=⎢
⎣0
⎥ T =⎢
2 ⎥ T =⎢
3 ⎥ T4 = O
1 0 0⎦ ⎣1 0 0 0⎦ ⎣0 0 0 0⎦
0 0 1 0 0 1 0 0 1 0 0 0

Fig. D.4. T è un esempio di matrice nilpotente di ordine 4


Appendice E
Topologia

La topologia è una teoria geometrica che studia le proprietà invarianti rispetto alle
trasformazioni biunivoche, continue e con inversa continua. In termini elementari e
intuitivi si può pensare alle deformazioni di un solido elastico in assenza di strappi,
incollamenti, perforazioni o fratture.
Sia E un insieme. Assegnare una topologia su E significa assegnare una famiglia τ
di sottoinsiemi di E tali che:

1) E e ∅ sono elementi di τ ;
2) ogni unione di elementi di τ è un elemento di τ ;
3) ogni intersezione finita di elementi di τ è un elemento di τ .

Gli elementi di τ si dicono insiemi aperti della topologia τ o, brevemente, aperti.


La coppia (E, τ ) si dice spazio topologico e τ ne è la topologia.
Esempio E.1. Sull’insieme E = R consideriamo la topologia euclidea:

τ = {A ⊂ R : ∀x ∈ A ∃ε > 0 t.c. (x − ε, x + ε) ⊂ A} .

Esempio E.2. Sull’insieme E = Rn consideriamo la topologia euclidea:

τ = {Ω ⊂ Rn : ∀x ∈ Ω ∃r > 0 t.c. {y : y − x < r} ⊂ Ω} .

Esempio E.3. Sull’insieme E = C consideriamo la topologia euclidea:

τ = {Ω ⊂ C : ∀z ∈ Ω ∃r > 0 t.c. {w : |w − z| < r} ⊂ Ω} .

È facile verificare che in tutti gli esempi citati sono valide le tre proprietà che carat-
terizzano una topologia.
Definizione E.4. Siano (X, τ ), (Y, ρ) due spazi topologici, ed f : X → Y una
funzione. Si dice che f è continua se ∀A ∈ ρ risulta f −1 (A) ∈ τ , cioè la controim-
magine di ogni aperto è aperta.
Teorema E.5. Se X = Rn e Y = Rm , τ , ρ sono le corrispondenti topologie eucli-
dee, allora la definizione precedente è equivalente alla usuale definizione metrica di

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_E, © Springer-Verlag Italia 2014
372 Appendice E Topologia

continuità di f : Rn → Rm , che qui riportiamo:

∀x0 ∈ X ∀ε > 0 ∃δ > 0 tale che x − x0  < δ ⇒ f (x) − f (x0 ) < ε .

Teorema E.6. La composizione di funzioni continue è continua.


Sia (E, τ ) uno spazio topologico. Si definisce allora la famiglia σ degli insiemi chiusi
in E o, brevemente chiusi, come segue:

σ = {C ⊂ E : ∃A ∈ τ t.c. C = E\A} .

Dunque gli insiemi chiusi sono i complementari degli insiemi aperti. È facile dedurre
dalle proprietà degli insiemi aperti che per gli insiemi chiusi valgono le seguenti:
1) E e ∅ sono elementi di σ;
2) ogni intersezione di elementi di σ è un elemento di σ;
3) ogni unione finita di elementi di σ è un elemento di σ.
Definizione E.7. La chiusura, denotata con D, di un sottoinsieme D di uno spazio
topologico E è il più piccolo insieme chiuso che contiene D cioè

D = ∩ {C : C chiuso, D ⊂ C} .

Definizione E.8. Il bordo (o frontiera) di un sottoinsieme D di uno spazio topo-


logico E è
∂D = D ∩ E\D .

Definizione E.9. L’interno (o parte interna) di un sottoinsieme D di uno spazio


topologico è

D = D\∂D .

Definizione E.10. Assegnati due sottoinsiemi A e B di uno spazio topologico, si


dice che A è denso in B se B ⊂ A.
Esempio E.11. Se lo spazio topologico è R con la topologia euclidea e A, B ⊂ R,
con B aperto, allora A è denso in B se per ogni intervallo (a, b) ⊂ B esiste un
elemento x ∈ A ∩ (a, b).
Esempio E.12. Q è denso in R.
Definizione E.13. Un insieme aperto U contenuto in uno spazio topologico si dice
connesso se non esistono due aperti A e B non vuoti e disgiunti la cui unione sia U .
Appendice F
Dimensione frattale

Accenniamo brevemente al problema della “misura” e della “dimensione” dei sot-


toinsiemi di uno spazio euclideo. Lo scopo è definire una funzione di insieme che
corrisponda alla lunghezza nel caso di segmenti, al conteggio nel caso di insiemi
costituiti da un numero finito di punti, ma si adatti in modo coerente alle situazioni
intermedie (ad esempio, l’insieme di Cantor), e più in generale, consenta di misurare
sottoinsiemi di Rn oltreché di attribuire loro una dimensione coerente con le nozioni
di area e volume delle figure della geometria elementare.
Descriviamo sinteticamente la dimensione di Hausdorff e la box counting dimension
precisando alcune relazioni che intercorrono tra le due definizioni.

Per ogni sottoinsieme F di Rn ed ogni numero reale non negativo s definiamo la


misura di Hausdorff s dimensionale di F come

Hs (F ) = lim Hsδ (F ) = sup Hsδ (F )


δ→0+ δ>0

dove, per 0 < δ < +∞,


+∞ :
ωs 9

Hsδ (F ) = s inf s
(diam Uj ) : F ⊂ Uj , diam Uj ≤ δ
2 j=1 j=1

' −1

con diam Uj = sup {|x − y| : x, y ∈ Uj } . La costante ωs = πs/2 0 e−x xs/2dx
è positiva e finita per ogni s e normalizza la misura in modo da ottenere i valori
corretti nei casi elementari:

ω0 = H0 ({0}) = 1, ω1 = H1 ([−1, 1]) = 2


% &
ω2 = H2 (x, y) ∈ R2 : x2 + y2 ≤ 1 = π
% & 4
ω3 = H3 (x, y, z) ∈ R3 : x2 + y2 + z 2 ≤ 1 = π.
3

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_F, © Springer-Verlag Italia 2014
374 Appendice F Dimensione frattale

Hs è una misura1 positiva, cioè una funzione di insieme a valori in [0, +∞] che
verifica le ragionevoli richieste qualitative per misurare tutti gli insiemi di Rn qui
elencate:
8
∞ 
+∞
1) F = Ej ⇒ Hs (F ) ≤ Hs (Ej ) subadditività numerabile
j=1 j=1

2) Hs (F + τ ) = Hs (F ) ∀F ⊂ Rn , ∀τ ∈ Rn invarianza per traslazioni

3) Hs (αF ) = αs Hs (F ) ∀F ⊂ Rn , ∀α ∈ R s omogenenità di Hs

4) Hs (∅) = 0 , H0 è la misura che conta i punti, Hs è identicamente nulla se


s>n
5) se 0 ≤ s < t allora Ht (F ) > 0 ⇒ Hs (F ) = +∞.
Se gli insiemi Ej sono boreliani (unioni o intersezioni numerabili di insiemi aperti
e/o chiusi) a due a due disgiunti (j = k ⇒ Ej ∩ Ek = ∅), allora nella 1) vale
l’uguaglianza (additività numerabile).
La dimensione di Hausdorff di un insieme F ⊂ Rn è definita da

dimH (F ) = inf {s ≥ 0 : Hs (F ) = 0} = sup {s ≥ 0 : Hs (F ) = +∞} .

Se s = dimH (F ) allora si hanno tre possibilità:

Hs (F ) = 0, Hs (F ) = +∞, 0 < Hs (F ) < +∞.

La dimensione di Hausdorff dell’insieme di Cantor C è


ln 2
dimH (C) = = 0, 6309297536 . . .
ln 3
come si può dedurre dal seguente argomento euristico:

C = CS ∪ CD

dove l’unione è disgiunta:

CS = C ∩ [0, 1/3] CD = C ∩ [2/3, 1]



s
s
1 1
∀s : Hs (C) = Hs (CS ) + Hs (CD ) = Hs (C) + Hs (C) per la 3).
3 3
Se per il valore critico s = dim C risulta 0 < Hs (C) < +∞ (proprietà vera che non
dimostriamo), allora
s
1 ln 2
1=2 ⇒ s= .
3 ln 3
Osserviamo esplicitamente che H1 (C) = 0 e H0 (C) = +∞.

1
Più precisamente si dovrebbe parlare di misura esterna, ma noi tralasciamo tale
questione.
Appendice F Dimensione frattale 375

Un metodo per costruire insiemi di dimensione di Hausdorff non banale (cioè non
intera), detti per questo insiemi frattali, è la costruzione seguente, dovuta a J.E.
Hutchinson.
Sia M = {M1 , . . . MN } una famiglia di similitudini di Rn cioè del tipo Mj (x) =
pj + ρj M x dove M è una matrice ortogonale2 , 0 < ρj < 1 ed esiste un insieme
aperto U limitato in Rn tale che:

Mj (U ) ⊂ U e Mi (U ) ∩ Mj (U ) = ∅ se i = j. (F.1)

Teorema F.1. Se M verifica la precedente (F.1), allora esiste unico un insieme


chiuso e limitato K tale che K = M1 (K) ∪ M2 (K) ∪ · · · ∪ MN (K).
Tale insieme K è un frattale autosimile 3 la cui dimensione dimH (K) è l’unica
soluzione s dell’equazione
N
ρsj = 1.
j=1

Ad esempio, l’insieme di Cantor è l’unico insieme invariante rispetto alla famiglia


delle due similitudini seguenti: M1 (x) = x/3 , M2 (x) = 1 + (x − 1) /3.
Vi sono numerose altre definizioni di dimensione frattale. Esse non verificano tut-
te le proprietà della dimensione di Hausdorff, tuttavia sono definite in modo più
elementare ed è più semplice valutarle.
Un esempio importante è la box counting dimension che quantifica la nozione
di dimensione ad una scala δ (trascurando le scale inferiori) per poi effettuare un
limite quando δ tende a 0.
Definizione F.2. Sia F ⊆ Rn e δ > 0. Sia Nδ (F ) il minimo numero di insiemi di
diametro minore od uguale a δ che occorrono per ricoprire F . Allora la box counting
dimension di F , indicata con dimB (F ), è definita da

ln Nδ (F )
dimB (F ) = lim (F.2)
δ→0+ − ln δ
se tale limite esiste.
L’idea alla base della definizione è la seguente: se esiste una omogenenità di Nδ (F )
rispetto a δ, di tipo potenza, cioè Nδ (F ) δs → m (dove m ∈ (0, +∞) svolge il ruolo
di misura s dimensionale di F ), allora Nδ ∼ mδ−s , ln Nδ ∼ ln m − s ln δ; dividendo
ln Nδ (F )
e passando al limite per δ → 0+ , necessariamente s = lim .
δ→0+ − ln δ

2
Q è ortogonale se e solo se trasforma basi ortonormali in basi ortonormali (equi-
valentemente, se e solo se la matrice ad essa associata in una qualunque base, e
denotata ancora con Q, è invertibile e verifica QT = Q−1 ).
3
Autosimile significa che è unione di parti ottenibili ciascuna dall’insieme stesso
con un movimento rigido ed una riduzione di scala (è una idealizzazione, per la cui
comprensione puó essere utile pensare alla struttura geometrica di una felce o di un
cavolfiore).
376 Appendice F Dimensione frattale

ln N (F)
δ

−ln δ

Fig. F.1. Coppie di valori empirici (δ, Nδ (F )) riportati in scala logaritmica

La formula (F.2) è particolarmente adatta a valutazioni empiriche: se si riportano in


scala logartimica i valori di δ ed Nδ relativi ad alcune misure, allora s è la pendenza
cambiata di segno della retta di regressione associata a tali valori.
Un primo inconveniente è il fatto che il limite in (F.2) può non esistere (mentre la
dimensione di Hausdorff è sempre definita). Tuttavia, quando esiste dimB (F ) essa
è un numero reale in [0, n], ed assume gli usuali valori interi su punti, rette, curve,
superfici regolari. Inoltre dimB verifica la naturale proprietà di monotonia: F ⊂ E
⇒ dimB (F ) ≤ dimB (E). Infine, nella definizione di Nδ (F ) è sufficiente utilizzare
cubi o dischi di diametro δ per ricoprire F anziché tutti gli insiemi di diametro
minore o uguale a δ.
Esempio F.3. Se F è una curva in R2 , Nδ (F ) può essere scelto come il numero
minimo di “passi” di lunghezza minore o uguale a δ necessari a “percorrerla”.

Fig. F.2. Rettificazione di una curva con passi di lunghezza minore o uguale a δ
Appendice F Dimensione frattale 377

Esempio F.4. Se F = Q ∩ [0, 1], allora dimH (F ) = 0 = 1 = dimB (F ).


Questo fatto segue dall’uguaglianza, vera per ogni F di cui sia definita dimB (F ):
 
dimB (F ) = dimB F

dove F indica la chiusura dell’insieme F .


L’ultimo esempio (dimensione box counting 1 di una unione numerabile di punti
che hanno dimensione box counting nulla) prova che per la box counting dimension
viene meno un’importante proprietà relativa alle unioni numerabili, valida per la
misura di Hausdorff:
 
8
+∞
dimH Fj = s se dimH (Fj ) = s ∀j
j=1

 
8
+∞
dimB Fj ≥s se dimB (Fj ) = s ∀j
j=1

Nell’ultima relazione può valere la disuguaglianza stretta (l’uguaglianza è garantita


comunque se gli Fj sono in numero finito).
Per questo ed altri motivo si preferisce utilizzare la nozione meno elementare di
dimensione di Hausdorff. Vale comunque il seguente risultato.
Teorema F.5. Se K è un frattale autosimile di Hutchinson (cioè è l’unico compat-
to invariante associato ad una famiglia di similitudini verificante la (F.1)), allora
esiste dimB (K) e
dimH (K) = dimB (K) = s

N
dove s è l’unica soluzione dell’equazione ρsj = 1 e 0 < Hs (K) < +∞ .
j=1

I Teoremi F.1 ed F.5 consente di calcolare facilmente la dimensione di alcuni frattali


autosimili, come illustrato dai seguenti esempi di insiemi la cui dimensione non è un
numero intero.
Esempio F.6. L’insieme di Cantor C verifica dimH (C) = dimB (C) = ln 2/ ln 3.
Esempio F.7. La curva di von Koch K (ottenuta a partire dal segmento [0, 1]
rimpiazzando il segmento [1/3, 2/3] con i due lati di un triangolo equilatero di lato
1/3 ed iterando l’operazione) verifica dimH (K) = dimB (K) = ln 4/ ln 3.
Esempio F.8. Il Sierpinski gasket triangolare G (che si ottiene da un trian-
golo equilatero con il bordo e l’interno, suddiviso in quattro triangoli equilateri,
rimuovendo il triangolo centrale, ed iterando l’operazione) verifica

dimH (G) = dimB (G) = ln 3/ ln 2 .

Esempio F.9. L’insieme di Cantor t-medio Ct , 0 < t < 1 (si veda l’Esempio 4.38),
verifica
ln 2
dimH (Ct ) = dimB (Ct ) = .
ln 2 − ln (1 − t)
378 Appendice F Dimensione frattale

Fig. F.3. Fiocco di neve costruito con la curva di von Koch e prime tre iterazioni
del Sierpinski Gasket
Appendice G
Tabelle di Z-trasformate

Tabella Z.1.

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_G, © Springer-Verlag Italia 2014
380 Appendice G Tabelle di Z-trasformate

Tabella Z.2.
Appendice G Tabelle di Z-trasformate 381
382 Appendice G Tabelle di Z-trasformate

Tabella Z.3.
Y = {Yk } k = 0, 1, 2, . . . Z{Y }(z) = y(z)

X = {Xk } k = 0, 1, 2, . . . Z{X}(z) = x(z)

Yk := Xk+1 = τ−1 X y(z) = z x(z) − z X0

Yk := Xk+2 = τ−2 X y(z) = z 2 x(z) − z 2 X0 − z X1

Yk := Xk+3 = τ−3 X y(z) = z 3 x(z) − z 3 X0 − z 2 X1 − z X2

Yk := Xk+n = τ−n X n≥0 y(z) = z n x(z) − z n X0 − . . . − z Xn−1

Yk := Xk−n = τn X,
y(z) = z −n x(z)
Yk = 0 k < n, Yk = Xk−n k≥n≥0

Xk = Uk−n z n−1
X0 =X1 = . . . = Xn−1 = 0, Xk = 1 se k ≥ m z−1

k Xk −z x (z)
n
d
k n Xk , n≥0 −z x(z)
dz
z
1 x(w)
Xk − dw
k ∞ w
z
1 x(w)
Xk n≥0 −z n dw
k+n ∞ wn+1
ak X k x(z/a)
k
z x(z)
Xh
z−1
h=0

k
(X ∗ Y )k = Xh Yk−h x(z) y(z)
h=0

Tabella Z.4.
Appendice H
Alcuni algoritmi e suggerimenti per
simulazioni al computer

Gran parte dei calcoli e disegni del testo sono stati effettuati mediante il software
Mathematica© (Wolfram Research Inc.). Forniamo alcuni suggerimenti utili per lo
studio di sistemi dinamici discreti utilizzando tale software.

Calcolo di iterate
Un modo semplice per calcolare iterate di funzioni consiste nell’utilizzare il comando
Nest, la cui sintassi è la seguente:

Nest [ funzione, valore iniziale , numero di iterazioni ]

Ad esempio, un programma per il calcolo delle prime quattro iterate del coseno a
partire da X0 = π è il seguente:

Clear [ f, x ]
f [x] = Cos [ x ] ;
Nest [ f, Pi, 4 ]
N [ %, 3 ]

La prima istruzione è consigliabile per evitare confusione con eventuali valori di


f ed x presenti in memoria perché calcolati in precedenza; la seconda istruzione
definisce la funzione coseno dipendente dalla variabile x (il punto e virgola esclu-
de la stampa di qualunque output); la terza istruzione definisce la composizione
cos (cos (cos (cos (π)))) = cos4 (π); la quarta istruzione calcola il valore numerico
della quantità all’istruzione precedente, con tre cifre decimali, cioè 0, 654.
Se si vogliono calcolare anche le iterate precedenti, allora è opportuno sostituire la
terza istruzione con
NestList [f, Pi, 4]
che produce {π, −1, cos 1, cos (cos 1) , cos (cos (cos 1))} cioè {X0 , X1 , X2 , X3 , X4 }; di
conseguenza la quarta istruzione calcola il valore numerico di X0 , . . . , X4 con tre
cifre significative, cioè

{3, 14 , −1 , 0, 54 , 0, 858 , 0, 654} .

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9_H, © Springer-Verlag Italia 2014
384 Appendice H Alcuni algoritmi e suggerimenti per simulazioni al computer

Equilibri di sistemi dinamici discreti


Il s.d.d. {R, cos} ha un unico equilibrio stabile ed attrattivo α, che è la soluzione di
{α ∈ R : α = cos α}. Tale equilibrio può essere calcolato in vari modi:
1) Metodo di Newton: la funzione g (x) = cos x − x è continua e concava in [0, π/2] ,
positiva in 0 e negativa in π/2. Allora, a partire da X0 = π/2 , le iterate di Ng (x) =
(x sin x + cos x) / (sin x + 1) convergono decrescendo ad α. Le istruzioni per il calcolo
della 5a e 6a iterata di Ng sono:

Clear [ N g , x ]
Ng [ x_ ] = (x ∗ Sin [x] + Cos [x]) / (Sin [x] + 1) ;
N [ Nest [ Ng , Pi/2 , 5 ] , 3 ]
N [ Nest [ Ng , Pi /2 , 6 ] , 3]

Output: 0, 739 , 0, 739.


L’indice x_ chiede di effettuare la valutazione della funzione Ng in tutti i casi in cui
è possibile, richiesta implicita nel caso di funzioni elementari come era il caso del
coseno. L’istruzione

Ng [x] = (x ∗ Sin [x] + Cos [x]) / (Sin [x] + 1)

avrebbe invece prodotto Ng [Ng [Ng [Ng [Ng [1, 57]]]]].

2) Iterazioni di g: gk (X0 ) converge ad α oscillando, ∀X0 ∈ R. Scegliamo X0 = π/2


e calcoliamo la 10a e 20a iterata:
Clear [ f , x ]
f [x] =Cos[x]
N [ Nest [ f , Pi/2 , 10 ] , 3 ]
N [ Nest [ f , Pi /2 , 20 ] , 3]

Output: 0, 75 0, 739

3) Usando il risolutore di equazioni “FindRoot”:

FindRoot [ {Cos [ x ] == x } , { x , 0 }]

Output: 0,739085.

Numeri di Fibonacci
I) I numeri di Fibonacci sono definiti dall’inizializzazione F0 = 0, F1 = 1 e dalla
regola ricorsiva (a due passi) Fk+1 = Fk + Fk−1 . Pertanto le istruzioni

Clear [ f , x ]
f [0] = 0;
f [1] = 1;
f [x_] := f [x − 1] + f [x − 2]
Appendice H Alcuni algoritmi e suggerimenti per simulazioni al computer 385

generano la funzione f [k] = Fk . Tuttavia anche se queste istruzioni consentono di


calcolare alcuni valori, ad esempio F20 = 6765, già F50 dà grossi problemi di tempo
di calcolo, perché il numero di operazioni necessarie è molto elevato: si tratta di un
algoritmo poco efficiente.
II) Alternativamente, possiamo sfruttare l’espressione esplicita di Fk come l’in-
 √  k √
tero più vicino a 1 + 5 /2 / 5 ottenendo il valore approssimato di Fk con
l’istruzione
N [0, 5 ∗ ((1 + Sqrt [5]) ∗ 0, 5) ˆ50]
La funzione N effettua un calcolo numerico approssimato. L’approssimazione po-
trebbe essere migliorata. Tuttavia è meglio utilizzare una procedura algebrica esatta
con qualche accortezza che eviti le difficoltà del primo algoritmo.
III) Un algoritmo efficiente per calcolare Fk basato sulla definizione ricorsiva deve
tenere conto dei valori della successione già calcolati e tabularli per non fare crescere
eccessivamente il numero di operazioni necessarie (con la ripetizione di operazioni
già svolte):
Clear [f, x]
f [0] = 0;
f [1] = 1;
f [x_] := f [x] = f [x − 1] + f [x − 2]
f [50]
La penultima istruzione definisce una funzione f che “ricorda” tutti i valori che
vengono calcolati. L’ultima calcola rapidamente il valore esatto del cinquantesimo
numero di Fibonacci. L’efficienza del metodo è tale da fornire rapidamente anche il
valore di F100 :

F50 = 12· 586· 269· 025


F100 = 354· 224· 848· 179· 261· 915· 075

IV) Ancora più rapido è il ricorso ad una funzione predefinita nel Mathematica© 4.1
che produce il k-esimo numero di Fibonacci:

Fibonacci [k]

Ragnatele di sistemi dinamici discreti


Nel seguito riportiamo le istruzioni di un notebook (per il software Mathematica)
simili a quelle con cui sono state generate le ragnatele nelle figure del testo. Nel-
l’esempio si considera la logistica ha di parametro a = 3, 5 e se ne descrivono 20
iterazioni a partire dal dato iniziale X0 = 0, 1.
Per adattare ad altre funzioni (che trasformano l’intervallo [0, 1] in sè stesso), da-
ti iniziali e/o numeri differenti di iterazioni, è sufficiente effettuare le opportune
variazioni nelle righe 3, 5, 6 e 7.
Segnaliamo le righe di commenti intercalati alle istruzioni mediante la sintassi: (*
commento *).
386 Appendice H Alcuni algoritmi e suggerimenti per simulazioni al computer

(* Scelta del sistema dinamico e sua inizializzazione *)


Clear [h, x] ;
h [x_] := 3.5 ∗ x ∗ (1 − x)
id [x_] := x
StartingValue = .1 ;
FirstIt = 0 ;
LastIt = 20 ;
xmin = 0 ;
xmax = 1 ;

(* Calcolo delle iterate *)


k = 0;
y = N [StartingValue] ;
DataTable = {{y, 0} , {y, h [y]} , {h [y] , h [y]}} ;
While[k < LastIt, y = h [y] ;
AppendTo[DataTable, {y, y}] ;
AppendTo[DataTable, {y, h [y]}] ;
k = k + 1] ;
AppendTo[DataTable, {h [y] , h [y]}] ;

(* Disegno della ragnatela *)


Cobweb = ListPlot [ DataTable, PlotJoined − > True,
PlotRange − > {{xmin, xmax} , {xmin, xmax}} ,
Ticks − > None, AspectRatio − > 1 ,
PlotStyle − > RGBColor[1, 0, 0] ,
DisplayFunction − > Identity ] ;

(* Disegno dei grafici di ha (logistica) e dell’identità *)


Graphh = Plot[h [x] , {x, xmin, xmax} ,
PlotRange − > {xmin, xmax} , AspectRatio − > 1 , Ticks − > None,
PlotStyle − > {{Thickness [0.015] , RGBColor [0, 0, 1]}} ,
DisplayFunction − > Identity ] ;
Graphid = Plot[id [x] , {x, xmin, xmax} ,
PlotRange − > {xmin, xmax} , AspectRatio − > 1 , Ticks − > None,
DisplayFunction − > Identity ] ;

(* Mostrare il risultato *)
Show[Cobweb, Graphh, Graphid, DisplayFunction − > $DisplayFunction] ;
Appendice H Alcuni algoritmi e suggerimenti per simulazioni al computer 387

Fig. H.1. Una ragnatela della logistica ha con a = 3, 5


Riferimenti bibliografici

1. Alseda L., Llibre J., Misiurewicz M. (2001): Combinatorial Dynamics and


Entropy in Dimension One. World Scientific, New York..
2. Block L.S., Coppel W.A. (1992): Dynamics in one dimension. Springer Berlin-
Heidelberg.
3. Boyarski A. (1997): Laws of Chaos. Invariant measures and dinamical systems
in one dimension, Birkäuser, Boston.
4. Bianchini M., Gori M., Scarselli F. (2005): Inside Page-Rank, ACM Transactions
on Internet Technology, Vol.5, n.1, 92-128.
5. Brin S., Page L. (1998): The anatomy of a large-scale hypertextual web searching
engine. Computer networks and ISDN Systems 33, 107-117.
6. Devaney R.L. (2003): An Introduction to Chaotic Dynamical Systems. Westview
Press, Boulder, CO.
7. Ekeland I. (1992): A caso. Bollati Boringhieri, Torino.
8. Gantmacher F.R. (2001): The Theory of matrices, Voll. 1-2, American
Mathematical Society, Providence R.I..
9. Gazzola F., Tomarelli F., Zanotti M. (2013): Analisi Complessa, Trasformate,
Equazioni Differenziali 2nd ed. ISBN 978-88-7488-641-8, Esculapio, Bologna.
10. Gleick J. (1989): Caos. Rizzoli, Milano.
11. Graham R.L., Knuth D., Patashnik O. (1996): Matematica Discreta. Hoepli,
Milano.
12. Guerraggio A., Salsa S. (1997): Metodi Matematici per l’Economia e le Scienze
Sociali. Giappichelli, Torino.
13. Haveliwala T.H., Kamvar S.D. (2003): The second eigenvalue of the Google
matrix. Technical report, Stanford University.
14. Hirsch M.W., Smale S., Devaney R.L. (2004): Differential Equations, Dynamical
Systems and an Introduction to Chaos. Elsevier Academic Press, New York.
15. Jain A. (1989): Fundamentals of Digital Image Processing. Prentice-Hall,
Englewood Cliff.
16. Leslie P.H. (1945): On the use of matrices in certain population mathematics.
Biometrika 33, 3 183-212.
17. Modica G., Poggiolini L. (2013): Note di Calcolo delle Probabilità. 2nd ed.,
Pitagora, Bologna.

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9, © Springer-Verlag Italia 2014
390 Riferimenti bibliografici

18. Oldham K., Myland J., Spanier J. (2000): An Atlas of functions. 2nd ed.,
Springer, Berlin-Heidelberg.
19. Peitgen H.O., Jürgens H., Saupe D. (1999): Fractals for the Classroom: Strategic
Activities. Springer, Berlin-Heidelberg.
20. Poincaré H. (1995): Geometria e Caso. Bollati Boringhieri, Torino.
21. Quarteroni A., Sacco R., Saleri F. (2008): Numerical Mathematics. 3rd ed. Texts
in Applied Mathematics, 37. Springer, Berlin.
22. Ruelle D. (1992): Caso e Caos. Bollati Boringhieri, Torino.
23. Seneta E. (2006): Non-Negative Matrices and Markov chains. Springer, New
York.
24. Sirovich L. (1988): Introduction to Applied Mathematics. Springer, New York.
25. Wolfram S. (1999): The Mathematica Book. IV ed. Wolfram Media - Cambridge
University Press.
Indice analitico

algoritmo coefficienti di Fourier, 73


– Fast Fourier Transform, 79 complessità computazionale, 77
– PageRank, 286 componente fortemente connessa, 276
allele, 188 – periodo di, 279
ammortamento, 21 coniugazione topologica, 162
attrattore, 104 contrazione, 101
autovalore, 186 convoluzione
– dominante, 205 – circolare, 82
autovettore, 187 – discreta, 55, 354
costante di Feigenbaum, 148
bacino di attrazione, 104 Cramer, regola di, 365
biforcazione crescita logistica a tempo continuo , 165
– a forchetta, 142
– raddoppio di periodo, 142
derivata schwarziana, 137
– sella-nodo, 142
determinante di Vandermonde, 36
– transcritica, 142
DFT, 76
bordo, 372
diagramma di biforcazione, 139
box counting dimension, 375
dimensione di Hausdorff, 374
cammino, 275 discretizzazione di un’equazione
Casoratiano, 65 differenziale, 14, 15
catena di Markov, 239 distribuzione di probabilità
– assorbente, 247 – iniziale, 242
– irriducibile, 283 – invariante, 243
– regolare, 245 disuguaglianza di Cauchy-Schwarz, 361
– riducibile, 283
chiusura, 372 effetto leva, 316
ciclo, 91 equazione
– localmente asintoticamente stabile, – dei tre momenti, 17
117 – del calore, 15
– ordine del, 91 – di Airy, 13
– repulsivo, 117 – di Bessel, 22
classe comunicante, 282 – di Black-Scholes, 23
– chiusa, 282 – di d’Alembert, 23

E. Salinelli, F. Tomarelli: Modelli Dinamici Discreti. 3a edizione


UNITEXT – La Matematica per il 3+2 71
DOI 10.1007/978-88-470-5504-9, © Springer-Verlag Italia 2014
392 Indice analitico

– di Hermite, 22 – lineare fratta, 68


– di Laguerre, 22 – logistica, 130
– di Laplace, 23 – tenda, 151
– di Legendre, 22 – topologicamente transitiva, 154
– di Riccati, 309
equazione alle differenze Google, 286
– di ordine n, 2 grafo, 274
– lineare, a coefficienti costanti – fortemente connesso, 275
del primo ordine, non omogenea, 26 – orientato, 274
del primo ordine, omogenea, 25
di ordine n, non omogenea, 39, 47 impulso, 51
di ordine n, omogenea, 32 insieme
– lineare, a coefficienti variabili – aperto, 371
del primo ordine, non omogenea, 63 – aperto connesso, 372
del primo ordine, omogenea, 62 – chiuso, 372
di ordine n, omogenea, 65 – denso, 372
equazione caratteristica, 33 – di Cantor, 157
equilibrio, 40, 90 – di Cantor t-medio, 160
– asintoticamente stabile, 103 – di Julia, 181
superiormente, 109 – di tipo Cantor, 160
– attrattivo, 40, 42 – frattale, 156, 375
superiormente, 109 – invariante, 104
– di un s.d.d. vettoriale lineare, 197 – localmente attrattivo, 104
– di un’equazione lineare, 26 – totalmente sconnesso, 158
– globalmente attrattivo, 103 interesse
– instabile, 103, 170 – composto, 4
superiormente, 109 – semplice, 4
– iperbolico, 108 interno, 372
– localmente attrattivo, 103, 170 iterata k-esima, 88
– neutro, 108
– repulsivo, 106 legge
superiormente, 109 – di Bayes, 359
– semistabile – di Hardy-Weinberg, 188
superiormente, 108
– stabile, 40, 41, 102, 170 matrice
– superattrattivo, 108 – ciclica, 272
– debolmente positiva, 205
FFT, 78 – del cambio di base, 366
filtro causale, 80 – di adiacenza, 276
flops, 79 – di Casorati, 65
forma canonica di Jordan, 368 – di permutazione, 263, 265
formula di Collatz-Wielandt, 210 – di rotazione, 201
formule di de Moivre, 356 – di transizione, 240
frattali autosimili di Hutchinson, 375 – forma canonica di Jordan, 368
frazione continua, 72 – forma elementare di Frobenius, 196
frontiera, 372 – irriducibile, 267
funzione – nilpotente, 202, 369
– continua, 371 – periodo di una, 279
– di trasferimento, 55 – positiva, 205
Indice analitico 393

– primitiva, 272 – stabile, 105


– riducibile, 267 – stazionaria, 90
– semisemplice, 363 orbita periodica
– sparsa, 221 – di un s.d.d. vettoriale lineare, 197
– strettamente positiva, 205 ordinamento di Sharkovsky, 134
medie mobili, 57
metodo pagina dangling, 289
– di decomposizione LU, 226 parte interna, 372
– di Eulero esplicito, 15, 17, 165, 223, periodo di un nodo, 278
340 piano delle fasi, 202
– di Eulero implicito, 14, 16, 165, 225, polinomio caratteristico, 33
341 polinomio minimo, 270
– di Gauss-Seidel, 228 principio
– di Jacobi, 228 – del massimo discreto, 299
– di Newton, 166, 171 – di induzione, 2
– SOR, 227 – di mutazione, 191
misura di Hausdorff, 373 – di selezione, 190
modello probabilità di transizione, 239
– della ragnatela, 6
– di crescita logistica, 8 quadro delle fasi, 89
– di decadimento radioattivo, 6 query, 286
– di Leslie, 11
– di Lotka-Volterra, 9, 219 raddoppio di fase, 152
– di Malthus, 8 ragnatele, 96
moltiplicatore relazione ricorsiva, 3
– dell’equilibrio, 183 repulsore, 105
– dell’orbita, 183 rovina del giocatore, 12, 84, 235
mutuo, 5 Ruffini-Horner, algoritmo di, 77

nodo, 274 s.d.d., 87


– aperiodico, 278 segnale
– connesso, 275 – di Heaviside, 51
– fortemente connesso, 275 – di Kronecker, 52
– periodo di un, 278 – lineare, 52
norma serie di Fourier, 73
– di una matrice, 219 Sierpinski gasket, 162
numeri di Fibonacci, 10 simboli
– lista dei, xi
obbligazione simplesso, 242
– fixed-reverse, 5 sistema
– reverse-floater, 85 – mal condizionato, 229
– zero-coupon, 21 sistema causale, 80
omeomorfismo, 106 sistema dinamico discreto
orbita, 89 – affine, 89
– asintoticamente stabile, 105 – caotico, 154
– definitivamente periodica, 91 – complesso, 170
– definitivamente stazionaria, 91 – del primo ordine, autonomo, 87
– periodica, 91 – di ordine n, autonomo, 181
– periodo dell’, 91 – lineare, 89
394 Indice analitico

– non lineare, 89 tempo di dimezzamento, 6


– vettoriale, 218 teorema
– vettoriale, lineare – delle contrazioni, 101
non omogeneo, 214 – di Cayley–Hamilton, 368
omogeneo, 197 – di esistenza ed unicità, 3
positivo, 205 – di Fatou, 145
soluzione – di Frobenius, 271
– di un’equazione alle differenze, 3 – di Li–Yorke, 161
soluzione generale – di Markov-Kakutani, 259
– di un’equazione alle differenze, 3 – di Perron-Frobenius, 205
somma – di Rouché-Capelli, 365
– di una progressione aritmetica, 49 – di Schur, 45
– di una progressione geometrica, 50 – di Sharkovskii, 134
somme parziali, 64 – Fondamentale dell’Algebra, 357
stati – spettrale, 367
– comunicanti, 281 topologia, 371
stato – euclidea, 371
– accessibile, 281 trasformata discreta di Fourier, 76
– aperiodico, 283 trasformazione
– assorbente, 246 – di Möbius, 68
– ricorrente, 284
– transiente, 284 valore attuale, 85
successione, 1 valore di biforcazione, 140
– periodica, 73 valore iniziale, 89
vita media, 6

Zeta trasformata, 50
Collana Unitext – La Matematica per il 3+2

A cura di:
A. Quarteroni (Editor-in-Chief)
L. Ambrosio
P. Biscari
C. Ciliberto
G. van der Geer
G. Rinaldi
W.J. Runggaldier

Editor in Springer:
F. Bonadei
francesca.bonadei@springer.com

Volumi pubblicati. A partire dal 2004, i volumi della serie sono contrassegnati
da un numero di identificazione. I volumi indicati in grigio si riferiscono a
edizioni non più in commercio.

A. Bernasconi, B. Codenotti
Introduzione alla complessità computazionale
1998, X+260 pp, ISBN 88-470-0020-3
A. Bernasconi, B. Codenotti, G. Resta
Metodi matematici in complessità computazionale
1999, X+364 pp, ISBN 88-470-0060-2
E. Salinelli, F. Tomarelli
Modelli dinamici discreti
2002, XII+354 pp, ISBN 88-470-0187-0
S. Bosch
Algebra
2003, VIII+380 pp, ISBN 88-470-0221-4
S. Graffi, M. Degli Esposti
Fisica matematica discreta
2003, X+248 pp, ISBN 88-470-0212-5
S. Margarita, E. Salinelli
MultiMath – Matematica Multimediale per l’Università
2004, XX+270 pp, ISBN 88-470-0228-1

A. Quarteroni, R. Sacco, F.Saleri


Matematica numerica (2a Ed.)
2000, XIV+448 pp, ISBN 88-470-0077-7
2002, 2004 ristampa riveduta e corretta
(1a edizione 1998, ISBN 88-470-0010-6)

13. A. Quarteroni, F. Saleri


Introduzione al Calcolo Scientifico (2a Ed.)
2004, X+262 pp, ISBN 88-470-0256-7
(1a edizione 2002, ISBN 88-470-0149-8)

14. S. Salsa
Equazioni a derivate parziali - Metodi, modelli e applicazioni
2004, XII+426 pp, ISBN 88-470-0259-1

15. G. Riccardi
Calcolo differenziale ed integrale
2004, XII+314 pp, ISBN 88-470-0285-0

16. M. Impedovo
Matematica generale con il calcolatore
2005, X+526 pp, ISBN 88-470-0258-3

17. L. Formaggia, F. Saleri, A. Veneziani


Applicazioni ed esercizi di modellistica numerica
per problemi differenziali
2005, VIII+396 pp, ISBN 88-470-0257-5

18. S. Salsa, G. Verzini


Equazioni a derivate parziali – Complementi ed esercizi
2005, VIII+406 pp, ISBN 88-470-0260-5
2007, ristampa con modifiche

19. C. Canuto, A. Tabacco


Analisi Matematica I (2a Ed.)
2005, XII+448 pp, ISBN 88-470-0337-7
(1a edizione, 2003, XII+376 pp, ISBN 88-470-0220-6)
20. F. Biagini, M. Campanino
Elementi di Probabilità e Statistica
2006, XII+236 pp, ISBN 88-470-0330-X

21. S. Leonesi, C. Toffalori


Numeri e Crittografia
2006, VIII+178 pp, ISBN 88-470-0331-8
22. A. Quarteroni, F. Saleri
Introduzione al Calcolo Scientifico (3a Ed.)
2006, X+306 pp, ISBN 88-470-0480-2
23. S. Leonesi, C. Toffalori
Un invito all’Algebra
2006, XVII+432 pp, ISBN 88-470-0313-X
24. W.M. Baldoni, C. Ciliberto, G.M. Piacentini Cattaneo
Aritmetica, Crittografia e Codici
2006, XVI+518 pp, ISBN 88-470-0455-1
25. A. Quarteroni
Modellistica numerica per problemi differenziali (3a Ed.)
2006, XIV+452 pp, ISBN 88-470-0493-4
(1a edizione 2000, ISBN 88-470-0108-0)
(2a edizione 2003, ISBN 88-470-0203-6)
26. M. Abate, F. Tovena
Curve e superfici
2006, XIV+394 pp, ISBN 88-470-0535-3
27. L. Giuzzi
Codici correttori
2006, XVI+402 pp, ISBN 88-470-0539-6
28. L. Robbiano
Algebra lineare
2007, XVI+210 pp, ISBN 88-470-0446-2
29. E. Rosazza Gianin, C. Sgarra
Esercizi di finanza matematica
2007, X+184 pp,ISBN 978-88-470-0610-2
30. A. Machì
Gruppi – Una introduzione a idee e metodi della Teoria dei Gruppi
2007, XII+350 pp, ISBN 978-88-470-0622-5
2010, ristampa con modifiche
31 Y. Biollay, A. Chaabouni, J. Stubbe
Matematica si parte!
A cura di A. Quarteroni
2007, XII+196 pp, ISBN 978-88-470-0675-1
32. M. Manetti
Topologia
2008, XII+298 pp, ISBN 978-88-470-0756-7
33. A. Pascucci
Calcolo stocastico per la finanza
2008, XVI+518 pp, ISBN 978-88-470-0600-3
34. A. Quarteroni, R. Sacco, F. Saleri
Matematica numerica (3a Ed.)
2008, XVI+510 pp, ISBN 978-88-470-0782-6
35. P. Cannarsa, T. D’Aprile
Introduzione alla teoria della misura e all’analisi funzionale
2008, XII+268 pp, ISBN 978-88-470-0701-7
36. A. Quarteroni, F. Saleri
Calcolo scientifico (4a Ed.)
2008, XIV+358 pp, ISBN 978-88-470-0837-3
37. C. Canuto, A. Tabacco
Analisi Matematica I (3a Ed.)
2008, XIV+452 pp, ISBN 978-88-470-0871-3
38. S. Gabelli
Teoria delle Equazioni e Teoria di Galois
2008, XVI+410 pp, ISBN 978-88-470-0618-8
39. A. Quarteroni
Modellistica numerica per problemi differenziali (4a Ed.)
2008, XVI+560 pp, ISBN 978-88-470-0841-0
40. C. Canuto, A. Tabacco
Analisi Matematica II
2008, XVI+536 pp, ISBN 978-88-470-0873-1
2010, ristampa con modifiche
41. E. Salinelli, F. Tomarelli
Modelli Dinamici Discreti (2a Ed.)
2009, XIV+382 pp, ISBN 978-88-470-1075-8
42. S. Salsa, F.M.G. Vegni, A. Zaretti, P. Zunino
Invito alle equazioni a derivate parziali
2009, XIV+440 pp, ISBN 978-88-470-1179-3
43. S. Dulli, S. Furini, E. Peron
Data mining
2009, XIV+178 pp, ISBN 978-88-470-1162-5
44. A. Pascucci, W.J. Runggaldier
Finanza Matematica
2009, X+264 pp, ISBN 978-88-470-1441-1
45. S. Salsa
Equazioni a derivate parziali – Metodi, modelli e applicazioni (2a Ed.)
2010, XVI+614 pp, ISBN 978-88-470-1645-3
46. C. D’Angelo, A. Quarteroni
Matematica Numerica – Esercizi, Laboratori e Progetti
2010, VIII+374 pp, ISBN 978-88-470-1639-2
47. V. Moretti
Teoria Spettrale e Meccanica Quantistica – Operatori in spazi di Hilbert
2010, XVI+704 pp, ISBN 978-88-470-1610-1
48. C. Parenti, A. Parmeggiani
Algebra lineare ed equazioni differenziali ordinarie
2010, VIII+208 pp, ISBN 978-88-470-1787-0
49. B. Korte, J. Vygen
Ottimizzazione Combinatoria. Teoria e Algoritmi
2010, XVI+662 pp, ISBN 978-88-470-1522-7
50. D. Mundici
Logica: Metodo Breve
2011, XII+126 pp, ISBN 978-88-470-1883-9
51. E. Fortuna, R. Frigerio, R. Pardini
Geometria proiettiva. Problemi risolti e richiami di teoria
2011, VIII+274 pp, ISBN 978-88-470-1746-7
52. C. Presilla
Elementi di Analisi Complessa. Funzioni di una variabile
2011, XII+324 pp, ISBN 978-88-470-1829-7
53. L. Grippo, M. Sciandrone
Metodi di ottimizzazione non vincolata
2011, XIV+614 pp, ISBN 978-88-470-1793-1
54. M. Abate, F. Tovena
Geometria Differenziale
2011, XIV+466 pp, ISBN 978-88-470-1919-5
55. M. Abate, F. Tovena
Curves and Surfaces
2011, XIV+390 pp, ISBN 978-88-470-1940-9
56. A. Ambrosetti
Appunti sulle equazioni differenziali ordinarie
2011, X+114 pp, ISBN 978-88-470-2393-2
57. L. Formaggia, F. Saleri, A. Veneziani
Solving Numerical PDEs: Problems, Applications, Exercises
2011, X+434 pp, ISBN 978-88-470-2411-3
58. A. Machì
Groups. An Introduction to Ideas and Methods of the Theory of Groups
2011, XIV+372 pp, ISBN 978-88-470-2420-5
59. A. Pascucci, W.J. Runggaldier
Financial Mathematics. Theory and Problems for Multi-period Models
2011, X+288 pp, ISBN 978-88-470-2537-0
60. D. Mundici
Logic: a Brief Course
2012, XII+124 pp, ISBN 978-88-470-2360-4
61. A. Machì
Algebra for Symbolic Computation
2012, VIII+174 pp, ISBN 978-88-470-2396-3
62. A. Quarteroni, F. Saleri, P. Gervasio
Calcolo Scientifico (5a ed.)
2012, XVIII+450 pp, ISBN 978-88-470-2744-2
63. A. Quarteroni
Modellistica Numerica per Problemi Differenziali (5a ed.)
2012, XVIII+628 pp, ISBN 978-88-470-2747-3
64. V. Moretti
Spectral Theory and Quantum Mechanics
With an Introduction to the Algebraic Formulation
2013, XVI+728 pp, ISBN 978-88-470-2834-0
65. S. Salsa, F.M.G. Vegni, A. Zaretti, P. Zunino
A Primer on PDEs. Models, Methods, Simulations
2013, XIV+482 pp, ISBN 978-88-470-2861-6
66. V.I. Arnold
Real Algebraic Geometry
2013, X+110 pp, ISBN 978-3-642–36242-2
67. F. Caravenna, P. Dai Pra
Probabilità. Un’introduzione attraverso modelli e applicazioni
2013, X+396 pp, ISBN 978-88-470-2594-3
68. A. de Luca, F. D’Alessandro
Teoria degli Automi Finiti
2013, XII+316 pp, ISBN 978-88-470-5473-8
69. P. Biscari, T. Ruggeri, G. Saccomandi, M. Vianello
Meccanica Razionale
2013, XII+352 pp, ISBN 978-88-470-5696-3
70. E. Rosazza Gianin, C. Sgarra
Mathematical Finance: Theory Review and Exercises. From Binomial
Model to Risk Measures
2013, X+278pp, ISBN 978-3-319-01356-5
71. E. Salinelli, F. Tomarelli
Modelli Dinamici Discreti
2014, XVI+394pp, ISBN 978-88-470-5503-2

La versione online dei libri pubblicati nella serie è disponibile


su SpringerLink. Per ulteriori informazioni, visitare il sito:
http://www.springer.com/series/5418

Potrebbero piacerti anche