Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Simulazione
• rappresentare sistemi reali anche complessi tenendo conto anche delle sor-
genti di incertezza;
D’altra parte deve essere sempre tenuto sempre ben presente il fatto che
• Variabili di stato
Innanzitutto ricordiamo che un sistema è descritto in ogni istante di tempo
da un insieme di variabili che prendono nome di variabili di stato. Quindi,
ad esempio, in riferimento ad un sistema a coda, è una variabile di stato
il numero degli utenti presenti nel sistema in un certo istante di tempo.
Ricordiamo, inoltre, che esistono sistemi discreti in cui le variabili cambiano
istantaneamente in corrispondenza di precisi istanti di tempo che sono finiti
oppure appartenenti ad un insieme numerabile e sistemi continui in cui le
variabili variano con continuità rispetto al tempo. Si osservi fin d’ora che la
scelta di un modello continuo o discreto da utilizzare non è necessariamente
obbligata dalla tipologia del sistema; si può infatti decidere, ad esempio, di
costruire un modello discreto per un sistema continuo, a seconda dello studio
che si vuole effettuare. Un esempio tipico è il caso in cui nel rappresentare
una linea ferroviaria, la posizione del treno può essere descritta da una
variabile reale che fornisce la distanza dalla stazione di origine, oppure da
variabili binarie che descrivono lo stato libero–occupato di ciascuna delle
sezioni di blocco in cui è divisa la linea.
• Eventi
Si definisce evento un qualsiasi accadimento istantaneo che fa cambiare il
valore di almeno una delle variabili di stato. L’arrivo di un utente ad un
sistema a coda è un evento, cosı̀ come il completamento di un servizio.
Esistono eventi esterni al sistema (eventi esogeni) ed eventi interni (eventi
endogeni). Ad esempio, l’inizio del servizio ad un utente che è in coda in
un sistema a coda è un evento endogeno, perché interno al sistema; l’arrivo
di un utente ad un sistema a coda è un evento esogeno.
• Entità e attributi
Le entità sono singoli elementi del sistema che devono essere definiti. Un
esempio di entità è un utente presso un sistema a coda, oppure può essere
un servente. Nel primo caso l’entità fluisce all’interno del sistema e si parla
di entità dinamica, nel secondo caso si parla di entità statica.
Le entità possono essere caratterizzate da attributi che forniscono un valore
di un dato assegnato all’entità stessa. Ad esempio, in un sistema a coda
monoservente dove le entità sono il servente e gli utenti, un attributo di
un’entità “utente” potrebbe essere il suo tempo di arrivo al sistema, mentre
il servente è caratterizzato dall’attributo “status” che può assumere valore
di “libero” o “occupato”. È chiaro che alcuni attributi possono essere di
interesse in alcuni casi e non in altri.
Le entità possono essere raggruppate in classi che sono insiemi di entità dello
stesso tipo, ovvero si possono raggruppare le entità in base ad attributi.
Se, ad esempio, consideriamo persone di sesso maschile e femminile come
utenti di un sistema a coda, essendo le entità le persone, esse possono essere
raggruppate in dua classi in base all’attributo “sesso”.
• Risorse
Le risorse sono elementi del sistema che forniscono un servizio alle entità.
Un’entità può richiedere una o più unità di risorsa e se questa non è disponi-
bile l’entità dovrà mettersi, ad esempio, in una coda in attesa che si renda
disponibile, oppure intraprendere un’altra azione. Se invece la risorsa è
disponibile, essa viene “catturata” dall’entità, “trattenuta” per il tempo
necessario e poi “rilasciata”. Un esempio di risorsa potrebbe essere data
da un operaio che sovrintende il funzionamento di una macchina che non
può funzionare senza l’operaio stesso; quando è richiesto l’utilizzo di questa
macchina, se la risora “operaio” è disponibile allora l’esecuzione del lavoro
è effettuata altrimenti si attende che ci sia risorsa (operaio) disponibile.
L’operaio verrà “trattenuto” per la durata dell’esecuzione del lavoro e poi
“rilasciato”. Si osservi che, in generale, un elemento del modello potrebbe
essere considerato parimenti un’entità o una risorsa. Questo, ovviamente,
dipende da come si è scelto di costruire un modello.
• Attività e ritardi
Un’attività è un’operazione la cui durata è nota a priori all’inizio dell’ese-
cuzione dell’attività stessa. Tale durata può essere una costante, un valore
aleatorio generato da una distribuzione di probabilità, oppure data in input
o calcolata in base ad altri eventi che accadono nel sistema. Un esempio è
dato dal tempo di servizio in un sistema a coda.
Un ritardo è un periodo di tempo di durata indefinita che è determinata
dalle condizioni stesse del sistema. Il tempo che un’entità trascorre presso
una coda prima che si liberi una risorsa della quale necessita è un ritardo.
• modelli discreti, in cui il valore delle variabili cambia in ben definiti istanti
di tempo.
Un’altra distinzione è tra:
• modelli statici, che rappresentano un sistema in un particolare istante di
tempo;
1.9 1.7
1.3 1.8
1.1 1.5
1.0 0.9
.. ..
. .
Tempo t Eventi
Limitando questa semplice simulazione al tempo t = 5.4 (in modo che due utenti
sono entrati e hanno completato il servizio), possiamo calcolare, ad esempio, il
tempo medio di permanenza nel sistema: il primo utente rimane nel sistema
1.7 minuti, il secondo 2.2 minuti e quindi il valore medio è 1.95. Questa stima,
ovviamente non ha alcun senso perché ottenuta dalla particolare sequenza di
numeri casuali delle due liste. Quindi, se l’esempio da un lato vuole mettere
evidenza il meccanismo di una simulazione ad eventi discreti, dall’altro mette fin
d’ora in evidenza un errore che si potrebbe commettere nel reputare affidabili
i risultati di una sola esecuzione e che ha avuto una durata arbitraria. D’altra
parte c’è anche da tener presente che se siamo interessati a valutare misure di
prestazioni del sistema a regime, ovvero quando sono state raggiunte condizioni di
stazionarietà, sarà necessario non prendere in considerazione il sistema durante il
periodo iniziale di transitorio. Queste problematiche rappresentano un elemento
chiave di ogni simulazione e saranno considerate in dettaglio nel seguito.
In questo paragrafo riportiamo uno schema che descrive la successione delle varie
fasi che caratterizzano uno studio basato sulla simulazione.
La simulazione è uno strumento molto flessibile: può essere utilizzata per studiare
la maggior parte dei sistemi esistenti. È impossibile enumerare tutte le aree
2.2.1 Generalità
1∑
n
X̄n = Xi .
n
i=1
X̄n è una variabile aleatoria funzione delle Xi e si verifica facilmente che risulta
σ2
E(X̄n ) = µ e V ar(X̄n ) = .
n
Varianza La varianza campionaria è data da
campiona-
1 ∑( )2
n
ria s2n = Xi − X̄n
n−1
i=1
Se è possibile raccogliere dati reali sulle variabili aleatorie di interesse, essi possono
essere utilizzati per determinare una distribuzione di probabilità che meglio li
rappresenta secondo tre metodi:
2. i dati sono raccolti per generare una distribuzione empirica, ovvero per
definire una funzione di distribuzione empirica che verrà usata per produrre
l’input della simulazione;
3. i dati raccolti sono utilizzati per definire una distribuzione teorica. Vengono
utilizzate tecniche statistiche per analizzare se una distribuzione teorica tra
quelle note sia adatta a rappresentare i dati, effettuando i test di ipotesi
per verificare la rappresentatività della distribuzione ipotizzata (problema
del “fitting”).
Un difetto dell’uso di distribuzioni teoriche sta nel fatto che esse possono generare
anche valori molto grandi (anche se con probabilità molto piccole), quando nella
pratica questi non vengono mai assunti realmente.
i−1
Si osservi che per ogni i vale F (X(i) ) = che è approssimativamente (per n
n−1
grande) la proporzione delle Xi che sono minori di X(i) .
Esempio 2.2.1 Disponendo dei seguenti valori osservati: 1, 0.4, 4, 2, 2.5, 3.6, 3 costruire il
grafico della distribuzione empirica. Dopo aver ordinato le osservazioni si ottiene il grafico della
F (x) riportato nella Figura 2.2.1.
5/6
2/3
1/2
1/3
1/6
Come abbiamo già osservato, uno svantaggio nell’utilizzare una distribuzione em-
pirica è che le variabili aleatorie generate da essa durante un’esecuzione di una
simulazione non possono essere mai più piccole di X(1) o più grandi di X(n) .
Analogamente si possono costruire distribuzioni empiriche per distribuzioni dis-
crete; infatti, è sufficiente per ogni x definire p(x) come “proporzione” delle Xi
che sono uguali ad x.
• Distribuzioni Continue
Le distribuzioni teoriche continue alle quali si può fare riferimento nella
• Distribuzioni Discrete
Le distribuzioni teoriche discrete che vengono di solito utilizzate come in-
put di una simulazione sono: la distribuzione uniforme, la distribuzione di
Bernoulli, la distribuzione binomiale, la distribuzione geometrica, la dis-
tribuzione di Poisson, la distribuzione binomiale negativa.
Verifica dell段ndipendenza
delle osservazioni
Individuazione di una
famiglia di distribuzioni
∑
n−j
(Xi − X̄n )(Xi+j − X̄n )
i=1
ρbj =
(n − j)s2n
• Statistiche riassuntive
Dalle osservazioni è possibile ricavare stime di parametri dalle quali cercare
di individuare una famiglia di distribuzioni che meglio realizza il fitting
dei dati. I parametri che di solito vengono presi in considerazione sono i
seguenti:
– l’intervallo [X(1) , X(n) ] che ha per estremi il più piccolo e il più grande
valore osservati e che approssima il range della distribuzione;
1∑
n
– la stima della media µ data X̄n = Xi ;
n
i=1
– la stima della mediana data da
{
X(n+1)/2 se n è dispari
[X(n/2) + X((n/2)+1) ]/2 se n è pari;
0 se x < b0
h(x) = hj se bj−1 ≤ x < bj , j = 1, 2, . . . , k
0 se x ≥ bk .
Il grafico di h(x) è costante a tratti e può fornire una buona indicazione sul
tipo di distribuzione che ha la variabile aleatoria in questione, confrontan-
dolo con i grafici delle densità di probabilità ignorando, per il momento,
posizione e scala, ma considerando solo la forma.
Mostriamo ora le motivazioni che sono alla base del fatto che la forma di
h(x) dovrebbe “somigliare” alla densità di probabilità f dei dati. A questo
scopo, sia X una variabile aleatoria con densità di probabilità data da f .
Allora per ogni j fissato (j = 1, 2, . . . , k), applicando il teorema della media
si ha
∫ bj
P (bj−1 ≤ X ≤ bj ) = f (x)dx = ∆b f (y)
bj−1
• Procedure grafiche
Per distribuzioni continue, si confronta l’istogramma dei dati con il grafico
della densità di probabilità della distribuzione di probabilità ipotizzata,
oppure, per distribuzioni discrete, si confronta l’istogramma con la funzione
p(x) della distribuzione ipotizzata.
Un altro possibile confronto è tra il grafico della distribuzione empirica e il
grafico della funzione di distribuzione della distribuzione ipotizzata.
• Test statistici
Come è noto, i test delle ipotesi possono essere utilizzati per verificare se le
osservazioni X1 , . . . , Xn sono un campione indipendente di una particolare
distribuzione di probabilità con funzione di distribuzione Fb. I due test piú
comuni sono i test Chi–quadro e Kolmogorov–Smirnov e sono adatti al caso
che stiamo esaminando anche se essi presentano le loro limitazioni intrin-
seche. Un’esposizione sintetica di questi due test è riportata nell’Appendice.
In alcuni casi, nella pratica, può accadere che non sia possibile raccogliere dati
sul funzionamente del sistema che si vuole studiare perchè esso è ancora in fase
di progettazione e quindi non ancora esistente. In questi casi non sono quindi
disponibili dati da utilizzare per selezionare una distribuzione di input ad una
simulazione e quindi non sono applicabili le tecniche viste fino ad ora. Senza
entrare nei dettagli, osserviamo solamente che sarà necessario far ricorso a proce-
dure euristiche che si basano sulla natura del sistema, sul ricorso a persone esperte
di sistemi della tipologia di interesse, sulle limitazioni fisiche o convenzionali del
processo in esame.
1 La notazione “ mod m ” indica la congruenza modulo m, ovvero il resto della divisione per m
Z1 = 9 ( mod 7 ) = 2
Z2 = 6 ( mod 7 ) = 6
Z3 = 18 ( mod 7 ) = 4
Z4 = 12 ( mod 7 ) = 5
Z5 = 15 ( mod 7 ) = 1
Z6 = 3 ( mod 7 ) = 3
Z7 = 9 ( mod 7 ) = 2
Proposizione 2.3.2 Sia U una variabile aleatoria uniforme in [0, 1). Allora
per ogni funzione di distribuzione continua F , la variabile aleatoria
X = F −1 (U )
ha funzione di distribuzione F .
Quindi, sulla base di questo risultato, data una distribuzione di probabilità con
funzione di distribuzione F , a partire dalla distribuzione uniforme in [0, 1) possi-
amo costruire una variabile aleatoria la cui funzione di distribuzione è F .
Esempio 2.3.4 Supponiamo di voler costruire una successione di numeri pseudocasuali come
osservazioni dalla distribuzione esponenziale, ovvero con funzione di distribuzione F (x) = 1 −
e−λx . Innanzitutto determiniamo F −1 : da u = F (x) = 1 − e−λx si ricava x = −1/λ ln(1 − u),
ovvero
1
F −1 (u) = − ln(1 − u).
λ
Quindi se U è una variabile aleatoria uniformemente distribuita in [0, 1),
1
X = F −1 (U ) = − ln(1 − U ) (2.3.1)
λ
è una variabile aleatoria con distribuzione esponenziale con media 1/λ. Quindi, data una suc-
cessione di numeri pseudocasuali con distribuzione uniforme in [0, 1), dalla (2.3.1) possiamo
ottenere una successione di numeri pseudocasuali con distribuzione esponenziale.
Esempio 2.3.6 Utilizzando quanto ricavato nel precedente Esempio 2.3.4 si può ottenere la
generazione di osservazioni casuali dalla distribuzione di Erlang. Infatti sappiamo che la somma
di k variabili aleatorie indipendenti identicamente distribuite secondo la distribuzione esponen-
ziale, ciascuna con media 1/(kµ) ha distribuzione di Erlang di parametro k e media 1/µ. Quindi
avendo una successione di numeri uniformemente distribuiti in [0, 1), u1 , . . . , uk , le osservazioni
dalla distribuzione di Erlang possono essere ottenute da
∑k
ln(1 − ui )
x=
i=1
−kµ
che è equivalente a [ k ]
1 ∏
x=− ln (1 − ui ) .
kµ i=1
Il metodo della trasformazione inversa può essere esteso ed utilizzato anche nel
caso di distribuzioni discrete, ovvero quando si assume che la variabile X sia una
variabile aleatoria discreta. In questo caso, naturalmente si ha
∑
F (x) = P (X ≤ x) = p(xi ),
xi ≤x
dove p(xi ) = P (X = xi ).
Supponiamo quindi che X assuma i valori x1 , x2 , . . . e supponiamo che essi siano
ordinati, ovvero x1 < x2 < · · · . Data una variabile U uniformemente distribuita
in [0, 1) si definisce la variabile X nel seguente modo: si determina il più pic-
colo intero positivo k̄ tale che U ≤ F (xk̄ ) e si pone X = xk̄ . Dobbiamo ora
dimostrare che effettivamente la X cosı̀ generata è quella desiderata, ovvero che
risulta P (X = xi ) = p(xi ) per ogni i. Infatti si ha:
Metodo dell’accettazione–reiezione
Il metodo della trasformazione inversa è basato sul cacolo della trasformazione
inversa F −1 che non sempre può essere calcolata o comunque non in maniera
efficiente. Per questa ragione sono stati sviluppati altri metodi fra i quali il
metodo che esaminiamo in questo paragrafo detto “acceptance–rejection” o anche
“metodo del rigetto”.
Consideriamo il caso continuo e supponiamo di voler generare osservazioni ca-
suali da una distribuzione di probabilità avente funzione di distribuzione F e
densità di probabilità f (il caso discreto si tratta in maniera del tutto analoga).
Supponiamo di disporre di un metodo per generare osservazioni casuali da una va-
riabile aleatoria Y avente per densità di probabilità una funzione g(x). Il metodo
accettazione–reiezione utilizza queste osservazioni per generare osservazioni casu-
ali dalla distribuzione di probabilità avente per densità di probabilità la funzione
f (x). In particolare, si generano osservazioni casuali della variabile aleatoria
Fi (y | I) = P (Yi ≤ y | I) ,
allora F (y) è la distribuzione stazionaria del processo di output {Yi , i = 1, 2, . . .}. Distribuzio-
Lo stato stazionario si raggiunge, in teoria, al limite per i → ∞, ma, nella pratica, ne stazio-
molto spesso esiste un indice temporale finito k̄ tale che le distribuzioni da quel naria
punto in poi rimarrano approssimativamente coincidenti. Quando questo accade,
si assume che il sistema è nello stato stazionario a partire dal tempo k̄.
Una distinzione fondamentale deve essere compiuta tra simulazioni per le quali
esiste un evento “naturale” il cui accadimento indica la conclusione della simu-
lazione stessa e simulazioni in cui questo non accade. Ad esempio, se si è inte-
ressati a simulare un sistema di code che rappresenta un ufficio postale che apre
alle 8.30 e chiude alle 14.00 e finisce di operare dopo che è stato servito l’ultimo
cliente entrato prima della chiusura, è chiaramente presente l’evento dato dal
fatto che il sistema è vuoto dopo le ore 14.00 che identifica la fine dell’operatività
del sistema stesso e quindi della simulazione corrispondente. Un’altro esempio
potrebbe essere dato da un’industria navale che ha un contratto per produrre
30 navi in 24 mesi; si vorrano simulare diverse configurazioni in cui può operare
l’industria per studiare quale permetta di evadere l’ordine entro la data fissata;
in questo caso l’evento è la fabbricazione di 30 navi. In altri casi, invece un tale
evento non esiste; si pensi, ad esempio, ad un sistema di produzione continuo in
cui si vogliono valutare misure di prestazione a regime.
Simulazione Formalmente distinguiamo i due casi parlando, nel primo caso, di simulazione con
con o senza terminazione (finita), quando esiste un evento naturale che specifica la lunghezza
termina- di ciascuna replica. In questo caso le condizioni iniziali influenzano le misure di
zione prestazione del sistema e verrà naturalmente effettuata un’analisi del transitorio.
Nel secondo caso si parla di simulazione senza terminazione nel senso che non
esiste un evento che specifica la lunghezza di una replica; in questo caso si è
di solito interessati al comportamento a regime del sistema, ovvero all’analisi
dello stato stazionario e questo può comportare che per stimare una misura di
prestazione possano essere necessari run molto lunghi della simulazione.
Si deve anche notare come in alcuni casi reali lo stato stazionario potrebbe non
essere raggiunto perché le caratteristiche del sistema cambiano nel tempo; tut-
tavia, il corrispondente modello di simulazione potrebbe raggiungerlo, poiché nel
costruire il modello si è assunto che le caratteristiche del modello non cambiano
nel tempo. In questi casi, quando ci sono cambiamenti delle caratteristiche del sis-
tema è necessario inserire questi cambiamenti nel modello ed effettuare di nuovo
lo studio.
∑
n
Xi
i=1
X̄n =
n
e lo stimatore (corretto) della varianza dato da
∑
n
(Xi − X̄n )2
i=1
s2n = .
n−1
Inoltre, dato α ∈ (0, 1), un intervallo di confidenza approssimato al 100(1 − α)%
è dato da √
s2n
X̄n ± tn−1,1− α2 ,
n
dove tn−1,1− α2 è il punto critico (1 − α2 ) della distribuzione t student a n − 1 gradi
di libertà. Indicando con
√
s2n
δ(n, α) = tn−1,1− α2 (2.4.3)
n
la semiampiezza dell’intervallo di confidenza, si può scrivere l’intervallo di confi-
denza nella forma
[ ]
X̄n − δ(n, α) , X̄n + δ(n, α) .
La (2.4.4) afferma che l’errore assoluto commesso è pari al più a β con proba-
bilità pari ad almeno 1 − α. Quindi, se, ad esempio, costruiamo 100 intervalli di
confidenza al 90% utilizzando il criterio di arresto sul numero delle repliche che
abbiamo adottato, ci aspettiamo che l’errore assoluto X̄n − µ sia al più pari a
β in circa 90 dei 100 casi, mentre nei rimanti 10 casi l’errore assoluto potrebbe
essere maggiore di β. Esistono regole che determinano il numero minimo n⋆a di
repliche da effettuare affinché la (2.4.4) sia soddisfatta; una delle più semplici è
la seguente:
n⋆a = min {n ≥ 2 | δ(n, α) ≤ β} .
Errore Per quanto riguarda l’errore relativo, si richiede che il numero di repliche n da
relativo effettuare sia tale che risulti
( )
|X̄n − µ|
P ≤ γ ≥ 1 − α, α ∈ (0, 1), γ > 0. (2.4.5)
|µ|
Anche in questo caso esistono regole empiriche che forniscono il valore del numero
minimo n⋆r di repliche da effettuare affinché la (2.4.5) sia soddisfatta; una di queste
è la seguente: { }
δ(n, α) γ
nr = min n ≥ 10 |
⋆
≤ .
|X̄n | 1+γ
Il termine γ/(1 + γ) deriva dal fatto che nel calcolare l’errore relativo stiamo
utilizzando |X̄n |, ovvero una stima di |µ| e non il valore esatto |µ|. Infatti,
supponiamo di aver effettuato un numero di repliche sufficienti a garantire che
risulti
δ(n, α)
≤ L. (2.4.6)
|X̄n |
Allora si ha
( )
( ) |X̄n − µ| δ(n, α)
1 − α ≈ P |X̄n − µ| ≤ δ(n, α) = P ≤ ≤
|X̄n | |X̄n |
( ) ( )
|X̄n − µ|
≤ P ≤ L = P |X̄n − µ| ≤ L|X̄n − µ + µ| ≤
|X̄n |
( ) ( )
|X̄n − µ| L
≤ P (1 − L)|X̄n − µ| ≤ L|µ| = P ≤ .
|µ| 1−L
Quindi, affiché valga la (2.4.5) si deve avere L/(1 − L) = γ, ovvero L = γ/(1 + γ).
Per applicare nella pratica quanto ora discusso sono state definite due strategie
generali:
• procedura a due fasi: in una prima fase vengono effettuate n0 repliche sulla
base delle quali si calcola s2n0 e la semiampiezza dell’intervallo di confidenza
δ(n0 , α). Poi, eventualmente, si effettuano altre repliche fino al raggiungi-
mento della precisione desiderata non ricalcolando la stima della varianza
all’aumentare delle repliche;
Anche in questo caso, se tale valore n⋆r è maggiore del numero delle repliche
già effettuate n0 , sarà necessario effettuare n∗r − n0 repliche aggiuntive fino al
soddisfacimento della disuguaglianza.
Procedura iterativa
Quanto visto nel paragrafo precedente presenta l’inconveniente di utilizzare la
stima della varianza basata sulle n0 repliche fissate nel calcolo del numero di
repliche necessarie per ottenere una precisione desiderata. Tuttavia tali stime
potrebbe essere imprecise e quindi questo potrebbe portare ad una scelta del nu-
mero delle repliche troppo grande con notevole spreco di tempo di calcolo, oppure
tale numero potrebbe essere troppo piccolo e quindi, di fatto, non si otterrebbe la
precisione voluta. Infatti, se s2n0 è una sottostima della varianza, allora il numero
di repliche necessarie determinato dalla procedura è più piccolo del necessario,
mentre se s2n0 è una sovrastima della varianza, allora tale numero è più grande
del necessario e quindi vengono effettuate repliche inutili. Questo inconveniente
può essere superato utilizzando una procedura iterativa che ha lo scopo di deter-
minare una stima di µ con errore relativo pari a γ (o assoluto pari a β) e intervallo
di confidenza del 100(1 − α)%. La differenza fondamentale rispetto alla proce-
dura a due fasi vista nel paragrafo precedente sta nel fatto che, ad ogni replica
aggiuntiva eventualmente effettuata, viene ricalcolata la stima della varianza che
invece nel caso precedente rimaneva fissata a s2n0 . Uno schema algoritmico che
permette di ottenere una stima di µ con errore relativo non superiore a γ ovvero
che permette di soddisfare la (2.4.5) è il seguente:
∑
m
Yj
j=1
Ȳm = . (2.4.7)
m
Tuttavia, a causa del transitorio iniziale dipendente dalla scelta delle condizioni
iniziali, Ȳm non è uno stimatore corretto in quanto è possibile che E(Ȳm ) ̸= µ per
ogni m.
Questo problema è detto problema del transitorio iniziale o problema dello startup. Problema
Per superare questo problema si utilizza una tecnica di cancellazione dei dati ini- dello
ziali detta anche “warming up” del modello che consiste nel non considerare nella “startup”
stima le prime osservazioni che sono quelle più influenzate dalle condizioni iniziali.
Quindi, invece di utilizzare la stima Ȳm data dalla (2.4.7), si considera
∑
m
Yj
j=ℓ+1
Ȳ(m,ℓ) = ,
m−ℓ
{ }
Passo 4: Si sceglie quel valore di ℓ oltre il quale la successione Ȳj (k) appare
giunta a convergenza.
• per quanto riguarda la lunghezza delle repliche m, essa dovrà essere suffi-
cientemente grande tanto da essere più grande del valore che ci si aspetta
per ℓ e tale da permettere nella simulazione un numero elevato di occorrenze
di tutti gli eventi, anche quelli poco probabili;
• per quanto riguarda il valore del time window k, esso deve essere sufficiente-
mente grande da rendere regolare il grafico delle Ȳj (k), ma non cosı̀ grande
da non permettere l’individuazione del transitorio.