Sei sulla pagina 1di 131

ENTE PER LE NUOVE TECNOLOGIE

L’ ENERGIAE L’ AMBIENTE

PROGETTO FIT
da Fire In Tunnels
a
Functionally Intelligent Tunnels

TUNNEL
INTELLIGENTI
Gallerie dinamiche e analisi di rischio
variabile nel tempo

Nicola Pacilio, Attilio Sacripanti

Prefazione
a cura del Professor Carlo Rubbia
ENTE PER LE NUOVE TECNOLOGIE
L’ ENERGIAE L’ AMBIENTE

PROGETTO FIT
da Fire In Tunnels
a
Functionally Intelligent Tunnels

TUNNEL
INTELLIGENTI
Gallerie dinamiche e analisi di rischio
variabile nel tempo

Nicola Pacilio, Attilio Sacripanti

Prefazione
a cura del Professor Carlo Rubbia
Guida ragionata a sei letture “speciali” del testo

P + L : Lettura essenziale
P + L+1 : Visione storica
P + L +1 +6 + 10 : Panoramica tecnologica
P + L +1 +2 + 3 + 4 + 5: Filosofia logica del Rischio
P + L +7 +8 + 10: Rischio “dinamico” in galleria
P + L +3 +7 + 9: Matematica del “Tunnel Intelligente”

P = Prefazione
L = Le Ragioni del libro
1,2,3….= Numerale del capitolo

2
I N D I C E
Prefazione

Le ragioni del libro

Prima Parte “Il Rischio”

1 Dall’Eufrate alla Manica

1.1 I tunnel nell’antichità


1.2 Storia dei trafori alpini
1.3 6 Maggio 1994
1.4 Fatti e cifre dell’Eurotunnel
1.5 18 Novembre 1996 incendio nell' Eurotunnel

2 La percezione intuitiva del rischio

2.1 Rischio e Pericolo


2.2 Rischio come precursore del Pericolo
2.3 Il Rischio come realtà soggettiva

3 La scienza del rischio

3.1 Possibile: Potenziale o Probabile?


3.2 Probabilità ed alea
3.3 Probabilità e rischio
3.4 Rischio stocastico

4 La previsione del rischio

4.1 Il forecasting
4.2 Il forecasting come modello di futuro
4.3 L’analisi classica del rischio meriti e limiti
4.4 FMEA (Failure mode and effect analysis)
4.5 Ragionamenti e problemi in sistemi intelligenti

5 La percezione razionale del rischio

5.1 Rischi e perdita Economica


5.2 Razionalizzazione dell’intuizione percettiva
5.3 Probabilità di sopravvivenza
5.4 Il rischio come realtà oggettiva ?

3
Seconda Parte “Il Rischio nella Galleria Dinamica”

6 Sicurezza della galleria

6.1 Strutture fisse


6.2 Strutture mobili
6.3 Strutture e Sistemi di controllo
6.4 La Sala di controllo

7 La natura aleatoria del traffico

7.1 Causalità e casualità nei processi


7.2 Il traffico come processo stocastico
7.3 Traffico veicolare
7.4 Traffico pedonale

8 L’evoluzione del rischio

8.1 Dal rischio “statico” al rischio “dinamico”.


8.2 Il rischio variabile nel tempo
8.3 Modelli previsionali
8.4 L’analisi costi-benefici della prevenzione
8.5 Il Progetto FIT ed il concetto di “Sicurezza Efficace”

9 Verso un controllo automatico della galleria

9.1 Dalla galleria statica alla galleria dinamica


9.2 HIT ( Hazard In Tunnel, ovvero Hazard In Time )
9.3 Sistemi di controllo del traffico
9.4 Dalla galleria dinamica al Tunnel Intelligente

10 Il Tunnel Intelligente

10.1 L’intelligenza come prevenzione.


10.2 Le soluzioni possibili.
10.3 Le due applicazioni pratiche del FIT ENEA.
10.4 La galleria stradale.
10.5 La galleria metropolitana

Appendice

4
Prefazione

Perché l'ENEA ha deciso di interessarsi della sicurezza dei tunnel ? Quali sono i motivi che
ci spingono e quali sono gli scopi che ci prefiggiamo ? Perché pensiamo che sia importante
che l'ENEA stabilisca una operazione di collaborazione tra tutti gli enti, che hanno
conoscenze e competenze su queste tematiche al fine di risolvere alcuni importanti
problemi del settore. In prima istanza perché l’ENEA ha un bagaglio di 50 anni di
esperienza nel settore della sicurezza, connesso con l’innovazione tecnologica.
Vorrei ricordarvi che l'ENEA, a tutt’oggi, sta trascorrendo una fase di forte
riorganizzazione nel quadro di una riforma che riguarda tutta la scienza e la ricerca nel suo
insieme. Noi stiamo seguendo un orientamento che viene dall'alto, dal governo e dal
ministro, il quale ha recentemente fatto suo il compito di trasformare il nostro paese in
modo da renderlo competitivo per quanto riguarda la ricerca e lo sviluppo.
Ricordiamo che l'Italia è il quinto paese al mondo per quanto riguarda la capacità di
produrre, quindi in termini di prodotto nazionale lordo (PNL), ma, per quanto riguarda la
competizione tecnologica, è soltanto il quarantesimo.
In un ambiente caratterizzato da una economia globale e anche nell'ambito di una Europa
unita, questa situazione non può funzionare. Alcuni paesi guida spendono il 3% del PNL
per la ricerca e lo sviluppo, mentre il nostro paese ne spende soltanto l'1%.
L'Europa a due velocità non esiste quindi soltanto per le questioni monetarie, esiste anche
per quello che riguarda i problemi della competitività industriale. Il pericolo è che si crei
una grossa spaccatura tra i paesi che spendono quanto dovuto per mantenersi al passo e tra
i paesi che, come l'Italia, restano indietro sperando nell'aiuto dei primi. Questo aiuto non
verrà mai ! E' quindi il caso di rimettere le cose in ordine. In questo quadro generale, il
ruolo dell'ENEA risulta fondamentale: tra i tanti enti di ricerca l'ENEA rappresenta
l'elemento di unione tra la ricerca industriale, applicata e che serve al cittadino e la ricerca
fondamentale.
Esistono altri istituti, come il CNR, lo INFN, lo INFM, che operano ricerca a lunga
distanza di "ritorno", su tematiche importanti relative alla struttura della materia. Da
un'altra parte, esiste una industria che deve riuscire a vendere, a guadagnare, a chiudere i
bilanci. In mezzo esiste una zona grigia, la quale comprende tutte quelle tematiche dalle
soluzioni troppo lontane perché possano essere prese in mano dall'industria, ma nello
stesso tempo abbastanza vicine da poter diventare un prodotto utile per la creazione di
posti di lavoro, guadagno, miglioramento delle condizioni di vita. In questo tipo di finestra,
in questa nicchia si colloca la funzione dell'ENEA. Quindi, dobbiamo cercare di
identificare una serie di programmi e di progetti, che amerei definire "portanti", i quali
possano in qualche modo rassicurare il cittadino che i soldi da lui versati, il cosiddetto
denaro pubblico, siano spesi e messi in opere per rispondere a quelle che sono le volontà e
le esigenze del cittadino stesso.
Se ne deduce che per noi è fondamentale trovare un certo numero di soggetti, nei quali le
nostre conoscenze tecniche e scientifiche, non in competizione con l'industria ma come
fase preparatoria, possano interagire con quella di altri partner. In breve, noi diamo quelle
che sono le nostre competenze e professionalità e gli altri faranno lo stesso. E' lontana da
noi la tentazione di fare il lavoro degli altri: però dobbiamo chiarire operativamente quale
sia la nostra funzione. In questo quadro, vorrei ricordare che anche l'ENEA ha trascorso un
lungo periodo (poco più di 40 anni), in cui l'ENEA si è occupata di energia nucleare: era la
missione a esso affidata. Poi si è verificata una inversione di tendenza in cui dall'alto è
stato detto che l'ENEA avrebbe dovuto occuparsi di altro.
Devo dire che la maggioranza della popolazione attiva dell'ENEA ha risposto in maniera
straordinariamente flessibile a questo mutamento di rotta: si è verificata una riconversione
interna a dir poco eccezionale. Molti ricercatori, che avevano imparato il loro mestiere nel
5
nucleare, si sono resi conto che il know-how acquisito poteva essere applicato con grande
efficacia anche in altri settori. Uno degli elementi fondamentali di valutazione che è stato
introdotto dalla ricerca in tema nucleare è il concetto di rischio. Il reattore nucleare è un
oggetto fisico la cui operazione che desta una serie di grandi preoccupazioni. Deve essere
trattato, condotto e gestito con regole che non lasciano possibilità al verificarsi di errori.
Questo tipo di filosofia, questo punto di vista, questa circostanza per cui il rischio va
calcolato, analizzato, compreso: e soprattutto mitigato. Se, in un reattore nucleare, si
danneggia o si rompe una valvola o una pompa, esistono valvole o pompe già pronte per
essere attivate a sostituire quella che funziona in maniera impropria.
Sempre nell'ambito del reattore nucleare, esiste una tradizione basata su operazioni di
simulazione di malfunzionamenti in modo da essere in grado di prevedere le conseguenze
di particolari situazioni incidentali. Gli operatori, che lavorano alla consolle del reattore in
una o più sale di controllo dell'impianto, sono stati istruiti a come comportarsi in presenza
di allarmi (di varia e molteplice gravità e pericolosità). In pratica esiste tutta una serie di
sensori e di macchinari in condizione di aiutare l'uomo a sapere gestire il rischio previsto
e/o imprevisto. Questa gestione non è una funzione che si può improvvisare, è piuttosto
una scelta che si programma. Direi quasi che è una sorta di matematica probabilitstica in
cui si guardano gli eventuali incidenti con il senno di prima invece che con il senno di poi.
Esiste, in Italia e nel mondo, un numero assai elevato di persone che ha imparato a gestire
un oggetto pericoloso come un reattore nucleare.
Nel reattore uno degli eventi più pericolosi è il cosiddetto meltdown ovvero la fusione del
nocciolo, la parte più interna del reattore. Questa circostanza comporta la formazione di
una enorme quantità di calore che sfugge a ogni controllo e induce conseguenza
catastrofiche, tra cui la produzione di dosi spesso letali di radiazione. A noi non è sfuggito
che questo tipo di conoscenze possa essere trasferito ai 2000 km di tunnel presenti nel
nostro paese. Per citare una semplice (quasi ingenua) analogia: un camion carico di
margarina che prende fuoco in un tunnel è l'equivalente di un evento di meltdown in un
reattore. Quindi le tecnologie e le metodiche, che abbiamo imparato a utilizzare nel caso
dei reattori, possano essere trasferite con i dovuti adattamenti al caso della sicurezza delle
gallerie. Le gestione del rischio nelle gallerie diventa in questo caso un problema di
tecnologia avanzata, di tecnologia intelligente.
Andiamo quindi incontro alla sicurezza del cittadino che quando attraversa un tunnel vuole
essere garantito sul corretto funzionamento di questo sistema nei suoi confronti, vuole che
questa sua decisione rappresenti un rischio accettabile.
Come si attuano questi studi sulla sicurezza delle gallerie ? In primo luogo attraverso
simulazioni. Studiare quindi il flusso e deflusso dell'aria, il comportamento dei materiali, la
presenza di vettori all'interno del tunnel, lo sviluppo del fuoco e così via: si tratta quindi di
studi di fisica e di chimica applicata. Sono applicazioni di una fenomenologia che si può
simulare su un computer e si può confrontare con i dati sperimentali ottenuti attraverso
incendi innescati in gallerie di prova, in test provocati ad hoc per studiare il
comportamento dei vari processi coinvolti. Come dicono i francesi, si tratta di mettersi in
condizioni di "prevenire invece che di guarire".
Si arriva così al concetto fondamentale di tunnel intelligente.
Una galleria che in ogni istante "conosce" che cosa sta accadendo al suo interno, che "sa"
quello che sta transitando tra l'ingresso e l'uscita del sistema, compreso l'eventuale carico
di automezzi pesanti. Si tratta chiaramente di una galleria computerizzata: in grado di
esercitare funzioni diagnostiche e funzioni di controllo. La sala di controllo di un tunnel
non sarà quindi sofisticata e complessa come quella di un reattore ma ne assume molte
delle caratteristiche essenziali. Vale a dire, gli operatori alla consolle sono in grado, istante
per istante, di sapere che cosa sta succedendo all'interno della struttura in analisi. Come si
vede, il tunnel intelligente dovrà essere dotata di una serie di elementi sensoristici e di una

6
serie di procedure di software in grado di realizzare una analisi dei dati, provenienti dai
sensori, in tempo reale. Perché in tempo reale ? Perché a nessuno interessa che cosa è
successo nel tunnel tre mesi dopo ma neppure un quarto d'ora dopo: la sicurezza del tunnel
dipende dalla conoscenza istantanea della situazione che si è sviluppata.
L'insieme degli elementi menzionati a proposito del tunnel intelligente finisce per
costituire una serie di regole, una sorta di manuale di primo soccorso, di pronto intervento
previsto per qualsiasi evenienza. Quando in un aereo vola e si presenta un problema, il
pilota generalmente va a consultare, diciamo, la pagina 1785 del quinto volume del
manuale di volo, dove viene descritta esattamente la procedura da adottare per quella
particolare evenienza. Il tunnel deve quindi essere dotato di una base di dati che copra tutte
le eventualità. Se poi, in caso di incidente, qualcuno (il vigile del fuoco) deve entrare nel
sistema, deve essere in grado di sapere esattamente, attraverso il display di un apparecchio
portatile, quali condizioni spaziali, strutturali e chimico- fisiche troverà all'interno del
tunnel. Se le condizioni sono quelle del massimo incidente prevedibile, sarà un robot a
entrare al suo posto.
E' chiaro che il tunnel diventa in tal modo un sistema complesso, dove partendo da mezzi
semplici (non vogliamo certamente che la galleria diventi un ordigno da guerre stellari) si
giunga a tecnologie avanzate di una certa sofisticazione.
Dico ai lettori di questo testo che: noi dell'ENEA vogliamo applicarci alla sicurezza delle
gallerie, con modestia ma anche con competenza. Mi auguro che questo testo possa essere
il primo di una serie di “incontri”, che possano permetterci di stilare insieme un piano, un
programma altamente tecnico su base nazionale. Sarà compito di persone, più competenti
di me in questo settore, condurre avanti questa iniziativa in una serie di passi non
esageratamente ambiziosi, ma ragionevolmente semplici e concreti.
D'altra parte, le impostazioni eccessivamente complicate hanno la tendenza a essere
intellettualmente molto eccitanti ma anche a rivelarsi difficili da risolvere. Cerchiamo di
evitarle. Vorremmo che voi lettori ci diceste: questo non va bene, questo non funziona,
perché non lo fate diversamente e così via.
Credo che questi siano gli elementi qualificanti di una collaborazione tecnica volta a
sviluppare un piano nazionale. Ora, dopo questa mia introduzione a carattere generale,
vorrei passare la parola, anzi la penna, all'amico Sacripanti ed ai suoi ottimi collaboratori, i
quali formuleranno “per iscritto” una descrizione più ravvicinata dei fondamenti
metodologici dei “Tunnel Intelligenti” e del progetto FIT.

Professor Carlo Rubbia


Roma gennaio 2001

7
Le ragioni del libro
A pinch of probably is worth more than a pound of perhaps.
Un pizzico di probabilità vale assai più di un sacco di forse.
(James THURBER)

Il metodo di lavoro. L'aggettivo chiamato in causa dal titolo del libro che state leggendo è
intelligente. Di squisita ed elogiativa pertinenza umana, esso tende oggi a essere
rimpiazzato da eufonismi britannici del tipo soft oppure smart, il primo con connotazione
chiaramente informatica, il secondo con una derivazione intermedia tra i fumetti e il jet-set.
Il sostantivo, che compare nel titolo del libro, è invece tunnel, anglosassone tout-court. Il
suo corrispondente italiano, galleria, è antico quanto l'uomo, viene dal mondo del diasagio,
della fatica, del lavoro, ottimizzato nel tempo dalle discipline varie dell'ingegneria civile e
più recentemente divenuto contenitore di alcune innovazioni tecnologiche importate da
altre attività scientifiche a fini applicativi.
Il matrimonio tra i due termini è possibile e diventa comprensibile soltanto se la loro
iniziale lontananza viene colmata da un lungo ponte (ma non si parlava di gallerie ?) i cui
piloni sono rappresentati da concetti, grandezze fisiche, metodi matematici, convenzioni
sociali, quali il pericolo e la sua percezione, il pericolo e la sua previsione, ancora il
pericolo e la sua prevenzione. Si tratta quindi di introdurre definizioni, concetti di base,
teorie esemplificative e procedure di organizzazione e controllo relativi alle seguenti
tematiche: rischio, traffico, probabilità, processi casuali, modelli matematici di previsione,
il concetto di dinamicità di una galleria, la gestione intelligente del tunnel.

Elogio dell’analogia. Ciascuna delle tematiche appena elencate deriva da settori assai
specialistici che non sono attinenti da vicino ai problemi delle gallerie. Il rischio nasce
come grande tematica riguardante la sicurezza degli impianti nucleari: essa si è diffusa a
macchia d'olio su tutto l'universo della innovazione tecnologica. Qualche grande specialista
garantisce che, secondo i criteri attuali, ben difficilmente l'automobile avrebbe mai
raggiunto il mercato degli utenti. Il traffico veicolare costituisce ormai una nostra
inevitabile tribolazione giornaliera ma anche uno degli esempi macroscopici più rilevanti e
tangibili di processo la cui natura non segue le leggi deterministiche del tipo causa-effetto
ma invece si presenta con caratteristiche di casualità, e il suo sinonimo aleatorietà
descrivibili soltanto da distribuzioni di probabilità. Questi termini sono praticamente
equivalenti con la sola eccezione dell'aggettivo stocastico, che deve venire inteso come
caratteristico di un processo di natura probabilistica e dipendente dal tempo. Per prevedere
istante per istante le modalità di caduta di un grave lungo un piano inclinato esistono le
leggi della meccanica di Newton e le verifiche sperimentali suggerite da Galileo.
Per prevedere eventi di natura probabilistica e/o stocastica esistono modelli matematici di
previsione che si poggiano su trattazioni altrettanto serie e canonizzate, con fondamenti
analitici pienamente comprensibili e verificabili sperimentalmente come tutte le leggi della
fisica che si rispettano. Alla luce dell'ottica appena menzionata, la natura statica di una
galleria come corpo a sé stante si trasforma in quella dinamica di una galleria che non è
mai uguale a sé stessa perché ospita situazioni di traffico sempre nuove e piene di
incertezza, le quali possono essere però classificate in modo da costituire una sorta di
rapporto di sicurezza. In definitiva, sia le strutture fisse e mobili, sia gli operatori che le
seguono istante per istante vengono messi in grado di seguire codici di comportamento tali
da garantire sempre e ovunque il massimo controllo delle situazioni che possono
verificarsi.

8
Repetita juvant. Rimaneva il problema di come esprimere tutte queste nozioni, a volte
assai eterogenee, con un linguaggio comune, intermedio: rigoroso, ma non severo e
punitivo. L’esigenza del rigore scientifico ha fatto scegliere la strada del ricorso agli esperti
di settore, riportando quanto da loro pubblicato in proposito. Sarebbe comunque stato
inutile volere mettersi in concorrenza con le massime autorità del settore e pretendere di
scrivere sull'argomento specifico concetti troppo semplici dettati dall'ambizione, mai
realizzabile, di raccontare le vicende a modo proprio. Un esempio: per presentare la
tematica sul rischio, perché non ricorrere a un numero monografico della notissima rivista
Science, cominciando dall'editoriale, anche se un po' troppo americanizzante, del suo
redattore-capo ? I lettori impareranno molto presto, a loro spese, quanto sia difficile
parlare, e soprattutto scrivere, di rischio dando i numeri giusti e non quelli già
addomesticati dai vari attori sociali in gioco su questioni così delicate di ricaduta sociale. I
processi stocastici sono illustrati, a livello divulgativo, tramite eccezionali pubblicazioni da
parte dei medesimi autori che hanno approfondito con grande maestria l'ardua matematica
che questi processi coinvolgono. Appariva un delitto non dare a costoro la parola e
garantire a tutto quello che é contenuto nel libro una etichetta di rigore e di ufficialità,
irraggiungibili in alcun altro modo più mediato e riduttivo. Lo stesso vale per le tecniche di
forecasting (modelli matematici di previsione), per il failure mode and effect analysis, per
le procedure di ragionamento probabilistico in sistemi intelligenti, per l'analisi di rischio
dipendente dal tempo in cui è stato chiesto il contributo dell'ingegneria sismica e dei suoi
esperti nella analisi di serie temporali di terremoti. E così via.
Lavorando per citazioni, abbiamo finito con il comporre, nella prima parte del libro, una
sorta di antologia tematica critica. E l'aggettivo "critico" assume una particolare valenza.

In primis, esso rispecchia i valori selettivi dell'operazione di scelta e organizzazione del


materiale citato: nella marea quasi infinita di riferimenti bibliografici sugli argomenti dei
primi cinque capitoli, gli autori hanno scelto le argomentazioni più chiare, esplicative e
autosufficienti con una dovizia di esempi e di divagazioni che, a prima vista eccessivi e
fuorvianti, hanno tutta una loro ragione d'essere per illustrare con sufficiente profondità i
concetti discussi.

In secundis, il libro intende offrirsi a una gamma molto vasta di lettori, alcuni dei quali si
avvicinano per la prima volta a una trattazione logico-filosofica delle tematiche della
intelligenza artificiale. Il lettore esperto valuterà di persona, pagina per pagina, se e quali
capitoli possono essere omessi, quali letti e quali riletti. Il ricercatore senior con più di 35
anni di esperienza non è certamente il destinatario di questa pubblicazione: non a caso nel
testo non saranno presenti trattazioni matematiche estese, bensì argomentazioni di Logica
applicata.
Una volta individuati e chiariti i ruoli dei vari ingredienti matematici necessari per lo
svolgimento della tematica della sicurezza, è arrivato il momento di comporli insieme per
formare la parte fondamentale ed originale del libro.
Questo libro costituisce infatti il primo tentativo di superare le limitazioni insite in una
visione classica e “statica” del rischio in una galleria, per cui nella seconda parte si
sviluppa ed approfondisce la tematica del rischio “dinamico” variabile nel tempo sino a
sfociare nei concetti concatenati di “Sicurezza Efficace”, “Galleria Dinamica”, “Tunnel
Intelligente”.

9
Alla soluzione di problemi si è contrapposta la prevenzione delle
crisi conseguenti; alla contabilità di malfunzionamenti si è
sostituito l’ abbattimento delle cause d’allarme; ai convenzionali
sensori di controllo si è integrato un sistema di reti probabilistiche
di “Sicurezza Efficace”.
In sintesi, il libro rappresenta una transizione metodologica dalla
quantificazione dell’affidabilità di una galleria alla riduzione
preventiva del grado d’inaffidabilità insito nella stessa galleria
A tale scopo nella seconda parte del testo vengono introdotti i
nuovi concetti di

(i) rischio variabile nel tempo;


(ii )sicurezza efficace;
(iii) galleria dinamica;
(iv )funzioni di hazard nel tunnel e
(v) tunnel intelligente.

Riguardo al metodo usato, diceva in proposito Michel de Montaigne (1533-1592), grande


scrittore francese, famoso per i suoi aforismi, cui certo non mancavano parole giuste per
esprimere sue opinioni: "Amo citare i grandi autori, quando i loro pareri coincidono con i
miei. Citarli aggiunge autorità e vigore alle mie dichiarazioni". Un suo illustre
connazionale chiarisce “ la saggezza umana rimane sempre la stessa anche se applicata agli
oggetti più disparati e non viene cambiata dalla loro diversità più di quanto la luce del sole
venga cambiata dalla varietà degli oggetti che illumina” ( Descartes Regola I , Oevres,
vol X, pag.360 )

Buona lettura.

Gli autori,

Roma, 30 gennaio 2001

10
Prima Parte “Il Rischio”

11
Dall’Eufrate alla Manica

1 Dall’Eufrate alla Manica

1.1 I tunnel dell'antichità

La più antica galleria della quale si abbia notizia è quella costruita intorno al 2180 a.C. a
Babilonia: passava sotto il fiume Eufrate, era lunga circa 1 km, aveva finalità militari ma
era aperta al pubblico in occasione di ricorrenze e festività. Gallerie di notevole impegno
sono state costruite dagli Egiziani in connessione con gli accessi alle piramidi, dai Greci a
Samo intorno al 700 a.C. Sono state scoperte antiche gallerie in Nubia, India e tra i resti
archeologici della civiltà Azteca.
Recente è il ritrovamento in Gerusalemme della galleria Gihon - Siloa usata per il
convogliamento delle acque, lunga 535 m e risalente circa al 200 a.C.
Etruschi e Romani sono stati grandi ingegneri civili e hanno costruito gallerie di tutte le
dimensioni la più nota è quella sotto la collina di Posillipo sulla strada tra Napoli e
Pozzuoli ( circa 700 m di lunghezza e dai 4,5 ai 5,2m di larghezza con due fori d’areazione
inclinati che servivano anche da illuminazione, secondo le rilevazioni di Amedeo Maiuri, il
quale ne ammirò anche il perfetto allineamento, che permetteva di vedere il sole all’altra
uscita in un’ora particolare di un determinato giorno del mese di Giugno, la sua
costruzione risale al 100 a.C. in seguito esso venne anche pavimentato e fu usato
ininterrottamente fino alla fine del 1800 ), in un periodo successivo 76-77 sotto Vespasiano
fu aperta la galleria del passo del Furlo (38m ) lungo la Via Flaminia.
Si giunge poi al canale di drenaggio di Menilmontant lungo 468 m e risalente al 1370 e
via, via ad esempi più recenti, come: Le canal du midi 173m (1680), il primo San Gottardo
64m (1707) , la Sanitation de Paris 6128m (1740 ), ecc.
Tuttavia la costruzione di lunghe gallerie è stata incentivata in epoca relativamente recente
con lo sviluppo delle linee ferroviarie: data la notevole rigidità del loro tracciato, la loro
costruzione ha imposto la realizzazione dei grandi trafori montani o in alcuni luoghi come
il Giappone, sottomarini come il tunnel di Seikan 1988 ( 54 Km di cui 23 sotto il mare).
In epoca ancora più recente, la costruzione di autostrade e superstrade implica la
costruzione di lunghe e frequenti gallerie.
In Italia, esempi tipici sono il cosiddetto Tratto Appenninico dell'Autostrada del Sole tra
Firenze e Bologna e più ancora la Genova - Sestri Levante.

1.2 Breve storia dei trafori alpini

Una galleria tra Piemonte e Provenza. Il primo traforo delle Alpi è il Buco di Viso, in
alta Valle Po, scavato a mano, a colpi di scalpello tra il 1476 e il 1484, circa un decennio
prima della scoperta dell'America da parte di Cristoforo Colombo. Il marchese di Saluzzo,
Ludovico II, ordinò la costruzione di questa straordinaria galleria di frontiera (lunga 75 m,
alta 2 m, larga 2.5 m) non per spirito d'avventura o per amore della tecnologia, ma per
calcolo. Egli intendeva infatti promuovere gli scambi commerciali tra il Piemonte e la
vicina Provenza francese. Per aprire il passaggio nella roccia, chiamato anche Pertus’d
Viso oppure Pertus’dla Traversetta, le maestranze lavorarono a ritmo serrato per 8 anni. Si
trattava di un'opera avveniristica e senza pari: oggi è parzialmente ostruita, ma ancora
raggiungibile, ben visibile ed esplorata dagli escursionisti ai 2882 m di altitudine
dell'imbocco italiano. Il traforo di Viso consente di evitare gli ultimi tornanti di una ripida
e pericolosa mulattiera al Colle delle Traversette. Mette al riparo dall'alto rischio di
valanghe e fin dal XV secolo è stata frequentatissima, a piedi o a dorso di mulo, nonostante
l'imposizione di un pesante pedaggio doganale. Il marchesato di Saluzzo utilizzava la sua
galleria per procurarsi il sale anche d'inverno e i mercanti erano incoraggiati
all'esportazione di prodotti agricoli e artigianali. Anticipando in tutto e per tutto la funzione

12
Dall’Eufrate alla Manica

dei moderni trafori transalpini, il Buco di Viso operava 500 anni fa una vera e propria
rivoluzione nei rapporti commerciali, nelle relazioni diplomatiche e nelle strategie militari
dei signori francesi e italiani, improvvisamente avvicinati dalla nuova strada. Una prova
del rilievo e del peso esercitato da questa prima galleria sull’economia delle regioni
circostanti si ricava dalle minuziose trattative che ne accompagnarono la costruzione. Con
il traforo, le condizioni del mercato sarebbero state improvvisamente mutate
dall'accelerazione degli scambi. Il traforo stesso cambiò non poco le regioni che metteva in
collegamento. Per controllare il rispetto degli accordi commerciali, era stato necessario
istituire in alta quota un servizio di dogana: in valle Po e nelle vallate francesi era
aumentato notevolmente il numero di soldati e di pubblici ufficiali. Erano stati costruiti
posti tappa e strutture di servizio per i viaggiatori, riparate e fortificate mulattiere,
approntate strade e ponti perché muli e carrette potessero viaggiare agevolmente dai porti
di mare verso le montagne. Dalla Provenza arrivavano con il sale (circa 10mila vasi di sale
all'anno), drappi, stoffe, mobili, cavalli, bestiame. Dall'Italia passavano al di là delle
montagne riso, lana, pelli: la Valle Po si arricchì notevolmente e per molti anni i paesi di
Crissolo, Paesana, Barge, Sanfront e Revello godettero dei benefici di un commercio
fiorente.

Un pertuso scavato a mano. Un altro antico traforo da primato, in Valle di Susa, sopra
Chiomonte, è il pertuso di Touilles, 450 m di galleria nella roccia, scavato tra il 1526 e il
1533 da una persona sola. Questo incredibile tunnel può essere percorso a piedi anche
oggi, imboccandolo a 1997 m sopra il livello del mare, proprio sotto la Cima dei Quattro
Denti. Il tunnel è alto 1.8 m, largo circa 1 m ed è percorso da un ruscello d'acqua per
l'irrigazione degli alpeggi. La galleria fu realizzata proprio per esigenze idriche: serviva per
portare acqua da un versante all'altro della montagna. Gli abitanti di un gruppo di borgate
circostanti incaricarono un operaio, chiamato Colombano Romean, affinché realizzasse lo
scavo: costui lavorò ininterrottamente per 8 anni, vivendo all'intermo della galleria, in
compagnia di un mulo per il trasporto dei detriti e un cane per il collegamento con i
villaggi più vicini. Nella galleria, esplorabile soltanto con torce e unicamente nelle stagioni
più povere d'acqua, l'eroico Colombano ha tracciato 500 anni fa innumerevoli incisioni,
ritratti umani, raffigurazioni sacre.

Si apre l’epoca dei grandi trafori ferroviari e stradali. I grandi trafori stradali dell'arco
alpino, dal Gran San Bernardo (1964) al Frejus e San Gottardo (1980), sono stati tutti
realizzati dopo la seconda guerra mondiale. Fa eccezione il traforo carrozzabile del Col di
Tenda (1883). Le grandi gallerie ferroviarie sono invece tutte precedenti e alcune
addirittura anticipano la prima guerra mondiale. La galleria del Frejus, lungo la linea
ferroviaria Torino-Parigi, apre la serie nel 1870. Nel breve giro di pochi anni arrivano il
tunnel svizzero del San Gottardo (1882), lungo la linea Milano-Basilea, quello del
Sempione ( cfr. Il Sempione strizza l’occhio al Frejus) sulla linea Milano-Parigi nel 1906 e
ancora quello svizzero del Loetschberg (1913) sulla linea Briga-Berna. Nella seconda metà
del XIX secolo, la realizzazione dei primi grossi trafori in terreno di montagna interessa
soltanto i treni, perché si collega direttamente al problema tecnico dell'aderenza tra le ruote
delle locomotive e le rotaie. Con pendenze superiori al 25%-28%, il treno tende a slittare:
di qui la necessità di concepire percorsi poco inclinati, forando, ove necessario, le
montagne. Il traforo ferroviario del Frejus apre una stagione di colossali opere in galleria,
realizzate ad altitudini comprese tra i 690 m del Sempione e i 1331 m del Frejus. Le quote
di imbocco si mantengono relativamente basse per evitare ripidi percorsi di avvicinamento
e rischi di valanghe. Ne deriva un notevole sviluppo della lunghezza dei trafori: 19.803 Km
e 19.824 Km per la prima e seconda (aperta nel 1921) galleria del Sempione, 14.920 Km

13
Dall’Eufrate alla Manica

per il San Gottardo, 14.612 Km per il Loetschberg, 12.233 Km per il Frejus, poi portata agli
attuali 13.336 Km.
Proprio per la sua orografia l’Italia risulta essere il paese con il maggior sviluppo
chilometrico di gallerie d’Europa circa 2000km tra gallerie stradali e ferroviarie senza
contare naturalmente i tratti di tunnel delle metropolitane delle grandi città.
Diamo nel seguito un elenco indicativo delle maggiori gallerie ferroviarie e stradali
italiane:

Sempione Km 19.824 1921


Sempione Km 19.803 1906
Dell’Appennino Km 18.500 1931
Vaglia Km 18.200 2002
Fiorenzuola Km 15.282 2000
San Gottardo Km 14.920 1882
Loetschberg Km 14.612 1913
Frejus Km 13.336 1871
Frejus Km 12.895 1980
Monte Bianco Km 11.660 1965
Pianoro Km 10.850 2000
Raticosa Km 10.450 2000
Gran Sasso d’Italia Km 10.176 1984
Gran Sasso d’Italia Km 10.121 1995
Variante di valico Km 8.600 2007
S. Antonio Km 7. 925 2000
Gran San Bernardo Km 5.845 1965
Pianello Km 5.433 2001
Cels Km 5.245 1992
Cels Km 5.141 1992
Monte Zovo Km 4.780 1999
Costa di Sorreley Km 4.722 1997
Lecco Km 4.650 1999
San Domenico Km 4.567 1978
San Domenico Km 4.565 1978
San Benedetto Km 4.440 1998
Prapontin Km 4.409 1995
Lecco Km 4.340 1999
San Rocco Km 4.181 1969
Comelico Km 4.000 1986
Forca di Cerro Km 3.950 1998
Cave Km 3.790 1995
Omega Km 3.427 1999
Furlo Km 3.338 1990
Petraro Km 3.345 1992
Petraro Km 3.327 1992
Monte Barro Km 3.300 1999
Villeneuve Km 3.244 1994
Regoledo Km 3.227 1987
Regoledo Km 3.220 1987
Villeneuve Km 3.213 1994
Col di Tenda Km 3.186 1882

Gallerie ferroviarie e stradali italiane tra i 20 ed i 3 Km

14
Dall’Eufrate alla Manica

1.3 6 maggio 1994

“Il Tunnel” collega Francia e Gran Bretagna


La regina Elisabetta seconda del Regno unito ed il presidente francese Francois Mitterand
hanno formalmente inaugurato in una cerimonia a Calais , il Channel Tunnel ( Euro
Tunnel ) un tunnel ferroviario di 50 Km , sotto il canale della Manica.
Il Progetto viene considerato come uno dei grandi successi ingegneristici del XX° secolo.
Dopo la costruzione iniziata nel 1987 è subito divenuto manifesto che a causa delle
difficoltà tecniche i lavori del progetto avrebbero richiesto un anno e mezzo più del
previsto.
Il costo finale si aggira intorno ai 15 miliardi di Euro, più del doppio della stima originaria,
gli utenti cominceranno ad usare il sistema ferroviario ad alta velocità Eurostar, nel giro di
sei mesi, non appena completata l’istallazione e le verifiche dei sistemi di sicurezza.
Il servizio a pieno regime che comprende il trasporto di passeggeri con auto al seguito è
previsto per l’estate del 1995. ( Britannica Enciclopedia Yearbook 1995 ).
Il tunnel sotto la Manica. Battezzato Eurotunnel dai francesi in omaggio allo
spirito dell’Europa Unita e Channel Tunnel dagli inglesi con insistente spirito
nazionalistico, questa galleria sottomarina, la più lunga in assoluto del mondo,
stabilirà un collegamento fisso tra l'isola di Gran Bretagna e il continente. L'uomo
ha così rimediato, dopo alcuni milioni di anni, a quella frattura geologica che,
avvenuta nell'era cenozoica a seguito della deriva dei continenti, aveva
geograficamente allontanato di circa 35 Km la Francia dall'isola britannica.
L'iniziativa è stata più volte definita come la più grande opera di ingegneria di
questo secolo. Dalla metà degli anni '90, treni diretti per merci e passeggeri e
treni-navetta, con il loro carico di TIR completi, partiranno ogni 15 minuti dal punto
doganale di Coquelles diretti in Inghilterra e, viceversa, dal punto doganale di
Folkestone diretti in Europa, percorrendo il tunnel alla velocità di 130 Km/h.
L'Eurotunnel si compone di tre gallerie parallele adiacenti: la galleria Nord per il
passaggio dei treni diretti verso l'Inghilterra e la galleria Sud per i treni diretti in
Francia, di 7.60 m netti. Al centro la galleria di servizio di 4.80 m di diametro netto, unita
ogni 375 m da tronchi di gallerie ortogonali, che uniscono trasversalmente i due tunnel
principali. L’ultimo diaframma, quello roccioso della galleria di servizio, la prima ad
essere scavata, è caduto, ed è ormai una data storica, il 1° dicembre 1990. Nel
gennaio del 1991, per solennizzare maggiormente l'avvenimento la signora
Margaret Thatcher, in rappresentanza del governo inglese, e il Presidente
Francois Mitterrand, in rappresentanza di quella francese, si sono incontrati e
stretti la mano sottoterra a 22 Km dalla costa inglese e a 15 Km dalla costa
francese, a una profondità di 40 m al di sotto del fondo marino del canale della
Manica)

1.4 Fatti e cifre dell’ Eurotunnel

Il Tunnel
½ Costo 30 mila Miliardi di lire
½ Lunghezza complessiva 50 Km
½ Lunghezza sottomarina 38 Km
½ Numero delle gallerie due + una di servizio/soccorso.
½ Profondità media sotto il fondo marino 45m
½ Diametro medio dei tunnel principali 7,6 m
½ Diametro medio del tunnel di servizio 4,8 m
½ Connessioni di bypass totale ogni 375 m

15
Dall’Eufrate alla Manica

½ Connessioni di smorzamento dell’effetto pistone ogni 200 m


½ Massa di suolo movimentata nel corso della costruzione 8 milione di m 3
½ Rateo di movimentazione 2400 T/h
Strutture fisse
• Sistemi elettrici
Il tunnel è in connessione con le due compagnie nazionali
francese/Inglese , ciascuna delle quali è in grado di assicurare il
funzionamento completo, indipendentemente dall’altra.
• Sistemi di controllo e comunicazione
Tutti i messaggi viaggiano su cavi tripli a fibre ottiche, che
trasmettono dati sulla gestione del traffico ferroviario.
Le comunicazioni in voce sono trasmesse via radio.
• Sistemi di ventilazione
L’ aria è pompata nel tunnel di servizio dalle due estremità, con
controlli di flusso ad ogni bypass.
• Sistemi di drenaggio
Cinque stazioni di pompaggio rimuovono l’acqua dai tunnel, che
raccolta in piscine viene inviata a depuratori.
• Sistemi antincendio
Sensori di fumo sono installati nei rifugi presso i bypass, sono
anche presenti sistemi di soppressione automatica a controllo
remoto, nel tunnel di servizio vi è una linea d’acqua alimentata da
serbatoi posti alle stazioni d’entrata che serve gli idranti posti nei
bypass e nei due tunnel principali.
• Sistemi di raffreddamento del tunnel
La temperatura del tunnel è mantenuta a 25°C mantenuta da
circolazione di acqua refrigerata a circuito chiuso.

I Convogli

Lo Shuttle
½ Potenza 5.76 MW ( 7600 hp )
½ Peso della locomotiva 132 T
½ Peso del treno 2000 T
½ Velocità max 160 Km/h
½ Velocità di crociera 140 km/h
½ Diametro della ruota 1,250 m
½ Durata del viaggio 35 min

L’Eurostar
½ Peso della locomotiva 68 T
½ Peso del treno 800 T
½ Lunghezza del treno 333 m
½ Velocità max 300 km/h ( in Francia )

16
Dall’Eufrate alla Manica

17
Dall’Eufrate alla Manica

1.4 18 novembre 1996 fuoco nell’Eurotunnel

Come si può ben comprendere la sicurezza del Tunnel fu uno degli argomenti più
attentamente analizzati ed essa fu oggetto di esaustive sperimentazioni che inclusero
estensive modellazioni e test reali d’incendio.
Ma , come sempre, quando l’incendio si sposta fuori del laboratorio e si sviluppa nella vita
reale, la realtà spesso elude i modelli e le analisi di sicurezza.
Infatti l’avvenimento reale non avrebbe mai potuto né esser previsto, né modellato sulla
base dell’analisi di sicurezza sviluppata.
In quanto non si sarebbe mai potuto prevedere il fallimento concomitante di così tante
procedure e sistemi.
Comunque per fortuna non si ebbero feriti gravi o morti né tra i passeggeri, né tra i 450
vigili del Fuoco che da Francia ed Inghilterra intervennero in squadre a rotazione per
l’intera notte, per combattere il fuoco sviluppatosi, che fu domato solo intorno alle 6
antimeridiane del giorno successivo
Dopo l’allarme delle guardie esterne di sicurezza francesi che videro il fuoco alle 9.45 , il
treno entrò nel Tunnel con 31 conducenti di camion e 3 membri dell’equipaggio, mentre il
conducente era solo in cabina. e lo steward ed il capotreno erano nel vagone “club”con i
passeggeri.
Secondo le procedure il treno doveva proseguire fino all’uscita per poter spegnere
l’incendio all’esterno. I Francesi inviarono comunque la loro squadra FLOR “first line
of response” nel Tunnel, mentre gli otto membri del FLOR inglese decisero di attendere
l’uscita del treno, fino a che il loro responsabile dal centro di emergenza non si avvide
che i sensori di monossido di carbonio avevano superato di due volte il livello di pericolo.
Così anche gli Inglesi alle 9.47 decisero di entrare ed attendere il treno alla metà del
tunnel.
Alle 10.04 il conduttore che, allertato per radio dell’incendio a bordo procedeva, si avvide
di un segnale sul pannello di controllo che gli indicava possibilità di deragliamento e
pertanto secondo le procedure standard arrestò il treno presso un’uscita di sicurezza.
All’istante si invertì il flusso dell’aria ed il fumo andò verso la testa del treno, ciò fu
dovuto all’effetto pistone prodotto dal treno che precedeva quello incidentato in
concomitanza con un treno vuoto che seguiva.
Il conduttore di quest’ultimo treno arrestato il convoglio raggiunse un’uscita di sicurezza.
Nel frattempo il fuoco era aumentato e la locomotiva non potè riprendere il cammino,
mentre il conducente riferì che non erano più visibili i segnali indicatori delle vie di fuga
alle pareti.
Il FLOR inglese raggiunse il convoglio alle 10.40 , mentre il FLOR francese era intento
all’evacuazione su speciali ambulanze degli 8 feriti intossicati dal fumo, di cui i due più
gravi il conducente ed una signora incinta furono trasportati a Lille con l’elicottero.
Alle 11.19, furono allertate le SLOR ( second line of response ), ma un malfunzionamento
nelle linee di comunicazione ritardò l’intervento inglese di circa un’ora, nel frattempo
erano stati attivati i ventilatori per diradare il fumo, ma il primo impatto fu quasi deleterio:
all’aprire le porte di comunicazione tra tunnel e galleria di servizio, i vigili furono quasi
risucchiati via dalla corrente d’aria che si era instaurata verso il tunnel di servizio,
successivamente stabilizzato il flusso, fu creata una bolla d’aria di circa un metro nel
tunnel laterale in cui un vigile poteva stare in relativo conforto e sicurezza, al di fuori di
questo schermo, la temperatura radiante ed il fumo erano altamente intensi, per cui i vigili
potevano resistere ben poco a quell’esposizione e potevano utilizzare pochissimo tempo
per combattere il fuoco, nell’intervallo di rotazione della squadra.
L’esplosione del cemento aveva danneggiato il treno facendo collassare il tetto e riempito
il tunnel di frammenti che rendevano difficoltoso l’avvicinamento dei vigili.

18
Dall’Eufrate alla Manica

I vigili inglesi ebbero anche problemi con le riserve d’acqua durante le prime due ore, una
condizione che gli ingegneri dell’Eurotunnel corressero alle 4 a.m. riconfigurando la
distribuzione, però una condotta progettata per sostenere quattro idranti operando con otto
si ruppe allagando la zona, fu poi trovata un’altra condotta rotta nel tunnel che perdeva
acqua con tale violenza che il getto raggiungeva la parete opposta del tunnel.
Finalmente alle 6.00 a.m. la maggior parte dell’incendio era domata, la fine dell’incendio
fu dichiarata alle 12.15 a.m.
Furono usate dai vigili più di 200 bombole respiratorie, bruciarono otto autocarri e la
locomotiva retrostante fu danneggiata, in alcune zone si erano staccati spessori di più di 40
cm di cemento dalle pareti o dalla volta, le fibre di vetro usate per isolamento si erano
disperse per l’atmosfera causando irritazioni la pelle dei soccorsi, tutte le strutture fisse
nella zona dell’incendio erano andate distrutte, il sistema di controllo del tunnel collassò e
in sala controllo non si ebbero notizie della situazione interna, per cui nessuno sapeva
dove fosse fermo il treno ed i vigili furono indirizzati alle porte sbagliate.
Non si riuscì a sapere in tempo quante porte di uscite di soccorso fossero chiuse o aperte,
cosa che avrebbe permesso di configurare correttamente la ventilazione.
Il treno fu saldato ai binari dall’elevata temperatura e l’Eurotunnel fu completamente
bloccato per 15 giorni, gli Eurostar ripresero le corse il 4 Dicembre 1996 ed i convogli di
autocarri il 9 gennaio 1997.
Le cause iniziali dell’incendio non sono ancora note.

Bibliografia

1480-1980 500 anni di trafori Alpini SITAF ventennale del traforo del Frejus
8-7-2000
Franco Zarri, Il tunnel sotto la manica , editoriale da "L’Ingegnere", novembre
1991
Britannica Encyclopaedia Yearbook 1995 .
Comeau & Wolf Fire in the Chunnel! NFPA journal March/April 1997

19
La percezione intuitiva del rischio

2 La percezione intuitiva del rischio

I narratori prescelti per questo capitolo sono il redattore capo della rivista scientifica
Science, responsabile della organizzazione di un numero monografico sul rischio; il
presidente della Contemporary Consultants Company, specializzato nello sviluppo
organizzativo e gestionale delle imprese e negli studi di ottimizzazione delle applicazioni
scientifiche ad alto livello; i redattori del libro Pericoli e Paure edito dalla Marsilio,
contenente gli atti di un convegno sul rischio; Paul Slovic, uno dei massimi esperti in tema
di percezione del rischio; Barry Commoner,biologo, uno dei fondatori del movimento
ecologista di protezione dell’ambiente dai rischi di natura antropica; Frederich Rossini,
membro del comitato di redazione della prestigiosa rivista Technological Forecasting &
Social Change.

2.1 Rischio e pericolo

Si può quantizzare l'incertezza ? Da recenti rassegne giornalistiche e televisive, la mia


impressione è che stiamo morendo come mosche a causa della inevitabile esposizione a
sostanze chimiche tossiche, impianti nucleari per la produzione di energia elettrica,
automobilisti ubriachi e medici incompetenti. Penso: se si potessero semplicemente evitare
questi azzardi e con un piccolo contributo di aiuto da qualche organo artificiale qua e là,
morire non avrebbe ragione di esistere. Tutto quello che è necessario intraprendere è
ridurre la vita a rischio zero. Allo scopo di offrire una guida verso l'immortalità, il presente
numero della rivista Science divide generosamente con i nostri lettori alcune analisi di risk
assessment (assegnazione di rischio) stilate dai massimi esperti nel settore. Nell'articolo di
Richard Wilson e E.A.C. Crouch, la lista comparata dei vari rischi può venire riassunta
nelle seguenti considerazioni: (i) dovrò smettere di fare il poliziotto, mestiere cui spetta un
rischio annuale di morte (ram) pari al 0.0002 (due parti su 10mila); (ii) non dovrò più
guidare veicoli a motore attività cui spetta un rischio annuale di morte (ram ) ancora pari al
0.0002 (due parti su 10mila); (iii) dovrò smettere di volare opportunità cui spetta un rischio
annuale di morte (ram ) pari al 0.00005 (cinque parti su 100mila); (iv) sono stato
terrorizzato dalla notizia che, invece di bere l'acqua di un impianto idrico di una grande
città dell'est degli USA, posso bere l'acqua di pozzo della Silicon Valley (definita
contaminata dall'EPA, agenzia per la protezione ambientale) e ridurre il mio ram di un
fattore 300. (1)

Alcuni dati numerici sulla qualità della vita in USA. Stabilire una qualità del 99.9% negli
USA oggi corrisponde al posizionamento di un indice di rischio al livello dell'1 per mille,
vale a dire che, per ogni 1000 operazioni di un determinato tipo, 999 risultano un successo
e 1 operazione è invece un fallimento. Naturalmente, la cifra si trasforma in qualcosa di
mutevole a seconda dell'operazione che viene presa in considerazione nell'analisi. Per
esempio, riguardo all'intero territorio degli USA, vengono smarrite (e mai più ritrovate)
16mila unità di spedizione postale ogni ora. Nel settore bancario, vengono dedotti
dall'errato conto in banca 22mila assegni ogni ora. Questi due dati implicano che ogni ora
partono, viaggiano o arrivano 16 milioni di unità di spedizione postale e vengono
depositati in banca 22 milioni di assegni. Per altre tipologie di operazioni, l'unità di misura
temporale prescelta è il giorno, invece dell'ora, data la minore frequenza di comparsa dei
fenomeni sotto osservazione. Abbiamo così 107 procedure mediche erronee ogni giorno,
accompagnate da 12 neonati consegnati ad estranei invece che ai genitori propri ogni
giorno, e 2 atterraggi fuori dalle norme di sicurezza nell'aeroporto di O'Hare (Chicago,
Illinois) ogni giorno. Per altre tipologie di operazioni, l'unità di misura temporale prescelta
è la settimana, invece del giorno, data la minore frequenza di comparsa dei fenomeni sotto
20
La percezione intuitiva del rischio

osservazione. Rileviamo così il verificarsi di 500 operazioni chirurgiche realizzate in


maniera non corretta ogni settimana. Infine, per altre tipologie di operazioni, l'unità di
misura temporale prescelta è l'anno, invece della settimana, data la minore frequenza di
comparsa dei fenomeni sotto osservazione. Si possono allora contare 20mila prescrizioni
mediche erronee di droga ogni anno, 14mila personal computer non funzionanti venduti
ogni anno, 269mila copertoni d'auto difettosi montati ogni anno, 880mila carte di credito
magnetiche consegnate con dati difettosi ogni anno, 2 milioni di documenti andati perduti
con dati relativi all'IRS (Internal Revenue Service, Ufficio per le Imposte sul Reddito) ogni
anno, 5 milioni e mezzo di lattine di soft-drinks prodotte ogni anno con perdite di
pressione nella confezione. Il commento finale è una domanda, eloquente e senza bisogno
di commento e forse neppure di risposta: secondo voi, questi dati appena riportati
forniscono una immagine incoraggiante sul funzionamento del paese? (2)

Ne uccide più la paura indotta dai media che il rischio. Risulta decisamente fastidioso al
mio sistema nervoso scoprire che il potassio (che possiede un isotopo radioattivo)
contenuto nel mio corpo contribuisce a un livello di radiazione 1500 superiore a quello
assimilato dall’atmosfera a 35 Km di distanza da un impianto nucleare e a 6 volte superiore
a quello assorbito durante un volo transcontinentale. Lester Lave ci informa che i pericoli
domestici o appena fuori le mura di casa costituiscono un potenziale di rischio pari alla
metà di quello assicurato dal traffico veicolare. Bruce Ames scrive un articolo che
costituisce un vero e proprio thriller, schierando alcune sostanze chimiche in termini
numerici di danno potenziale e non semplicemente dividendoli nella abituale lavagna di
buoni (noncarcinogeni) e cattivi (carcinogeni). E per concludere, i cibi (udite, udite!)
costituiscono uno dei rischi più elevati. Apparentemente le piante hanno imparato durante
la loro evoluzione nel tempo che la guerriglia chimica costituisce sistema assai efficace per
combattere funghi, insetti e animali predatori. Sfortunatamente, le specie appena citate
hanno il medesimo codice genetico dell'uomo: cosi che ogni volta che mangio, sto
consumando mutageni e carcinogeni classificati da ogni parte come "pericolosi per la
vostra salute" (hazardous to your health) né più e né meno che se fossero un pacchetto di
sigarette. Chiaramente, per giungere alla fatidica soglia di rischio zero, dovrò fare a meno
di salire e scendere scale, bere alcool, vivere a Denver o in altri siti ad alta quota sul livello
del mare e a innumerevoli altre tentazioni. Per vivere per sempre, dovrò accontentarmi di
una vita su una sedia a dondolo, con un soffitto di piombo al di sopra del mio capo, nutrito
via endovena con amminoacidi in soluzione liquida. Mi consola Paul Slovic, che scrive un
articolo su come lo scienziato non osservi il rischio nello stesso modo di un cittadino
comune. Costui considera le morti causate da tecnologie misteriose o le morti simultanee
di un grande numero di persone (per esempio, i disastri aerei o ferroviari) assai più punitive
di quelle causate da tecnologie ben note e familiari come gli incidenti veicolari distribuiti
nel tempo e nello spazio, le cui cifre assolute totali risultano assai più letali. Vorrei
aggiungere che il governo sembra determinato a rimuovere il colore rosso dalle ciliege al
maraschino ma a promuovere sussidi per i coltivatori di tabacco, permettere la pubblicità
delle sigarette e a lasciare che il fumo di queste ultime induca 350mila morti premature
all'anno, soltanto negli USA. Mi accorgo soltanto ora che preoccupazioni eccessive sulla
competenza dei cosiddetti organi competenti può essere causa di ulcere peptiche e
condurmi alla morte per cause naturali. E' così che si muore oggi alla ricerca di una società
a rischio zero. (1)

21
La percezione intuitiva del rischio

Non tutti i rischi raggiungono la sfera della percezione. Viaggiare in automobile è molto
più rischioso che prendere l'aereo. Chi avesse dubbi può consultare le statistiche. Eppure, il
timore di volare è diffuso e tollerato, mentre può sembrare ridicolo quello per una breve
gita in macchina. La paura, dunque, non è sempre un buon indicatore del pericolo e,
viceversa, non tutti i rischi raggiungono la sfera della percezione. Il vero problema è quello
di raggiungere la corretta capacità di distinguere tra rischi reali e rischi immaginari. Gli
esperti in genere offrono risposte perentorie, spesso in contrasto tra loro. Dalla salute
all'ambiente, dal luogo di lavoro al progresso tecnologico, sta diffondendosi la tendenza di
ricorrere in modo semplicistico al rapporto causa-effetto, senza un'analisi del contesto
generale degli argomenti e della complessità dei fattori in gioco. Risultati, spesso riferiti a
campioni non rappresentativi, vengono indebitamente ritenuti una conclusione e non la
premessa per indagini più approfondite. E i mass media amplificano questi messaggi
ambigui e fuorvianti, creando allarmi ingiustificati, false attese e conseguenti frustrazioni
che, alla lunga, si trasformano in sfiducia e disorientamento. Per questi molteplici motivi, è
necessario che la comunità scientifica, le istituzioni e i media lavorino insieme per
garantire una corretta diffusione delle informazioni e quindi una percezione del rischio
quanto più possibile aderente alla realtà dei pericoli. Epidemiologi, esperti di politica
ambientale, storici, psicologi, sociologi, filosofi e operatori dell'informazione affrontano
per la prima volta questi problemi secondo un approccio globale, riflettendo sui molti - e
spesso contraddittori - aspetti della percezione del rischio e sul suo impatto sulla vita
quotidiana. I saggi qui raccolti sono ispirati agli interventi presentati nel corso del
convegno internazionale Pericoli e paure, tenutosi a Roma nel giugno 1993, promosso
dall'Enea e dall'agenzia scientifica "Hypothesis". (3)

2.2 Rischio come precursore del pericolo

Tutto il rischio, minuto per minuto. La rivista Science è un settimanale pubblicato dalla
American Association for the Advancement of Science: il numero del 17 aprile 1987,
incluso nel volume 236 della collezione, dedica la copertina all'argomento del Risk
Assessment inserendo in una scacchiera di 42 (vale a dire 6 orizzontali per 7 verticali)
riquadri le 14 lettere che costituiscono il titolo cui vanno aggiunte 28 immagini,
estremamente sommarie e a forte contenuto iconico e user-friendly, di quelli che vengono
considerati i rischi della vita quotidiana. Vediamoli in dettaglio. In prima fila, a partire
dall'alto, da sinistra a destra: (i) un impianto nucleare per la produzione di energia elettrica;
(ii) un fulmine ovvero una scarica elettromagnetica durante una tempesta di pioggia; (iii)
un jumbo-jet cioè un grande aeroplano civile per il trasporto di passeggeri; (iv) un
contenitore metallico di spray, lacca per capelli, ghiaccio antidolorifico, vernice per
scrittura e colorazione e così via; (v) un pallone da football americano; (vi) un serpente a
sonagli. In seconda fila, a partire dall'alto, da sinistra a destra: (vii) una automobile di
media-grossa cilindrata; (viii) un fuoco non meglio identificato; (ix) una tazza di caffé
lungo americano con tanto di piattino; (x) la lastra ottenuta esponendo la zona mediana di
un corpo umano ai raggi X; (xi) una siringa con la punta verso l'alto e molteplici
implicazioni; (xii) un revolver ovvero una rivoltella a tamburo ruotante. In terza fila, a
partire dall'alto, da sinistra a destra: (xiii) un'ape; poi, a seguire, le lettere R I S K , (xiv) un
paio di sci. In quarta fila, a partire dall'alto, da sinistra a destra: le lettere A S S E S S. In
quinta fila, a partire dall'alto, da sinistra a destra: (xv) una sigaretta con filtro; le lettere M
E N T; (xvi) una bottiglia di liquore, dal formato sembrerebbe un bourbon. In sesta fila, a
partire dall'alto, da sinistra a destra: (xvii) anticoncezionale femminile; (xviii) trapano, o
altro utensile elettrico, da ferramenta,; (xix) tagliaerbe a motore; (xx) utensile domestico da
macellaio; (xxi) presa elettrica; (xxii) aereo privato; (xxiii) orso o altro animale da parco o
riserva nazionale; (xxiv) barca o altro vettore di trasporto su acqua con o senza remi; (xxv)

22
La percezione intuitiva del rischio

fertilizzante o altra sostanza pesticida di produzione industriale; (xxvi) canna fumaria


montata su impianto di produzione chimica; (xxvii) bicicletta; (xxviii) pillole di vario tipo,
in confezione farmaceutica, acquistate tramite ricetta medica.

La percezione psichica del rischio. Gli studi di percezione del rischio esaminano il
giudizio che la gente comune oppure gruppi di esperti esprimono quando viene loro chiesto
di caratterizzare e valutare attività rischiose oppure vecchie e nuove tecnologie. La
presente ricerca è volta a fornire supporto agli studi di analisi di rischio e di policy-making
in due differenti fasi: (i) stabilire una base per la comprensione e l'anticipazione delle
risposte che il grosso pubblico adotta nei confronti di attività rischiose e (ii) migliorare il
livello di comunicazione dell'informazione relativa al rischio tra cittadini, esperti e
decision-maker. Questo lavoro formula l'assunzione che coloro che promuovono e
regolano la salute e la sicurezza hanno la necessità di comprendere quello che gli uomini
della strada pensano a proposito di rischio e come rispondono alla sua presenza e alle
eventuali misure per mitigarlo. Senza questi approfondimenti, policy ben intenzionate
possono risultare inefficaci. L'abilità nel percepire ed evitare condizioni ambientali
pericolose è condizione necessaria per la sopravvivenza di tutti gli organismi viventi. La
sopravvivenza è ulteriormente protetta dalla capacità di codificare e imparare dalle
esperienze del passato. Gli esseri umani sono dotati di una abilità addizionale che permette
loro tanto di alterare l'ambiente quanto di reagire alla sua invadenza. Questa ultima dote
crea e riduce il rischio. Negli ultimi decenni, il profondo sviluppo delle tecnologie
chimiche e nucleari è stato accompagnato da un potenziale a causare danno catastrofico e
di lunga durata nei confronti della terra e delle forme di vita che vi abitano. I meccanismi,
che operano alla base di queste complesse tecnologie, non sono accessibili e comprensibili
alla maggior parte dei cittadini. Le conseguenze più pericolose dello sviluppo tecnologico
sono spesso rare ed emergono con notevole ritardo, diventando quindi difficili da osservare
e quantizzare tramite analisi statistiche e tanto meno attraverso apprendimenti del tipo
tentativo & errore. Le qualità elusive e difficili da gestire dei pericoli della moderna
tecnologia hanno forzato la creazione di una nuova disciplina intellettuale denominata risk
assessment (una possibile traduzione è "assegnazione di rischio") progettata con lo scopo
di identificare, caratterizzare e quantificare il rischio. Mentre esperti e analisti con alta
professionalità in materia tecnologica usano le metodologie del risk assessment per
valutare pericoli e contromisure di sicurezza, la maggior parte della popolazione si affida a
giudizi di natura fortemente intuitiva, tipicamente battezzati come "percezione di rischio".
Per queste persone, l'esperienza nei riguardi del pericolo tende a derivare, oltre che dai
trascorsi individuali, dai mezzi di comunicazione di massa, i quali riportano episodi,
documenti, disastri e catastrofi un po' da tutte le parti del mondo, troppo spesso senza il
dovuto rigore scientifico: necessario per non allarmare ma anche per sensibilizzare. La
percezione dominante per la maggior parte dei cittadini degli USA ( percezione che
contrasta fortemente con quella di esperti e analisti professionisti) è che il mondo odierno
si trovi di fronte a un numero di rischi più elevato che in passato, che la loro entità sia
potenzialmente più dannosa e pericolosa e che, infine, il futuro sia pesantemente
minacciato da un aumento di questi e altri rischi. (4)

23
La percezione intuitiva del rischio

2.3 Il rischio come realtà soggettiva

Il paradigma psicometrico del rischio. L’atteggiamento pessimistico e allarmistico dei


cittadini USA nei confronti del mondo moderno è condiviso anche dalle popolazioni di
altri paesi industrializzati. Queste percezioni di rischio e l'opposizione alla tecnologia che
le accompagna hanno prima stupito e poi frustrato industriali e legislatori e hanno convinto
un gran numero di osservatori ad argomentare che l'apparente perseguimento, da parte dei
cittadini degli USA, di una "società a rischio-zero" addirittura minaccia la stabilità
economica e politica della nazione. Aaron Wildavsky (coautore con Mary Douglas di un
libro assai controverso intitolato Risk and Culture, University of California Press 1982)
sostiene in proposito una insolitamente enfatica posizione: "Straordinario! La civiltà più
ricca, con la vita media più lunga, meglio protetta e più dotata di risorse, con il più alto
grado di consapevolezza delle proprie tecnologie, scende lungo una china per diventare la
più spaventata. Che cosa è cambiato, il nostro ambiente o noi stessi? Avremmo dovuto
avere il medesimo grado di apprensione anche in passato? Oggi, esistono rischi relativi a
numerose dighe di ridotte dimensioni che eccedono di gran lunga quelli apportabili dalle
centrali nucleari. Perché i primi sono ignorati e i secondi così temuti? Oppure tutto ciò è la
conseguenza dell'essere assuefatti all'antico e troppo insicuri rispetto alla novità? Durante
l'ultimo decennio, un ridotto numero di ricercatori ha tentato di rispondere a queste
domande, esaminando le opinioni espresse dai cittadini sottoposti a una serie di domande
incrociate per la valutazione di attività, sostanze e tecnologie con connotati di rischio e/o
pericolosità. Questo tipo di ricerca ha tentato di sviluppare tecniche per sondare le
opinioni, complesse e sottili, che la gente formula nei confronti del rischio. Con queste
tecniche, i ricercatori miravano a scoprire che cosa gli intervistati volevano esprimere nel
giudizio che una certa attività era, oppure non era, "rischiosa" e a determinare quali fattori
erano alla base di questi giudizi di merito o soltanto di queste "percezioni". L'assunzione
fondamentale di questi sforzi interpretativi è la seguente: coloro che promuovono e
regolano la salute e la sicurezza hanno le necessità di comprendere in quale maniera la
gente pensa e risponde al "rischio". Se sarà di successo, questa ricerca dovrà aiutare i
policy-maker a migliorare le comunicazioni (infatti il neologismo adottato da questo tipo di
indagine viene opportunamente denominato risk communication) tra loro e il grosso
pubblico, attraverso l'organizzazione di iniziative volte ad aumentare il grado di istruzione
su questi argomenti . L'altro fine è quello di prevedere la risposta del cittadino della strada
alle nuove tecnologie (per esempio, l'ingegneria genetica), a eventi a connotazione positiva
o negativa (un buon record di sicurezza sulla strada da parte di un guidatore oppure una
serie di incidenti distribuiti in maniera contigua nel tempo da parte di un altro guidatore), a
nuove strategie di gestione del rischio (differenti etichette di ammonimento sulle
confezioni, nuovi regolamenti, prodotti sostitutivi).

I Policy-Maker preparano nuovi inganni? Non tutti sono d'accardo sulla risk
communication. Se alcuni la considerano una prova di democrazia da parte di
amministratori e politici per andare incontro alle esigenze del cittadino, altri la
percepiscono come un nuovo, ulteriore, ingannevole strumento da parte del potere per
convincere l'uomo della strada a ingoiare altri veleni, respirare altri fumi, subire altre
mistificazioni ideologiche. In proposito ha avuto notevole successo, specialmente tra i
giovani, un libro di Alastair S. Gunn e P. Aarne Veselind (Environmental Ethics for
Engineers, Lewis Publishers Inc. 1986) in cui ingegneri, ma anche altri addetti ai lavori,
vengono assaliti da domande di notevole disturbo nei confronti della dignità professionale
di chi lavora nel settore. Eccone alcune: (i) è vero che gli ingegneri affidano enfasi
eccessiva alla funzione tecnologica della scienza, ignorando o dimenticando l'imperativo
categorico di sostegno e arricchimento della vita umana? (ii) è vero che gli ingegneri sono

24
La percezione intuitiva del rischio

pura e semplice manovalanza al servizio di corporazioni e altri interessi settoriali,


lavorando come mercenari senza alcuna cura o responsabilità sul fine che stanno di fatto
servendo? (iii) è vero che gli esseri umani sono stati e sono concepiti per vivere soltanto in
termini materialistici, ignorando altre dimensioni della vita umana, quale la bellezza, la
verità e la giustizia? (iv) è vero che gli ingegneri considerano i servizi resi agli esseri
umani come unica forma di comportamento etico e non hanno alcun riguardo per il resto
della natura, considerata soltanto come sorgente di materie prime?

Le percezioni di rischio variano da un gruppo sociale all’altro. Una strategia ad ampio


orizzonte per studiare la percezione del rischio è quella di sviluppare una tassonomia delle
attività soggette a pericolo che possa venire usata per comprendere e prevedere le risposte
e il comportamento della gente. Uno schema tassonomico, vale a dire una regola di
classificazione ovvero un elenco di elementi ordinato secondo criterio, il quale ha
chiaramente valore soltanto per il gruppo omogeneo (per esempio, studenti, donne,
minoranza etnica, militari, biologi, amministratori locali, fisici, uomini politici e così via)
di conoscenze che lo ha compilato, può illustrare perché quel gruppo mostra particolare
avversione nei confronti di alcuni pericoli, completa indifferenza nei confronti di altri e le
discrepanze tra i loro pareri e quelli degli esperti. Si formano in questo modo mappe
cognitive di rischio: nel caso riportato nel presente paragrafo, i gruppi scelti sono quattro:
(i) lega delle elettrici; (ii) studenti di college; (iii) attivisti politici; (iv) esperti. Ecco i
risultati per 30 attività o tecnologie che vanno per la maggiore negli USA.

25
La percezione intuitiva del rischio

-------------------------------------------------------------------------------------------------------------
Attività o tecnologia LWV CS ACM E
-------------------------------------------------------------------------------------------------------------
Energia nucleare 1 1 8 20
Veicoli a motore 2 5 3 1
Armi alla mano 3 2 1 4
Fumare 4 3 4 2
Motociclette 5 6 2 6
(5)
Bibite alcooliche 6 7 5 3
Aviazione privata 7 15 11 12
Lavorare in polizia 8 8 7 17
Pesticidi 9 4 15 8
Chirurgia 10 11 9 5
(10)
Estinzione incendi 11 10 6 18
Costruzioni edili 12 14 13 13
Caccia 13 18 10 23
Lattine spray 14 13 23 26
Arrampicare 15 22 12 29
(15)
Biciclette 16 24 14 15
Aviazione commerciale 17 16 18 16
Energia elettrica 18 19 19 9
Nuotare 19 30 17 10
Contraccettivi 20 9 22 11
(20)
Sciare 21 25 16 30
Raggi X 22 17 24 7
Football americano 23 26 21 27
Ferrovie 24 23 29 19
Conservanti nei cibi 25 12 28 14
(25)
Coloranti nei cibi 26 20 30 21
Tagliaerbe di potenza 27 28 25 28
Antibiotici su ricetta 28 21 26 24
Utensili domestici 29 27 27 22
Vaccinazioni 30 29 29 25
-------------------------------------------------------------------------------------------------------------
Legenda - LWV (Leage of Women Voters), CS (College Students),
ACM (Active Club Members), E (Esperti)
-------------------------------------------------------------------------------------------------------------
(Paul Slovic, ibidem)

26
La percezione intuitiva del rischio

Aggregazione del rischio. Alcuni brevi osservazioni di carattere sommario saltano subito
all'occhio. L'energia nucleare è il mostro tecnologico per eccellenza per la lega delle
elettrici (LWV) e gli studenti di college (CS), ma scende all' 8° posto per gli attivisti
(ACM) e addirittura al 20° per gli esperti (E). Per questi due ultimi gruppi i nemici
pubblici numero 1 sono rispettivamente, le armi da fuoco e gli autoveicoli. Secondo il
protocollo statistico dell'analisi di ranking, possiamo sommare l'ordine gerarchico di
ciascuna delle attività o tecnologia sui quattro gruppi di esperti confrontati per ottenere una
classifica generale dell'intera procedura di polling. Ecco il responso con il ranking totale
segnato al suo fianco. Vince la speciale classifica della percezione di rischio naturalmente
la tecnologia o l'attività con il totale più basso. Si ha quindi: Armi alla mano 10, Veicoli a
motore 11, Fumare 13, Motociclette 19, Bibite alcooliche 21, Energia Nucleare 30. Lo si
poteva intuire anche guardando il numero di cifre del ranking nella tabella riportata in
precedenza: soltanto le attività o le tecnologie elencate tra la seconda e la sesta riga
esibiscono un ranking con una sola cifra. Neppure l'energia nucleare possiede questa
caratteristica e finisce in tal modo sesta.

Le ragioni storiche dell’insorgere di alcuni rischi. La maggior parte dei problemi


ambientali costituiscono l'inevitabile conseguenza di impetuosi cambiamenti che hanno
trasformato l'economia degli USA dpo il secondo conflitto mondiale. Tra questi: (i)
l'elevata potenza dei motori per automobili private di grandi dimensioni; (ii) la conversione
del trasporto delle merci dalle ferrovie alle autostrade su camion dissipatori di carburante
ed emittitori di inquinanti ; (iii) la sostituzione di concimanti naturali con prodotti chimici
intensivi per l'ottimizzazione delle culture; (iv) l'introduzione di pesticidi sintetici tossici
per uccelli e insetti e (v) così via. Già nel 1970, è apparso chiaro che questi cambiamenti
gestionali e mutamenti di natura amministrativa , infaustamente denominati "innovazioni
tecnologiche", erano alla radice del massiccio inquinamento ambientale. Ricordo ancora
l'incredulità nella voce del senatore Edmund Muskie durante le audizioni pubbliche della
NEPA (National Environmental Protection Act, disegno di legge per la protezione
dell'ambiente nazionale): mi chiedeva se fossi realmente convinto che la tecnologia del
dopoguerra, che aveva generato tanto progresso economico, costituisse anche la causa
dell'inquinamento. "Si - risposi - ne sono profondamente convinto". Tuttavia, da allora, la
situazione non è migliorata per nulla.Il concetto di prevenzione non è entrato nella teste
delle gente, degli amministratori, dei politici. Infatti la legislazione ambientale ha varato
unicamente misure palliative, misure atte a contenere il danno già in corso. La lezione è
chiara. La prevenzione dell'inquinamento può funzionare, il controllo dell’inquinamento
non funziona.Soltanto quando la tecnologia della produzione viene radicalmente cambiata
all’origine per eliminare l’inquinante, l’ambiente subisce un miglioramento sostanziale. Se
la tecnologia rimane immutata e vengono effettuati tentativi per intrappolare l’inquinante
con appositi strumenti di controllo (per esempio, la marmitta catalitica dell’automobile
oppure i filtri per abbattere i fumi delle centrali per la produzione di energia) il
miglioramento ambientale è modesto o nullo. Quando l'inquinante viene attaccato alla
sorgente (per esempio, adottando un procedimento alternativo che non ne prevede la
produzione) esso può venire eliminato. Altrimenti, una volta prodotto, qualsiasi intervento
è tardivo. (5)

I pericoli della tecnologia dell’informazione. E' mia opinione che tre famiglie
tecnologiche domineranno il prossimo secolo. Tale tecnologie avranno enorme impatto sul
mondo umano e sociale avvicinando in modo pericolosi ad alcuni aspetti dell'esistenza del
genere umano. Le tecnologie in questione sono: (1) la tecnologia dell'informazione; (2) la
tecnologia biomedica e biologica; (3) lo sviluppo della tecnologia spaziale. Vorrei
soffermarmi brevemente sulla prima famiglia. La penetrazione della tecnologia informatica

27
La percezione intuitiva del rischio

in tutti gli aspetti della vita umana è stata drammaticamente accelerata dal diffuso sviluppo
e impiego di potenti, veloci ed economici microprocessori. L'integrazione del potere
computazionale, all'interno di reti di computer che si sono unite alle reti di comunicazioni
esistenti per costruire una nuova sintesi di comunicazione informatica, sta a significare che
la definizione standard di società dell'informazione sta diventando una realtà. Con
l'avvento si strumenti ottici di capacità estremamente elevata sulla strada di divenire
cancellabili e riscrivibili, masse d’informazione possono divenire disponibili in
immagazzinamento on line . L’avvento, inoltre, di sistemi operativi utilizzabili da parte di
utenti non esperti, senza alcun training tecnico, apre l’informazione tecnologica a
chiunque. L’uso di simboli al posto delle parole permette al computer di saltare attraverso i
sistemi linguistici e le culture, in modo tale che lo stesso sistema può esser quasi
universalmente accessibile.
Il linguaggio del futuro potrà avere non poco a che fare con le esigenze dei sistemi di
informazione. Il potenziale di processori, quale una rete neurale, aumenterà
sostanzialmente la capacità dei processi simbolici del computer ed aprirà la porta ad un
nuovo spettro di applicazioni fino ad ora inaccessibile all’ambiente del computer.
I computer sono organizzati per somigliare sempre più agli umani tramite l’uso di
architetture e di intelligenze artificiali.
Allo stesso tempo, l’umanità diventa più simile ai computer complessi nelle abitudini
linguistiche e socializzazione. Il desiderio umano di modificare geneticamente la specie,
muove in direzione della integrazione della persona con un ambiente totalmente
informatizzato. La gente e le macchine convergono in maniera tale che la comunicazione
umana evolve verso la comunicazione logica dei computer, ed i linguaggi del computer
vengono arricchiti dalla struttura della parola umana. L’universo diventa, per l’esperienza
umana, una base informativa le cui rappresentazioni vengono processate in combinazioni
informative sempre più stimolanti per l’arricchimento della esistenza umana. Man mano
che le permutazioni di elementi della base informativa aumentano, l’esigenza di processare
e la capacità aumentano in misura tale che l’uomo, il computer e la base informativa sono
integrati in un singolo sistema di funzionamento. L’essere umano può venire visualizzato
come un avanzato processore di informazioni, capace di interagire con qualsiasi ambiente
informativo presente nell’universo. L’ambiente umano diventa pura informazione.
Il contatto e l’esperienza fisici sono contenuti in una matrice informativa in maniera
analoga al modo in cui, l’ambiente naturale è contenuto nella matrice tecnologica
dell’ambiente urbano. L’organizzazione sociale umana diventa un insieme di reti
coesistenti ed interagenti. Le caratteristiche ed i protocolli delle reti individuali diventano
un surrogato di quello che comunemente si riferisce come cultura, data l’enfasi
sull’informazione e sul flusso informativo, i controllori di rete costituiscono l’élite di
potere, il management di rete il surrogato del governo. L’unità informativa è l’unità che
rappresenta il valore materiale.(6)

Bibliografia
(1) editorial by Daniel E. Koshland, Jr, Immortality and Risk Assessment, Science 236,
17 april 1987
(2) D.H. Stamatis, Failure Mode and Effect Analysis, ASQ Quality Press 1995
(3) quarta di copertina e introduzione a Pericoli e paure. La percezione del rischio tra
allarmismo e disinformazione. Hypothesis & Marsilio 1994
(4) Paul Slovic, Perception of Risk, Science 236, pg 280-85, 17 aprile 1987
(5) Barry Commoner, Why we have failed, Greenpeace Magazine, september/october
1989
(6) Frederich A. Rossini, The Synergistic impact of major technologies in the 22nd century
and beyond, Technological Forecasting & Social Change, 36, 217-222, August 1989

28
La scienza del rischio

3 La scienza del rischio

I narratori scelti come voci portanti di questo capitolo sono stati carpiti dalla televisione
inglese, in occasione di una trasmissione dedicata alla storia della teoria della
probabilità. Abbiamo preferito riportare alcuni stralci di questa puntata nella loro
struttura originale, senza interventi paludati e censori, per mettere in evidenza il grado di
piacevole narrazione e, al tempo stesso, di ricchezza e di rigore delle nozioni informatiche
veicolate dalla trattazione televisiva. Gli interventi hanno necessariamente dovuto essere
integrati e arricchiti da alcuni nozioni fondamentali riguardanti i processi stocastici, i
modelli a urna di Polya, gli ardui concetti di probabilità condizionale e di proprietà
markoviane di alcuni processi definiti "senza memoria". Nei titoli di coda di questa
puntata della trasmissione si poteva leggere la seguente nota di commento: La
collaborazione tra matematici e fisici, per la sceneggiatura di questo video, nasce alla luce
di un frase del grande astrofisico britannico vivente John D. Barrow, il quale sostiene che
“la statistica è la fisica dei numeri”.

3.1 Possibile: potenziale o probabile?

Tre approcci: deterministico, probabilistico, possibilistico. Il rischio non è una grandezza


fisica misurabile di tipo tradizionale. Può tuttavia essere assimilata a una grandezza di
natura deterministica, probabilistica o possibilistica. Quale è la corrispondente distinzione
etimologica tra gli aggettivi "potenziale", "probabile" e "possibile" ?

POTENZIALE: in grado di diventare realtà, di materializzarsi anche in forma diversa


dall'originale. Per esempio: l'acqua contenuta all'interna di una diga costituisce potenziale
energia elettrica; la carica di un condensatore è potenziale energia luminosa per la scarica
di un flash per fotografia.

PROBABILE: che può essere o divenire attraverso una legge di tipo aleatorio. Per
esempio: realizzare un doppio sei con una coppia di dadi è probabile 1 parte du 36; contare
zero gocce di pioggia su una mattonella del terrazzo quando in media ne cadono due è
probabile 1/e2 dove la costante e vale 2,71.

POSSIBILE: che può avvenire o non avvenire. Per esempio: essere investiti da una
automobile costituisce pericolo possibile se si attraversa la strada; l'abolizione della
proprietà privata è una possibile soluzione della crisi del paese.

Una prima definizione di rischio è quella di "potenziale danno, potenziale perdita": è


evidente la proprietà deterministica del termine. Un'altra definizione di rischio è quella di
"esposizione a perdita o danno": è immediata la proprietà probabilistica del termine. Un
gruppo dell'UNESCO ha definito il rischio come "possibilità" di perdita con una notazione
del terzo tipo. Le medesime estensioni valgono per il rischio economico e finanziario.

Un programma televisivo della BBC (British Broadcasting Corporation) . La puntata di


oggi è dedicata a un grande matematico famoso non tanto per il suo cognome quanto per
l'aggettivazione di quest'ultimo. Esperti e semplici orecchianti della teoria delle probabilità
hanno sentito spesso nominare il termine bayesiano e si sono chiesti : chi era costui? O
meglio: è mai esistito un individuo di nome Bayes? Oggi rispondiamo affermativamente
all'ultima domanda e vi raccontiamo la storia di Thomas Bayes. Il primo ospite di questo
pomeriggio è il Prof. Ian Hacking (IH), insigne storico della Teoria delle Probabilità,
famoso per il fondamentale testo The Emergence of Probability, A Philosophical Study of
29
La scienza del rischio

Early Ideas about Probability, Induction and Statistical Inference ( L’emergenza della
probabilità, uno studio filosofico sulle idee originarie di probabilità, induzione e inferenza
statistica ). Ho chiesto al mio buon amico Ian tre definizioni concise di queste parole
chiave del sapere moderno non a tutti note nel rigore del linguaggio matematico. Abbiamo
registrato per voi le sue risposte durante le riprese della nostra videoconferenza. Eccole.
La probabilità è un concetto intuitivo riguardante l'accadere di eventi che può essere
considerato come (a) espressione del "grado di credenza, fiducia o attendibilità" di una
affermazione o di un fatto; (b) frequenza limite di una serie di lunghezza infinita di prove
riproducenti determinati eventi. Entrambi gli approcci presentano le loro difficoltà che
tuttavia lo sviluppo della teoria delle probabilità in termini assiomatici consente di
superare, quantomeno sul piano formale. Le complicazioni si creano nel momento in cui ci
si interessa delle applicazioni del calcolo delle probabilità. Tra queste applicazioni,
l'inferenza statistica è l'espressione più importante.
La induzione costituisce un'istanza simbolica o formale di ragionamento che procede
verso la conclusione (quando essa esiste) operando da una parte al tutto, dal particolare al
generale, dall'individuale all'universale. Rappresenta il contrario di "deduzione" la quale
procede secondo il verso opposto.
Quanto è lontano il sole? Quanto è pesante questa patata? Esistono differenze raziali nei
punteggi dei test di intelligenza? Quale è la relazione che intercorre tra la statura dei padri
e quella dei figli? Il fumo causa il cancro? Questo dado è onesto oppure truccato?
L'introduzione del limite di velocità per autoveicoli in questo tratto di strada ha ridotto o
meno la sua pericolosità? Quanto è efficace questo antibiotico? Quanto dipende la resa di
un processo chimico dalle condizioni di temperatura e pressione? Come è distribuita la
ricchezza tra la popolazione del Regno Unito? Rispondere numericamente a questo
assortito campionario di domande costituisce il problema generale dell'inferenza
statistica.

Parte un videoclip. "Vietata agli snob e ai taccagni, Las Vegas, la città più importante
dello stato americano del Nevada riserva a tutti gli altri notti di pazzo divertimento e di
scoperte esilaranti. Esistono soltanto tre motivi per andare a Las Vegas. Primo: vedere la
capitale mondiale del cattivo gusto. Secondo: vivere almeno una notte da giocatore
d'azzardo. Terzo: verificare sulla propria pelle i concetti di teoria delle probabilità e della
matematica statistica". Nella sala da gioco dell'MGM, uno dei grandi alberghi, sono
piazzate 930 slot machines, più 10 tavoli da dadi ( il famoso Seven-Eleven), 6 roulette, 3
bacarat, 16 tavoli da poker, 61 da blackjack. In un angolo, IH che ha appena vinto 300 $ (
se non fa sputare la macchina un esperto come lui! ) si rivolge verso la telecamera e ci
parla.

IH: Anche se i dadi sono il più antico passatempo tra gli esseri umani di tutte le latitudini,
non esiste matematica degli eventi aleatori fino al Rinascimento. Nessuna delle
spiegazioni di questa circostanza risulta veramente convincente. Nel 1865 Isaac Todhunter
pubblica A History of the Mathematical Theory of Probability from the Time of Pascal to
that of Laplace per i tipi della Chelsea Publishing House. Rimane anche ai giorni nostri
una autorevole rassegna di quasi tutto il lavoro svolto sull'argomento dal 1654 al 1812.
Vorrei sottolineare che quello che il titolo promette, il libro mantiene. Non esiste infatti
alcun cenno storico ( attenzione, non preistorico!) da registrare prima di Pascal; dopo
Laplace, il concetto di probabilità è talmente universalmente compreso e capillarmente
diffuso da rendere di fatto impossibile una rassegna critica pagina – per - pagina del
materiale pubblicato in materia. Soltanto 6 delle 618 pagine del testo storico di Todhunter
discutono i predecessori di Pascal. La competenza specifica sviluppata dopo quel prezioso
volume può certamente far meglio, ma anche oggi possiamo gettare luce su pochi

30
La scienza del rischio

documenti, memoranda e note non pubblicate, di garantito valore storico, precedenti agli
scritti di Pascal. Eppure, "ai tempi del grande Blaise", molte classi di cittadini erano
coscienti dell'idea emergente del concetto di probabilità. Una storia filosofica, degna di
questo nome, non può soltanto registrare cosa accadde nel 1660, deve anche speculare su
come un pilastro della matematica moderna abbia potuto insorgere, dalle oscurità della
terra fino alla luce del sole, in maniera così improvvisa.
Come ho già accennato nel testa a testa girato insieme al mio caro amico David Frost (DF),
la probabilità possiede due visi, due facciate del medesimo mitico individuo di natura
duale.
Nessuno dei due aspetti era a conoscenza consapevole e deliberatamente appresa da
alcuno dei pensatori filosofici e matematici in epoca precedente a quella vissuta da Pascal.
Vi sono stati molti tentativi di spiegare la stranezza e l'incongruità di questa situazione.
Cercherò di illustrarvi il tutto in modo semplice e succinto: spero di riuscire. Ho già
premesso, all'inizio del mio intervento, che purtroppo nessuna di queste spiegazioni risulta
soddisfacente al di sopra di ogni sospetto.

DF: Una breve pausa per alcuni consigli commerciali. Restate con noi: avremo ancora il
prof. Hacking, leggeremo alcune pagine del Todhunter e del russo Maistrov sulla strana
storia di Thomas Bayes e tante altre avvincenti e affascinanti vicende di questa branca
della matematica. A fra poco.

Interruzione per gli spot pubblicitari del whiskey della Johnny Walker , del gin della
Tanquerey, degli alimenti surgelati della Hunt & Wesson, delle creme di bellezza della
Max Factor e delle auto in affitto della Rent-A-Car Avis. Compaiono nuovamente le
immagini da Las Vegas. "Per entrare nella case da gioco, non esiste alcuna formalità.
Con i blue jeans o in smoking, con un biglietto da 1$ oppure da 1000$, si riceve il
medesimo trattamento sollecito e affettuoso. Il personale è sempre sorridente e centinaia
di addetti al cambio sono sistemati su piccoli palchi o circolano con casse ambulanti tra i
tavoli. IA si avvicina a una slot-machine e prende uno dei barattoli di cartone, in cui versa
il contenuto della vincita.

3.2 Probabilità ed alea

IH: Vorrei esporre qualche fatto concreto e qualche congettura attendibile sulla preistoria
della casualità ("randomness"). Per chiarezza d’esposizione, premetto in sintesi quanto
dirò. Un primo enunciato di qualche rigore del principio di massima verosimiglianza può
essere riscontrato nel Dialogo sopra i due Massimi Sistemi (1632) di Galileo Galilei e
costituisce un nobile antenato e precursore dei concetti di statistica e calcolo delle
probabilità. Quest'ultimo viene alla luce in forma ufficiale nel carteggio (1654) tra i savant
francesi Blaise Pascal e Pierre Fermat che ha come tematica la filosofia e la ragioneria ante
litteram dei giochi d'azzardo. E' del 1657 il trattato De ratiociniis in ludo aleae
dell'olandese Christian Huygens. Siamo ormai alle soglie del territorio di frontiera del
dominio aleatorio.
Le origini del concetto di casualità possono infatti venire attribuite a tre fonti diverse non
mutuamente esclusive: (i) i giochi d'azzardo; (ii) ambizioni di natura capitalistica ovvero
pressioni di carattere economico e finanziario imposte o subite; (iii) esigenze e ragioni di
buon governo e amministrazione. La prima fonte conduce alla formulazione dell'aggettivo
aleatorio, derivante dal latino alea (cfr. alea iacta est ) i cui antesignani sono il talus e l'
astragalus ; la seconda fonte sposa la tesi weberiana ( cfr. Max Weber, Die protestantische
Ethik und der Geist des Kapitalismus, 1904-5 ) di un comportamento individuale e di una
scienza collettiva che si sviluppano per rispondere a imperativi economici; la terza prende

31
La scienza del rischio

spunto dalla pubblicazione di Natural and political observations made upon the bills of
mortality (1662), costituita da tavole di mortalità compilate dal mercante londinese John
Graunt, il primo insieme di qualche completezza considerato ancora oggi l'antenato degli
studi di inferenza statistica.

In un surreale gioco di colori al tramonto, si chiude il collegamento con Las Vegas.


Secondo i responsabili dell’ufficio centrale del turismo della cittadina del Nevada, le slot
machine sono tarate in modo da concedere in vincita ogni giorno il 30% di quanto
inghiottono complessivamente in puntate. Siamo insomma passati dalla teoria dei giochi
d’azzardo alle ferree leggi del profitto. Le tre fonti non mutuamente esclusive sulle origini
della teoria delle probabilità trovano a Las Vegas ( e non soltanto qui ) la loro perfetta
compenetrazione. Come volevasi dimostrare.

DF: Un giovane, ma ormai affermato, grande attore inglese ci legge ora alcuni stralci dal
menzionato libro di Isaac Todhunter (IT). Eccovi dunque, negli abiti di una straordinaria,
massima verosimiglianza ( gli statistici mi perdoneranno il gioco di parole!? ) con l’autore
del testo, il talento di Kenneth Branagh, giovane attore del teatro shakespeariano sulle
orme del grande Sir Lawrence Olivier.(Qualche risata stirata e applausi).

IT: Thomas Bayes nasca a Londra nel 1702. Diviene membro della prima generazione dei
nonconformisti religiosi inglesi: suo padre, Joshua Bayes, è un rispettato teologo del
dissenso e fa parte del gruppo dei sei ministers ordinati pubblicamente come
Nonconformisti. Educato privatamente, Thomas diventa assistente del padre nel presbiterio
di Holborn, un rione di Londra, ancora oggi sede di una fermata delle metropolitane. La
sua vita adulta lo vede minister della cappella di Tunbridge Wells, dove resterà fino alla
morte avvenuta il 17 aprile del 1761. La Royal Society di Londra lo ha eletto suo fellow
nel 1742.
Il nome di Bayes è associato con una delle più importanti parti del nostro argomento e,
precisamente, con il metodo di stima delle probabilità di alcune cause dalle quali un evento
osservato può essere stato prodotto o indotto. Come vedremo, Bayes ha data inizio
all'indagine e Laplace l'ha sviluppata enunciando il principio generale nella forma che è
stata da allora mantenuta inalterata. Dobbiamo a questo punto richiamare due memorie con
i seguenti titoli: Un Saggio verso la soluzione di un Problema nella Dottrina delle
Probabilità. Da parte del defunto Reverendo Bayes, comunicata dal signor Price in una
lettera indirizzata a John Canton. Una Dimostrazione delle Seconda Regola nel Saggio
verso la soluzione di un Problema nella Dottrina delle Probabilità.
La prima di queste memorie occupa le pagine 370-418 del LIII volume delle Philosophical
Transactions, volume 1763 pubblicato nel 1764. La seconda memoria occupa le pagine
296-325 del LIV volume delle Philosophical Transactions, volume 1764 pubblicato nel
1765
Come si deduce dal titolo della prima memoria, la pubblicazione di quest’ultima avviene
dopo la morte di Thomas Bayes. Il reverendo Richard Price è scrittore assai noto, una
firma di prestigio su temi di politica, scienza e teologia. La sua lettera a John Canton
comincia così: Caro Signore, le invio un saggio che ho trovato tra le carte del defunto
amico reverendo Thomas Bayes; lo scritto ha, secondo me, grandi qualità e merita di
essere custodito e conservato per i posteri.
La prima memoria contiene una lettera di presentazione di Price a Canton; segue il saggio
di Bayes, nel quale egli esordisce con una breve dimostrazione delle leggi generali della
Teoria della Probabilità e quindi espone i fondamenti del suo teorema. Viene inoltre fornito
l'enunciato di due regole che Bayes propone per trovare i valori approssimati delle aree
equivalenti agli integrali da noi proposti; non sono evidenziate alcune dimostrazioni.

32
La scienza del rischio

Price stesso ha aggiunto Un Appendice contenente un’Applicazione delle Regole vigenti in


alcuni casi particolari. La seconda memoria contiene la dimostrazione di Bayes della sua
regola principale per il calcolo approssimato; in aggiunta, alcune indagini di Price che si
riferiscono al medesimo argomento dell’approssimazione. Bayes fornisce il principio
attraverso il quale è possibile calcolare la probabilità di un evento composto. Questo
secondo scritto consiste in una risposta all'attacco intrapreso dal vescovo George Berkeley
(1685-1753), autore di The Analyst (1734), ai fondamenti logici del calcolo di Isaac
Newton. La replica di Bayes costituisce forse la più violenta e fondata ritorsione mai
espressa nei confronti del pensiero di Berkeley.

3.3 Probabilità e rischio

DF: Interrompo a questo punto l’intervento del nostro amato Prof. Todhunter ( alias
Kenneth Branagh ), per chiarire il concetto di probabilità di un evento composto.
Al fine di perseguire una definizione, prendiamo in considerazione un impianto industriale
nel quale i lavoratori sono esposti ( nel gergo degli addetti ai lavori, si dice “hanno una
certa propensione” ) all’eventualità di incidenti. La presenza di un incidente può essere
rappresentata come il risultato di un gioco d’azzardo a livello planetario: l’idea non deve
stupire più di tanto, se si pensa che la vita stessa è un fenomeno altamente aleatorio! E’
come se il Fato avesse, custodita in una segretissima scrivania, un urna contenente palline
di colore rosso e nero dalla quale con sistematica ricorrenza estrae una pallina e ne registra
il colore. L’uscita di una pallina rossa implica la comparsa di un incidente. Se la
probabilità di evenienza di un incidente rimane costante nel tempo, la composizione
dell’urna è sempre la stessa. Tuttavia è concepibile che un incidente induca conseguenze
( ovvero “produca ricadute” ) nel senso che incrementa o decrementa la probabilità di
nuovi incidenti. Quest’ultima circostanza corrisponde a un’urna la cui composizione muta -
secondo alcune regole - in seguito alle specifiche delle successive estrazioni. E’ abbastanza
facile inventare una varietà di dispositivi combinatori per coprire da un punto di vista
modellistico le diverse eventualità.
Per semplicità supponiamo di aver a che fare con un'urna contenente r palline rosse e n
palline nere: da questa urna non trasparente, viene estratta a caso, come nelle comuni
lotterie a tutti note, una pallina. Quest’ultima viene reinserita; insieme ad essa vengono
aggiunte c palline del colore estratto e d del colore contrario. Ha luogo quindi una nuova
estrazione da un urna contenente r+n+c+d palline e la procedura viene ripetuta un numero
indefinito di volte. I numeri c e d sono interi relativi arbitrari.
L’idea di usare modelli a urna per descrivere le conseguenze del verificarsi di un evento
sembra dovuta al matematico ungherese George Polya, il quale successivamente acquisisce
la nazionalità svizzera ( diventando docente presso il Politecnico di Zurigo ) e infine
quella statunitense ( Professor Emeritus alla Stanford University di Palo Alto). Il suo
schema è riportato in una memoria di F. Eggenberger e G. Polya del 1923. I tre casi
speciali di urna a correlazione negativa, nulla e positiva è dovuto a B. Friedman (1949).
La probabilità di un evento semplice è costituita dalla formulazione in termini matematici
della risposta a quesiti del tipo: quale è la probabilità P{R} di estrarre una pallina rossa?
Oppure: quale è la probabilità P{N} di estrarre una pallina nera? In via di principio, non vi
sono motivi per non ritenere, prima dell'operazione di estrazione dall'urna, ogni evento
semplice ( uscita di pallina rossa, uscita di pallina nera ) come equiprobabile e con
probabilità di estrazione pari a 1/(r+n).
Poiché sono presenti nell'urna r palline rosse e n palline nere, l'evento "estrazione di una
pallina rossa" avrà probabilità P{R} = r/(r+n) e analogamente l'evento "estrazione di una
pallina nera" avrà probabilità P{N} = n/(r+n). Ciò sembra del tutto coerente con qualsiasi
approccio si voglia utilizzare per definire la probabilità. E' vero inoltre che, nel pieno

33
La scienza del rischio

rispetto della struttura formale della probabilità, P{R} + P{N} = 1, la quale esprime la
certezza che il colore della pallina estratta può essere soltanto rosso o nero.
La probabilità di un evento composto è costituita dalla formulazione in termini matematici
della risposta a quesiti del tipo: quale è la probabilità P{RR} di comparsa di una pallina
rossa alla secondo estrazione dopo averne estratta una rossa alla prima? Oppure: quale è la
probabilità P{NR} di comparsa di una pallina rossa alla seconda estrazione dopo averne
estratta una nera alla prima? Chiariti questi concetti fondamentali, ho l'onore di restituire la
parole al Prof. Todhunter!

IT: Thomas Bayes sostiene che P{RR} = P{R}P{R|R} e che P{NR} = P{R}P{R|N}. In
termini verbali, il teorema di Bayes va letto come segue: la probabilità dell'evento
composto {RR}, cioè della comparsa di una pallina rossa alla prima prova e di una pallina
rossa alla seconda prova, è fornita dal prodotto della probabilità P{R} di una estrazione
rossa per la probabilità condizionale P{R|R} di una estrazione rossa alla seconda prova
data una estrazione rossa alla prima prova. Oppure: la probabilità dell'evento composto
{NR}, cioè della comparsa di una pallina nera alla prima prova e di una pallina rossa alla
seconda prova, è fornita dal prodotto della probabilità P{N} di una estrazione nera per la
probabilità condizionale P{N|R} di una estrazione rossa alla seconda prova data una
estrazione nera alla prima prova. La probabilità degli eventi composti {N,N} e {R,N} si
ottengono in maniera formale dalle espressione precedentemente introdotte sostituendo alla
lettere N e R le lettere R e N, rispettivamente.
Il teorema di Bayes risponde dunque a un quesito del genere seguente: "in che misura
(probabilistica) si può ritenere che l'estrazione di una pallina rossa o nera sia determinata
dal risultato di un'estrazione precedente?". Il contributo induttivo fornito da ogni estrazione
è dato dalle probabilità P{R|R}, P{R|N}, P{N|R}, P{N|N} definite anche verosimiglianze
mentre le probabilità P{R} e P{N} riguardano i due eventi in questione prima
dell'estrazione e sono quindi denominate probabilità a priori. L’associazione tra
verosimiglianze e probabilità a priori, vale a dire tra risultanze sperimentali e probabilità
pre- sperimentali, conduce quindi a una quantificazione delle probabilità delle cause o
probabilità a posteriori. In altri termini, si può affermare che le probabilità a priori delle
cause sono modificate dai risultati registrati in ogni esperimento attraverso le
verosimiglianze. A esperimento avvenuto le probabilità a posteriori potranno costituire la
base di calcolo o di attribuzione delle probabilità a priori in successivi esperimenti.
Per calcolare in forma esplicita le probabilità condizionali P{R|R}, P{R|N}, P{N|R},
P{N|N} è necessario precisare con maggiore rigore e accuratezza il funzionamento del
modello a urna adottato. Si tratta, in sintesi, di chiarire cosa accade alla pallina estratta a
caso in un generica prova. Le possibilità che si presentano possono essere riassunto in tre
circostanze:(i) la pallina estratta rimane definitivamente fuori dell'urna; (ii) la pallina viene
reinserita nell'urna; (iii) la pallina viene reinserita nell'urna e, inoltre, sono aggiunte c
palline del colore estratto e d palline del colore opposto. Le grandezze c e d sono numeri
interi relativi arbitrari.
In particolare se c = -1 e d = 0, il caso (i) ricade nel caso (iii) così come nel caso c = 0 e d =
0 anche il caso (ii) ricade nel caso (iii). Se c e d sono positivi, la loro presenza può essere
considerata un bonus, in caso contrario (b,d<0) la loro presenza può essere considerata un
malus.
Quale riscontro posseggono questi modelli a urna nella nostra vita quotidiana? Il caso (i)
può essere facilmente paragonato alle estrazione del lotto, in cui un numero estratto non
può venire estratto nuovamente e quindi viene lasciato fuori dell'urna. Il caso (ii) può
essere ricondotto all'Enalotto oppure a una simulazione del Totocalcio o del Totip in cui i
segni 1 X e 2 possono essere estratti a ripetizione. Il caso (iii) ricorda assai da vicino il
,processo bonus/malus delle polizze di assicurazioni su autoveicoli, per le quali l'assenza di

34
La scienza del rischio

incidenti è premiata con una riduzione della quota annua mentre la comparsa degli stessi è
punito con un aumento della quota annua.

3.4 Rischio stocastico

DF: Prima di procedere ulteriormente mi sento in obbligo di illustrare agli spettatori in sale
e davanti ai televisori domestici alcune semplici proprietà della frazioni proprie, cioè della
frazioni il cui valore è inferiore rispetto all'unità. Supponiamo di trovarci a lavorare sulla
frazione (2/3).
Cosa accade se aggiungiamo un'unità sia a numeratore che denominatore? Otteniamo (3/4)
che è maggiore di (2/3). Generalizziamo allora la proprietà: data una frazione propria
l'aggiunta del medesimo valore sia a numeratore che a denominatore la lascia inalterata
come frazione propria ma la trasforma in un valore numerico superiore a quello di
partenza.
Cosa accade se sottraiamo un'unità sia a numeratore che denominatore? Otteniamo (1/2)
che è minore di (2/3). Generalizziamo allora la proprietà: data una frazione propria la
sottrazione del medesimo valore sia a numeratore che a denominatore la lascia inalterata
come frazione propria ma la trasforma in un valore numerico inferiore a quello di
partenza.

IT: Torniamo al nostro modello a urna. I casi (i) (ii) e (iii) presentati in precedenza sono
simulatori assai efficaci dei tre tipi di fenomeni seguenti: (i) processo a correlazione
negativa ; (ii) processo totalmente casuale ( ovvero a correlazione nulla ) ; (iii) processo a
correlazione positiva.
La presenza di una correlazione nulla implica che l'estrazione di una pallina di un dato
colore ( rosso o nero ) non altera il valore delle probabilità di estrarre una pallina del
medesimo colore ( e di quello opposto ) nella prova successiva. Ciò equivale a sostenere
che la probabilità condizionale di un evento risulta identica a quella della probabilità
semplice relativa all'evento stesso. In termini matematici P{R|R} = P{R} = r/(r+n) e,
parimenti, P{N|N} = P{N} = n/(r+n).
La presenza di una correlazione positiva (c>0, d=0) implica che l'estrazione di una pallina
di un dato colore ( rosso o nero ) incrementa il valore delle probabilità di estrarre una
pallina del medesimo colore nella prova successiva e decrementa il valore della
probabilità di estrarre una pallina del colore opposto nella prova successiva. Ciò equivale
a sostenere che la probabilità condizionale di un evento composto omonimo, cioè del tipo
P{R|R} e P{N|N}, risulta maggiorata rispetto a quella della probabilità semplice relativa
all'evento stesso alla seconda estrazione, mentre la probabilità condizionale di un evento
composto eteronimo, cioè del tipo P{N|R} e P{R|N}, risulta minorata rispetto a quella
della probabilità semplice relativa all'evento stesso alla seconda estrazione. In termini
matematici, quanto detto si traduce nelle formule che seguono

P{R|R} = (r+c)/(r+n+c)
P{N|R} = r/(r+n+c)
P{R|N} = n/(r+n+c)
P{N|N} = (n+c)/(r+n+c)

35
La scienza del rischio

Applichiamo ora il teorema di Bayes, per calcolare le probabilità composte P{RR} e


P{NR}. Esse valgono, rispettivamente,

P{RR} = P{R}P{R|R} = r(r+c)/(r+n)(r+n+c)


P{NR} = P{N}P{N|R} = rn/(r+n)(r+n+c)

E’ quindi chiaro quanto sia determinante l’esito dell’esperimento eseguito.


La presenza di una correlazione negativa (c<0, d=0) implica che l'estrazione di una pallina
di un dato colore ( rosso o nero ) decrementa il valore delle probabilità di estrarre una
pallina del medesimo colore nella prova successiva e incrementa il valore della probabilità
di estrarre una pallina del colore opposto nella prova successiva. Ciò equivale a sostenere
che la probabilità condizionale di un evento composto omonimo, cioè del tipo P{R/R} e
P{N/N}, risulta minorata rispetto a quella della probabilità semplice relativa all'evento
stesso alla seconda estrazione, mentre la probabilità condizionale di un evento composto
eteronimo, cioè del tipo P{N|R} e P{R|N}, risulta maggiorata rispetto a quella della
probabilità semplice relativa all'evento stesso alla seconda estrazione. In termini
matematici, quanto detto si traduce in un formalismo matematico identico a quello
trascritto per la correlazione positiva, ma tenendo presente che - nel caso di correlazione
negativa - il valore della grandezza c è negativo.
In conclusione, tali variazioni delle verosimiglianze vanno a modificare le probabilità
a priori dell'evento composto.
Per chiarire il quadro complessivo, ecco un esempio numerico. Supponiamo di avere
nell’urna r=2 palline rosse e n= 2 palline nere e che c valga rispettivamente 1, 0 e -1 a
seconda della presenza di una correlazione positiva, nulla o negativa. Ecco come si
evolvono le probabilità condizionali nei tre casi:

per c =1 Bonus per c = 0 Neutro per c=-1 Malus


P(R|R) 3/5 P(R|R) 1/2 P(R|R) 1/3
P(N|R) 2/5 P(N|R) 1/2 P(N|R) 2/3
P(R|N) 2/5 P(R|N) 1/2 P(R|N) 2/3
P(N|N) 3/5 P(N|N) 1/2 P(N|N) 1/3

Probabilità Condizionali rispettivamente con Bonus-Neutro e Malus

A questo punto, è interessante chiedersi: quanto vale la probabilità generica di estrarre


una pallina rossa a una generica prova? Se, per semplicità scegliamo la seconda prova,
contrassegnando questa probabilità con il simbolo P{&R}, dove & contrassegna
indifferentemente N oppure R, avremo che quest'ultima sarà costituita dalla somma delle
due probabilità connesse con le possibili strade, mutuamente esclusive, per arrivare
all'estrazione di una pallina rossa alla seconda prova. In termini matematici P{&R} =
P{NR} + P{RR}. Sommando le espressioni esplicite ottenute in precedenza, si ottiene
{meraviglia, meraviglia!}

P{&R} = r/(r+n) = P{R}

La connotazione di meraviglia viene almeno in parte attenuata se si è in grado di


rispondere, con grande calma e pazienza, ai seguenti quesiti. Essi forniscono una sorte di
guida maieutica nel ripercorrere in termini di concetti logici quanto già espresso in
precedenza sotto un formalismo rigorosamente matematico. Le domande fondamentali
sono:

36
La scienza del rischio

(i) Come ha potuto verificarsi un'identità matematica del tutto corretta ma così
apparentemente contraddittoria?
(ii) Perché la probabilità P{&R} rimane inalterata?
(iii) Perchè la probabilità P{&R} non eredita le variazioni subite dal contenuto
dell'urna, il cui contenuto è stato appunto condizionato dall'esito
dell'esperimento appena eseguito?
(iv) Quale è la distinzione ontologica tra probabilità di un evento semplice e
probabilità di un evento composto?
(v) Quale è la distinzione ontologica tra probabilità condizionale e probabilità
generica?

DF: Prima di concludere, vorrei concedere per un’ultima volta (si fa per dire!) la parola al
Professor Ian Hacking per alcune succinte osservazioni di grande attualità, anche ai nostri
giorni. Tuttavia, rimanete con noi, perché abbiamo preparato un interessante sorpresa: uno
spezzone di un film americano degli anni '60 dove veniva anticipato il tema delle doti
cosiddette cosmetiche della statistica a priori e, soprattutto, a posteriori. Che cosa questo
abbia in comune con il teorema di Thomas Bayes lo capirete facilmente dai voi stessi. E, se
non lo capirete, ciò significa che il vostro coefficiente di apprendimento risulta assai
scadente oppure che la nostra capacità di divulgazione scientifica non è così eccezionale o,
soltanto e semplicemente, fuori della norma come, vanitosamente, pensavamo. Ladies and
gentlemen, ragazze e ragazzi ecco a voi il nostro amatissimo Ian, tornato incolume dalle
orgie probabilistiche di Las Vegas e dalle gite in fuoristrada nel deserto del Nevada.

IH: Oggi esistono due correnti di pensiero, entrambi qualificabili come bayesiane. Sir
Harold Jeffreys nella sua Theory of Probability (1939) sostiene che, in relazione ad un
qualsiasi dominio di informazione, al limite l'ignoranza totale, esiste una distribuzione
oggettiva dei livelli di confidenza attribuibili alle diverse ipotesi; egli rigetta spesso il vero
e proprio postulato bayesiano, ma accetta la necessità di postulati simili. Leonard J.
Savage, nel suo Foundations of Statistics (1954), rigetta le probabilità oggettive, ma
interpreta la probabilità in maniera personale, come un riflesso del grado di credenza
personale; quindi, una probabilità a priori equivale al grado di credenza personale prima di
aver effettuato una qualche osservazione, e la sua probabilità a posteriori equivale al grado
di cerednza personale dopo aver effettuato le osservazioni. Molti statistici che sono
bayesiani nel senso di fare inferenza utilizzando le probabilità a priori, tentano di mediare
tra Jeffreys e Savage. Sotto questo punto di vista forse vicini allo stesso Bayes. In fatti una
lettura accurata di questo autore conduce a definire la probabilità di un evento secondo
un'ottica sia soggettiva che oggettiva: non esiste prova significativa che Bayes abbia mai
riflettuto su quale potesse essere la sua interpretazione personale.

DF: Veniamo ora al videoclip che vi avevo promesso. Tutti voi sanno chi è Jules Feiffer?
Per chi non lo sapesse, Feiffer è autore dei testi e illustratore delle figure di innumerevoli
strisce di fumetti apparsi in America fino dagli anni '60. La ricaduta politica dei suoi lavori
lo ha fatto definire "come il maggior sociologo USA vivente", con ovvio risentimento
dell'accademia universitaria. Non basta. Commediografo e sceneggiatore di pellicole
cinematografiche, ha esordito in teatro nel 1964 con un copione degno, anche se
ambientato a Manhattan, del miglior teatro surrealista di Louis Aragon e Roger Vitrac. Il
titolo era Little Murders (Piccoli omicidi), la sede un modesto e sotterraneo teatrino di off-
off-Broadway, il protagonista Elliott Gould, il regista Alan Arkin (AA), entrambi ancora
sconosciuti perché esordienti. L'insuccesso più totale costrinse autore e produttore (lo
stesso Feiffer) a chiudere dopo 3 giorni, il susseguente film del 1971 suscitò quasi il
medesimo riscontro da parte della audience cinematografica. Quest'ultima non riusciva a

37
La scienza del rischio

comprendere i biechi scenari ( triste e tragica anticipazione!) di individui accoltellati nella


metropolitane, di donne stuprate nei vicoli, di cecchini che abbattevano a colpi di
vendicativa carabina autentici o presunti devastatori della quiete (quale?) pubblica. AA,
oltre che nella regia del film, si prodigava anche in un piccolo ma travolgente ruolo di
capitano di polizia, dall’intelletto ormai fuso. Vediamo e ascoltiamo il suo monologo.

AA: Tutto possiede un ordine. Se non è possibile individuare l'ordine, non è perché questo
non esiste, ma piuttosto perché abbiamo osservato in maniera non corretta alcuni elementi
circostanziali. Esaminiamo ora queste prove.
Numero uno. Negli ultimi sei mesi sono stati commessi in questa città 345 omicidi.
Le vittime erano variamente distribuite per sesso, età, classe sociale ed etnia.
Numero due. In nessuno di questi 345 omicidi è stato possibile individuare il movente.
Numero tre. Tutti e 345 gli omicidi rimangono classificati nei nostri registri come "caso
irrisolto".
Questi sono i fatti. Comincia a emergere una sottile configurazione. Qual'è questa
configurazione? Che cosa hanno in comune questi 345 omicidi? Hanno in comune tre
circostanze:

(i) non hanno nulla in comune;


(ii) non hanno movente;
(iii) conseguentemente, rimangono irrisolti.

Il panorama appare dunque più chiaro.

38
La previsione del rischio

4 La previsione del rischio

Mirabile videtur, quod non rideat haruspex, cum haruspicem viderit.


Appare stupefacente, che un indovino non sorrida, quando incontra un collega.
(Marco Tullio Cicerone, 106-43 a.C., De divinatione, II , cap. XXIV)

I narratori del presente capitolo sono Cicerone e l’ubiqua presenza del suo De
Divinazione; il genio di Richard Feynman, il fisico che ha elevato la disciplina a
sofisticato e irrispettoso gioco dialettico senza dogmi e certezze; Harold Linstone,
matematico, ingegnere e sociologo, uno dei massimi esperti mondiali nel settore della
previsione delle innovazioni tecnologiche; Warren Gilchrist, grande docente e autore di
libri sulla tecniche statistiche applicate alla previsione; Ivy Papps & Willie Henderson che
rappresentano un raro caso di economisti che conoscono a fondo la matematica; la terna
Makridakis-Wheelwright-McGee autrice del miglior libro di forecasting mai pubblicato,
con notevole amore per il dettaglio e massima attenzione didattica; e Norbert Wiener, il
padre della cibernetica occidentale, colto in un momento di rilassamento durante la
scrittura del suo diario privato e il “tuttologo” Roger Von Oech, consulente in tutti i
settori del management dalla IBM al Pizza Theater, dal gruppo Atari alla AT&T.

4.1 Il forecasting

Ciarlatani allo sbaraglio. Nell’antico Egitto, in Assiria e in Mesopotamia, sacerdoti


(spesso conosciuti con il nomignolo non proprio vezzeggiativo di stregoni) prevedevano il
movimento del sole e della luna e il comportamento di alcuni eventi terrestri e celesti, di
natura benefica o catastrofica, per garantire la continuità del potere costituito. Nell'antica
Roma, gli auguri indicavano il destino degli esseri viventi, studiando il movimento dei
pianeti e di altri astri per rassicurare gli animi irrequieti e ansiosi della gente povera e ricca.
Gli aruspici invece interpretavano la volontà degli dei attraverso l'osservazione delle
viscere delle vittime, non sempre umane, offerte in sacrificio. Sono mestieri secolari,
tuttora in vita. Oggi siamo circondati da indovini, opinionisti, esperti di marketing,
decision maker in economia e finanza, scrutatori di exit poll, pronosticatori di corse di cani
e cavalli, assicuratori e polizze sulla durata aspettata della vita di familiari parenti e
automezzi, astrologhi e maghi di città e provincia. In altre parole, vorremmo tutti essere o
almeno consultare l'affidabilità di stregoni, auguri e, perché no?, previsori di conti,
fenomeni e risultati.

Dalla divinazione alla previsione scientifica. Nella voce Previsione e possibilità della
Enciclopedia Einaudi, si può leggere: " L’aspirazione a determinare la forma del futuro
costituisce oggi una delle caratteristiche essenziali del pensiero umano. Essa può
realizzarsi in forme molto diverse: negli oracoli dei veggenti e dei profeti, i quali
sostengono che il futuro è loro visibile o rivelato in un modo particolare e inaccessibile agli
altri uomini; nelle predizioni degli auguri e degli astrologhi, che pretendono di riuscire,
sulla base di fenomeni visibili, come ad esempio lo stato delle interiora degli animali o
delle costellazioni dei corpi celesti, a leggere il destino futuro di individui o società; nelle
visioni globali dell'avvenire partorite da scrittori utopisti e da storiosofi che, in base a varie
convinzioni relative all'impianto razionale del mondo, alla natura umana o alle direttrici e
agli scopi del processo storico globale, traggono conclusioni sulla forma del futuro miranti
a dar senso alle vicende del passato. Infine, tale aspirazione si realizza nelle previsioni
basate sulla conoscenza scientifica e relative tanto ad eventi futuri quanto a processi
naturali e sociali complessi. Ciascuno di questi generi di previsione si riferisce a un
differente tipo di conoscenza, presupponendone la fondatezza. Di conseguenza ciascuno di

39
La previsione del rischio

essi può essere sconfessato se tale fondatezza viene messa in discussione. Ciò che in primo
luogo distingue la previsione scientifica da ogni altra forma di essa è che tanto il modo di
constatare stati di cose esistenti quanto la deduzione sulla loro base di stati di cose futuri
devono osservare certe regole di correttezza ritenute costitutive per la pratica scientifica.
Tali regole vengono elaborate dalla collettività degli scienziati e riconosciute tra di essi".

Le viscere degli animali sacrificali e l’esercizio del potere da parte dei sacerdoti. E' chiaro
a tutti oggi che la fisica è quasi interamente nelle mani di fisici sperimentali. Tuttavia
dovremmo apprezzare il fatto che la teoria abbia potere predittivo. Che cosa intendiamo
per predizione ? Ci meravigliamo, per esempio, di come Erodoto potesse credere
nell'oracolo di Delfi dei suoi tempi, dal momento che era un uomo intelligente. Ciò che
realmente accade è che ognuna delle predizioni dell'oracolo è formulata in un linguaggio
talmente vago e onnicomprensivo da essere in grado di prevedere quasi tutti i futuri. Le
predizioni divengono chiare ed esplicite soltanto dopo che gli eventi sono accaduti.
Soltanto allora si può vedere come hanno funzionato: perché ? Perché centrano sempre
l'accaduto. Gli alti sacerdoti di Babilonia avevano l'abitudine di predire gli eventi
osservando il fegato di una pecora. Per quale motivo ? Perché nella complessità della
disposizione delle vene, interpretata a loro uso e vantaggio, essi potevano sempre predire
quale sarebbe stato il futuro.E' quella complessità, e la possibilità di reinterpretare a
posteriori la disposizione delle vene, che consente il mantenimento del potere da parte dei
sacerdoti. I diagrammi che portano il mio nome (si tratta di rappresentazioni grafiche dei
termini della soluzione perturbativa delle equazioni della teoria dei campi) mi sembrano le
vene del fegato di una pecora. E' sempre possibile seguire la via giusta dopo gli eventi. Se
tentate di sottoporre a verifica le moderne teorie sulla base del loro valore predittivo,
trovate che esso è molto debole. (1)

Il secondo più antico mestiere del mondo. "Signore e signori, buon giorno. Gradirei
sottotitolare il mio intervento "Confessioni di un indovino (in inglese, forecaster)", titolo
che rappresenta una sorta di variazione sul tema della previsione e dell’inatteso di un altro
titolo. Quello di un film USA di notevole successo qualche anno fa furbescamente
intitolato Confessions of a window cleaner ("Confessioni di un addetto al lavaggio delle
finestre in un grattacielo"). Qui, come lì, non si è assolutamente in grado di prevedere
quale scenario si presentera al prossimo piano o alla prossima finestra. Appare ora chiaro
come il secondo più antico mestiere del mondo sia quello del forecasting, vale a dire la
sottile arte della stregoneria predittiva." Con queste più o meno fedeli parole, uno studioso
di fama mondiale sull'argomento aprì un convegno internazionale sulla previsione. Si
trattava di Harold A. Linstone, fondatore e redattore capo di una delle più importanti riviste
intitolata appunto "Technological Forecasting & Social Change". La bibliografia sul tema
del forecasting e argomenti affini è talmente ricca, dettagliata e firmata da scienziati di
grido, da rendere assolutamente impossibile scrivere qualcosa di appetibilmente nuovo.
L'unica soluzione da adottare è quella di un antologico collage, una sorta di macroscopico
patchwork di quanto è stato scritto di notevole sul tema.

Il mito e la necessità della previsione. Fino dalle origini della tradizione scritta, e
probabilmente assai prima, l’uomo ha avvertito il bisogno e l’impulso a prevedere il futuro,
l'ambizione di comprendere le conseguenze delle proprie decisioni, la abilità di
visualizzare in anticipo gli effetti di azioni ed eventi: tanto da fare della previsione una
delle funzioni operative più rilevanti dell'intera mente. Dove il fenomeno era di natura
prevalentemente fisica, come la comparsa del solstizio d'estate o di una eclissi solare o
lunare, l'uomo è stato in grado di fornire previsioni accurate anche in età assai primitive, e
sulla base di dati puramente empirici. Infatti sono stati elaborati metodi che funzionano

40
La previsione del rischio

adeguatamente senza che esista la minima comprensione del perché siano di tale successo
nella previsione. Più tardi, non appena progredisce l'approfondimento sulla natura del
fenomeno sotto osservazione, vengono sviluppati modelli teorici che mettono in
condizione di formulare previsioni ottenute su basi molto più razionali. Un esempio ? Una
grandezza economico-finanziaria (il numero dei clienti di un supermercato, l'ammontare
delle vendite di un prodotto alimentare, farmaceutico, librario, audiovisivo) viene messa in
grafico in funzione dei giorni della settimana, del mese, di un trimestre, di un anno.
L'andamento per punti suggerisce l'ipotesi di tracciare una curva che li unisca in maniera
continua: il matematico, che si occupa di previsioni, cerca di risalire allora al tipo di
equazione differenziale che ammetta quell'andamento come soluzione. L’equazione
differenziale costituisce il modello matematico di previsione. Durante l'ultimo secolo,
l'interesse di studiosi e ricercatori si è focalizzato su un numero assai diversificato di
fenomeni, come le variazioni meteorologiche oppure il ciclo delle macchie solari, dove (i)
è a disposizione una serie di osservazioni (spesso denominate serie temporali) prelevate su
un periodo temporale sufficientemente lungo da permettere una osservazione completa del
fenomeno sotto analisi; (ii) regole puramente matematiche sono in grado di descrivere i
processi, come nel caso di fenomeni planetari, movimenti di macchine e strumenti di
precisione e così via; (iii) regole puramente matematiche non sono in grado di descrivere i
processi, come nel caso di processi con un alto contenuto di fenomeni di natura aleatoria
come comparse sismiche, catastrofi naturali e indotte, mutazioni climatiche locali e globali,
giochi d'azzardo e così via.
Negli ultimi cinquanta anni, sono stati sviluppati approcci di questo tipo al problema per
cercare di includere nel modello matematico la componente aleatoria e la complessità
incognita di queste situazioni. Per questo motivo, i metodi di previsione sono
essenzialmente di natura statistica: essi sono basati sull'uso di tecniche statistica che
adattano modelli matematici di una ampia varietà di tipi alle serie temporali storiche o
strumentali e sulla previsione basata sulla estrapolazione di questi modelli alle situazioni
future. (2)

4.2 Il forecasting come modello di futuro

Che cosa è un modello ? Nel corso della nostra settimana di lavoro e di tempo libero, noi
stessi facciamo un uso continuo di modelli. A volte questa utenza è consapevole, altre volte
è del tutto inconsapevole. Vediamo alcuni esempi. (1) Nel corso di una sfilata di moda,
modelli e modelle portano abiti per mostrare agli spettatori della platea come i medesimi
abiti apparirebbero una volta indossati dai membri della audience. Anche se il fisico del
modello o della modella è spesso assai lontano da quello dell'uomo o della donna comune,
questi(e) ultimi(e) possono farsi una idea abbastanza approssimata della figura che l'abito
farebbe, una volta indossato da un comune mortale. Questi tipo di modello realizza qualche
intenzione in più rispetto al semplice fornire informazione sull'abito: rappresenta infatti un
ideale, vale a dire una persona da ammirare e, forse, da invidiare.(2) La modella o il
modello di un artista è una persona in carne e ossa: un originale che viene copiato dal
pittore o dalla scultrice. La copia è sempre una riproduzione incompleta dato che l'artista
omette alcuni dettagli che, nel suo giudizio, non sono rilevanti oppure graditi. L'artista non
riproduce come una fotografia ma crea una sua interpretazione del mondo. (3) Un
modellino di aeroplano consiste di solito in una rappresentazione in scala ridotta di un
velivolo reale. Una volta ancora la copia manca di alcuni dettagli, perchè le dimensioni
inferiori non permettono tale dettaglio di informazione. Molti modellini sono di questo
tipo: automobili, soldati, navi, ponti e così via. Spesso i modelli sono costruiti prima degli
oggetti reale in scala 1:1 per aiutare i progettisti a valutare l'impatto dei loro futuri prodotti.
(4) Il famoso modello T della automobile progettata e costruita da Henry Ford era un tipo

41
La previsione del rischio

di automobile e non una riproduzione in miniatura della realtà. Questo uso specifico della
parola "modello" ha continuato a essere applicato a una vasta varietà di prodotti come
radio, televisori, telecamere, videoregistratori, macchine fotografiche, personal computer e
così via. (5) Come il modellino di aeroplano, il modello di un villaggio pellerossa è una
copia in formato ridotto del suo gemello reale e ne omette alcuni particolari per esigenze di
spazio. Diversamente dall'aeroplanino, questo modello non costituisce la copia di un
particolare villaggio pellerossa, ma ne rappresenta la tipologia media: una sorta di sistema
di classificazione che mostra gli aspetti più tradizionali dei costumi di vita di quelle
popolazioni. (6) Un bambino modello differisce da tutti gli altri tipi di modelli. Dal punto
di vista dei genitori, un bambino modello costituisce il migliore dei bambini possibili. Così
come uno studente modello rappresenta il migliore studente possibile nell'ottica
dell'insegnante. Questi 6 usi familiari della parola modello differiscono tra loro, ma alcuni
aspetti comuni cominciano a emergere. Primo, tutti i modelli comunicano informazioni a
proposito di altri oggetti: sono immagini sostitutive (e spesso, distorte) di altre realtà.
Secondo, i modelli omettono dettagli rispetto alle realtà che intendono rappresentare: questi
dettagli possono essere generalmente irrilevanti, ma essi rendono comunque il modello una
versione semplificata dell'oggetto che si vuole rappresentare. Terzo, alcuni modelli hanno
lo scopo di raccomandare caratteristiche speciali dell'altro oggetto, quello vero. In questo
modo, possiamo arrivare a una definizione operativa di modello: essa costituisce un modo
di guardare a un oggetto della vita reale, omettendo gli aspetti irrilevanti ed esaltando le
relazioni considerate più importanti. Se questa definizione è corretta, ecco che spesso
facciamo uso di modelli senza la esplicita consapevolezza. Torniamo a un esempio già
discusso in precedenza. L'ottica dell'insegnante riguardo allo studente modello non è la
stessa dei suoi compagni di corso oppure del suo boyfriend o della sua girlfriend. Ecco
allora entrare in gioco un problema di relatività. Il modello non è una entità assoluta ma
riflette le caratteristiche e le finalità di chi lo costruisce. (3)

La previsione e la vita quotidiana. Ogni volta che fissiamo un appuntamento, stiamo in


effetti compiendo una operazione di previsione sulla nostra capacità di essere puntuali
all'impegno prefissato. Nel caso specifico di un appuntamento a breve scadenza, per
esempio "ci vediamo tra 10 minuti", non è assolutamente il caso di parlare di previsione.
Tuttavia nel caso di un appuntamento a medio- oppure lungo-termine, è invece il caso di
pensare a tutte quelle circostanze di vita che possono essere in grado di impedire la
realizzazione dell'incontro prefissato. Tali atti di pensiero, consci o inconsci che siano,
fanno parte della nostra vita quotidiana. E' la natura del fenomeno può non essere estesa
nel tempo: potrebbe riguardare lo spazio o la quantità. Quando, a pranzo o a cena,
mangiamo un secondo piatto composto da carne, patate e verdura, chi non ha notato che
spesso si arriva alla condizione in cui è rimasta da mangiare una forchettata di ciascuno dei
tre alimenti ? Chi si è reso consapevole della strategia previsionale intrapresa in modo da
consumare equamente i tre tipi di alimenti in modo tale da farli durare tutti e tre fino alla
fine della degustazione ? I problemi industriali di produzione e consumo sono soggetti
all'obbligo della adozione di tecniche previsionali: il buon manager non è tanto colui in
grado di minimizzare gli errori del passato, quanto colui in condizione di organizzare con
successo il futuro. Considerate, a titolo di esempio, le seguente lista di domande relative a
problemi di natura gestionale: (1) A quanto ammonteranno le vendite del prossimo mese?
(2) Quanto è il caso di produrre questo mese? (3) Quali scorte devono essere mantenute in
magazzino? (4) Quante materie prime è il caso di acquistare? (5) Quando è il momento di
acquistarle? (6) Quale è l'obiettivo da raggiungere con le vendite? (7) E' il caso di
aumentare l'entità della forza-lavoro? (8) A quale prezzo vendere i prodotti? (9) Quanti
operatori sono richiesti nel settore? (10) A quanto ammonteranno i profitti? Per ottenere
risposte valide a queste domande, è necessario conoscere in anticipo il futuro. Per essere in

42
La previsione del rischio

grado di fornire le migliori risposte pratiche a queste domande, dobbiamo essere in grado
di prevedere il futuro. Le previsioni potranno rivelarsi errate, ma devono essere formulate.
In passato, molte risposte a queste domande si sono basate su previsioni inconsce o
semiconsce. In queste previsioni si è spesso assunto che il futuro sarebbe stato in prima
approssimazione molto simile al passato più recente. L'interesse crescente in molti aspetti
della previsione nasce dalla certezza che, prendendo in considerazione un ulteriore numero
di variabili caratteristiche del sistema sotto studio, una previsione accurata e consapevole
conduca a un netto miglioramento della capacità gestionali. E' vero che in molti casi la
previsione cosiddetta "scientifica" non raggiunge risultati qualitativamente diversi dalla
antica previsione by guess and by gosh (dell'indovinare per tentativi ). Adottare un
procedimento metodologico conduce comunque a una riproducibilità dell'approccio al
problema, lasciando minore margine all'intuizione soggettiva e alle varie soluzioni di
carattere euristico. (2)

Previsione: le vette della letteratura e le difficili scalate. Gli ultimi quattro decenni sono
stati testimoni di un numero rilevante di sviluppi in teoria della stima e della previsione,
che hanno avuto una ricaduta diretta, in termini di rilevanza e applicabilità, nel forecasting
organizzativo e gestionale. Questi progressi, sia teorici sia pratici, sono stati resi necessari
dall'aumento dei tassi di complessità, competitività e rinnovamento nell'ambiente sia
naturale che industriale. Organizzazioni di tutte le dimensioni, da quella locale a quella
multinazionale, calcolano previsioni sul futuro mirate a ridurre i margini di incertezza nei
confronti dell'ambiente e a trarre il massimo vantaggio dalle opportunità disponibili alla
organizzazione stessa. Per quanto riguarda lo sviluppo di nuove techniche per la
management science, le applicazioni di metodologie di forecasting sono rimaste indietro
rispetto alle loro formulazioni e verifiche teoriche. Malgrado molti dirigenti e studenti
siano consapevoli della necessità di previsioni affidabili, pochi hanno familiarità con
l'intero spettro delle tecniche esistenti e dello loro caratteristiche o ancora meno hanno il
background di studi necessario e richiesto per selezionare e applicare con successo i
metodi più appropriati in situazioni specifiche. La letteratura sul forecasting sta soltanto
ora cominciando a mettere a fuoco la traduzione di metodi teoricamente possibili e
computazionalmente fattibili in una forma che possa essere facilmente comprensibile e
applicabile. Esistono molti libri eccellenti e una pletora di articoli di ricerca sulla
previsione, ma questi sono generalmente scritti dagli specialisti che hanno effettuato la
formulazione e la verifica teorica delle tecniche specifiche e che stanno cercando di
comunicare i risultati delle loro ultime indagini ad altri specialisti. Per esempio, i lavori di
R.G. Brown (Smoothing, Forecasting & Prediction , Prentice Hall 1963 e Statistical
Forecasting for Inventory Control , McGraw-Hill 1965) e di G.E.P. Box & G.M. Jenkins
(Time-Series Analysis, Forecasting and Control, Holden-Day 1976) sono opere superlative
nello sviluppo e nella individuazione delle proprietà statistiche di alcune classi specifiche
di metodi di previsione. Tuttavia, hanno il difetto di non comunicare al neofita della
materia o allo studente universitario la piena consapevolezza di che cosa siano o come
possano essere applicate con grandi risultati di carattere applicativo. Di conseguenza, la
persona che sta cercando alternative progressiste alla sue limitate nozioni in materia si
trova davanti a due mura praticamente insormontabili: primo , deve diventare un esperto in
matematica; secondo , deve leggere non uno ma più libri. Infatti, ciascun libro descrive
uno solo dei metodi in oggetto oppure una singola classe molto ristretta di metodi. Non
tutti sono preparati, oppure semplicemente hanno il tempo, per effettuare questa difficile
arrampicata professionale. (Spyros Makridakis, Steven C. Wheelwright, Victor E. McGee,
Forecasting: methods and applications, John Wiley & Sons 1983) I tre autori si occupano
di business administration . Il primo è stato fondatore e redattore-capo del Journal of
Forecasting . Il secondo è matematico, il terzo è docente di statistica applicata. Il libro da

43
La previsione del rischio

loro scritto rimane uno dei più validi esempi della qualità divulgativa e pedagogica di una
vera collaborazione interdisciplinare. I più complessi e articolati algoritmi matematici
vengono introdotti e spiegati con la stessa dovizia di semplicità e completezza con la quale
si giustifica la adozione della media aritmetica come indicatore statistico di riferimento per
quantizzare i più elementari problemi di business administration. Ancora una volta la
matematica serve a facilitare e non a complicare la soluzione di alcuni problemi.

Previsioni e war games. Dal mio punto di vista, l'uso più qualificante delle equazioni di
Hopf-Wiener si trova quando i confini tra i due regimi risulta temporale e non spaziale. Un
regime rappresenta lo stato del mondo fino a un dato istante, mentre l'altro regime
rappresenta lo stato del mondo successivo a quel dato istante. Queste equazioni diventano
così strumento assai appropriato per taluni aspetti della teoria della previsione, nella quale
la conoscenza del passato viene usata per determinare il comportamento futuro di un
sistema. Tuttavia, esistono anche molti problemi generali di strumentazione che possono
essere risolti con le medesime tecniche operanti nel dominio dei tempi. Tra questi si trova
tutta la teoria generale dei filtri, che consiste nel prendere in considerazione un messaggio
che è stato corrotto da un rumore in sovrapposizione temporale e ricostruire il messaggio
originario con una fedeltà proporzionale alla nostra abilità di eliminare i disturbi. Sia il
problema della previsione sia quello dei filtri sono stati di notevole importanza nella
seconda guerra mondiale e rimangono di notevole importanza nelle nuove tecnologie che si
sono sviluppate in periodo di pace. I problemi di previsione sono comparsi nel controllo
della artiglieria contraerea, perché un cannone per abbattere aerei deve essere sparato
prima che il velivolo nemico passi sull'obiettivo, esattamente nello stesso modo in cui
opera un cacciatore di anatre. Se il cacciatore mira all'anatra, quando il proiettile arriva a
destinazione l'anatra è ben più avanti nella sua traiettoria: è necessario quindi sparare nel
punto in cui si prevede che sarà l'anatra nel momento in cui arriva anche il proiettile. I
problemi dei filtri sono stati di notevole applicazione nella progettazione del Radar (RAdio
Detection And Ranging ). Entrambi i problemi di previsione e filtraggio sono importanti
nella tecniche statistiche della moderna meteorologia. (4)

La menzogna: laddove esiste problema, esiste anche soluzione. Quando introduciamo nel
discorso la parola "problema", siamo inconsapevolmente indotti a pensare alla sua
soluzione e alla assunzione che essa esista. Grave errore. Ci hanno insegnato a scuola,
attraverso una sorta di lavaggio del cervello, che i problemi abbiano soluzione. Basta
osservare i libri di testo, e non solo di matematica: oggi tutte le materie vengono insegnate
attraverso una struttura a quiz. Un libro di testo presenta soltanto problemi che posseggono
soluzione, spesso nell'appendice del libro, a volte su pagine capovolte, in modo che sia più
difficile "spiare" la soluzione. Tali libri si dimenticano di affermare che nel mondo attuale
soltanto pochi problemi ammettono soluzione: e spesso la nuova soluzione, fornita da una
apposita tecnologia, crea più e nuovi problemi. Le misure di sanità pubblica hanno
drasticamente ridotto i tassi di mortalità ma hanno favorito una esplosione demografica a
livello globale. L'introduzione delle tecniche europea nella agricoltura africana producono
cibo a breve termine ma desertificazione a lungo termine. Sarebbe più corretto affermare
che più che risolvere problemi, noi li rimuoviamo: per farli risorgere, moltiplicati e
amplificati, in tempi successivi e in spazi adiacenti. (5)

Tre metodi di previsione: intuitivo, causa-effetto, estrapolazione. Esistono molti metodi


di previsione statistica, nessuno dei quali si fa preferire agli altri come capace di fornire
tutte le risposte a tutte le domande. Le tecniche discusse sono state scelte perché ai primi
posti di una classifica basata sulla quantità delle applicazioni di successo. Nuove tecniche e
applicazioni compaiono ogni mese sulle riviste specializzate: non possono essere inseguite

44
La previsione del rischio

perché si corre il rischio di perdere la visione di insieme dei principi generali metodologici
alla base delle varie categorie di previsione. Accontentiamoci quindi di fornire una
panoramica generale delle tre grandi categorie della previsione. Previsione del primo tipo.
Il classico metodo di previsione è definito intuitivo. Esso è basato essenzialmente sul
feeling che l'individuo ha con la situazione: per feeling intendiamo familiarità, esperienza,
professionalità, anzianità di trattazione dell'argomento. In gergo, tutto ciò definisce
l'opinione dell'esperto. Spesso si assume l'intuito come capace di una prima soluzione di
cruda approssimazione, dovuta per esempio alla scarsità di dati rilevanti e affidabili a
disposizione. Una metodologia ovvia per migliorare questo approccio è quella di sostituire
il singolo esperto con un piccolo gruppo di esperti oppure con un vero e proprio comitato
di esperti. Per esempio, nel prevedere le vendite si può ricorrere alle opinioni congiunte di
un gruppo di rappresentanti oppure a una assemblea di soci dell'azienda. Alternativamente,
si può programmare un campionamento significativo dei potenziali clienti. Previsione del
secondo tipo. Il secondo metodo è definito causale. Questo approccio è basato sulla
previsione degli effetti, essendo a priori note le cause. In molte situazioni di forecasting, le
cause sono economiche e quindi la maggior parte del lavoro risulta di natura economica. Si
studiano infatti le relazioni economiche tra causa ed effetto: se gli effetti hanno luogo dopo
le cause, la conoscenza diretta delle cause conduce alla determinazione degli effetti.
Tuttavia se, come spesso accade, il tempo che intercorre tra la causa e gli effetti risulta
assai breve, è il caso di prevedere anche le cause, dato che l'informazione a proposito della
cause può divenire nota soltanto qualche tempo dopo che gli effetti si sono palesati. Se la
natura della relazione tra causa ed effetti è nota, allora esistono molti metodi di previsione
elaborati e affidabili. Nondimeno, accade spesso che la natura della relazione tra causa ed
effetti risulta oscura: in questo caso, si è forzati all'uso di forme empiriche di ipotesi e
assunzioni. Previsione del terzo tipo. Questo terzo metodo è definito estrapolativo. Questo
approccio è basato sulla estensione al futuro di alcune delle caratteristiche temporali
assunte dal sistema sotto osservazione in un passato alquanto precedente. I metodi sono
solitamente di natura matematica o statistica. Tuttavia, per formulare correttamente una
situazione previsionale, è necessario partire da modelli assai semplici e schematici, quasi
naive. Quando il comportamento del sistema sotto analisi comincia a essere compreso nelle
sue linee essenziali, allora possono essere avanzate ipotesi più complesse e proposte ipotesi
più sofisticate. (2)

Il modello come metafora. Per spiegare che cosa sia una metafora, ricorrerò a una
metafora. Supponiamo che siate un turista in volo per Las Vegas oppure Reno, entrambi
località dello stato del Nevada dove non vi siete mai recato in precedenza. Scendete
dall'aereo e affittate una automobile. Quale è il primo gesto da compiere? Probabilmente
comprare una mappa della città per vedere come è distribuita la città, per scoprire dove
sono le strade principali, gli alberghi, le case da gioco, le autostrade, gli eventuali motel e
così via. La mappa in se stessa non è Las Vegas oppure Reno, ma fornisce un idea
rappresentatrice della città. Quindi, la metafora è una mappa mentale. Abbiamo sempre a
che fare con metafore: forse, il linguaggio stesso è una metafora. Le metafore ci aiutano a
capire un'idea sconosciuta tramite similitudine con un'idea conosciuta e familiare. Come si
chiamavano le automobili prima che venissero battezzate con il loro nome più appropriato?
"Vetture senza cavalli". Le prime locomotive venivano chiamate "cavalli di ferro". Spesso
i riferimenti prendono come elemento di familiarità il corpo umano: in tal modo i martelli e
i titoli principali dei giornali hanno "testa", i tavoli hanno "gambe", le strade e i titoli
laterali hanno "spalla", i letti hanno "testa e piedi", un gruppo di ciclisti ha "testa e coda" e
così via. E' tutto molto soft , ma è il modo in cui pensiamo: non posso farci nulla. (6)

45
La previsione del rischio

Gli antichi pastori e le (pre)-visioni del cielo stellato. Abbiamo detto che spesso i
riferimenti e le interpretazioni come elemento di similitudine elementi oppure componenti
del corpo umano o animale. In parole più dotte, il medesimo concetto può essere espresso
sostenendo che la gente tende a vedere antropomorfismi, vale a dire forme e aspetti a
immagine e somiglianza dell'uomo. Le ragioni di questi accostamenti sono molteplici:
tuttavia, la causa principale è che la gente tende a vedere forme note dappertutto, anche
quando la forma non è implicita in ciò che si osserva. Volete un esempio calzante?
Prendiamo in esame una porzione di cielo notturno primaverile nell'emisfero settentrionale.
Esso è rappresentato da un insieme piuttosto disordinato di stelle. Migliaia di anni fa, gli
antichi si fermavano a osservare la volta celeste, davano enfasi prioritario ad alcune stelle
invece che ad altre, ignoravano completante altre ancora, operavano connessioni lineare tra
le stelle prescelte e finivano con il fissare sulla volta notturna figure di animali, guerrieri e
strumenti: una sorta di Rohrschach celeste! I pastori vedevano un cielo istoriato da capre,
arieti, tori, leoni, scorpioni, acquari e pesci, gli arcieri credevano di scorgere immagini di
sagittari, bilance e gemelli e così via. In questo modo, la visione , la previsione e
l'interpretazione di forme finiscono per affidare all'uomo strumenti di conoscenza e
comprensione che si trasformano immediatamente in condizioni di esercizio del potere su
altri uomini. Essi regolano il nostro modo di pensare (credenze, religione, scienza) e
stabiliscono regole (politica) da imporre sul resto della umanità: regole secondo le quali
noi giochiamo a quel grande gioco chiamato vita. (6)

Scopriamo come prevedere il futuro, imparando a prevedere il passato. Tentare uno


studio scientifico di previsione del futuro potrebbe apparire esercizio senza speranza, dato
che ogni problema risulta ovviamente unico. Tuttavia, osservando più da vicino alcuni
esempi di previsione, si possono intravedere alcuni principi comuni ai vari casi.
Analizziamoli in dettaglio. (1) Quando si può assumere valida la stabilità. Molti esperti nel
campo della programmazione e della pianificazione di istanze politiche si trovano a trattare
con la previsione di un futuro nel caso di assenza di nuove iniziative in un particolare
settore. Essi prendono in considerazione la struttura della società e intraprendono azioni
per introdurre opportune riforme in grado di migliorare la società in linea e in armonia con
il loro credo politico. Per decidere quale azione intraprendere, essi devono in primo luogo
essere in grado di identificare nella società strutture che rispondano alle loro proposte
esecutive. Talvolta, e a volte spesso, accade che le riforme non riscuotano il successo
sperato. Le cause di questo effetto indesiderato possono risalire a (i) identificazione
erronea della struttura oppure (ii) la mancanza di stabilità di quella struttura. Se vuole
formulare previsioni corrette e definire in conseguenza istanze di rinnovamento, il policy-
maker deve essere capace di identificare la struttura appropriata e avere per lo meno un
margine certezza sulla stabilità della struttura per un periodo di tempo sufficientemente
lungo. Quando la stabilità esiste. H.T. Davis (The Analysis of Time-Series, Cowles
Commission, Yale 1941) sostiene una ipotesi molto brillante e realistica: se la massa del
sole non fosse così preponderante rispetto a quella di tutti gli altri pianeti del sistema a esso
affiliato, sarebbero necessari metodi statistici per indagare le leggi fisiche e tracciare le
orbite previste per il moto di tutti i suoi satelliti. Così come stanno i fatti nella realtà, la
forza di attrazione del sole nei confronti di ogni altri singolo pianeta è così poderosa che
l'orbita del pianeta in questione è la medesima che si avrebbe in totale assenza di tutti gli
altri satelliti orbitanti intorno al sole. Dalle osservazioni compiute sulla natura di queste
orbite può essere dedotta la struttura della relazione che intercorre tra sole e pianeta e
quindi può essere ipotizzata la legge di gravitazione (vale a dire, la forza di attrazione
mutua varia con il reciproco del quadrato della distanza): il modello matematica si adatta
infatti perfettamente ai dati ottenuti attraverso le osservazioni sperimentali. La grande
stabilità della situazione mette in condizione il fisico di formulare previsioni assai accurate

46
La previsione del rischio

e affidabili sulle orbite future e quindi sulle posizioni via via assunte nel tempo da parte del
pianeta. Se la massa del sole fosse più ridotta, i suoi effetti non avrebbero dominato le
orbite degli altri pianeti e si sarebbero osservate traiettorie orbitali assai diverse e più
complicate. Come conseguenza di questa complicazione, la forza di attrazione
gravitazionale sarebbe ancora la medesima e la sua natura fondamentale, ma la legge dei
reciproci dei quadrati delle distanze sarebbe stata assai più difficile da dedurre dai dati
sperimentali. In conclusione, prevedere le posizioni future dei pianeti sarebbe stato molto
più laborioso. Ordinazioni ricevute da una ditta. Come terzo esempio, analizziamo
comparativamente varie sequenze temporali, diverse tra loro, le quali possono per
semplicità essere pensate come ordinazioni ricevute da una ditta, ogni settimana, per un
determinato prodotto. Ecco alcuni esempi in proposito:

Ordinazioni ricevute (in migliaia di unità)


NS 1 2 3 4 5 6 7 8 9 10 11 12
(a) 6 6 6 6 6 6 6 6 6 6 6 6
(b) 6 6 6 6 9 6 6
(c) 6 6 6 6 9 6 6 6 6 9 6 6
(d) 7 6 6 4 7 6 8 6 5 6 6 6
(e) 8 8 9 8 12 12 15 14 14 16 18 17

dove NS indica il Numerale delle Settimane successive. Che cosa possiamo capire
dall’andamento delle cinque sequenze, denominate rispettivamente dalla (a) alla (e), della
tabella riportata nel testo ? Nella sequenza (a) sembra che gli ordini vengano da un singolo
cliente la cui domanda è costante. I dati mostrano una struttura molto semplice, dal
comportamento stazionario su un valore costante. Ci sentiamo abbastanza confidenti nel
prevedere 6(mila) ordinazioni anche per la settimana 13. Se i dati assumono la forma
caratterizzata dalla sequenza (b), la presenza di un 9(mila) alla settimana 5 comporta
qualche dubbio sulla stabilità della struttura delle ordinazioni nelle settimane successive
alla settimana 8. Possiamo pronosticare allora un 6(mila) nelle settimane 8 e 9 e azzardare
un 9(mila) alla settimana 10. Questa struttura farebbe supporre che le ordinazioni da parte
di due clienti: uno è il cliente della sequenza (a), il secondo è un cliente che ordina 3(mila)
ordinazioni ogni cinque settimane. Tuttavia, mentre la estrapolazione della sequenza (b)
costituisce una pura ipotesi, questa ipotesi diventa realtà nella sequenza (c): tale da farci
prevedere un numero di ordinazioni pari a 9(mila) anche per la settimana 15. Sembra tutto
troppo semplice per essere vero: come diceva in proposito il grande G.B. Shaw, la vita è
troppo vera per essere semplice. Ciò equivale a dire che le sequenza di tipo (a), (b) e (c) si
presentano assai raramente nella realtà. Al contrario, è assai verosimile che una sequenza
di ordinazioni abbia la struttura della sequenza (d): essa non è regolare e semplice come le
precedenti, ma può ancora essere regolarizzata da qualche proprietà d'ordine. Come nelle
tre sequenze precedenti la maggioranza relativa va alle 6(mila) ordinazioni che si
presentano 5 volte su 12 settimane. Segue l'ordinazione da 7(mila) unità che compare 3
volte su 12; quindi abbiamo l'ordinazione da 5(mila) unità che si presenta 2 volte su 12 e
infine le ordinazioni da 4(mila) e 8(mila) unità che si presentano una volta ciascuna su 12.
La struttura di questa situazione non è più deterministica come quella delle sequenze (a) e
(c) ma assume una natura aleatoria, nel senso che è necessario introdurre una struttura nelle
probabilità che gli ordini assumano un certo valore. Per descrivere una struttura di questo
tipo, abbiamo bisogno di ricorrere al linguaggio della statistica oltre che a quello della
matematica. Quando il termine "stabilità" è invocato in una situazione di questo genere,
esso deve essere applicato alla struttura statistica complessiva. I valori delle ordinazioni
non sono stabili in senso matematico stretto, dato che variano di settimana in settimana
secondo modalità di natura aleatoria. Nel prevedere le ordinazioni della settimana 13, è

47
La previsione del rischio

ancora ragionevole assumere 6(mila) unità, ma ora non siamo completamente certi nella
previsione come nel caso della sequenza (a) e neppure vagamente in dubbio come nel caso
della sequenza (b).Tuttavia, la struttura statistica precedentemente descritta permette di
valutare gli errori possibili nella nostra previsione di 6(mila) unità di ordinazione. Essi
infatti sancisce che 6(mila) unità hanno una probabilità di (5/12), la probabilità di un
numero di ordinazioni inferiore a 6(mila) ammonti a (1/6), la probabilità di un numero di
ordinazioni superiore a 6(mila) ammonti a (1/3). La medesima struttura può venire letta
anche in altro modo. Essi infatti può anche sancire che 6(mila) unità hanno una probabilità
di (5/12), la probabilità di un numero di ordinazioni di 1(000) unità superiore o inferiore a
6(mila) ammonti a (5/2), la probabilità di un numero di ordinazioni di 2(mila) superiore o
inferiore a 6(mila) ammonti a (1/6). Analizziamo infine la sequenza (e). E' subito evidente
che la serie dei dati tende a crescere in media pur con alcune fluttuazioni di natura
aleatoria in questa crescita. Se operiamo le 11 differenze tra dati contigui troviamo che
esse valgono: 0, +1, -1, +4, 0, +3, -1, 0, +2, +2, -1. La loro media vale (9/11) vale a dire
poco meno della unità. Possiamo allora dire che l'andamento medio dei dati sarebbe bene
interpolato da una serie in cui ai 6(mila) dati iniziali delle sequenze (a), (b), (c) si
sommano 1(000) nuove ordinazioni per ogni successiva settimana, a cominciare dalla
prima. In tal modo, la sequenza reale (e) e la sequenza (i) di interpolazione statistica
risulterebbero così affiancate:

sequenza (e) 8 8 9 8 12 12 15 14 14 16 18 17
sequenza (i) 7 8 9 10 11 12 13 14 15 16 17 18

Ciò equivale a sostenere che al livello stabile di 6(mila) unità di ordinazione si aggiunge un
trend (tendenza) il quale ci permette di prevedere che l'ordinazione della settimana 13 deve
aggirarsi intorno alle 19(mila) unità.

La migliore qualifica per un profeta è quella di avere buona memoria (G.S. Halifax,
politico inglese, 1633-1695)

4.3 L’analisi del rischio classica: meriti e limiti

Storicamente l’analisi di rischio classica fu applicata agli impianti pericolosi, come


impianti chimici e nucleari, per aumentarne le sicurezze a fronte di incidenti che si
prevedevano molto gravi.
Intorno agli anni 70 si identificò una forma generalmente accettata di analisi del rischio, e
furono emesse verso la seconda metà degli stessi anni le prime Regulatory Guide della
Nuclear Regulatory Commission. Questa prima forma di analisi di rischio può definirsi
“deterministica” e si applica ha variabili con valori fissi noti, connesse da equazioni note
anche di tipo differenziale.
Il suo punto più controverso, nonostante i suoi indiscussi meriti risiedeva nella falsa
impressione che i suoi risultati fossero certi e gli scenari veri.
Ma gli impianti o più in generale i sistemi complessi consistono di moltissimi componenti
diversi con sottosistemi interdipendenti e molte ridondanze, per cui si aveva a che fare con
variabili con valori random, connesse da equazioni conosciute o non conosciute.
In tale situazione il data base dei guasti spesso era incompleto e non era nota nemmeno la
distribuzione di guasto associata a molti dei componenti.
In tali condizioni l’evoluzione della metodica oggi normalmente accettata come un classico
è quella denominata PRA (Probabilistic Risk Analysis ) che fu abbondantemente
utilizzata nel campo dei reattori nucleari.

48
La previsione del rischio

Sebbene appare corretto ricordare che il PRA sia stato il miglior mezzo in assoluto
d’indagine ed analisi dei sistemi complessi, pur tuttavia noi indicheremo anche i suoi
limiti, in modo da far comprendere le necessità di un approccio evoluto all’analisi di
rischio.
La Conditio sine qua non di un Probabilistic Risk Assessment è la completa ed
approfondita conoscenza del funzionamento normale di un impianto o di un sistema
complesso, mediante la comprensione dell’interdipendenza funzionale dei vari sottoinsiemi
del sistema.
Il Primo passo è dato dalla individuazione di come l’impianto può rompersi e dalla
costituzione delle varie vie di guasto ( albero degli eventi ), questo passerà ovviamente per
una grande semplificazione del sistema che sarà connessa con la probabilità di guasto che
ogni evento ha di avvenire.
Oltre agli eventi iniziatori di malfunzionamenti e guasti, in questa fase si considerano
anche altri eventi iniziatori esterni per cui si considereranno : guasti meccanici, guasti
elettrici, errori umani, sabotaggi, terremoti , ecc.
Il secondo passo è dato dalla costituzione del così detto albero dei guasti la fondamentale
differenza tra la prima e seconda fase è che in questo caso si va indietro nel tempo.
Ovvero se nell’albero degli eventi si va avanti nel tempo calcolando sempre ciò che può
succedere nella fase successiva, e con quale probabilità, nell’albero dei guasti invece si
assume il guasto avvenuto e ci si chiede come ciò possa esser avvenuto risalendo indietro
nel tempo.
La fase successiva è data dall’individuazione delle Conseguenze, questa fase sebbene possa
apparire banale, in alcuni casi come per le centrali nucleari lo è molto meno.
La valutazione delle conseguenze risulta di estrema difficoltà, in questo caso
paradigmatico, l’impossibilità di predire la variabilità del tempo , l’ignoranza sugli effetti
reali delle basse dosi , sull’efficacia delle misure protettive, delle barriere, delle
schermature ,ecc.possono sia far sovrastimare, sia sottovalutare il rischio ad esse connesso
con conseguenze improprie in ambedue i casi.
La fase successiva è data dalla quantizzazione delle conseguenze.
Questo è un punto abbastanza abbordabile, ma il problema è dato dal fatto del calcolo
dell’albero degli eventi esso si svolge con la logica totalizzante del si-no, per cui non si
considera il degrado della pompa che funziona non in modo corretto, ma solo il suo guasto
totale, questa ipersemplificazione , ovviamente interesserà in modo abnorme la
quantizzazione delle conseguenze che lungi da essere individuata in modo realistico
risulterà certamente ipervalutata.
Altri limiti alla pur valida metodologia PRA sono prodotti dalle seguenti mancanze
d’informazione o dalle seguenti ipersemplificazioni dei suoi contenuti o costituenti.
Fattori Umani : in ogni albero degli eventi che trae origine dal comportamento umano
sono insiti degli errori spesso imprevedibili.
Eventi iniziatori: per consuetudine gli eventi iniziatori sono classificati come interni ed
esterni, spesso i secondi sono noti con maggior approssimazione e quindi introducono nel
calcolo un errore maggiore.
Completezza : nessun PRA è completo, infatti per un sistema complesso non è possibile
numerare tutti i guasti possibili e tutte le sequenze potenziali da essi derivabili.
I Data Base informativi: tutte le informazioni per sviluppare un PRA sono contenute in
quelli che per comodità sono stati chiamati data base informativi, ovviamente maggiore è
l’approssimazione con cui i dati sono conosciuti, maggiore è l’approssimazione del PRA.
Per gli eventi noti ci si basa sulle serie storiche, per quelli non noti sulla modellistica ed il
giudizio operativo.

49
La previsione del rischio

Propagazione delle incertezze : nel calcolo della probabilità di accadimento di un albero


degli eventi molto complesso, spesso si usa il semplice teorema della somma
delle varianze, ma non vi è nessun metodo certo per comporre le incertezze associate ad un
evento quando le distribuzioni non sono note e le incertezze sono descritte da un singolo
numero.
In pratica si tende ad assumere la distribuzione lognormale per ogni albero degli eventi,
questa pratica è ragionevole ( sulla base del teorema limite centrale ) solo se il risultato è il
prodotto di un gran numero di eventi praticamente equiprobabili, ma non è perfetta se la
probabilità di uno o più eventi ( due o tre) dominano come valore assoluto.

4.4 FMEA ( Failure mode and effect analysis)

L’eliminazione, il controllo e la riduzione del rischio è certamente un impegno ed un


mandato che può esser affrontato solo da un nutrito gruppo di esperti, tanto che spesso
questo aspetto è di responsabilità e competenza di un intero dipartimento d’ingegneria.
La focalizzazione dell’interesse industriale all’identificazione e/o alla riduzione del rischio
di un prodotto o di un manufatto è spesso dovuta, in generale, a varie ragioni come:
richiesta dei clienti, filosofia del miglioramento continuo, competizione nel libero mercato,
ecc come mostrato nella figura seguente.

sicurezza
pressioni del mercato
competizione
Altro

imposizioni percezione aumento del


di legge del rischio rischio tecnico

responsabilità
garanzie e costi richieste dei clienti verso il pubblico
dei servizi

Pressioni che inducono alla percezione totale dei rischi

L’analisi del rischio ha in effetti lo scopo fondamentale di rispondere alle due seguenti
domande

1. Cosa può andar male?


2. Se qualcosa ve male, con quale probabilità essa può accadere e quali saranno le
conseguenze?

Per rispondere a queste due domande è necessario esaminare i problemi che sono insorti.
Naturalmente focalizzandosi su di un problema si assume indirettamente che vi sia stata
una protesta o un accidente e che è necessario prendere provvedimenti.

50
La previsione del rischio

Oggi il paradigma dell’analisi del rischio è cambiato. L’attenzione non è posta su come
mitigare il danno, ma su come prevenirlo.
In termini filosofici il pensiero sul rischio connesso ad un prodotto industriale si è evoluto
secondo le linee guida di seguito mostrate.

Vecchio metodo Nuovo metodo


Soluzione del problema Prevenzione del problema
Controllo dei residui Eliminazione dei residui
Quantificazione dell’affidabilità Riduzione dell’inaffidabilità

Questo nuovo modo di affrontare ed eliminare, in campo industriale, il problema dei rischi
è sfociato nell’evoluzione del PRA ( probabilistic Risk Assessment ) che viene
comunemente chiamata FMEA ( Failure mode and effect analysis).
Il metodo FMEA deve considerarsi una metodologia specifica per valutare in un sistema,
un disegno, un processo, o un servizio in che modo possano avvenire problemi, errori,
rischi, insuccessi e quant’altro possa provocare insufficienze del sistema.
Per ognuna delle insufficienze identificate, sia note, sia potenziali, viene svolta una stima
del loro avvenimento, della loro gravità e della loro identificabilità.
Giunti a questo punto dell’analisi, viene sviluppata una valutazione delle azioni necessarie
da prendersi, o da essere pianificate.
Lo scopo del metodo FMEA è la minimizzazione della probabilità d’insufficienza del
sistema, o la minimizzazione dell’effetto dell’insufficienza individuata nel sistema.

4.5 Ragionamenti e problemi in sistemi intelligenti

Risolvere un problema significa trovare una strada per uscire da una difficoltà, una strada
per aggirare un ostacolo, per raggiungere uno scopo che non sia immediatamente
irraggiungibile.
Risolvere problemi è un’impresa specifica dell’intelligenza e l’intelligenza è il dono
specifico del genere umano: si può considerare il risolvere i problemi come l’attività più
caratteristica del genere umano.
Il risolvere problemi è un’arte pratica, come il nuotare o lo sciare, il suonare il piano o il
violino: potete impararlo solo con l’imitazione e con la pratica.
Se si desidera ricavare il massimo profitto dallo sforzo effettuato nel risolvere un
problema, bisogna focalizzare la propria attenzione sui lineamenti generali del problema in
questione che possono divenire utili supporti nel trattare problemi futuri, o successivi.
Una soluzione che si sia ottenuta con il proprio sforzo, o che si sia letta, o ascoltata, ma che
sia stata appresa con giusta penetrazione, può di fatto divenire una sorta di modello o
schema , un modello che si può utilizzare vantaggiosamente nella risoluzione di problemi
similari.
In realtà se può apparir facile imitare la soluzione di un problema, quando esso è molto
simile; tale imitazione risulterà invece difficoltosa o addirittura impossibile per problemi in
cui la somiglianza è vaga o solo apparente.
Tuttavia nelle fiabe o nei trattati di alcuni filosofi prende forma in modo esplicito un
desiderio umano profondo, per il possesso di un artificio, libero da limitazioni, che
permetta di risolvere tutti i problemi.
Basti ricordare la fiaba della chiave magica che apriva tutte le porte.
Descartes ad esempio meditò su di un metodo universale per la risoluzione di tutti i
problemi, Leibnitz, a sua volta, formulò molto chiaramente l’idea di un metodo per così
dire perfetto.
Pur tuttavia la ricerca del metodo universale, non ebbe più successo della ricerca della
pietra filosofale.
51
La previsione del rischio

Ma lungi dal considerare questi tentativi come delle vane elucubrazioni bisogna
riconoscere ad essi i meriti che posseggono, come saggiamente ci ricorda G.Polya “ Ciò
nondimeno tali ideali irraggiungibili possono influenzare la gente: nessuno ha mai
raggiunto la Stella Polare, ma molti hanno trovato la retta via guardando ad essa.”
Polya nei suoi testi Mathematics and Plausible Reasoning e Patterns of Plausible
Inference, combina lo studio teorico dell’euristica con la soluzione di problemi matematici,
pur mantenendo sullo sfondo, per sua ammissione esplicita, la presenza di problemi non
matematici, che furono presi accuratamente in considerazione tanto da trattare i problemi
matematici, come esempi paradigmatici e metodologici dei problemi non matematici, ogni
volta che ciò fosse risultato possibile.
Infatti la maggior parte del suo lavoro fu devoluta alla soluzione di alcuni problemi
sottolineandone l’aspetto metodologico del metodo di soluzione, attraverso degli episodi di
risoluzioni. Ogni episodio descrive di fatto la sequenza dei passi essenziali mediante i quali
si è giunti alla soluzione e tenta di mettere in evidenza i motivi e le attitudini che stimolano
l’effettuazione di questi passi.
Lo scopo ovvio è quello di trovare una metodologia generale non già come ricordato
prima, per tutti i problemi, ma molto più umilmente e saggiamente per cluster di problemi
similari.
Ancora G. Polya c’illumina nel ricercare cosa s’intenda per conoscenza in sistemi
intelligenti “la nostra conoscenza in ogni materia consiste di informazioni e del saper
come (applicarle n.d.a.).
Se avete esperienza genuina bona fide di lavoro matematico ad ogni livello, elementare o
avanzato, non ci saranno dubbi nella vostra mente matematica che il saper come è molto
più importante che possedere informazioni. …
Che cosa è il saper come in matematica? L’abilità a risolvere i problemi-non
semplicemente i problemi di routine, ma problemi che richiedano un certo grado di
indipendenza di giudizio, di originalità, di creatività. … Questa è la mia convinzione;
potrete non esser sempre d’accordo con essa, ma suppongo che converrete che il risolvere
i problemi meriti una certa enfasi.”
Riguardo all’apprendimento Gottlob Frege scriveva “Nell’apprendere una verità
scientifica passiamo, per vari gradi di certezza. Forse congetturata in un primo momento
sulla base di un numero insufficiente di casi particolari, una proposizione generale diventa
via, via più saldamente stabilita con il venir collegata ad altre verità mediante catene di
inferenze, sia che da essa vengano derivate conseguenze che risultano poi confermate, sia
che, viceversa, la si veda conseguenza di proposizioni già stabilite”.

Bibliografia
(1) Richard Feynman, Rendiconti , International Conference on Elementary Particles, Aix-en-
Provence 1961
(2) Warren Gilchrist, Statistical Forecasting, John Wiley & Sons 1976
(3) Ivy Papps & Willie Henderson, Models and Economic Theory, Holt Rinehart & Winston
1977
(4) Norbert Wiener, I am a mathematician , Doubleday 1956
(5) Harold A. Linstone & W.H. Clive Simmonds, Future Research: New Directions, Addison-
Wesley 1977
(6) Roger von Oech, A Whack on the Side of the Head: How to Unlock your Mind for
Innovation, Addison Wesley 1984
(7) D.H. Stamatis Failure Mode and Effect Analysis American Society for Quality 1995
(8) G. Polya Induction and Analogy in Mathematics Princeton Univ. Press 1968
(9) G. Polya Patterns of Plausible Inference Princeton Univ. Press 1968

52
La percezione razionale del rischio

5 La percezione razionale del rischio

Una scimmia lanciò una noce di cocco sulla testa di un Sufi.


L’uomo la raccolse, ne bevve il latte, mangiò la polpa ed il guscio
lo usò come ciotola.

5.1 Rischi e perdita economica

Il rischio incombe. Seduti a un tavolo della roulette a Monte Carlo, riparati sotto un
ombrello da una fastidiosa pioggia acida oppure investiti durante l’attraversamento delle
canoniche strisce pedonali da un guidatore ubriaco, siamo tutti vittime quotidiane delle
spregiudicate e avventurose iniziative della casualità. Migliaia di persone muoiono ogni
anno sotto l'incalzare di catastrofi naturali (cicloni, uragani, terremoti, inondazioni fluviali
e marine): la notizia raggiunge le prime pagine dei giornali. Non raggiunge i titoli di testa
della televisione e dei quotidiani la modesta cifra dei 15 morti al giorno sulle strade della
Gran Bretagna, la quale moltiplicata per 365 raggiunge le 5500 unità. Tutte le azioni
umane, compresa la completa inazione ( vale a dire, l'assenza di movimento) porta con sé
un elemento di rischio. La quantità di questo rischio dipende dalla attività intrapresa.
Saltare da un capo all'altro di un canyon con una motocicletta giapponese di grossa
cilindrata è più rischioso che accomodarsi in poltrona a guardare una partita in televisione.
I politici amano esprimere il rischio di un particolare incidente in unità per milione. Per
comprendere il significato di tali dichiarazioni si rende necessario una chiara visione delle
finalità e delle limitazioni della matematica sottesa ai confini di questa problematica. E'
inoltre indispensabile rendersi conto delle assunzioni che si nascondono al di sotto dei
numeri coinvolti.

Il modello matematico è un mezzo, non un fine. Il grado di rischio è legato alla misura del
danno inflitto, a sé e/o ad altri, dal compimento di una determinata azione. Esistono molti
tipi di rischi, inclusi quelli di natura economica, il rischio che coinvolge la salute delle
persone e quello sofferto dall'ambiente dall'introduzione di nuove tecnologie. Scendere le
scale comporta rischio: risulta infatti la più diffusa causa di incidenti domestici,
specialmente per persone anziane. La casa, il posto sicuro per antonomasia, è un habitat
minato da circostanze di potenziali incidenti: un corto circuito, il fornello del gas
dimenticato acceso, un tubo della lavatrice che esce dal lavandino di scarico. Uno degli
successi principali della scienza medica è stato quello di minimizzare il rischio di
morbosità e mortalità: una volta si verificavano decessi per bronchite, polmonite,
tubercolosi, malattie infettive e così via. Le gente si ammala ancora e muore a causa
dell'AIDS, del morbo del legionario, di avvelenamento da cibo e così via. Dato che è
impossibile eliminare il rischio, la migliore misura di provvedimento è quella di bilanciare
il rischio con una ingente quantità di benefici. Per esempio, un semplice calcolo permette
di dimostrare che la mortalità da malattie da raffreddamento, nel caso dell'eliminazione del
riscaldamento domestico tramite gasolio, risulta assai superiore a quella indotta dagli
incendi provocati dal medesimo tipo di riscaldamento. In questa eventualità, il beneficio
ottenuto supera di gran lungo il rischio e il danno e quindi rende socialmente affidabile e
valido l'adozione del gasolio per il riscaldamento domestico nei mesi invernali. Il problema
dell'energia nucleare è emblematico ma di non facile soluzione. Esistono, senza dubbio,
benefici. L'energia elettrica, prodotta per via nucleare, produce meno piogge acide di
quando produca il procedimento che sfrutta la combustione di prodotti estratti da materiali
fossili e non impone il duro e pericoloso lavoro di estrazione del combustibile dalle
miniere. Esistono però anche rischi derivanti dall'inquinamento e/o dal rilascio catastrofico
di materiale radioattivo così come il pericolo di morte tra gli operatori degli impianti.
53
La percezione razionale del rischio

L’analisi matematica del rischio fornisce metodi oggettivi e razionali per dedurre costi
rischi e benefici: questo però non vuole necessariamente implicare che questi metodi siano
corretti. La matematica dipende dalle assunzioni che si sono formulate sul mondo reale, sul
comportamento delle popolazioni, sull'accuratezze delle informazioni a disposizione. La
matematica del rischio opera da aiuto e supporto alle decisioni ma non può sostituirsi alle
decisioni stesse.

5.2 Razionalizzazione dell’intuizione percettiva

Conflitti numerici. La probabilità è un modo di esprimere matematicamente il rischio: essa


è costituita sempre da un numero reale compreso tra 0 e 1. Un evento impossibile ha
probabilità 0, un evento certo ha probabilità 1. Qualsiasi altra eventualità esistente tra
impossibilità e certezza viene rappresentata da un numero compreso tra 0 e 1. Da un punto
di vista operativo, la probabilità può venire interpretata come la percentuale dei casi
favorevole alla comparsa dell'evento in questione. Quando si lancia una moneta, la
probabilità che esca "testa" vale 0.5, così come la probabilità che esca "croce". Quando si
lancia un dado, la probabilità che esca "uno" vale (1/6) cioè 0.167, la probabilità che esca
un numero "pari" vale (1/2) cioè 0.500, la probabilità che esca "due" oppure un multiplo di
"due" , vale a dire "quattro" risulta pari a (1/3) cioè 0.333. Vediamo qualche altro esempio
di concretezza reale e sociale. Secondo le stime del Central Electricity Generating Board
anglosassone, la probabilità di un incidente catastrofico in un impianto nucleare per la
produzione di energia nucleare è pari a 1 ogni 10mila anni. L'aggettivo "catastrofico" sta a
significare un incidente del tipo di quello avvenuto a Chenobyl in Ucraina nel 1986 oppure
ancora più grave. Una probabilità dell'ordine di 1/10000 ovvero 10-4 appare molto
rassicurante, a prima vista: cerchiamo di osservarla più da vicino. Essa implica che per
ogni reattore la probabilità di un incidente catastrofico vale 0.0001 per anno. In Gran
Bretagna esistono 40 impianti nucleari: quindi la probabilità che almeno uno di questi
impianti produca un incidente catastrofico è data dalla somma delle 40 singole probabilità,
vale a dire 0.004. La probabilità di almeno una catastrofe nei prossimi 25 anni vale 25
volte il numero appena ottenuto e risulta pari a 0.1, cioè 1 parte su 10.
Ammettiamo che 1/10 è assai meno rassicurante di 1 ogni 10000 anni: le due cifre non
sono confrontabili perché rappresentano grandezze fisiche differenti. Tuttavia
costituiscono due espressioni matematiche di descrivere la medesima realtà.

L'accettabilità del rischio e le scelte conseguenti. Che un rischio sia accettabile o meno
dipende dalla probabilità di comparsa dell'evento calamitoso ma anche dall'ammontare del
danno che la presenza dell'evento comporta. Quasi nessuno si preoccupa della probabilità
0.5 di perdita di 30mila lire, mentre la medesima probabilità 0.5 di perdita di 3 miliardi può
lasciare indifferenti soltanto i re di Wall Street. Uno dei procedimenti più semplici per
stabilire una scala quantitativa delle perdita è quello di moltiplicare la probabilità per il
danno. Nei due esempi appena menzionati, i rispettivi danni sono 15mila lire e 1.5 miliardo
di lire. L'analisi costi-benefici oppure l'analisi rischi-benefici costituiscono procedure
formali per calcolare il valore aspettato delle perdite previste. Nella vita di tutti i giorni, i
cittadini comuni prendono spesso decisioni per le quali il valore aspettato del beneficio è
negativo. In media, infatti, la gente che si carica di polizze di assicurazione per la vita
oppure, in un orizzonte più generale, gli scommettitori sono assai ben consapevoli di
andare in perdita finanziaria. Vediamo il dettaglio di almeno una di queste due operazioni.
Per assicurare una vita, il cittadino paga un certo ammontare di denaro, il cosiddetto
premio (che eufemismo!) alla compagnia di assicurazione. In ritorno, la compagnia
garantisce di pagare un ammontare assai più cospicuo nel caso che la persona assicurata
muoia prima del tempo. Per rimanere in affari, le compagnie di assicurazione devono

54
La percezione razionale del rischio

garantirsi una quota significativa di profitto: esse si affidano alla professionalità di


specialisti in scienze attuariali: in effetti statistici e matematici specializzati in calcoli di
rischio. Costoro stabiliscono l'ammontare del premio di assicurazione tanto alto quanto
basta alla compagnia per mantenersi in affari con un saldo economico medio vincente.
Questa situazione implica che ogni persona, che viene assicurata dalla compagnia, deve
aspettarsi perdite economiche. A dispetto di questa situazione, per il cittadino comune ha
grande senso di responsabilità sociale nei confronti dei propri cari adottare misure
cautelative tramite l'acquisto di assicurazioni. Il costo del premio, specialmente se
rateizzato, è relativamente modesto, qualcosa che il cittadino medio può permettersi senza
grandi sacrifici. Il beneficio in caso di morte del contraente è con grande sorpresa molto
più elevato: la sua famiglia sarà in grado ci comprarsi una casa e a disporre di fondi
sufficienti per comprare generi alimentari e di vestiario. Un ragionamento analogo vale per
scommettitori in generali e per bookmaker in particolare. In media, infatti, soltanto le
società che gestiscono le scommesse chiudono in positivo. Tuttavia, gli individui, che
rischiano piccole somme di denaro, vanno incontro a una probabilità assai ridotta che una
ricca vincita possa trasformare le loro vite. La sola differenza sostanziale tra le
assicurazioni e le scommesse è che nelle assicurazioni sulla vita lo scopo è quello di non
vincere il jackpot.

5.3 Probabilità di sopravvivenza

Come si calcola la probabilità di eventi mai accaduti? Come già accennato in precedenza,
scopo finale dell'analisi di rischio è il calcolo delle probabilità di sopravvivenza. Ogni
giorno, sotto l'egida delle diverse compagnie di bandiera e private, velivoli commerciali
compiono un numero incredibilmente elevato di voli. Ogni anno, qualcuno di essi subisce
un incidente catastrofico con morti umane e distruzione totale del velivolo. Possiamo
stimare la probabilità di un incidente del tipo suddetto dividendo il numero di incidenti per
il numero di voli, a parità di intervallo temporale adottato: un anno, 5 anni, 10 anni e così
via. La teoria delle probabilità ci suggerisce inoltre che più è frequente il numero di
incidenti, più è accurato il calcolo della probabilità in oggetto. Tutto questo è assai
attraente in teoria, ma poco redditizio nella pratica. Infatti accade, che un incidente molto
grave si presenta assai di rado, al limite mai. Come si fa a calcolarne la probabilità di
comparsa ? Per esempio, quale è la probabilità che si verifichi un terremoto di grande
magnitudo (questa grandezza è legato al rilascio energetico del sisma più che ai danni
provocati) nella città di Roma, quando tutti i cataloghi sismici storici testimoniano che a
Roma non si è mai verificato un terremoto di grande magnitudo ? Si può allora affermare
che questa probabilità è assai bassa, ma non assegnare con certezza quanto sia bassa.

Le omissioni nel calcolo del rischio. Cambiamo argomento e parliamo invece delle
omissioni possibili nel calcolo del rischio, quando si ignorano alcune possibili sorgenti di
rischio, perché non si conoscono a fondo i processi che si stanno analizzando. Quando le
ditte manifatturiere hanno cominciato a usare i cloro- fluoro-carburi (CFC) negli aerosol,
esse hanno avviato indagini per scoprire i probabili effetti di queste sostanze chimiche una
volte entrate in contatto con l'ambiente, incluso il possibile danno allo spessore di ozono
nell'atmosfera. I ricercatori avevano scelto i CFC perché essi costituiscono composti
chimici di straordinaria stabilità, vale a dire che avevano una grande tendenza a non
interagire con i gas dell'alta atmosfera. Sfortunatamente, nessuno era a conoscenza del fatto
che, a quelle quote, i CFC assumevano una stato di aggregazione di cristalli ghiacciati:
come tali il loro tasso di reazione con l'ozono atmosferico veniva inaspettatamente esaltato.
Deduzione: se la vostra analisi di rischio omette uno hazard di notevole importanza perché
le ricerche effettuate non hanno avuto l'immaginazione di prenderlo nella giusta

55
La percezione razionale del rischio

considerazione, i risultati dell'analisi di rischio avranno assai poco attinenza con la realtà
fenomenologica dei processi in studio.

I valori medi, più che rivelare, nascondono. Le modalità di raccolta, organizzazione,


analisi e interpretazione dei dati sperimentali hanno una notevole influenza nella corretta
formulazione dell'analisi di rischio. Spesso le medie, di varia natura (aritmetica,
geometrica, armonica, mobile, raggruppata e così via) , tendono a nascondere piuttosto che
a rivelare. In media, da analisi compiute su dati meteorologici storici, la settimana meno
piovosa a Roma è la prima settimana di settembre. Questa è stata la ragione della scelta di
questo periodo per le Olimpiadi del 1960, per i Campionati Europei di atletica leggera del
1974, per i Campionati Mondiali Universitari del 1975, per la Coppa del Mondo di atletica
del 1981, per i Campionati del Mondo di atletica del 1987. Le gare di corsa, salti e lanci si
svolgono all'aperto: condizioni climatiche ideali consentono lo svolgimento delle
competizioni in maniera non soltanto ottimale ma anche imparziale nei confronti di tutti gli
atleti. Ebbene, durante tutte e cinque queste manifestazioni si è verificato almeno un
pomeriggio di pioggia battente di tale intensità da non consentire lo svolgimento delle gare,
opportunamente ritardate e recuperate nella giornata stessa. Sotto gli scrosci torrenziali,
riparati da improvvisati ombrelli, tutti si lamentavano e chiedevano: ma non potevate
scegliere una settimana meno piovosa ? La prima settimana di settembre costituisce il
periodo medio meno piovoso dell'anno, ma ciò non garantisce che durante quella settimana
non possa presentarsi un evento di natura temporalesco.

Gli eventi molto rari non incidono sul valore numerico della media. Il litorale romano, e
l'aeroporto di Fiumicino, sono battuti assai raramente da occasionali venti forti. La
velocità media del vento è approssimativamente pari a 10 nodi. Quando il vento tocca
punte di 60 nodi, esso può indurre danni a edifici e persone: soprattutto rende assai precarie
le condizioni di decollo e di atterraggio dei velivoli nel sito dell'aeroporto. In 4 circostanze,
negli ultimi 30 anni, la velocità del vento ha toccato i 60 nodi. La modalità di raccolta dei
dati relativi al vento, raccolti dagli appositi anemometri, non rende assolutamente possibile
la previsione di queste punte di vento a 60 nodi, quando la media risulta pari a 10 nodi. La
deviazione standard è infatti dell'ordine di 3 nodi, la semidispersione massima di 9 nodi, la
probabilità di rilevare venti superiori a 30 nodi è ben al di sotto dello 0.1%. La probabilità
di rilevare venti superiori a 40 nodi è quasi non calcolabile. Figuriamoci quella relativa a
venti dell'ordine di 60 nodi !

La scelta degli individui che compongono il campione è determinante. L’AIDS


costituisce uno degli attuali flagelli che colpisce l'umanità e che, in termini numerici di
morbosità e mortalità, ha raggiunto cifre che ricordano da vicino le grandi malattie
epidemiche del passato (peste, colera, lebbra, tifo e altre malattie infettive e tropicali).
Quando si vuole calcolare la propensione del cittadino a venire infetto da tale disastro, si
ragiona in termini di numero medio di infezioni, di tassi di contatto sessuale, dei valori
relativi di queste grandezze, normalizzati al numero dei cittadini, al numero degli esposti al
rischio di contagio e così via. Si tratta in tutti i casi di trattazioni e conseguenti deduzioni
totalmente fuorvianti: il rischio infatti differisce drammaticamente per i diversi gruppi
presi in considerazione, perché ciascun gruppo ha il suo comportamento, il suo stile di vita,
le sue caratteristiche domiciliari, i suoi quartieri urbani.
Non è questione di distinguere tra il Kenia e la regione Veneto, ma di trattare con adeguati
pesi e misure due quartieri di Roma, distanti in linea d'aria pochi chilometri.

56
La percezione razionale del rischio

5.4 Il rischio come realtà oggettiva

Quando la causa (non) incide sulla conseguenza. L'energia nucleare è il mostro


tossicologico numero 1 per la lega delle elettrici e gli studenti di college, ma scende all' 8°
posto per gli attivisti e addirittura al 20° per gli esperti. Fiero avversario del nucleare è il
fumo da sigaretta che per i rispettivi gruppi-campione viene classificato al 4° posto come
nocività dal primo e terzo gruppo, al 3° posto dal secondo gruppo e addirittura al 2° posto
dal quarto gruppo. Il ranking totale del fumo vale 13 contro il ranking totale 30
dell'energia nucleare. Lasciamo da parte il dibattito sul nucleare. Prendiamo in
considerazione quello sul fumo. Venti anni fa, nel 1980, la gente dubitava fortemente che il
fumo induca le varie forme di cancro al polmone: alcune compagnie produttrici di sigarette
tuttora negano che ciò sia vero. La vertenza è ancora aperta, ma sembra che alcuni decessi
per cancro alle vie respiratoria siano riconducibili ad altre cause, quali, per esempio, i fumi
industriali e quelli prodotti dalla circolazione dei veicoli. Alcuni storici imputano al
piombo, elemento usato per la costruzione di tubazioni negli acquedotti, il declino dello
stato di salute dei cittadini dell'Impero Romano: oggi, il dibattito è più che mai vivo per
quanto riguarda la presenza di piombo nei prodotti di estrazione del petrolio dal sottosuolo,
non ultimo quello usato nelle centrali che bruciano combustibile fossile per produrre
energia elettrica e quello bruciato dai motori per la mobilità dei veicoli su gomma e rotaia.

La differenza tra correlazione e causalità. Verso la fine del 1973, in occasione della
prima grande crisi energetica nel mondo occidentale, divenne celebre un grafico in cui, su
assi cartesiani ortogonali, veniva riportato per ogni significativo paese del mondo il reddito
nazionale lordo pro capite in funzione del consumo energetico pro capite. L’andamento del
grafico era sommariamente lineare, con una ampia banda di dispersione, e crescente.
Voleva mettere in evidenza la presenza di una correlazione positiva tra la ricchezza del
paese e la quantità totale di energia consumata. Non si trattava di aver scoperto una legge
di causalità: l'energia consumata non è un effetto della ricchezza del paese e tanto meno la
causa della ricchezza stessa. Tuttavia, come si dice in gergo, le due grandezze covariano.
Cioé al crescere dell'una anche l'altra cresce, al decrescere dell'una anche l'altra decresce.
L'esempio serve a dimostrare quanto sia importante distinguere tra correlazione e
causalità. Due eventi sono correlati se uno dei due è spesso accompagnato dalla presenza
dell'altro. Trovare una correlazione è facile: è sufficiente osservare quanto spesso i due
eventi si presentano insieme, entro un apposito spazio campionario, spaziale, temporale,
energetico e così via. La causalità implica che un evento costituisce la causa del secondo
evento, il quale prende la denominazione di effetto. Per provare la causalità è necessario
formulare l'intera catena logica e fattuale degli eventi: circostanza che può rivelarsi anche
assai difficile. Le compagnie produttrici di energia, merci e servizi si lamentano spesso che
l'evidenza della tossicità dei beni prodotti "non costituisce prova di causalità".
Conclusione: anche se le correlazioni non provano la causalità, esse certamente non la
negano.

57
Seconda parte “Il Rischio nella Galleria Dinamica”

58
Sicurezza della galleria

6 Sicurezza della galleria

La vita è un sistema continuo nel tempo, dinamico e non autonomo, come una breve
“galleria dinamica” e come essa, ha una chiara luce solare che ne indica l’uscita.
( Anonimo di Scuola Napoletana ).

Alcune tipologie di galleria. Da un punto di vista costruttivo, le gallerie possono dividersi


in naturali ed artificiali. Sono gallerie naturali o a foro cieco quelle ottenute praticando un
foro che andrà poi opportunamente rivestito. Gallerie artificiali o a cielo aperto sono quelle
in cui, dato il modesto spessore di terra sovrastante, si preferisce scavare dall'alto, costruire
il rivestimento e ricoprire in un secondo tempo il cavo risultante.
Gallerie particolari sono inoltre quelle dette paramassi, paravalanghe e così via che hanno
un ricoprimento praticamente nullo e vengono costruite per proteggere la strada dalla
caduta di massi o di neve.
Staticamente una galleria viene definita dalla sua lunghezza, dalla sua larghezza, dal tipo di
fornice ( se singolo, se duplice ) dalla direzionalità del traffico se mono o bi – direzionale,
o se autostradale, cittadina, ferroviaria, metropolitana e così via.
Nel seguito saranno trattate le gallerie artificiali di una certa lunghezza definita > 3 Km in
quanto per la sicurezza del loro attraversamento le legislazioni internazionali si stanno
volgendo verso una loro strutturazione preventiva in termini di tecnologie applicate alla
sicurezza.
Oggi alla luce degli ultimi avvenimenti incidentali che hanno riguardato l’Europa e l’Italia
più specificatamente, possiamo dire che sebbene gli incendi di vaste dimensioni siano un
avvenimento per fortuna raro, la loro potenzialità di poter intrappolare un gran numero di
persone che giornalmente attraversano tunnel ad alta densità di traffico umano ( tunnel
autostradali, metropolitani, ecc. ) obbliga i progettisti a considerare con maggiore cautela
tali rare eventualità.
Ricordando che il compito primario dei vari attori di una galleria: disegnatori, operatori,
controllori del sistema di traffico deve essere quello di assicurare un livello accettabile di
sicurezza, sia per lo staff di servizio, sia per i fruitori del sistema.
Il livello di sicurezza è funzione di due grandi attori del sistema: 1) il volume di traffico e
2) la qualità delle attrezzature di sicurezza che opereranno in accordo con chiare ed
efficaci procedure, specialmente nel campo del menagement delle situazioni di crisi o di
emergenza.
Ma in realtà nessun sistema semplice, o complesso di trasporto può esser reso
completamente sicuro in quanto la sicurezza si basa su una complessa interazione di
ingegneria, tecnologia e popolazione.
Il volume di Traffico di una galleria può esser facilmente calcolato con le formule
dell’eccellente testo Highway Capacity Manual 1985.
Ad esempio il volume di traffico può esser stimato dalla relazione:

Ts ⋅ Fc
Tv =
Sv
Tv = volume − di − traffico (veic / h)
Ts = velocità − del − traffico( Km / h)
Fc = fattore − di − conversione(m / Km)
S v = dis tan za − tra − i − veicoli(m)

in cui si ha:

59
Sicurezza della galleria

S v = Pt ⋅ Ts ⋅ Fc ’
Pt = progresso − medio − del − traffico − nel − tunnel (1,8 sec)
Ts = velocità − del − traffico( Km / h)
Fc ’ = fattore − di − conversione(m ⋅ h / Km ⋅ s )

I sistemi di sicurezza dal canto loro per essere in grado di garantire un’efficace intervento
di salvaguardia, devono esser particolarmente atti a:

a) Individuare il fuoco tanto rapidamente da permettere l’evacuazione in sicurezza.


b) Permettere il controllo totale del flusso d’aria in vicinanza del fuoco.
c) Gestire con efficacia l’emergenza nel tunnel, compresa l’evacuazione.

La dotazione di sistemi ed apparecchiature di sicurezza e salvaguardia è comunemente


suddivisa in termini di strutture fisse, mobili e strutture di controllo.
Una “galleria dinamica” differisce da un’altra, per una serie di parametri tra cui trovano
collocazione anche le strutture di sicurezza.
Nel seguito saranno descritti questi sistemi di sicurezza, non solo dal loro punto di vista
“statico”, ma anche con qualche accenno alla loro “dinamicità”, definita essenzialmente in
termini di interazioni semplici o complesse, con le altre attrezzature ed il fuoco
dell’incendio.
Il fuoco, può definirsi il fenomeno calorifico della combustione, che è un processo
esotermico , in cui determinate sostanze reagiscono tra loro, con sviluppo di calore e luce,
combinandosi rapidamente con l’ossigeno libero.
Pertanto il fuoco per nascere, crescere e diffondersi ha bisogno di tre componenti: calore,
combustibile ed ossigeno.
Questo è la cosiddetta classica “triade del fuoco”.
Se si rimuove dal processo di rapida ossidazione uno qualsiasi dei tre componenti della
triade, il fuoco si estingue.

½ Se si rimuove il calore si ha il raffreddamento


½ Se si rimuove il combustibile si ha l’ estinzione
½ Se si rimuove l’ ossigeno si ha il soffocamento

6.1 Strutture fisse

I sistemi di ventilazione, nel malaugurato caso d’incendio di un tunnel, gli elementi


pericolosi da controllare sono il calore ed il fumo e per fortuna ambedue questi elementi
possono esser controllati da un’opportuna ventilazione.
I due principali sistemi di ventilazione sono

(i) Il sistema longitudinale


(ii) Il sistema trasversale

Il primo si basa sul principio di creare una corrente d’aria longitudinale da un’estremità
all’altra del tunnel.

60
Sicurezza della galleria

Normalmente questo tipo di ventilazione si applica a tunnel monodirezionali ad un fornice,


mediante uno o coppie di ventilatori di potenza applicati alla volta del tunnel.
La sicurezza dei viaggiatori in transito, nel caso dei tunnel unidirezionali, dovrebbe esser
garantita dall’apporto di aria fresca che contemporaneamente diluisce il fumo e raffredda
il campo termico.
Normalmente un tunnel con ventilatori di potenza può esser dotato di alcuni camini, in
quanto in caso d’incendio a valle dello stesso, essi hanno la funzione di limitare la
lunghezza della zona con presenza di fumo e di diminuire le concentrazioni di gas tossici
dovuti alla congestione locale del traffico.
Il secondo si basa sul fenomeno che i fumi caldi hanno la naturale tendenza a portarsi verso
la volta del tunnel, pertanto bocchette d’estrazione sono disposte nella zona alta del tunnel,
mentre l’aria fresca viene immessa da un sistema di ventilazione forzata posto nella zona
bassa del tunnel.
Normalmente un tale sistema di ventilazione è utilizzato nei lunghi tunnel bidirezionali.,
mediante gallerie di ventilazione che regolano l’afflusso d’aria fresca e grosse bocche
d’uscita che ne permettono l’estrazione.
La sicurezza dei viaggiatori in transito dovrebbe esser assicurata dal confinamento del
fumo nella parte superiore del tunnel e dalla presenza di aria fresca in quella inferiore.
Questi discorsi di sicurezza sono finalizzati, come detto, al controllo del calore e del fumo,
ma come ogni possessore di camino sa , l’aggiunta di aria fresca (ossigeno) produce un
accrescimento della fiamma che può produrre l’effetto opposto cioè sviluppo più rapido
del fuoco ed aumento della severità dell’incidente, mediante la sua diffusione ad altri
veicoli.
In questo campo mancano dati sperimentali completi, ma quelli che si conoscono
(Progetto EUREKA EU499 svoltosi ad Hammerfest Norvegia 1992, test in scala ridotta
Hammerfest 1993, test a Buxton Inghilterra 1993 e Test nel Tunnel Blasted Rock, Svezia
1997 ) mostrano significative differenze dal caso teorico.
Ad esempio alcuni calcoli sviluppati con questi dati da A. Beard e R. Carvel della Herriot
Ward University di Edimburgo hanno mostrato che nel caso di un incendio in tunnel in
presenza di un flusso d’aria di velocità 2m/s il fuoco può crescere in intensità circa sette
volte più velocemente ed il flusso di calore associato circa quattro volte.
Mentre per un flusso di 10m/s l’intensità può raggiungere circa un fattore venti di rapidità
d’accrescimento ed un fattore circa nove volte maggiore, il connesso campo termico.
Sebbene tali risultati siano connessi con una sostanziale incertezza elaborativa , essi sono
comunque stati riferiti per la giusta e corretta riflessione sulla nozione di interazione del
controllo con ventilazione longitudinale di un incendio nel tunnel.
Negli Stati Uniti negli scorsi anni è stato sviluppato e portato a termine un programma
pluriennale di studio (1993-1995) a grandezza naturale che ha mostrato la validità dell’uso
del sistema longitudinale per tunnel monodirezionali di controllare fumo e fuoco per
incendi sino a 100 MW.
Mentre per i tunnel bidirezionali ove sono preferiti i sistemi trasversali essi devono avere la
possibilità di disaccoppiare i ventilatori per creare flussi longitudinali in caso d’emergenza.
Non va dimenticata la necessità di assicurare l’operabilità dei ventilatori in condizioni
d’emergenza mediante opportuni sistemi di raffreddamento, doppia alimentazione ,
isolamento termico delle parti sensibili, ecc.

61
Sicurezza della galleria

Sistemi di soppressione del fuoco.


Gli Sprinkler normalmente essi rappresentano la prima sicurezza degli edifici e delle
abitazioni, ma data la notevole differenza tra tunnel ed abitazioni e data la presenza di
combustibili liquidi più leggeri dell’acqua , molte evidenze mostrano che gli Sprinklers
possono non solo risultare inefficaci nel controllo di un incendio di combustibile, ma
addirittura contribuire all’allargamento dell’incendio ed all’accrescimento della sua
gravità.
Per esempio lo scroscio d’acqua impedendo la stratificazione dei fumi ne amplifica la
diffusione per l’intera sezione del tunnel.
E considerando l’intensità dell’incendio vi possono anche essere rischi di esplosioni di
vapore subito al termine della fase di estinzione del fuoco.
Esistono anche problemi per la loro manutenzione e la loro gestione.
Tipi di sprinkler schiumogeni possono essere istallati per superare alcuni dei problemi
citati, ma sorgono anche altri problemi in questo caso: complessità dell’istallazione,
necessità di vasche di contenimento per le schiume, zonazione delle valvole, manutenzione
molto onerosa in atmosfera corrosiva, ecc.
Sistemi di soppressione con fluidi chimici particolari questi sono comunemente usati
nelle aree critiche delle sale elettriche o elettroniche, ed in molte applicazioni similari a
quelle dei tunnel cioè ambienti chiusi con presenza di circuiti elettrici, ma il problema della
tossicità dei fumi implica che tali sistemi debbano essere adottati in ambiente del tunnel
solo con l’applicazione di altre dispendiose salvaguardie.
Estintori, sebbene piccoli questi maneggevoli strumenti sono molto utili per il controllo e
l’estinzione precoce di molti piccoli incendi che possono svilupparsi in un tunnel.
Nel caso delle gallerie autostradali dovrebbero preferirsi estintori chimici a secco
multifunzione, di dimensione medio grande, essi dovrebbero esser posizionati lungo la
stessa parete e non dovrebbero essere più distanti di circa 400 m l’uno dall’altro e posti da
ambedue i lati della galleria in modo che la loro distanza massima sia di circa 200m
considerando ambedue le pareti del tunnel.
Situati in nicchie della parete bene evidenziate e dotate di segnale d’allarme per la sala
controllo, nel caso d’asportazione dell’estintore.
Robot per intervento, in tempi recentissimi sono stati avanzati diversi progetti di robot per
intervento in galleria, uno dei più interessanti risulta essere quello della Italiano chiamato
robogat : una sorta di cilindro in acciaio motorizzato e legato ad una rotaia posta al soffitto
della galleria, in caso d’incendio questo robot viene inviato rapidamente sul luogo
dell’incidente e con un idrante connesso può intervenire per domare le fiamme.
Si ricorda che l’esperienza antincendio ha mostrato che il miglior modo d’intervento per
domare un incendio di quelli che possono avvenire in un tunnel, specialmente nei
primissimi momenti, si ottiene con un potente e concentrato flusso di acqua
(eventualmente mista a schiumogeni ritardanti ) della potenza di qualche atmosfera.
Muri ad acqua, un sistema completamente originale che potrebbe più che soppressore
d’incendio, esser chiamato isolatore dell’incendio e controllore del fumo è stato sviluppato
in Italia ed applicato alla galleria ferroviaria di Orte.
Esso si basa sull’utilizzo di barriere d’acqua che isolano l’incendio assicurando una via di
fuga, il sistema costituito da serbatoi d’acqua di 125 metri cubi di volume, posti ad una
distanza di 250 m l’uno dall’altro e collegati con una tubazione flessibile fornita di ugelli
permette la formazione di muri ad acqua con spruzzi verticali.
L’acqua è additivata in modo da poter intrappolare e decolorare il fumo restituendolo a
temperatura inferiore.
Un tale sistema ha il vantaggio di isolare il fumo in una sezione del tunnel, impedire la
diffusione del fuoco oltre tale sezione e permettere al contempo la fuga delle persone
eventualmente intrappolate.

62
Sicurezza della galleria

Illuminazione e sistemi elettrici, il sistema d’illuminazione è fondamentale per la gestione


di una guida sicura sia durante le giornate di sole che di notte.
Nel caso dell’illuminazione i tunnel vengono classificati come sottopassi, corti o lunghi ad
ognuna di queste categorie si applica un tipo d’illuminazione in funzione del “sicuro punto
di frenata”.
Infatti uno dei problemi fondamentali è la risposta fisiologica dell’occhio ( che viaggia ad
una certa velocità ) alla variazione di illuminazione al fine di poter individuare un ostacolo
improvviso.
Queste informazioni sulla base di dati sperimentali e teorici possono con sufficiente
precisione esser calcolati da formule tipo la seguente:

n
EGli
La = L2° + K ∑
t =1 θ i2

In cui la luminanza d’adattamento si ottiene dalla luminanza in un campo visibile di 2°


sommata ad una costante per la sommatoria delle luminanze d’abbagliamento dalle
sorgenti diviso il quadrato dell’angolo fra la sorgente abbagliante e la linea di fissazione
dell’occhio.
Si possono realizzare tecnicamente in un tunnel a seconda delle necessità tra tipi
d’illuminazione :

a) Illuminazione simmetrica
b) Illuminazione direzionale 1) in luce diretta
2) in controluce diretta.

La parte più critica dell’illuminazione di un tunnel è l’entrata/uscita e le relative zone di


transizione.
Per i lunghi tunnel il profilo d’illuminazione lungo l’intera lunghezza è definito da ben
accertate funzioni d’illuminazione, mentre la distanza critica a cui un oggetto può esser
visto nella zona di transizione è funzione sia della velocità di navigazione che della
distanza ottimale d’arresto visibile.
Altri problemi possibili possono derivare dalla foschia prodotta dai gas di scarico per
tunnel ad alto tenore di traffico, ora tutti questi problemi possono spesso esser risolti con
opportune illuminazioni particolari che però hanno l’inconveniente di costi veramente alti.
I sistemi elettrici di un tunnel sono sviluppati necessariamente in lunghezza con lunghi
raccordi secondari.
I sistemi elettrici in un tunnel sono sottoposti a condizioni ambientali avverse del tipo alta
umidità, freddo, gas inerti ed inquinanti dalla combustione dei motori, polvere di ferro nei
tunnel metropolitani o ferroviari, caldo e temperature elevate durante gli incendi.
Nel caso di tunnel stradali si aggiungono anche causticità dei detergenti e compressioni
meccaniche, nel caso di lavaggio automatico delle pareti.
I sistemi elettrici sono, come si può ben comprendere, fondamentali per la sicurezza del
tunnel, garantendo di fatto con il loro funzionamento, l’operabilità di tutte le
apparecchiature di sicurezza, quali allarmi, pannelli visivi, segnalatori, telecamere,
ventilatori, ecc.

Drenaggi, struttura di drenaggio non solo per l’acqua ma n un’ottica di sicurezza vengono
in questi ultimi anni istallate in tunnel di lunga percorrenza, tali strutture sono devolute a
drenare i liquidi e gli olii infiammabili che possono derivare da sversamenti accidentali
dovuti ad incidenti e collisioni.

63
Sicurezza della galleria

La presenza di tali strutture fisse riduce di molto la possibilità successiva d’incendio e la


conseguente pericolosità che tali sversamenti accidentali comportano.
Il dimensionamento delle strutture di drenaggio viene spesso fatto con l’ausilio delle
seguenti formule:

Qd = Cost ⋅ S d ⋅ I p
dove
Q d = dilavamento o (l / s )
S d = sup erfice o di o drenaggio o (m 2 )
I p = int ensità o della o pioggia o (mm / s )

In queste quantità di dimensionamento devono esser comprese anche le quantità di acqua


che possono esser utilizzate per spegnere un incendio.
Spesso queste acque sono contaminate da prodotti chimici ritardanti o diluenti, pertanto
devono esser previsti dei sistemi di filtrazione o stoccaggio temporaneo di queste
particolari acque reflue.

Nicchie, rifugi e piazzole d’emergenza e di inversione sono altre strutture fisse di


sicurezza che pur nella loro semplicità tecnico-costruttiva conservano intatta tutta la loro
valenza di strumenti di salvaguardia e prevenzione.
Esse in un’ottica di sicurezza integrata con altre semplici tecnologie ( telefoni, estintori,
ecc. ) concorrono ad abbassare, in modo notevole e funzionale, la probabilità di incidenti
successivi ed al contempo di prevenire indesiderate complicazioni dovute a
malfunzionamenti dei veicoli in transito.
Oppure come le piazzole d’inversione sono costruite per agevolare l’evacuazione dei
veicoli a monte di un eventuale incendio.

Vie di fuga e bypass, nelle gallerie molto antiche non si hanno strutture simili, per alcune
di esse la sola possibilità tecnica è quella di analizzarle caso per caso e proporre soluzioni
opportune.
Per la più moderne costruite negli ultimi anni o in corso di costruzione le vie di fuga sono
divenute una parte costitutiva importante nell’ottica della sicurezza globale degli individui
.
Nei primi contesti operativi tunnel lunghi con ventilazione trasversale come vie di fuga
pedonali venivano presi in considerazione gli stessi condotti per l’aria fresca
Le vie di fuga utilizzate in un contesto più moderno si basano su bypass verso altri luoghi
più sicuri: dalla galleria di servizio che è stata costruita per tutta la lunghezza
dell’Eurotunnel della Manica, a quelli in costruzione oggi lungo la variante di valico e che
prevedono bypass sia per veicoli sia per pedoni, i quali nel caso di una galleria a doppio
fornice portano da un fornice all’altro, oppure verso una galleria di servizio adibita alla
fuga che può esser situata persino al disotto del piano di transito stradale.

6.2 Strutture mobili

Autopompe, alcune società di gestione per tunnel lontani da centri abitati importanti
posseggono vere e proprie squadre d’emergenza analoghe ai Vigili del Fuoco.
Tali squadre speciali spesso hanno la capacità e l’addestramento dei vigili del fuoco e sono
pronte ad intervenire nei casi di necessità anche con autopompe attrezzate alla bisogna.

64
Sicurezza della galleria

Ambulanze,sempre nei casi citati precedentemente tali società di gestione sono in possesso
anche di mezzi di pronto soccorso medico come ambulanze, specialmente attrezzate per l’
ossigenoterapia o la rianimazione.

Motociclisti, per alcuni tunnel come il Monte Bianco esisteva fino a prima dell’incidente
ultimo uno speciale drappello di motociclisti addetti al rapido intervento all’interno del
tunnel in modo da sovvenire automobilisti in panne, prevenendo di fatto gestioni errate di
situazioni di crisi che potrebbero potenzialmente evolversi in vere e proprie situazioni
d’emergenza.

6.3 Strutture e Sistemi di controllo

I sistemi di controllo e sorveglianza di un tunnel devono provvedere in definitiva alle


seguenti mansioni.

a) Monitorare i flussi di traffico ed impedire le congestioni per evitare scontri.


b) Mantenere un tunnel efficiente per gestire al meglio la densità e la velocità del
traffico.
c) Comunicare restrizioni di traffico agli utenti che arrivano
d) Mobilitare le unità di emergenza per risolvere gli incidenti nel tunnel.
e) Iniziare le operazioni appropriate di emergenza quando necessario.
f) Monitorare di continuo l’equipaggiamento di sicurezza del tunnel in modo da
conservarlo sempre operativo.
g) Indicare con precisione e tempestività la zona dell’ incidente e del potenziale
conseguente incendio.
h) Indicare con precisione e tempestività le concentrazioni di gas nocivi
i) Indicare con precisione e tempestività le condizioni di visibilità all’interno del
tunnel.
j) Attivare quando necessario il piano di soccorso e/o d’evacuazione .

Allarmi, molti tipi di monitore d’allarme possono essere installati all’interno di un tunnel
che possono assicurare la salvaguardia degli utenti ad esempio: monitori d’incendio, di
fumo, di visibilità, di concentrazione di gas nocivi come monossido di carbonio, anidride
carbonica, ecc, di velocità dell’aria, di sonorità, ecc.

Telecamere, una rete di telecamere di controllo a circuito chiuso connesse con la sala
controllo sono di fatto divenute dotazione di sicurezza di prammatica di tutti i tunnel di
lunghezza superiore ai 5 Km, queste telecamere trasmettono 24 ore su 24 la situazione di
traffico all’interno del tunnel agli operatori della sala.
Negli ultimi tempi è stato introdotto l’uso di termocamere che situate in portali di
controllo e sosta, forniscono un’informazione sulla situazione termica dello stato dei
veicoli monitorati, in tal modo si prevengono eventuali incendi dovuti a surriscaldamenti
indebiti di parti sensibili del motore o dell’apparato di frenatura.

Segnali, cartelli e segnali luminosi ad assetto variabile o contenuto variabile costituiscono


un’altra delle moderne dotazioni di sicurezza che permettono l’informazione tempestiva e
l’interazione fra utenti e sala controllo in tempo reale.

65
Sicurezza della galleria

Comunicazioni, diversi tipi di strumentazione per comunicazione possono essere istallati


all’interno di un tunnel come, telefoni, postazioni sos, postazioni radio, am/fm, ripetitori
radio , ecc.

Lo scopo di tutta questa strumentazione è quello di permettere un continuo e capillare


aggiornamento della situazione di sicurezza alla sala controllo e viceversa.
In modo che se malauguratamente ve ne fosse la necessità si passerebbe all’attivazione del
piano di emergenza.
Il piano di emergenza per molti tunnel di lunghezza superiore ai 5 km è di fatto una realtà,
per alcuni casi particolari: Eurotunnel, tunnel transalpini, o transfrontalieri esistono piani di
emergenza di carattere bi o multinazionale.
Mostriamo nel seguito a titolo indicativo ed in forma generale la strutturazione globale del
“Piano di Soccorso Bi-nazionale Italia - Francia per il tunnel del FREJUS”, lungo 13 km,
approvato da una commissione intergovernativa,:
Introduzione- Descrizione della Galleria autostradale – Gli scenari Incidentali – Schema
dell’allerta delle strutture esterne – Organi di direzione – Evacuazione –Elenco Telefonico
– Allegati vari.

6.4 La Sala di controllo

Le sale di controllo dei moderni tunnel sono disegnate con principi d’ergonomia per
l’interfaccia uomo macchina, normalmente i computer sono remotati in sale calcolo e
funzionano in modo automatico.
La maggior parte delle operazioni di controllo sono automatizzate tramite schede controllo,
e l’operatore interverrà solo nel caso di segnalazioni anormali o fuori schema di controllo.
La sala controllo è dunque per prima cosa devoluta a seguire il controllo di routine
sull’operatività normale del tunnel e dei sistemi connessi.
E solo in caso di crisi o emergenza provvedere alle necessarie operazioni d’intervento.
Sempre più spesso gli operatori della sala sono addestrati tramite corsi di simulazione
interattiva e mantenuti in addestramento esecutivo tramite esercitazioni di emergenza che
spesso nei casi più complessi coinvolgono più amministrazioni pubbliche per ottimizzare
il coordinamento e le procedure d’intervento.
Spesso le emergenze sono classificate in funzione della loro gravità ed opportuni manuali
d’intervento operativo con le procedure da svolgere sono in dotazione della sala e dei suoi
operatori.
Le simulazioni interattive sono utilizzate per addestrare spesso gli operatori ad emergenze
non previste nei manuali operativi, al fine di conservare la necessaria flessibilità
d’intervento agli operatori della sala controllo.
La presenza o meno di queste tipologie di attrezzature di sicurezza, considerati come
parametri descrittivi della nostra “galleria dinamica”, insieme alle variazioni temporali del
volume di traffico ed alla variabilità nel tempo delle strutture e delle attrezzature, rendono
conto della differenza tra la visione “statica” e quella “dinamica” della galleria.
Ma non solo la presenza di queste attrezzature tra i parametri di definizione ma anche la
loro interazione reciproca nel tempo ed al contempo la loro influenza reciproca anche
tenendo conto del volume di traffico variabile rappresentano quella visione dinamica che in
questo testo viene proposta come migliorativa per la sicurezza efficace a fronte di un
rischio variabile nel tempo.

66
Sicurezza della galleria

Bibliografia.
Luigi TOCCHETTI, Lezioni di costruzioni di strade ferrovie ed aeroporti, volume II, Editori
Pellerano Del Gaudio, 1968)
John O. BICKEL, Thomas R. KUESEL, Elwyn H. KING, Tunnel Engineering Handbook,
Kluwer Academic Publishers London 1999

67
La natura aleatoria del traffico

7 La natura aleatoria del traffico

Il turista chiese: << Rabbi dove sono i suoi mobili ?>>


<<Ed i suoi dove sono ? >> replicò il Rabbino.
<<I miei ? Ma io sono in visita, sono solo di passaggio !>>
<<Anch’io! >> rispose il Rabbino.

7.1 Causalità e casualità nei processi

In un libro di ingegneria stradale. Immaginiamo di trovarci su una generica sezione di


una strada, per esempio a due corsie, e di osservare i veicoli che passano attraverso questa
sezione nei due sensi di percorrenza. Se contiamo il numero di veicoli che transitano in
successivi intervalli di tempo di durata pari a 1 minuto, 1/2 minuto, 1/4 di minuto,
osserviamo subito che l’operazione che stiamo eseguendo ha un risultato non prevedibile: il
numero di veicoli varia per ogni intervallo di tempo che consideriamo, senza nessuna
regola apparente. Analogamente, varia senza regola apparente il risultato di una misura
dell’intervallo di tempo che intercorre tra il passaggio di due veicoli consecutivi su una
corsia della strada sotto osservazione. Un conteggio nel primo caso: che ha come risultato
un numero naturale. Una misura nel secondo caso: che ha come risultato un numero reale.
Allo stesso modo, se su una linea di STOP ci fermiamo a contare il numero di veicoli in
coda che attendono di eseguire la manovra di attraversamento o di svolta, constatiamo che
questo numero varia in modo non prevedibile da istante a istante. ( Queste nostre
osservazioni hanno cioè caratteristiche di altre operazioni ben note, come il lancio di un
dado o di una moneta, l'estrazione di una pallina di colore rosso da una urna che contiene,
per esempio, 5 palline di colore diverso tra cui il rosso. Tutte queste operazioni, il cui
risultato non può essere conosciuto a priori con certezza, vengono denominati esperimenti.
Il risultato di un esperimento prende il nome di evento. A questo punto è necessaria una
precisazione.

Eventi semplici ed eventi composti. Le operazioni di cui stiamo parlando possono essere
eseguite per scopi e finalità assai differenziati. Possiamo lanciare un dado per conoscere il
numero che compare sulla faccia superiore del cubo che lo costituisce oppure per verificare
se il numero estratto è pari (oppure dispari). Nel primo caso gli eventi possibili sono sei,
nel secondo caso gli eventi possibili sono due. Ciascun evento del secondo caso è fornito
dall'unione di tre eventi del primo caso: precisamente l'evento "esce un numero pari" è dato
dall'unione degli eventi (i) "esce il numero 2", (ii)"esce il numero 4", e (iii) "esce il numero
6". L'evento "esce un numero dispari" è dato dall'unione degli eventi (i) "esce il numero 1",
(ii)"esce il numero 3", e (iii) "esce il numero 5". Nel primo caso l'evento "esce il numero 5"
è un evento semplice, mentre l'evento "esce un numero pari" è un evento composto, perché
ottenuto dall'unione di eventi semplici. Per definire un esperimento, è perciò necessario
conoscere quale siano gli eventi semplici. Gli eventi semplici di un esperimento possono
essere definiti come punti di un insieme. L'insieme costituito da tutti gli eventi semplici di
un esperimento acquisisce la denominazione di spazio delle prove. Un esperimento è
completamente definito quando sono specificati in maniera inequivocabile l'evento
semplice e lo spazio delle prove.

Contare i passaggi veicolari. Ritorniamo ora all'esperimento di osservare il numero di


veicoli che transitano nei due sensi di percorrenza attraverso una sezione stradale. L'evento
semplice è costituito dal numero di veicoli che contiamo durante ciascun intervallo
temporale di campionamento opportunamente scelto. Se riteniamo che, per esempio, 20 è
il massimo numero di veicoli che può transitare nell'intervallo prescelto, lo spazio delle

68
La natura aleatoria del traffico

prove viene fornito da tutti i numeri interi positivi compresi tra 0 e 20. Vale la pena di
precisare ora il significato operativo dell’avverbio opportunamente. Alcuni operatori del
settore preferiscono scegliere l’intervallo di campionamento W in modo tale che esso sia il
reciproco del valore medio del tasso f dei conteggi nel medesimo intervallo: vale a dire in
modo che sia verificata l’uguaglianza f W . La immediata conseguenza di questa scelta
è che il valore medio m dei conteggi risulta uguale all'unità e la probabilità di non-
conteggio nel medesimo intervallo di campionamento sia sostanzialmente diversa da 0. La
probabilità di non-conteggio rappresenta infatti un parametro assai significativo della
sequenza di passaggi veicolari sotto osservazione. Fermando la nostra attenzione sul
singolo intervallo temporale di campionamento, il numero dei veicoli transitanti varia da
intervallo a intervallo senza alcuna regola, per cui il fenomeno che ha luogo sotto i nostri
occhi sembra sfuggire a qualsiasi legge. Tuttavia, se dall'esame del singolo intervallo
passiamo a esaminare l'insieme dei risultati ottenuti durante il periodo di osservazione, si
presenta un fatto interessante. All'aumentare del numero di intervalli osservati, il rapporto
tra il numero di intervalli nei quali si verifica un certo evento (per esempio, il passaggio di
4 veicoli) e il numero totale delle osservazioni (cioè la frequenza di comparsa del numero 4
di veicoli) tende a stabilizzarsi intorno a un valore.

File d’attesa. Che cosa hanno in comune una fermata d'autobus, un teatro, una mensa
universitaria, una banca, un supermercato, l'attracco in un porto, una caffetteria , il decollo
di un jumbo-jet , il camerino di una famosa artista del teatro, l'ingresso in un restaurant
all'ora di punta, la sala d'attesa di un noto specialista in medicina, la vita prima dell'evento
estremo?
Gli inglesi la chiamano queue (coda), gli americani la chiamano line (fila). Gli esperti
britannici di ricerca operativa menzionano la queueing theory ( teoria delle code), gli
esperti d'oltre oceano di simulazione computerizzata la citano come waiting line theory
(teoria delle file d'attesa ). Avrete già compreso che si tratta della nostra più comune
quotidiana condanna: aspettare il turno a uno sportello bancario, a una stazione di servizio,
a un distributore di benzina. Aspettare l'età giusta per giocare in prima squadra, per dare
appuntamenti alle ragazze, per votare, per entrare all'università, per avere un posto di
lavoro, per sposarsi o andare a vivere da single. Ecco quindi uno storyboard assai ridotto
delle tre parti.
(1) La prima parte deve risultare introduttiva. In essa si considera il fenomeno di attesa
suddiviso nei sui blocchi fondamentali: il processo degli arrivi, il sistema di servizio, il
fenomeno delle partenze. In netta antitesi con una famosa serie americana di thrilling , il
titolo di questa parte potrebbe risultare Missione Possibile . Vale a dire: i clienti arrivano,
vengono serviti e possono andare via con la consapevolezza e il sollievo e della missione
compiuta. Messo in evidenza il carattere aleatorio del fenomeno, che ricade nella categoria
più generale dei processi stocastici cioè di quei processi di natura probabilistica la cui
probabilità non è costante ma variabile nel tempo, si analizzano le proprietà fondamentali.
Esse riguardano le distribuzioni delle variabili casuali ad esso comunemente collegate:
poissoniana ( da Poisson ), esponenziale, erlangiana ( da Erlang ) , iperesponenziale.
(2) La seconda parte concerne la trattazione analitica di tre modelli matematici
fondamentali della teoria delle code sotto le usuali ipotesi semplificatrici: distribuzione
esponenziale delle durate tra arrivi contigui di clienti, servizio ordinato, attesa illimitata
(ovvero pazienza infinita dei clienti ) , capacità infinita del sistema di servizio. Per non
introdurre eccessive complicazioni negli algoritmi matematici, i fenomeni dell'abbandono
del cliente e del rifiuto dello sportello di servizio sono stati soltanto sfiorati secondo una
linea essenzialmente pratica. In base al criterio che induce a trascurarli se sono
caratterizzati da una ridotta probabilità di verificarsi. Le nozioni di analisi matematica che
si richiedono per la comprensione di questa seconda parte sono tutte comprese tra quelle

69
La natura aleatoria del traffico

che si insegnano ai primi due anni di università in facoltà scientifiche (matematica, fisica,
informatica, computer science, ingegneria). Tuttavia è allo studio una proposta di sorvolare
sulle deduzioni analitiche e soffermarsi soltanto sugli esempi che forniscono un
chiarimento pratico dei risultati teorici.
(3) La terza parte tratta infine il dimensionamento e l'esercizio dei sistemi di servizio con
riferimento agli obiettivi economici che presiedono a una razionale politica di gestione.
Mentre nella letteratura l'aspetto economico del dimensionamento è trattato, salvo rare
eccezioni, nel caso in cui tutti i costi sono noti e determinabili, sarebbe nostra intenzione
affrontare nella nostra trasmissione, su almeno un paio di modelli estremamente semplici e
non senza originalità, il problema della ricerca dell'ottimo economico in funzione del
rapporto tra costo di gestione e costo dell'attesa. Tale rapporto diventa così il parametro
fondamentale per la progettazione del sistema, mentre la qualità del servizio conserva
esclusivamente funzione di controllo.

Aspettando Poisson. Simeon-Denis Poisson nasce il 21 giugno 1781 a Pithiviers, Loiret in


Francia e muore a Parigi poco prima di compire i 59 anni d'età, il 25 aprile 1840. Grandi i
suoi contributi in fisica matematica, meccanica e teoria delle probabilità. Su questo ultimo
argomento il grande matematico francese è passato alla storia per avere formulato la
cosiddetta distribuzione di Poisson nel suo libro Recherches sur la Probabilité del
Jugements en Matière Criminelle et en Matière Civile, précédées des Regles Générales du
Calcul de Probabilitiés. La distribuzione teorica di Poisson trova riscontri sperimentali e
applicativi assai interessanti ne (i) il decadimento di sostanze radioattive; (ii) la
distribuzione spaziale dei danni indotti dallo sgancio di bombe da parte di velivoli militari;
(iii) la distribuzione temporale delle chiamate telefoniche alle centraline di servizio addette
allo smistamento delle stesse; (iv) la distribuzione spaziale e temporale delle comparse
sismiche; (v) la distribuzione nello spazio delle fasi delle particelle elementari della fisica
atomica e nucleare; (vi) e così via.

Aspettando Polya. Gorge Polya nasce invece a Budapest nel 1887 e muore negli Stati
Uniti d’America a Stanford in California nel 1985 alla bella età di 98 anni. L ‘opera
scientifica di Polya è stata estremamente ampia e di altissimo valore. Egli ha fornito
contributi di grande rilievo alla matematica combinatoria, alla teoria delle funzioni, alla
teoria delle equazioni differenziali, alla teoria delle probabilità ed alla teoria delle
disuguaglianze.
La curva di Polya è una variante della curva di Peano, che riempie un triangolo rettangolo.
Le funzioni di Polya sono particolari funzioni caratteristiche nel senso della probabilità.
Sua è anche la distribuzione, cosiddetta di Polya, conosciuta anche come distribuzione
binomiale negativa.
Le funzioni di Polya - Schur sono funzioni di una variabile complessa che in prossimità
dello zero sono approssimabili da polinomi a radici reali.
A lui si devono anche i teoremi detti di Polya, sulle funzioni a valori interi, la teoria di
Polya in analisi combinatoria. Polya ha anche introdotto la nozione di cammino casuale in
probabilità, nozione fondamentale nelle tecniche Monte Carlo. Altrettanto fondamentale è
stata l’opera di Polya nel campo del pensiero matematico come la nozione di ( plausibile
reasoning ).

Aspettando Erlang. La teoria delle code trae il suo fondamento dagli studi condotti dal
danese A.R. Erlang a partire dal 1909 per il dimensionamento degli impianti telefonici.
Tuttavia, soltanto nel 1948, con lo sviluppo della matematica applicata insita nella ricerca
operativa, avvenuto durante e subito dopo la seconda guerra mondiale, le ricadute di questa
teoria si sono estese a campi prima limitrofi ma poi assai lontani da quello telefonico

70
La natura aleatoria del traffico

originario, dando luogo a una vastissima letteratura. Nondimeno, i modelli matematici


della telefonia rimangono tipici per lo studio dei fenomeni di attesa. Quest'ultimo è insito,
quasi secondo natura, in ogni attività umana; si pensi che il trascorrere medesimo del
tempo implica l'attesa. Il vivere stesso può essere concepito come una più o meno lunga
attesa formata da tante attese relativamente brevi. E' sufficiente quindi il pensiero che una
rilevante parte della vita ( il sonno costituisce di per sé già un terzo della durata totale
dell'esistenza ) si consuma aspettando, per convincersi che è certamente utile cercare di
affrontare in termini formalmente rigorosi tutti quei fenomeni che sono caratterizzati dalla
presenza di uno stato di attesa e che, in senso lato, sono definiti fenomeni d’attesa.

Ontologia del fenomeno. Quasi tutti i giorni, capita al cittadino comune di fare parte,
davanti a uno sportello o a una fermata d'autobus o in un qualsiasi negozio, di una coda,
cioè di una fila in cui si attende che venga il proprio turno per essere serviti. E' naturale in
questi casi, specialmente quando l'attesa diventa piuttosto lunga, porsi la legittima
domanda se non sia possibile ( e come...) ottenere un servizio più efficiente. Si nota, in
prima istanza, come vi siano due interessi in conflitto: (i) quello del cliente che vorrebbe
essere servito all'istante o almeno il più presto possibile; (ii) quello del gestore dello
sportello o della fermata o del negozio che tende a ridurre al minimo i costi di gestione e
quindi ad avere il minor numero possibile di addetti al servizio (sportellisti, autisti,
commessi). E' evidente che se il gestore vuole evitare che i clienti in arrivo, trovando una
coda troppo lunga, rinuncino a richiedere il servizio, dovrà aumentare il numero degli
addetti al servizio. Ma il quesito è: in quale misura ? Il problema centrale delle file d'attesa
è appunto quello di determinare un metodo per il calcolo dell'optimum di capacità dei
mezzi di servizio. Ciò equivale al tentativo di trovare un punto di equilibrio tra il costo che
si sopporta lasciando le unità in attesa del loro turno e il costo derivante dall'aumento della
potenzialità dei mezzi di servizio. In alcuni casi, infatti, il tempo perso in attesa può
arrecare lievi danni ( se si esclude la sfera psicologica ) al singolo individuo, ma in molti
altri casi una linea d'attesa implica, per una impresa industriale o per la collettività, costi e
spese a volte molto notevoli e rilevanti. E i problemi di attesa sono molto più comuni di
quanto si creda.

Casistica delle file di attesa. (A) Formano una coda i piroscafi in arrivo in un porto quando
le installazioni di scarico del porto sono già occupate da unità navali arrivate nei giorni
precedenti. E i piroscafi in attesa significano giornate di nolo perdute. (B) Se il computer di
una sala di calcolo è soggetto a un inconveniente di funzionamento, esso richiede
l'intervento di un operatore specializzato nella riparazione o nella sostituzione di una delle
parti. Se tutti gli addetti a questo speciale servizio sono occupati su altre macchine, quel
particolare computer rimarrà in attesa perché inutilizzato. Esempio di problema. Quale è il
numero ottimale di addetti alle riparazioni, per mantenere le macchine in perenne
funzionamento ? (C) Se uno o più tastieristi del computer sono assenti, per malattia o altri
inconvenienti, uno o più computer rimangono improduttivi. Esempio di problema. Quanto
deve essere lunga la "panchina" dei tastieristi di riserva che subentrano agli assenti con lo
scopo di non lasciare inutilizzata la macchina informatica ? (D) Nella centralina elettronica
di un grande centro di ricerca scientifica si viene a formare una linea d'attesa delle
comunicazioni telefoniche quando si presentano contemporaneamente chiamate in numero
superiore di quello degli organi di connessione disponibili. Esempio di problema. Quanto
deve essere ampia la fascia di diramazioni che fuoriescono dalla centralina telefonica con
lo scopo di non lasciare inattesa ( in attesa?) la domanda di interconnessione telefonica da
parte di utenti esterni ? (E) Uno degli eventi più calamitosi del traffico veicolare è il
formarsi di lunghe, quando non interminabili, file di attesa ai caselli di pagamento del
pedaggio delle autostrade di grande traffico. Lasciamo da parte considerazioni di carattere

71
La natura aleatoria del traffico

generale quali una più razionale ( e non necessariamente equa ) ripartizione delle ferie
lungo l'arco delle quattro stagioni. Esempio di problema. Quale è il numero ottimale di
caselli paralleli di entrata o di uscita da una autostrada e quale quello degli addetti ai caselli
in relazione al volume di traffico ? (F) Una delle circostanze meno funzionanti e più
spiacevoli del traffico urbano è costituito dalle lunghissime file che si formano nelle punte
di maggior traffico della giornata, derivanti spesso dal fatto che il traffico risulta
sostanzialmente anisotropo, cioè non equamente distribuito nelle due direzioni di marcia e
nei quattro versi di percorrenza, che di solito caratterizzano un semaforo semplice.
Esempio di problema. Come deve essere modulata la sequenza delle luci rosso- giallo-
verde e quanto deve essere lunga la differente durata di ciascuna delle tre luci suddette per
rendere minimo l'ingombro di traffico in attesa su quel particolare nodo stradale urbano ?
(G) Nel campo dell'organizzazione delle vendite di un negozio a gestione familiare così
come di un grande supermercato appartenente a una catena di distribuzione, si presenta il
problema della determinazione del livello delle scelte. I generi di consumo non possono
essere trattenuti troppo a lungo in magazzino perché rischiano di eccedere la vita media
prevista di qualità garantita del prodotto , ma non devono rischiare di esaurire le scorte,
perché questa ultima circostanza vanifica le aspettative della clientela.
Esempio di problema. Quale deve essere la strategia di gestione delle scorte per
minimizzare la lunghezza della fila d'attesa rappresentata dalle richieste di un determinato
bene di consumo ?

72
La natura aleatoria del traffico

7.2 Il traffico come processo stocastico

Alcune definizioni generali. Dagli esempi riportati nel paragrafo precedente, il concetto di
coda oppure quello di fila d’attesa è assai più ampio e generale di quello inteso dall'uso
corrente del linguaggio quotidiano. Alla ricerca di una definizione operativa del fenomeno
in questione, si può avanzare questo modello rappresentativo. Un processo, continuativo
nel tempo, produce una fila d'attesa quando può verificarsi la seguente circostanza: un
elemento (cliente) in arrivo, pronto a esprimere e richiedere una prestazione, deve
aspettare che un elemento (sportellista o servente) indispensabile per lo svolgimento
dell'attività, abbia terminato di svolgere il suo compito istituzionale con un cliente
arrivato in un istante precedente. Da questa definizione si comprende in maniera
abbastanza intuitiva come ogni fenomeno d’attesa risulta sempre costituito almeno da
quattro stadi rappresentabili schematicamente come segue:
2 l’insieme dell’arrivo dei clienti, ossia delle nascite delle richieste di servizio che via, via
si presentano al sistema di servizio, prende il nome di processo degli arrivi ;
3 l’insieme delle richieste di servizio che, non potendo essere immediatamente
soddisfatte, permangono in attesa di poter manifestare la propria necessità ed essere
servite ( processo di attesa ) ;
4 l'insieme degli atti nei quali viene soddisfatta la richiesta ( processo di servizio ) ;
5 l'insieme delle richieste di servizio che, essendo state soddisfatte, lasciano i punti di
servizio, costituendo il processo delle partenze .

La coda: un processo demografico. In analogia ai processi biologici, lo studio dei quali


ha dato risultati utili anche nello sviluppo della teoria dei fenomeni di attesa, i processi
degli arrivi e delle partenze sono talvolta denominati processi di nascita e di morte in
modo tale che la vita di una presenza lungo la fila d'attesa può essere concepita secondo le
seguenti fasi: (i) la presenza nasce con la specifica manifestazione di una necessità e,
unitamente agli altri arrivi, costituisce il processo delle nascite; (ii) la presenza vive in
attesa di vedere esaudito il desiderio o la volontà che la ha condotta a richiedere lo
specifico servizio, per cui si è schierata lungo la coda; (iii) la presenza è servita ovvero la
sua volontà viene esaudita; (iv) la presenza muore con lo specifico ottenimento
dell'oggetto che richiedeva, esce dal sistema e costituisce, unitamente alle altre presenze
servite, il processo delle morti.

Quanti tipi di sequenze temporali esistono ? Abbiamo visto in precedenza come la


processione degli arrivi, dei servizi e delle partenze siano assimilabili a sequenze temporali
di eventi puntuali ( ossia puntiformi, cioè di durata nulla o, come si dice nel gergo degli
addetti ai lavori, istantanea ).
Risulta abbastanza intuitivo immaginare come la tipologia di queste sequenze sia, almeno
da un punto di vista numerico, infinita.
Invece non è proprio così.
Nel senso che la tipologia ontologica è costituita da un numero molto limitato di specie.
Per la precisione tre soltanto:

(vi) periodica;
(vii) aleatoria, spesso denominata casuale ;
(viii) correlata, con la successiva diversificazione in correlazione positiva oppure
negativa.

Vediamo subito come è costituita la prima di queste quattro tipologie di sequenze: quella
denominata periodica. Essa è caratterizzata da una unica proprietà fondamentale: la

73
La natura aleatoria del traffico

distanza temporale che intercorre tra due eventi contigui ( vale a dire, adiacenti ) presi a
piacere lungo la sequenza risulta costante. Questa proprietà risulta essere totalmente
deterministica in quanto prevede una qualità totalmente affidabile di previsione degli
eventi futuri, in quanto essi risulteranno similmente distanziati rispetto a quelli passati.
Esistono molti eventi di natura planetaria che godono di questa proprietà: essa è infatti
riprodotta da alcuni strumenti costruiti dall'uomo, quali, per esempio, gli orologi delle
specie più disparate. Per le altre tre sequenze (aleatoria, correlata positivamente, correlata
negativamente), è necessario introdurre alcuni concetti fondamentali relativi ai processi
stocastici.

Processi stocastici. A partire dall'inizio del XX secolo, si è progressivamente realizzata la


cognizione che i modelli di natura probabilistica sono più realistici dei modelli di struttura
deterministica in molte situazioni a connotazione fortemente interdisciplinare: un esempio
per tutte, i fondamenti teorico-matematici della fisica nucleare che rappresentano la
assoluta summa mathematica di tutte le altre scienze, sia esatte che sociali, ed in cui alla
struttura deterministica delle equazioni è associata la probabilità delle variabili coniugate.
Spesso la rappresentazione ottimale di un fenomeno viene fornita prendendo in
considerazione un insieme oppure una famiglia di variabili aleatorie invece di una sola
variabile aleatoria. Gli insiemi o le famiglie di variabili aleatorie indicate da parametri,
discreti o continui, come lo spazio e il tempo, sono definiti processi stocastici , oppure
processi casuali oppure ancora processi probabilistici. Nella statistica applicata, dopo le
preliminari e indispensabili operazioni di raccolta e organizzazione dei dati, si cerca in
qualche modo di adattare ai dati sperimentali una distribuzione di carattere teorico allo
scopo di estrarre ulteriori informazioni dai dati stessi. Se l'accostamento della distribuzione
teorica ai dati sperimentali è soddisfacente, le proprietà dell'insieme globale dei dati
possono essere approssimate dalle proprietà matematiche della distribuzione
approssimante. Ecco alcuni esempi di dati sperimentali in cui i modelli matematici di
natura stocastica forniscono rappresentazioni migliori degli equivalenti modelli matematici
di natura deterministica: (i) crescita demografica; (ii) file d'attesa; (iii) congestioni di
traffico veicolare; (iv) modalità di operazione time-sharing da parte di elaboratori
elettronici; (v) immagazzinamento e reperimento di dati; (vi) operazioni di inventariato;
(vii) controllo e strategia di gestione delle risorse idriche di dighe; (viii) polizze di
assicurazione contro il rischio; (ix) comportamento dei consumatori nella scelta delle
marche dei prodotti; (x) diffusione di malattie epidemiche.
Lo studio di tali sistemi è costituito da tre aspetti essenziali: se ne possono infatti mettere in
rilievo i comportamenti, le fluttuazioni e le modalità operative. Allo scopo di raggiungere
il massimo beneficio, una studio può definirsi completo soltanto se porta a termine indagini
su tutti e tre gli aspetti sopra accennati. Le metodologie adottabili sono plurime. Un primo
modo è quello di costruire un modello in scala ridotta del sistema per dedurne il
comportamento del secondo da quello del primo. Esempi di questo approccio sono: la
replica in miniatura di un sistema di irrigazione, il modellino architettonico di un edificio,
vari modelli di simulazione di sistemi complessi ( consolle di aeroplani, impianti
industriali, reattori nucleari, caselli multipli di autostrade, catene di montaggio per la
produzione in serie, centrali di produzione di energia elettrica etc.). L'informazione che
può essere dedotta da questi sistemi è sicuramente limitata dalle complessità del sistema
che si vuole riprodurre, dalla schematizzazione introdotta per la riproduzione, e dalle
difficoltà nel modifiche le caratteristiche strutturali del modello. Un secondo metodo, per
così dire alternativo, è quello di costruire un modello idealizzato di una situazione
complessa e dedurre da questo ultimo alcune proprietà generali. In questa luce emerge
l'importanza del modello analitico -matematico: un tale modello possiede manovrabilità e

74
La natura aleatoria del traffico

scopi limitati unicamente dalla disponibilità delle tecniche computazionali a disposizione


al momento dello studio analitico.

7.3 Traffico veicolare

La matematica del traffico. La cinetica veicolare costituisce una disciplina che studia le
leggi di evoluzione temporale del numero di automobili, camion, motocicli, biciclette e
pedoni in città e in autostrada. Come altre disciplina è dotata di una teoria matematica più
o meno sofisticata e di una pratica basata sulla osservazione dei dati sperimentali. Gli studi
di cinetica del traffico e del trasporto non devono ricorrere a strumentazione sofisticata: a
volte sono sufficienti osservatori fissi in postazioni strategiche con il semplice ruolo di
contatori di passaggi e compilatori di schede orarie.

Analisi di sequenze temporali di eventi. Ripetiamo una domanda e la rispettiva risposta,


già formulate in precedenza. Quanti tipi di sequenze temporali esistono o possono esistere?
Malgrado si possa immaginare l'esistenza di un numero infinito di sequenze, queste ultime
possono essere ricondotte soltanto a tre tipi: periodiche, aleatorie e correlate.
i Le sequenze periodiche sono caratterizzate da un tasso di comparsa degli eventi
costante (attenzione non costante in media !) mentre la distribuzione temporale degli
intervalli tra evento ed evento ( ovvero tra eventi adiacenti ) risulta anche essa costante.
Sequenze di questo tipo sono generate da strumenti denominati temporizzatori ( in
inglese, timers ) quali oscillatori meccanici, ricorrenze planetarie, circuiti RC
(Resistenza-Capacità), orologi digitali, oscillatori al quarzo etc.
ii Le sequenze aleatorie sono caratterizzate da un tasso di comparsa degli eventi
costante in media mentre la distribuzione temporale degli intervalli tra evento ed
evento ( ovvero tra eventi adiacenti ) risulta esponenzialmente decrescente con il
tempo. Questo equivale a dire che la sequenza risulta leggermente più raggruppata ( in
inglese clustered , da cluster, grappolo ) rispetto a quella periodica: gli eventi
compaiono più ravvicinati nel tempo con lunghe intervalli di tempo senza alcuna
comparsa di eventi. Se campionate nel dominio dei tempi e contate, questi tipi di
sequenze sono assai bene rappresentate dalla distribuzione di Poisson. Sequenze di
questo tipo sono generate da sorgenti radioattive, popolazioni di batteri, dati statistici di
suicidi e incidenti di vario genere, traffico veicolare e telefonico.
iii Le sequenze correlate sono di due tipi: a correlazione positiva e a correlazione
negativa. La prima delle due correlazioni implica che la presenza di un evento ad un
dato istante di tempo induce un aumento di probabilità che si verifichi un altro evento a
un istante di tempo immediatamente seguente: sequenze di questo tipo sono generate
dalla rivelazione di neutroni nei reattori nucleari, da processi relativi a malattie
infettive, da fenomeni di linee di attesa nelle cosiddette ore di punta. La seconda delle
due correlazioni implica che la presenza di un evento ad un dato istante di tempo
induce un decremento della probabilità che si verifichi un altro evento a un istante di
tempo immediatamente seguente: sequenze di questo tipo sono generate da apparati di
misura affetti da tempo morto ( per esempio l'occhio umano ma anche l'orecchio
umano ) e in generale da macchine caratterizzate da un ciclo di recupero, in cui mentre
un dato generico viene trasferito dall'unità di conteggio alla unità di memoria, il
contatore viene parzialmente disabilitato dalla sua funzionalità durante il trasferimento.

Modalità di arrivi, servizi e partenze. Allo scopo di meglio comprendere le caratteristiche


di funzionamento di una fila di attesa, prendiamo in considerazione una situazione assai

75
La natura aleatoria del traffico

semplificata. La coda può venire efficacemente descritta da quattro grandezze fisiche:


alcune di queste sono indipendenti, altre sono invece tra loro strettamente legate. Le
dimensioni fisiche di tutte e quattro le grandezze è quella di un tempo : la prima e la terza
sono scelte, la seconda e la quarta sono derivanti dalle due precedenti secondo algoritmi di
natura algebrica. Vediamole nell'ordine che segue.
La prima è costituita dal tempo cronologico che contrassegna l'arrivo del cliente alla fila :
a puro titolo esemplificativo abbiamo scelto una sequenza degli arrivi con unità di tempo
scelte arbitrariamente multiple di 5.
Essa risulta essere quindi, facendo scattare un cronometro immaginario all'arrivo del primo
cliente, formata così (0, 5, 10, 15, 20, 25, 30, ...).
La seconda è costituita dall' intertempo che tra clienti consecutivi e può venire calcolata
come differenza ( tra un singolo cliente e il suo precursore ) tra due dati adiacenti della
prima grandezza definita in precedenza. Essa risulta essere quindi, facendo scattare lo start
di un cronometro immaginario all'arrivo del primo cliente e fermando lo stop del
medesimo sull'arrivo del secondo cliente.
L'arrivo del secondo cliente coincide con un'altra funzione di start del cronometro la quale
verrà chiusa da uno stop indotto dal terzo cliente e così via. La sequenza così formata vale
appunto (5, 5, 5, 5, 5, ...).
La terza grandezza fisica caratterizzante il fenomeno della fila d'attesa è costituita dal
tempo di servizio. Per semplicità lo abbiamo scelto costante e pari a 4 (oppure una un
numero intero inferiore a 4) unità temporali arbitrarie. La sequenza formata da questa
grandezza vale appunto (4, 4, 4, 4, 4, ...).
La quarta e ultima grandezza fisica caratterizzante il fenomeno della coda è costituita dal
tempo di attesa. Essa è costituita dalla somma del tempo di servizio e del tempo di attesa
del cliente precedente diminuita dell'intertempo di arrivo del cliente del quale si sta
calcolando il tempo di attesa.
In pratica, ogni cliente avrà esperienza di una coda della durata pari al tempo di attesa e il
tempo di servizio del cliente precedente cui sottrarre il proprio intertempo di arrivo.
Se il risultato di questa operazione algebrica risulta nullo o negativo, il corrispondente
tempo di attesa è, per definizione, identicamente uguale a zero. Per le ipotesi fatte, si
ottiene la seguente tabella sinottica:

Tempo cronologico 0 5 10 15 20 25 30
Intertempo di arrivo 5 5 5 5 5 5 5
Tempo di servizio 4 4 4 4 4 4 4
Tempo di attesa 0 0 0 0 0 0 0

Tabella 1 - Le caratteristiche numeriche di una fila di attesa con clienti in arrivo


periodico (intertempo costante di arrivo pari a 5 uta) e tempo di servizio costante
( pari a 4 uta ) e inferiore all’intertempo di arrivo

Quando i tempi di servizio crescono: l’insorgenza della coda. Passiamo a un secondo


esempio, notevolmente rappresentativo. Supponiamo che il tempo di servizio, invece di

76
La natura aleatoria del traffico

rimanere costante, cresca linearmente da un valore di 6 uta (unità temporali arbitrarie), cioè
già superiore all'intertempo di 5 uta, al primo servizio, e incrementi il suo valore di una
unità per ogni servizio svolto.

La nuova tabella presenta quindi, in tal modo, inalterate le prime due righe, mentre la terza
esibisce la crescita lineare dei tempi di servizio da 6 uta fino a 12 uta. Eccola.

Tempo cronologico 0 5 10 15 20 25 30
Intertempo di arrivo 5 5 5 5 5 5 5
Tempo di servizio 6 7 8 9 10 11 12
Tempo di attesa 0 1 3 6 10 15 21

Tabella 2 - Le caratteristiche numeriche di una fila di attesa con clienti in arrivo


periodico (intertempo costante di arrivo pari a 5 uta) e tempo di servizio crescente a
partire da un valore (6 uta) superiore all’intertempo di arrivo

Che cosa accade ai tempi di attesa? Il primo cliente viene servito subito, non avendo
nessuno che lo abbia preceduto. Tuttavia il secondo deve attendere per una durata
temporale pari al risultato della operazione algebrica (6+0-5 = 1), il terzo cliente per una
durata di (7+1-5 = 3), il quarto cliente per una durata di (8+3-5 = 6), il quinto cliente per
una durata di (9+6-5 = 10), il sesto cliente per una durata di (10+10-5 = 15) e, infine, il
settimo deve attendere per una durata temporale pari al risultato di (11+15-5 = 21). Si può
notare immediatamente come, mentre il tempo di servizio cresce linearmente di cliente in
cliente ( ricordiamo di avere imposto noi questo andamento per analizzare l'effetto di
questa scelta sul tempo di attese dei clienti via, via da servire, il tempo di attesa cresce
rispetto ai precedenti di una quantità che a sua volta cresce linearmente con il transitare
dei successivi clienti. Valutiamo infatti questa crescita operando una differenza tra il
secondo tempo di attesa e il primo, tra il terzo tempo di attesa e il secondo e così via.
Otteniamo:

(1 - 0 = 1) ; (3 - 1 = 2) ; (6 - 3 = 3) ; (10-6 = 4) ; (15-10 = 5) ; (21-15 = 6)

Tabella 3 - Andamento lineare ( da 1 uta fino a 6 uta ) della crescita della differenza tra
tempi di attesa consecutivi

77
La natura aleatoria del traffico

7.4 Traffico pedonale

Quanto è difficile smaltire una coda! L'immediata conclusione è che il semplice aumento
lineare ( da 6 uta a 12 uta) dei tempi di servizio determina un catastrofico incremento ( da 0
uta a 21 uta, sic! ) del tempo di attesa. Per comprendere meglio l'entità dell'effetto
amplificatore e il danno provocato dall'allungamento dei tempi di servizio, proviamo a
vedere quanto permane la lunghezza della fila, ovvero quanto sarà necessario attendere
perché siano ripristinate le originali condizioni di fila di attesa nulla. Per visualizzare il
fenomeno, supponiamo che dopo il settimo cliente, il tempo di servizio ritorni al valore
nominale 4 che aveva nel quadro sinottico offerto in Tabella 1. Riportiamo in Tabella 4 la
nuova situazione:

Tempo cronologico 0 5 10 15 20 25 30
Intertempo di arrivo 5 5 5 5 5 5 5
Tempo di servizio 4 4 4 4 4 4 4
Tempo di attesa 21 20 19 18 17 16 15

Tabella 4 - Le caratteristiche numeriche di una fila di attesa con clienti in arrivo


periodico (intertempo costante di arrivo pari a 5 uta) e tempo di servizio costante
( pari a 4 uta ) e inferiore all’intertempo di arrivo. Il valore iniziale della coda
( 21 uta ) è quello ereditato dalla tabella 2

Dall'andamento linearmente decrescente del tempo di attesa si può intuitivamente


estrapolare che l'effetto indotto dall'aumento del tempo di servizio da 6 uta a 12 uta ( vedi
Tabella 2 ), per la durata di sette turni di servizio ha condotto al formarsi di una fila di
attesa di 21 uta che potrà essere smaltita, tramite il nuovo regime di servi costanti e pari a 4
uta, soltanto in ventidue turni.

Analogie e metafore. Che cosa rappresentano i tre casi illustrati in Tabella 1, 2 e 4 e nei
commenti relativi? Si è trattato di semplici schematizzazioni di situazioni che si presentano
concretamente nella realtà.
Eccole in ordine logico:
i. come distribuzione dei tempi di arrivo dei clienti è stata adottata la simulazione più
semplice, quella di arrivi periodici, vale a dire con intertempi costanti: una
distribuzione aleatoria oppure a correlazione positiva avrebbe soltanto esaltato la
natura numerica dei fenomeni di congestione. Non era il caso di infierire: già nel
caso di arrivi periodici di notano notevoli aggravamenti non appena il tempo di
servizio diventa più lungo dell'intertempo di arrivo;
ii. come distribuzione dei tempi di servizio da parte degli sportelli o dei caselli è stato
inizialmente adottato il caso totalmente ottimistico di servizi di durata costante e
inferiore agli intertempi di arrivo. Come si è visto, in questo caso il fenomeno della
fila d'attesa risulta inesistente. Tuttavia, non appena il tempo di servizio eccede
l'intertempo di arrivo, la coda comincia a formarsi. Questo fenomeno è stato
esaltato continuando a far crescere il divario tra tempo di servizio e intertempo di
arrivo, proprio per simulare richieste da parte dei clienti che mettono in difficoltà i
gestori dello sportello oppure del casello. E' facile immaginare le ragioni concrete
di tali situazioni in banca, in autostrada, ai semafori, nelle mense aziendali etc.;

78
La natura aleatoria del traffico

si è fornito un esempio concreto di come il ritorno alla condizione operativa di un tempo


di servizio inferiore all'intertempo di arrivo in una situazione di iniziale congestione sia
sufficiente soltanto a lenire il disagio o mitigare il danno derivante a carico e dispetto nei
nuovi clienti arrivati al collo di bottiglia della coda. In parole molto semplici, basta
pochissimo tempo per creare una congestione: ne serve tantissimo per eliminarne le
conseguenze.

Struttura fluida e struttura fine del traffico. I problemi presentati dalla crescita del
moderno traffico stradale sono seri e urgenti. Dal punto di vista della comunità, essi hanno
un considerevole impatto sociale, mentre per il matematico essi rappresentano una
stimolante area di applicazione di metodi teorici che coinvolgono molteplici tecniche sia di
matematica applicata sia di analisi di dati. I temi che si offrono alle indagini matematiche
sono: (i) il movimento dei veicoli in strada aperta, agli incroci, all'interno di gallerie, in
sede di parcheggio; (ii) problemi ingegneristici che vanno dal progetto di sistemi stradali
per nuove città fino ai sistemi di controllo veicolare tramite semafori e svincoli; (iii)
problemi di trasporto e programmazione per aree di sosta, parcheggio e rifornimento; (iv)
studi di ottimizzazione e ricaduta economica; (v) problematiche di sicurezza, prevenzione
di incidenti, trattamento degli infortunati, riduzione della mortalità.
Le procedure di attacco a tali problemi coprono un ampio raggio. In situazioni di traffico
intenso, lo scorrimento dei veicoli lungo una strada viene spesso trattato in termini
cinematici assimilandolo a una vena fluida. L'osservatore del traffico risiede in postazione
fissa. Le soluzioni vengono raggiunte attraverso metodi classici. Questi modelli sono di
natura macroscopica in quanto non prendono in considerazione le proprietà dei singoli
veicoli: le corrispondenti teorie non sono quindi in grado di offrire spiegazioni sulla
struttura fine del traffico. I modelli dinamici, con osservatori del traffico a bordo di
automezzi, sono microscopici, in quanto l'attenzione è focalizzata sul comportamento
reciproco tra il veicolo strumentato e un altro veicolo, immediatamente precedente oppure
seguente, che si muove lungo il medesimo percorso. Ambedue i modelli, statico e
dinamico, sono di natura deterministica. Un genere differente di modello è quello
probabilistico o stocastico, in cui lo scorrimento del traffico viene assimilato a un processo
di estrazione a sorte: il veicolo passa o non passa, il pedone traversa o non traversa ? La
natura probabilistica del fenomeno sotto osservazione viene raggiunta attraverso una
opportuna elaborazione dei dati raccolti in situazioni reali. Tali formulazioni coinvolgono
grandezze statistiche e variabili di stato: entrambe manovrate da tecniche matematiche
avanzate e sofisticate, cioè accessibili soltanto a specialisti. I due diversi tipi
(deterministico e probabilistico) di modello non sono necessariamente conflittuali e, anzi,
possono complementarsi a vicenda, a seconda delle esigenze particolari di questo o quello
studio. Alcuni approcci teorici vengono spessi accusati di possedere limiti troppo evidenti:
vengono allora raggruppati in formulazioni criticabili per inadeguatezza e superficialità:
per esempio, i veicoli sono spesso considerati come punti materiali della fisica, punti di
accumulazione della matematica e della geometria, atomi o molecole di gas nella teoria del
traffico basata su isomorfismi con la teoria cinetica dei gas perfetti. Nel settore del traffico
e del trasporto, sembra particolarmente difficile trovare un approccio che sia tanto
realistico da avvicinarsi alla fenomenologia corretta quanto matematicamente trattabile per
essere utile. Come alternativa pratica si ricorre quindi spesso alla simulazione elettronica o
informatica, in una sorta di modellistica euristica.

79
La natura aleatoria del traffico

Indicatori di presenze nel traffico. Vediamo ora un po’ in dettaglio come si presentano le
sequenze campionate di traffico. Per semplicità scegliamo sei strisce contrassegnate dalla
comune proprietà di contenere 10 presenze totali di veicoli in un intervallo temporale
complessivo di dieci sottoinsiemi temporali adiacenti. L'ipotesi della adiacenza non è
strettamente necessaria, ma semplifica alquanto la trattazione. Le strisce sono quindi
formate da una sequenza si dieci numeri compresi tra 0 e 10. Le abbiamo caratterizzate con
le prime sei lettere maiuscole dell'alfabeto.

(A) 1 1 1 1 1 1 1 1 1 1

(B) 0 1 1 2 1 2 1 0 2 0

(C) 0 1 1 2 0 2 1 0 3 0

(D) 0 0 2 2 0 0 3 0 3 0

(E) 0 0 1 3 0 0 4 0 2 0

(F) 0 0 0 10 0 0 0 0 0 0

Sei sequenze campionarie di traffico

La domanda che ci si pone è: quali indicatori scegliere per caratterizzare le sequenze ed


essere in grado di distinguerle le une dalle altre ?
Come primo indicatore, scegliamo S1 definito come la somma delle presenze di ciascuno
striscia. E' immediato notare come questo indicatore risulta uguale ( e pari a 10) per tutte e
sei le strisce. Lo si può quindi definire non-descrittivo della sostanziale diversità tra le
strisce.
Come secondo indicatore, scegliamo ZT definito come il totale dei campioni a contenuto
nullo di ciascuna striscia: è immediato notare come ZR vada da un minimo di 0 a un
massimo di 9 per le strisce dalla (A) alla (F), ma non è in grado di separare il grado di
raggruppamento che esiste tra la striscia (D) e la striscia (F).
Come terzo indicatore, scegliamo MD definito come la differenza tra il campione a
contenuto massimo di presenze e quello a contenuto minimo di presenze; è immediato
notare come MD vada da un minimo di 0 a un massimo di 10 per le strisce dalla (A) alla
(F), ma non è in grado di separare il grado di raggruppamento che esiste tra la striscia (C) e
la striscia (D).
Come quarto indicatore, scegliamo S2 definito come la somma dei quadrati delle presenze
in ciascuna striscia; è immediato notare come S2 vada da un minimo di 10 a un massimo
di 100 per le strisce dalla (A) alla (F). Inoltre esso è in grado di separare, con sufficiente
risoluzione, il grado di raggruppamento che esiste tra tutte le strisce.
Come quinto e ultimo indicatore, scegliamo S3 definito come la somma dei cubi delle
presenze in ciascuna striscia; è immediato notare come S2 vada da un minimo di 100 a un
massimo di 1000 per le strisce dalla (A) alla (F). Inoltre esso è in grado di separare, con
risoluzione assai maggiorata rispetto all'indicatore S2, il grado di raggruppamento che
esiste tra tutte le strisce.

80
La natura aleatoria del traffico

Di seguito viene presentato un quadro sinottico dei risultati.

S1 ZT MD S2 S3

(A) 10 0 0 10 10
(B) 10 3 2 16 28
(C) 10 4 3 20 46
(D) 10 6 3 26 70
(E) 10 6 4 30 100
(F) 10 9 10 100 1000

Indicatori statistici di presenza nel traffico

Legenda
S1 : somma delle presenze
ZT : somma dei campioni a contenuto nullo
MD : dispersione massima
S2 : somma dei quadrati delle presenze
S3 : somma dei cubi delle presenze

Rappresentazione di presenze veicolari sotto forma di istogramma. Vediamo ancora un


po’ in dettaglio come si presentano le sequenze campionate di traffico. Nell’esempio
appena precedente le strisce erano composte soltanto da 10 campionamenti contigui e
potevano facilmente essere rappresentate in forma seriale. E' però necessario tenere
presente che le sequenze reali sono costituite da migliaia, decine di migliaia, centinaia di
migliaia di dati e che tale situazione impone altre forme di rappresentazione compatta dei
risultati sperimentali e altre forme di compattazione dei dati per poter essere rapidamente
riconducibili agli indicatori (per esempio S1, ZT, MD, S2, S3 e così via) suggeriti in
precedenza. Viene proposto come esempio una compattazione sotto forma di istogramma.

(A) 1 1 1 1 1 1 1 1 1 1

(B) 0 1 1 2 1 2 1 0 2 0

(C) 0 1 1 2 0 2 1 0 3 0

(D) 0 0 2 2 0 0 3 0 3 0

(E) 0 0 1 3 0 0 4 0 2 0

(F) 0 0 0 10 0 0 0 0 0 0

Sei sequenze campionarie di traffico

81
La natura aleatoria del traffico

Dalla serie all’istogramma. Se indichiamo con Nk il numero di campioni con contenuto


pari a k presenze, le sei sequenze possono esser ricondotte a sei istogrammi (uno per
ciascuna serie ) che costituiscono una forma compatta di rappresentazione del fenomeno.
Di seguito vengono mostrati i risultati dell’applicazione della tecnica dell’istogramma al
fenomeno in oggetto.

k Nk
Sequenza (A) 0 0
1 10

k Nk
Sequenza (B) 0 3
1 4
2 3

k Nk
Sequenza (C) 0 4
1 3
2 2
3 1

k Nk
Sequenza (D) 0 6
1 0
2 2
3 2

k Nk
Sequenza (E) 0 6
1 1
2 1
3 1
4 1

k Nk
Sequenza (F) (i) 9
(ii) 1

Istogrammi delle sequenze di traffico dalla (A) alla (F)

Dalla rappresentazione sotto forma di istogramma si può accedere al calcolo degli


indicatori (per esempio S1, ZT, MD, S2, S3 e così via) attraverso le seguenti formule:

S1 = somma dei prodotti (kNk)


ZT= N0
MD = max (K) - min (K)
S2 = somma dei prodotti (k2Nk)
S3 = somma dei prodotti (k3Nk)

82
La natura aleatoria del traffico

La distribuzione di Poisson. Come ulteriore esempio, partiamo ora dal fondo del
problema e cerchiamo di immaginare come si presenta un istogramma di una distribuzione
assai nota in ambito di processi stocastici: la cosiddetta distribuzione di Poisson. Essa è
caratterizzata da un unico parametro, il valore medio m. Se definiamo con Pk la
probabilità che, in un intervallo di tempo opportunamente scelto, si verifichino k eventi,
per la distribuzione di Poisson, essa vale

m
Pk =   Pk −1 dove k = 1, 2, 3,... ’
k

P0 = e − m

Abbiamo scelto la formula delle probabilità secondo una notazione ricorrente perché
(i) in primo luogo molto utile per il calcolo numerico dei valori delle probabilità;
(ii) in secondo luogo assai espressiva da un punto di vista fenomenologico per mettere
in evidenza il picco della distribuzione, ovvero la sua moda. Infatti, nel caso che il
valore medio m del profilo di probabilità sia un numero intero, il profilo in
questione presenta due valori equiprobabili Pm e Pm-1 , i quali costituiscono
anche i due picchi contigui della distribuzione di probabilità e stabiliscono quindi
un plateau in testa al profilo.

Per fornire un esempio numerico di una distribuzione di Poisson di presenze di traffico


veicolare in autostrada oppure in galleria, avanziamo le seguenti ipotesi:
(i) numero totali di campioni temporali contigui di traffico pari a N= 10000 ;
(ii) valore medio pari a m=1 ;
(iii) rapporto varianza-su-media pari a 1 ;
(iv) istogramma teorico dei dati di traffico ottenuto moltiplicando N per il profilo di
probabilità Pk ;
(v) la serie di formule ricorrenti per le probabilità diventa allora del tipo

P0 = exp(-1)

P1 = P0

P2 = (1/2) P1

P3 = (1/3) P2

P4 = (1/4) P3

83
La natura aleatoria del traffico

Ecco, infine, l’istogramma che si ottiene.

Istogramma della distribuzione di Poisson


con valore medio m =1 e numero totale di campioni N= 10000

k Nk k Nk k2 Nk
------------------------------------------------------------
0 3679 0 0
1 3679 3679 3679
2 1840 3680 7360
3 613 1839 5517
4 153 612 2448
5 31 155 775
6 5 30 180
resti 1 5 41
-----------------------------------
10000 10000 20000

Alcune considerazioni sono immediate e valgono la pena di essere sottolineate:

(i) il numero di campioni vuoti (k=0) e il numero di campioni a contenuto unitario


(k=1) sono uguali;
(ii) la sommatoria dei valori di Nk uguaglia il numero totale N dei campioni prelevati;
(iii) la sommatoria dei valori di k Nk (=10000) diviso per il numero totale N (=10000)
dei campioni fornisce il valore medio (m=1) dell’istogramma;
(iv) la sommatoria dei valori di k2 Nk (=20000) diviso per il numero totale N
(=10000) dei campioni fornisce il valore quadratico medio (m2=2)
dell’istogramma;
(v) la varianza assoluta V della distribuzione risulta pari all'unità, essendo per
definizione V = m2 - (m)2 ;
(vi) la varianza relativa della distribuzione, nota anche come rapporto varianza- su-
media risulta unitaria, essendo per definizione data dalla formula VR= (V/m).

84
La natura aleatoria del traffico

La distribuzione di Polya. Come ulteriore esempio, partiamo ora dal fondo del problema e
cerchiamo di immaginare come si presenta un istogramma di una distribuzione assai nota
in ambito di processi stocastici: la cosiddetta distribuzione di Polya, conosciuta anche sotto
la denominazione di distribuzione binomiale negativa. Essa è caratterizzata da due
parametri, il valore medio m e la varianza- su-media VR diminuita dell'unità, secondo la
formula VR-1 = Y. Se definiamo con Pk la probabilità che, in un intervallo di tempo
opportunamente scelto, si verifichino k eventi, per la distribuzione di Polya, essa vale

Pk = {[m + (k + 1)Y ] / k (1 + Y )}Pk −1 dove k = 1, 2, 3,... ’

 m  
−   log (1+ Y )
P0 = e  Y  

E' immediato notare come il limite per Y tendente a zero della distribuzione di Polya fa
ricadere questa ultima nella distribuzione di Poisson. Abbiamo scelto la formula delle
probabilità secondo una notazione ricorrente perché (i) in primo luogo molto utile per il
calcolo numerico dei valori delle probabilità; (ii) in secondo luogo assai espressiva da un
punto di vista fenomenologico per mettere in evidenza il picco della distribuzione, ovvero
la sua moda. Infatti, nel caso che il parametro m -Y del profilo di probabilità sia un numero
intero, il profilo in questione presenta un valore più probabile di altri con probabilità data
da Pm-Y . Per fornire un esempio numerico di una distribuzione di Polya di presenze di
traffico veicolare in autostrada oppure in galleria, avanziamo le seguenti ipotesi: (i)
numero totale di campioni temporali contigui di traffico pari a N= 10000 ; (ii) valore
medio pari a m=1 ; (iii) rapporto varianza- su-media pari a 2 ; (iv) istogramma teorico dei
dati di traffico ottenuto moltiplicando N per il profilo di probabilità Pk ; (v) la serie di
formule ricorrenti per le probabilità diventa allora del tipo

P0 = (1/2)

P1 = (1/2)P0

P2 = (1/2) P1

P3 = (1/2) P2

P4 = (1/2) P3

e così via

85
La natura aleatoria del traffico

Ecco, infine, l’istogramma che si ottiene.

Istogramma della distribuzione di Polya


con valore medio m =1, varianza relativa correlata Y = 1
e numero totale di campioni N= 10000

k Nk k Nk k2 Nk
-------------------------------------------------------
0 5000 0 0
1 2500 2500 2500
2 1250 2500 5000
3 625 1875 5625
4 313 1253 5008
5 156 780 3900
6 78 468 2808
7 39 273 1911
8 20 160 1280
9 10 90 810
10 5 50 500
11 2 22 242
12 1 12 144
resti 1 17 272
----------------------------------------
10000 10000 30000

Alcune considerazioni sono immediate e valgono la pena di essere sottolineate: (i) il


numero di campioni vuoti (k=0) rappresenta il picco dell’istogramma della distribuzione di
Polya; (ii) la sommatoria dei valori di Nk uguaglia il numero totale N dei campioni
prelevati; (iii) la sommatoria dei valori di k Nk (=10000) diviso per il numero totale N
(=10000) dei campioni fornisce il valore medio (m=1) dell’istogramma; (iv) la sommatoria
dei valori di k2 Nk (=30000) diviso per il numero totale N (=10000) dei campioni fornisce
il valore quadratico medio (m2=3) dell’istogramma; (v) la varianza assoluta V della
distribuzione risulta pari a 2 essendo per definizione V = m2 - (m)2 ; (vi) la varianza
relativa della distribuzione, nota anche come rapporto varianza- su-media risulta pari a 2
essendo per definizione data dalla formula VR= (V/m).

86
La natura aleatoria del traffico

8. L’evoluzione del rischio

Tu sei quello che pensi di essere.


Quando cambia il tuo modo di pensare,
Tu sei cambiato.

8.1 Dal rischio “statico” al rischio “dinamico”

Il rischio di cui fin’ora abbiamo parlato e discettato, può con un parallelo meccanico, esser
definito “statico”.
Cioè senza evoluzione, fisso nel tempo e nello spazio, anche se ciò non vieta che alcuni
parametri di definizione del tale rischio possano evolversi, invece nel tempo.
La valutazione del rischio passa attraverso quella che comunemente viene definita analisi
del rischio.
Tale valutazione spesso viene presentata come rapporto tecnico/scientifico che contiene i
“beni” analizzati, la loro vulnerabilità, la loro probabilità di esser danneggiati, le stime dei
costi di recupero, il riassunto delle possibili protezioni con i costi associati, ed infine le
stime dei risparmi ricavabili da una miglior protezione.
In generale vengono utilizzate due metodologie per l’analisi del rischio una cosiddetta
quantitativa ed una qualitativa.
La prima, sviluppata intorno agli anni 70, utilizza le stime numeriche dei costi e delle
probabilità per produrre modelli di stima quantitativa delle perdite e dei risparmi possibili.
Ovviamente la parte più difficoltosa di quest’approccio è data dalla stima oggettiva delle
probabilità. Infatti la probabilità di danno è fortemente dipendente dalla specificità della
situazione ed altrettanto quindi la sua valutazione.
La seconda, quella qualitativa, si è sviluppata quasi per contrapposizione critica ai metodi
quantitativi basati su di una precisione, spesse volte più che illusoria.
I metodi qualitativi usano esplicitamente scale di giudizio soggettivo, ad esempio una scala
di severità del rischio che varia da 1 a 10.
Spesso infatti la metodologia quantitativa maschera con il suo output numerico le
incertezze fondamentali connesse con tutte le stime di rischio.
Riguardo a ciò Charles Pfleeger ha giustamente scritto “ la precisione dei numeri è un
diversivo fuorviante. Il modo più proficuo di usare l’analisi di rischio è quello di
strumento per la pianificazione”.
Quindi tenendo conto di quanto detto, rileviamo anche un’altra e più sottile défaillance,
della metodica classica, quella della sua staticità nell’individuazione e classificazione del
rischio.
Questa staticità è spesso dettata dalla descrizione della “situazione” analizzata, che può ben
definirsi “fotografata” o “congelata” una volta per tutte.
A chiarimento di quanto affermato, forniamo un esempio di approccio statico al problema
della sicurezza delle gallerie che può, in buona approssimazione, essere considerato il
seguente.
In genere si identificano due livelli di sicurezza di una galleria uno di sicurezza “attiva” in
cui i fattori di rischio individuati sono :
la lunghezza della galleria, le sue caratteristiche geometriche, il traffico e la percentuale di
traffico pesante, le merci trasportate e i mezzi di trasporto.
Un altro livello detto di sicurezza “passiva” , in cui i fattori di rischio individuati sono:
la consapevolezza dell’utente, l’informazione all’utenza, gli impianti d’illuminazione.
Ora, poiché la maggior parte degli incidenti gravi nei tunnel del mondo sono stati generati
dal trasporto delle sostanze pericolose, il primo passo è dato dall’identificazione delle

86
La natura aleatoria del traffico

problematiche di sicurezza connesse con il trasporto di sostanze pericolose, ciò si attua


attraverso diverse fasi come:
descrizione delle caratteristiche del tunnel; identificazione delle situazioni di rischio
potenziale ( incendio, rilascio di sostanze pericolose, ecc. ); analisi storica degli incidenti
occorsi, anche in ambito internazionale; valutazione comparata della normativa nazionale
di sicurezza dei tunnel; valutazione delle misure di sicurezza predisposte per il tunnel in
esame; ecc.
La raccolta dei dati da analizzare ( sia in quantità che in qualità) è un momento altamente
importante, ricordiamo infatti che i dati possono essere sia critici per i risultati, sia sensibili
alle scelte strategiche effettuate o da effettuare.
Altre fasi che possono seguire nell’analisi sono ad esempio: l’individuazione del numero
di persone della popolazione potenzialmente coinvolte; l’ analisi, sia storica, che
prevedibile del traffico di merci “pericolose”nel tunnel, ovvero la frequenza di passaggio
di tali carichi attraverso il tunnel; in seguito si passa all’individuazione di un numero
accettabile di scenari incidentali pericolosi ed alla costruzione per ognuno di essi del
relativo albero degli eventi ( spesso si considerano anche atti di sabotaggio, esplosioni,
inondazioni, cedimenti strutturali, ecc).
Può esser poi effettuata la valutazione della probabilità di accadimento ad essi connessa e
quella delle conseguenze relative ad ogni situazione incidentale prevista; l’aggregazione
delle conseguenze e delle probabilità di accadimento; la stima del rischio; il confronto con
i valori di accettabilità previsti dalle normative vigenti e l’ individuazione delle misure
tecnico/tecnologico/normative atte a ridurre la probabilità degli incidenti previsti ( spesso,
si considera la mitigazione del massimo incidente credibile, ritenendo di fatto con essa, per
prassi estensiva, mitigati tutti gli incidenti di entità minore ).
Ed infine l’ultima fase è data dalla predisposizione della pianificazione d’emergenza.
Questa metodologia, qualitativa o quantitativa che possa essere, ha il difetto, come già
accennato, di congelare la descrizione della situazione di rischio, che viene spesso
individuata dalla serie storica degli incidenti.
Ma come possiamo facilmente comprendere la realtà della vita è, a maggior ragione nei
nostri tempi di continua ed incessante evoluzione tecnologica e telematica, altamente
variabile e dinamica.
Per cui, il rischio che noi abbiamo definito “statico” è ai nostri giorni un’approssimazione,
sebbene utilizzabile per alcuni casi particolare, non più soddisfacente, in termini generali,
in molti casi.
Per due ordini di ragioni:

A) Con un rischio “statico” ovviamente non si possono prevedere le variazioni nel


tempo, dovute alle mutate condizioni della situazione di rischio che spesso si è
evoluta divenendo, ad esempio, profondamente diversa da quella della prima
analisi, che può risultare addirittura inattuale.
B) Con un rischio “statico” si può incorrere nell’ errore di "sovrastimare" alcune
situazioni di rischio estremo e quindi di strutturare una dispendiosa organizzazione
per la mitigazione e gestione dell’emergenza che può risultar praticamente non
utilizzabile in condizioni di crisi cambiate nel tempo, o diverse. O all’inverso
“sottostimare” l’intera situazione.

Sulla scorta di queste riflessioni e sulla presa di coscienza che l’organizzazione


dell’evoluzione futura dipende, come abbiamo visto, dal passato nel caso di stabilità o
prevedibilità, ma non può essere costantemente ad esso uguale, in quanto ciò dovrebbe
significare, appunto, l’annullamento dello scorrere del tempo.

87
La natura aleatoria del traffico

Si è ritenuto necessario, nel caso del sistema complesso delle gallerie sia esse stradali, che
ferroviarie, che metropolitane, che il vecchio concetto di rischio “statico” si evolvesse in
quello che, per sottolineare la differenza è stato battezzato rischio “dinamico”, cioè non
più uguale perennemente a se stesso, ma variabile nel tempo come funzione complessa di
parametri a loro volta dipendenti dal tempo, che concorrono alla definizione del concetto
innovativo di “galleria dinamica”.

8.2 Il rischio variabile nel tempo

La nozione di variabilità nel tempo del rischio è l'evoluzione naturale dell'argomento, nel
caso in ci si voglia realmente effettuare una valutazione ragionevole ed il più precisa
possibile del rischio connesso con sistemi e strutture complesse.
Questa affermazione può parere una riflessione di tipo pseudo - utilitaristico, per
giustificare delle scelte precostituite, ma in realtà per vie diverse anche altri ricercatori
hanno affrontato il medesimo problema e raggiunto soluzioni analoghe, ma diverse, per
alcune sostanziali differenze, sia applicative, sia metodologiche.
Ricordiamo ad esempio Paul K. Davis nel campo militare (Interactive Simulation in the
Evolution of Warfare Modelling- Procidings of IEEE Vol.83 N° 8 1995 ) e Kakhandiki e
Shah nel campo dello studio del rischio sismico (Understanding time variation of risk :
Crucial Implication for Megacities Worldwide- Applied Geography Vol.18 N°1 1998)
Il valutare il rischio di un incidente e definire le conseguenti mappe di vulnerabilità sulla
base dei dati storici di un evento, può rendere di fatto inattendibili sia i risultati, sia le
misure di mitigazione e recupero, che vengono programmate dal menagement.
Una struttura di valutazione di rischio variabile nel tempo deve seguire delle regole ben
precise di analisi e deve essere opportunamente "disegnata" alla luce delle specifiche
necessità degli interessati ( le persone che sono in condizioni di rischio).
Questa affermazione indica che bisogna approfondire il livello di dettaglio nella
descrizione dei vari componenti della struttura che si analizza, in modo da identificare il
numero e la tipologia dei vari rischi possibili e le componenti variabili nel tempo che
partecipano alla loro definizione.
Ad esempio le strutture complesse che abbiamo definito con il nome di "Gallerie
dinamiche" presentano diversi parametri di definizione che sono interconnessi fra loro e
che debbono esser prima, trattati come entità separate o al più come sottoinsiemi
semplificati (analisi differenziale) e poi riconsiderate in modo unificato nelle loro
interconnessioni, come parti della struttura complessa variabile nel tempo (sintesi
strutturale).
In termini di approccio teorico matematico generale, i parametri di definizione del rischio
variabile nel tempo possono variare da una dipendenza lineare costante nel tempo, ad una
dipendenza variabile di tipo randomico, fino ad una dipendenza di tipo "ignoto".
Ad esempio da una situazione "statica" definita da una dipendenza di tipo markoviano,
stazionaria, linearmente indipendente, ad una più realistica di tipo non markoviano, non
stazionario, non linearmente indipendente , che si evolve in modo stocastico o non definito
nel tempo.
Ovviamente la descrizione più realistica della struttura è molto più complicata e la sua
trattazione matematica si complica di pari passo fino a raggiungere delle situazioni in cui
non appare possibile una soluzione "analitica" dell'argomento.
Nonostante ciò, il rischio variabile nel tempo risulta essere un mezzo più adeguato per
descrivere la complessità di strutture moderne.
Prima si è accennato ad alcune differenze applicative e metodologiche dell'analisi del
rischio variabile nel tempo, ad esempio nel caso dei rischi da terremoti i ricercatori sono

88
La natura aleatoria del traffico

impegnati a definire i parametri e le equazioni che descrivono le variazioni temporali delle


relazioni intersettoriali.
Il modello per i terremoti prevede di risolvere le equazioni dipendenti dal tempo non
attraverso soluzioni simultanee, ma sequenziali, ciò significa che il risultato di ogni
equazione deve esser visto come l'input per l'equazione successiva.
Ciò significherà che l'ordine di soluzione risulta essenziale per una corretta valutazione del
rischio.
Le tecniche di mitigazione avranno dal canto loro, l'effetto di cambiare il valore di alcune
variabili considerate, ad un determinato tempo.
Pertanto la risoluzione delle equazioni con queste variabili cambiate produrrà una ulteriore
variazione nella valutazione dei rischi futuri, che così potranno esser paragonati anche in
presenza o assenza di differenti mitigazioni.
Nel caso invece delle gallerie, la metodica in generale prevede che per i sottoinsiemi
semplificati dell'analisi differenziale le equazioni ( risolubili) dipendenti dal tempo vadano
risolte in modo simultaneo (salvo casi particolari da valutare di volta in volta).
Mentre i sottoinsiemi complessi della sintesi strutturale, descritti da altre equazioni,
potranno esser connessi, in prima approssimazione, da soluzioni sequenziali delle
equazioni dipendenti dal tempo, come nel caso della metodica proposta per i terremoti.
Anche nel caso della “Galleria Dinamica” l'ordine di soluzione risulta fondamentale, sia
per la corretta descrizione del sistema, sia per la valutazione attendibile dei rischi nel
tempo.
L'ordine di soluzione delle equazioni può esser guidato dall'ordinamento
(gerarchizzazione) dei parametri o dei sottoinsiemi semplici, ottenuto mediante quelle che
potremo definire, funzioni d'importanza o pesi relativi dei parametri di definizione.

8.3 Modelli previsionali

Ma su che base è possibile una previsione accettabile del rischio futuro?


Certamente sulla base di quei modelli dipendenti dal tempo e noti in fisica con il nome di
“modelli previsionali”.
I tre problemi classici della stima stocastica sono previsione, filtraggio e smooting, di una
serie temporale.
Essi corrispondono alla stima del futuro, del presente e del passato degli stati, basati
rispettivamente sulle correnti informazioni possibili.
In generale i modelli previsionali si dividono in tre grandi categorie concettuali, essi
possono esser classificati in funzione dell’approccio filosofico in:

a) Descrittivi.
b) Descrittivo -predittivi
c) Predittivi.

I primi di fatto predicono il passato e ne danno una rappresentazione matematica logica e


coerente.
Il loro valore consiste nella miglior comprensione del fenomeno.
Spesso in una visione metafisica dell’argomento sulla base del principio di causalità, gli
analisti hanno semplicemente ritenuto che un modello che adeguatamente descrivesse il
passato, altrettanto correttamente potesse descrivere il futuro.
Pertanto se l’evoluzione del sistema nel passato è costante, o crescente con un delta
costante, o mostra avere una dipendenza di tipo esponenziale o randomico causale, spesso
questo modello descrittivo viene utilizzato per le previsioni dell’andamento
dell’evoluzione futura.

89
La natura aleatoria del traffico

Pertanto i modelli di tipo descrittivo -predittivo sono di fatto quei modelli che descrivono
il futuro sulla base dei dati passati e di un andamento ipotizzato del futuro.
Il terzo tipo di modelli quelli che descrivono il futuro senza un’ipotesi di collegamento al
passato, sono i più complessi e vengono detti predittivi.
Ora per descrivere correttamente il futuro il modello deve riuscire a predire la variazione
che il fenomeno studiato avrà nel futuro, con un errore accettabile.
Pertanto se il sistema si sviluppa nel futuro con una legge non prevedibile a priori nel
modello, il problema può considerarsi di ardua soluzione o praticamente impossibile non
da risolvere ma addirittura da affrontare.
Spesso esistono soluzioni che vengono considerate approssimate, ma ad esempio
appare ovvio che se le variabili di input sono presupposte o prese da una fonte
praticamente non connessa con il fenomeno il modello predittivo ha praticamente capacità
nulla di “predire” la corretta evoluzione del fenomeno.
Di fatto non esiste una teoria standardizzata dei modelli predittivi puri, ed il massimo dello
sforzo di sistematizzazione dell’argomento si è avuto nel campo dei modelli così detti
descrittivo- predittivi.
I più avanzati modelli predittivo – descrittivi per il traffico, attualmente disponibili, sono
basati sulle reti neurali con algoritmo bayesiano o con algoritmo entropico.
In essi le reti neurali sono “allenate” alla previsione usando come funzione obbiettivo la
somma degli errori quadratici come penalizzazione.
La funzione di regolarizzazione penalizza così i modelli in cui vi sono molti fattori di peso
grande, nei confronti dei modelli che possiedono pochi fattori di peso grande.
Questi secondi sono generalmente modelli più semplici e quindi in genere ci si attende che
il rumore presente non mascheri i dati, ed in tal modo si possa ottenere una migliore
generalizzazione del modello proposto e adattato.
La grandezza ottimale dei fattori di peso spesso viene individuata col metodo della “prova”
ripetuta usando il best - fit continuo con l’insieme dei dati di validazione.
I sistemi bayesiani vengono usati come tecnica di valutazione sul traffico perché in genere
per l’analisi di un sistema di traffico macro regionale vi sono pochi dati e molti nodi,
pertanto è preferibile usare una metodologia che automaticamente controlla le
sovrapposizioni multiple, pur usando un piccolo numero di insiemi di test.
Le reti ad algoritmo entropico vengono usate nei casi in cui l’errore non è di tipo
Gaussiano ( utile per le reti Bayesiane) , ma ad esempio binomiale in cui si richiede un
risultato del tipo si/no.
La cosa rilevante da notare che il modo in cui tutte le reti neurali di qualunque tipo,
bayesiane, entropiche, retropropaganti, approssimano una funzione ad esempio il traffico,
può esser considerato nulla più che una sorta di generalizzazione dell’analisi della
regressione statistica.

8.4 L’analisi costo-beneficio della prevenzione

La Prevenzione è il modo più economico e corretto di sviluppare il concetto di sicurezza.


Questa assunzione, che chiarisce subito la metodologia preferenziale nei confronti della
sicurezza, pone di fatto un sottile problema indotto, sottile ma reale.
Il costo sociale della sicurezza in termini di prevenzione.
Se riflettiamo con più profondità sul concetto di sicurezza comprendiamo con stupore che
anch’esso è basato sulla totale incertezza
Ovviamente la qualità della sicurezza deve essere la più alta possibile, ma non potrà mai
essere infinita, anche perché la sicurezza assoluta è praticamente impossibile da ottenere e
da raggiungere, e ricordando che qualsivoglia attività umana coinvolge rischi che non
possono esser azzerati; comprendiamo facilmente la portata della nostra affermazione.

90
La natura aleatoria del traffico

Pertanto quale deve essere il limite massimo della sicurezza?


Crudamente, ma realisticamente, questo limite può essere individuato in termini di
prevenzione solo da ragioni politico economiche.
La metodica matematica che permette una serena valutazione ed individuazione del limite
raggiungibile è data dall’analisi costo-beneficio del problema.
L’analisi costo beneficio di un problema è un potente mezzo di valutazione che permette di
ottimizzare la scelta, massimizzandone i benefici e minimizzandone opportunamente i
costi.
In termini teorici questa metodica permette di individuare univocamente il punto di
massimo beneficio e minimo costo, ma nella pratica reale con tutte le indeterminazioni
conoscitive del caso, il metodo permette soltanto di individuare un intervallo di definizione
in cui cadrà il punto desiderato.
Bisogna però sottolineare che l’analisi costo beneficio è soltanto uno strumento
matematico, pertanto la bontà, non matematica, ma politica delle sue risposte dipende
ovviamente, sia dalla capacità politica di chi utilizza lo strumento, sia dalla qualità dei dati
stessi, sia dalla onestà mentale di chi vi immette i dati.

8.5 Il Progetto FIT ed il concetto di “Sicurezza Efficace”

Come è ben noto il fine ultimo della Sicurezza è profondamente antropologico, cioè:
La Sicurezza ha come scopo primario la salvaguardia dell’uomo.
In alcuni campi ciò si ottiene in modo diretto, salvaguardia del singolo individuo (ad
esempio lavori pericolosi), mentre in altri, in modo indiretto, salvaguardia dell’ambiente
ove vive l’uomo o delle strutture che adopera, ecc.
In genere il concetto di sicurezza efficace può esser considerato come un’ idea di base
acquisita quasi “a priori” , infatti l’aggettivo efficace sottolinea semplicemente che questa
sicurezza funzioni al meglio in ogni caso possibile.
Conservando il parallelo antropologico, si può comprendere con più precisione la risposta
alla domanda: come si può garantire una sicurezza che funzioni al meglio in ogni caso
possibile?
Se si ricorda il teorema della somma nulla, fondamentale nel campo della traslazione
della biomeccanica umana, il quale enuncia:
Una serie di movimenti articolari rotatori corrisponde ad una traslazione, se è soddisfatta
la condizione che la somma degli angoli relativi è nulla, mentre corrisponde ad un
movimento rotatorio se la somma degli angoli è diversa da zero
Si comprende che la condizione per assicurare una sicurezza che funzioni al meglio, deve
garantire che ogni “rischio” sia annullato da una prevenzione operativa opportuna, quasi
l’analogo operativo del teorema a somma nulla, che potremo definire teorema del rischio
nullo.
Ricordando che la somma nulla garantisce, nel caso biomeccanico, la traslazione dinamica;
così il teorema del rischio nullo garantisce la sicurezza, non solo nel caso statico, ma anche
in quello dinamico.
Tuttavia sebbene la concettualità dei termini risulti chiara, un po’ meno immediata appare
la prassi metodologica per realizzare una tale efficacia “a fortiori”.
Ad un’analisi più approfondita risulta chiaro che il concetto di sicurezza efficace è un
concetto complesso, che si sviluppa su più piani intimamente connessi.
Ad esempio, nel caso della sicurezza veicolare, la prassi mondiale consolidata permette di
individuare subito due piani temporalmente susseguenti: quello della sicurezza “attiva” e
quello della sicurezza “passiva”.
Il primo attiene al piano della prevenzione dell’incidente vero e proprio, mentre il secondo
attiene alla prevenzione dei danni ai viaggiatori.

91
La natura aleatoria del traffico

Quindi, come si può comprendere, il concetto di sicurezza veicolare efficace nella sua
completezza si estende “in primis” su due piani temporali connessi, poi all’interno di ogni
piano temporale prevede che l’azione di salvaguardia sia posta su barriere successive:
attuando quindi una interconnessione di piani spaziali susseguenti e così via.
Sulla stessa falsariga dell’esempio descritto, anche il Progetto FIT prevede per la struttura
galleria, l’individuazione di due piani temporali susseguenti, un primo preventivo con
l’applicazione di sistemi tecnologici innovativi al tunnel, in modo da abbassare la
probabilità di primo incidente e di minimizzare conseguentemente le probabilità di
incidenti successivi al primo, in questo caso essa può esser definita sicurezza attiva-(che si
attua attraverso la strutturazione di tunnel intelligenti).
Un secondo, dopo che sia avvenuto l’incidente, volto a gestire l’emergenza ottimizzandola
ed a minimizzare i danni ai viaggiatori, agli operatori ed alle strutture.
Che può definirsi sicurezza sinergica - (che si attua attraverso l’utilizzo di opportuni
Robot e Supporti decisionali intelligenti ).
Ma esiste anche un piano ulteriore, di raccordo tra il vettore che ospita l’uomo, e che può
esser a sua volta reso intelligente con opportune tecnologie e la struttura in esame, questo
piano teso ad informare la struttura intelligente in via previsionale, dello stato di
pericolosità del veicolo è volto ad abbassare ancora una volta, in via preventiva la
probabilità di primo incidente e forma la cosiddetta sicurezza interattiva - (che si attua
con la telediagnosi del vettore che fornisca in modo integrato dati anche sul trasporto di
merci pericolose ).
Il concetto importante che si evince da questo brevissimo excursus, e su cui si vuole
focalizzare l’attenzione è quello che :
La nozione operativa di Sicurezza Efficace risulta essere complessa e strutturata su più
piani, temporali e spaziali interconnessi.
Essa è propriamente attinente ad un concetto di rete interconnessa di tecnologie avanzate
e non corrisponde quindi certamente al concetto semplicistico di singola tecnologia
omnicomprensiva.
Per cui nel caso della Sicurezza Efficace si parlerà con proprietà di linguaggio solo di rete
probabilistica di sistemi di sicurezza e non di singole apparecchiatura di sicurezza,
ricordando che quanto più la struttura risulta interconnessa e complessa anch’essa necessita
di un’analisi ulteriore di affidabilità, per misurarne realmente la capacità d’intervento e la
sua efficacia.

92
Verso un controllo automatico della galleria

9 Verso un controllo automatico della galleria

In judo il controllo della caduta avviene mediante un mix ottimale di riflessi cinestetici
automatici e tecniche di salvaguardia volontaria.

9.1 Dalla galleria statica alla galleria dinamica

Nei paragrafi precedenti abbiamo descritto l’evoluzione che il concetto di rischio ha


acquisito nell’ambito del progetto FIT –ENEA , passando dal “rischio statico” al “rischio
dinamico”.
Questa evoluzione chiaramente è nata da una revisione globale della metodica di analisi di
rischio che è stata fatto nell’impostare il Progetto FIT a livello di organizzazione strutturale
logico-formale.
Di fatto il concetto di “rischio dinamico” è stato il frutto di una revisione dei fondamenti
dell’analisi di rischio che si basano su descrizioni semplificate della struttura o
dell’impianto da analizzare.
In termini culturali e logici la vecchia analisi di rischio si applicava all’analisi differenziale
dell’impianto, che consiste nella suddivisione dell’impianto complesso nell’insieme di più
particolari strutturali sensibili o critici che ovviamente semplificano la comprensione della
complessità della struttura analizzata ed inoltre risultano più semplici da analizzare.
Quello che è stato affrontato nel Progetto Fit è stata la logica evoluzione della metodica:
applicare l’analisi di rischio dopo la fase dell’ analisi differenziale, alla fase della sintesi
strutturale , in cui i particolari sensibili semplici o i sottoinsiemi correlati dell’impianto
complesso, vengono interpretati di nuovo nella loro integrità e variabilità nel tempo.
Essa appare come l’analogo del passaggio dalla logica di Aristotele, (soggetto -predicato)
alla logica di Frege (soggetti - predicato- complementi ).
Questo linguaggio logico formale matematico può, per renderlo comprensibile, esser
tradotto in logica formale del rischio .
Pertanto l’allocuzione precedente può esprimersi nei seguenti termini :

1. Analisi di rischio delle Proprietà Singole Separate del Tunnel - Caratterizzazione


Statica.
2. Analisi di rischio delle Proprietà del Tunnel re-interpretate di nuovo nella loro
integralità variabile nel tempo – Caratterizzazione Dinamica.

La prima stupefacente risultanza di questa revisione è stata la considerazione banale, ma


fondamentale, che per certi aspetti variabili nel tempo una galleria analizzata non era mai
uguale a se stessa.

Il raggiungimento di quest’ ovvia deduzione logica, mostra chiaramente l’inadeguatezza ed


i limiti dell’analisi di rischio considerata in senso statico.
Nel seguito per rendere ancora più comprensibile questo salto logico introdotto dal
concetto di “galleria dinamica” viene mostrato un confronto con un esempio classico di
caratterizzazione statica di una galleria che viene sottoposta ad analisi di rischio. (vedi
anche Cap. 8 pag. 86 ed 87 )
Nella pubblicazione “ Prevention and Control of Highway Tunnel Fires” della Federal
Highway Administration, del 1999 il tunnel di riferimento è definito dalle seguenti
proprietà: largo 33 feet, alto 16 feet, lungo un miglio, nella risk analysis susseguente
vengono considerati 4 tipi d’incidenti da fuoco, proporzionali alla frequenza di passaggio
dei carichi pericolosi , le conclusioni sono caratterizzate dal fatto che gli incendi nei tunnel

93
Verso un controllo automatico della galleria

avvengono con frequenza diversa da zero (circa uno ogni 4 anni ) con circa 60 fatalità per
ogni incidente.

Se invece noi definiamo la galleria dinamica non solo attraverso la sua lunghezza, altezza e
larghezza, ma in una nuova ottica organica di tipo sistemico ( cioè come parte integrante
del tessuto viario ) con l’aggiunta inoltre di altri parametri anche dipendenti dal tempo
come ad esempio quelli indicati di seguito:

Galleria Dinamica Stradale


Ambiente sistemico identificato :
Sistema stradale d’accesso + Tunnel + Sistema stradale d’uscita;

Esempi di parametri interni di definizione:


“Distanza normalizzata” tra vettori, distribuzione spaziale delle concentrazioni delle
emissioni, propagazione longitudinale delle emissioni, velocità media variabile del vettore,
risposte strutturali all’incidente, evoluzione cinetica in 3D dell’incidente, fattori umani,
ecc.
Allora ci si rende subito conto della profonda differenza di gestione ed analisi del rischio in
un sistema descritto da parametri di questo tipo.
Anche se in una prima approssimazione non verranno considerate le interazioni fra i
diversi parametri, ad esempio come “l’effetto pistone” che si instaura, nella parte superiore
del tunnel, tra velocità dei veicoli ed il flusso della ventilazione forzata del tunnel con
ventilatori in serie, oppure come l’effetto ventilatore che produce a maggiori velocità,
maggiori concentrazioni di gas di scarico a livello del suolo con grandi rischi per i
conduttori.
L’introduzione di questa “nuova” e più ricca metodologia ha portato una piccola ma
profonda rivoluzione nella definizione di galleria.
Infatti nell’ottica “statica” non vi era nessuna differenza nella descrizione di una galleria
stradale o metropolitana o ferroviaria, mentre nella nuova accezione sistemica una galleria
ferroviaria è diversa da una metropolitana che a sua volta differisce da quella stradale.
Ecco un altro esempio di parametri di definizione relativi alla galleria dinamica
metropolitana:

Galleria Dinamica Metropolitana


Ambiente sistemico identificato :
Tunnel+Stazione+Tunnel;

Esempi di parametri interni di definizione:


Monitoraggio dei flussi di passeggeri dalla stazione e dal vettore, numero di passeggeri sui
vagoni, temperatura media variabile del sistema, velocità media variabile del vettore,
risposte strutturali all’incidente, evoluzione cinetica in 3D dell’incidente, fattori umani del
conducente ove presente, ecc.
Quindi con l’introduzione del concetto di “galleria dinamica” non solo una tipologia di
gallerie risulta diversa dall’altra, perché viene descritta da parametri differenti sia sistemici
sia interni, ma, cosa ancor più importante, all’interno della stessa tipologia di gallerie, ogni
galleria è diversa da un’altra.
Ad esempio due gallerie metropolitane con differenti flussi di traffico passeggeri sono
ovviamente differenti in termini di definizione dinamica e di rischio variabile nel tempo ad
esse associato.
Questo significa che con l’analisi di rischio, nel caso del “rischio dinamico” applicato alla
“galleria dinamica”, ogni galleria presenterà un suo proprio rischio specifico per di più

94
Verso un controllo automatico della galleria

variabile non solo nel tempo, ma anche da situazione a situazione, descrizione certamente
più complessa ed articolata, ma sicuramente più vicina alla realtà.
Ora ovviamente l’aver complicato la situazione con una descrizione più realistica ed a tutto
tondo della galleria, fa si che il discorso sicurezza debba per forza fare un salto di qualità,
ricorrendo all’uso di tecnologie innovative che con la loro flessibilità programmatica
(intelligenza) possano soddisfare e rendere operativo il concetto articolato di “Sicurezza
Efficace” di una “Galleria Dinamica”.
Diamo nel seguito una panoramica di alcuni degli strumenti matematici da utilizzarsi nel
nuovo soggetto “Galleria Dinamica”, per poterne operativamente studiare la sicurezza in
relazione ad alcuni dei più importanti parametri individuati.

9.2 HIT ( Hazard In Tunnel , ovvero Hazard In Time )

Qual’è il pericolo generico di primo incidente che può avvenire in una galleria,
ovviamente quello connesso con la probabilità di uno scontro?
L’idea di ottenere il valore atteso del rischio “statico” di uno scontro ( cioè indipendente
dal tempo ), moltiplicando le probabilità d’incidente per i danni che si possono produrre,
ha una collocazione ben definita ed è ben nota in teoria delle decisioni.
Se infatti si considera l’approssimazione di una distribuzione normale per il rischio
“statico” R di probabilità P e danno D, allora il rischio sarà dato in buona
approssimazione dal prodotto R = D P, mentre la sua varianza sarà data dal prodotto
P(1 − P) D 2 = R( D − R).
Pertanto a parità di rischio R un incidente con un effetto più grave D , possiede una
varianza più alta, per cui minore è l’eventualità ( P < P’ ) che esso avvenga. nei confronti
di un incidente con rischio uguale, R’ =R e danno minore D’< D.
Tuttavia qual è la probabilità sia statica, sia dinamica che possa avvenire uno scontro o un
tamponamento in galleria ?
Per poter rispondere a questa domanda bisogna sviluppare un opportuno modello di analisi
dei fenomeni di traffico a livello per così dire locale.

La natura poliedrica dei fenomeni di traffico. La comparsa di un veicolo in un tratto


stradale viene, come già accennato, spesso assimilata a un evento stocastico, vale a dire a
un evento cui è associata una certa probabilità di comparsa o meno per unità di tempo.
Allo scopo di stabilire una cornice matematica per trattare il fenomeno del traffico in
termini di modelli stocastici, devono essere esplicitamente formulate le seguenti ipotesi o
condizioni:
(ix) la comparsa di un veicolo è di natura stocastica;
(x) il traffico è un processo stazionario o quasi-stazionario;
(xi) il traffico è un processo ergodico;
(xii) il traffico è un processo Markoviano.

Allo scopo di comprendere fino in fondo le implicazione sottintese dietro i quattro


statement appena formulati, sono necessarie alcune precisazioni. Facciamo l’ipotesi di
analizzare alcune sequenze temporali di traffico, divise in un numero distinto di strisce, tra
loro uguali come durata complessiva, la durata medesima sarà dedotta da un insieme di
decisioni collaterali, che diverranno chiare nel successivo svolgimento di queste tematiche.
Se le strisce vengono esaminate in parallelo, la prima circostanza che si nota è che esse non
sono assolutamente repliche le une delle altre.
Infatti, gli eventi di traffico, vale a dire i passaggi degli autoveicoli, non sono fenomeni
periodici, ma aleatori: ciò equivale ad affermare che essi sono regolati non da leggi causali

95
Verso un controllo automatico della galleria

(aggettivo di causa), ma da leggi di natura casuale (aggettivo di caso). Tuttavia, se il


traffico è un processo stazionario, le strisce sono tra loro repliche statistiche.
La proprietà di stazionarietà implica che ciascuna delle strisce possiede le medesime
proprietà statistiche delle altre, per esempio, lo stesso valore medio e/o la stessa varianza
calcolate sull'intera durata di ciascuna striscia.
La stazionarietà implica anche che gli indicatori statistici che corredano le strisce risultano
invarianti temporali.
La presenza di un certo numero di veicoli all'interno di una dato intervallo temporale
costituisce un processo stocastico, cioè un processo cui è associata una probabilità P(N,t)
di contare il passaggio di N veicoli in un intervallo temporale (0,t).
Consideriamo ora lo schieramento orizzontale (parallelo) di un certo numero di strisce, in
una matrice bidimensionale di dati. A questo punto sono possibili due tipi di medie: una è
orizzontale e prende il nome di media temporale (time average), l'altra è verticale e prende
il nome di media di insieme (ensemble average).
Un processo è definito Ergodico se le due medie coincidono a meno della loro deviazione
standard.
Un processo è definito Markoviano oppure à la Markov se la probabilità P(N,t) viene
espressa da una equazione differenziale cui è associata una condizione iniziale.
In forma più colloquiale, la configurazione futura di un processo markoviano è definita
soltanto dalla condizione presente e dalla sua evoluzione nel tempo e non da quella
passata. La dimostrazione della validità delle quattro proprietà S-S-E-M (Stazionarietà-
Stocasticità-Ergodicità- Markovianità) non è sempre dimostrabile: tuttavia il beneficio
che si trae dall’individuazione di queste proprietà è quello di poter lavorare con la
maneggevole struttura matematica di una fisica statistica dai potenti algoritmi di calcolo e
previsione.

Una domanda difficile. Esistono risposte difficili anche per domande semplici. Possono
mai esistere risposte a domande difficili ? "Quale è la probabilità della presenza di un
veicolo nel traffico autostradale o all'interno di una galleria?" è una domanda assai difficile
perché costituisce una domanda incompleta. Essendo incompleta, ammette più di una
risposta, a seconda di come viene corredata da ulteriore informazione la domanda iniziale.
Cerchiamo di essere più specifici. Quando i ricercatori hanno a che fare con distribuzioni
temporali di eventi di natura stocastica, deve essere approntata una speciale attenzione al
modo in cui viene fissato l'asse temporale dei tempi, alla procedura di conteggio e ad altre
condizioni al contorno fissate in maniera implicita ma non sempre palese. Tutte queste
circostanze devono essere chiarite. Esempi di condizioni da esplicitare sono: (i) come si
fissa l'origine dell'asse dei tempi ? si sceglie un istante a caso oppure si inizia con il
passaggio di un veicolo ? si sceglie un intervallo di conteggio in modo che possa avvenire
uno e un solo evento oppure si chiude l'intervallo di conteggio con il primo veicolo che
arriva ? e così via.

Analisi di sicurezza di una sequenza di traffico.


Com’è fatta una sequenza di traffico?
Se ci si mette sul ciglio di una strada di traffico normale o di una superstrada e si osserva il
movimento degli autoveicoli, registrandone l’entità numerica, in un determinato periodo di
tempo, registrando con 1 il passaggio dell’autoveicolo e con 0 la sua assenza, potremo
trovarci, dopo un determinato intervallo di tempo, ad esempio davanti ad una registrazione
del tipo seguente :

1110000011010000001101000000111001000000

96
Verso un controllo automatico della galleria

Se ci si mette però all’imbocco di una galleria, che può esser considerata una stenosi, cioè
una strozzatura nel normale flusso di traffico, sorge di già un primo problema di
individuazione del tipo o categoria di traffico che possiamo incontrare.
Infatti, se la galleria è di tipo definito comunemente chiuso, cioè a pedaggio allora la
categoria di traffico che noi andiamo a registrare può definirsi di tipo cadenzato, nel caso
invece di una galleria di tipo aperto allora la registrazione sarà equivalente a quella di una
registrazione stradale normale, e definiremo questa categoria di traffico, traffico di tipo
continuo.

A) Traffico cadenzato
definizione operativa:
Definiamo “categoria di traffico cadenzato” quella in cui l’osservatore ( o
chi per esso ) ha la capacità ed il potere di dilazionare le partenze ( e quindi i
passaggi ) secondo intervalli di tempo predefiniti, sia uguali che diversi, in
modo da poter gestire e controllare, almeno in prima approssimazione, la
natura e la regolarità del traffico presente in galleria.
Es. gallerie autostradali a pedaggio, gallerie metropolitane.
La registrazione che attiene questa forma di traffico è definita:

registrazione impulsiva

Un esempio di registrazione impulsiva è il seguente:

1110000110100001101000000111001000000110000111100001010000

B) Traffico continuo
definizione operativa:
Definiamo “categoria di traffico continuo, o non cadenzato” quella in cui
l’osservatore non ha la capacità ed il potere di dilazionare i passaggi
secondo intervalli di tempo predefiniti, così da non controllare, nemmeno in
prima approssimazione, la natura del traffico presente in galleria.
Es. gallerie autostradali senza pedaggio, gallerie cittadine.
La registrazione che attiene questa forma di traffico è definita:

registrazione continua

Tre esempi di registrazioni continue sono mostrati nelle illustrazioni che


seguono.

97
Verso un controllo automatico della galleria

Per quanto riguarda il traffico cadenzato , appare opportuno ritornare al paragrafo degli
indicatori di presenza di traffico, ampiamente discussi nel Cap.7 ( pag. 79 e seguenti ).

98
Verso un controllo automatico della galleria

Nel loro complesso questi indicatori assumono la connotazione di

indici “statici” ( istogrammi, medie, varianze, momenti di ordine superiore ).

Per quanto riguarda il traffico continuo, appare opportuno, invece, introdurre un altro
ordine di indicatori che definiremo:

indici “dinamici” (funzioni di correlazione nel dominio dei tempi, che sono mostrate a
mo’ di esempio, nelle figure precedenti ognuna a fianco della corrispondente registrazione
continua, ed il cui significato operativo è illustrato nella seguente tabella )

99
Tab.1

Interpretazione dell’algoritmo di correlazione applicato all’esempio di registrazione di autoveicoli di pag. 89


Ritardo AUTOVEICOLI REGISTRATI
Dati 1 1 1 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 0 0 0 0
origin.

1 1 1 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 0 0 0 0
Dati A
7  

1 1 1 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 0 0 0 0
Dati B
T=2
1 1 1 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 0 0 0 0
Dati C
T=3
1 1 1 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 0 0 0 0
Dati D
7 

1 1 1 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 0 0 0 0
Dati E
7 

1 1 1 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 0 0 0 0
Dati F
7 

Il grassetto indica in ogni stringa la presenza simultanea del veicolo registrato nei dati originali e nei dati ritardati. Se il numero dei
grassetti viene contato per ogni stringa ritardata allora si può scrivere:
C11(   C11(2   C11(3   C11(4   C11(5   C11(6   
che mostra la relazione funzionale tra ritardo e algoritmo di autocorrelazione.

100
Verso un controllo automatico della galleria

Le cinque funzioni di hazard veicolare. E’ possibile definire almeno cinque funzioni di


hazard-in-tunnel ovvero di hazard-in-time: esse sono tutte relative alla probabilità di
presenza di un veicolo, lungo un asse temporale, all'interno di un tratto autostradale
oppure di galleria. Queste funzioni costituiscono un insieme di reti probabilistiche, da
cui si possono trarre i fondamenti teorici per una trattazione analitica dei processi di
traffico.
Le cinque funzioni hanno inoltre un’altissima valenza sperimentale, perché
rappresentano l’unico mezzo pratico per il trattamento dei dati sperimentali di traffico,
sia in tempo reale sia in tempo differito.
Sebbene la quinta funzione costituisca la procedura generale che garantisce l’estrazione
della massima quantità d’informazione contenuta nella sequenza di traffico, le prime
quattro posseggono anch’esse una loro utilità autonoma, pratica ed operativa
nell’analisi del traffico in tempo reale, con il loro ruolo di piattaforme concettuali di
avvicinamento alla quinta.

P(0,t) la probabilità che in un intervallo temporale (0,t), aperto a caso e chiuso a caso,
non si verifichi alcuna presenza veicolare: vale a dire la prima presenza di un
veicolo avvenga dopo l'istante t;

 (t)dt la probabilità che, dopo una origine temporale scelta a caso, il primo evento di
presenza veicolare avvenga tra t e t+dt;

P(1,t) la probabilità che in un intervallo temporale (0,t), aperto a caso e chiuso a caso,
si
verifichi la presenza di un veicolo;

p(t)dt la probabilità che dopo una presenza veicolare all'istante t=0, l'evento successivo
abbia luogo tra t e t+dt;

(1/λ ) AC(t)dt la probabilità che dopo una presenza veicolare all'istante t=0 , un altro
evento (non soltanto il successivo, ma tutti i successivi) abbia luogo tra t e t+dt,
dove λ costituisce il tasso di comparsa dei veicoli, vale a dire il numero medio
di presenze per unità di tempo.

E' inutile sottolineare che le cinque funzioni di hazard sono, in generale, assai differenti
tra loro: tuttavia sono strettamente legate da un punto di vista matematico. Le loro
relazioni mutue possono essere espresse in maniera assai elegante e finiscono per
definire, nel loro complesso, la natura della sequenza degli eventi sotto studio.
Prima di vederle in dettaglio, una per una, nel paragrafi che seguono, appare opportuna
una digressione di tipo concettuale che chiarirà i confini del problema.
Dato che tutte le formule hanno origine in uno spazio statistico, l'intera analisi non è
basata su singoli eventi (per esempio, il tempo di separazione tra due eventi successivi)
ma sulla raccolta e osservazione di un grande ammontare di dati.
Ora come già ricordato precedentemente un fenomeno fisico di tipo stocastico ( come il
traffico), di per se stesso non può esser descritto da una relazione matematica di tipo
esplicito o implicito, in quanto ad ogni osservazione la risposta del fenomeno sarà
unica.

101
Verso un controllo automatico della galleria

In effetti una sola osservazione rappresenterà uno e solo uno degli infiniti modi di
comportamento o di risposta del fenomeno.
Una sequenza di traffico, in un dato intervallo di tempo, è chiamata, come
precedentemente detto, striscia campione, l’insieme di tutte le sequenze o strisce
campione che il fenomeno fornisce attraverso l’ osservazione viene definito: processo
stocastico.
Per poter comprendere e studiare i processi stocastici essi debbono in primo luogo
passare attraverso una classificazione razionale che li raggruppi e ne individui le
particolarità simili
La classificazione normalmente accettata, è quella che descrive le particolarità dei
processi attraverso una ovvia generalizzazione delle già introdotte quattro proprietà: S-
S-E-M (Stazionarietà-Stocasticità-Ergodicità- Markovianità)

Processo Stocastico

stazionario non stazionario

classificazioni
Non
Ergodico speciali
Ergodico
di
non stazionarietà

Markoviano

Classificazione dei Processi Stocastici

102
Verso un controllo automatico della galleria

Può sorgere una prima interessante domanda, esiste uno spazio statistico generale in cui
è possibile definire tutti i processi stocastici?
La statistica ci assicura che se esiste uno spazio statistico universale in cui è possibile
definire ogni variabile random ( Ash 1972 ), ciò in generale non risulta altrettanto vero
per i processi stocastici. “Galleria Dinamica”.
Ovvero una famiglia di variabili random, deve soddisfare condizioni addizionali, più
restrittive, in modo da ottenere un processo stocastico le cui traiettorie posseggano
determinate proprietà ( Prohorov 1956 ).
Quindi i processi stocastici possono solo esser definiti in alcuni spazi particolari che ne
individuano le proprietà particolari.
Come ad esempio quelle definite nella classificazione precedente.
Ad esempio i processi stocastici non stazionari, posseggono proprietà funzionali
variabili nel tempo che possono esser individuate solo attraverso medie istantanee estese
all’insieme di strisce campione del processo in esame.
Spesso non è possibile per questi processi procurarsi una quantità di dati tale da poter
ottenere misure accurate delle loro proprietà variabili nel tempo.
Questa impossibilità di fatto impedisce lo sviluppo di tecniche pratiche per analizzare
questi processi.
Un altro problema non banale d’interpretazione è legato alla estensione, ai processi
stocastici dei noti ed acquisiti concetti di continuità, derivabilità ed integrabilità.

Continuità un primo problema di comprensione che sorge nell’affrontare e trattare le


funzioni di Hazard veicolare, nel contesto scelto, è riservato ai concetti di Continuità
nel tempo di una funzione relativa ad un processo stocastico, ed a quello ad essa
correlato di Differenziabilità nel tempo di una funzione campione di un processo
stocastico.
Questi concetti, infatti, possono essere soddisfatti solo come viene comunemente detto,
in senso probabilistico.
Questa locuzione ha un ben definito significato che cercheremo di rendere esplicito nel
seguito.
Una funzione f relativa ad un processo stocastico si dice continua al tempo t se:

lim[ f (t + δ ) − f (t )] = 0
δ →o

Questa condizione non è sempre verificata.


Per comprendere quando questa condizione risulta verificata bisogna considerare il
valor quadratico medio di una variabile random, ovvero passare per la funzione di
correlazione:

E( yδ2 ) = E{[ f (t + δ ) − f (t )] ⋅ [ f (t + δ ) − f (t )]} = R f (t1 + δ , t 2 + δ ) − R f (t1 + δ , t 2 ) − R f (t1 , t 2 + δ ) +


+ R f (t1 , t 2 )

+∞+∞
se dunque la Rf che è la funzione di correlazione uguale a ∫ ∫ x x f (x , t ; x
− ∞− ∞
1 2 x 1 1 2 , t 2 )dx1dx 2

è continua per t1 = t2 = t, la sua continuità implica d’altro canto la continuità del valore
atteso; allora vale la relazione

103
Verso un controllo automatico della galleria

lim E ( yδ2 ) = 0
δ →0

e la funzione si dirà continua in media quadratica.

Se vale la relazione di continuità per la funzione relativa ad un processo stocastico


sulla base della funzione di correlazione, questa continuità implica anche la
continuità del valore atteso del processo stocastico che si analizza nel medesimo punto
t.

Pertanto un processo stocastico con un valore atteso discontinuo ( ad esempio un


segnale a gradino con un rumore sovrapposto ) sarà anch’esso discontinuo.

All’inverso, un conteggio Poissoniano ed un moto Browniano, avendo valori attesi e


funzioni di correlazione continui nel tempo, saranno continui per ogni t•

Differenziabilità, ovviamente come per la continuità, anche la differenziabilità di un


processo stocastico può essere asserita solo in senso probabilistico.
Ciò significa, ricordando il concetto di continuità, che un processo stocastico sarà
derivabile in un punto t, se ivi sarà derivabile anche il suo valor atteso.
La derivabilità di una funzione stocastica implica una relazione analoga ed ancor più
stringente per la funzione di autocorrelazione.
Ma cosa è ed a cosa serve una funzione di autocorrelazione?
Possiamo ricavare la risposta da uno dei padri fondatori del forecasting.
“Questo termine è usato per descrivere l’associazione o la mutua dipendenza fra valori
della medesima serie temporale a differenti periodi di tempo. Essa è simile alla
correlazione ma è connessa alle serie per differenti tempi di ritardo. Ovvero si avrà
un’autocorrelazione per un tempo di ritardo di uno, un’altra per un tempo di ritardo di
due, e così di seguito. L’andamento dei coefficienti d’autocorrelazione è spesso
utilizzato per individuare la presenza di periodicità nella serie temporale, per
identificare modelli specifici di serie temporali in determinate situazioni e determinare
la presenza o meno di stazionarietà nei dati. L’autocorrelazione gioca un ruolo molto
importante nel forecasting delle serie temporali” (Makridakis 1983).

Così un processo stocastico sarà differenziabile secondo il valor quadratico medio


solo se la funzione di autocorrelazione C x (t1 , t 2 ) sarà due volte differenziabile lungo
la linea
t1 = t2 = t .

∂ 2 C x (t1 , t 2 ) ∂ 2 C x (t1 , t 2 )
lim E [ f (t , ε 1 ) f (t , ε 2 )] = ⇒ <∞
ε1ε 2 →0 ∂t1∂t 2 t =t
∂t1∂t 2
1 2 =t t =t
1 2 =t

Un conteggio Poissoniano ed un processo Browniano non saranno differenziabili


secondo il valor quadratico medio, perché la derivata seconda della funzione di
autocorrelazione non esiste avendo valore infinito.

104
Verso un controllo automatico della galleria

Per un processo stocastico stazionario invece, poiché la funzione di autocorrelazione è


continua nel tempo essa sarà derivabile due volte e così un processo stocastico
stazionario sarà derivabile per ogni t.
Se invece il processo stocastico è un processo Gaussiano, allora esso sarà derivabile nel
tempo e tutte le sue derivate avendo la varianza finita saranno processi stocastici
Gaussiani congiunti e saranno derivabili.

Avendo brevemente trattato delle difficoltà interpretativo -concettuali che sono


associate ai concetti di continuità e derivabilità nel senso probabilistico del termine,
abbiamo anche mostrato la connessione del primo di questi concetti con la realtà fisica
dei valori attesi dalle osservazioni sperimentali e del secondo con determinate
proprietà della funzione di autocorrelazione ( esistenza della sua derivata seconda) e
pertanto della sua trasformata di Fourier legata come è noto sia al concetto di densità
di spettrale di un processo stocastico, sia alla derivata seconda della sua funzione di
autocorrelazione.

Per un processo stocastico stesse difficoltà concettuali possono essere incontrate


nell’affrontare il concetto di Integrabilità , senza entrare quindi nel merito di
dimostrazioni che travalicherebbero lo scopo di questo testo, ricordiamo che un
processo stocastico che gode della proprietà di essere integrabile per ogni t ∈ T [0, ∞ ) , di
essere “adattato” ad una famiglia di riferimento (Ft )t∈T e per la cui probabilità
condizionale vale la relazione E ( X t Fs ) = X s viene detta martingala.
La teoria delle martingale introdotta da J.L. Doob gioca un ruolo essenziale nella
moderna teoria dell’integrazione stocastica e delle equazioni differenziali stocastiche e
ad essa si rimanda chi volesse approfondire tale branca dei processi stocastici.

Diamo nel seguito in forma compatta le condizioni necessarie e sufficienti per definire
le cinque funzioni di hazard (pericolo) veicolare.

105
Verso un controllo automatico della galleria

1) La probabilità di zero eventi in un dato intervallo di tempo

Definizione:

P(0,t) la probabilità che in un intervallo temporale (0,t), aperto a caso e chiuso a caso,
non si verifichi alcun evento di presenza veicolare: vale a dire la prima presenza
di
un veicolo avviene tra t ed ’

Significato fisico:

P(0,t) = probabilità

Proprietà:
P ( 0, 0) = 1

P (0, t ) + ∑1 P ( K > 0, t ) = 1

lim P(0, t ) = 0
t →∞

∫ P(0, t ) dt = Costante
0

Cos tan te ∈ R +

Dipendenza dalla funzione generatrice di probabilità G(z,t) ( vedi Appendice 1)

P(0,t) = G(0,t)

106
Verso un controllo automatico della galleria

Fenomenologia della P(0,t)

107
Verso un controllo automatico della galleria

2) La probabilità di un evento alla fine di un dato intervallo di tempo

Definizione:

(t)dt la probabilità che, dopo una origine temporale scelta a caso, il primo evento di
presenza veicolare abbia luogo tra t e t+dt;

Significato fisico:

(t) = probabilità per unità di tempo

Proprietà:

π (0) = λ

lim π (t ) = 0 λ = numero di eventi di passaggi veicolari per unità di tempo


t →∞

∫ π (t )dt = 1
0
t

∫ π (t )dt = Π (t )
0

(t)dt la probabilità che, dopo una origine temporale scelta a caso, il primo evento
di presenza veicolare abbia luogo tra 0 e t

1- (t)dt la probabilità che, dopo una origine temporale scelta a caso, il primo evento
di presenza veicolare abbia luogo tra t e ’

Relazione funzionale con P(0,t)

,OWHUPLQH (t) è sempre correlato al termine P(0,t).


Se si richiamano le due definizioni, allora si ottiene in modo molto semplice che la
VRPPDGHOO¶LQWHJUDOHQHOWHPSRGL (t) e della probabilità P(0,t) risulta uguale ad uno.

Cioè si verifica con certezza l’ evento di un passaggio veicolare.


In termini matematici si ottiene:

Π (t ) + P(0, t ) = 1
t
⇒ ∫ π (t )dt + P(0, t ) = 1
0

∂P(0, t )
⇒ π (t ) = −
∂t

108
Verso un controllo automatico della galleria

Dipendenza dalla funzione generatrice di probabilità G(z,t) ( vedi Appendice 1)

W ˜* W »˜W

Fenomenologia della (t)dt

109
Verso un controllo automatico della galleria

3) La probabilità di un evento all'interno di un dato intervallo di tempo

Definizione:

P(1,t) la probabilità che in un intervallo temporale (0,t), aperto a caso e chiuso a caso, si
verifichi la presenza di un veicolo;

Significato fisico:

P(1,t) = probabilità

Proprietà:

P(1,0) = 0

P(1, t ) + ∑0 P( K ≠ 1, t ) = 1

lim P(1, t ) = 1
t →∞

∫ P(1, t )dt = Cos tan te


0

Cos tan te ∈ R +

Dipendenza dalla funzione generatrice di probabilità G(z,t) ( vedi Appendice 1)

P(1,t) = [˜* z,t)»˜]@z=0

110
Verso un controllo automatico della galleria

Fenomenologia della P(1,t)

111
Verso un controllo automatico della galleria

4) La probabilità di un evento all'inizio e un evento alla fine di un dato intervallo


di tempo

Definizione:

p(t)dt la probabilità che dopo una presenza veicolare all'istante 0, l'evento successivo
abbia luogo tra t e t+dt;

Significato fisico:

p(t) = probabilità per unità di tempo

Proprietà:

p (t ) > λ

lim p (t ) = 0
t →∞

λ = numero di eventi di passaggi veicolari per unità di tempo


∫ p(t )dt = 1
0

∫ p(t )dt = Θ(t )


0+

p(t)dt la probabilità che dopo una presenza veicolare all'istante 0, l'evento


successivo
abbia luogo tra 0+ e t.

1 - p(t)dt la probabilità che dopo una presenza veicolare all'istante 0, l'evento


successivo
abbia luogo tra t e ’

Relazione funzionale con (t)

Il termine p(t) può esser correlato DOWHUPLQH (t), tramite le probabilità W H W VROR
in una condizione molto particolare, cioè quando un passaggio veicolare all’origine e
l’assenza di passaggi tra 0 e t è equivalente ad assenza di passaggi tra l’origine e t ed
un passaggio veicolare all’istante t.
Ciò significa che essendo la variabile d’attenzione la distanza temporale tra due eventi
contigui, la grandezza in gioco è una quantità scalare e lo stesso fenomeno può esser
descritto da due eventi uguali ed indistinguibili nel tempo.
La probabilità ad esso connessa è ovviamente data il prodotto delle due.
In termini matematici si ottiene:

112
Verso un controllo automatico della galleria

 t 
π (t )dt = λdt 1 − ∫ p (t )dt 
 0 

π (t ) = λ [1 − Θ(t )]

 1  ∂π (t )
⇒ p (t ) = −  
 λ  ∂t

Relazione funzionale con P(0,t)

,O WHUPLQH (t) è sempre correlato al termine P(0,t), dalla relazione ricavata
precedentemente, pertanto risulta ovvio per la proprietà transitiva scrivere la relazione
funzionale valida per p(t)

 1  ∂π (t )  1  ∂ P(0, t )
2
p (t ) = −   = 
 λ  ∂t  λ  ∂t
2

Dipendenza dalla funzione generatrice di probabilità G(z,t) ( vedi Appendice 1)

 1  ∂ G (0, t )
2
p (t ) =  
 λ  ∂t
2

113
Verso un controllo automatico della galleria

Fenomenologia della p(t)dt

114
Verso un controllo automatico della galleria

5) La probabilità di un evento all'inizio e di ciascuno di tutti gli altri eventi alla fine
dell’ intervallo di tempo

Definizione:

(1/λ) AC(t)dt la probabilità che dopo una presenza veicolare all'istante t=0, un altro
evento (non soltanto il successivo, ma tutti i successivi) abbia luogo tra t e t+dt,
dove  costituisce il rateo di presenza dei veicoli, vale a dire il numero medio di
presenze per unità di tempo.

Significato fisico:

(1/λ ) AC(t) = probabilità per unità di tempo

La relazione funzionale con < K ( K-1)>

Se λ è il numero di passaggi veicolari nell’unità di tempo, allora il numero atteso di


passaggi nell’intervallo di tempo ( 0,t) sarà <K > = λt, il numero di coppie di passaggi
nel medesimo intervallo sarà:

K 
t
1
t k

<   >=   < K ( K − 1) >= ∫ dt 2 .∫ c (t1 , t 2 )λdt1


2  2 0 0

0 ≤ t1 ≤ t 2 ≤ t

dove λdt1 è la probabilità che il primo passaggio dei due veicoli cada nell’intervallo di
tempo (t1 , t1 + dt1 ) ; c(t1 , t 2 ) è la probabilità condizionale che il secondo passaggio
avvenga nell’intervallo di tempo (t 2 , t 2 + dt 2 ) ;avvenuto il primo passaggio
nell’intervallo (t1 , t1 + dt1 ) .
Se il processo è ergodico allora c(t1 , t 2 ) non dipende dalla scelta del tempo t1, ma solo
dal tempo di ritardo (τ = t 2 − t1 ) .
La funzione λ c (t1 , t 2 ) è definita come la funzione di autocorrelazione $& ..
)

Relazione funzionale tra gli eventi e la funzione di autocorrelazione

La definizione integrale di $& ..  può esser collegata funzionalmente agli eventi
tramite una relazione differenziale che semplificherà il suo collegamento alla funzione
generatrice.

d2 K
〈 〉 = λc(t1 , t 2 ) = AC(K,K, )
dt 2 2 

Dipendenza dalla funzione generatrice di probabilità G(z,t) ( vedi Appendice 1)


115
Verso un controllo automatico della galleria

K   1  ∂ G( z, t )
2
<   >=   z =1
 2  ∂z
2
2 

Allora

 1  d  ∂ G ( z, t ) 
2 2
AC(K,K,t ) =   2   z =1
 2  dt  ∂z
2

Fenomenologia della AC(t)dt

Va specificato che la metodica utilizzata per individuare e descrivere le 5 funzioni


di hazard , che sono la base delle reti probabilistiche di sicurezza di un tunnel
intelligente, esponendole in termini di eventi nel tempo, è quella che risulta
matematicamente più semplice e di immediata applicabilità operativa, tuttavia si
vuol ricordare che è possibile anche una trattazione di queste funzioni espresse in
funzione della variabile velocità, cosa che le renderebbe matematicamente più

116
Verso un controllo automatico della galleria

complesse, ma forse più vicine alla nostra abitudine quotidiana di trattare con le
vetture.

117
Verso un controllo automatico della galleria

9.3 Sistemi di controllo del traffico

In genere in ingegneria dell’automazione il compito fondamentale di un sistema di


controllo è quello di rendere stabile il sistema che viene controllato.
Ciò significa che esso deve rispondere prontamente ed evitare oscillazioni troppo
numerose o troppo accentuate delle grandezze prodotte dal sistema che controlla.
Trasferendo in gergo veicolare questi chiari concetti ingegneristici diremo che un
controllo del traffico veicolare ha il compito di evitare instabilità nel flusso di traffico,
quali congestioni , code, rallentamenti e così via.
Lo scopo di un controllo di traffico sia in un ambiente urbano che in un ambiente
extraurbano presenta molteplici aspetti che coprono una vasta gamma di interessi e di
campi di prevenzione e sicurezza, dalla minimizzazione dell’inquinamento e delle
emissioni, all’ottimizzazione del tempo di transito, del consumo di carburante, del costo
del trasporto delle merci, ecc.
Il problema della modellazione matematica del flusso di traffico, a livello microscopico
è quella di un flusso aperto che può presentare vari tipi di discontinuità od instabilità
che si possono tradurre in code e congestioni, se ad esso aggiungiamo il comportamento
spesso randomico degli autisti nel seguire sia le regole che le segnalazioni, allora
potremo facilmente comprendere che un controllo di feedback può esser difficilmente
applicato a questo livello.
Se invece si affronta l’argomento a livello di macrosistema allora lo scopo sarà quello di
evitare che la congestione in un nodo si amplifichi a causa delle disomogeneità presenti
e si ramifichi bloccando tutto il sistema viario.
Dunque il controllo del traffico a livello macroscopico è finalizzato a rendere il flusso di
traffico omogeneo ed a densità costante.
Tuttavia a causa dei forti accoppiamenti dei livelli microscopico - macroscopico e della
dinamica non lineare che è associata con il flusso di traffico a livello macro,
praticamente nessuna analisi teorica dell’efficacia di tali controlli del traffico è stata mai
proposta nella letteratura del settore.
La trattazione informativa fin qui effettuata può considerarsi relativa ai sistemi di
controllo del traffico stradale in generale, il comportamento però degli autoveicoli
all’interno delle gallerie è diverso, esso infatti può esser descritto ed analizzato come si
è visto da una matematica differente.
Ricordando che la sezione stradale interna di una galleria è di fatto minore della relativa
sezione esterna di entrata o di uscita, questo ci permette di vedere la galleria definita
come “galleria dinamica”alla stregua di una stenosi dell’ambiente sistemico integrato
che si analizza..
Normalmente, nell’accezione statica, i sistemi di controllo del traffico veicolare in
galleria sono basati sull’uso massiccio di telecamere in situ.
Essi sono commercialmente presenti sul mercato mondiale da circa un lustro con
produttori Francesi, Belgi, Olandesi, Americani, Israeliani.
Normalmente i sistemi di controllo del traffico in tunnel servono per la raccolta di dati
a scopo di analisi e monitoraggio e come controllo delle varie apparecchiature
elettroniche di segnalazione come: cartelli indicatori di velocità variabile, segnalatori di
accesso, uso e messaggeria di comunicazione, ecc.
Questi sistemi hanno però in definitiva il limite di non riuscire a discriminare se
l’arresto del veicolo analizzato sia temporaneo o a seguito di incidente.
Questo limite fondamentale e la necessità di controllare e monitorare le cause di fermo
veicolare per l’intera tratta del tunnel in modo semiautomatico fanno si che gli attuali
sistemi di controllo veicolare in tunnel siano non del tutto affidabili come tecnologia
preventiva di sicurezza.

118
Verso un controllo automatico della galleria

9.4 Dalla galleria dinamica al Tunnel Intelligente

Come si è potuto notare la descrizione più realistica del sistema complesso, galleria, ha
prodotto il concetto evolutivo di “galleria dinamica”.
Nella galleria dinamica la valutazione del rischio variabile nel tempo risulta possibile,
ma come si è visto di grande complessità.
Bisogna infatti, definire la scala del sistema integrato, identificare i parametri interni,
definire le equazioni dipendenti dal tempo che modellano la loro evoluzione.
Esse saranno risolte in modo simultaneo (salvo casi particolari da valutare di volta in
volta).
i parametri saranno raggruppati in sottoinsiemi semplificati descritti da altre equazioni.
Queste equazioni anch’esse dipendenti dal tempo potranno esser connesse , in prima
approssimazione, in forma sequenziale.
Pertanto la soluzione di un’equazione sarà input per l’equazione successiva,
ovviamente l'ordine di soluzione risulta fondamentale sia per la corretta descrizione del
sistema sia per la valutazione attendibile dei rischi che si evolvono nel tempo.
Un’indicazione sull’ordine corretto di soluzione può esser trovato nella
gerarchizzazione dei parametri o dei sottoinsiemi semplici, ottenuto mediante quelle che
potremo definire, funzioni d'importanza o pesi relativi dei parametri di definizione.
Identificato così il rischio variabile nel tempo, associato alla galleria in esame, devono
essere impostate le mitigazioni opportune per gestirlo opportunamente.
Ci si trova dunque dinanzi a qualcosa che si evolve nel tempo ( il rischio) non solo con
una legge propria, cosa che in linea di principio, sarebbe di per se stessa governabile,
ma attraverso una legge dipendente dal tempo contenente una serie di parametri a loro
volta dipendenti dal tempo con leggi proprie.
Ed approntare la sicurezza opportune ( anch’essa funzione del tempo ) a fronte delle
mitigazioni che sono anch’esse dipendenti dal tempo in cui si desidera applicarle
(tecnologia presente ad un dato tempo).
Il solo modo per poter affrontare un problema di tale complessità in forma generale
(per le soluzioni particolari si rimanda al capitolo successivo ) è quello di utilizzare
Tecnologie Speciali volte ad approntare la prevenzione mitigare le conseguenze e
gestire l’intervento.
Questo induce la transizione dal concetto di “Galleria dinamica” a quello di “Tunnel
intelligente”.
Quindi risulta necessario sviluppare una tecnologia innovativa applicabile ai tunnel sia
nuovi, sia esistenti, che possa renderli “intelligenti” cioè che abbassando la probabilità
incidentale, possa far si che la gestione di una situazione di crisi variabile risulti
semiautomatica.
Ricordando che una corretta gestione degli incidenti in galleria pur essendo volta
all’abbassare la probabilità di primo incidente, non potrà di fatto azzerarla del tutto,
mentre si potrà agire con maggior efficacia su quelle che in teoria delle probabilità
vengono definite probabilità condizionali di accadimento degli incidenti successivi al
primo.
Questo discorso permette così di individuare univocamente le zone temporali di
applicazione della nuova tecnologia rispetto al primo incidente.
Le “mitigazioni” per essere efficaci dovranno essere applicate in via preventiva nelle
varie fasi preliminari, sia in quella di gestione della situazione di crisi o d’emergenza,
sia infine nella fase di recupero.
Un discorso particolare si deve sviluppare per l’applicazione di tecnologie ai primi
istanti susseguenti l’incidente questa è la fase di più difficile d’intervento e mitigazione,
ma è anche la fase in cui più sensibilmente si possono mitigare i danni prodotti dal

119
Verso un controllo automatico della galleria

primo incidente che risulta di fatto maggiormente sensibile alla mitigazione sia per un
problema d’intensità, ancora non pienamente sviluppata, sia per un problema di
prevenzione degli incidenti successivi, di fatto non ancora sviluppatisi.

Bibliografia
Carl W. Helstrom Probability and stochastic processes for engineers Prentice Hall
1991.
Philip Potter Stochastic Integration and Differential Equation ( A new approach)
Springer Verlag 1990
Jordan Stoyanov Counterexamples in Probability John Wiley & Sons 1997
J.S.Bendat & A.G.Piersol Random Data : analysis and measurement procedures
Wiley Interscience 1971
N. Ikeda & S. Watanabe Stochastic Differential Equation and Diffusion Processes
North Holland Publishing C. & Kodansha Ltd. 1981
Makridakis,Wheelwright, Mc Gee Forecasting John Wiley & Sons 1983
Karl Sigman Stationary marked point processes Chapman & Hall 1995

120
Il Tunnel Intelligente

10 Il Tunnel Intelligente

Un piano scacchistico “intelligente” è quello che si adegua prontamente alle mutate


necessità della posizione, pur conservando la massima flessibilità nell’opzione degli
attacchi possibili.

10.1 L’intelligenza come prevenzione

Se si accetta come definizione di intelligenza , quella di capacità di risolvere problemi


nuovi che si presentano nel corso della storia evolutiva del soggetto, in relazione al
suo adattamento al cambiamento nel tempo dell’ambiente circostante, essa è
sicuramente una proprietà dei sistemi organici.
Se continuiamo sul piano di un parallelo cibernetico e consideriamo la struttura “tunnel”
come un sistema che attraverso l’implementazione tecnologica può dare risposte
comportamentali di tipo pseudo organico, allora possiamo applicare ad esso come
concetto d’intelligenza quello dell’americano L. Thurstone, che considera l’intelligenza
basata su fattori di gruppo che funzionano come abilità primarie.
Tali abilità si organizzano e si adattano in funzione della rappresentazione variabile
dell’ambiente circostante che le strutture sensoriali forniscono, nel tempo, attraverso i
meccanismi adattativi del feed-forward e del feedback.
Da questa introduzione che descrive il suo funzionamento si può facilmente
comprendere come il modello prescelto d’intelligenza può esser applicato alla
prevenzione dei danni da rischio.
Evitare il rischio in maniera “intelligente”, secondo l’accezione descritta, significa
dapprima anticipare le evoluzioni del sistema ( mediante modelli previsionali) ed in
seguito adattare continuamente le capacità di risposta sia in funzione delle previsioni
(feed-forward), sia dell’esperienza (feedback).
In conclusione sviluppare l’intelligenza dei tunnel nell’ottica della sicurezza preventiva,
relativa agli incidenti severi che possono avvenire, significa:
1) applicare ad essi una tecnologia innovativa,
2) fornirla di opportuni sensori di rilevamento,
3) dettare regole di comportamento in funzione della variabilità evolutiva
dell’ambiente in cui il tunnel è immerso e di cui contemporaneamente fa parte,
4) abbassare ragionevolmente, in via preventiva, la probabilità del primo incidente,
5) minimizzare infine la probabilità degli incidenti successivi.
La caratterizzazione previsionale della “galleria dinamica”mediante modelli di
forecasting basati sulle reti neurali che prevedano l’evoluzione futura dei parametri di
definizione dipendenti dal tempo, risulta possibile ma estremamente complessa.

10.2 Le soluzioni possibili

La prima e più ovvia soluzione del problema si verifica quando le funzioni evolutive
dei parametri della galleria dinamica sono tutte note, in tal caso poiché l’evoluzione
futura dell’ ambiente in cui il tunnel è immerso è conosciuta nel suo insieme e nella sua
evoluzione, allora la strutturazione dei sistemi di sicurezza sarà costituita in modo tale
da soddisfare quest’andamento futuro
Invece se avviene il caso in cui alcune funzioni evolutive siano rappresentabili mediante
modelli o algoritmi ed altre no, circostanza che si presenta con molta più probabilità nel
caso reale; allora per quei parametri che mostrano ad esempio stabilità o estrapolabilità
nella loro legge di evoluzione, come già ricordato, il problema è risolvibile, ma per

121
Il Tunnel Intelligente

quelli che mostrano leggi evolutive imprevedibili, allora l’operazione è pressoché


improba.
Una prima semplificazione operativa per poter affrontare e risolvere il problema è data
dalla gerarchizzazione dei parametri attraverso opportune funzioni d’ordine, come ad
esempio il peso percentuale degli ingredienti in una ricetta, una tale operazione ci
permette di comprendere “l’importanza” del parametro relativamente alla
normalizzazione effettuata.
Così per parametri con evoluzione non prevedibile, se essi sono di scarso impatto sulla
sicurezza preventiva del sistema ( cioè sono caratterizzati da un basso numero
percentuale di gerarchia ), si possono approssimare con una legge previsionale nota o
addirittura trascurare nella capacità di risposta globale del sistema, a patto che non
presentino interazioni trasversali con altri parametri introducendo così di fatto rischi
variabili nel tempo, che in un’analisi classica non sarebbero evidenziabili .
Una seconda soluzione approssimata è data, dopo l’opportuna gerarchizzazione dei
parametri, dal monitoraggio continuo del degrado di alcuni parametri più importanti del
sistema, in modo da prevederne in anticipo il collasso ed applicare le misure preventive
o sostitutive necessarie.
In tal modo si abbassa in modo preventivo e drastico la probabilità di incidente severo
dovuto a collasso di parti importanti del sistema tunnel.
Nel caso in cui, ad esempio, non fosse possibile rappresentare o prevedere la forma
evolutiva dei parametri gerarchicamente più importanti, anche in un caso simile, sarà
possibile risolvere brillantemente il problema preventivo della sicurezza a fronte di
incidenti severi, se si possiedono determinate forme di tecnologia avanzata.
Tali soluzioni saranno raggiungibili, con un buon grado di soddisfazione, mediante una
serie di applicazioni tecnologiche basate su fondamenti concettuali sottili e
metodologicamente importanti.
In questo caso, infatti, con l’ introduzione di opportune tecnologie innovative bisognerà
rendere tutti parametri, o almeno i più importanti del sistema, indipendenti dal tempo o,
se la tecnologia disponibile non permette questa utile, importante e drastica
semplificazione, bisognerà tentare almeno di rendere la loro dipendenza, secondo una
forma nota.
Questi ultimi tipi di semplificazioni solutive rappresentano certamente un potente
strumento di controllo e prevenzione anche in casi in cui non sia possibile attraverso la
modellazione ed il forecasting prevedere lo sviluppo evolutivo dei parametri del
sistema.
In tal modo sarà possibile garantire anche in casi analoghi la sicurezza del sistema che si
sta approntando.
Come esempio esplicativo del metodo dell’indipendenza dal tempo ne presentiamo uno
allo stato attuale della tecnologia, impossibile da risolvere, ma di facile comprensione
metodologica.
Le recenti e luttuose piene del fiume Po in Val Padana, sono state generate da un evento
eccezionale di intensità di pioggia caduta in un breve periodo, ( circa 700mm in tre
giorni).
Secondo l’analisi classica del rischio, basata sulle serie storiche delle precipitazioni e
delle piene avvenute, questo caso non sarebbe mai dovuto avvenire, pertanto le
prevenzioni del rischio erano dimensionate sulle piene storiche aumentate di un fattore
di sicurezza, per garantire la sostenibilità del sistema.
Purtroppo in questi ultimi anni le quantità di pioggia riversatesi sulla Val Padana in
breve tempo, hanno mostrato un incremento esponenziale e non lineare; per cui la
sicurezza del sistema dovrebbe essere reimpostata su questa nuova curva di tendenza,
con spese improponibili, e soluzioni probabilmente non raggiungibili o insoddisfacenti.

122
Il Tunnel Intelligente

Se invece esistesse per caso una tecnologia capace di bloccare le ricadute


pluviometriche di picco ad una quantità nota e costante negli anni , allora il sistema di
sicurezza sarebbe ricondotto ad un sistema similare ma indipendente dal tempo, (
relativamente al parametro più importante “ricadute pluviometriche di picco” ). Pertanto
sapendo che la piena storiche futura non potrà mai superare quella prevista si potrebbero
impostare misure praticamente certe di sicurezza preventiva per esondazioni,
inondazioni e così di seguito.
La seconda soluzione nel caso in cui non esistano tecnologie innovative atte a rendere il
sistema indipendente dal tempo è data, come già detto, dalla possibilità di conoscere con
un certo anticipo il momento del collasso di uno o più parametri importanti del sistema.
Pertanto sempre continuando con l’esempio prescelto, quanto detto si traduce nella
possibilità di conoscere in anticipo il momento della piena senza peraltro poterla
impedire, questa conoscenza però permette di minimizzare i danni dovuti
all’inondazione prevista, applicando in anticipo le opportune contromisure:
rafforzamento degli argini, apertura delle chiuse, evacuazione preventiva della
popolazione, e così di seguito.

10.3 Le due applicazioni pratiche del FIT ENEA

Il Progetto di ricerca FIT –ENEA , che ha come scopo l’applicazione di tecnologie


innovative ai tunnel ( ferroviari, metropolitani e stradali). al fine di prevenire incidenti
severi si basa sull’introduzione del concetto di rischio dipendente dal tempo, attraverso
la definizione di galleria dinamica.
Tale definizione operativa permette di passare al concetto di tunnel intelligente
attraverso la modellizzazione dell’evoluzione dei parametri principali della galleria.
Pur tuttavia anche mediante l’introduzione della tecnologia innovativa più avanzata, in
possesso dell’ENEA, il problema concettuale della sicurezza preventiva dei tunnel
ricade nella condizione complessa di impossibilità di definizione completa della legge
di evoluzione dei parametri più importanti.
Quindi sembrerebbe che il problema ricada nella classe dei problemi di rischio di
impossibile soluzione preventiva.
La definizione di galleria dinamica non è stata introdotta, per semplificare, ma per far
evolvere il concetto di rischio da una rappresentazione astratta e media unificata ad una
rappresentazione complessa, dipendente dal tempo e più personalizzata per il “sistema”
in esame.
La diminuzione di semplificazione nella descrizione del sistema, permette di affrontare
la prevenzione del rischio in modo più efficace ed anche più economico.
Questo perché una descrizione più complessa del sistema consente di prevedere e di
calcolare il rischio associato con un margine di errore minore e quindi di strutturare le
misure preventive di mitigazione in forma più mirata e quindi più economica ed
efficace.
Tutto questo si basa semplicemente sulla capacità o meno di poter descrivere questi
nuovi parametri di definizione del “sistema dinamico” attraverso opportuni modelli
previsionali di tipo descrittivo -predittivo .
Se vi è questa possibilità allora la prevenzione del rischio associato al sistema descritto
sarà possibile, efficace ed economica.
Nel caso in cui tutto ciò non fosse possibile allora si può ricorrere ai due metodi di
soluzione alternativa precedentemente descritti.
Le attuazioni del Progetto FIT hanno interessato la definizione di solo due tipi di
“galleria dinamica”, per ragioni di necessità strategica: una di tipo stradale, una di tipo
metropolitano.

123
Il Tunnel Intelligente

10.4 Galleria stradale

Il progetto FIT identificata la nuova parametrizzazione della “galleria dinamica


stradale”, ha affrontato il problema della valutazione preventiva del rischio con
specifico riguardo alle gallerie stradali del “Frejus” in esercizio e della “Variante di
Valico” in costruzione.
Le funzioni d’ordine di gerarchizzazione dei parametri dinamici hanno chiaramente
mostrato che il parametro di gran lunga più importante è il flusso di automobili
all’interno del tunnel, nei suoi due aspetti fondamentali di flusso cadenzato e continuo.
Sebbene questo possa apparire banale, infatti una galleria senza traffico di autoveicoli
non presenta alcun problema di rischio nei confronti degli autoveicoli stessi, o dei loro
conducenti, il discorso diviene meno banale se consideriamo la modellazione
matematica del traffico, in funzione non solo del numero futuro di autoveicoli, ma
anche della loro evoluzione tecnologica futura, del loro tipo di carico pericoloso, della
densità di passaggi dei carichi pericolosi e così via.
In questo caso sebbene si sia riusciti a gerarchizzare i parametri dinamici, ci troviamo
nel caso di non saperne descrivere con precisione accettabile l’evoluzione futura in
funzione delle variabili considerate.
Pur tuttavia l’applicazione della tecnologia innovativa del “ Preventive Safety Setter”
permette con un semplice ma sostanziale trucco logico, la soluzione definitiva di
quest’arduo problema.

Il Preventive Safety Setter.


Il sistema denominato PREVENTIVE SAFETY SETTER, è un sistema di regolazione
del traffico in tunnel e simultaneamente un sistema di gestione e di controllo del
traffico in condizioni d’incidente .
Tale sistema si basa su di un controllo “emulativo” prodotto di una tecnologia
innovativa, sviluppata da ENEA ed Oberon, chiamato emulatore “Visio”.Esso sarà
dunque formato da uno o più emulatori visio, in funzione della lunghezza del tunnel ,
connessi in rete.
Il controllo e la gestione del traffico saranno ottenuti mediante una serie di led luminosi
scorrevoli con la tecnologia commerciale delle strisce luminose usate in pubblicità,
comandati dall’emulatore “visio”.
Tali strisce luminose ancorate al terreno mediante una rotaia con funzione anche di
portacavi, indirizzeranno gli autisti mediante una navetta di luce verde che precederà
l’automobilista.
Pertanto ogni automobilista avrà la propria navetta verde di traghettamento all’interno
della galleria e sarà guidato da essa in condizioni sia di marcia normale, che di sorpasso,
che di emergenza.
Praticamente al singolo guidatore apparirà una banda luminosa verde che lo precede,
con una testata rossa.
L’intensità della segnalazione rossa, simulando le luci posteriori di un veicolo
antecedente, unita alla striscia verde che precede l’autista, suggerirà al guidatore il
comportamento dinamico più adeguato da conservare durante il tratto controllato, che

124
Il Tunnel Intelligente

comprenderà il tunnel ed un opportuno tratto di autostrada precedente e susseguente ad


esso.
Il sistema si basa semplicemente sull’auto-conservazione dell’autista, ormai abituato a
rispondere al rosso con un riflesso condizionato Pavloviano
L’emulatore “visio” è capace di analizzare contemporaneamente e costantemente il
comportamento dinamico di ogni singolo veicolo anche per flussi incrociati di traffico e
di confrontare i parametri emergenti con quelli definiti dalle norme di sicurezza variabili
nel tempo della Galleria dinamica(velocità, distanza di sicurezza,percorsi e
comportamenti quali: rallentamento,deviazioni, ecc.).
In caso d’incidente oltre alla regolazione ed alla evacuazione dei veicoli che formano la
coda formatasi a causa dell’incidente, l’emulatore invierà la posizione di tutti i veicoli
registrati nel tunnel, mediante opportune telecamere, alla banca dati tridimensionale in
realtà virtuale del tunnel.
Se ci si dovesse trovare non in presenza di una situazione di crisi, ma di un incidente
severo con gravissime conseguenze allora la banca dati, dopo le opportune elaborazioni
termo-fluidodinamiche invierà sia i dati elaborati che la situazione in realtà virtuale
ottenuta al supporto decisionale in sala controllo del tunnel e nello stesso momento la
“situazione” in realtà virtuale su periferica portatile, in modo da permettere agli
eventuali Vigili del Fuoco impiegati nel tunnel, di scegliere i percorsi più idonei
all’azione di emergenza da portare a termine.
Questo tipo di approccio preventivo al rischio si basa sul concetto di traffico controllato
e “filo guidato” con regole definite dall’operatore del Preventive Safety Setter,
quest’azione sebbene non possa prevenire il primo incidente dovuto a malore
accidentale o condotta non controllata degli autisti o guasto meccanico improvviso,
permette con un opportuno sistema integrato di sicurezza tecnologica sia la
minimizzazione degli incidenti successivi, sia la gestione di situazioni di crisi, sia di
vera e propria emergenza.
Tuttavia in termini di analisi del rischio il problema del traffico controllato con regole
definite è l’equivalente dell’azione di controllo preventivo su di un parametro
indipendente dal tempo.

10.5 Galleria metropolitana

Nel secondo caso preso in esame dal progetto FIT si è in presenza di una gallerie
dinamica di un sistema metropolitano.
Anche in questo caso, definito il concetto spaziale di galleria, formato dall’insieme
tunnel più stazione più tunnel ed identificata ed ordinata gerarchicamente la
parametrizzazione della “galleria dinamica metropolitana”, si è affrontato il problema
della valutazione preventiva del rischio.
Le funzioni d’ordine di gerarchizzazione dei parametri dinamici hanno chiaramente
mostrato che il parametro più importante non è il flusso di treni all’interno del sistema,
ma il flusso di viaggiatori in –out dal sistema.
Questo caso d’identificazione appare semplice ma meno banale del caso precedente,
infatti non solo un sistema galleria senza traffico di treni non presenta alcun problema
di rischio, ma anche un sistema con treni senza viaggiatori.
Purtroppo anche in questo caso se consideriamo la modellazione matematica del flusso
entrante ed uscente dalla stazione e dal treno ci troviamo nel caso di non saperne
descrivere l’evoluzione futura anche se in funzione della sola variabile densità di
presenza.

125
Il Tunnel Intelligente

Ma anche in tal caso l’applicazione della tecnologia innovativa dell’ “ Evolutive Safety
Setter” permette con un altro sostanziale trucco logico la mitigazione del rischio di
quest’altro caso.

L’Evolutive Safety System.


Il sistema denominato EVOLUTIVE SAFETY SYSTEM, è un sistema di
telediagnostica preventiva dei singoli treni, dell’armamento e simultaneamente di
monitoraggio on line del flusso di persone, fornendo l’occupazione media o puntuale
per vettura ed off line per l’ottimizzazione dell’evacuazione in condizioni d’incidente.
Tale sistema si basa su di un controllo “evolutivo” prodotto di una tecnologia
innovativa, basata su algoritmi “caotici” e “genetici” sviluppata da ENEA. Il sistema
sarà dunque formato da uno o più emulatori evolutivi, in funzione del numero di
stazioni metropolitane considerate, connessi in rete.
La telediagnostica preventiva dei treni è ottenuta, in ogni stazione presidiata
dall’Evolutive Safety System, mediante elaborazione opportuna dei segnali che una
serie di sensori posti sul treno invieranno al controllo “evolutivo”posto in stazione.
Tali sensori (anche di natura molto diversa) posti in punti opportuni del treno e
dell’armamento ferroviario ( cavi di trasmissione, scambi, binari ) forniranno nel tempo
un’ informazione sullo stato del vettore, che il controllo analizzerà indicando
preventivamente la possibilità di un malfunzionamento tra quelli monitorati.Pertanto in
sala controllo si potranno prendere le misure del caso sulla base della gravità della
indicazione.
Una tale funzione abbassa drasticamente ed in modo preventivo, la probabilità di
malfunzionamento ed incidente ed ottimizza i costi di gestione.
Il sistema è arricchito anche da un’altra facility tecnologica: un “ambiente artificiale”
che permetterà di ottimizzare off line l’evacuazione della popolazione, mediante una
serie di simulazioni di sistema, basate sugli algoritmi genetici. In caso d’incidente
severo, Il controllo evolutivo fornirà in sala controllo on line il fattore d’occupazione
dei vagoni del treno interessato.
Una tale conoscenza permetterà, in sala controllo, di programmare il comportamento
più adeguato nel caso di evacuazione secondo l’ottimizzazione delle simulazioni off line
previste ed effettuate.
Il sistema si basa semplicemente sulla capacità previsionale del controllo, tanto più
precisa quanto più opportunamente vari e precisi saranno i sensori, la loro collocazione
sul treno e tanto maggiore sarà il numero dei passaggi.
L’emulatore dell’Evolutive Safety System è capace di analizzare contemporaneamente
il comportamento dinamico dei sensori di diversa natura posti sul treno e
sull’armamento, di prevedere il degrado sia di parti del treno che dell’armamento e di
confrontare i parametri emergenti con quelli definiti dalle norme di sicurezza variabili
nel tempo del sistema galleria dinamica individuato.
In caso comunque d’incidente improvviso oltre alla regolazione ed evacuazione dei
passeggeri, il controllo invierà il fattore d’ occupazione (o il numero di passeggeri) di
tutte le carrozze del treno alla banca dati tridimensionale in realtà virtuale del complesso
dinamico
La banca dati dopo le opportune elaborazioni invierà sia i dati, sia la realtà virtuale al
supporto decisionale in sala controllo, ed anche la “situazione” in realtà virtuale su
periferica portatile ai Vigili del Fuoco in modo da consentire la programmazione delle
strategie d’intervento più idonee all’azione.
Anche in tal caso si è potuto rilevare come l’applicazione tecnologica di un sistema
integrato di sicurezza permette di diminuire drasticamente la probabilità d’accadimento

126
Il Tunnel Intelligente

del primo incidente e di minimizzare il numero delle potenziali vittime prodotte


dall’evoluzione della situazione a seguito del primo incidente (evacuazione , ecc.).
Anche nel caso precedentemente descritto non potendo prevedere l’evoluzione del
numero di passeggeri ne il loro comportamento si è agito direttamente sul controllo
preventivo del degrado del treno o del materiale dell’armamento, così facendo con
l’opportuna manutenzione si è abbassata la probabilità di primo incidente, si sono
ottimizzati i costi di gestione, e si è di fatto controllata indirettamente la sicurezza del
parametro dinamico più importante individuato: i viaggiatori. In sintesi se il FIT –
ENEA è incentrato sulla sicurezza preventiva delle strutture, la sua espansione
nazionale il FIT –Italia, con l’insieme di industrie centri di ricerca ed utilizzatori finali,
coniuga il concetto di “Sicurezza Efficace” della struttura, con quello dell’utilizzo del
vettore intelligente, impostazione che evolve il concetto di sicurezza preventiva limitata
al solo sistema strutturale e che potrà, a tempo opportuno, esser applicata all’intero
sistema nazionale di trasporto.

127
Appendice

Probabilità e Funzione generatrice di probabilità

In questa appendice viene introdotto il concetto di funzione generatrice di probabilità,


che gioca un ruolo fondamentale nella presentazione delle formule di “pericolo” .

Sebbene la funzione generatrice possa apparire complessa la sua introduzione ha il


precipuo scopo di semplificare le trattazioni particolari, mostrandole in modo chiaro e
compatto.
Introduciamo la seguente funzione:


G ( z, t ) = ∑ P(k , t ) z k
k =0

G(z,t) prende il nome di funzione generatrice della distribuzione di probabilità

{P(k , t)}.
Infatti vale la relazione :

 1 ∂ G
k
P(k , t ) =   k
 k!  ∂z z =0

128
Perché l'ENEA ha deciso di interessarsi della sicurezza dei tunnel? Quali sono i motivi
che ci spingono e quali sono gli scopi che ci prefiggiamo? Perché pensiamo che sia
importante che l'ENEA stabilisca una operazione di collaborazione tra tutti gli enti che
hanno conoscenze e competenze su queste tematiche, al fine di risolvere alcuni
importanti problemi del settore. In prima istanza perché l’ENEA ha un bagaglio di 50
anni di esperienza nel settore della sicurezza connesso con l’innovazione tecnologica.
(Professor Carlo Rubbia dalla Prefazione del libro)

Questo libro costituisce il tentativo scientifico di accostare ed interconnettere due realtà


fino ad oggi reciprocamente molto distanti. “Tunnel” è un sostantivo che nasce
nell’ambito del traffico di automezzi e passeggeri il cui alto flusso economico impone
problematiche di gestione in favore della salvaguardia di uomini, merci e strutture.
“Intelligente” è un aggettivo che caratterizza il comportamento adattativo di sistemi
cibernetici ad improvvise ed impreviste variazioni dell’ambiente circostante.
Scopo finale degli autori è quello di utilizzare l’ intelligenza matematica, nel tunnel
dotato di tecnologia innovativa, per prevenzione, intervento e ripristino da situazioni di
emergenza. Il libro costituisce un primo passo verso una nuova teoria della sicurezza
applicata a nodi critici di reti complesse.
(Ingegner Gaetano Tedeschi Direttore generale ENEA)

Alla soluzione di problemi si è contrapposta la prevenzione delle crisi conseguenti; alla


contabilità di malfunzionamenti si è sostituito l’ abbattimento delle cause d’allarme; ai
convenzionali sensori di controllo si è integrato un sistema di reti probabilistiche di
“Sicurezza Efficace”. In sintesi, il libro rappresenta una transizione metodologica dalla
quantificazione dell’affidabilità di una galleria, alla riduzione preventiva del grado dI
inaffidabilità insito nella stessa galleria.
(Nicola Pacilio & Attilio Sacripanti da Le ragioni del libro)