Sei sulla pagina 1di 191

LEZIONE 1: Il moto ondoso – Nozioni di base

Argomenti: Idraulica di base onde di mare, come caratterizzarle, cosa succede quando si propagano verso costa,
caratterizzazione delle onde di progetto a partire dai dati onda tramite modelli statistici.

Generazione del moto ondoso:


Noi ovviamente ci focalizziamo sul M.Mediterraneo, un bacino chiuso dove vi sono molti ostacoli, molte isole. Quindi
le onde si formano principalmente per effetto del vento (smottamenti del fondale ad esempio sono trascurabili),
sono quelle che ci interessano.
A partire da una superficie del mare perturbata (in cui si verifica un’ondulazione), il vento che soffia da sx verso dx
incontra un ostacolo: non è in grado di iniettare energia in modo uniforme sullo specchio acqueo che incontra, si
forma quindi una circolazione (shelter circulation) che esercita forza sul punto più basso dell’onda (a valle del cavo
dell’onda) e spinge in una zona di alta pressione che fa generare una zona di bassa pressione a monte del cavo
d’onda. Questo tipo di meccanismo si autoalimenta e fa sì che lo sbilanciamento della pressione a monte e a valle del
cavo dell’onda porta la parte con la L ad essere sospinta verso l’alto mentre quella con la H ad essere spinta verso il
basso. Se questa situazione permane nel tempo l’onda si sposta e modifica le sue caratteristiche (innalzamento della
cresta, spostamento dell’onda), una parte dell’onda si alza un’altra si abbassa contemporaneamente allo
spostamento generalizzato.

L’azione del vento è quella che ci interessa ed è costituita da tre parametri:


- Specchio d’acqua ove può esercitare la sua azione (fetch): x
- Velocità del vento (intensità con cui soffia sullo specchio acqueo): U
- Durata dell’azione (per quanto tempo è in grado di trasformare energia): t

Nella zona di fetch si hanno tante piccole increspature che interagiscono fra loro in modo disordinato, con
interazioni non lineari, il profilo che risulta è pertanto caotico. Se x e U sono sufficientemente elevati (vento esercita
la sua azione per un periodo sufficiente di tempo e per un’estesa porzione di spazio) dalla fase di fetch si iniziano a
staccare dei treni d’onda, onde cioè aventi la maggior lunghezza. Le onde più lunghe (quelle che hanno maggior
periodo) sono quelle che viaggiano più a lungo e più velocemente. Il vento inietta energia al mare, genera tante
piccole onde, le onde più corte trasferiscono energia a quelle più lunghe che “se le mangiano” e continuano a
crescere di intensità e lunghezza, abbandonano la fase di generazione prima delle altre onde ed entrano nella
cosiddetta fase di dispersione: la celerità di propagazione (che dipende dalla lunghezza) dipende dalla profondità. In
questa zona le onde sono più ordinate e hanno altezza lunghezza e periodo definiti. Assumendo, per semplicità, la
velocità del vento costante possiamo definire tre diversi regimi di generazione delle onde:

- Regime transitorio (duration limited)  limite di durata


- Regime stazionario (fetch limited)  limite di spazio
- Regime completamente sviluppato (fully developed sea)  moto ondoso sviluppato

Se noi ci mettiamo in un punto del mare e vogliamo caprie qual è l’onda che si sviluppa in virtù della durata del
vento, vogliamo capire se l’onda che vediamo è quella massima che il vento ha generato, questo perché un’onda ha
dei limiti fisici per i quali subentrano altri meccanismi, sono limiti di stabilità dell’altezza massima. L’onda raggiunge
l’altezza massima se il vento può agire per una sufficiente durata e su una sufficiente estensione spaziale , si verifica
quindi il regime completamente sviluppato:

se il vento non riesce ad agire sufficientemente a lungo da poter generare un’onda sufficientemente elevata il
regime è transitorio:

¿ > g t cr
U U

se invece ci sono delle limitazioni spaziali nonostante il vento abbia una sufficiente forza il regime è stazionario, il
limite è di natura spaziale. Questi limiti sono espressi tramite coefficienti adimensionali a seconda che la durata o il
tempo siano fattori limitanti, il coefficiente limitato è quello che contiene il tempo ¿ , da confrontarsi con quello
critico g t cr(dipendente da determinante condizioni di vento e dalla climatologia del tempo). In regime stazionario
non abbiamo problemi di durata:

Diventa tuttavia limitante il fattore spaziale:

¿ ≤ g x cr
x U

Se il regime è completamente sviluppato non abbiamo quindi alcun limite di durata e di estensione spaziale del
fetch, il vento è libero di creare l’altezza d’onda massima che dipende ovviamente da climatologia e il punto di mare
che stiamo esaminando.
Nell’immagine vengono riportati i fetch di Genova. Da qui possiamo capire quando è lecito aspettarsi onde più o
meno intense. Guardando ai tre parametri di prima possiamo avere un’idea dei fetch rispetto ai quali possiamo
osservare le onde più violente e intense a seconda del punto in cui siamo. Per Genova i fetch più estesi (quelli con
pochi ostacoli, senza isole o coste) sono diretti S-O (settore di libeccio).

Convenzione Nautica per la direzione delle onde: la direzione si riferisce alla zona di provenienza delle onde e viene
definita in senso orario a partire dalla direzione Nord.

Onda di direzione 0°  da N a S
Onda di direzione 90°  da E a O
Onda di direzione 180°  da S a N
Onda di direzione 270°  da O a E

Per il paraggio di Genova i fetch più estesi sono quelli relativi al settore di libeccio con (direzioni superiori ai 180°)
direzione di provenienza intorno ai 220°, si hanno anche paraggi estesi in corrispondenza dello scirocco, tuttavia vi
sono “meno linee dritte” (in numero), settore poco esteso. Gli altri settori sono poco estesi e lo si vede bene dalla
cartina, ci sono parecchi ostacoli che il vento incontra. Quindi per Genova guardando i fetch sappiamo che le onde
più grandi arrivano da libeccio. E in effetti la diga foranea è orientata per intercettare le onde che arrivano da S – O!
C’è anche una diga di sottoflutto per i venti provenienti da scirocco.
Le onde di mare sono definite come wind waves (contenute nella zona di generazione del moto ondoso), le loro
creste non sono definibili in maniera univoca. Esistono anche delle onde lunghe definite swell waves (onde lunghe),
esse si sono staccate dalla zona di generazione (sono sempre generate dal vento) e si stanno propagando più
velocemente verso riva e si riesce a identificare in maniera univoca cresta e cavo d’onda, il segnale è praticamente
sinusoidale. Queste due onde traducono sostanzialmente lo sketch iniziale.

Grandezze fondamentali: waves parameters


Si definiscono in relazione ad un’onda regolare (una swell wave sinusoidale), esse sono:
1. Ampiezza, a [m] massimo spostamento della superficie libera dal livello medio mare, ci dice la distanza di
cresta o del cavo dal livello medio mare (linea tratteggiata)
2. Lunghezza d’onda, λ [m]  distanza fra due creste o cavi successivi
3. Altezza d’onda, H [m] il doppio dell’ampiezza
4. Periodo d’onda, T [s ]  distanza fra due creste o cavi in termini di tempo, intervallo di tempo che
intercorre fra due creste o cavi
5. Profondità, h [m]  profondità del fondale influenza e modifica caratteristiche dell’onda nel corso della sua
propagazione

D’ora in avanti parliamo di onde regolari (descritte tramite segnale sinusoidale), tipi di onde che approssimano bene
le swell waves le quali hanno periodo elevato e maggiore impatto per le costruzioni, esso sono pertanto le tipologie
di onde più pericolose.
Si definiscono inoltre:
- Numero d’onda: inverso della lunghezza d’onda a meno di 2 π

- Frequenza angolare:

- Profilo superficie libera: AL POSTo DI K VA MESSO X! DIPENDE SIA DALLO SPAZIO CHE DAL TEMPO

- Potenziale di velocità: permette di definire le velocità indotta dal passaggio di un’onda al di sotto della
superficie libera, derivando una volta infatti otteniamo la velocità euleriana al di sotto della superficie libera
e derivando due volte otteniamo l’accelerazione euleriana (entrambe su tutta la colonna d’acqua).

Ovviamente si sta ragionando su due grandezze:

- Coordinata verticale dal fondale


- Coordinata orizzontale di quanto stiamo distanti dalla riva
Così facendo, è come se la nostra onda avesse spessore unitario.
Una volta entrate nella zona di dispersione (quando assumono un profilo ordinato e regolare) in essa vige la
relazione di dispersione che può essere espressa in due modi:
- f (k , σ ):

- f (λ): deep water, h/L > 1/2

A noi interessa la seconda relazione (è una relazione implicita! k dipende da L) da risolvere iterativamente, una volta
noto il periodo di un’onda in virtù della profondità possiamo calcolare la lunghezza d’onda risultate . Il periodo, in
questa trattazione, viene ritenuto un invariante, esso non cambia mai durante il percorso (l’altezza, la velocità di
propagazione e la lunghezza però si). Nel caso di shallow water la relazione diventa:

Grandezze derivate: velocità, celerità, energia, pressioni


- Velocità di fase (celerità di un’onda):

- Celerità di gruppo:

fino ad ora abbiamo fatto una semplificazione utile ma non attendibile . È evidente che le onde si generano e
si scambiano energia in modo caotico, non lineare; nel momento in cui quelle più veloci lasciano la zona di
propagazione lo fanno dove ci sono state delle perturbazioni precedenti (treni d’onda precedenti, transiti
per altri fetches diversi…) non lo fanno nel deserto, ci sono interazioni al di fuori della zona di generazione.
Questo porta a definire una celerità di gruppo: le onde più lunghe che incontrano altre onde lunghe di altre
fetches si propagano come dei pacchetti d’onda composti da onde di diversa frequenza e ampiezza che si
sovrappongono in qualche modo l’un l’altra. Il profilo risultante non è ben definito, esso si modifica nello
spazio e nel tempo man mano che si sposta da sx. verso dx. I punti verdi sono nodi in cui l’elevazione della
superficie dell’onda è la stessa del livello medio mare, sono di fatto i nodi che contengono al loro interno un
pacchetto d’onde che si sta spostando con la celerità di gruppo, di fatto la celerità di gruppo è la velocità con
cui si sta spostando il punto verde. Guardando le relazioni fra celerità e celerità di gruppo, si vede che quella
della singola onda è sempre maggiore di quella del gruppo: una singola onda si sposta più velocemente del
pacchetto di cui fa parte e con cui sta viaggiando. Il quadrato arancione si sposta più velocemente del singolo
punto verde, lo abbandona, si sposta nel trova un altro e così via.
- La celerità di gruppo è importante perché si può associare ad una singola onda un contenuto energetico
totale [N/m^2]. Esso può essere definito a partire da contenuto cinetico legato alla velocità) e potenziale
(legato alla massa):
Figura 1: eq. 1

La densità dell’acqua nel caso del mare dipende dal mare in cui siamo, in prima approssimazione si può
assumere circa a 1025 Kg/m^3.
- La celerità ci dice qual è il flusso medio di energia associato ad una cresta, quanto velocemente sta venendo
trasportata l’energia di un’onda. Possiamo quindi definire il flusso:

L’energia di un’onda si propaga alla velocità del gruppo all’interno del quale la nostra onda di riferimento si
sta spostando, dal momento che nella formula è presente la celerità di gruppo l’energia di un’onda si
propaga con la velocità del gruppo!
- Per quanto riguarda le pressioni esercitate, si individua un contributo legato alla pressione idrostatica ps
(legato all’acqua ferma, idraulica) e un contributo idrodinamico legato al passaggio dell’onda pd . La loro
somma fornisce la pressione totale esercitata da un’onda regolare.

Il contributo alla risultante della componente dinamica è più grande o più piccolo di quella idrostatica a
seconda del passaggio del cavo (minore) o della cresta (maggiore), ovviamente ps =0 quando siamo sulla
superficie libera.
Sono presenti delle approssimazioni asintotiche per semplificare le formule viste fino ad ora, esse nascono dal fatto
che le funzioni iperboliche possono essere approssimate al loro argomento o ad 1 a seconda del valore degli
argomenti stessi. Queste due condizioni si realizzano in due casi:

- Shallow water (basse profondità): quando h/L < 0,05 (lunghezza di un’onda diviso la profondità alla quale su
trova) non è più vero che la singola onda viaggia più veloce del gruppo, la singola onda ha la stessa velocità
del gruppo, non dipende dal periodo.
o Celerità non dipende più dal periodo !
o Celerità di gruppo = celerità di propagazione della singola onda
o Questo tipo di onde interagiscono con il fondale e modificano le loro caratteristiche

- Deep Water (profondità infinita, offshore): quando h/L > 0,5


o L dipende dal periodo, più grande è T più lunga è un’onda e più velocemente viaggia
o Celerità gruppo < celerità onda singola
o A profondità ifnitia quella del gruppo la celeritò di dgrppo è la metà della singola
o Questo tipo di onde si propagano senza sentire l’azione del fondale
Onde regolari: la propagazione
I limiti di profondità bassa e infinita non sono assoluti ma relativi, ambedue i limiti dipendono sia dalla lunghezza di
un’onda che dalla profondità: per onde più lunghe la condizione di deep water di si troverà a profondità maggiore
rispetto ad onde più corte. Vediamo ora che succede alle onde quando si propagano dal largo (profondità infinita)
verso la costa (bassa profondità), subentrano meccanismi legati alla variazione di batimetria che modificano le
caratteristiche d’onda. Nell’immagine viene presentato il golfo di Napoli che dà un’idea di come la batimetria possa
variare in modo repentino, quindi parlare di onda regolare è relativo perché in natura vanno considerate tre
dimensioni.

Noi non vedremo modelli 3-D che richiedono modelli numerici più complessi, operiamo quindi tramite un primo
ordine di approssimazione (= il segnale è sinusoidale) in cui cresta e minimo sono uguali in forma e in modulo di
elevazione. Per questo tipo di processi individuiamo quindi i principali processi trasformativi del moto ondoso, essi si
suddividono in due categorie:

- Processi trasformativi non dissipativi, per i quali l’energia dell’onda rimane invariata ( ΔE=0), essi si
suddividono in:
o Shoaling
o Rifrazione
o Riflessione
o Diffrazione

- Processi trasformativi dissipativi, per i quali l’onda libera la propria energia e diventa instabile, si rompe, essi
si suddividono in:
o Frangiento
o Ran-up
o Attrito al fondo
o Etc.

Shoaling:
Traduce la costanza del flusso di energia dei processi non dissipativi tra sezioni poste a profondità differenti. In un
piano 2-D la presenza di una batimetria decrescente dal largo verso riva fa variare le caratteristiche dell’onda.

Quando quantifichiamo l’effetto dello shoaling sulle onde valutiamo un coefficiente che ci dice come varia l’altezza
d’onda di due sezioni poste a profondità differente; prese due sezioni (una al largo e una a riva), il flusso dell’energia
associato all’onda, definito come il contenuto energetico di un’onda per la celerità del gruppo all’interno della quale
l’onda si propaga, è costante (i processi non sono dissipativi). Quindi, matematicamente, si può eguagliare il flusso
delle due profondità:

Per convenzione si impiega il pedice O (offshore) per indicare sezioni poste a profondità infinita. Si è visto come si
calcola il flusso in base alla eq.1, le grandezze che variano nelle due sezioni sono:

- Celerità di gruppo
- Altezza

Calcoliamo quindi un coefficiente di shoaling K s eliminando le costanti che si hanno nell’uguaglianza dei due flussi

A partire dalla definizione di celerità di gruppo si ottiene facendo la radice quadrata del rapporto fra la celerità di
gruppo a profondità infinta e quella a profondità intermedia:

Possiamo quindi valutare il coefficiente in funzione della lunghezza d’onda λ (che è funzione del periodo) ma non
dell’altezza. Nota la celerità di gruppo a profondità infinita possiamo calcolare quella ad una profondità intermedia e
successivamente il coefficiente che ci interessa e quindi l’altezza dell’onda risultante a una profondità intermedia è
pari a K s moltiplicato per l’altezza d’onda a profondità infinita.
Nell’immagine sottostante viene rappresentato il valore del coefficiente K s in relazione ad un parametro
adimensionale molto utilizzato in ingegneria marittima.
Si vede che esso è pari ad 1 per profondità molto elevate (significa che non abbiamo variazioni nell’altezza d’onda),
in seguito decresce e assume un minimo relativo, questo minimo relativo ha però spiegazione matematica dovuta
alla natura delle funzioni iperboliche e al bilancio dell’energia e non a fenomeni fisici studiati . Man mano che ci
spostiamo verso riva (verso sinistra ove il coefficiente adimensionale è praticamente nullo), qui abbiamo un
coefficiente di shoaling che raggiunge un valore addirittura maggiore di due! L’altezza d’onda quindi raddoppia
passando da profondità infinite a profondità basse? No! L’altezza d’onda certamente incrementa però intervengono
altri fattori che contrastano l’aumento dell’altezza dell’onda e di fatto la impediscono. Una spiegazione intuitiva di
questo coefficiente che rappresenta la conservazione dell’energia si può vedere nella figura viola, una massa d’acqua
che conserva la sua energia si frange su un volume sempre maggiore, essa si sta schiacciando su un volume
maggiore: è come se schiacciassi la funzione coseno mantenendo il suo periodo inalterato, l’unico modo per cui
questo possa funzionare è che vi sia un innalzamento di una quota della cresta (quindi dell’altezza dell’onda). Lo
shoaling ha quindi sempre l’effetto di indurre un aumento dell’altezza della lunghezza d’onda.

Rifrazione:
Traduce la costanza del flusso di energia fra due ortogonali d’onda. A differenza dello shoaling non abbiamo due
sezioni verticali, pertanto ci mettiamo in una vista dall’alto. Gli ortogonali d’onda sono delle linee perpendicolari in
ogni punto al fronte d’onda (creste dell’onda). Tra due ortogonali non vi è dissipazione di energia, fisicamente
significa che i fronti di un’onda tendono a disporsi parallelamente alla linea di riva o, viceversa, l’ortogonale di
un’onda tende a disporsi perpendicolarmente ala linea di riva.

Si è visto che la celerità diminuisce man mano che essa ci si avvicina alla riva, nell’immagine soprastante il punto P0
ha una profondità minore rispetto al punto P1 (non presente in immagine ma definito come intersezione fra il fronte
d’onda e la perpendicolare OB), il punto P1 ha pertanto velocità maggiore, sta viaggiando a velocità maggiore. Lungo
un fronte d’onda ci sono punti che hanno velocità differenti, il fronte d’onda pertanto tende a ruotare e a disporsi
parallelamente alla riva. Questo si traduce in una legge mutuata dall’ottica (legge di Snell):

Ove b 0 rappresenta la distanza fra due ortogonali a profondità infinita e b rappresenta invece la distanza fra due
ortogonali a profondità intermedia. Si può quindi definire un coefficiente di rifrazione, K r :

Ove per α si intende l’angolo di direzione di propagazione di un’onda, esso varia in funzione della profondità. Per
ogni profondità abbiamo un valore di α differente, quindi l’altezza d’onda risultante diventa pari all’altezza d’onda a
profondità infinita moltiplicata per K r e K s :

Se lo shoaling induce sempre un aumento dell’altezza d’onda questo non è vero anche per la rifrazione perché,
osservando una costa dall’alto e nel caso di batimetria regolare, le isobate (linee curve continue nell’immagine)
seguono il profilo della costa emersa. Se si hanno onde parallele al profilo di riva questo fa si che gli ortogonali
convergono, viceversa nella baia è evidente che i fronti d’onda divergono, questo dipende esclusivamente dalla
disposizione delle isobate investite dall’onda che si sta propagando (inizialmente ipotizzata orizzontale in alto). La
rifrazione quindi, nel caso di convergenza dei fronti d’onda, genera un aumento dell’altezza dell’onda; viceversa,
nella baia, quindi nel caso di divergenza dei fronti d’onda, l’altezza d’onda decresce.

Riflessione e Diffrazione:
Si verificano quando le onde incontrano delle strutture, le vediamo un po’ alla veloce. Perché nella progettazione
vera e propria vengono usati dei modelli di calcolo e non delle formule di pre-dimensionamento da usare a mano
come vedremo. Inoltre, sono dinamiche complesse difficilmente riconducibili ad abachi o a formule parametriche, è
una cosa un po’ desueta. Riferiamoci sempre al caso bidimensionale. La riflessione può essere totale o parziale, essa
dipende dall’angolo di inclinazione verticale della parete rispetto al fondo e dalla ripidità dell’onda: è totale quando
l’angolo della parete con l’orizzontale eguaglia o supera un valore critco. In questo caso l’abaco si riferisce all’altezza
d’onda, H .
Fissato il periodo quindi, onde più basse sono riflesse totalmente mentre onde più alte sono riflesse parzialmente. La
riflessione è però importantissima perché serve a liberare il contenute energetico delle onde in arrivo.
Per quanto riguarda la diffrazione, essa si verifica quando l’onda incontra un ostacolo di dimensioni confrontabili con
la sua lunghezza si ha una dispersione (= redistribuzione!) dell’energia di un’onda nella zona d’ombra dell’opera.
Anche qua esistono abachi, ormai poco utilizzati se non in fase di pre-dimensionamento.

Frangimento:
Le particelle che si trovano sulla cresta dell’onda iniziano a spostarsi con una velocità maggiore rispetto alla celerità
di propagazione dell’onda, quando la velocità euleriana in corrispondenza della cresta eguaglia la velocità di fase (c)
l’onda frange. Esistono in letteratura diverse formule parametriche che dicono qual è la massima altezza d’onda
stabile in corrispondenza di una certa profondità. Nel caso di profondità infinita il frangimento non è indotto
dall’azione del fondo ma da un fenomeno cosiddetto di white capping che è un esubero di energia che il vento dà ad
un’onda che è già al massimo del suo potenziale. Le altre due formule possono essere nuovamente usate con
cautela, in funzione della profondità e noto il periodo d’onda, per calcolare qual è l’altezza massima che si può
verificare per un’onda. Il frangimento può avvenire con diverse forme, esse si qualificano attraverso il numero di
Irribarren (rapporto fra pendenza del fondale e radice quadrata della ripidità dell’onda al frangimento):

Per basse pendenze del fondale si ha un frangimento di tipo spilling, plunging e surging sono invece caratteristiche
di pendenze più marcate. Nel primo caso il frangimento continua fino alla battigia, nel secondo caso esso è più
localizzato (quello più amata dai surfisti) ciò è dovuto alla variazione più ripida di pendenza, il frangimento avviene
tutto d’un colpo, l’ultimo non è quasi un frangimento, la pendenza è così marcata che non ha tempo di frangere. Si
può dire con discreta sicurezza che la pendenza dipende dalla granulometria che caratterizza il fondale, pendenze
molto dolci si hanno quando i fondali sono sabbiosi, pendenze più marcante quando il materiale è più grossolano
tipo sassi e ciottoli, quindi a partire dalla granulometria del fondale possiamo ipotizzare il tipo di frangimento.
LEZIONE 2: Il moto ondoso – Nozioni di base

Nei primi 10 minuti viene fatto un esempio su matlab che sembra collegato ad un discorso precedentemente fatto
non presente nei video, questa parte è stata saltata, probabilmente un file matlab inserito su aulaweb.

Strumenti di misura:
Fino ad ora assumevano note l’altezza e il periodo dell’onda, ma queste grandezze come si possono misurare?
La boa è largamente utilizzata oggigiorno, vi sono anche degli strumenti ancorati al fondale (ACDP) o ancora
strumenti satellitari.
Le boe sono sensori che galleggiano, tramite accelerometri, effettuano misure lungo gli spostamenti verticali e lungo
l’orizzontale, tramite una doppia integrazione all’indietro essa riesce a riscostruire gli spostamenti, una volta noti gli
spostamenti posso valutare l’altezza d’onda.
Gli ADCP sono sensori posti sul fondo del mare, essi sparano un segnale verso la superficie che ritorna indietro
quando incontra l’onda, questi strumenti vengono usati principalmente per valutare la velocità della corrente a
seguito dell’interazione con il materiale sospeso in acqua, in altre parole si valuta uno shift temporale del segnale
emesso.
Stessa logica per le misure di altezza d’onda da satelliti, essi ricostruiscono infatti l’orografia delle aree in base al
ritardo del segnale emesso, si può fare la stessa cosa se il segnale viene riflesso dallo specchio acqua così da valutare
la variazione dell’altezza della superficie libera.
Infine, si hanno i radar (HiFrq Radar), il vantaggio di questi strumenti è dovuto al loro ancoraggio al suolo e non in
acqua (gli strumenti acquatici sono molto delicati e sono sottoposti agli aggressivi agenti marini) anche se vengono
impiegati solo di recente per lo studio delle caratteristiche del mare. Essi, infatti, misurano l’andamento delle
correnti marine, per avere informazioni sull’altezza d’onda bisogna ricorrere a degli stratagemmi (degli algoritmi) che
non sono stati ancora ben sviluppati e sistematizzati in maniera rigorosa. I dati ricavati da questi strumenti non sono
quindi particolarmente attendibili. Pertanto, gli strumenti maggiormente utilizzate sono per adesso le boe ed i
satelliti.

Statistica delle onde random:


Iniziamo in uno spazio 2-D, ipotizziamo di avere una boa che si sposta solamente sulla sua verticale, se osserviamo
un segnale di registrazione, a seguito dell’integrazione del segnale di accelerazione sulla verticale della boa, ci
aspetteremmo di ottenere quanto riportato in figura sotto.

È giusto sottolineare che la frequenza di campionamento è propria della boa (unità di misura Hz, in un secondo
quanti campionamenti posso fare). I parametri d’onda che noi ricaviamo si riferiscono solitamente ad un intervallo di
circa 10-15 min, questo perché si assume che l’ipotesi di stazionarietà statistica per le onde di mare sia valida se si
rimane all’interno di questo intervallo: in 15 min. è lecito ipotizzare che il mare non subisca variazioni significative in
grado di alterare il valore medio che si vuole estrapolare a partire dai dati raccolti dalla boa (Le misure che si possono
avere in questi 15 min. dipendono dallo strumento).
Quindi a partire dalla figura sopra si vuole determinare le caratteristiche dell’onda all’interno dell’intervallo dei 15
min. indicati, come si fa?

Statistica delle onde random: metodi di zero – crossing


Sulle ordinate abbiamo l’elevazione della superfice libera, sull’asse delle x si ha invece la quota del medio mare

In questo metodo si hanno due possibilità: si possono individuare infatti i punti nel grafico in cui la curva passa da
valori negativi a valori (up-crossing, cerchi rossi) oppure punti in cui la curva passa da valori positivi a valori negativi
(down-crossing, cerchi bianchi), una volta identificati questi i punti si può dire che tutto ciò che è compreso fra di
essi può essere definito come un’onda (curva fra due punti rossi successivi o fra due punti bianchi successivi),
quest’onda è caratterizzata da una propria altezza H 1 (di fatto la distanza fra il massimo della superficie libera e il
minimo della superficie libera del profilo compreso fra i due punti) alla quale possiamo associare un periodo (il
tempo che intercorre fra il primo e il secondo punto rosso). Questo metodo permette quindi di associare a ciascuna
onda una sua altezza e un suo periodo. Up e down danno più meno gli stessi risultati.

Statistica delle onde random: grandezze caratterstiche


Una volta raccolti questi dati si possono definire delle grandezze caratteristiche:

- Altezza media dello stato di mare, H́ .


- Altezza massima dello stato di mare, H max .
- Periodo massimo dello stato di mare, T max.
- Periodo medio dello stato di mare, T́ .
- Media del terzo più alto delle onde registrate: riordino i dati di altezza d’onda dal più piccolo al più grande,
prendo il terzo che contiene i valori più alti e ne faccio la media, comunemente è indicata come altezza

d’onda significativa H 1 . Essa è l’altezza più significativa che rappresenta uno stato di mare.
3

A quest’ultima è possibile associare il periodo medio dello stato di mare, stando attenti che il procedimento per

determinarlo non è lo stesso per H 1 ! Non bisogna infatti riordinare i periodi dal più piccolo al più grande e poi fare la
3
media del terzo maggiore, ma va fatta la media del terzo maggiore della serie di periodi riordinati in maniera
coerente alle rispettive altezze d’onda (devo seguire l’ordine delle altezze d’onda). Altezze più grandi è vero che
hanno altezze maggiori ma non c’è una proporzionalità univoca, può essere che bassi periodi siano associati ad
altezze d’onda grandi e piccoli, non vale il viceversa per un problema di stabilità dell’onda.
Le altezze d’onda di uno stato di mare possono essere sempre rappresentate tramite una distribuzione di probabilità
di tipo Rayleigh. Significa che estraendo le altezze e periodi della serie e calcolando l’altezza d’onda significativa e

periodo medio (T 1 ≡T m), le altezze d’onda seguono la distribuzione indicata (densità di probabilità – valori di altezza
3
d’onda).
Figura 2: f=densità di probabilità (oppure p), P=probabilità di non superamento (oppure F)

Questa distribuzione è monoparametrica secondo σ 2 che va stimato a partire dai dati raccolti.

Remind:
- f = probabilità che la nostra altezza d’onda assuma determinati valori. Il picco è la moda (most probable
height) -> PDF
- P = probabilità che la nostra altezza d’onda non superi un determinato valore d’onda, si ottiene andando a
derivare f. -> CDF

Le curve che si ottengono non sono, ovviamente, continue a causa della natura dello strumento. In particolare, in
base a quanto detto fino ad adesso si nota che per il calcolo delle caratteristiche dell’onda sono stati di fatto
impiegati 4 punti (i due pallini rossi up-crossing, il massimo e il minimo) e tutto ciò che si ha nel mezzo non viene
minimamente considerato! (vedi par. successivo)

Analisi spettrale del moto ondoso:


Fino ad ora è stata quindi applicata un’analisi statistica del moto ondoso, l’analisi spettrale ne rappresenta
un’alternativa che permette di considerare la parte di segnale che nell’analisi statistica era trascurata . Questo tipo di
trattazione è evidentemente più complessa e articolata però permette di ottenere un maggior numero di
informazioni e parametri per il singolo stato di mare. L’aggettivo spettrale è riferito allo spettro di energia di uno
stato di mare. Nella seguente immagine viene rappresentato il segnale che viene registrato da una generica boa:
sull’asse delle ascisse viene rappresentato il tempo, mentre su quello delle ordinate il profilo della superficie libera

Ogni punto rappresentato si riferisce all’elevazione della superficie libera. Nell’immagine successiva viene
rappresentato lo stesso identico segnale con la differenza che con le croci rosse sono evidenziati punti up-crossing,
essi non sono sul valore 0, questo perché il rilevamento è discreto e non continuo e quindi non è detto che lo
strumento rilevi esattamente il punto nullo della superficie medio mare. Si prende infatti come zero l’ultimo valore di
η negativo prima di incontrare dei punti positivi. Inoltre, i punti di massimo e minimo per ogni rilevazione sono
indicati coi tondini blu. Col metodo statistico (metodo zero-crossing) vengono impiegato solamente questi punti
evidenziati e niente di più.

Per utilizzare tutti i dati disponibili si assume che l’oscillazione irregolare della superficie libera (estremamente
caotica e irregolare nel tempo) sia in realtà derivante dalla sovrapposizione di un numero infinito di segnali regolari
sinusoidali

Nell’immagine le onde però non sono orientate diversamente ma hanno esclusivamente uno sfasamento dei profili,
in altre parole una differenza di frequenza dei profili. Il segnale riportato in “Time” può essere quindi scomposto in
infiniti profili sinusoidali regolari. Matematicamente questo prende il nome di trasformata di Fourier

In particolare, n rappresenta la sinusoidale della singola onda regolare mentre ω è lo sfasamento delle componenti
che costituiscono lo stato di mare. Matematicamente è un ragionamento sensato che però ci aiuta poco per
caratterizzare definitivamente lo stato di mare, non si è interessati ad avere infinite componenti, perciò viene
impiegato un numero finito di onde che compongono il nostro segnale, questo numero finito di onde viene scelta in
base all’accuratezza con la quale si vuole definire η. Il numero di componenti da ottenere dipende dalla cosiddetta
Nyquist frequency. Normalmente è buina regola che in un’analisi spettrale siano presenti almeno 100 onde
all’interno dell’analisi temporale. Quindi, a partire da ogni punto grigio della fig. sopra vengono associati una η ed
una frequenza, viene in seguito applicata la trasformata di Fourier che ci permette di ricostruire la densità spettrale
di energia (ampiezza al quadrato diviso la frequenza, m 2s), nel grafico per ogni frequenza individuata calcoliamo una
densità spettrale che dipende dall’ampiezza perché, nuovamente, l’elevazione della superficie del medio mare nel
tempo η(t ) dipende dall’ampiezza dell’onda considerata ( An ) e dalla frequenza f n, quindi questi due valori sono
impiegati per costruire la spectral density.
I limiti che si impongono sull’asse x (per non avere un grafico infinito, con un limite superiore della frequenza ad
infinito) sono scelti in base a quelli che possono dare un contributo effettivo allo stato di mare andando a vedere le
componenti che effettivamente danno un contributo energetico. Ad esempio, nell’immagine riportata, nel caso in cui
la frequenza è maggiore di 0,6 Hz non danno contributi energetici, quindi bisogna porre un intervallo.

Nel Mediterraneo si considerano trascurabili onde con periodo superiori a 16 s. quindi con frequenza 1/16 (limite
superiore se ci riferiamo al periodo o limite inferiore se ci riferiamo alla frequenza), il periodo minimo (limite
inferiore o superiore se ci riferiamo alla frequenza) per definire lo spetro di energia è 1 o 2 sec.
Quindi a partire dai puntini grigi utilizziamo la trasformata di Fourier per ottenere lo spettro di energia riportato in
figura.

Analisi spettrale: lo spettro di energia


Ipotizzando di avere sempre onde diverse ma orientate sempre nella stessa direzione dalla loro somma si ottiene
quanto riportato in figura sotto (lì in verità le onde sono orientate con diverse direzioni ma il concetto è lo stesso)

Abbiamo quindi definito uno spettro di energia, rimanendo in uno spazio bidimensionale ci si riferisce quindi allo
spettro in frequenza in cui i due parametri in gioco sono l’ampiezza (che si traduce in densità di energia, asse y) e la
frequenza (asse x). Il contenuto energetico delle singole componenti può essere definito tramite spettri in frequenza
S( f ) che ci permette di calcolare i momenti di ordine r dello spettro.

Ove:
- S( f ) : spettro in frequenza
- f r: significa che la variabile di integrazione può esserci, qualora r >0 ; può non esserci qualorar =0
- σ η: viene chiamata forza dello stato di mare

Questo spettro, facendo variare r fra valori positivi e negativi, permette di calcolare tramite un’analisi dimensionale i
parametri che caratterizzano gli stati di mare (= momenti di ordine r). Se, ad esempio, il momento è di ordine 0 ( r =0
) si calcola l’altezza d’onda spettrale:

Questa grandezza dovrebbe essere molto vicina all’altezza d’onda significativa calcolata col metodo up-crossing o
down-crossing.
Qual è la convenienza di applicare questo metodo? Posso definire un maggior numero di parametri. Con il metodo

precedente invece ottengo solo l’altezza d’onda significativa e il periodo medio (per periodo medio si intende T 1 e
3

non T́ ). In base ad un’analisi dimensionale dei momenti di ordine r, da un loro rapporto si vede che si ottiene
sempre una misura in secondi, si ottengono quindi diversi periodi medi. Questo è importante perché a seconda
dell’ambito in cui si sta operando ci si riferisce a periodi medi differenti, un vantaggio non di poco conto . Per
esempio, i periodi più lunghi sono quelli più pericolosi perché associati ad onde più erosive. Viceversa, periodi più
piccoli si riferiscono ad onde più piccole che impattano più spesso la nostra struttura, il che comporta strutture di
protezione sollecitate principalmente a fatica. Si può anche calcolare il periodo di picco, il picco dello spettro è
quello associato alla frequenza che ha massima ampiezza (massimo contenuto energetico). Si nota quindi come sia
necessario impiegare l’analisi spettrale nel momento in cui si deve calcolare il periodo di picco o periodi medi
differenti, permette di arricchire molto le informazioni sullo stato di mare. Infatti, i modelli numerici impiegano
un’analisi spettrale sia per la generazione che per la propagazione degli stati di mare dal largo verso riva. Anche le
strumentazioni come le boe tramite un’analisi spettrale del moto ondoso forniscono le grandezze medie dello stato
di mare nell’arco di 15 min. di riferimento.

Analisi spettrale: lo spettro JONSWAP


Lo spettro di densità di energia si può, come detto, ottenere tramite i dati empirici che si hanno raccolti dagli
strumenti; in questo caso l’integrale per valutare lo spettro in frequenza può essere risolto in maniera numerica
tramite una sommatoria del contenuto energetico associato a ciascun punto rilevato. Se si vuole però modellare lo
stato di mare in esame si impiegano degli spettri modellati a partire da dati raccolti in tutto il mondo . Lo spettro
JONSWAP (anni ’70) ad esempio è stato modellato a partire da campionamenti effettuati nel Mare del Nord (un mare
molto energetico), ci sono pertanto alcuni accorgimenti nel momento in cui lo si voglia applicare alle nostre
latitudini.
La campana può quindi essere parametrizzata in base alla frequenza al picco f p, al fattore di impicchimento
(spanciamento) γ , alla velocità del vento che insiste su questo strato di mare e altre cose. In base a questi valori
possiamo riprodurre il nostro stato di mare grazie a questo modello. Precedentemente, in base a quanto esposto, a
partire da dati empirici e applicando successivamente la trasformata di Fourier si è ottenuto lo spettro energetico .
Adesso, applicando un modello, si agisce sostanzialmente al contrario (lo fanno tutti i modelli numerici di
propagazione del moto ondoso):
“…il mio stato di mare deve essere modellato secondo un modello di tipo JONSWAP in cui la frequenza di picco f p ha
valore noto (perché è noto U 10, cioè la velocità del vento che usiamo nel nostro omdello numerico come fonte di
energia per le onde e F , cioè il fetch), in cui γ anche ha valore noto (fattore di amplificazione che dipende dalla
situazione in cui siamo). A partire dallo spettro che si è definito il modello applicata una trasformata di Fourier al
contrario (a partire dallo spettro definito crea un numero finito di componenti, di onde e ciascuno di questi segnali
viene propagato). Perciò, nel momento in cui chiedo al modello di tirare fuori le grandezze significative in un altro
punto prefissato magari più vicino alla costa, il modello prende tutti i segnali che ha calcolato nel punto che gli
stiamo segnalando e ricostruisce uno spettro, calcola i momenti spettrali e restituisce tutte le info che ci servono”.
Per quanto riguarda le nostre latitudini (Mediterraneo) γ =2,2 .
Se ho un’onda di tipo swell mi aspetto che lo spettro sia molto impicchito perché mi basta solo una componente per
l’oscillazione della superficie libera (non è molto chiaro però secondo me perché le onde sono sostanzialmente tutte
uguali quindi il picco è sempre perché picco non varia). Viceversa, se ho un mare molto caotico in cui le onde sono
nel mezzo del fetch si hanno molte frequenze differenti e quindi il grafico sarà molto spanciato in ragione delle
differenti frequenze presenti.

Analisi spettrali: spettri direzionali


Fino ad ora abbiamo parlato solo di analisi bidimensionali! Un altro parametro cruciale per definire gli stati di mare è
la direzione di provenienza, che corrisponde all’orientamento delle onde attese. Ma come definiamo queste
direzioni? Col metodo down e up non possiamo definirla, con l’analisi spettrale si può in quanto essa può essere
estesa in uno spazio 3-D. Si passa quindi da un’analisi bidimensionale (spettro in frequenza – frequenza) ad un’analisi
tridimensionale (spettro in frequenza – direzione vs. frequenza – direzione, delle singole componenti). Ciascuna delle
componenti in cui decomponiamo il segnale totale ha una propria frequenza e ampiezza ma anche una propria
direzione. Nella figura sottostante sono presenti 3 assi:
- Asse z: densità spettrale, contenuto energetico delle singole componenti. Esso non è più una curva ma una
superficie.
- Asse x: direzione, espressa in radianti.
- Asse y: frequenza.
Ciascuna delle componenti, che apporta energia allo stato di mare, ha una sua frequenza (periodo) ma anche una
sua direzione, si può associare un contributo energetico a ciascuna frequenza e ciascuna direzione. A partire dal
modello 2-D si moltiplica lo spettro in frequenza per una funzione definita spreading function, definita come D(θ)
che ci dice quanto le nostre onde sono coerenti in termini direzione rispetto alla frequenza di picco , nell’immagine
sotto (che rappresenta uno spetro di energia) si vede come il picco di energia è concentrata attorno alla direzione di
libeccio (225°, ovviamente l’immagine si riferisce a Genova).

Quindi gli spettri di energia ci danno informazioni in termini di:


- Altezza d’onda significativa
- Periodi medio
- Periodi di picco
- Direzione media
- Direzione di picco

Extreme values analysis (EVA):


Queste analisi sono lo strumento alla base della progettazione di opere di ingegneria marittima costiera e off-shore,
dato un trascorso di 10 anni di dati di altezze d’onda significativi si possono valutare dei parametri progettuali per le
opere in esame. Per motivi legati alla capacità di memoria degli strumenti non è fattibile dare un output di dati ogni
15 min e perciò ogni 3 ore (a volte anche ogni ora) vengono forniti i dati sui parametri identificativi dello stato del
mare, attenzione non sono però dati mediati nelle tre ore. Questa serie di dati storici è calcolata coi metodi visti fin
ora (di fatto analisi spettrale), sullo stato di mare singolo viene calcolato un parametro medio significativo e poi su
una serie di parametri significativi si fa un’analisi ai valori estremi e si calcolano i parametri di progetto dell’opera.
Immaginiamo di dover dimensionare una diga a gettata (massi accatastati) in modo che resista a delle forzanti di
progetto associate ad un tempo di ritorno di 100 anni e ricostruite a partire dai dati raccolti negli ultimi 40 anni (se va
bene). Per poter calcolare l’altezza d’onda associata al periodo di ritorno di 100 anni bisogna ricorrere ad
estrapolazioni statistiche in base ai dati a disposizione, queste estrapolazioni prendono il nome di analisi ai valori
estremi. A partire dai dati di partenza viene applicato un modello statistico per prevedere statisticamente
determinati livelli di probabilità per la distribuzione. Dapprima si seleziona un insieme significativo di dati, ci sono 3
metodi per selezionare i dati:
- Total sample method: prende tutto il dataset a disposizione, porta dei vantaggi perché non butta via nulla
però ci sono molti svantaggi in termini di ipotesi che vanno rispettate per applicare la EVA. Approccio
vivamente sconsigliato. Utilizzato negli istituti norvegesi per quanto riguarda le normative di good practices.
- Annual / Monthly maxima method: suddivido la serie in intervalli definiti e prendo il massimo
dell’intervallo, la durata dell’intervallo può essere annuale o mensile come dice il nome.
- Peak Over Threshold (POT): metodo largamente più utilizzato, picco sopra soglia, si seleziona un valore di
soglia sulla variabile che si sta studiando e seleziono i dati che eccedono la soglia, fra questi, in base a
operazioni che vedremo, se ne può selezionare un sottoinsieme. È il metodo migliore perché un
compromesso fra i primi due: non butto via molti dati come nell’AM né ne utilizzo troppi come in ID , il che
porta delle difficoltà nel rispettare le ipotesi alla base dell’analisi dei valori estremi. Anche questo metodo
però ha trabocchetti, il valore di soglia spesso rischia di essere definito in maniera soggettiva.

EVA: le regole del gioco


Ipotizziamo di avere un campione generico di dati Z, all’interno di questo campione ipotizziamo di selezionare due
variabili: variabile 1 (X) e variabile 2 (Y).

1. Omogeneità del campione: i dati che noi selezioniamo dal campione devono provenire dalla stessa
distribuzione di probabilità. La distribuzione di probabilità riferita alla variabile 1 e quella riferita alla variabile
2 devono restituire lo stesso valore in riferimento al campione a disposizione . La distribuzione di probabilità
la scegliamo noi in base a come vogliamo rappresentare i campioni osservati.

2. Indipendenza: i dati presi all’interno di un campione osservato devono essere mutuamente indipendenti,
questo si traduce così:

I dati di partenza non devono quindi presentare autocorrelazione, inoltre l’insieme di queste due ipotesi prendi il
nome di IID conditions (independent identically distributed).
Ciò permette di capire come scegliere un ID pone un problema in termini di indipendenza del campione: se si
dispone di un dato su scala oraria è evidente che i campioni non sono fra loro indipendenti (se alle 17 ho una
mareggiata è molto probabile che il mare sia mosso prima delle 17 e che alle 18 sia ancora molto mosso, la
successione dei dati rispetta una certa legge, una certa correlazione come, ad esempio, una crescita monotonica).
Quindi in generale si sconsiglia l’utilizzo di ID, mentre se si hanno una quartina o una trentina di dati annuali a
disposizione si può adottare tranquillamente un AM, mentre se si hanno solamente dati riferiti agli ultimi 10 o 20
anni sarebbe meglio impiegare un POT.
In generale, all’interno della comunità scientifica, vale la seguente affermazione:

“Le stime (estrapolazioni) statistiche che si possono fare sono attendibili fino a un tempo di ritorno 3 volte maggiore
del periodo di dati a disposizione”

Quindi su dati che ricoprono un arco temporale di 40 anni è possibile effettuare una estrapolazione statistica
attendibile (con basso margine di errore) e dettagliata fino a un tempo di ritorno di 100/120 anni.

EVA: Peak over threshold


La POT permette di avere dei campioni sufficientemente estesi, verificando la condizione di IID tramite opportuni
test statistici. Per questo tipo di metodo si possono scegliere i dati in due modi differenti:
- Considerare tutte le eccedenze di soglia, ove permangono problemi relativi all’indipendenza dei dati come
per il total sample method.

- Per ovviare a questo problema si può effettuare un declustering delle eccedenze, il punto di riferimento in
questo caso diventa il massimo valore del gruppo di eccedenza.

Nell’immagine sopra riportata si nota però che vi sono due distinti gruppi di eccedenza caratterizzati dai due
picchi distinti, la discriminante nella scelta del picco dipende da un parametro da introdurre che è il tempo di
inter-arrivo di due gruppi di eccedenze.

Il tempo di inter-arrivo è l’intervallo temporale che deve passare affinché due gruppi di eccedenze possano
considerarsi eventi separati, in altre parole corrisponde al tempo che passa fra l’ultimo punto di eccedenza del primo
cluster e il primo punto di eccedenza del cluster successivo. Questo tempo va confrontato con un tempo di inter-
arrivo di soglia fissato a priori (solitamente 12 o 24 ore). Se il tempo che intercorre è inferiore alle 12 ore i due gruppi
sono considerati come un unicum e perciò il valore massimo che si prende è uno solo (non si hanno più due
mareggiate ad esempio ma una sola), se il tempo intercorso è invece superiore al tempo di inter-arrivo limite allora
non si avrà una sola mareggiata ma due ed individueremo perciò due picchi. Quindi:
1. Dapprima seleziono i dati.
2. Secondariamente verifico che essi siano indipendenti e non autocorrelati.
3. In ultimo devo verificare che essi siano correttamente modellati dal modello da noi scelto.

EVA: indipendenza dei dati


La verifica dell’indipendenza dei dati può essere fatta sia per via analitica che per via grafica.
Per quanto riguarda la verifica di tipo grafico, viene riportata nell’immagine un campione di dati selezionato tramite
il declustering delle eccedenze derivanti dal metodo POT e sono individuati dei valori di soglia in grado di originare
un campione adatto per un’analisi EVA, la funzione di autocorrelazione è contenuta all’interno di intervalli di
confidenza che sono rappresentati dalle due linee blu.
I lag ci dicono qual è la correlazione di ogni elemento con quello successivo (lag=1), con i due successivi (lag=2) e così
via, in questo caso l’autocorrelazione è stata calcolata fino a 20 (autocorrelazione fino a 20 picchi di mareggiata
rispetto a quello che sto osservando). Nell’immagine emerge una certa periodicità legata alla stagionalità delle
mareggiate, ma sono valori contenuti all’interno dell’intervallo di confidenza, nessun problema: il campione è non
auto-correlato. In corrispondenza di 0 ovviamente l’autocorrelazione è 1 dal momento che il primo elemento è
uguale con sé stesso. L’autocorrelazione infatti varia fra valori compresi fra -1 e 1, se vale 0 due elementi non sono
correlati, se vale -1 essi sono perfettamente anti-correlati se vale 1 invece essi sono perfettamente autocorrelati.
Nell’immagine successiva invece sono riportati una serie di dati che sono correlati in una misura che eccede
l’intervallo di confidenza, in questo caso i dati sono altamente auto-correlati e non possono essere impiegati per una
EVA

Per quanto riguarda una verifica analitica possono essere invece impiegati dei test non-parametrici (test che vale a
prescindere dalla distribuzione dei dati), di seguito viene riportato il test di Kendell(?) che permette, a partire dai dati
empirici, di calcolare un valore empirico del parametro del test (τ di Kendell, N=numero di dati a disposizione, N d
=indicatore delle posizione dei dati all’interno della serie) che va confrontato con un valore che dovrebbe verificarsi
qualora il campione non fosse soggetto ad autocorrelazione: se il campione presenta dati non auto-correlati il τ non
empirico dovrebbe avere un certo valore ed ha una media rappresentata da E ed una varianza rappresentata da Var.
Confronto di fatto questo valore con quello empirico calcolato.
Se il P-value è inferiore al 5% rigetto l’ipotesi di auto-correlazione, se è superiore a tale valore il τ approssima bene la
teoria di kendell e i dati non sono auto-correlati.

EVA: Peak over threshold


Come detto, definito il tempo di inter-arrivo e l’altezza d’onda di soglia, vengono individuate un numero di
mareggiate che superano la soglia e per ognuna di esse viene individuato il picco. Applicare questo metodo di
declustering delle eccedenze porta con sé dei vantaggi:
1. Semplicità dei calcoli per i valori estremi
2. Non si hanno problemi nel verificare la condizione di auto-correlazione, i test sono solitamente soddisfacenti
se applichiamo il declustering
3. Possibilità di accoppiare altezza d’onda e durata di ogni mareggiata, che permette di fare analisi
maggiormente dettagliate.

EVA: Generalized Pareto Distribution (GPD), cioè fit dei dati ottenuti con POT
Per calcolare i valori progettuali dobbiamo modellare i nostri dati con una distribuzione di probabilità, nell’analisi di
singoli stati di mare l’analisi tramite modelli di Rayleigh è obbligata, nel caso di dati selezionati tramite POT questo
non è vero, si hanno infatti diverse distribuzioni possibili. Di seguito viene riportata la GPD che di fatto è quella che
quasi sempre viene impiegata per descrivere serie di dati selezionati tramite approcci POT, ci sono poi anche dei
teoremi matematici che lo dimostrano.

Remind:
- CDF = cumulative distribution function, probabilità di non superamento (di un determinato valore) della GDP
La CDF può essere definita sia empiricamente che teoricamente (legata ad una determinata distribuzione),
assumendo i dati indipendenti e modellabili attraverso una GDP stiamo assumendo che il campione osservato è una
delle possibili realizzazioni di una distribuzione di tipo Pareto. La CDF di Pareto è quindi tri-parametrica, se il
parametro di forma è pari 0 la GDP diventa uguale ad una distribuzione esponenziale. Quindi la probabilità di non
superamento della GDP può essere definita in funzione di un qualunque valore della nostra variabile. Per la stima dei
parametri si possono utilizzare:
- Massima verosimiglianza 
- Momenti  eguaglio momenti della distribuzione (media, varianza, skewness, Kurtosis…) ai momenti
empirici della serie di dati, ho un sistema di n equazioni in n incognite.
- L-momenti  Simile al precedente, semplifica il calcolo nel sistema, i 3 parametri possono essere valutati in
funzione di grandezze che dipendono dai valori del campione osservato ( λ 1 , λ2 , τ 3) e della CDF empirica
(empirical cdf).
La cosiddetta ECDF viene definita come segue:

Ove l’indicatore i rappresenta la posizione dell’elemento i-esimo all’interno del campione riordinato di dimensione
N.

Esempio:
Dati 4 elementi: 1 (i=1), 7 (i=3), 3 (i=2),
Si ha:

1
eCDF ( z=1 )=
3+1
3
eCDF ( z=7 ) =
3+1
2
eCDF ( z=3 ) =
3+1

Se al denominatore mettessimo N si otterrebbe una CDF pari a 1, la probabilità certa in natura non esiste così come
quella nulla (CDF=0), il denominatore così scelto permette di evitare che si verifichino situazioni irrealizzabili

Figura 3: eCDF (sx.), eCDF e CDF sovrapposte (dx.)


Uno dei metodi per verificare l’omogeneità dei dati è vedere se la curva teorica approssima in maniera
sufficientemente accurata la eCDF empirica ottenuta a partire dai dati, dall’immagine sopra (dx.) si vede che
l’approssimazione del modello è abbastanza debole in relazione ai dati empirici.
Per arrivare ai valori di progetto di altezza d’onda dobbiamo valutare la probabilità di non superamento di un valore:
invertiamo la distribuzione che abbiamo individuato per calcolare il valore relativo al quantile di riferimento. Quindi,
stimati i parametri, se imponiamo ad esempio 0,8 (80%) come valore di non superamento andando a leggere sul
modello teorico il valore della variabile che restituisce per quella probabilità abbiamo ottenuto la sollecitazione di
progetto (fig. sopra a dx.)

EVA: tempo di ritorno


I valori dell’altezza d’onda di progetto sono valutati a partire da un tempo di ritorno fissato, esso è legato alla
probabilità di non superamento. Non ci sono normative stringenti in ambito marittimo, ma solo delle
raccomandazioni. La probabilità di non superamento si valuta come:

T R = tempo di ritorno, fornito da normativa, valore fisso.

λ = numero medio di eventi estremi (picchi del declustering ad esempio, 40 anni di dati 120 mareggiate significate,
λ=3) che si sono verifica ogni anno, esso dipende ovviamente da come abbiamo definito la soglia e il tempo di inter-
arrivo, valore variabile!

Questo workflow ci fare analisi di tipo monovariato (serie di dati, impongo approccio POT, seleziono mareggiate,
valore progettuale per T=100 anni):
EVA: i risultati
Se l’analisi è monovariata omni-direzionale si calcola una curva (blu, che nasce dalle GDP) con relativi intervalli di
confidenza (tratteggio) previa verifica che i dati vi stiano all’interno (pallini rossi).

Se invece si considerano delle particolari direzioni (filtro preliminare sulla direzione) i return values gli assi della scala
cambiano:

- Libeccio: l’altezza d’onda per periodo di ritorno di 100 anni è pari 6.8 m.
- Scirocco: l’altezza d’onda per periodo di ritorno di 100 anni è poco meno di 5 m.

Solitamente si accoppiano:

Metodo di selezione degli eventi


Modello
(selezione delle mareggiate significative)

Annual Maxima Generalized Extreme Values

Peak Over Threshold Generalized Pareto Distribution

È importante sottolineare che la GDP è una derivazione della GEV.

EVA: alcuni esempi normativi


Non sono stringenti, alcune dicono addirittura di non usare la Pareto, quando invece si usa sempre. Ancora, l’autorità
portuale di Genova consiglia di adottare un tempo di ritorno di 200, non sono normative cogenti. Discorso
ovviamente diverso per le opere fluviali, che per normativa devono essere realizzate per sopravvivere ad eventi
caratterizzati da un tempo di ritorno di 200 anni. In ambito costiero i tempi di ritorno ragionevoli sono compresi fra i
100 e 200 anni.
EVA: analisi bivariate (i.e le variabili sono correlate)
Se diventa rilevante calcolare anche la durata della mareggiata o il periodo di progetto oltre che l’altezza d’onda? Lo
si fa tramite delle semplici formule parametriche, come ad esempio:

T picco=8,5 π (√ 4hg )
s

Queste analisi non sono altro che un fitting effettuato in due dimensioni, la linea continua di probabilità diventa una
superficie continua di probabilità: ad un’onda sono associate diverse probabilità e quindi diversi picchi.
h s è valore noto. Tuttavia, la relazione di cui sopra non è di proporzionalità perfetta fra altezza e periodo e fornisce
una curva e non una superficie. L’approssimazione è forte. Si possono perciò utilizzare metodi statistici più raffinati
come, appunto, le distribuzioni bivariate che impiegano superfici isoprobabili (min. 54:00 lect.6).

N.B: Con i codici: spectral_analisys, up_cross e down_cross si hanno tutti gli strumenti per definire dei parametri
relativi a degli stati di mare a partire da dati relativi all’oscillazione della superficie libera. Dopodiché si potrebbe fare
un’estensione a una dimensione in più (spostamento orizzontale) dato che il workflow nell’analisi spettrale è
identico, la complicanza sta nell’impiego della funzione di spreading.
LEZIONE 1: Introduzione
Bibliografia:
Tra le altre PIANC-AIPCN Technical Reports (istituzione internazionale) pubblica linee guida legate a infrastrutture
marittime (noi siamo iscritti come Unige e quindi abbiamo a disposizione tutti i report, basta chiedere per
approfondire). Il Coastal Engineering Manual è invece liberamente scaricabile sulla rete.

Dighe: opere di difesa per proteggere specchi d’acqua (aree portuali o terminali) dall’azione delle forzanti
metereologiche quali sono le onde.
Nell’immagine sotto le navi devono scaricare e caricare merci in sicurezza, si costruisce quindi un ostacolo in grado di
frangere il moto delle onde e generare uno stato di calma a tergo della diga.
Le dighe a gettata sono chiamate così perché in origine venivano fisicamente gettati dei sassi in mare. Alla Foce
(Genova), a protezione del nuovo porto turistico, è realizzata una diga a getta (in questo caso, a differenza della foto i
massi impiegati sono artificiali, in cls.).
In alternativa, si può avere una diga a parete verticale costituita da un elemento prefabbricato (un muro) che
rappresenta l’ostacolo a contrasto del moto ondoso. A seconda dei mezzi economici e delle capacità tecniche si
sceglie una diga piuttosto che un’altra, quest’ultimo tipo di diga è molto costosa ad esempio. Esse vengono
solitamente realizzate impiegando dei cassoni cellulari che vengono trasportati nel punto prestabilito tramite
galleggiamento e successivamente affondati.

Le opere di accosto sono elementi che garantiscono l’attracco e il posizionamento delle navi all’interno del porto, in
gergo si chiamano banchine e devono presentare alcune caratteristiche:
- Un paramento rivolto verso la nave con elementi di protezione sia della nave che della banchina
- Pescaggio adeguato, di fronte alla banchina la nave deve avvicinarsi in sicurezza. La profondità è regolata in
base alle navi che devono essere accolte (nave di progetto) le quali impongono le caratteristiche di progetto
a tutto il porto.
Nell’immagine sottostante si vede un terminale contenitorio in cui sono attraccate due navi contenitori, le opere
d’accosto sono quindi banchine rettilinee dove possono attraccare 2 o più navi in grado di sostenere tutte le
strutture necessarie per la movimentazione delle merci (gru ad esempio). Queste opere devono essere attrezzate
con altri elementi utili per l’operatività dell’infrastruttura, in particolare nell’immagine sotto sono messi in evidenza i
parabordi utilizzati per assorbire l’energia d’urto delle navi e le bitte, elementi atti ad attraccare la nave. Questi
elementi sono cruciali perché devono sostenere carichi significativi e influisce sulla sicurezza delle opere portuali.

Le opere d’accosto possono essere di diversi tipi, si possono avere anche elementi snelli e lunghi come pontili, la
tipologia di infrastruttura dipende dalla tipologia di merce che si sta movimentando: merci diverse e modalità di
trasporto diverse hanno necessità di spazi e infrastrutture diverse (nell’immagine sotto pontile per stoccaggio di
carbone e minerali).
Lo stesso approccio si impiega per le rinfuse liquide, dove non serve una grossa infrastruttura a terra come i pontili e
riducendo al minimo l’infrastruttura da costruire. Addirittura, negli scarichi petroliferi si riducono ancora le
infrastrutture necessarie. Fino ad arrivare alle strutture più isolate costituite da una stazione di pompaggio che
impiega tubi di sottomarini collegati alle centrali di stoccaggio.

Vi sono opere speciali quali bacini di carenaggio: grandi vasche che servono per ospitare grosse imbarcazioni per
effettuare riparazione o manutenzione. A Genova vi sono 6 vasche di carenaggio e tira molto all’interno del porto.
Questi elementi sono molto particolari in termini di sollecitazioni alle quali sono sottoposti.

Se ci sposta verso il largo si hanno strutture su pali e offshore, per essere realizzate esse devono ancorarsi sul mare,
solitamente si impiegano strutture reticolari che si ancorano al fondale marino. È fondamentale capire il
comportamento idrodinamico di un elemento snello sottoposto all’azione dinamica di un fluido. È uno dei settori che
si sta sviluppando maggiormente in campo ingegneristico è la realizzazione di parchi eolici off-shore, non vengono
richiesti solamente requisiti progettuali in termini di prestazioni ma anche di erosione alla base del palo e di scavo in
prossimità delle fondazioni.
LEZIONE 2: Dighe a gettata e a parete verticale

Sostanzialmente sono ostacoli fatti con accumulo di massi.


In generale, per progettare una diga va primariamente scelta la collocazione planimetrica. Essa deve difendere il
porto dai marosi più energetici, in particolare, come è stato precedentemente esposto, le onde sono caratterizzate
da tre grandezze:

- Altezza
- Periodo
- Direzione di provenienza

Perciò la prima cosa che si fa per realizzare un porto è uno studio meteo-marino, studio il vento e le onde per capire
da dove vengono le onde più energetiche e con quale frequenza. Solitamente si identifica una traversia principale:
spicchio di cerco da dove provengono le mareggiate più energetiche (quelle con altezze d’onda maggiori ). La
traversia principale individua quindi la direzione principale sulla quale devo difendere l’ambito portuale, questa
direzione prende il nome di direzione dei mari dominanti. La diga principale (diga foranea) perpendicolarmente alla
direzione di provenienza di queste onde così da avere acqua calma a tergo della diga. Inoltre, sono presenti anche
delle onde energetiche non trascurabili con direzione differente da quella principale, le mareggiate che arrivano da
altre direzioni agiscono lungo la cosiddetta traversia secondaria. Le onde appartenenti a questa direzione
potrebbero penetrare nel bacino portuale e generare problemi di operatività e sicurezza delle operazioni, per questo
motivo viene realizzata una diga secondaria (diga di sottoflutto) per smorzare il moto ondoso proveniente dai settori
di traversia secondaria ed evitare il fenomeno di agitazione interna portuale. Essa è apposta realizzata per cercare di
minimizzare l’agitazione interna. Questo discorso vale indipendentemente dal tipo di diga che si costruisce. La scelta
sulla tipologia di opera avviene in base a due criteri fondamentali:

- Criterio idraulico  metto una diga a gettata se le onde potrebbero frangere sulla diga, metto una diga a
parete verticale se le onde non frangono ed ho alte profondità (quelle a gettata sarebbero molto care per la
quantità di materiale necessario). Perché le onde quando frangono trasportano massa e le dige verticali
potrebbero muoversi e rompersi (sono difficilmente riparabili). Le dighe a gettata riescono a dissipare
l’energia delle onde e mantenere la loro posizione anche nel caso di onde frangenti.
- Criterio costruttivo  legato alla disponibilità di materiale e maestranze.

Esempio: Diga di Punta Riso


Brindisi, la diga è divisa in due parti (a gettata e a cassoni) differenti perché il primo è su basse profondità che
aumentano progressivamente e sono quindi stati adottati i cassoni (-25 - -35 mt.). Si possono quindi combinare
tipologie differenti in funzione dell’ottimizzazione.

Diga a gettata:
La classificazione degli strati viene fatta in tonnellate o comunque in relazione al peso.

1. Accumulo di materiale, nucleo. Materiale di cava (lapideo tout venant, cioè non selezionato
granulometricamente) generico generalmente costituito da pezzi piccoli dal momento che il peso indicato va
da 0,1 a 1000 Kg, ma raccolto in maniera da evitare materiale troppo fine o elementi troppo grossi.
2. Massi 0,05 – 1:
3. Massi 3 – 7:
4. Tetrapodi 16 m3:

Questi 3 strati sono definiti strati filtro (realizzati tramite elementi lapidei), essi servono per aumentare pian piano la
dimensione degli elementi per arrivare all’elemento più grosso che si mette a contatto con le onde. Essi sono messi
per evitare che si abbiano fenomeni di dilavamento del nucleo verso l’interno. Se mettessi subito i tetrapodi
direttamente sul nucleo, la naturale porosità dei tetrapodi non impedisce al materiale del nucleo di venire “portato
via” dalla forza delle onde. Essi permettono una transizione graduale dal nucleo ai fino allo strato più esterno
(tetrapodi) definito come mantellata (strato che resiste all’azione delle onde).
La mantellata non arriva fino al fondale ma raggiunge una profondità di circa 14 m., alla base della mantellata viene
realizzata una cosiddetta opera al piede. Essa serve per bloccare la mantellata, per evitare che gli elementi che la
costituiscono rotolino fino sul fondo del mare. L’opera al piede è posizionata sopra gli strati filtro e nemmeno lei
arriva fino al fondo del mare. Questo viene fatto perché gli elementi più grossi (i tetrapodi) sono quelli che costano di
più, da una certa profondità in poi l’azione delle onde diminuisce e quindi non è necessario impiegarli sotto certe
profondità. La mantellata tuttavia può arrivare fino in fondo nel caso particolare di onde molto energetiche anche
per basse profondità, di conseguenza anche l’opera al piede è adagiata sul fondale.

Nella parte più interna ci sono acque calme (il porto) non serve quindi impiegare le mantellate. Tuttavia, è presente
una superficie protettiva atta a contrastare fenomeni di onde interne (navi che passano) definiti come agitazione
interna del moto ondoso oppure fenomeni di tracimazione che possono creare un getto erosivo a tergo della diga.
Il muro o massiccio di coronamento (elemento a L) solitamente viene realizzato quando si vuole rendere accessibile
la sommità della diga. Nei porti turistici viene generalmente costruito, nei porti commerciali viene fatto per poter
ispezionare la diga.

Diga a parete verticale:


I volumi di materiale per questo tipo di diga sono particolarmente contenuti. Essa è generalmente costituita da 3
elementi:
1. Imbasamento: strato di terreno che fa da fondazione e sul quale si appoggiano i cassoni cellulari. Esso
ridistribuisce il peso del cassone sul terreno sottostante (i terreni sotto il mare fanno schifo) . L’imbasamento
è costituito da elementi piccoli, inoltre esso permette il corretto posizionamento dei cassoni. I cassoni sono
infatti prefabbricati negli impianti con altezze limite, di conseguenza l’imbasamento è costruito in funzione
dell’altezza massima del cassone. Il suo dimensionamento inoltre è molto importante perché può generare
problemi di interazione con le onde se mal concepito.
2. Cassone: è l’elemento più importante ed ha il compito di fermare l’azione delle onde. Di fronte al cassone
sono presenti i cosiddetti massi guardiani (quelli tratteggiati).
3. Massiccio di coronamento: ricopre il ruolo di contrasto nei confronti del fenomeno di tracimazione
LEZIONE 3: Introduzione alle verifiche progettuali

Non c’è una soluzione univoca quando si parla di dighe, la scelta finale dipende da molti fattori come:

- Disponibilità dei materiali


- Profondità
- Tipologia fondale
- …

Sostanzialmente si mantiene la stratigrafia generale prima descritta, sono i materiali impiegati a definire la differenza
fra le diverse realizzazioni.

Verifiche progettuali:
Quando si dimensionano questo tipo di opere, il primo passo è, in linea del tutto generale, la valutazione degli
ingombri e il costo generico. Generalmente per questo tipo di opere si considerano due tipologie di verifiche:
- Risposta idraulica: analisi condotte per definire correttamente la sezione trasversale della diga (il profilo). A
seconda di come è concepita possono esservi aspetti che magari non sono soddisfatti (tracimazione)
- Risposta di stabilità: fondamentalmente verifica sulla resistenza al danneggiamento del manufatto nei
confronti dell’azione delle onde, l’opera deve essere in grado di mantenere la sua funzione senza
danneggiarsi.
Solitamente queste verifiche sono fatte in parallelo e sono risolte secondo operazioni iterative, a partire da un primo
tentativo si sviluppa il progetto sulla base degli input forniti dei committenti (autorità portuali o enti regionali).
Quando si inizia a dimensionare questo tipo di infrastrutture, tutte le relazioni di verifica/progetto sono state
formulate su esperimenti di laboratorio o osservazioni di campo su dighe esistenti perché la natura dei processi fisici
coinvolti è complessa ed è difficile creare un modello semplificato. Negli ultimi anni sono stati fatti passi avanti sul
campo ma comunque non si è risolto il problema. Tutte le formule che si trovano sui manuali sono perciò valide
sotto strette condizioni sperimentali, se mi allontano da queste condizioni la relazione individuata non è corretta.
Inoltre, se si parla di relazioni ottenute in laboratorio esse si basano su modelli in scala, il modellino deve quindi
essere ben accurato pur sapendo che certe quantità devono essere correttamente scalate. Questo limita il campo di
validità delle formule in base al modello fisico-geometrico impiegato.

DIGHE A GETTATA

Dimensionamento della mantellata:


Solitamente, è la prima verifica che viene condotta: definizione degli elementi che costituiscono lo strato più esterno
della diga. Deve essere lo strato più robusto. Storicamente si iniziano a fare ste verifiche nel 1958 grazia ad Hudson,
egli infatti relaziona il diametro medio dei massi con le caratteristiche delle onde (altezza caratteristica del moto
ondoso) con la pendenza della mantellata e con un coefficiente di stabilità. Solitamente quello che si ottiene è la
massa dei massi. Nella formula sottostante H corrisponde all’altezza d’onda significativa

Questa verifica viene fatta prima calcolando il diametro medio dei massi D n 50 e poi la loro massa, ogni elemento è
esemplificato come un elemento cubico con dimensione pari al diametro medio dei massi . La densità dei massi
cambia ma solitamente è intorno ai 2600 Kg/m^3. Tale relazione è empirica sulla base di esperimenti relativi allo
spostamento di un ammasso di pietre sotto l’azione delle onde, risulta infatti molto difficile fare un modello
numerico sia per il singolo masso che per l’insieme id massi.

Nell’immagine sopra il punto d. corrisponde al danneggiamento in cui la massa al piede non riesce a sostenere il
rotolamento dei massi di mantellata. I massi resistono all’azione delle onde in virtù del loro peso e alle azioni mutue
che si scambiano. Fondamentalmente quindi forza di attrito dovuta alla gravità e interazione coi massi vicini.

Tutti gli elementi della formula citata si possono calcolare o sono fissati in sede di progetto. Il coefficiente K d
dipende dalle caratteristiche dell’elemento (più o meno spigoloso), da dove lo posiziono all’interno della diga (tratto
centrale o tratto di testata, che è la zona più delicata ed esposta) e dal frangimento o meno delle onde sulla
profondità di impianto della diga: a partire dalla condizione indisturbata (senza diga) e da dove si pensa di localizzare
la diga va visto se al suo piede le onde presentano frangimento o meno. Sono quindi presenti delle tabelle in cui il
valore di K d è dato in funzione dei parametri sopra citati.

Tabella 1: presa dal Shore Protection Manual (1977), è quello che ha ottenuto Hudson con i suoi esperimenti (la cot α è il range di pendenza
degli esperimenti)

La percentuale della tabella sopra si riferisce al grado di danneggiamento, questo perché le dighe a gettata sono
riparabili rifiorendo (rinfoltimento) la massicciata se i danni sono contenuti. Oltre il 15% il danno non potrebbe
essere recuperabile, questo accade quando le onde espongono lo strato di nucleo che si erode molto velocemente.
Sempre nello SPM è presente una descrizione del K D molto estesa, Hudson infatti ha fatto degli esperimenti sia su
massi artificiali (quarrystone) che naturali (Rough Angular) e ha elaborato una tabella:

- n = numero di strati su cui pongo gli elementi


- Placement = posizionamento del masso
- Strucutretrank = fusto principale della diga
- Strucuture Head = testa della diga
- Breaking wave = onde già frante al piede della struttura
- Nonbreaking wave = onde non ancora frante al piede della struttura
- Slope = pendenze per cui sono stati fatti gli esperimenti

Come si può vedere dalla tabella di Hudson ha una forte variabilità, solitamente per dighe a gettata (per un trank
normale) è circa 4. Minore è K D più grande è il masso della diga.

Figura 4: n corrisponde al numero di strati, solitamente i massi sono messi in doppio strato, raramente in singolo strato

Il danneggiamento è definito come la percentuale dell’area segnata: quanta area è stata liberata dal movimento di
eventuali massi diviso il profilo originale

Vi sono diversi livelli di danneggiamento:

- No damage: non si muove niente, ovviamente questo in seguito al posizionamento dei massi che per natura
si assestano.
- Initial damage: poche unità vengono spostate, solitamente corrisponde allo 0 - 5 %, eventualmente anche
trascurabile.
- Danno intermiedio: varia fra il danno moderato e quello severo, è un danno ancora riparabile una volta
terminata la mareggiata. In caso contrario può portare alla failure e al collasso della struttura.

Il masso viene scelto a partire da un numero preciso (es: 7 tonn e 727 Kg), tuttavia chi ce li fornisce (le cave) li ottiene
tramite esplosione e non può fornire un masso dal peso esatto richiesto e soprattutto tutti i massi uguali dello stesso
peso. Solitamente si ragiona in un range di peso, il valore di progetto è pertanto un valore mediano, l’intervallo di
incertezza sul peso dipende dal peso di progetto del singolo masso della mantellata.

Tabella 2: Narrow grading - Van der Meer

Nell’esempio citato ci troviamo nella terza classe (5-10 tonn.), il masso mediano è 7.5 tonn., si possono quindi
accettare sassi di peso pari al 60% del masso progettuale o del 30% in più. Inoltre, è richiesto o buona norma che(?)
almeno il 50% degli elementi sia più pesante del peso di progetto. Il range si stringe man mano che i massi si
ingrandiscono, questo perché le forzanti esterne aumentano e quindi non posso avere incertezze sul loro
comportamento. In cava quindi viene dato il peso nominale (M_50) e il range sul quale la cava può lavorare. Sotto si
vede come si restringe il range al variare della massa.

Il limite è posto a 20 tonn. perché in cava difficilmente si riescono a produrre massi di pesi maggiori, in questo caso
non si usano più i massi naturali ma quelli artificiali, essi non hanno problemi di grading perché non si ha variabilità
sulla dimensione della massa e si è in grado di produrli tutti uguali. La scelta fra massi naturali e artificiali dipende
dalla disponibilità del materiale (massi naturali con massa mediana superiore ai 10 000 kg sono difficilmente
reperibili in sufficiente quantità), da fattori estetici e ovviamente da valutazioni di carattere economico.
Dal punto di vista commerciale sono definite delle categorie di massa, queste categorie sono utili per le stime di
spesa:
Impiegando questo tipo di categorizzazione (Narrow- grading) è possibile ottenere mantellate sufficientemente
chiuse (vuoti pari al 40%), adeguatamente permeabili (dissipa la forza dell’onda grazie ai moti di filtrazione, in caso
contrario possiamo avere dannosi fenomeni di risalita) e agevolmente costruibili.
Definita la dimensione del masso (diametro), rimane il problema del computo ove vanno definiti:
- Spessore della mantellata, in funzione del numero di strati di un coefficiente di posa (quanto aumenta
l’impaccamento se metto più layer) e dalle caratteristiche del masso.

- Densità di posa in opera dei massi per m 2: nota la pendenza della mantellata e noto lo spessore si riesce a
definire quanti massi sono presenti per metro quadrato. Così facendo possiamo sapere quanti massi mi
ρs
servono per l’opera e quindi è possibile fare una stima del costo ( corrisponde al diametro): se moltiplico
M
la densità di posa in opera per metro quadrato N a per i metri quadrati della mantellata si ottengono il
numero degli elementi necessari

Tabella 3: elementi artificiali più diffusi, in genere non sono armati e sono realizzati tramite casseri specifici.

Le diverse forme dei massi derivano da performance di resistenza, gli elementi non sono armati per limitare le
operazioni e debbono resistere sostanzialmente per il loro peso per e non per flessione o torsione, gli elementi
indicati con ® sono ancora sotto brevetto. Quello più comunemente utilizzato è il tetrapode assieme ai cube e ai
parallelpiped block. Per ogni elemento generalmente vengono fornire delle tabelle dimensionali in funzione del
peso nominale e del volume (in questo modo sappiamo quanto dobbiamo spendere!), coi tetrapodi si arriva
tranquillamente alle 50 T; massi artificiali richiedono diverse tipologie di stime sul prezzo che possono essere
ricavate in funzione dei volumi riportati in tabella.
La tabella di K D può essere utilizzata non più in progettazione ma in verifica, in base al danno subito dalla diga, non
solo l’altezza d’onda avvenuta ma anche il reale K d che si sarebbe dovuto impiegare se la diga fosse stata progettata
male. In alternativa può essere impiegate anche a valle del progetto se si vuole ammettere un danno più elevato.
Fino alla fine degli anni ’70 si utilizzava l’altezza d’onda significativa H s =H 1 , non era appropriato perché i livelli di
3
danneggiamento erano diversi rispetto a quelli previsti, l’opera si danneggiava più del previsto perché Hudson in
laboratorio usava un moto ondoso regolare. Perciò nel 1984 si suggerisce, sempre nella formula di Hudson, di

impiegare l’altezza d’onda massima attesa H 1 , così i risultati della formula di Hudson miglioravano, Tuttavia
10
quanto acquistiamo i dati, l’elaborazione del segnale del tempo non fornisce le altezze che ci servono , ci danno solo
valore di altezza d’onda significativa. A partire dalla distribuzione di Rayleigh possono però ottenere l’altezza d’onda
massima moltiplicando quella significativa per 1,27.
Oggi la formula di Hudson (nemmeno quella corretta) non si usa più, Van der Meer grazie ad una strumentazione più
adeguata e con esperimenti più complessi (caratteristiche delle onde in relazione alle caratteristiche della mantellata
che tengono conto dell’interazione diga-onda) ottenne alla fine degli anni ’80 delle relazioni progettuali in cui si
individua il numero di stabilità ( H s /Δ D n 50 ¿ espresso in funzione di grandezze simili ma più comprensibili rispetto a
quelle fornite da Hudson. In altre parole, considera un moto ondoso irregolare.

Nelle formule sopra si ha:

- H s : altezza d’onda significativa H s o H 1


3

- Dn 50: diametro medio degli elementi


- Δ: rapporto fra la densità del masso e dell’acqua a cui viene sottratto 1 (solitamente è pari a 1.65)
- S: grado di danneggiamento, corrispettivo di K D di Hudson

In particolare, VDM aggiunge la porosità della mantellata P, il numero di onde attese N (ipotizzo che in una
mareggiata ci siano un numero di onde, vedremo più avanti come sitmarlo) e il parametro di Irribarren ξ m
(caratteristiche delle onde in relazione alle caratteristiche della mantellata). La porosità venne inserita perché
l’influenza della porosità pesava parecchio nel corso degli esperimenti, il numero di onde che insistono sul
paramento della mantellata venne introdotto perché nel corso della mareggiata la persistenza delle onde gioca un
ruolo fondamentale nel danneggiamento (una sorta di stressa a fatica). Quest’ultimo dato si ottiene a partire da dati
relativi alla climatologia del posto: durata delle mareggiate, periodi caratteristici delle onde che insistono sulla
struttura, da qua dividendo la durata della mareggiata per il periodo e ottenere il numero di onde all’interno della
mantellata. Il parametro di Irribarren è fondamentale per definire lo stato dell’onda che si frange sulla mantellata
(stato di frangimento), in funzione del valore di questo numero si identifica un frangimento plunging o surging. La
discriminante è definita da un numero di Irribarren critico.
Vediamo ora gli elementi necessari per definire ogni parametro
Per quanto riguarda la permeabilità P, essa fondamentalmente dipende da come è costruita la diga: a seconda della
modalità di costruzione della diga vi sono diverse porosità. Tutte le dighe di protezione ricadono quasi sempre nel
caso b (P=0,4), valore comunemente utilizzato nella progettazione.
Questa immagine aiuta anche a capire, nel caso (b), lo spessore dei vari strati: a partire dal diametro della mantellata
ottengo il diametro dello strato filtro ( D filter armor
n 50 =0,5 D n 50 ¿ . In particolare, il filtro va inserito nel caso in cui

D filter core
n 50 ≫ D n 50 . Il tout -venant presenta infatti elementi che vanno da 1 Kg a circa 1 T, all’incirca questo corrisponde a
60-70 cm di diametro, a questo punto se il diametro del filtro è compreso fra i diametri possibili del nucleo non
abbiamo necessità di uno strato filtro perché raggiungiamo già quel diametro nel nucleo , se invece il diametro dello
strato filtro è molto maggiore di quelli del nucleo allora lo strato filtro serve. Attenzione, nel caso di elementi molto
grossi potrebbero servire più strati filtro: tanti strati filtro fino a che non si arriva ad uno strato filtro con diametro
che ricade nel diametro del nucleo. Solitamente le dighe hanno porosità 0,4, mentre le opere di protezione hanno
circa porosità 0,6 perché non presentano un nucleo.
Per quanto riguarda il frangimento bisogna impiegare il parametro di Irribarren

sm è la ripidità fittizia dell’onda e corrisponde al rapporto fra l’altezza d’onda e la lunghezza d’onda al largo
(profondità infinita) calcolata col periodo medio:

In particolare, L0 m:

Questo parametro (relativo all’onda di progetto) va confrontato col valore critico del parametro che fa da transizione
fra i due fenomeni:

Col fenomeno del plunging gran parte dell’energia del moto ondoso viene dissipata per frangimento a causa della
turbolenza provocando un getto che si muove dall’alto verso il basso che impatta sulla parte iniziale della mantellata .
Col frangimento di tipo surging l’onda non frange ma tende a gonfiarsi e risalire sulla pendenza che si trova davanti,
questo tipo di frangimento esercita forti azioni di trascinamento sugli elementi della mantellata, tende quindi a
scalzare i massi verso l’alto (forze di galleggiamento più lama d’acqua che risale facilitano lo spostamento dei massi).
Fra i due è infatti il frangimento surging più pericoloso.
Altro parametro importante per valutare i valori di progetto è il numero di stabilità,

All’aumentare del numero di Irribarren il numero stabilità diminuisce: fissata infatti l’altezza d’onda serve un
diametro più grande per soddisfare la condizione di stabilità. A partire dai grafici sottostanti si vede l’andamento del
numero di stabilità, in ascissa c’è Irribarren e nelle ordinate numero stabilità il quale diminuisce e risale, il minimo si
ha nella transizione fra i due frangimenti. Quindi la condizione migliore è il frangimento plunging mentre surging
presenta criticità più spinte, al valore critico di Irribarren corrispondono le condizioni più onerose nella progettazione
della struttura.

Figura 5: Porosità = 0,5, numero di onde N=3000, pendenze differenti della mantellata (pallini pieni, vuoti, quadrati…)

I risultati nei grafici sono stati ottenuti per diversi valori di pendenza e sono stati valutati i gradi di danneggiamento
in funzione del parametro s, essi sono proporzionali a tale parametro quindi per s=2 si ha inizio del danneggiamento
e per s=8 si ha failure completa.
Si possono poi definire le curve per diversi comportamenti, ad esempio nell’immagine sotto è espressa l’altezza
d’onda significativa per diametro nominale di 1 m., a seconda del livello di danneggiamento s l’altezza d’onda
significativa cresce: a diametro fissato il livello di inizio di danneggiamento si ha per altezze di 3-4 m a seconda della
modalità di frangimento e man mano che l’altezza aumenta si avranno livelli di danneggiamento elevati

Si può fare lo stesso per quanto riguarda la porosità, a seconda della porosità il numero di stabilità cambia (fissato
un danneggiamento intermedio, s=5). Se aumento la porosità la diga resite ad altezze d’onda maggiori, l’interazione
dei flussi all’interno della mantellata dissipa meglio l’energia delle onde rispetto ad una diga impermeabile (P=0,1).
Diverso è il caso di elementi artificiali, che come detto si impiegano nel caso servano massi molto grossi. In questo
caso la funzione di danneggiamento viene sostituita dal numero di elementi spostati in una fascia di larghezza pari al
diametro nominale dell’elemento, il parametro identificato da questo rapporto viene definito N od :

Questo parametro è legato al parametro S (grado di danneggiamento):

Queste relazioni sono ovviamente valide all’interno delle pendenze indicate applicate negli esperimenti. I massi
artificiali possono avere pendenze più marcati rispetto a quello naturali, essi sono quindi preferiti rispetto a quelli
naturali:

1. Pesano di più di quelli naturali.


2. Il peso permette di posizionarli su pendenze più ripide che coinvolgono quindi meno materiale in quanto i
volumi coinvolti nella realizzazione della diga sono minore, inoltre più la diga è ripida più servono materiali
pesanti.
3. I massi artificiali resistono di più di quelli naturali su pendenze ripide perché sono soggette a minori forze di
rotolamento grazie ad azione di inter-locking (legame per forma).

Elementi artificiali: Cubo, fine ‘800

Ove:
- N s = numero di stabilità
- N od = grado di danneggiamento ≤ 2
- N Z = numero onde
- sm = ripidità fittizia dell’onda

Ovviamente N od si progetta per avere un danno maggiore di 1 (solitamente circa 2), per non avere delle condizioni di
costruzione troppo stringenti. A parità di lunghezza d’onda servirebbe un diametro molto elevato per mantenere
condizioni di danneggiamento nulle: diametro circa 2 volte più grosso che significa un peso 8 volte maggiore (vedi
immagine sotto).

Solitamente impiegato nel caso di:

- Onde non frangenti, quando parliamo di condizioni non frangenti ci si riferisce alla onde prima della
riduzione dell’infrastruttura, si calcola la condizione di frangenza o meno come se la diga non ci fosse in
corrispondenza della sezione del piede della diga.
- Doppio strato
- Pendenza parecchio alta, 1:1.5. Se si volesse fare una pendenza differente bisognerebbe effettuare degli
esperimenti con pendenza richiesta perché la relazione è valida solo per la pendenza indicata
- Quando bisogna raggiungere pesi elevati, questo ovviamente provoca problemi di movimentazione (grandi
mezzi)

Essi sono stati introdotti a fine ‘800, sono elementi robusti e compatti (difficile si rompano e si spacchino a metà,
grosso problema per gli elementi che costituiscono le dige perché l’elemento diminuisce il suo peso), sono anche
facili da costruire.

Elementi artificiali: tetrapodi, anni ‘50

La relazione è molto simile alla precedente con la differenza che:

N od ≤ 1,5

Elementi molto usati perché hanno elevato grado di inter-locking, inoltre se posizionati random presentano una
grande scabrezza della mantellata che contrasta molto bene fenomeni di tracimazione (quando l’onda surging risale
sul paramento della mantellata può passare oltre il coronamento della diga). Come nel caso precedente:

- Impiegato nel caso di onde non frangenti


- Impiegato nel caso di doppio strato
- Formulazione valida nel caso di pendenze pari a 1:1.5
Introdotto da una società francese negli anni ’50, inizialmente posto sotto brevetto, l’elemento non fu molto
impiegato. Oggigiorno è molto impiegato non solo perché l’elemento non è posto sotto brevetto ma perché anni di
impiego hanno messo in luce affidabilità e versatilità di questo elemento. Può capitare tuttavia che nelle gare di
appalto per la realizzazione di talune infrastrutture venga indicato il tipo di elemento da impiegare così da testare
anche unità artificiali nuove e più recenti. Nel caso in cui si posizionano questi elementi nella zona delle onde
frangenti (più sottocosta, per strutture radenti costa) in corrispondenza di basse profondità al posto dell’altezza
d’onda significativa si impiega l’altezza d’onda con probabilità di superamento del 2%, H 2 %=1.4 H s perché nella
zona dei frangenti la distribuzione di Rayleigh non vale più (non siamo più nel caso di onde regolari): il fenomeno del
frangimento è una specie di filtro, esso “taglia” le altezze più alte e solo le onde frante più alte sono in grado di
arrivare alla struttura. Nella zona dei frangenti, essendo l’onda franta, essa genera molta più spinta e si potrebbero
avere dei picchi più elevati.
Questo elemento ormai è molto standard e viene prodotto senza particolari problemi. Nel caso in cui non si
dispongano di gru ad hoc, in testa al tetrapodo può essere presente un ferro che permette il posizionamento
dell’elemento.

[MANCA TUTTA LA LEZIONE 13]: slides 30 – 40 -> 2021/2021 lec.14 min. 9.57
Elementi artificiali: Dolosse
Elementi artificiali: Accropode
Elementi artificiali: Core-loc
Elementi artificiali: Antifer

Resistenza del calcestruzzo: fenomeni di usura


Quando si realizzano massi artificiali vi sono influenze in termini di durata e resistenza del cls. Sui pezzi artificiali vi
sono diversi tipi di carico:

- Carichi statici: dovuti all’impaccamento degli elementi, gli elementi sottostanti sono schiacciati
- Carichi dinamici: dovuti alle onde
o Carichi di impatto: che possono portare al danneggiamento degli elementi, le unità si dislocano
all’interno della massicciata, dovuti anche al posizionamento degli elementi
o Carichi Pulsating: che si ripetono nel tempo
- Carichi di abrasione: dovuti a grande movimentazione di elementi più piccoli quali sabbia e ciottoli
- Carichi termici: le strutture marittime sono realizzate a diverse latitudini, le escursioni termiche possono
essere significative (in alcuni casi anche sotto lo zero) e portare a cicli di gelo e disgelo tali provocare fratture
e deterioramento del cls. Se la temperatura è elevata si ha una proliferazione degli organismi marini che
possono rovinare la superficie del cls.
- Carichi chimici: per via di fenomeni di evaporazione significativa (alte temperature ed umidità) il
consolidamento del mix potrebbe essere differente rispetto a quello di progetto.

In ambito marino le basse temperatura possono portare a rottura fragile negli acciai, mentre i cicli di gelo e disgelo
possono portare e rotture a scaglie sulla superficie degli elementi (sia pezzi della mantellata che cemento armato),
per questo motivo il copriferro deve essere adeguatamente studiato così come va ben conosciuto l’ambiente in cui si
va ad operare dal punto di vista fisico-chimico.
Sempre in relazione all’usura del cls vi possono poi essere fenomeni di abrasione, essi sono dovuti al trasporto dei
sedimenti (spiaggia, ghiaia) presenti in loco e inficiano sulla resistenza del ferro e degli strati superficiali del cls. In
questo caso si impiegano mix con elementi resistenti e di pezzatura adeguata.
Un altro aspetto importante è legato agli urti tra massi, soprattutto durante la posa. Essendo i massi caratterizzati da
elevato peso è necessario che le resistenze a compressione da urto sia sufficientemente elevate, solitamente
essendo la costruzione di dighe molto onerosa, si cerca di impiegare elementi semplici senza complicazioni (senza
armature, fibre di rinforzo…) costruttive in modo da rendere tutto il più semplice ed economico possibile . Come
mitigazione si cerca di ridurre al minimo la possibilità di urto fra i massi posandoli nella maniera più delicata e attenta
possibile, quando si realizza una diga a gettata i sassi vengono quindi posti con cura uno alla volta.
Vi sono poi altri aspetti critici legati alla chimica. In acqua marina gli alluminati del cls reagiscono coi solfati dando
vita ad un solfoalluminato di calcio idrato noto come ettringite, questo composto fa aumentare il volume all’interno
del cls che porta le parti più esterne a gonfiarsi e, senza un’accurata manutenzione o precauzioni adeguate, porta il
calcestruzzo a sfaldarsi e ad esporre il copriferro (nel caso di strutture in c.a) o al deperimento degli elementi di
mantellata. In aggiunta, si ha anche una diminuzione del peso efficace dell’elemento, questo fenomeno avviene
maggiormente in acque calde e nel caso di acque inquinate (sostanze acide sono aggressive per il cemento). Per
ovviare a questo problema si utilizzano cementi pozzolanici in quanto la calce libera contrasta la formazione di
ettringite.
Per valutare la resistenza agli urti sono effettuati dei test di caduta di un elemento su altri elementi

Questo test viene fatto per verificare che gli elementi unitari non perdano eccessivamente massa nel caso di caduta
durante la posa in opera.

Figura 6: classico danneggiamento dovuto alla formazione di ettringite.

Opera al piede:
Fino ad ora abbiamo parlato della mantellata, vediamo ora il dimensionamento degli altri elementi della diga.
L’opera al piede serve per dare supporto alla base della mantellata (evitare fenomeni di scivolamento verso il
fondale e scalzamento della mantellata). Essendo costituita da un ammasso di elementi pesanti viene realizzata con
un dimensionamento alla VDM: definito il numero di stabilità esso viene espresso in funzione della profondità sopra
l’opera al piede h b e del numero di danneggiamento N od . Gli elementi dell’opera al piede sono generalmente più
piccoli di quelli della mantellata soprattutto se essa si trova molto a fondo nell’acqua (più siamo a fondo meno le
onde sono pericolose), a volte è possibile (se profondità consistenti) realizzare un’opera al piede a metà altezza della
diga, così facendo risparmio e non uso massi della mantellata fino al fondale . Quando invece l’opera al piede è vicina
alla profondità di influenza dell’altezza d’onda massima (i.e vicino alla superficie libera, solitamente essa è pari a una
volta e mezzo l’altezza d’onda) si tende a far coincidere i materiali dell’opera al piede con quelli della mantellata,
parimenti se utilizzassi l’espressione di cui sotto potrei trovare un’opera al piede molto più leggera e da realizzarsi
con elementi molto piccoli rispetto a quelli della mantellata.
Questa equazione (una retta) è stata ottenuta a partire da una regressione sui punti sperimentali relativi al grado di
danneggiamento e al numero di stabilità in funzione delle condizioni di profondità e del diametro nominale degli
elementi.

N.B: nuovamente va sottolineato che le formule fornite valgono esclusivamente per le condizioni che sono state
riprodotte in laboratorio, se l’ambito di applicazione di una formula cambia si rendono necessarie nuove
sperimentazioni che riproducano le condizioni per le quali si vuole ricavare una nuova formula. Gli esperimenti
possono essere condotti nel caso in cui la situazione nella quali si sta operando non sia ordinaria e richieda di essere
riprodotta in ambiente artificiale per essere meglio studiata.

Oggigiorno si utilizza una più recente relazione di VDM (1998), che sostituisce quella del 1995 o meglio la modifica.
La relazione precedente aveva un problema di tipo analitico: se si inverte l’equazione in funzione del diametro
nominale si ottiene una funzione somma di due elementi, uno positivo e uno negativo.

Questa formulazione poteva fornire valori di diametro negativi per alte profondità, essa pertanto risultava valida
solo per profondità limitate. Tale problematica emerse quando le profondità di installazione di questo tipo di dighe
aumentarono significativamente, venne quindi rifatta l’analisi sperimentale ipotizzando che si possano raggiungere
profondità più elevate.

Figura 7: regressione che porta alla formulazione del 1998


Le formulazioni per questo tipo di costruzioni si basano su esperimenti condotti in laboratorio, la proliferazione di
questo tipo di esperimenti, il passare degli anni e delle realizzazioni porta a modificare gradualmente le formulazioni
che vengono ottenute da questi esperimenti, VDM ad esempio nella sua prima formulazione tenne conto solo
dell’altezza sopra l’opera al piede (1995):

Successivamente, nello stesso anno, si accorse che però era anche importante impiegare la profondità indisturbata:

Qualche anno dopo (1998), raffinò la formula:

Tutto questo venne ricavato per massi naturali! Contemporaneamente qualcun’altro si pose il problema dell’utilizzo
di massi artificiali, se faccio una diga in cubi, essendo essi molto pesanti meglio che usi anche quelli per l’opera al
piede (sono più pesanti di quelli naturali, li schiaccio). Quel qualcun altro sono Burcharth e Liu (1995):

Figura 8:opera al piede composta da blocchi di cls.

 Osservazione 1: i massi naturali si pongono sempre in doppio strato, i cubi in singolo


 Osservazione 2: sono state elaborate formule con massi naturali perché se ho alte profondità non ho forze
elevate sull’opera al piede quindi posso usare massi naturali, se invece essa è vicina alla superficie libera è
possibile che le onde siano filtrate dal processo di frangimento (non arrivano onde grosse alla diga).

Negli anni si sono ulteriormente affinate le formulazioni, in particolare Van Gert e Van der Werf stanno aggiornando
in maniera metodica le formule a disposizione che ormai hanno quasi una trentina d’anni in modo da considerare
anche le caratteristiche delle onde e la loro interazione con le strutture, questo perché ora si riescono a vedere
molte più cose e molto meglio (in termini di strumentazioni) ed inoltre l’esperienza gioca un ruolo fondamentale in
questo come negli altri campi dell’ingegneria. Più le problematiche sono particolari più affinate saranno le
formulazioni da fornire.
Negli ultimi anni anche per quanto riguarda l’analisi progettuale delle opere al piede vi è stato uno sviluppo che ha
portato ad individuare formulazioni relative a due differenti condizioni di mare precedentemente definite:

- Deep water conditions (profondità infinite)


- Shallow water (acque basse)

Queste due condizioni sono state rimappate sulle formule di VDM relativamente alla mantellata introducendo due
parametri rappresentativi del caso di plunging waves (C p) e di surging waves (C s).
Figura 9: da notare che acque basse dove vi è frangimento, l’altezza d’onda di progetto corrisponde all’altezza d’onda al 2% che è relazionata
con l’altezza d’onda significativa grazie alla distribuzione di Rayleigh.

Ora ci si chiede quale può essere l’effetto della berma (che non è altro che un’opera al piede più lunga e intermedia)
nella progettazione della mantellata. La berma è un elemento che viene costruito nel profilo della mantellata ed è
una terrazza orizzontale costruita per dissipare l’energia dell’onda, in prossimità di essa l’onda tende a instabilizzarsi,
frangere e arriva con un’energia diminuita. Questo significa che il diametro nominale della porzione di diga sopra la
berma può avere diametro nominale ridotto la cui diretta conseguenza è un risparmio del materiale impiegato

Figura 10: La berma (verde) riduce l'energia dell'onda.


Se si considera l’inserimento di una berma viene impiegato un parametro γ che relaziona l’altezza d’onda sulla
berma e sul piede della diga, esso è tendenzialmente funzione delle caratteristiche della berma. Quando la berma
non è presente esso è pari a 1, viceversa se si adotta una berma è diverso da uno. Applicando il teorema π per
condurre un’analisi dimensionale si nota che le grandezze presenti sono di tipo geometrico (la grandezza scala base è
una lunghezza) e che γ è funzione di 4 variabili accoppiate fra loro ed è perciò possibile passare da una funzione di 4
variabili ad una in 2 variabili a-dimensionali. Si riduce così la complessità dell’equazione e γ varia all’interno di uno
spazio bidimensionale e tramite la realizzazione di una serie di esperimenti si arriva ad una formulazione di γ
dipendente da due coefficienti esponenziali b e c .

Tale formulazione è caratterizzata da dei validity range in base agli esperimenti che sono stati realizzati

Figura 11: IN altre parole, come si vede dal grafico sotto l’equazione di sopra è quella proposed ed è migliore sia di VDM (1998) che di Van Gent
(2013). Quindi se uso quella formula tengo bene in conto dell’effetto della berma

Nuovamente, si può valutare graficamente l’affidabilità di tali relazioni comparando il grado di danneggiamento
rapportato al numero di onde teorico e quello osservato come riportato nell’immagine sottostante.
Come si nota la relazione proposta migliora notevolmente la relazione di VDM, la quale era conservativa (dava valori
più alti) o della relazione di Van Gent che non era conservativa (dava valori più bassi). Nuovamente se il progetto è
specifico e particolare è meglio realizzare delle sperimentazioni ad hoc per il progetto designato.
LB
In funzione del rapporto fra le larghezze della berma e della lunghezza d’onda ( ) e in funzione delle profondità (
LW
hB
) si possono ottenere dei grafici bidimensionali all’interno dei quali vengono confrontate le tre formulazioni:
hT

- Van der Meer


- Van Gent
- Formulazione proposta

LB
Sull’asse delle ascisse viene riportato il rapporto mentre sulle ordinate il rapporto fra il diametro medio degli
LW
elementi della formulazione (proposta o di Van Gent) e il diametro medio della formulazione di VDM. Di
conseguenza nei grafici sotto riportati la formulazione di VDM fornisce un’ascissa costante di valore unitario, si nota
quindi come la formulazione proposta si ponga in posizione intermedia fra la formulazione di VDM e quella di Van
hB
Gent. Nella figura sottostante viene riportato un grafico nel quale il valore fissato di
è pari a 0,5. La distanza fra la
hT
linea continua (formula proposta) e quella tratteggiata (Van Gent) può essere definita come ΔD , questo valore ci
dice come la formula di Van Gent non sia conservativa (sempre sotto alla linea continua) mentre quella di VDM sia
conservativa (sempre sopra alla linea continua, valore costante pari a 1)
Nella seguente tabella viene riportato un esempio comparativo relativo alle differenti formulazioni, si nota che la
formula proposta nel 2018 è un’ottimizzazione perché lo stadio giusto è posto fra i due estremi: VDM, una
progettazione basilare e Van Gent, una progettazione certamente ottimizzata ma poco cautelativa che non tiene in
conto l’interazione della berma con il moto ondoso.

L’opera al piede può esser realizzata in diversi modi:

- Opera fondata in prossimità del fondale, su una spiaggia di materiale sabbioso in fondo alla mantellata.

- Nel caso si abbiano fondali rocciosi la mantellata può essere appoggiata direttamente sul fondale senza
l’impiego dell’opera al piede perché la roccia garantisce caratteristiche di stabilità e appoggio tali da non
necessitare dell’inserimento dell’opera al piede.
- Nel caso di profondità significative, l’opera al piede può essere posizionata ad una profondità intermedia e
nella parte più profonda mettere massi con pezzature più piccole.

- Nel caso di fondali più bassi vi è continuità di materiale fra mantellata e opera al piede.

Vi possono essere diversi approcci costruttivi per l’opera al piede:

1. È possibile realizzare uno scavo all’interno del quale la mantellata prosegue, l’opera al piede si trova quindi
al di sotto del beach level (fondale). Questo perché, per questioni morfodinamiche, all’interfaccia fra una
mantellata con pezzature molto grosse e il fondale con diametri molto minori (quale sabbia) a causa del
differente comportamento di mobilizzazione morfodinamica dei due elementi se non si effettuasse lo scavo
alla base della mantellata si generebbe uno scavo. La profondità dello scavo è studiata per prevenire
l’esposizione della mantellata.
2. Si può anche pensare di realizzare un’opera al piede rovesciata posizionata internamente alla spiaggia. In
questo caso la profondità dell’opera al piede è legata alla lunghezza complessiva.

3. Si può anche pensare di rafforzare l’opera al piede con materiale di riempimento posizionati esternamente
alla spiaggia a seguito di possibili scalzamenti.

Altre tipologie di opere al piede sono le cosiddette rip-rap o protezioni radenti, esse sono realizzate tramite blocchi
di cemento solidali fra loro, esse non sono realizzate per dighe ma per opere più radenti alla costa (onde meno
intense), anche perché essendo così lisce le onde potrebbero risalire molto facilmente.
Strato Filtro:
Strato inserito fra la mantellata principale ed il nucleo, nell’immagine sotto riportata al posto del beach material si ha
il nucleo e sono presenti inoltre ben 3 strati filtro, questo perché il fondo è sabbioso ed il materiale è molto fine.
Solitamente nelle opere ordinare sono presenti solamente 3 strati: mantellata, filtro (al massimo due strati) e nucleo.

Vi sono poi diverse immagini che aiutano a capire la fase realizzativa. Per prima cosa si realizza il nucleo con
pendenze 1:1 e con materiali che vanno da 1 kg fino a 1 tonn, esso viene creato semplicemente scaricando il
materiale col camion a partire dalla costa.

Si procede poi alla realizzazione del filtro. Conoscendo la quota a cui bisogna arrivare, a partire dalla pendenza
richiesta (es. 1:2.5) con una boa zavorrata si individua il punto fino a cui bisogna arrivare . Nuovamente si hanno degli
intervalli di peso degli elementi che costituiscono questo strato filtro.
Questo strato viene realizzato tramite una gru che posiziona i pietroni. Allo stesso modo viene realizzata la
mantellata, con la differenza che i massi impiegati sono di dimensioni maggiori. Un altro accorgimento riguarda la
parte di testata, in questa zona infatti la pendenza è più dolce (1:3) perché come vedremo questo elemento è più
delicato e ha bisogno di una stabilità più forte che si raggiunge con una pendenza minore

Figura 12: esempio realizzativo dove si possono individuare i differenti strati.

Come visto in precedenza lo spessore dello strato filtro dipende dalle caratteristiche del diametro della mantellata e
del livello di porosità (solitamente P=0,4).

In questo caso fissato il diametro della mantellata va verificata la possibilità di reperire i materiali del core in base al
peso che si calcola: ad esempio fissato il diametro della mantellata pari a 3m si ottiene un diametro del nucleo di 0,4
m, il che corrisponde ad un peso di 160 Kg in linea con le limitazioni individuate e coerente con un tout-venant.
Vi sono poi altri schemi che a partire dal peso dell’elemento della mantellata ci permettono di ottenere tutte le altre
dimensioni per una progettazione preliminare. Si nota che il peso della mantellata può essere dimezzato in
corrispondenza di una profondità pari a -1.5 volte l’altezza d’onda e che può diventare 1/10 o 1/15 in corrispondenza
di una profondità inferiore a -2 volte l’altezza d’onda. Inoltre, si vede come nella parte interna il peso può essere
ridotto molto più velocemente rispetto alla parte prospiciente al mare aperto. Tutto questo in un’ottica di risparmio
del materiale impiegato. Il grading size ci dice l’intervallo di confidenza per ogni strato.

Stima del costo della diga in funzione dell’altezza d’onda di progetto H d :

Quando si realizzano dighe a gettata (o dighe a parete verticali) consistenti, non vi è tanto un problema relativo alla
concezione, alla manutenzione o alla realizzazione di un’opera portuale quanto un problema legato al costo iniziale
che un’opera di questo tipo porta con sé. Per questo motivo questo tipo di opere (o più in generali i porti), che sono
infrastrutture strategiche per l’organizzazione logistica di una città o addirittura di un intero paese, sono finanziati
principalmente da enti pubblici.

Testata delle dighe:


Dopo a ver visto la pezzatura del ramo principale della diga (trunk) va analizzata ora la zona terminale della diga
(head), la testata. Questo elemento è particolarmente delicato perché è la parte della diga che subisce la maggiore
esposizione al moto ondoso e alle sue azioni: quando le onde arrivano sul tratto principale o nella porzione
tratteggiata trovano la massima pendenza e quindi la sezione fatta apposta per resistere, nella zona più esposta le
onde passano tangenti e trovano prima una sezione della diga in salita e poi in discesa, sorgono quindi due
problematiche.
1. Nella parte in salita il moto ondoso è contrastato dalla gravità dei massi, mentre nella parte in discesa è
concorde al moto di scivolamento dei masi e quindi agevola il loro spostamento, un bel problema
destabilizzante.
2. Nel momento in cui l’onda interagisce con la testata si ha un fenomeno di rifrazione, l’onda tende a
concentrare energia nel punto proprio a causa della rifrazione.

Per contrastare queste problematiche si realizza un ingrossamento della struttura e una diminuzione della
pendenza. Dall’immagine sottostante relativa ad un esperimento in laboratorio si capisce chiaramente la zona della
testata che subisce maggiormente l’azione delle onde.

Figura 13:mantellata, struttura al piede (arancione più marrone), strato giallo=strato di transizione
La zona in rosa è critica perché subito a tergo della testata è presente il canale di accesso (spesso non è molto largo
a causa della presenza della diga di sottoflusso), le imbarcazioni e le navi a tergo della diga passano attraverso di esso
e con dei massi in acqua diminuisce il pescaggio. Nel caso della foto, l’esperimento ha portato ad una variazione
degli elementi costituenti la testata, sono stati infatti inseriti in corrispondenza del piede della struttura dei massi
artificiali quali antifer e cubi al posto dei massi naturali.
Figura 14: si vede come è cambiato l'elemento di tenuta dell'opera al piede

Questo esempio ci fa capire come, nel caso di costruzioni particolarmente critiche, sia necessario realizzare degli
esperimenti in laboratorio per capire come risolvere il problema.
Visto che gli esperimenti possono risultare costosi, sono stati fatti degli esperimenti per avere alcune indicazioni di
massima relativamente al comportamento della testata per diversi elementi unitari. Nella tabella sottostante emerge
che il rapporto fra il peso della testata e quello del tratto principale deve essere sempre maggiore di 1 (W H >W T ),
una media brutale su tutte le esperienze porta a dimensionare la testata con un peso che è il doppio di quello del
corpo della diga. L’accorgimento di diminuire la pendenza va in questa direzione: diminuire la pendenza significa di
diminuire il peso (ma se diminuisco la pendenza e devo arrivare ad una stessa altezza non dovrei impiegare più
materiale?) e quindi magari non serve proprio raddoppiare il peso.
Secondariamente, per raddoppiare il peso servono mezzi di movimentazione più potenti rispetto alla parte principale
della diga il che può portare a problemi realizzativi non indifferenti, perciò la crane capacity deve essere più che
doppia nella realizzazione della testata rispetto a quelle impiegate per la parte principale della diga. Un altro
problema legato alla questione del peso è la block size, una pezzatura eccessivamente differente potrebbe portare
alla mobilizzazione dei massi più grossi verso quelli più piccoli e danneggiarli, la transizione deve essere perciò
graduale.

Sono stati poi condotti anche esperimenti per capire la dinamica del danneggiamento suddividendo la testata in
settori di differenti colori. Si potrebbe pensare di rinfoltire la zona indicata.
SI potrebbe anche pensare di studiare quale altezza d’onda comporta un certo tipo di danno (nell’immagine sopra si
registrano i danni riportati per H s =13,4 m ad esempio, ma per H s =11,0 m non vi sono danni). Non esistono infatti
modelli analitico-numerici in grado di risolvere problemi così complessi (infrangimento, cattura dell’aria all’interno
di un fluido…) dal momento che si passa dalla scala dell’altezza d’onda a quella della filtrazione.
Nel grafico sottostante viene operato un confronto fra la stabilità della mantellata, il trunk e la testata utilizzando
cubi da 354 tonn. Si nota come l’altezza d’onda significativa è posta sulle ascisse e sulle ordinate la percentuale di
massi spostati (i.e danneggiamento D). A parità di altezza d’onda (= di moto ondoso) e a parità di massi impiegati si
vede chiaramente come la testata risulti la porzione di diga maggiormente danneggiata. In particolare, essa riporta
un danneggiamento maggiore nei punti appartenenti ai settori perpendicolari al trunk della diga.

Quindi qualitativamente il K D presente nella formula di Hudson della testa è circa il 50% di quello del corpo della
diga, questo si pone coerenza con il rapporto dei pesi fra testata e corpo della diga.
Un’altra soluzione generata in laboratorio porta ad aumentare la densità degli elementi di testata (da 2,40 a 2,80)
senza aumentare le dimensioni geometriche:

DT D H
W H >W T
ρ H > ρT
Questa operazione risulta agevole se i massi sono artificiali. Quindi, ricapitolando. la zona individuata è
particolarmente esposta e si possono effettuare le seguenti operazioni per rinforzarla:

1. Si possono inserire elementi più grandi, questo può dare problemi relativi ai lati di transizione (canali di
passaggio?) e all’approvvigionamento (mezzi di movimentazione).
2. Si può diminuire la pendenza e avere pesi minori.
3. Si possono impiegare stessi elementi da un punto di vista geometrico ma con densità maggiore.

Tutte queste esperienze hanno portato ad una formula progettuale relativa ad un numero di stabilità che tiene in
conto delle caratteristiche geometriche della testa realizzata con cubi.

Ove:
HS
-
( )
Δ Dn
= numero di stabilità

- Dn = diametro nominale del cubo


- D% = grado di danneggiamento
H0 H0 2 π
- Sop= ( )
L0
=
g T2
7

- Δ solitamente è pari a 2.65

Risposta idraulica dell’opera:


Fino ad ora si è parlato di verifiche a stabilità (gli elementi non devono spostarsi), passiamo ora alle verifiche relative
alla risposta idraulica dell’opera, essa corrisponde all’analisi dell’interazione fra la struttura e il moto ondoso: non
solo la struttura deve resistere alle onde ma l’eventuale agitazione interna rimanente non deve creare pericoli, non
solo agitazione interna ma anche, soprattutto, tracimazione.
Si vuole quindi progettare l’infrastruttura per limitare al massimo questo tipo di eventi che sono potenzialmente
pericolosi, questo tipo di progettazione tende a ottimizzare la progettazione che è stata fatta in sede di verifica di
stabilità per rispettare i parametri di sicurezza idraulica imposti. Quando effettuiamo quest’analisi si considerano
alcuni aspetti specifici problematici:
- Run up e run down: risalita e discesa dell’onda nel piano della scarpata
- Portata media tracimante (overtopping)
- Trasmissione dell’agitazione: agitazione interna, parte del moto ondoso riesce a penetrare tramite
tracimazione
- Riflessione delle onde incidenti: la diga è un ostacolo e tende e riflettere le onde verso il largo, vedremo che
questo è un problema.

Run up (RU) e run down (RD):


Il primo corrisponde alla sopraelevazione rispetto al livello medio mare della quota cui arriva la risalita dell’onda sulla
diga, questo accade quando arriva la cresta. Il secondo si ha invece quando il cavo dell’onda impatta sull’opera, esso
corrisponde al massimo livello a cui riesce a scendere il livello dell’acqua rispetto al livello medio mare. Questi due
fenomeni portano ad un’oscillazione verso l’alto e verso il basso del livello del mare e perciò la zona della mantellata
compresa fra RU e RD è quella più sollecitata in quanto l’azione delle onde è continua in questa fascia. Solitamente il
run up viene indicato come Ru 2 % perché le onde sono random, l’evento stesso è random e l’onda non arriva sempre
alla stessa altezza di risalita, come tutte le altre grandezze progettuali viste fino ad ora è una stima statistica: fatta la
pdf (cumulata) di tutti i RU prendo quella che ha la probabilità di superamento del 2%. Stessa cose per il RD ( Rd 2 %).
Non siamo molto cautelativi perché questo tipo di eventi sono puntuali e nonostante questo possono mandare in
crisi tutta la struttura, saremmo cautelativi se fosse riferito allo 0%, ma ciò porterebbe a costruire non solo muri
eccessivamente alti, ma anche costosi e anti-estetici, se si ipotizzasse di avere portata tracimante nulla si avrebbe:

l
R2u % ≅ 3 H s ≅ 3 ∙ 7=21 m→ Q OT =0 ↔h=21 m
s

Tanto più è liscia, impermeabile e compatta la superficie tanto più saranno alte le quote di RU e basse quelle di RD,
perciò creare una diga a gettata più scabra e ruvida possibile è a favore di sicurezza perché si ha una maggiore
resistenza per il RU. Sotto sono riportati degli esempi realizzati con e senza muro di coronamento.
Figura 15: la figura con il muro di coronamento è simile al video della diga di Rapallo.

Quindi non solo è importante la porosità della mantellata ma anche la scabrezza. Questa fenomenologia è
nuovamente stata studiata tramite esperimenti in laboratorio ove emerge che comunque fosse fatto l’esperimento si
aveva una crescita lineare ed una parte costante, questi due tratti sono espressi in funzione dell’altezza d’onda
significativa H S e del numero di Irribarren ξ (pendenza della mantellata/radice dell’altezza d’onda diviso la
Sa tan α
ξ= =
lunghezza d’onda, H H )
√ √
L L

A seconda dei pedici che vengono impiegati il numero di Irribarren sappiamo a che lunghezza d’onda ci si sta
riferendo:
- Se il pedice è 0 significa che si ha profondità infinita
- Se il pedice è p significa che ci si riferisce alla frequenza di picco
Il grafico, come nei casi precedenti, è ottenuto a-dimensionalizzando la Ru 2 % e, come detto, si ha una porzione di
grafico costante ed una porzione con andamento lineare che cresce in funzione del numero di Irribarren calcolato al
largo con le grandezze del picco. Ad essere più precisi si è inserita la dipendenza da una costante γ e i risultati sono
stati ottenuti per una certa scarpata impermeabile e di una certa inclinazione. Perciò, in linea del tutto generale:

“il Ru 2 % è proporzionale ad un coefficiente γ per il numero di Irribarren ξ ”

Il coefficiente γ dipende dalle caratteristiche della mantellata:


- Scabrezza e permeabilità della scarpata
- Come arriva il moto ondoso (dritto o obliquo ad esempio)
- Effetto di bassa profondità di fronte alla diga
- Moto ondoso irregolare

Per una mantellata con attacco frontale, scarpata piena senza berma e mantellata di massimo 2 strati γ assume
valori pari a 0,5, questo ovviamente mette a favore di sicurezza le mantellate scabre e porose dal momento che
questo valore si dimezza il Ru 2 % rispetto al caso di mantellata liscia ed impermeabile. Quindi:

γ →1 se mantellata liscia ed impermeabile


γ ≪1 se mantellata scabra e permeabile

Per valore molto piccoli di γ gran parte dell’energia del moto ondoso viene dissipata in resistenze di attrito e in
energia di flusso attraverso i pori della mantellata.
Per questo motivo nella costruzione di dighe ed opere costiere in generale bisogna cercare di tendere a valori di γ
più piccoli possibile. Spesso basta un γ =0,5 a volte possono crearsi delle problematiche che necessitano di disporre
un γ minore di 0,5 perché vedremo che la portata di tracimazione è proporzionale al Ru 2 %, abbassando perciò la
portata diminuisco problemi di tracimazione del massiccio di coronamento. Vi sono perciò diversi contributi che
definiscono la costante γ :

- γ r : roughness
- γ b : berm
- γ h : shallow (water di fronte alla diga)
- γ β : angle (angolo di attacco di fronte alla diga)

 γ b: presenza di una berma


A partire dal profilo originale della berma (arancione) si individuano i due punti che danno un’altezza H s rispetto al
livello della berma, questi due punti permettono di tracciare il profilo equivalente caratterizzato da una pendenza
equivalente α eq ,questo valore ci permette di calcolare alcune quantità e tutti i calcoli necessari possono essere svolti
come se la berma avesse questa pendenza equivalente. Perciò il coefficiente di riduzione dovuto alla berma è al
rapporto fra il numero di Irribarren calcolato con la pendenza equivalente e quello calcolato con la pendenza
normale(?)

In particolare, il valore α corrisponde alla pendenza della mantellata nel primo tratto prima che incontri la berma (i.e
α 1), mentre il valore di d B corrisponde alla profondità della berma rispetto al livello medio mare.
Il valore di questo coefficiente è ovviamente minore di 1 perché la presenza di una berma limita la risalita del moto
ondoso.

 γ r : contributo della scabrezza della mantellata


Questo contributo è funzione della porosità e della scabrezza dell’elemento. I valori di questo coefficiente sono
tabellati perché calcolati in laboratorio, nella tabella è inoltre presente il range di validità di questi valori. I tetrapodi
non sono presenti nella tabella, tuttavia permettono di raggiungere una scabrezza molto elevata (sicuramente il
valore è minore di 0.5, probabilmente attorno a 0.4/0.35).

 γ h: contributo legato alle basse profondità al piede dell’opera


Se il fondale del mare di fronte alla diga ha profondità contenuta, possono esserci fenomeni di frangimento di fronte
alla diga che permette di dissipare energia e abbattere il Ru.

Nel caso di alte profondità ( H s 2 % =1,4 H s poiché si adotta una distribuzione Rayleigh) il valore di γ h tende a 1, nel
caso di frangimento H s 2 % <1,4 H s in funzione della percentuale di frangimento, se si hanno tante onde frante γ h
può arrivare anche a 0.5 o 0.6.

 γ β: contributo legato all’angolo di attacco del moto ondoso


L’angolo di attacco è riferito alla direzione media delle onde in riferimento alla perpendicolare all’opera. Si
identificano inoltre due condizioni:

1. Mare morto (onde lunghe), se l’attacco è molto obliquo posso avere una forte riduzione → fronti d’onda
regolari
2. Mare vivo (onde corte), la diminuzione di γ β è minore rispetto al caso di sopra anche se si raggiunge per
attacchi obliqui → fronti d’onda irregolari
Per ognuno dei due casi γ β assume due espressioni diverse.

Quindi ci si aspetta che in caso di attacco obliquo il fenomeno di Ru è minore rispetto all’attacco frontale perché
parte dell’energia non viene trasmessa alla diga, il problema di questo attacco è legato all’erosione puntuale o al
trasporto di elementi lungo la direzione trasversale della diga dovuto alle correnti secondarie che si generano.

Conclusioni:
Il limite di γ =3 è facilmente raggiungibile con strutture ordinarie, quindi per diminuire il Ru si cerca di realizzare
strutture il più porose possibile (le crocette nel grafico sotto sono infatti caratterizzate da un γ più contenuto rispetto
ai pallini pieni), caratterizzate da berme e con mantellate costituite da scarpate più scabre possibile. Solitamente si
vuole diminuire questa grandezza quando si vuole proteggere qualcosa a tergo della diga o sul ciglio della diga
stessa. L’unico caso in cui la tracimazione tramite RU non è problematica è quando si hanno opere di difesa al cui
tergo non sono previsti spazi operativi.

La stessa operazione può essere fatta per il Rd 2 %. Anche questo aspetto è importante perché un po’ più sotto della
quota del Rd 2 % è possibile diminuire il peso degli elementi e risparmiare materiale. Solitamente questa quota a
partire dalla quale è possibile risparmiare materiale viene presa circa ad un’altezza pari a 1.5 volte l’altezza d’onda di
progetto H s , con le stime di Rd 2 % è possibile fare delle stime più precise di questo livello.

Nuovamente essa dipende:


- Pendenza della scarpata
- Permeabilità nozionale (porosità)
H0
- Caratteristiche dell’onda: s0 m = ove il pedice m identifica il periodo medio.
L0 m

Inoltre, le pendenze (α ) per le dighe a gettata variano fra 1:1.5 e 1:3, perciò il primo termine varia fra 1.7 e 1.3, il
secondo termine invece varia fra 0.95 e 1.05 (per P=0.2 e 0.4). Il terzo è invece significativo per le onde di piccola
rapidità: essendo il frangimento di tipo surging più le onde sono lunghe più hanno Ru e Rd elevato (min 14:00 lect.
18) quindi in generale Rd < Ru infatti se consideriamo i rapporti fra essi e l’altezza d’onda significativa si nota che nel
caso di Ru tale rapporto arriva fino a 3, mentre nel caso di Rd arriva al massimo ad 1.5. Più le onde sono lunghe (più
Hs
è piccolo) più ξ > 1, quindi nel grafico se mi muovo verso destra abbiamo onde lunghe.
L0 m

Quindi quello che abbiamo visto fin’ora in termini di risposta dell’opera nei confronti di Rd e Ru ci permette di
calcolare la cosiddetta portata tracimante: quanta acqua passa oltre la diga durante gli eventi della mareggiata. In
3
base ad analisi dimensionali (per a-dimensionalizzare la portata divido per √ g H ) e del processo idraulico in analisi
s
si ha:

Si nota quindi che la portata tracimante a-dimensionalizzata è funzione di due elementi:

1. Ru 2 %
2. Rc : altezza di cresta, differenza fra il livello medio mare e il punto più alto della diga
Questa dipendenza funzionale individuata è quella base e più semplice (fig. sopra), nulla ci vieta di complicare lo
schema e di ottenere relazioni funzionali nel caso di berme o di muri para-onde posto ad una certa distanza G
(fig.sotto).

In ogni caso, in tutta la letteratura sviluppata su questi temi la portata (nel caso di dighe a gettata, per le dighe a
parete verticale vedremo) è stata formulata nel seguente modo:

Nella prima equazione si ha:

Rc
R= , parametro di cresta a−dimensionale ¿ )
Hs

Inoltre, anche la Q delle due equazioni sopra è a-dimensionale, e i parametri a e b si valutano tramite regressione
dei dati sperimentali.
Anche in questo caso sono stati effettuati esperimenti di laboratorio e, anche in questo caso, le condizioni al
contorno dell’esperimento sono fondamentali per definire i limiti di validità dell’equazione. In base al tipo di
costruzione marittima sono fornite diverse formule per il calcolo della portata tracimante . Owen (1980-1982), il
primo ad occuparsi di queste tematiche, realizzò esperimenti su superficie impermeabile scabra liscia e con berme.
Dalla tabella si nota come alcuni autori abbiamo utilizzato come grandezze a-dimensionalizzanti altezza d’onda
significativa e periodo o solo altezza d’onda significativa.

Per a-dimensionalizzare il valore di Rc vi sono diversi modi più complicati che tirano in ballo la ripidità d’onda.
N.B: nella tabella il termine Q indica il valore di portata a-dimensionalizzato della portata q

q
Q=
√ g H 3s
Tutti i modelli visti fino ad ora relativamente al calcolo della portata derivano da sperimentazioni in laboratorio, essi
sono pertanto modelli parametrici, modelli cioè che si ottengono facendo variare i parametri sperimentali. Questi
modelli ci permettono di avere un’indicazione dell’ordine di grandezza della portata tracimante per fare delle
valutazioni di ordine operativo o di sicurezza sul funzionamento della diga (vi sono dei livelli di sicurezza in relazione
alla portata tracimante).
Vediamo ora le relazioni più comuni sia per valutazioni di massima della portata tracimata che per capire su cosa si
basano gli strumenti e gli approcci più sofisticati ed elaborati e come funzionano.

Bradbury & Allsop (1988):

La portata adimensionalizzata è uguale al prodotto fra una costante a ed R−b (altezza di cresta adimensionalizzata)
che viene espressa come prodotto di due elementi. In questa relazione si tiene conto anche delle caratteristiche
dell’onda (tramite la pendenza dell’onda calcolata al largo con le quantità medie, s0 m). Nella sperimentazione questi
due hanno analizzato 5 configurazioni di diga con configurazioni geometriche ben definite:
a. Classico profilo di diga a gettata con muro paraonde completamente emergenti rispetto alla cresta della
mantellata
b. Classico profilo di diga a gettata con muro paraonde molto lontano dalla cresta della mantellata, se ho
problemi di tracimazione una configurazione di questo tipo può aiutare a diminuire il volume di tracimazione
c. Classico profilo di diga a gettata con muro paraonde parzialmente protetto dai massi della mantellata
d. Classico profilo di diga a gettata con muro paraonde al livello della mantellata
e. Classico profilo di diga a gettata con muro paraonde sottomesso al livello della mantellata

Per cresta si intende il passaggio fra la porzione inclinata e quella orizzontale della mantellata.
Figura 16: La distanza 3D viene presa per ragioni di stabilità della struttura.

In funzione dei rapporti fra le grandezze G , H a , Rc e A si Bradbury e Allsop forniscono una tabella che permette di
ricavare i valori da impiegare nella formula in esame nei relativi intervalli di validità. Tutto questo per una
valutazione qualitativa dei valori del Ru sulla mantellata.

Bradbury e Allsop (1988):

Questa formulazione rappresenta un’estensione del caso c (immagine precedente): mantellata che copre parte del
massiccio di coronamento. Su questa geometria sono state realizzate prove su diverse pendenze e su diverse
tipologie di massi. Cambiando le caratteristiche geometriche e fisiche della diga si hanno dei valori di portate
tracimanti molto differenti fra loro. La relazione è la stessa di prima solo che sono stati realizzati maggiori
esperimenti per il calcolo di a e b.

Pederesen & Burcharth (1992):


Qua la portata tracimante è a-dimensionalizzata in modo diverso rispetto alle altre formulazioni e anche per quanto
riguarda il gruppo funzionale esso risulta più complesso.
È presente infatti una dipendenza dal parametro a-dimensionale più complicata.

- Larghezza berma B
- Pendenza mantellata α
- Altezza di progetto H s
- Altezza di cresta del muro Rc
- Altezza di cresta della mantellata Ac

In questi esperimenti i test sono condotti non con un’onda ma con tante onde e perciò la portata tracimante è pari a:

Q=
∑ qi
T tot

Di fatto, per semplicità nella raccolta dei dati durante l’esperimento, corrisponde ad una portata tracimante media.
A tergo della diga è inserita una vasca in grado di ricevere la portata tracimante che viene in essa raccolta, nella
vasca sono inserite delle celle di carico che ci dicono la forza esercitata in un punto (tramite l’allungamento della
molla posso calcolare il volume tracimato, la forza in questo caso è il peso), a fine esperimento quindi sappiamo il
l 1
numero di onde, il tempo totale e quindi la portata istantanea per metro lineare
[ ( )]
s m
è pari a:

Q tot
q=
T tot

Se alzassi il muro paraonde in modo da non fare riempire la vasca (minimizzare la portata tracimante) si avrebbero
però due problemi:

1. Alzando il muro la forza orizzontale generata dall’acqua aumenta ed è difficile stabilizzare un muro alto che
contrasta una forza solo per attrito, non deve scivolare via.
2. L’altezza del muro non può essere infinita, Rc ha vincoli di altezza specifici molto limitanti in termini
paesaggistici. A Genova sono ammesse quote fino a 8-9 m.

Perciò emerge che la progettazione della diga ha una ricaduta a cascata dapprima sul Ru 2 %, in seguito sull’entità di Q
e in ultima istanza sulla forza esercitata dall’acqua sul muro F n. Perciò per aumentare la resistenza alla forza
esercitata dall’acqua (verifiche non soddisfatte ad esempio) è necessario rivedere il profilo della diga e quindi
rivalutare i valori di Ru 2 % e Q . Quindi molto schematicamente la progettazione di una diga prevede i seguenti
passaggi:

1. Dimensionamento dei massi


2. Valutazione e verifica del Ru 2 %
3. Verifica Q tracimante
4. Verifica delle forze
5. Verifica del muro

C’è qualcosa che non va? Ritorno all’inizio e faccio le modifiche necessarie come ad esempio l’inserimento di una
berma per diminuire il valore del Ru 2 % e in conseguenza di tutte le grandezze ad esso seguenti. È palese quindi come
la progettazione di queste tipo di opere sia di tipo iterativa.

Nota sugli esperimenti:


All’interno degli esperimenti si usano grandezze a-dimensionali perché il teorema π permette di fare “collassare”
grandezze molto differenti fra loro in un unico risultato su (piani a-dimensionali) che mette in luce più facilmente le
relazioni che intercorrono fra di esse, in caso contrario si avrebbero risultati molto dispersi.
La portata tracimante viene valutata perché in funzione del suo valore numerico è possibile valutare i possibili danni
e potenziali minacce che vengono riportati a tergo della diga per quanto riguarda la sicurezza del traffico (safety
traffic, operatività portuale) e la sicurezza strutturale (structural safety). Ad esempio, fissato un valore molto

m3
contenuto di portata tracimante di
0,0005
m
( )
s (i.e 0.5 l/s/m) si nota come i potenziali danni sono consistenti

rispetto al contenuto valore di portata tracimante: parcheggio non sicuro per macchine poste a tergo, danni
strutturali per abitazioni poste a tergo e così via. C’è qualcosa che non quadra…la portata indicata nella tabella è
infatti una portata media: la portata totale misurata nella vasca di raccolta diviso il tempo totale dell’evento. Questo
valore medio deriva da eventi di tipo spike (eventi impulsivi: brevi e molto intensi) che, all’interno di un esperimento,
non si riescono a caratterizzare bene perciò si utilizza come riferimento il valore medio della portata che si valuta in
maniera molto agevole, le quantità istantanee sono infatti molto più difficili da valutare. La solidità di questo
approccio sta nell’alto numero di onde (ca. 5 000) generate negli esperimenti che forniscono una solida base
statistica.
Approccio contemporaneo ai calcoli presentati:
Dal momento che sono stati condotti innumerevoli esperimenti con geometrie molto differenti fra loro, non è
sempre facile trovare la relazione adatta alla mia particolare configurazione della diga. Per fare fronte a questa
problematica sono state realizzate delle reti neurali, esse sono reti con grosse basi di dati in grado di memorizzare le
caratteristiche geometriche della diga, degli elementi etc e di associare il valore che esce dall’esperimento ad una
specifica configurazione (vista una roba simile in geotecnica). Queste reti sono quindi alimentate con tutti i dati degli
esperimenti. Se a questa rete fornisco delle caratteristiche ad essa sconosciute in base ad interpolazioni pesate (i
pesi sono dati in base alla vicinanza delle condizioni inserite a quelle note dalla rete) essa restituisce un valore di
portata tracimante. Quindi:

1. Se faccio nuovi esperimenti possono implementare la base dati ed allagare la copertura dei dati.
2. Se ho una configurazione non coincidente a quelle presenti nel database, si ottiene comunque un risultato
coerente.

Oggigiorno vi sono 3 reti neurali gratuite disponibili e sono state sviluppate tramite progetti di ricerca europei.

Figura 17: parte dei dati richiesti dalla rete neurale Deltares (società di consulenza olandese).

Da notare che Deltares e HR Wallingford in quanto società di consulenza hanno scopo di lucro (mettono a
disposizione dati anche per intercettare clienti) mentre EuroTop(?) è uno sforzo pubblico finanziato con enti di
ricerca.
A valle di un sistema di previsioni, il prof. e un tesista hanno valutato una portata tracimante per il porto di Savona a
partire dalle caratteristiche dell’opera ed hanno costruito una scala di pericolo.

Figura 18: la tracimazione non dà possibilità di operare in sicurezza nel caso di eventi severi. Nell'immagine viene riportata la strada che i
camion devono percorrere all'interno del porto di Voltri una volta caricati i container. Un danno non solo nell’immediato alla diga, ma anche
costi di manutenzione e danni relativi al mancato commercio.

Nuovamente: il paramento deve essere più scabro possibile per attenuare il run-up e la generazione della
tracimazione!

Figura 19: la parte arancione (massiccio di coronamento) ha un leggero sbalzo per proteggere la mantellata interna dal fenomeno della
tracimazione e limitare eventuali fenomeni di erosione degli elementi della mantellata interna posti al di sopra del livello d’acqua.

Massiccio di coronamento:
È quell’elemento in cls armato posizionato in sommità della diga per dare una zona percorribile e accessibile in testa
alla diga e permette una maggiore prestazione per quanto riguarda la limitazione della portata tracimante all’interno
della diga.
È l’ultimo elemento che si progetta e completa il profilo della diga, esso viene impiegato per due motivi principali:

1. Per fornire una maggiore resistenza alla tracimazione


2. Permette di realizzare una piattaforma di circolare, un’area che posso adibire a spazio operativo.

Esso è poggiato direttamente sul nucleo e sullo strato filtro, la mantellata è appoggiata direttamente su di esso.
Nell’immagine sottostante esso è realizzato tramite elementi prefabbricati.
Dal momento che questo tipo di elementi sono soggetti a forze orizzontali e lavorano per attrito (il peso proprio si
oppone alla forza orizzontale delle onde) le verifiche saranno condotte per verificare gli spostamenti a cui sono
sottoposti, si eseguono perciò delle verifiche di slittamento. Dal punto di vista operativo il valore del peso proprio
della struttura e del coefficiente di attrito sono facilmente calcolabili, non si può dire lo stesso per il calcolo della
forza orizzontale esercitata dal moto ondoso. Il processo è altamente non lineare, frangimento, intrappolamento di
aria, generazione di turbolenza, presenza di strati porosi, zona di impatto diversificata…
μ P> Fn

Anche in questo caso, la problematica si risolve in modo sperimentale.

Le grandezze fondamentali per lo studio della forza esercitata sul massiccio di coronamento sono:

1. Forza peso del massiccio di coronamento F G


2. Forza delle onde F w (forza delle waves), rappresentate tramite un profilo in parte dinamico (parte sotto) e in
parte idrodinamico (parte sopra)
3. Sottopressione alla base del nucleo poroso U (Uplift): la filtrazione d’acqua nei diversi strati alleggerisce il
peso dell’oggetto, F b

Si può effettuare anche una verifica alla rotazione, tuttavia essa è poco significativa.
Il nocciolo del problema è pertanto la definizione del profilo che si genera dal punto 2 (wave generated pressure),
non vi sono modelli numerici (fino a poco tempo fa) facilmente impiegabili per descrivere il fenomeno e non esistono
modelli analitici (fino a poco tempo fa) abbastanza complessi per la descrizione del fenomeno. Per questo motivo
sono stati condotti degli esperimenti in laboratorio.
A priori risulta piuttosto chiare che il Ru 2 % non solo è legato al valore di portata tracimante Q ma anche al valore
della forza esercitata sul massiccio di coronamento F w: infatti diminuendo il Ru 2 % (tramite un muro più alto)
diminuisce di conseguenza Q ed è lecito aspettarsi un aumento della forza F w in quanto il massiccio deve assorbire
una quantità di forza maggiore (se fermo più portata ho più forza sul muro). Bisogna quindi cercare un bilancio delle
performance del muro che deve essere in grado non solo di contrastare la portata tracimante ma non deve essere
eccessivamente massiccio per evitare di impiegare un quantitativo eccessivo di materiali e di gravare eccessivamente
sulle fondazioni.
Fondamentalmente la verifica a scivolamento della diga corrisponde ad un equilibrio alla traslazione che permette
di definire il peso del massiccio di coronamento (espresso in funzione delle sue dimensioni). Un altro aspetto da
tenere in conto è la verifica a rotazione della sezione di massiccio posta alla base della sua parte verticale, questa è
una semplice verifica a momento come visto in tecnica delle costruzioni.

Perciò le verifiche che debbono essere fatte per una corretta progettazione sono:

1. Verifica a stabilità dell’oggetto (che vedremo)


2. Verifica della sezione alla base del muro in c.a (che non vedremo, tipiche della tecnica di costruzioni).

Risposta idraulica dell’opera:


Il massiccio ha una certa altezza h e fino ad una certa altezza vi è lo strato della mantellata, questo aspetto è
particolarmente importante perché la presenza della mantellata permette diminuire fortemente le pressioni
esercitate dall’acqua, l’ammasso smorza l’azione dell’acqua e annulla la parte dinamica del moto ondoso.

Figura 20: Nell'immagine di dx. i pedici 1 e 3 sono invertiti! In azzurro viene rappresentato un diagramma delle pressioni qualitativo

Nella figura sopra è riportato l’andamento delle pressioni a-dimensionalizzate in funzione del periodo a-
dimensionale dell’onda relativamente a 3 differenti trasduttori posti a 3 differenti profondità. Si nota quindi che la
parte scoperta riceve la maggior parte delle sollecitazioni derivanti dal moto ondoso. Queste forze impulsive
(slamming) nascono a seguito di un eventuale frangimento direttamente sul paramento verticale del muro, in
particolare se l’onda intrappola dell’aria al suo interno il picco del grafico è ancora più marcato in quanto la lama
d’acqua comprime la bolla d’aria e provoca una forza impulsiva ancora più forte. Sono presenti quindi 3 picchi, uno
maggiormente marcato (muro esposto) e due decisamente più contenuti che risentono dell’effetto benefico messo a
disposizione dalla mantellata. Se sono presenti quindi eccessive forze sul muro di coronamento si può pensare di
alzare la mantellata oltre il livello del muro di coronamento che risulta quindi sottoposto al ciglio della mantellata
(fig. 15 e), solitamente a questo espediente si accoppia anche l’inserimento della berma.
Questa spiegazione ci permette di capire nel caso di frangimento sul muro di coronamento possono crearsi due
differenti condizioni:

1. Onda che impatta sulla parete verticale del muro di coronamento


2. Onda che viene smorzata significativamente grazie alla scabrezza della mantellata e non impatta
direttamente sul muro

Negli anni ’90 Burcharth diede delle indicazioni per determinare la dinamica di impatto e non impatto sulle dighe
fornendo il grafico sottostante ideato in funzione della larghezza della berma a-dimensionalizzata Bb e del rapporto
fra Ac l’altezza caratteristica (di design, di fatto l’altezza massima H c max). In funzione di queste grandezze siamo in
grado di capire se la nostra diga si trova all’interno della zona di impatto o non impatti

Nelle formulazioni sopra riportate L0 p corrisponde alla lunghezza d’onda al largo calcolata col periodo di picco:

g T 2p
L0 p =

Se ci troviamo nella zona di impatto possiamo pensare, nel caso di verifica alla traslazione non soddisfatta, di
disporre un ulteriore strato per quanto riguarda la mantellata in modo da aumentare la stabilità del manufatto.
Verifiche:
Ve ne sono molte:

a. Sliding, quella principali


b. Overturning, rotazione rispetto al polo lato porto, non vi sarà mai la completa rotazione perché prima si
presenterà un cedimento del terreno sottostante
c. Cracking, verifica a taglio
d. Geotchnical failure, verifica geotecnica dell’imbasamento (del pezzo di terra sotto il massiccio)

Posizionamenti del massiccio:

Lo slamming si verifica soprattutto nel primo caso, così come nel secondo. I casi c e d sono progettati proprio per
evitarlo.

Schema di verifica:
Vediamo le forze in gioco per impostare la verifica:

- Forza delle onde: quella rappresentata in blu, qua viene idealizzata come una forza costante ma in realtà
non lo è
- Forza dei massi: il cui effetto è comunque marginale
- Forza di gravità dell’oggetto: quella che fornisca la stabilità
- Sottopressioni: dovute alla filtrazione dell’acqua attraverso lo strato sul quale il massiccio appoggia, il che lo
alleggerisce
- Polo di rotazione: indicato in verde

Le forze destabilizzanti sono quelle delle sottopressioni e quelle delle onde.


Come detto la problematica sta nel calcolo della forza blu, quella delle onde. A partire dagli anni ’80 sono state
fornite delle stime tramite modelli parametrici per la valutazione di tale forza, queste stime, molto simili fra loro,
accoppiano un modello di pressione idrostatica (triangolare) e un modello di pressione idrodinamica.

Gumback e Gocke (1984): Non impact


Conducono esperimenti in condizioni operative di non impact (l’onda arriva senza impatto violento). Sulla parete
verticale si individuano quindi due contributi: uno di pressione dinamica e uno di pressione idrostatica. Per quanto
riguarda il primo, la quota di inizio della distribuzione idrostatica Ph=γ w y viene posta in corrispondenza del punto
di intersezione fra il Ru 2 % e la pendenza della mantellata (fig.21 min 26:00 lect. 21), la pressione dinamica invece
sostanzialmente corrisponde ad un getto che in parte colpisce direttamente la parete con la massima potenza e in
parte (quella inferiore) è limitato dalla presenza della mantellata:

ove il termine sotto radice corrisponde ad una velocità di onde su acque basse ed è pari a:

u=√ gh

Ove y corrisponde alla profondità della lama d’acqua di fronte al muro, per quanto riguarda la parte coperta dalla
mantellata si ha:

pm =0.5 P m

Il diagramma delle sottopressioni è composto da due contributi:

- Contributo di pressione idrostatica ph


- Contributo di pressione legato all’ammasso di fronte alla mantellata poiché nel punto di spigolo la pressione
si ha una sorta di “trasporto” del valore di pressione proprio come nel grafico del momento flettente in
scienza delle costruzioni, ci deve essere continuità nel punto!
Figura 21: distribuzione delle pressioni e procedimento grafico per ottenere y. θ = 15° poiché si ipotizza che la lama d’acqua si trovi all’interno
dei quello spicchio individuato dall’angolo.

In questo G & G usano una formula di Ru 2 % un po’ diversa ma non c’è problema, possiamo usare la formula che ci
pare per il suo calcolo. Per il calcolo del modulo della forza si opera tramite una classica integrazione della pressione
sull’area lungo le lunghezze del muro e si ottiene una forza per metro lineare.

Jansen (1984), Bradbury et al. (1988): impact


Per il calcolo dei valori di impact non viene fornito un diagramma delle pressioni ma un valore statistico in forza (“un
contributo in forza) allo 0,1% derivante da misurazioni effettuate tramite celle di carico: il fenomeno delle onde è
randomica e va studiata statisticamente. Ovviamente anche in questo caso la relazione a-dimnsionalizza la forza
impiegando le seguenti grandezze:

- ρw : densità dell’acqua
- g
- H w : profondità di fronte alla diga
- L0 p: l d’onda calcolata col periodo di picco al largo

Così facendo si ottiene una relazione lineare dipendente da due coefficienti α e β in funzione del rapporto fra
l’altezza d’onda significativa e l’altezza della cresta della mantellata AC .

Ovviamente a sezioni di muro differenti corrispondono diversi valori di α e β , tali valori sono tabellati in funzione
delle diverse configurazioni. Se ad esempio ho ipotizzato una configurazione iniziale di un certo tipo da un punto di
vista geometrico potrebbe capitare che le verifiche non siano soddisfatte e quindi potrei essere costretto a cambiare
tipologia di sezione.
Nuovamente, i parametri da utilizzare per queste formulazioni hanno delle limitazioni di applicazione.
Secondariamente si nota come la pendenza in ogni esperimento fosse fissata ad un valore 1:2 in ragione dell’impiego
di massi naturali per la mantellata.

Martìn et al. (1995): impact/non impact e frangenti/non frangenti


Visto che le due formulazioni di impact e non impact risultavano separati Martin et al. hanno pensato di esporre una
formulazione che tenesse in conto delle contemporaneamente delle due condizioni, queste due relazioni sono
coerenti fra di loro. Le distribuzioni delle pressioni, per quanto riguarda la configurazione impact, sono simili alla
prima formulazione vista con alcune differenze e analogie:

1. La componente idrodinamica sulla parete verticale è costante ma il suo valore al piede è dipendente da una
costante c w 2 che va calcolato in funzione delle caratteristiche della berma in testa (esso è infatti
proporzionale alla larghezza della berma e alla lunghezza d’onda al picco). In base a come è definito questo
coefficiente si capisce che più la lunghezza d’onda è grande più piccolo è l’effetto della berma, l’onda “non
vede” la berma.

2. La pressione in testa della parete verticale è funzione di due coefficienti, uno appena descritto e un altro, c w 1
, proporzionale alla quota di run up.

3. La pressione in testa della parete verticale è funzione di S0 che di fatto corrisponde a quello che prima era
stato definito come y :
Per quanto riguarda le sottopressioni esse sono definite differentemente a seconda che la situazione sia di impatto o
non impatto. Solitamente si pone pari a zero il livello della sottopressione lato porto, tuttavia in condizioni di
intasamento del retro del masso con filtro, nucleo etc. si ha un valore di sottopressione diverso da zero e
l’andamento dell’immagine rappresentata non risulta triangolare ma trapezioidale. Nuovamente, essendo le
formulazioni ottenute a partire da analisi sperimentali le grandezze fisiche reali sono opportunamente a-
dimensionalizzate.
Uno degli aspetti cruciali di tale modello è il rapporto fra il run up ( Ru) e l’altezza d’onda H , questo rapporto dipende
da due coefficienti Au e Bu, il loro comportamento può essere espresso su un grafico in funzione della porosità e dei
massi che costituiscono la massicciata, sul grafico di destra è rappresentata la funzione esponenziale ottenuta a
partire da dati sperimentali (rombi).

Perciò, ipotizzando una porosità pari a 0.4 si possono ottenere graficamente due valori standard di Au (1.4) e Bu
(0.6).

N.B: il numero che nell’immagine sopra è definito come I r corrisponde al numero di Irribarren ξ .
Chicca: Esistono due mondi nella definizione di quella che noi abbiamo chiamato fino ad ora come numero di
Irribarren. In spagna utilizzano la definizione di numero di Irribarren I r perché tale studioso, spagnolo, fu il primo a
definirlo, tuttavia in Olanda e più in generale nel mondo anglosassone non viene riconosciuta la sua paternità e
pertanto chiamano tale rapporto surf similarity parameter ξ .

Sempre Martìn ha studiato il comportamento del coefficiente c w 3 in funzione della ripidità d’onda, tale parametro
entra in gioco nella definizione della pressione idrostatica nel caso di configurazione non impact. Più l’onda diventa
ripida più il coefficiente diminuisce. Non solo, egli ha anche prodotto delle relazioni fra il valore delle sottopressioni
presenti agli estremi della base del massiccio di coronamento in funzione del rapporto fra la profondità del massiccio
di coronamento ( B oppure L) in funzione della lunghezza d’onda.

Figura 22: più la soletta è lunga rispetto all’onda più la pressione si scarica, se la soletta è corta è presente una pressione significativa anche
lato porto

Pedersen (1996):

Le forze sono espresse in termini di percentuali di superamento, in particolare vengono espresse i valori della forza e
del momento in funzione di:
- Caratteristiche della diga come ad esempio B
- Caratteristiche delle onde come ad esempio L0 m
Questo tipo di approccio viene adottato tramite l’ausilio di AutoCAD in quanto richiede una risoluzione geometrica
abbastanza noiosa da risolvere a mano, si eseguono infatti dei rapporti fra l’area della lama d’acqua ( A2) e l’area
della mantellata ( A1). sopra il livello medio del mare. Sono disponibili invece delle formulazioni per il calcolo di pm,
y eff e h' .

Lo schema delle pressioni è simile a quelli già visti:


Sebbene si possa calcolare direttamente la forza, la complicanza di questo metodo è legata alla presenza del
disegno: se si cambia una parte del progetto vanno rifatti tutti i calcoli compreso il disegno e la valutazione delle
aree. Il consiglio è quello di creare dei fogli di calcolo Excel ben strutturati la prima volta che si impiega questo
metodo.
Dal momento che questi esperimenti nascono in laboratorio e hanno base statistica le due esperessioni fornite
all’inizio sono corredate da un’affidabilità, viene infatti fornita la deviazione standard per ogniuno dei coefficienti
che caratterizzano le due equazioni (0.21, 1.6, 0.55, 1), sappiamo quindi quanto i coefficenti presenti nell’equazione
variano.

Verifica numerica:
Viste ore le diverse componenti che caratterizzano la risposta idraulica della massicciata è possibile passare alla
verifica da un punto di vista operativo, la condizione fondamentale (a meno dei coefficienti di sicurezza) che deve
essere soddisfatte è la seguente:

( P−U ) μ> F w

Manca quindi solo il valore del coefficiente di attrito da definire. Non è semplicissimo da definire, tendenzialmente si
utilizzano dei valori standard che però sono contenuti in un range piuttosto ampio ( μ ∈0.4 ÷ 0.8 ) questi valori
derivano da studi sperimentali effettuati in Giappone nel 1996.

Figura 23: crushed stone (pietre da cava), screeded (preparata), not screeded (messe a cazzo).

L’obiettivo è avere coefficienti di attrito più alti possibili in modo da poter disporre di un coefficiente di attrito
elevato. Altri esperimenti sono stati condotti in Francia attorno agli anni ’90.
Dalla tabella sopra si nota come anche una piccola variazione della scabrezza della superficie ( smooth vs. corrugated)
porta a significative differenze nel valore di μ.
Solitamene μ appartenente all’intervallo 0.4 ÷ 0.5 e questo dipende, come detto, dalla realizzazione della superficie
di posa del massiccio di coronamento.

Parte non inclusa nelle slides tratta dall’Engineering manual: livellamento della massicciata

Sono presenti due approcci per la fase cosiddetta di levelling:

- Rough levelling: la superfice di interfaccia fra l’ammasso ed il muro è la più scabra possibile, coefficiente di
attrito elevato
- Fine – Rubble levelling: la superfice di interfaccia fra l’ammasso ed il muro è la fine, coefficiente di attrito
contenuto

Se vi sono problemi di stabilità, anziché aumentare il peso del cls del massiccio di coronamento è molto più
funzionale realizzare il taglione, esso corrisponde ad una speciale sagomatura da parte della parte in cls in grado di
penetrare più a fondo nell’ammasso

Figura 24: nel caso di taglione μ può raggiungere addirittura valori intorno a 0.6 – 0.65

Viene sì impiegato più calcestruzzo ma non tanto quanto nel caso di aumento di spessore della soletta. In funzione
del tipo di levelling e del bottom pattern si hanno differenti coefficienti di attrito che sono calcolati fissati differenti
valori di spostamento.
Figura 25: l'inserimento dei taglioni porta un aumento considerevole del coefficiente di attrito rispetto alla condizione flat, soprattutto nel caso
di superfice molto liscia (fine smoothing) che senso sia maggiore di quello rough se la superficie è molto liscia?

Quindi la soluzione migliore per aumentare il coefficiente di attrito è accoppiare rough levelling e taglione.

Esempio di calcolo con metodo Jensen per massiccio di coronamento:


Da sviluppare autonomamente e verificare a parte

Oggigiorno sono presenti degli strumenti di calcolo che permettono di tenere in conto l’interazione delle onde con la
struttura e riprodurre graficamente questa interazione che permette apprezzare il run up e il run down dell’onda .
Questi programmi risolvono le equazioni del moto dei fluidi in presenza di strutture e permettono di fare delle stime
non solo nei confronti della portata di tracimazione ma anche delle distribuzioni di pressioni nei confronti del muro
paraonde. Questo tipo di informazioni sono estremamente utili in fase di progettazione perché tramite queste
simulazioni si possono avere info dettagliate sull’andamento (durante il tempo) delle formulazioni impulsive e altro.
Le simulazioni sono complicate, questi programmi richiedono perciò allo stesso tempo una conoscenza approfondita
della meccanica dei fluidi per poter valutare criticamente quanto si ottiene nelle simulazioni . Gli strumenti di calcolo
sono impiegati per situazioni critiche, particolari, che richiedono in ogni caso uno studio approfondito, in questo
caso avrebbe senso accoppiare non solo la sperimentazione numerica ma anche una sperimentazione in vasca: i
primi permettono di verificare rapidamente differenti scelte e opzioni progettuali, i secondi sono molto dispendiosi
in termini di tempo e soldi (le modifiche fisiche del modellino richiedono impegno) ma forniscono dati accurati.
Solitamente quindi si tende a ricreare il modello numerico in laboratorio per poterlo verificare e ottimizzare in base
ai risultati ottenuti e modificare di conseguenza le caratteristiche della diga.
DIGHE A PARETE VERTICALE:

Per questo tipo di opere di protezione le onde vengono riflesse, vi sarà pertanto una componente riflessa del moto
ondoso che viaggia verso il largo e una componente incidente che viaggia verso la diga. In base a questo schema si
genera una segnale di moto ondoso che è la somma dell’incidente H I e della riflessa H R. La resistenza alle onde,
molto banalmente, è generata dalla forza di attrito e come è stato definito in precedenza si ha:

F w < μ ( P−U )

Gli elementi principali che costituiscono le dighe a parete verticale sono:

- Imbasamento (arancione), costituito da materiale sciolto.


- Fusto o tronco della diga (azzurro), infrastruttura. Realizzato con cassoni cellulari monolitici in c.a a sezione
rettangolare (scatoloni in c.a suddivisi in celle), solitamente fuoriesce dal livello medio mare per una
grandezza dell’ordine del metro, appoggia sull’imbasamento. L’impiego di questo elemento costruttivo
permette una sua realizzazione tranquillamente in officina e un suo posizionamento dove serve, la
lavorazione è in serie e l’installazione è facile. I problemi sono legati alle altezze che si riescono a raggiungere
perché per realizzare questi cassoni si usano impianti speciali che solitamente sono posizionati all’interno di
un porto.
- Muro paraonde (i.e sovrastruttura, grigio), impiegati per evitare il processo di tracimazione sopra la diga.
- Massi guardiani (viola), solitamente sono due blocchi in c.a.
- Cuscino di sabbia (ciano), è una parte in cui è possibile si rendano necessari una serie di interventi di
consolidamento del terreno e miglioramento delle capacità portanti. Ad esempio, si potrebbe effettuare una
scarificazione del terreno con sostituzione del terreno per migliorare la capacità portante.
-
Si ha difficoltà a realizzare un unico elemento assieme di altezza pari a h+ A c, per questo viene diviso in due pezzi
(azzurro e grigio).

Diga di Cornigliano:
L’imbasamento è realizzato con materiale sciolto, è stato scavato un leggero cuscinetto di sabbia (scanno) rispetto al
fondale, l’imbasamento prevede una massicciata di protezione (va prevista nel caso si possano avere determinati
effetti del moto ondoso) per evitare di movimentare ed erodere l’imbasamento (min. 16:00 lect. 23 spiega bene il
motivo). Si nota la presenza del masso guardiano (verde) e si notano anche il cassone cellulare ed il massiccio
paraonde.
Solitamente si cerca di tenere il livello di imbasamento a circa il 30% della profondità locale del mare h (in tal caso si
parla di dighe composite low mound) perché se avessi un imbasamento più alto le onde potrebbero instabilizzarsi e
creare frangimento, questa cosa va assolutamente evitata nelle dighe a parete verticale perché potrei avere un
trasporto di massa importante (generano un impatto significativo sulla diga )e le dighe di questo tipo non sono fatte
per resistere a questo tipo di onde, potrebbero andare in crisi. Le dighe a parete verticale sono progettate invece per
resistere bene alle pressioni delle onde non frante.

Diga di Voltri:

In questa situazione le quote sono significative, l’imbasamento è di circa 10 m mentre la parte libera è circa 20m,
1
anche qua si ha B h, il cassone è quindi circa alto 22m (una palazzina di 7 piani). Si nota che l’imbasamento è
3
realizzato tramite un tout-venant, il che richiama le dighe a gettata e la protezione ad esso è significativa per
contrastare l’azione delle onde anche ad una certa profondità. I massi guardiani, posti fra la protezione e la diga,
sono l’elemento più importante della diga perché un loro spostamento manda in crisi tutta la diga . Come per le
strutture ordinarie, la funzione dell’imbasamento è quella di consentire un unico piano di posa sufficientemente
esteso e di ripartire sul terreno le elevate pressioni che il terreno stesso non potrebbe altrimenti sopportare. Il
terreno del fondale marino non ha buone capacità portanti, è saturo e limaccioso, con l’imbasamento la
distribuzione del carico segue i piani di rottura del terreno: il peso del cassone viene distribuito su un’area più
estesa.

Molo Granili, Napoli:


In questo caso il massiccio di coronamento è verso l’interno, questa è una scelta, come vedremo, per sfruttare la
spinta delle onde a favore di sicurezza. Inoltre, il cassone non è di tipo cellulare ma è realizzato tramite dei piloni cavi
costituiti da elementi unitari cavi impilati l’uno sull’altro (massi di cls, rettangolo arancione) e successivamente
solidarizzati (ma possono anche non esserlo, in questo caso lo sono) tramite un getto in cemento. Questa scelta è
legata al periodo di costruzione di questa diga, essa è piuttosto “anziana” e per l’epoca in cui è stata costruita veniva
impiegata la tecnica appena descritta. Nuovamente, l’imbasamento è costituito da un nucleo di elementi più fini e
uno strato di elementi più grossi (sia lato interno che lato esterno) che termina in corrispondenza di un masso
guardiano.

Vi sono poi altri esempi di dighe più datate che non impiegavano la tecnica del cassone cellulare, come ad esempio
la diga di Algeri e quella di Marsiglia (identiche). Si nota anche che ai tempi si raggiungevano profondità molto
contenute.

Le dighe possono anche non essere solidarizzate (diga di Libau), in questo caso la verifica a scorrimento va condotta
per ogni strato di massi che costituisce la diga.
Si possono presentare anche soluzioni intermedie (diga Molo Sud-Ovest di Colombo) che presentano massi piccoli e
barre verticali di connessione in acciaio che permettono in misura minima di solidarizzare la struttura. In questa diga
addirittura sono stati impiegati calcestruzzo in sacchi induriti in qualità di massi guardiani.

Distanza pelo libero del mare – sommità del tronco, francobordo: δ h


In passato questa distanza era definita a partire dai cedimenti del terreno. Nell’immagine sono riportati i diagrammi
dei cedimenti del terreno dal momento di posizionamento della diga. Come visto in Geotecnica il cedimento iniziale
è dell’ordine dei 60-70 cm fino ad arrivare ad un valore asintotico, tuttavia complessivamente il cedimento è di circa
1 metro. Perciò se si vuole mantenere il francobordo δ h pari a 1m esso è pertanto pari a:

δ h=1 m+ c

Ove il valore c rappresenta il cedimento della diga. Come si fa a valutare il cedimento? Si fanno delle indagini
geotecniche relativamente al terreno di fondazione e si fanno inoltre delle stime geotecniche relativamente al
cedimento atteso del terreno costituito da basamento e terreno di fondazione. Perciò c è funzione delle
caratteristiche geotecniche del terreno.
Il francobordo è necessario perché essenzialmente per due motivi:
1. Sopra al fusto (i.e il cassone) viene adagiato il massiccio di coronamento, il quale lavora per gravità. Se
l’interfaccia fra la cima del fusto e la base del massiccio di coronamento è satura di acqua il coefficiente di
attrito è sicuramente minore del caso di interfaccia asciutta. La presenza dell’acqua lubrifica e quindi
l’insieme massiccio di coronamento – cassone non può più essere considerato come un unico elemento.
2. Se il massiccio di coronamento fosse immerso parzialmente in acqua esso sarebbe soggetto ad azioni
differenti

Innalzamento del livello medio mare:


Se nel 2020 progetto un’opera con vita utile di 50 anni è previsto che nel 2070 sia completamente operativa.
Tralasciando le motivazioni che stanno dietro all’innalzamento del livello medio mare, è innegabile che esso stia
salendo. Ciò ovviamente potrebbe avere delle ricadute significative per la stabilità della diga, in particolare del
massiccio di coronamento. Alcuni paesi, come l’Olanda, chiedono di tenere in conto questo aspetto sia per nuove
realizzazioni che per progetti esistenti, pertanto l’analisi non solo deve tenere conto dei cedimenti ma anche del sea
level rise. Questo aspetto ha anche delle ricadute all’interno dell’overtopping che potrebbe influenzare l’operatività
della diga anche in un futuro abbastanza prossimo. Si potrebbe pensare di collegare il massiccio ai cassoni ma la
realizzazione dei nodi oltre a essere complicata e costosa (anche in termini di tempo) sarebbero molto sollecitate a
taglio, tendenzialmente non si realizzano per semplicità e per ragioni di costi – benefici.

Diga di Gela: quota del ciglio del muro paraonde.

Questa grandezza serve per controllare la tracimazione a valle della diga, tale quota è di particolare interesse per la
sovraintendenza paesaggistica che regola la sua altezza in quanto la cresta costituisce uno sbarramento alla visuale.
Bisogna quindi pensare degli escamotage per ottenere buoni risultati senza compromettere il paesaggio. In questo
esempio la faccia lato mare del muro paraonde è sagomata in maniera concava e riesce a respingere le onde
dirigendole verso il largo, diminuisce efficacemente la portata di tracimazione. Il difetto di questa soluzione è la
generazione di un’ulteriore spinta dovuta alla deviazione della quantità di moto dell’onda. Inoltre, questa diga non
presenta l’impiego di massi guardiani ma solamente di scogli, evidentemente il moto ondoso non era così
significativo da richiedere il loro utilizzo. Ancora, il consistente spessore della soletta (2 m.) è realizzato per
guadagnare peso e stabilizzare l’opera.
Per le dighe del Mediterraneo, a livello preliminare la quota del ciglio del muro paraonde viene posta pari circa a
0.8−1.2 H TR 100 .

Problemi legati alla riparazione:


Le dighe a parete verticale presentano una difficoltà di riparazione molto più marcata rispetto ad una diga a gettata
perché in queste ultime il danneggiamento è relativo allo spostamento di qualche masso, mentre nelle dighe a
parete verticale esso è inteso come uno spostamento della diga a seguito dell’azione del moto ondoso. Spostandosi,
alla base del cassone può lasciare esposta una zona dell’imbasamento difronte al cassone che può iniziare a erodere
fino a scalzare la diga facendola ribaltare in avanti. Per questo motivo, quando si parla di danneggiamento per dighe
a parete verticale, gli spostamenti ammessi sono dell’ordine dei 50 cm, oltre essa potrebbe andare in forte crisi.
Inoltre, un danneggiamento riportato in questo tipo di dighe non è facile da mettere a posto, una volta che si sposta
troppo o si leva il cassone o lo si riposiziona oppure lo si leva e se ne riposiziona uno nuovo. Per questo motivo
questo tipo di dighe non vengono messe in condizioni di:
- Mari per i quali siano prevedibili onde anomale (inizia a frangere, trasporta massi, sposta facilmente la diga).
- Significative variazioni del livello del mare (le condizioni di interazioni fra il fondale e il modo ondoso
cambiano fortemente a seconda dei casi: in condizioni di bassa marea potrei avere frangimento e perciò
spinte impulsive, in condizioni di alta marea si potrebbe avere sommergenza del massiccio di coronamento).
Il Mediterraneo presta bene a questo tipo di dighe.

Conclusioni:
Si può quindi affermare che questo tipo di dighe possono essere impiegate in determinate condizioni:
- Non bisogna avere condizioni di onda frangenti.
- Non bisogna avere condizioni di forte maree.
- Non bisogna avere condizioni di danneggiamento esteso, esso deve essere molto limitato.

Verifiche:
Le principali verifiche che si effettuano per questo tipo di dighe sono due:
1. Verifica a scorrimento: equilibrio alla traslazione orizzontale

F w −μ ( P−U ) <0

2. Verifica a ribaltamento: equilibrio alla rotazione

F w ∙ baF −μ ( P−U ) ∙b Pa −U <0


w

Come detto, sebbene la verifica 1 sia significativa, la verifica 2 è abbastanza artificiosa poiché appena il cassone inizia
a ruotare si genera una pressione talmente forte nel terreno che si conficca in esso. Non è tanto una verifica basata
su condizioni fisiche quanto su condizioni legate alla mobilizzazione dell’oggetto, se la verifica a ribaltamento non è
soddisfatta l’oggetto inizia a conficcarsi nel terreno e quindi la diga perde la sua funzionalità e stabilità.
Vi sono poi anche una serie di verifiche geotecniche che tengono in conto della progettazione dell’imbasamento, che
accenneremo.

Mareggiata storica, 21 Febbraio 1955 Genova: una delle mareggiate più forti all’interno del Mediterraneo.
Nella foto in B/N (Camogli) si nota come l’effetto di tracimazione sia addirittura più alto dei palazzi affacciati sul
mare, raggiunge addirittura l’altezza della Chiesa. Qualitativamente i palazzi raggiungono un’altezza di 25 -30 m!

Questo per avere un’idea della portata della mareggiata. La mareggiata in questione è ricordata principalmente per i
danni causati dalla Breccia Grande al Ponte Canepa e Ronco. Nella foto, la linea ciano rappresenta il posizionamento
della diga distrutta, sono stati anche causati ingenti danni alle banchine (sgrotto, erosione al piede della banchina),
alle navi e ai capannoni all’interno del porto.
Figura 26: la parte arancione si riferisce alla porzione di mare che è stata riempita per fare posto ad un terminal navale.

Per motivi che vedremo, la diga (costruita alla vecchia maniera tramite piloni di massi) è stata distrutta da onde che
hanno iniziato a frangere e pezzo per pezzo hanno spostato gli elementi unitari costituenti la diga . Dove non è
presente schiuma nella foto le onde non frangono, passano quindi senza che vi siano ostacoli, significa che in quelle
sezioni non è rimasto nulla se non un masso sul fondale.
Il grosso problema legato al dimensionamento delle dighe a parete verticale è legato alla determinazione della forza
dovuta alle onde, F w. Le onde sono un processo random, sono una variabile ambientale e hanno forte interazioni
non lineare fra sé stesse e le strutture. Perciò, come detto, si possono adottare due approcci per la determinazione di
tale valore:

- Modelli teorici molto semplici


- Prove di laboratorio

Parliamo di modelli teorici. La prima persona che si pose il problema della riflessione del moto ondoso fu Clapotis.

Modello di riflessione totale di Clapotis:


Egli ipotizzò di avere una parete infinita perfettamente riflettente, in questo caso il coefficiente di riflessione è pari
ad 1 ed è definito come il rapporto fra altezza d’onda incidente e riflessa:

HR
K R=1=
HI

Tutta l’energia che arriva sulla parete viene da essa riflessa. Questo tipo di modello si basa su perciò precise ipotesi:
1. K R=1, riflessione totale
2. Parete infinita
3. Assenza di frangimenti
Sotto queste ipotesi (quindi nel caso di rifrazione) il livello del mare, a causa delle interazioni non lineari, si alza di
una certa quantità Δh definita da una relazione piuttosto complessa che presenta un coefficiente di proporzionalità
legato ad un’altezza d’onda al quadrato ed alla lunghezza d’onda (non chiaro, min. 37:37, lect.24). Sempre all’interno
della formula d corrisponde alla profondità alla quale andiamo a collocare la parete riflettente rispetto al livello del
mare. Perciò, riprendendo quanto detto sopra riguardo il valore del francobordo, va tenuta in considerazione anche
la grandezza Δh per individuare l’altezza da raggiungere col cassone.
Δδ=1+ c+ SLR+ Δh

Ove SLR è il sea water level rise, innalzamento del livello medio mare.
Rispetto al valore Δh è possibile definire due altezze d’onda, una sopra (altezza d’onda incidente H I) e una sotto
(altezza d’onda riflessa, H R). Esse risultano uguali in modulo e sono posizionate sulla stessa verticale, dal momento
che la parete è perfettamente riflettente, perciò l’altezza d’onda totale è pari a:

H T =H I + H R

Perciò se l’altezza d’onda di progetto è pari a 6 m., il valore di altezza totale sarà pari a 12, in altre parole essa è pari
al doppio dell’altezza incidente. È importante conoscere queste grandezze perché fra la cresta della riflessione
totale e il cavo della riflessione totale i diagrammi delle pressioni e calcolare quindi il diagramma sia della pressione
massima (maximum wave pressure) che della pressione minima (minimum wave pressure).
Emerge quindi un aspetto interessante, quando si ha la cresta la forza risultante spinge verso l’interno del porto,
quando invece si ha il cavo la forza risultante è diretta verso l’esterno. La motivazione di questo comportamento sta
nella presenza delle distribuzione idrostatica di pressione esercitata sulla faccia interna della parete (i.e l’acqua del
porto): nel caso di cavo le distribuzioni sono concordi e la forza risultante è diretta verso l’esterno, nel caso di cresta
le forze sono discordi ma si presume che la distribuzione di pressione che genera F w sia maggiore rispetto alla
pressione idrostatica interna. (min. 40:00 lect. 24, non è molto chiaro in realtà perché lui dice che nel caso di forza
esterna si fa una differenza di pressioni…). Perciò in fase di cresta la forza risultante si ottiene dall’integrazione del
diagramma delle pressioni segnati in rosso, mentre in fase di cavo si ottiene dall’integrazione dell’area in arancio.
Questi due grafici sono il risultato della differenza della pressione idrostatica e del diagramma delle pressioni sotto
cresta e sotto cavo

Figura 27: il segmento inclinato arancione interna rappresenta qualitativamente l'andamento della pressione idrostatica interna a tergo della
diga.

Lo scarto (quella a destra) o l’eccesso (quella più a sinistra) di pressione rispetto alla pressione idrostatica sul fondo
vengono calcolate tramite le relazioni che si trovano in fondo alla fig. 27 (quelle che presentano coseno iperbolico).
Un caso estremamente semplice che però, intorno ai primi anni dell’800, permise di effettuare dei dimensionamenti
di dighe in grado di resistere al moto ondo (cfr. Diga Duchessa di Galliera di Genova).

Schema di Sainflu (1948):


Sulla base del fenomeno descritto dal Clapotis (riflessione perfetta), questo studioso ha elaborato uno schema delle
pressioni sulla base della riflessione perfetta per le condizioni di cresta (arancione) e di cavo (verde).
Figura 28: si notano bene il diagramma idrostatico delle pressioni con mare indisturbato (2-7), in caso di cavo (10-11) e in caso di cresta (1-4)

Quindi nel caso di cresta l’integrale viene calcolato sulla distribuzione arancione, in caso di cavo invece l’integrale
viene calcolato sulla distribuzione di pressioni indicata in verde. Il diagramma lato esterno viene costruito
individuando 3 punti:
1. A livello di cresta (punto 1) il valore della pressione è nullo
2. A livello del mare (SWL) corrisponde alla pressione idrostatica
3. A livello del fondale viene calcolato il valore della pressione in base alle equazioni fornite da Clapotis
Raccordando questi tre punti ottengo il diagramma delle distribuzioni delle pressioni nel caso di cavo.
Perciò la diga, a seconda dei casi, dovrà resistere a forze differenti:
- In caso di cresta essa è soggetta ad una forza diretta verso sinistra, RC (Reaction crest)
- In caso di cavo essa è soggetta ad una forza diretta verso destra, RT (Trough crest)

N.B: la quota z in base alla quale viene definita la pressione idrostatica è differente nel caso di SWL ( z=0 nel pto.2),
nel caso di cresta ( z=0 nel pto.1) e nel caso di cavo ( z=0 nel pto.10). Inoltre, la cresta è rialzata rispetto al livello
del mare di una quantità pari all’altezza d’onda sommata all’effetto delle interazioni non lineari ( Δh + H́ ).
Secondariamente la schematizzazione di Sainflu ipotizza una diga di spessore trascurabile (infinitamente stretta).

La realtà è un po’ diversa, l’elemento monolito è caratterizzato da una sottopressione i cui valori di estremità si
calcolano a partire dalle pressioni al fondo lato mare (pressione idrostatica di cresta) e lato porto (pressione
idrostatica su livello medio mare). A questo punto è possibile sottrarre allo schema di sinistra la pressione idrostatica
che tanto è sempre uguale e ottenere le distribuzioni di destra.

Perciò si ottiene:
S− ( P− A−U ) ∙ μ ≤0

È necessario sottolineare che la spinta di Archimede e Uplift erano state messe all’interno di uno stesso contributo,
nella realtà non è così. La spinta di Archimede vale per la porzione immersa di manufatto, la spinta di uplift delle
sottopressioni all’imbasamento è dovuta al moto ondoso, se non è presente moto ondoso la spinta U è nulla. Nel
caso di assenza di onde i diagrammi idrostatici si modificano come in figura sotto (parte in rosso) e sottraendo il
contributo idrostatico esse vanno a zero e rimane solo il contributo di P e A .

Istruzioni Tecniche CLSP (Consiglio dei Lavori Pubblici 1996): Condizioni di cresta
Unico testo tecnico a livello italiano redatto in merito alla progettazione delle dighe. Questo testo fornisce
l’andamento delle distribuzioni delle pressioni da utilizzare per i calcoli della verifica di stabilità, fornisce inoltre le
formulazioni per la valutazione delle pressioni utili a tracciare tali diagrammi.

Figura 29: m corrisponde allo spessore dello zoccoletto alla base del cassone, infatti p4 parte dalla verticale del cassone e non dallo zoccoletto.
b invece è la larghezza del fusto fino allo zoccoletto esterno compreso (così è a favore di sicurezza).

Tutte queste pressioni sono valutate in base al modello di Sainflu. È necessario sottolineare che l’altezza d’onda di
progetto non è più l’altezza d’onda significativa ma è la seguente, calcolata una volta nota l’altezza d’onda
significativa:

H=H 1 1.4 H S
20

E nuovamente si nota che:

- η¿ è la somma dell’altezza d’onda di progetto più la parte di innalzamento del livello del mare dovuto alle
interazioni non lineari
- la lunghezza d’onda è calcolata in corrispondenza di d .
Tuttavia, sia per un caso che per l’altro questo tipo di modello non considera:
- La presenza di un imbasamento
- Paramento della diga è di lunghezza finita
- L’interazione onde – diga

Perciò questo tipo di modello è pertanto teorico e semplificato, allo stesso tempo è un modello molto semplice da
applicare

Istruzioni Tecniche CLSP (Consiglio dei Lavori Pubblici 1996): Condizioni di cavo

Figura 30: quanto riportato nel testo è sbagliato ed è corretto come riportato in figura
Nel caso di cavo cambia l’altezza d’onda di progetto che è diversa dal caso delle condizioni di cresta:

H=H 1 1.67 H s
100

La condizione di cavo è critica perché per onde particolarmente significative si potrebbe avere una spinta verso il
largo, questo dimensionamento viene fatto nel caso di strutture snelle oppure se a tergo della diga sia presente un
riempimento. Nel caso della cresta non ci sono problemi, l’onda spinge la diga contro il riempimento l’attrito e la
massa del riempimento fanno il loro lavoro, nel caso di cavo però la spinta verso il largo non è contrastata da niente
(se non dall’attrito) e si potrebbe creare uno slittamento verso il mare.

Oggi per la progettazione di dighe a parete verticale si usano però modelli specifici che si sono sviluppati alla fine
degli anni ‘80, in particolare si impiega il modello di Goda.

Modello di Goda (1974):


Se si analizza l’evoluzione nel tempo delle forze orizzontali dovute all’azione delle onde tramite un trasduttore di
pressione (P) posizionato nel punto indicato in figura si può notare che, a patto che le onde arrivino a frangimento
sulla struttura, le forze orizzontali hanno dapprima due picchi, poi una fase oscillatoria e infine un ultimo picco più
limitato. Suddividendo l’evoluzione nel tempo delle forze orizzontali in 4 fasi si ha:
1. Contributo impulsivo dovuto all’onda che si instabilizza e che si inizia a frangere di fronte alla diga. Questo
primo picco è dovuto all’impatto della lama d’acqua sulla parete della diga. Il fenomeno che nasce in questa
fase è controllato dal numero di Froude (si ha infatti una lama d’acqua su superficie libera, fenomeno
principalmente governato dalla gravità).
2. Contributo impulsivo dovuto ai processi di compressione che avvengono fra il cuscino d’aria intrappolato
dall’onda e la diga, questo contributo individua un secondo picco più alto rispetto al primo. Il fenomeno
fisico che si sviluppa in questa fase è controllato dal numero di Mach-Cauchy (i fenomeni di compressione
sono importanti) e di Froude (si hanno infatti dei processi di compressione dovuti all’intrattenimento di aria)
3. Fase oscillante generata dall’oscillazione delle bolle d’aria intrappolate, dura fino a che esse non vengono
espulse totalmente.
4. L’ultimo tratto è caratterizzato da un ulteriore picco (si ha quando tutta l’aria viene espulsa) dovuto alla
parte idrostatica e dinamica a seguito dell’oscillazione del moto ondoso, quella legata maggiormente ai
processi studiati da Sainflu e Clapotis.

Fare una distinzione su questi numeri adimensionali è importante perché ci dà un’idea dell’importanza dei fenomeni
fisici che regolano il problema! Possiamo quindi capire, in questo caso, se prevale l’aspetto gravitazionale (Numero d
Froude) oppure quello compressivo (Mac-Cauchy).
Le fasi 1,2,3 sono dovute quindi dovute ai fenomeni impulsivi che si generano quando l’onda frange a ridosso della
diga.

Emerge già qua un problema legato alla modellazione fisica perché nel momento in cui si ha un intrappolamento di
bolle d’aria fra la parete e l’onda si sta considerando fenomeni di compressione ed è problematico realizzare una
similitudine valida sia per Mach-Cauchy che per Froude. Vengono di seguito elencate le principali caratteristiche di
questo modello:

- Non vi è ambiguità sulla scelta dell’onda, si usa sempre H MAX (i . e H design ≡ H D =1.8 H s ) o l’altezza d’onda
limite al frangimento.
- Tiene conto di incidenza obliqua sulla parete.
- Valida anche per onde non frangenti.
- Non vengono forniti diagrammi di spinta in condizioni di cavo.

Anche questo modello fornisce uno schema delle pressioni, la prima cosa che dobbiamo valutare per definirlo è il
¿
massimo innalzamento η (in funzione dell’altezza d’onda che si sta utilizzando e l’angolo di attacco):

La condizione più sfavorevole è ovviamente quella in cui β=90 ° in cui cioè le onde sono parallele alla diga.
I valori numerici delle pressioni possono essere calcolati in base a equazioni sperimentali e nuovamente sono
funzioni del massimo innalzamento, dell’altezza d’onda, dell’angolo di attacco e di due coefficienti α 1,α 2 e α 3. Questi
ultimi stanno a indicare i contributi delle pressioni dovuti a 3 processi fisici della diga:

1. α 1contributo dovuto al carattere idrostatico – dinamico delle pressioni.


2. α 2 contributo impulsivo dell’onda che può impattare, ci permette di capire se la nostra diga può essere
soggetta a fenomeni impulsivi (in realtà valutiamo se vi è una preponderanza dei fenomeni impulsivi o
idrostatici).
3. α 3 contributo legato a condizioni geometriche e di installazione (altezza diga sopra imbasamento in relazione
alla profondità totale di installazione).

Nella formulazione di sono α 2 anche presenti due grandezze finora non definite: la profondità sotto lo scanno di
imbasamento (i.e sotto l’imbasamento, d ) e la profondità su cui vado a cercare il frangimento h b, essa è posta lato
mare, vediamo ora come ottenerla (a volte è possibile porre la profondità di installazione pari alla profondità al
frangimento b h b nel caso di basse pendenze).
Tale altezza viene individuata è valutata come l’altezza del livello del mare rispetto al fondale in corrispondenza di
una distanza dalla diga pari a 5 H s (altezza d’onda significativa), a partire da questa profondità calcolo la possibile
altezza massima al frangimento in corrispondenza di tale profondità.

Figura 31: formula di frangimento proposta da Goda, la pendenza del fondale è identificata da sb
Se ho un valore di altezza d’onda maggiore di questo valore le onde frangono. Così facendo l’altezza d’onda di
progetto è presa come:

H=min(1.8 H s ; H b)

Questo perché se H > H b l’onda viene tagliata dal frangimento (breaking) e quindi l’altezza deve essere al massimo
maggiore o uguale a tale valore.
Nei grafici sottostanti sperimentali si può apprezzare il peso delle costanti α 1e α 2 sulle pressioni. Si nota bene come il
primo dei due coefficienti sia collegato al picco minore mentre il secondo è legato all’andamento impulsivo delle
pressioni.

Figura 32: le condizioni sono quelle o di onda stazionaria (standing pressure) o di onda frangente (breaking pressure)
L’incremento di forze nei due casi è significativo (lo si vede dalla differenza che c’è fra i picchi) ed è fondamentale
capire se nella nostra diga si possono presentare dei fenomeni impulsivi che investono il manufatto.

N.B: il metodo di Goda è un metodo comunque semplificato. Per metodi più approfonditi è possibile effettuare
esperimenti di laboratorio (che però sono abbastanza complicati) oppure simulazioni numeriche, in ambo i casi devo
avere solide basi per quanto riguarda l’interazione onde – struttura.

Figura 33: grafico per la valutazione di α 2 . A sinistra della linea verde si trovano i profili più comuni “usuali” a destra invece si trovano i
cosiddetti profili “inusuali”. La linea arancione rappresenta una sorta inviluppo per i valori di α2

I profili inusuali arrivano sostanzialmente fino a 2 poiché oltre si hanno condizioni di berme.
Nelle condizioni usuali, tenendo basso l’imbasamento, evito di “dare fastidio” all’instabilizzazione del moto ondoso
(che vuol dire? min. 33.50 lect.25).
In questo modello per quanto riguarda le condizioni di cavo sono forniti dei grafici a-dimensionalizzati della
pressione in funzione della wave steepness e della profondità relativa (i.e la profondità alla quale installiamo la
h
diga/lunghezza delle onde a profondità alla quale è installata la diga, ). Non sono solo fornite stime per le pressioni
L
ma anche per il braccio rispetto al fondale e sia per il valore della sottopressione alla base, così da poter effettuare le
due verifiche necessarie per questo tipo di opere.

Verifiche di stabilità:
1. Scorrimento del corpo della diga
2. Di fatto corrisponde allo scorrimento del massiccio di coronamento, se la diga è fatta da più massi
corrisponde alla verifica a slittamento per ogni masso.
3. Punzonamento o rifluimento della scogliera di imbasamento, verifica di tipo geotecnico
a. Verifiche di slittamento parziale dell’imbasamento
4. Affinché il masso guardiano non sia spostato durante gli eventi più significativi, è una verifica fondamentale
perché quando non c’è più si verifica erosione alla base della diga che porta a ribaltamento a causa dello
scalzamento al piede. In base alla dinamica che si instaura a seguito del fenomeno di impatto e riflessione
dell’onda a livello della parete verticale si hanno spostamenti prettamente lungo la verticale mentre sotto i
nodi della sinusoidale si hanno spostamenti prettamente lungo l’orizzontale, nella zona del masso guardiano
si ha quindi una dinamica delle velocità sia in alto che in orizzontale. Perciò se si toglie il masso guardiano il
materiale dell’imbasamento, in base alla dinamica del moto individuata, viene portato via dal mare. Si ha
un’erosione localizzata e quindi la possibilità di ribaltamento della diga lato mare nel caso di forza diretta
verso il mare.
5. Collasso della fondazione, verifica di tipo geotecnico.
a. Verifiche di slittamento globali del terreno sottostante
6. Verifica di tipo geotecnico.
a. Verifica della capacità portante del terreno
b. Verifica dei cedimenti
7. Verifica a tracimazione.
8. Ribaltamento del corpo della diga.

Convenzionalmente si eseguono quindi 4 verifiche convenzionali di stabilità:


1. Verifica a scorrimento dell’opera sull’imbasamento
2. Verifica a ribaltamento.
3. Verifica a schiacciamento dell’imbasamento.
4. Verifica a slittamento di porzioni comprendenti l’imbasamento e il terreno sottostante.
La terza e la quarta servono a verificare che il peso progettato per rispettare le prime due condizioni possa esser
sostenuto dal terreno.

Verifica a scorrimento:
R v sono le resistenze (Peso, Archimede, Uplift) e Ro sono le forze sollecitanti (forze delle onde), il coefficiente di
attrito può essere posto pari a 0.6 perché progetto la base della diga in modo da avere la superficie più scabra
possibile. Nel caso dei cassoni non si impiega la tecnica del taglione perché essi sono realizzati in cantiere e non si
riesce a fare diversamente. Il coefficiente di sicurezza globale C s è pari a 1.3. Ovviamente se l’opera è costituita da
blocchi sovrapposti la verifica a scorrimento deve essere effettuata per tutte le sezioni di appoggio dei bocchi (i.e per
ogni striscia che costituisce il cassone).

Verifica a ribaltamento:
Sostanzialmente uguale alla precedente, si fa un rapporto fra momenti stabilizzanti M s (peso, Archimede, uplift) e
momenti ribaltanti M r (forza delle onde). In condizioni di cresta impiego come polo il punto c, in condizioni di cavo il
punto t. Cambiano i bracci di applicazione di uplift, se struttura simmetrica Archimede e peso non cambiano. I
coefficienti di sicurezza variano a seconda dell’altezza d’onda che si sta impiegando per la verifica. P e A possono
non essere sulla stessa retta se si considera anche il contributo del massiccio di coronamento, in questo caso va
calcolato il baricentro del volume complessivo. La spinta di Archimede non cambia perché essa viene applicata nel
baricentro del volume immerso.
Coefficienti di sicurezza:
I coefficienti C r e C s sono impiegati per verifiche di tipo preliminari che permettono un dimensionamento di
massima, in ogni paese va infatti impiegata la norma cogente nazionale. Per quanto riguarda l’Italia (NTC 2018) non
vi è alcuna indicazione in merito alla costruzione di questo tipo di strutture, perciò se si decide di adottare il metodo
semi-probabilistico agli stati limiti bisogna “inventarsi” come impostare la relazione di verifica. Il primo passo è
passare, perlomeno, dall’impiego di sicurezza globali a coefficienti di sicurezza parziali, ciò permette quindi di
passare da una progettazione di livello “0” ad una di tipo “1”.

Verifica a schiacciamento dell’imbasamento:


Una volta calcolato il peso della struttura tramite le due verifiche precedenti è possibile definire di conseguenza la
sua dimensione e la sua configurazione geometrica. A questo punto va verificato che il peso della struttura sia
sopportato dall’insieme imbasamento – terreno senza sprofondare: le pressioni causate dal peso della struttura
devono essere maggiori delle capacità portanti del terreno. A livello del cassone agiscono due forze: sforzo normale
(verticale verso il basso, N ) ed effetto delle onde (orizzontale verso destra, S), l’effetto della forza S può essere
equivalentemente espresso dall’azione di un momento flettente M , l’effetto della coppia forza N e momento
flettente M è equivalente all’applicazione di uno sforzo N applicato ad una certa distanza dal baricentro. Nel caso in
cui lo sforzo N non baricentrico non ricada all’interno del nocciolo centrale d’inerzia, il valore massimo di sforzo
trasmesso dalla struttura all’insieme basamento – terreno q 1 deve essere minore delle capacità portanti
dell’imbasamento (o dell’insieme basamento – terreno? lect. 26 min 5:40). In questo caso i valori di q 1 e q 2 sono
valutati come segue:

B
M
N 2 1
q 1,2= ± ; J = B3
B J 12
Figura 34: sezione non parzializzata (sx.), sezione parzializzata (dx.)

Nel caso la risultante sia esterna al nocciolo centrale di inerzia e> ( B6 ), il valore massimo del carico è valutato nel
seguente modo:
2N
q=
3d

Solitamente, come indicazione generale si assume che la capacità portante dell’insieme basamento – terreno sia
dell’ordine dei 500-600 KN/m2 (5 Kg/cm2), tale valore è parecchio elevato ma accettato perché il materiale che
costituisce l’imbasamento è di tipo scelto e quindi è possibile che esso abbia un’alta resistenza.

Verifica del terreno sottostante:


Va ora verificato che il terreno sottostante sia in grado sopportare il carico non solo del cassone ma anche
dell’imbasamento, nuovamente va considerato il carico eccentrico nella sezione sottostante il cassone tale sezione
viene individuata da un segmento diagonale la cui inclinazione dipende dal tipo di elementi impiegati per
l’imbasamento. Per il valore del carico limite si può impiegare la relazione di Hansen & Vesic:

q ult =N c C + N q q 0+ 0.5 γ B N γ i γ

Tale relazione dipende dalle caratteristiche del terreno e impiega in coefficiente di sicurezza pari 1.5 e impiega
l’ipotesi di fondazione continua. Anche in questo caso vi sono alcune antitesi, l’altezza dell’imbasamento D va scelta
bassa per evitare di instabilizzare il moto ondoso (evitare effetti impulsivi), allo stesso tempo un alto valore di D
permette di distribuire il peso del cassone su una superficie più ampia di terreno e quindi affrontare con più
sicurezza la trasmissione dei carichi in esso. Un’eventuale necessità di aumento del valore di D con conseguente
instabilizzazione del moto ondoso potrebbe richiedere una riprogettazione della diga stessa per far fronte a questa
problematica.
Verifica a slittamento di porzioni comprendenti l’imbasamento e il terreno sottostante:
Verifica di Janbu e Bishop ad esempio (metodo
dell’equilibrio limite), riferite al terreno sottostante il
cassone, questo tipo di verifiche possono considerare la
rottura del solo imbasamento o dell’insieme basamento –
terreno. L’aspetto critico in questo tipo di verifiche è
l’intersezione fra l’imbasamento e il terreno sottostante,
nella superficie di contatto con il cassone non si
dovrebbero avere problemi dal momento che il materiale
dell’imbasamento è stato scelto apposta per avere un
adeguato comportamento nei confronti dello
scivolamento del cassone. Questo tipo di verifiche sono
di tipo globale. Per questo tipo di verifiche, come
d’altronde facevano a Geotecnica, vanno considerate non
solo le condizioni di fine costruzione (breve termine) ma
anche quelle in esercizio (lungo termine), nonché le
azioni sismiche (eventuale liquefazione del terreno
dovuta al peso consistente del cassone che aumenta la
pressione interstiziale dei por).

Figura 35: possibili cinematismi di rottura del terreno a cui corrispondono possibili verifiche per le dighe a parete verticale.
Scogliera di protezione:
La pendenza di questa componente solitamente è di 1:2, può arrivare anche a valori di 1:1. È bene ricordare però
che un aumento di pendenza si aumenta l’instabilità. Bisogna anche provvedere alla presenza di una berma con
larghezza legata al diametro dei massi che costituiscono la scogliera.

Se si vuole prolungare la scogliera sostituendola ai massi guardiani le dimensioni dei massi che la costituiscono
devono essere maggiorati.

Verifica scogliera di protezione: Madrigal & Valdes (1995)


Come già fatto precedentemente, è possibile definire gli elementi in funzione di un numero di stabilità che tiene
conto del rapporto fra la profondità sopra la scogliera d e la profondità di installazione della diga h , il tutto legato ad
un numero di danneggiamento della scarpata che in fase progettuale è fissato pari a 0.5.

Nuovamente, la relazione impiegata per questo tipo di verifica deriva da esperimenti condotti in laboratorio con
pendenza fissata a 1:3:
Il diametro degli elementi della scogliera è inferiore rispetto a quello di una classica mantellata e può essere stimato
proprio grazie a questa relazione. L’inserimento di una scogliera di protezione si rende necessario perché le onde
comunque sono in grado di esercitare delle forze in quella zona dovute alla loro propagazione, si potrebbe creare
un’erosione e quindi bisogna proteggere il nucleo dall’erosione marina che potrebbe scalzare la diga. Ovviamente
più siamo su basse profondità più il diametro degli elementi deve aumentare (la protezione deve essere più
consistente). Perché? Non avevamo detto che a basse profondità il moto ondoso è più contenuto ed attenuato???
Verifica scogliera di protezione: Tanimoto (1982)
Questa relazione è valida per onde irregolare (realizzata con spettri) e con diversi angoli di attacco. Questa relazione
è caratterizzata dalle seguenti costanti e rapporti:
- k 1, caratteristiche legate alle onde, decadimento iperbolico delle caratteristiche dell’onda
- k 2, caratteristiche della berma e dell’angolo di attacco
- Rapporto fra altezza d’onda e profondità sopra l’imbasamento

Giappone, Italia e Spagna sono i maggiori utilizzatori di dighe a parete verticale, i giapponesi in particolare hanno
dato un forte contributo progettuale per questo tipo di strutture.

Massi guardiani:
Elementi posti lato mare subito al piede della diga sopra l’imbasamento al termine della scarpata, in mancanza di
questi elementi per effetto della riflessione si genererebbe un movimento d’acqua che provocherebbe erosione del
fondo, l’erosione si estenderebbe alla berma, alla scarpata dell’imbasamento e al fondale marino antistate. In altre
parole, questi pesanti elementi in calcestruzzo proteggono la zona di contatto fra la diga e la berma, la più soggetta
a possibili fenomeni di erosione. Questi massi sono dotati d fori verticali perché quando il cavo dell’onda passa si
genera una sottopressione che potrebbero essere alzati in assenza di essi, le prime realizzazione di questi oggetti fu
inefficace perché non avevano i fori e quindi venivano trascinati via. Si può indicare uno spessore del masso,
proporzionale al peso, per il suo dimensionamento:

Come si vede dalla tabella sottostante, i tonnellaggi di questi elementi sono estremamente significativi (fino a 50 –
60 Tonn.)
Verifica della sovrastruttura: massiccio di coronamento
Abbiamo visto la verifica relativamente al cassone, tuttavia anche il massiccio di coronamento può essere soggetto
ad azioni di scivolamento dovute all’effetto del moto ondoso, un suo danneggiamento permetterebbe alle onde di
passare oltre la diga. La spinta dell’onda (distribuzione delle pressioni) può essere valutata tramite modello di Goda
(nella parte emersa) oppure, secondo un approccio più conservativo, si può impiegare il metodo di Hiroi (1919) che
prevede una distribuzione uniforme sulla parete esposta al fine di tenere in conto del frangimento superficiali ed
così definita:

p=1.5 ρ w g H

Per cui molto banalmente la forza è uguale alla pressione moltiplicata l’area della sovrastruttura investita:

F= p ∙ A

Perciò fissata una larghezza unitaria e definita D c l’altezza della sovrastruttura si ottiene:

F= p ∙ A= p∙ D c ∙1

Come nelle precedenti verifiche questa verifica è basata sul soddisfacimento dell’equazione di scivolamento ( W s
peso della sovrastruttura):
F w< W s ∙ μ

Risposta idraulica: Franco & Franco (1999)


Ammesso che la diga non si muova e riesca a proteggere a dovere tutto ciò che si trova a tergo di essa dall’agitazione
del moto ondoso, va verificata la sua risposta idraulica: tutto ciò che ha a che fare con la tracimazione dell’onda. Per
quanto riguarda le altezze della sovrastruttura valgono gli stessi discorsi fatti per le dighe a gettata. Nuovamente,
tramite esperimenti di laboratorio, è stata ottenuta la portata tracimante a-dimensionale (per metro lineare), essa
dipende dalla quota di cresta Rc , dall’altezza di progetto H s e da coefficienti riduttivi legati alla quota di attacco del
moto ondoso γ β e alla scabrezza γ s .
γ s dipende dal fronte della diga, esso può essere impermeabile (plain impermeable wall) oppure perforato
(perforated), quest’ultimo caso prevede dei fori comunicanti fra loro per attutire la riflessione del moto ondoso
difronte alla diga. Da un punto di vista energetico, le onde che impattano sulla diga hanno una certa energia che si
convertirà in diverse componenti:

- Una parte che oltrepassa la diga (overtopping)


- Una parte riflessa
- Una parte dissipata in qualche maniera

Il compito dei fori è aumentare il contributo della parte dissipata e così diminuire la componente riflessa. Anche in
questo caso sono presenti numerose formule per la valutazione della portata tracimante, come nel caso di dighe a
gettata va ricercata la formulazione che più si avvicina alla geometria della diga di progetto, inoltre le reti neurali
sono pensate anche per le dighe a parete verticale perché in esse è possibile definire tutta la geometria del caso. La
differenza è che nel caso di dighe a parete verticale si hanno alte profondità ed è difficile che a tergo della diga vi
siano zone operative, generalmente c’è acqua, quindi i valori di portata tracimante non sono importanti come per le
dighe a gettata che prevedono invece banchine o zone operative, le condizioni operative sono meno stringenti.
Un altro degli aspetti da considerarsi è la cosiddetta trasmissione. Anche in questo caso bisogna ragionare in termini
energetici, data la diga a parete verticale si ha una certa energia di moto ondoso che arriva, una parte di questa
energia viene riflessa, una parte di essa viene dissipata nell’interazione con la diga e una parte di essa passa a causa
della tracimazione che dà vita ad un’agitazione interna. Si può quindi valutare un coefficiente di trasmissione dato
dal rapporto fra l’altezza d’onda trasmessa e l’altezza d’onda incidente:
HT
k T=
HI

È giusto ricordare che l’altezza d’onda incidenza è quella per cui si sta progettando l’opera. Questo coefficiente varia
a seconda della relative crest elevation, essa corrisponde al rapporto fra l’altezza di cresta e l’altezza d’onda, perciò
guardando il grafico sotto, se ci si sposta verso sinistra l’altezza di cresta diminuisce; inoltre se i valori sono negativi
significa che l’altezza di cresta è sotto l’acqua. Per una trasmissione pari a circa 0.6 / 0.8 sta a significare che il porto
sta andando in crisi in quanto viene trasmessa la quasi totalità delle onde incidenti sulle opere di protezione.
Figura 36: le curve sono tracciate in funzione del rapporta fra profondità di imbasamento e profondità indisturbata

E questo è importante perché a tergo della diga è possibile che siano presenti macchinari e zone operative adibite ad
operazioni particolarmente delicate come ad esempio lo scarico/carico merci (i container) ad esempio, un valore
elevato di questo coefficiente non solo non le permette ma può mettere in crisi anche le strutture adibite a questo
tipo di operazioni. I container infatti richiedono un’agitazione interna delle onde di altezza pari ai 30 – 50 cm.
Massimo. Non solo quindi mancanza di operatività ma anche possibili problematiche legate alla sicurezza delle
strutture operative. Per il calcolo di questo coefficiente, Goda ha proposto la seguente formulazione:

hC
[(
K T =exp − 1.14+1. .16
Hs i
)]
Tale coefficiente è quindi funzione dell’altezza d’onda significativa e dell’altezza di cresta, inoltre facendo un
semplice bilancio energetico si può intuire come l’energia incidente associata ad un’altezza d’onda, una volta
completata l’interazione con la diga, si scinda in una porzione incidente, in una riflessa ed in una dissipata:

Ei =Er + ET + E D

Quindi nel progetto di questo tipo di opere bisogna prestare attenzione a possibili effetti combinati, ad esempio se
riesco ad eleminare la parte trasmessa aumenteranno di conseguenza la parte dissipata e, soprattutto, quella
riflessa. Quest’ultima può propagarsi non solo verso la costa ma anche verso le rotte di navigazione e quindi può
dare problemi di:

- Sicurezza della navigazione in prossimità delle dighe. Le navi per entrare in porto devono entrare attraverso
la bocca del porto, in essa infatti vengono effettuate tutte le manovre di avvicinamento necessarie
all’ingresso della nave nel porto e gli effetti di riflessione portuale possono essere molto critici in termini di
tenuta al mare della nave.
- La riflessione potrebbe interessante anche posti molto lontani procurando problemi sia idrodinamici
(presenza di onde dove prima non c’erano) che morfodinamici (le onde riflesse possono intaccare
l’equilibrio di tratti di costa colpiti dall’azione delle onde).

Il problema della riflessione non interessa solamente la sezione verticale della diga ma anche, soprattutto, la sua
configurazione planimetrica perché si potrebbero creare delle problematiche molto significative (a Vado e Savona si
dice che opere nuove, troppo rigide, abbiano creato dei problemi di dis-equilibrio dei processi di sedimentazione).
Dal grafico sotto si può apprezzare il comportamento dei coefficienti di trasmissione del moto ondoso e di riflessione
del moto ondoso: più aumenta il coefficiente di riflessione, più diminuisce il coefficiente di trasmissione e viceversa.
Cassoni con parete inclinata:
Nel caso in cui le forze delle onde sono talmente elevate che non si ha la possibilità di impiegare un muro paraonde
in grado di soddisfare l’equilibrio totale della diga e del singolo cassone, si può pensare di realizzare una parete
inclinata (i.e in zone molto esposte). In questo modo, la spinta dell’onda è diretta perpendicolarmente alla parete e
risulta inclinata. Questa spinta può essere scomposta in due componenti: una verticale e una orizzontale, così
facendo la spinta orizzontale è minore della classica spinta delle onde vista fino ad ora per canonica parete verticale
e quella verticale va a sommarsi alla forza peso stabilizzando ulteriormente l’opera.

Così facendo aumenta la forza di attrito e diminuisce la forza orizzontale, tuttavia una soluzione costruttiva di questo
tipo porta ad aumento della tracimazione rispetto alla condizione di muro verticale: l’onda si trova una “rampa” ove
salire e scavalcare la costruzione. Queste strutture sono state introdotte e studiate molto in Giappone da Takahashi
e, nuovamente, a seguito diversi esperimenti caratterizzati da diverse tipologie di sezione verticale viene calcolato un
diagramma delle pressioni che viene corretto in funzione delle caratteristiche, ad esempio, dell’angolo di
inclinazione della diga e della ripidità d’onda (e anche della sommergenza del punto di inizio della pendenza d e e
della ripidità d’onda). Tal Takahashi ha visto che si ha una riduzione media del 75% fra il peso di dighe a parete
inclinata e dighe a parete verticale, significa che è possibile realizzare la diga in condizioni in cui, seguendo
l’approccio tradizionale alla progettazione di dighe a parete verticale, non si riuscirebbe a mettere la diga sulla
profondità fissata (min. 38:27, lect. 27). Oltre a ciò, si ha la possibilità di risparmiare una buona quantità di materiale
da costruzione a parità di condizioni. D’altro canto, a causa della tracimazione, a tergo di dighe di questo tipo non si
avranno zone operative e gli specchi acquei soffriranno di una certa agitazione.
Viene di seguito riportato un esempio di calcolo in cui sono fissate:

- H , altezza di progetto
- h ’, profondità
- α inclinazione
- ⅆ e inizio della pendenza
Per valutare il periodo dell’onda in funzione dell’altezza d’onda significativa si può impiegare la formula di Boccotti
nel caso in cui non si dispongano delle distribuzioni bivariate altezza-periodo

Si valuta poi la lunghezza dell’onda per profondità 30 m

Si valuta poi la ripidità

E infine si possono calcolare di coefficienti riduttivi:

E le pressioni in funzione di questi coefficienti riduttivi e ottenere la nuova distribuzione di pressione.

Takahashi ha anche effettuato degli esperimenti che gli hanno permesso di ottenere un grafico sul coefficiente di
trasmissione per questo tipo di cassoni (in confronto con la parete verticale) ove in ascisse è riportato il rapporto fra
altezza di cresta e altezza incidente e in ordinate è riportato il coefficiente di trasmissione. Più l’altezza di cresta
cresce e più il coefficiente di trasmissione diminuisce. Si vede che a parità del rapporto in ascisse, la diga a parete
verticale ha molto meno coefficiente di trasmissione.

Figura 37: tipo peggiore è il 5 e quello più vicino al vertical è il 2


Stesso discorso può essere fatto col coefficiente di riflessione, ove all’aumentare dell’onda (verso destra) il
coefficiente di riflessione diminuisce: l’onda passa sempre più al di là della diga. All’incirca è lecito dire che il
segmento verticale da y=0 a y=K R corrisponde al coefficiente di riflessione e che il segmento compreso fra
y=K R e y=1 corrisponde al coefficiente di trasmissione. Stesso discorso per il grafico precedente.

Operazioni di trasporto: verifiche a galleggiamento


Una volta realizzati i cassoni essi sono trasportati per galleggiamento al punto di installazione, per poterli trasportare
devono avere una stabilità a galleggiamento che richiede quindi una verifica: se il cassone si inclina esso deve
ristabilizzarsi da solo. Vanno calcolati i centri di spinta e il baricentro per poter vedere le loro rette di azione, si
possono avere posizioni di:

- Equilibrio stabile, la coppia che si crea fra la spinta di Archimede di galleggiamento e lo shiftamento del
baricentro rispetto all’asse di mezzeria fornisce un contributo di momento stabilizzante. Dobbiamo per
prima cosa definire e individuare sia il baricentro (punto di applicazione della forza peso, G) che il
metacentro (punto per cui passa la forza di galleggiamento, M). Se il m.c si trova sopra il b.c il corpo risulta in
equilibrio in caso contrario no.

- Indifferente.
- Instabile, nel caso in cui il metacentro si trovi sotto il baricentro, aumenta l’instabilità dell’oggetto.
Più compiutamente, il metacentro è definito come il punto di intersezione della spinta verticale con il piano
longitudinale di simmetria. Il punto in cui viene applicata la forza di galleggiamento (sostanzialmente il baricentro
della parte immersa) viene definito punto di carena. A partire dal centro di carena (grazie a una distanza che non si
capisce come si calcola che permette di trovare C’, min. 4:25 lect.28) e lo si porta sull’asse di mezzeria si trova il
metacentro.

Figura 38: situazione di momento stabilizzante.

Quindi una situazione stabile si ha quando il cassone è molto immerso (molto pescaggio) viceversa la situazione è
molto meno stabile, per fare ciò si può zavorrare il cassone con del peso (solitamente materiale sciolto, quale sabbia
inerti o simili). Le celle vengono in seguito chiuse per evitare che si riempano d’acqua, si potrebbe altresì pensare di
usare l’acqua come zavorramento, tuttavia si creerebbero delle problematiche. La sua presenza è infatti un
elemento instabilizzante in quanto nel calcolo di W (altezza metacentrica rispetto al baricentro) viene sottratto il
momento di inerzia relativo alla presenza di singoli specchi liquidi:

W =¿

Quindi la condizione per il galleggiamento è la seguente:

W >0

Anche in questo caso il valore del volume del cassone è per unità di larghezza ( V =D ∙ B , pescaggio moltiplicato per
la larghezza). Solitamente si consiglia di arrivare a valori di W compresi fra 0.2 e 0.4.
Pressioni impulsive:
In figura 38 sono riportate 4 tipologie differenti di dighe definite in funzione di parametri a-dimensionali fra cui il più
importate è il rapporto
hb
hs

Ove h b corrisponde alla profondità della berma e h s alla profondità di fronte alla diga altresì definita come profondità
indisturbata. Viene definito anche un altro rapporto a-dimensionale:

Hs
hs

Ove H s corrisponde all’altezza d’onda significativa e h s alla profondità di fronte alla diga.
In base a questi rapporti si possono identificare 4 condizioni di forze (sull’ascissa viene riportato il tempo a-
dimensionalizzato rispetto al periodo dell’onda):

1. Quasi standing wave, l’andamento della forza è proporzionale ai contributi idrostatici. L’onda si mette
davanti alla parete in modalità stazionaria.
2. Slightly breaking wave, onde debolmete frangenti, simile al caso di Goda quando veniva inserito il
parametro α 2. Quando vi è un principio di frangimento, un principio di instabilizzazione si potrebbe finire
qua.
3. Impact loads, onde frangenti in maniera significati, l’onda frange contro la parete della diga e si ha una
seconda fase simile a quella della prima condizione.
4. Broken waves, tipico delle dighe a gettata.

È anche interessante valutare il rapporta fra il valore della forza d’onda massima e la forza d’onda attesa (valore della
forza dovuta al contributo di onda statica):

F h , max
F h ,q

Man mano che ci si avvicina alle condizioni di impatto il rapporto aumenta, il picco diventa sempre più grande
rispetto al contributo dell’onda stazionaria. Perciò la forza che bisogna sostenere nella condizione C è maggiore
rispetto al quella della condizione A anche se l’intervallo di tempo di azione dell’onda è molto contenuto. Q uando si
hanno questi fenomeni di impatto impulsivi le dighe vanno progettate per resistere al picco della forza, risulta
cruciale quindi capire se siamo in questa situazione e predisporre, eventualmente, delle misure di mitigazione
Figura 39: Goda riusciva a tenere in conto fino al caso B. Quindi solitamente ci si trova a progettare nei casi A e D, sarebbe meglio quindi stare
lontani dai casi B e C ai quali ci si può arrivare in 3 modi differenti (l’unico caso che evita di arrivare lì è quello della diga a gettata). Nel caso C la
progettazione si complica parecchio.

In aggiunta al modello di Goda si può avere l’amplificazione o l’esaltazione del picco di pressione per particolari
rapporti geometrici della sezione trasversale del complesso imbasamento – parete, si ottengono quindi i grafici
riportati in figura:

Figura 40: corrispondenze fra i grafici e gli alfa di Goda, l'ultimo non corrisponde a niente e vedremo a cosa associarlo

Le differenze di carico possono essere significative fra una condizione e l’altra. Nel caso in cui vi siano condizioni
fortemente impulsive il modello di Goda può risultare inappropriato e bisogna ricorrere al modello proposto da
Takahashi (1994). Il quale ha semplicemente sostituito all’α 2 di Goda un α pari al massimo fra due valori:
¿

1. Quello originario di Goda, α 2


2. α i, valore impulsivo (impact)

Quindi, nuovamente, la parte relativa alla standing pressure è proporzionale ad α 1, la parte della slightly breaking
wave è proporzionale ad α 2 e l’eccesso rispetto α 2, nel caso di impatto sulla parete della diga, è proporzionale ad α i.

Il valore α i viene calcolato grazie ad una formulazione proposta da Takahashi a partire dal rapporto fra l’altezza
d’onda e la profondità.
Il calcolo del secondo valore è invece un pochino più laborioso:

Figura 41: i valori dei delta sono valutati in funzione della larghezza della berma, dell'imbasamento, della lunghezza d’onda, della profondità
indisturbata e della profondità dell’imbasamento.

I due parametri sono stati introdotti per considerare l’interazione onda – imbasamento, si vuole valutare
un’eventuale e consistente instabilità del moto ondoso di fronte alla diga. Inoltre, Takahashi pone che nel caso in cui

α i< α 2

Si impiega α 2 al posto di α i. Oggigiorno il coefficiente impulsivo α i 1 può essere calcolato molto velocemente tramite i
calcolatori, oppure si potrebbe semplicemente impiegare il seguente abaco:

Per prima cosa si valuta il valore relativo all’asse delle ordinate di sinistra, in seguito quello di destra. Si indentifica
così una retta, noto poi il valore in ascissa dell’abaco si traccia una retta verticale fino a trovare un punto che
indentifica il valore di α i 1. Questo abaco nasce a seguito di esperimenti condotti da Takahashi. L’incremento di forza
individuato in fig. 39 rispetto alle condizioni analizzate da Goda, potrebbe avere delle ricadute economiche
significative in termini progettuali: l’innalzamento della pressione corrisponde ad un incremento molto oneroso o
non sostenibile del peso della struttura. Perciò il dimensionamento statico può condurre a conclusioni esagerate
(peso troppo elevato) ed è quindi possibile operare un dimensionamento utilizzando procedimenti di calcolo
dinamici. Perciò si passa da una condizione di questo tipo:

μ ( W − A−U ) > F w
Ad una condizione di questo tipo:

μ ( W − A−U ) + M ⋅ x́=F w

Ove M corrisponde alla massa della diga e x́ corrisponde invece all’accelerazione. La grandezza di progetto è la
valutazione di uno spostamento ammesso δ del cassone perché sostenere l’entità dell’impulso da un punto di vista
statico è molto oneroso, la forza di attrito dovrebbe essere continuamente, istante dopo istante, resistente a quel
tipo di forza. Con l’approccio dinamico si valuta l’ammissibilità di uno spostamento della diga a seguito del fenomeno
impulsivo.

Figura 42:
Quando si sposta il cassone della diga si ha anche movimentazione di acqua per questo viene inserita la quantità M a,
gli elementi dipendenti dal tempo influenzano la risposta dinamica della struttura mentre gli elementi indipendenti
dal tempo risultano costanti nella risposta dinamica della struttura. È giusto ricordare che:

2
∂ x
ẍ ( t )= 2
∂t

e che le accelerazioni cambiano in funzione delle onde, fino a quando le onde non sono in grado di mettere in
movimento il cassone l’accelerazione è nulla.
Per la massa aggiuntiva si utilizzano relazioni proporzionali alla profondità indisturbata di fronte al cassone:

M a ≈1.0855 h '2

Il sistema viene risolto come un oscillatore semplice a un grado di libertà con pattino e attrito a un grado di libertà.
Cioè una massa con una molla che smorza e attrito fra la massa e il fondo, solitamente il coefficiente di attrito statico
viene posto fra 0.4 e 0.5.

Impostazione della verifica in campo dinamico: forze/impulsi brevi ed elevate


Per prima cosa vanno definiti gli andamenti nel tempo da parte delle forze, in particolare va individuato l’andamento
della forza del moto ondoso nel tempo. Graficamente ci si può aspettare un primo picco e poi una fase molto simile a
quella del carico idrostatico; si può quindi realizzare una funzione in grado di prendere il valore massimo fra quello di
una funzione a distribuzione triangolare ed una caratteristica dell’idrostatica.
Figura 43: inviluppo dei massimi, spiegazione grafica del massimo fra due funizoni.

P1 è valutata in funzione del periodo dell’onda tramite una funzione sinusoidale:

2 πt
P1 (t )=γ P P 1max ⋅ sin
T

γ P si può calcolare tramite integrazioni (interazioni) sul periodo delle varie pressioni, una specie di rapporto fra le
due pressioni.
τ0
P2 viene valutata a partire da un tempo scala τ 0, perciò prima di un valore pari a la funzione cresce, dopo
2
decresce, poi ovviamente va zero superato τ 0:

2t
P2 ( t ) = P
τ 0 2max

τ 0 è il tempo scala dell’impulso, esso è proporzionale a un tempo scala di risalita della forza:

τ 0=k ∙ τ 0 F

k è un coefficiente in funzione del coefficiente di impulso di Takahashi prima definito, il tempo scala della forza è
messo in relazione al rapporto fra l’altezza d’onda – profondità della diga e il periodo d’onda: più il periodo è lungo
più l’intervallo è esteso. Esso assume dei valori diversi a seconda del rapporto fra l’altezza d’onda e la profondità.
Noto quindi l’andamento nel tempo di P1 e P2 è possibile valutare l’andamento nel tempo della forza orizzontale
delle onde.
Manca ancora un membro dell’equazione di fig. 42 da determinare, l’Uplift. È lecito aspettarsi un andamento simile
a quanto riportato in fig.43, nuovamente esso viene quindi definito come massimo fra due funzioni in analogia con
quanto fatto per la forza orizzontale delle onde.
Figura 44: in queste equazioni U_max "viene derivato" (?) min. 11:48 lect. 29

A questo punto si ottiene il diagramma delle pressioni (rosso), la critical force against sliding (viola) che corrisponde
alla forza di resistenza allo slittamento e la linea della velocità (azzurro). Nel momento in cui la pressione supera la
retta viola il cassone si sposta per un certo lasso di tempo ad una velocità indicata in azzurro.

Figura 45: caso di onda impulsiva in verde viene invece rappresentato lo spostamento del cassone

Un tipo di approccio dinamico alla progettazione non sarebbe altrettanto efficace per onde non impulsive dal
momento che si avrebbero picchi simili e temporalmente ravvicinati che porterebbero il cassone a subire eccessivi
spostamenti. Questo spiega perché in un approccio dinamico alla progettazione, nel caso di forze impulsive, si
possano ammettere forze in gioco (che generano scivolamenti) maggiori delle condizioni di resistenza: il tempo in cui
bisogna provvedere alla resistenza è molto limitato (ammesso che gli spostamenti cumulati siano accettabili), cosa
che non avviene nel caso di onda stazionaria. È quindi chiaro che in quest’ultimo caso un approccio progettuale di
tipo dinamico non è accettabile e perciò si adotta un approccio statico.
Concludendo, si nota che la variabile da definire per problemi di tipo dinamico è lo spostamento del cassone nel
tempo x (t ) e che la condizione cruciale per lo scivolamento è la resistenza a scorrimento del cassone la quale
contrasta la forza del moto ondoso.
Si quindi visto che, a seconda della forza che agisce sul cassone, si possono adottare due tipi di dimensionamento:

- Statico
- Dinamico

Ed è bene ricordare che, nel caso di dimensionamento dinamico, x ( t ) <0.5 m perché si potrebbero creare erosioni
del nucleo nella zona alla base del cassone dovute all’esposizione di una sua parte, questo può portare al
ribaltamento della diga. Valori maggiori di spostamento richiedono interventi consistenti come ad esempio il
riposizionamento del cassone, una bonifica della zona erosa e ripristinare la parte danneggiata…

Esempio: diga di Voltri, terminal VTE


Diga a parete verticale con misure abbastanza profonde (imbasamento di altezza pari a 10 m, 1/3 delle profondità).
Sono stati svolti dei calcoli con differenti coefficienti di attrito fissate le caratteristiche del moto ondoso (
H s =6.12 m, T p =12÷ 13 sec . ¿, a partire da questi dati si può ottenere l’andamento della forza orizzontale nel
tempo. Dal grafico riportato si nota che al diminuire del coefficiente di attrito la resistenza allo scorrimento offerta
dal cassone, ovviamente, diminuisce fino al punto che il valore soglia di resistenza viene superata anche in
corrispondenza del secondo picco.

Figura 46: μ=0.5−0.55−0.6

Integrando una prima volta il valore della forza nel tempo si ottengono le velocità di spostamento del cassone.

Figura 47: maggiore è il coefficiente di attrito minore è il tempo in cui il cassone si mobilita.

È chiaro che se il corpo si mette in movimento nella parte idrostatica della pressione (quella con distribuzione non
triangolare) le velocità aumentano in modo consistente e agiscono su un tempo maggiore rispetto a condizioni di
attrito maggiore perché una volta che l’oggetto è in moto esso si può muovere più velocemente (il coefficiente di
attrito statico è maggiore del coefficiente di attrito dinamico). In verità non è molto chiaro… la velocità e gli
spostamenti sono così elevati perché si passa da un coefficiente di attrito statico a dinamico o per altri motivi? La
motivazione non può essere che gli spostamenti sono maggiori perché siamo nella parte idrostatica e allora la
velocità è più alta e dura di più…
Integrando una seconda volta il valore della forza nel tempo si ottengono gli spostamenti del cassone.

Anche qua si nota che maggiore è il coefficiente di attrito, minore è lo spostamento del cassone e che una volta che il
cassone subisce spostamenti eccessivi essi non fanno che aumentare nel tempo a seguito dell’azione orizzontale del
moto ondoso.

Dighe composite:
Quando si presenta la problematica di eccessive velocità di mobilitazione e spostamenti si possono realizzare le
dighe composite, in questo modo si riesce ad eliminare l’effetto impulsivo. In particolare, ci sono due tipi di dighe
composite:
- Dighe composite verticali (vertical composite breakwater), nel caso in cui si abbia un significativo
imbasamento.
o Imbasamento significativo
o Cassone
o Muro di coronamento

- Dighe composite orizzontali (horizontal composite breakwater), nel caso in cui sia presente un ammasso (un
rilevato in massi o cemento) di fronte al cassone. Questa protezione permette di eliminare la pressione
impulsiva sul cassone, le onde impattano infatti sul rilevato. Questo tipo di opera può essere considerata
come un ibrido fra le dighe a parete verticale e quelle a gettata: il nucleo è una struttura verticale e la
protezione è una massicciata.

N.B: per questo tipo di opere non sono presenti né il nucleo né lo strato filtro. Inoltre, anche in questo caso è
posizionato un masso guardiano, ma perché visto che comunque è presente una massicciata di protezione?
Solitamente questo tipo di realizzazione viene fatta come riparazione ad una situazione critica impulsiva.

L’approccio progettuale per queste opere è sempre il medesimo:

- Viene definito un diagramma di distribuzione delle pressioni alla Goda


- Vengono definiti dei coefficienti di Goda riduttivi in funzione del rapporto fra l’altezza d’onda di progetto H d
e la profondità indisturbata di fronte alla diga h s ( λ 1 ≡ α 1 , λ 2 ≡ α 2 , λ3 ≡α 3).

Fondamentalmente viene cambiata l’intensità dei picchi di pressione.


Sono state quindi condotte delle prove sperimentali per cercare di modellare il comportamento delle dighe
composite fissate le pendenze e gli elementi costituenti la diga, in particolare viene studiata la configurazione con e
senza blocchi: l’impatto viene smorzato in maniera significativa, quasi dimezzato.
Figura 48: (a), (b), (c) sono punti presi a diversa altezza sulla diga. Nella parte destra vengono fornite dati sperimentali relativi al valore del
coefficiente λ 1 per diversi valori di profondità e lunghezza d’onda. I valori nel riquadro rappresentano un limite di validità applicativa per
questo tipo di analisi, oltre quel limite divrò fare degli esperimenti, dei conti o altre analisi.

Anche per questo tipo di opere sono stati condotti esperimenti relativamente ai coefficienti di trasmissione (posto in
relazione all’altezza di cresta della protezione e quella di progetto per diversi spessori della mantellata) e riflessione
(posto in relazione all’altezza di progetto e profondità) al diminuire del rapporto aumenta la riflessione (anche in
questo caso sono riportate curve con differenti caratteristiche geometriche dell’installazione).

A livello progettuale è lecito aspettarsi che questi due coefficienti nel caso di dighe composite siano inferiori a quelli
calcolati per dighe a parete verticale perché parte dell’energia delle onde si dissipa nell’interazione con la
mantellata.

Dighe composite: dimensionamento dei massi di protezione.


Può essere fatta seguendo le indicazioni di Hanzawa (1996) per un mucchio omogeneo composto da tetrapodi con
un’estensione a livello della berma di almeno 0.07 L (limite superiore degli esperimenti di fig. 48). Similmente a
quanto visto in precedenza viene calcolato un numero di stablità in base ad un paraemetro di danneggiamento N od e
al numero di onde N z, solitamente:

N od =1.5
N z=3000
0.2
H N d
N s = s =2.32 00.5
Δ Dn Nz ( ) + 1.33

Nella tabella viene riportata la differenza volumetrica per quanto riguarda i massi di protezione nel caso di Hanzawa
(diga composita) e Van der Meer (diga a gettata):

Figura 49: Hanzawa (sx.), VDM (dx.). Per questi esperimenti le pendenze impiegate sono piuttosto consistenti 1:1.5

I volumi sono nettamente inferiori in ragione della funzione di smorzamento che la mantellata assume in questo tipo
di opere.

Esempio dighe composite: diga foranea, mareggiata del ’55.


Le due sezioni riportano la sezione trasversale dei due tratti della diga foranea investite dalla mareggiata:
- Primo tratto: piloni di massi solidarizzati con sovrastruttura.
- Secondo tratto: piloni di massi non solidarizzati con sovrastruttura.
Pensando di realizzare un contributo positivo per la diga la presenza dell’imbasamento consistente e di dragaggi di
materiale accumulato di fronte alla diga risultò tuttavia controproducente e produsse un irripidimento e un
frangimento delle onde di fronte alla diga. A seguito di questo effetto le sovrastrutture saltarono e in alcuni casi
vennero trascinati via alcuni blocchi dei piloni.

Il sistema della diga andò in crisi proprio per via degli effetti impulsivi delle onde che fino ad allora non si erano
presentati. Cosa si è imparato da questa esperienza:

- I rilevati posizionati di fronte a dighe a parete verticale devono essere contenuti.


- È meglio realizzare i piloni impiegando blocchi monolitici (peso maggiore, non c’è problema dello
scalzamento del singolo blocco).
Venne perciò realizzato un rinforzo a “gettata” caratterizzato da due strati filtro e poi la scogliera con massi
significativi (da 40 a 60 Tonn.). Così facendo le onde si frangono sulla massicciata e non esercitano pressioni
eccessive sulla parete verticale.

Figura 50: rinforzo a gettato ovvero diga composita orizzontale.

Solitamente per ovviare a questo tipo di problematiche vengono forniti dei questionari che guidano il progettista ad
individuare possibili minacce che possono intaccare la stabilità della diga.

Accoppiando questa tabella con la fig. 39 (completa, cfr. slides) si capisce abbastanza facilmente se vi è la possibilità
di incorrere in una problematica di onde impulsive e quindi condurre ulteriori studi oppure mettere in atto misure di
mitigazione del rischio.

Condizione di onde frangenti: le onde frangono a causa della variazione di profondità.


Vi sono diverse relazioni che permettono di calcolare l’altezza d’onda frangente, fra le altre viene riportata quella di
Scarsi & Stura (1990):

Hb h
h
2 2
=[ 0.727+ ( 13 s ) ]−[ 1.12+ ( 30 s ) ] ⋅

g T2
La distanza dalla costa alla quale avviene il frangimento può essere valutata in funzione dell’altezza d’onda e della
pendenza del fondale:

x p=( 4.0−9.25 ⋅5 ) ⋅ H

In questo modo è possibile capire se la struttura è nella zona esterna o interna ai frangenti. La relazione riportata
deriva ovviamente da esperimenti condotti sul campo.
Perciò, nel caso in cui la diga si trovi nella zona interna ai frangenti, potrebbero presentarsi due fenomeni di
interazione fra la diga e il moto ondoso:

- Shock ventilato, l’aria è libera di fuggire.


- Shock da colpo di ariete, l’aria viene compressa tramite una bolla d’aria. In questo caso alla naturale
aleatorietà dei fenomeni di moto ondoso si aggiunge una natura aleatoria del processo di shock.

Per quanto riguarda la pressione delle onde in caso di onde frangenti si può impiegare una formulazione proposta da
Scarsi & Stura (1977):

p1
2
ρ g T ⋅2
n
=K 0 + K 1 ⋅ ( ghT )+ K ⋅( ghT )
2 2 2

Il diagramma delle pressioni assume una distribuzione lognormale ed è caratterizzato da 2 tratti:

1. Classico diagramma delle pressioni alla Goda


2. Impulso concentrato, dovuto al frangimento, intorno ad un livello di quiete l dq

Il picco è posto sopraelevato rispetto a questo livello di quiete a causa delle interazioni non lineari del moto ondoso:

b1 h
h
=1.05+113
gT2( )
Come si nota dall’equazione la pressione si riferisce a valori caratteristici in ragione dell’approccio probabilistico al
problema e il cui valore è fornito in funzione dei coefficienti K 0, K 1, K 2. Anche in questo caso, a partire da prove di
laboratorio, si nota come sostanzialmente il comportamento nel tempo della forza orizzontale esercitata dalla onde
sia similare a quanto visto in precedenza: picco impulsivo e successiva riduzione della forza altrettanto impulsiva.
Figura 51: in verde è segnato lo spostamento della diga.
Il tempo caratteristico a cui avviene il picco può essere valutato in funzione della profondità, del periodo dell’onda:

t r 0.6 h β∕2
h 1

T
=
ρ
1.82
{ ( )
gT2
−1.39
( )}
g T2
2

gT2

Il valore dei tre coefficienti dipende invece dal valore caratteristico che viene scelto:

Anche in questo caso per la verifica dell’opera viene adottato un modello di verifica di tipo dinamico, in cui viene
impostata la stessa relazione precedentemente vista:

F s (t )=F ( t ) −m ẍ G ( t )

La pressione secondaria (i.e la pressione del moto ondoso senza l’impulso) si calcola con il modello del Clapotis.

Figura 52: è presente un errore nelle slides all'interno della formula cerchiata.

I conti sopra descritti sono possono applicati a patto di soddisfare alcune ipotesi:
1. La parete è tanto alta da ricevere tutto il contributo della p 1 .
n

2. La forza orizzontale è composta da tutti i contributi pdz al tempo in cui p 1 è massima.


n
3. La sottopressione impulsiva istantanea U è uniforme su tutta la base e quindi U è centrata (modello molto
semplice).
4. La durata totale delle pressioni impulsive è pari a 2 t r .
In sostanza si ha un diagramma delle pressioni classico al quale per un tempo di 2 t r si aggiunge la sovra pressione

I tempi di risalita della forza, pur essendo più grandi del tempo di risalita della pressione massima, sono però molto
più piccoli dei tempi associati all’oscillazione del cassone reale (per il quale il periodo è compreso fra 0.2 e 0.5 s.) e
quindi la forza deve essere ridotta della corrispondente inerzia del fusto. (? Min. 10:53 lect. 31).
Sempre nel caso in cui il muro si trovi all’interno dei frangenti e un po’ come veniva fatto per il massiccio di
coronamento per le dighe a gettata (è possibile valutare l’altezza di frangenza e la celerità con cui si muove l’onda),
seguendo un primo approccio (CEM 2005) la pressione agente sulla parete può essere suddivisa in un componente
statica e una dinamica.

Figura 53: c b è la celerità di propagazione dell'onda al frangimento, h_b è la profondità su cui frange l’onda che viene stimata tramite l’altezza
d’onda di progetto
Un secondo approccio (Homma & Horikawa, 1980) impiega un diverso valore del massimo della pressione dinamica.

Figura 54: h p è l'altezza d'onda al piede della struttura, il valore massimo di questo approccio è maggiore del precedente.

Quindi quando si posiziona una diga con onde frante si ha una forza molto significativa legata al fatto che le onde
sono di transazione e non più di propagazione.
Nel caso di onde frangenti l’altezza di progetto deve essere presa pari all’altezza d’onda al frangimento perché il
frangimento fa una sorta di filtro, oltre una certa profondità non possono esserci onde più alte . C’è però un
problema significativo presente nella zona dei frangenti, quando l’onda inizia a frangere il livello medio mare subisce
un innalzamento a valle del frangimento (set-up) il che comporta una profondità maggiore rispetto a quella
indisturbata.
Essendo l’altezza d’onda al frangimento una funzione della profondità ( H b=f (h) , si può eventualmente assumere
H b=0.8 h) si nota come se la profondità locale h aumenta, aumenta anche l’altezza d’onda al frangimento. Di
conseguenza essendo la profondità al frangimento maggiore di quella indisturbata h' >h , l’altezza d’onda al
frangimento è maggiore dell’altezza d’onda indisturbata. In questo caso Kamphius (1996) una profondità di
valutazione per il calcolo dell’altezza d’onda di progetto modificata:

h' =h+C H H b

Quindi il procedimento sarebbe:

1. Definisco un’altezza d’onda di progetto H D


2. Valuto la corrispondente altezza d’onda di frangimento H b
3. Definisco la sezione di frangimento a partire dall’altezza d’onda di frangimento h b

La profondità di impianto della diga h è aumentata di certo valore che è dato dal prodotto fra un coefficiente di
altezza (assimilabile a 0.1) e l’altezza d’onda al frangimento. Avere un’altezza maggiore significa avere forze maggiori
che impattano sulla diga, bisogna quindi stare attenti quando si va ad operare nella zona dei frangenti perché si
potrebbero avere dei peggioramenti delle condizioni del moto ondoso che generano forze molto più elevate rispetto
al caso indisturbato. Infatti, in questo tipo di zone non si inseriscono dighe a parete verticale ma dighe a gettata
oppure opere di contenimento.

Progettazione probabilistica per le opere marittime:


Fino ad ora l’approccio alle tematiche trattate è stato di tipo deterministico, abbiamo cioè supposto di conoscere a
priori in modo preciso tutte le grandezze in gioco (i.e le caratteristiche dell’onda di progetto):

- Altezze d’onda caratteristiche per una distribuzione Rayleigh


- Periodo di picco
- Periodo medio
- Numero di onde dello stato di mare
- Persistenza dello stato di mare di mare caratterizzato dell’altezza d’onda significativa

Nella realtà però si effettua una valutazione delle grandezze tipiche di progetto tramite un’analisi di rischio in base
al periodo di ritorno T R dell’evento caratterizzante le sollecitazioni di progetto. Questo periodo di ritorno è definito a
partire dalla cosiddetta vita utile dell’opera (T L periodo di tempo per cui la struttura deve soddisfare i requisiti per i
quali è stata progettata con un’adeguata manutenzione anticipata ma senza che siano necessarie riparazioni
straordinarie nel contesto di una probabilità appropriata alle funzioni della struttura) e dal rischio (definito come una
cosiddetta probabilità di failure, probabilità che la struttura vada incontro a danneggiamenti significativi durante la
sua vita utile). Il tempo di ritorno è riferito alla forzante ambientale che ha natura aleatoria (non sappiamo di preciso
quando arriverà una mareggiata), per questo motivo viene adottato un approccio probabilistico alla progettazione.
Si effettua quindi uno studio statistico della variabile aleatoria e viene effettuato ogni volta che si ha a che fare con
carichi ambientali (piogge, portate di fiume, vento, sisma, neve…).
Nel caso delle opere marittime viene dapprima studiato il clima ondoso al largo che viene poi fatto propagare sulla
profondità di impianto della diga, le onde infatti interagiscono con la batimetria della costa e potrebbero
trasformarsi significativamente una volta raggiunta la riva.

Criterio di rischio:
è la prima cosa da fare nel progetto. Fino agli anni ’60 – ’70 la valutazione del periodo di ritorno associato all’altezza
d’onda di progetto era definito in base la buon senso ingegneristico e scegliendo coefficienti di sicurezza per le
verifiche di stabilità (sceglievo il periodo di ritorno a senso in base alla vita utile dell’opera e poi prendevo un
coefficiente di sicurezza per tenermi un po’ largo). Oggi invece la progettazione si basa sul criterio di rischio in cui si
associa la probabilità di accadimento dell’evento in grado di provocare determinate conseguenze in un periodo di
tempo coincidente con la vita utile dell’opera (evento, sue possibili conseguenze all’interno di un intervallo di
tempo). Quindi per prima cosa va definita la vita utile dell’opera, essa viene individuata a partire da una tabella che
contiene il tipo di installazione e il livello di sicurezza da ricercare:

- Livello 1: livello di interesse parziale, i danni non sono critici.


- Livello 2: livello di interesse generale, danni possono avere ripercussioni sociali ed economiche e
significative.
- Livello 3: livello di interesse elevato, i danni possono avere conseguenze molto alte di tipo sociale,
economico, ambientale e di vite umane.

Solitamente per le opere marittime si impiegano periodi di vita utile pari circa a 50 anni nel caso di dighe di
protezione portuale.

Figura 55: l'installazione aumenta di dimensione andando verso il basso, il livello di sicurezza aumenta andando verso destra. Il numero
corrispondente al livello serve per identificare la vita utile dell’opera T L. Nella tabella viene anche esplicitato un riferimento anche agli
eurocodici.

Il rischio può essere quindi definito come il prodotto fra la probabilità di failure relativo ad un evento (la diga si
danneggia e l’agitazione interna supera una certa altezza d’onda) e le conseguenze dell’evento:

R=P f ∙C
Ovviamente, avendo a che fare con variabili aleatorie ambientali, è impossibile che si riesca a progettare un’opera
rischio zero, è un’assunzione statisticamente e fisicamente impossibile. Perciò va definita a priori la probabilità di
failure che si è disposti ad accettare per una certa opera durante la sua vita utile essa viene identificata a partire
dalle condizioni di damage e failure corrispondenti rispettivamente ad uno stato limite di servizio (SLS) ed a uno
stato limite ultimo (SLU/ULS). In particolare:

- SLS: soglia superata la quale l’opera non soddisfa più il compito per cui è stata progettata: non funziona più
ma comunque rimane in piedi. Ad esempio, corrisponde alla perdita di qualche pezzo sulla mantellata.
- SLU: soglia superata la quale l’opera non soddisfa più il suo compito a causa di danneggiamenti irreversibili:
failure definitiva. Ad esempio, corrisponde all’esposizione dello strato filtro a seguito del danneggiamento
della mantellata.

Solitamente, in sede di progetto, si prende come riferimento la probabilità di failure allo stato limite ultimo PSLU
f .
Dal punto di vista operativo (i.e cosa succede sulla struttura) vengono identificate delle safety classes:

- Very low safety class: anche se la struttura va in crisi non vi sono particolari conseguenze per l’ambiente, per
l’economia e per le persone
- Low safety class: non ci sono rischi per le persone ma vi sono alcune conseguenze ambientali ed
economiche.
- Normal safety class: rischi per persone e alti rischi economici e di inquinamento
- High safety class: altissimi rischi sia per persone, inquinamento con conseguenze economiche e politiche
-
Il morandi era un livello High, le centrali nucleari anche sono in questa classe. I porti rientrano nella classe normal.
In base a queste classi viene definita la probabilità di failure Pf .

Figura 56: ad esempio fissando la colonna "Normal" si ha che vi è una probabilità del 10% che la struttura vada in failure pur non
distruggendosi e che vi è una probabilità del 5% che la struttura subisca danneggiamenti molto gravi. Questa tabella è stata elaborata nello
specifico per opere marittime.

La probabilità di failure è così definita:

TL
1
Pf =1− 1− ( TR )
Una volta nota la Pf e la vita utile dell’opera T L è possibile stimare il tempo di ritorno dell’opera in ipotesi che la vita
utile dell’opera sia superiore a 10 anni:

−T L −T L
Pf =1−exp ( )
TR
→ T R=
ln ( 1−P f )

Dalla prime delle due equazioni sopra si nota come aumentando il periodo di vita utile dell’opera l’esponenziale
tenda a zero e di conseguenza la probabilità di crisi dell’opera tende asintoticamente a 1. Si potrebbe pensare quindi
di prendere una vita utile dell’opera più corta, tuttavia i costi di realizzazione devono essere ammortizzati, per
questo motivo si cerca sceglierla più lunga possibile ma non eccessivamente (altrimenti avremmo probabilità di
failure del 100%), la manutenzione permette di aumentare la vita utile dell’opera perché spesso lo smantellamento
dell’opera è molto costoso.

In base all’equazione del tempo di ritorno riportata sopra fissando un tempo di vita utile pari a 50 anni si ottiene un
tempo di ritorno pari a 475 anni per lo SLE e di 974 per lo SLU (forse sulle dighe si può usare anche una classe low…).
Viene di seguito riportato un grafico che permette, in funzione del tempo di vita utile della struttura, di individuare il
periodo di ritorno. Per un tempo di vita pari a 50 anni e una Pf pari all’1 % si ottiene un tempo di ritorno di circa 5
000 anni, potrebbe sembrare uno sproposito ma nella realtà non lo è, basti pensare che le piattaforme offshore sono
progettate per un tempo di ritorno pari a 10 000 anni! (cfr. disastro della Deepwater Horizon nel Golfo del Messico).

Nel caso delle opere marittime, come detto, non vi è alcuna normativa nazionale che individua il tempo di ritorno da
impiegare nelle progettazioni, esso generalmente è indicato dalla committenza. Sono presenti solo delle linee guida
(PIANC, CSLLP) che di fatto riportano le tabelle riportate nelle pagine precedenti.

Progettazione probabilistica:
La vecchia progettazione coi coefficienti di sicurezza comprendeva in essi le incertezze sulle caratteristiche dei
materiali (come faccio a sapere che tutti i massi che pongo sulla mantellata sono del peso prefissato), le incertezze
sui valori caratteristici delle variabili ambientali (intervalli di confidenza della grandezza dimensionante), le
approssimazioni dei modelli di calcolo e il deterioramento della struttura per mancata manutenzione o per agenti
atmosferici.
Il processo di failure è quindi piuttosto complesso perché può scaturire dall’interazione di diversi processi di
danneggiamento della struttura (ad esempio spostamento del masso guardiano). In generale lo stato di failure è
controllato dalla funzione di stato limite che mette in relazione le resistenze con le sollecitazioni:

G=R−S

Ove il primo membro rappresenta la funzione di failure e i due termini del secondo membro rappresentano
rispettivamente le resistenze e le sollecitazioni. Lo stato di failure è perciò rappresentato dal limite per cui G=0 (in
questo caso si ha l’equilibrio). La probabilità che le sollecitazioni siano maggiori delle resistenze è la probabilità di
failure:

Pf =P(G ≤ 0)

Se ipotizzo Pf =0.2 significa che nel 20% dei casi le sollecitazioni siano maggiori della resistenza. Vediamo ora come
si rappresenta la funzione di stato limite da un punto di vista grafico:
Figura 57: in alto a destra viene rappresentata invece la resistenza della struttura in funzione del tempo, essa, a meno che non vengono messi
in atto interventi di manutenzione, risulta decrescente nel tempo fino ad incontrare un valore limite non più in grado di contrastare le
sollecitazioni esterne. In particolare, si nota come una diga a parete verticale in condizioni di normalità contrasta prevalentemente le spinte
idrostatiche dell’acque a e le mareggiate di piccola intensità.

In base a quanto rappresentato si evince che la probabilità di failure è l’integrale della probabilità nella zona in cui
G ≤0 , esso viene calcolato a partire dalle curve di probabilità delle resistenze e delle sollecitazioni e di fatto
corrisponde al volume sotto la campana considerando il piano verticale per cui G ≤0 . La retta per cui G=0 viene
determinata dall’equazione di progetto:

G=μP−[ μ ( U + A ) + F w ]=0

In questo modo le resistenze ( μP)eguagliano le sollecitazioni ( μ ( U + A ) + F w ), dal punto di vista formale conviene
distinguere resistenze e sollecitazioni perché è possibile per ognuno che vengano applicati coefficienti differenti in
quanto sono dipendenti da differenti variabili:

G=R−S=R ( x 1 , x 2 , … , x n ) −S ( x '1 , x '2 , … , x 'n )

Ad esempio, la resistenza è funzione della densità del calcestruzzo, della dimensione del cassone, del coefficiente di
attrito…Mentre ad esempio le sollecitazioni saranno funzioni dell’altezza d’onda, del periodo dell’onda…
Esistono quattro livelli di progettazioni probabilistica:

3. Metodo completamente probabilistico: Oggigiorno si impiegano questi tipi di modelli per i quali si
determina Pf mediante l’integrazione della failure function G oppure generando un grande numero di
realizzazioni randomiche di R e S per cui G=0 (metodo Monte-Carlo, si ricava quindi la distribuzione di G ).
Per applicare il metodo MC è necessario conoscere la probabilità delle variabili coinvolte nel processo ( P ( x i) )
perché in caso contrario si passa al livello 1.
2. Metodo probabilistico approssimativo: questo metodo sviluppa un modello lineare nell’intorno della
condizioneG=0, definisce delle probabilità di failure linearizzando G attorno G=0 ove la densità di
probabilità della combinazione R e S è massima (il punto in nero indicato in fig.57). Questo metodo risultava
utile quando non vi erano supporti computazionali sviluppati in quanto limitava i conti da svolgere “a mano”
dal momento che opera in un intorno di un punto.
1. Metodo quasi – probabilistico: In questo metodo resistenze e sollecitazioni hanno coefficienti di sicurezza
i i
differenti G=R ( xi ⋅ γ s ) −S ( x i ⋅ γ s ) . I coefficienti dipendono dalla sicurezza con cui posso determinare la
grandezza alla quale sono associati, ad esempio per il calcestruzzo viene impiegato un coefficiente di
sicurezza basso perché la valutazione della sua densità può essere fatta in modo preciso, il coefficiente di
attrito invece non lo conosco con precisione e perciò il suo coefficiente di sicurezza sarà più elevato . Questi
coefficienti prendono il nome di coefficienti di sicurezza parziali e ci dicono il grado di sicurezza con cui
conosciamo le grandezze utili al dimensionamento dell’opera.
1. Metodo deterministico: le grandezze di carico sono definite a priori (carico massimo, resistenza minima in
base all’esperienza) note e si basano completamente sul coefficiente di sicurezza globale che è pari al
R
rapporto fra le resistenze e le sollecitazioni (γ s = =1.3 /1.5 ). Questo metodo è abbastanza vecchio e non
S
viene più utilizzato in NTC italiana.

Livello 0: metodo deterministico


In particolare, è giusto fare notare che il metodo deterministico di livello 0 dice esclusivamente che abbiamo un
rapporto fra resistenze e sollecitazioni, non fornisce invece alcuna indicazione su come esse sono in relazione fra
loro, con l’approccio probabilistico è possibile ottenere invece un’immagine molto più chiara delle probabilità di
failure della struttura.

Livello 3: metodo Monte Carlo


Una volta nota l’equazione di progetto è possibile realizzare una simulazione MC tramite la realizzazione di un
numero random per ognuno dei parametri coinvolti(? Min.28:18 lect. 33). Nel momento i cui tutti i parametri sono
stati valutati in funzione della loro funzione di distribuzione è possibile stimare il valore di G. Ripetendo l’operazione
per un numero molto alto di volte si può ottenere la probabilità di failure.
Nf
Lo schema sottostante riporta il procedimento che permette di valutare la probabilità Pf = cioè il numero delle
N
volte in cui si ha failure rispetto ai casi in cui non si presenta failure. L’applicazione del metodo MC prevede, per
avere stabilità statistica, che il numero di casi da generare siano superiori ad un certo valore:

400
N>
Pf

Il valore di Pf impiegato in questa disequazione corrisponde ad un valore target che viene fissato a priori e stimato
in sede di progetto, a partire da questo valore target otteniamo la Pf reale dell’opera a seconda di ciò che
modifichiamo del progetto (poco chiaro in relazione alla probabilità che ottengo, min. 30:36 lect.33).
Ma torniamo all’immagine:

2. Draw: lancio dei dadi per tutti i valori delle grandezze coinvolte nell’equazione di progetto
3. Calcolo del valore dell’equazione di progetto
4. Mi chiedo se tale valore è >, < di zero.
5. Proseguo al lancio dei dadi per un numero di volte identificato dalla disequazione sopra
6. Una volta raggiunto questo numero valuto la probabilità di failure a partire dai casi totali e da quelli che
hanno causato failure:
Nf
Pf =
N

In altre parole, quello appena descritto corrisponde ad un ciclo do di MatLab calcolato da i=1 a i=N tot

Figura 58: in questo caso Z ≡G


Progettazione probabilistica: approccio probabilistico.
Si parte banalmente da un’equazione sopra descritta in cui alle relazioni vengono sottratte le resistenze:

G ≡ Z=R−S

Che può essere riscritta nella seguente maniera:

S 0.2
H sc
Z=6.2 P 0.18
( )
√N
⋅ξ−0.5 −
Δ ⅆ n 50

Per ogni variabile in gioco (diametro medio, densità relativa, pendenza della scarpata e ripidità d’onda) si devono
conoscere le rispettive distribuzioni di probabilità con deviazione standard nota. Solitamente per le variabili sopra
elencate si assumono distribuzioni di tipo normale mentre per la porosità si assume una distribuzione log-normale e
per l’altezza d’onda si impiega una distribuzione di tipo Weibull. Meglio conosciamo le distribuzioni (i.e penso
intenda più siamo sicuri che esse siano adatte alla variabile a cui sono associate) più attendibile è la stima.
Come riportato nella figura sotto, a partire da un medesimo valore iniziale (ad esempio un diametro medio ricavato
da un dimensionamento deterministico) e stessa equazione di progetto si possono ottenere differenti probabilità di
failure, questo dipende (se non ho capito male) dalle deviazioni standard associate ad ogni distribuzione, vi sono
infatti alcune grandezze per le quali non siamo in grado di stabilire con certezza la loro distribuzione (i.e la deviazione
standard è maggiore e maggiore è quindi la variabilità che i diversi valori possono assumere nelle varie simulazioni
perché conosco meno il dato e come esso varia) e questo influisce sull’affidabilità della stima che si ottiene.
Come analizzato nel corso di Metodi probabilistici sarebbe insensato porre il periodo di ritorno pari al tempo di vita
utile della struttura (es. 50 anni), fissata infatti una probabilità di failure molto bassa ( Pf =0.011) diventa una
probabilità di failure nel corso della vita dell’opera pari al 42% (0.42).

In altre parole, è come se avessimo fatto il seguente ragionamento: “Facciamo che la mia diga deve durare 50 anni,
bene. Fissiamo quindi il periodo di ritorno pari a 50 anni e ipotizziamo una failure dell’1 % in questi 50 anni”. Così
facendo ho il 42% di probabilità che l’evento si verifichi e distrugga la mia diga. (min 38:38 lect. 33 nel caso rivedere
appunti Piccardo). Bisogna quindi stare attenti a impiegare valori corretti quando si parla di tempo di ritorno.
Spesso si ragiona anche sul rischio capitalizzato, vengono quindi definiti sia un rischio che un costo e vengono
collegati per dare una sensibilità economica degli eventuali danni.

Quando si fanno operazioni di manutenzione dell’opera vengono tracciate delle curve che rappresentano il safety
cost (verde, in altre parole il costo di costruzione) e il costo failure and downtime (in arancione) in funzione della
reliability mesaure. Se la struttura è progettata per resistere a probabilità di failure più basse (i.e struttura più
resistente) si hanno costi dovuti ai danni molto piccoli però i costi di costruzione sono molto alti. Per combinare
questi due aspetti viene tracciata la curva che rappresenta la total costs during lifetime, sulla quale viene cercato il
minimo. Per cui se la struttura è sottodimensionata in modo significativo i costi al in arancione sono alti (failure),
mentre se la struttura risulta sovradimensionata i costi di costruzione sono molto elevati e preponderanti su quelli di
failure, il minimo di questo curva rappresenta la progettazione ottimale. Fissato un valore a piacere della curva
azzurra si avrà un fissato valore in ascissa che identifica un segmento verticale, esso può essere scomposto nella
somma di segmento di lunghezza pari al un costo relativo alla costruzione (verde C s) e di un segmento di lunghezza
pari al costo relativo alla failure dell’opera (arancione PV ⋅ p f ⋅ E ( D ) una sorta di rischio monetarizzato).

Livello 2: Metodo probabilistico.


È il metodo su cui ci soffermiamo di meno perché oggigiorno non viene più impiegato, secondo questo metodo la
probabilità di failure è dedotta da soluzioni approssimate ottenute linearizzando le equazioni vicino al “design point”
ove G=0 in cui la densità di probabilità della combinazione delle resistenze e delle sollecitazioni è massima.

Figura 59: punto in esame (rosso) e relativa linearizzazione (tratteggio), sx. In arancione (dx.) viene evidenziata la proiezione della superficie
che si considera applicando il livello 3.

La grossa differenza è che il metodo di livello 3 considera tutti i punti della superficie di intersezione fra la retta G=0
e il grafico di densità di probabilità. Oggi, grazie alla potenza computazionale, vengono impiegati o il livello 1 oppure,
nel caso si dispongano di calcolatori sufficientemente potenti, il livello 3. Si assume che G sia descritta da una
distribuzione normale rispetto a tutti i parametri che la compongono per cui è possibile riferirsi alla media e alla
deviazione standard. Si definisce infatti un parametro, β pari al rapporto fra la media e la deviazione standard.

μG
β=
σG

Inoltre, l’influenza della sollecitazione è più significativa di quella delle resistenze e la differenza fra il livello 3 e il
livello 2, in termini di probabilità di failure, è minima.
Livello 1: metodo probabilistico.
Quello della NTC 2018, esso si basa sui coefficienti parziali di sicurezza e valori caratteristici da applicare alle variabili
di resistenza e sollecitazione. È più raffinato del livello 0 (si considera solo un coefficiente di sicurezza globale) ma è
più semplificato rispetto al modello 3 (perché non vengono fatte tutte le analisi di probabilità e la simulazione Monte
– Carlo). Non si impone la probabilità di failure ma si verifica solo se un livello di sicurezza è soddisfatto. A ogni
livello di sicurezza la norma fornisce i coefficienti parziali di sicurezza. Per quanto riguarda la applicazione a dighe a
gettata, gli stati limite sono rappresentati da un certo valore di K p o S (che può essere uguale a 2, 5 o 8) a seconda
che venga impiegata la formula di Hudson oppure di VDM a seconda del grado di danneggiamento. Per le dighe a
parete verticale, non essendo previsto un danneggiamento, si parla di massimo scorrimento che deve essere
contenuto entro un range accettabile. La funzione di stato limite viene così formulata:

Rch
G= −S ch γ S >0
γR

Il pedice ch , presente sia nelle resistenze che nelle sollecitazioni, sta per characheristic.
Viene di seguito riportato un esempio per una diga a gettata nel caso di adozione della relazione di Hudson per la
progettazione, si vuole quindi definire la massa dell’elemento che può essere riformulata all’interno della relazione
di Hudson.

Nella formula sopra riportata il valore H assume il ruolo di sollecitazione mentre le resistenze sono rappresentate
1
1
dal danneggiamento moltiplicato ad una relazione cotangenziale ( =[ k D ⋅ cot ( α ) ] 3 ). La funzione di stato può
Δ Dn
essere quindi scritta in funzione delle resistenze e delle sollecitazioni:

1
G=ZΔ Dn [ K D cot ( α ) ] 3 −H

Il coefficiente Z è legato alle incertezze e all’interpretazione dei dati sperimentali che si impiegano nella
progettazione, dalla formulazione di sopra si può passare ad una formulazione in funzione dei coefficienti parziali di
sicurezza (le resistenze sono divise, diminuiscono e le sollecitazioni sono moltiplicate, amplificate e quindi
aumentano):

1
Z Δ D cot ( α ch ) 3
γz γΔ γD n
[
G= ch ⋅ ch ⋅ n ch ⋅ K D ⋅
γ cot ( α ) ] −γ H ⋅ H ch

Δ ch rappresenta la densità relativa, D n ch rappresenta il diametro nominale, K D viene fissato a priori mentre
cot( α ch )rappresenta la pendenza della mantellata. I relativi coefficienti rappresentano quindi l’incertezza legata ai
massi che vengono impiegati, al diametro che li caratterizza e alla realizzazione della mantellata. γ H rappresenta
invece l’incertezza relativa all’altezza d’onda significativa di progetto. Per completezza viene riportato lo specchietto
inserito nelle slide relativo alle incertezze rappresentate da ogni coefficiente parziale.
A questo punto posso condensare tutti i coefficienti parziali delle resistenze in un unico coefficiente e lo stesso
posso fare per le sollecitazioni, vengono quindi introdotti i coefficienti γ z e γ H .

Figura 60: nelle slides viene riportata anche le formule per VDM (a seconda del carattare plunging o surging sulla mantellata).

Il primo dei due coefficienti viene valutato abbastanza facilmente in funzione della probabilità di collasso e di un
parametro k α:

γ z=1−k a ⋅ln Pf

Il secondo, relativo all’incertezza del comportamento del moto ondoso, è costituito da 3 membri che sono relativi,
nell’ordine:

1. Stima e incertezze degli errori di misura per H s (quanto siamo bravi a misurare l’altezza d’onda).

Figura 61: il rapporto ci dice la differenza fra le due altezze d’onda, se la retta è più o meno pendente. L’elementi dice le differenze dovute al
modello statistico utilizzato (?)

2. Stima degli errori di misura e della variazione di corto periodo dovute ai dati d’onda (bontà dei dati raccolti,
come misuro/ottengo i dati di onda).
3. Incertezza statistica dei dati d’onda impiegati per la stima dell’onda di progetto (i valori estremi sono molto
influenzati dal numero di dati che si hanno a disposizione, ci dice il numero di dati a disposizione per
l’analisi).

Fra gli altri, k s viene assunto pari a 0.05.


Sono stati fatti degli studi relativamente ai valori dei coefficienti k inseriti nell’equazione sopra per rocce naturali,
tetrapodi, cubi, acropodi nelle varie relazioni progettuali impiegabili.
Figura 62: tabelle prese dalle linee tecniche del PIANC.

Inoltre, a seconda dell’elemento che si sta progettando, si hanno delle differenti tabelle (opere al piede, run-up,
struttura a cresta bassa…). Quindi, in definitiva, γ z è definito in funzione di un valore k a noto.
Passiamo ora alla valutazione del coefficiente relativo alle onde.
Il primo membro è composto da due differenti altezze significative d’onda relative a differenti tempi di ritorno: uno
corrispondente alla probabilità di failure e uno alla vita utile dell’opera.
Va ora definito il termine σ F H , esso è in funzione della strumentazione a disposizione per misurare il moto ondoso e
s

della distanza dalla costa (off-shore, near shore) del punto che si vuole analizzare. Più in particolare, per i punti vicino
alla costa, vengono impiegati modelli numerici che permettono di ottenere le caratteristiche dell’onda sul punto in
cui si vuole realizzare la diga grazie a processi di shaoling e rifrazione che trasferiscono le caratteristiche nel punto.

Figura 63: possono essere anche impiegati strumenti radar che operano tramite misure indirette (horizontal radar, hindcast, che sono
numerical models. Il metodo SMB è meno raffinato perché è un modello parametrico) oppure tramite report dei capitani delle navi (la raccolta
più grande è dell’istituto olandese KMI).

In questo tipo di analisi è possibile tenere in conto anche di altre grandezze utili per il dimensionamento quali:

- Periodo dell’onda (serve per il run-up)


- Duration of sea state (quanto dura l’onda)
- Spectral peak frequency offshore (?)
- Spectral peakedness offshore (quanto lo spettro è impicchito)
- Main direction of wave (direzione dell’onda)

Nuovamente, a seconda del tipo di misura che si sta effettuando


Figura 64: in verde sono evidenziate le tipologie di misurazioni maggiormente impiegate.

Quindi a seconda della grandezza prevalente che si vuole considerare in sede di progetto verrà individuato il valore
più consono di σ . (?)
Passiamo ora all’ultimo membro, minore è N maggiore è l’incertezza legata a questo membro, maggiore sarà il
valore del coefficiente di sicurezza, viceversa all’aumentare di N.
Di seguito viene fornito un breve specchietto relativo all’influenza dei vari termini:
- Periodo di vita utile della struttura (50 o 100 anni).
- Probabilità di faliure
- Relativo periodo di ritorno legato alla probabilità di collasso
- Altezza d’onda con tempo di ritorno pari al periodo di vita utile della struttura nel caso di esponente pari a T
e 3T.
- Altezza d’onda con tempo di ritorno corrispondente alla probabilità di collasso.
- Coefficienti parziali (probabilmente calcolati con Hindcast)
- Diametri in funzione del grado di danneggiamento
- Pesi in funzione dei diametri relativi al grado di danneggiamento
La variabilità di peso può rientrare anche nell’ordine delle 10 volte! La progettazione probabilistica risulta
estremamente articolata in funzione delle grandezze che si possono considerare, si possono quindi ottenere risultati
molto differenti fra loro.
Burchart & Soresen si sono presi la briga di calcolare i coefficienti γ z e γ H in funzione del modo in cui sono state
'
calcolate le onde (σ F ) e della probabilità di collasso.
Hs

Progettazione probabilistica: Dighe a parete verticale – Stabilità del fusto.


La situazione è analoga perché anche in questo caso è presente una funzione di progetto in cui sono presenti la forza
peso F G , la sottospinta F U , il coefficiente di attrito μ e poi la forza delle onde F H .
ch ch

F CT ch μ
G=
( γFG
U
γμ
ch
)
−γ F ⋅ F U ⋅ −γ F ⋅ F H ≥ 0
H

I coefficienti parziali delle resistenze e delle sollecitazioni, come già fatto in precedenza, vengono riassunti in ulteriori
coefficienti.
Sorgono tuttavia delle problematiche. Primariamente, nel caso in cui non vengano effettuate prove sperimentali in
laboratorio, poiché la formula di Goda restituisce valore in eccesso rispetto al valore medio assunto come
caratteristico, vengono introdotti dei fattori di bias con cui limitare i valori della sottopressione e della forza delle
^ Vert e U
onde essi sono U ^ Hor. Si parla in questo casi di bias positivo. Inoltre, l’altezza d’onda di progetto non ha
significato fisico perché si prende la massima altezza d’onda possibile rispetto all’altezza d’onda significativa
calcolata con tempo di ritorno pari alla vita utile della struttura e potrebbe essere estremamente alta.
Quindi il coefficiente parziale riassuntivi delle sollecitazioni viene inserito nel calcolo dell’altezza d’onda di progetto:

H D=1.8 H Ts ⋅γ H
L

Mentre quelle delle resistenze viene inserito nella funzione di stato:

^ Vert ⋅ ^ μ ^
G=( ^
FG −U FU ) ⋅ − U Hor ⋅ F H ≥ 0
^
γz

Nuovamente, il coefficiente relativo alla sollecitazione γ H può essere fornito in funzione della probabilità di failure o
della sigma per diversi casi:

Figura 65: in acque profonde per progettazione senza test in laboratorio, in acque profonde e con forze calcolate in laboratorio, condizioni di
acque basse e senza test in laboratorio (formule di Goda), condizioni di acque basse e test in laboratorio. Nella colonna di destra i bias non sono
applicati perché non si stanno impiegando formule di Goda e quindi nelle equazioni di stato non sono presenti i fattori di bias. Si note come
gamma subisca una forte variabilità.

Anche per la verifica a ribaltamento è possibile condurre le medesime verifiche con gli stessi ragionamenti sopra
descritti, cambia ovviamente la funzione di stato (perché c’è solo gamma_h e non anche gamma_z? perché a
ribaltamento non c’è attrito?):

Figura 66: I pedici U e H nei momenti ribaltanti si riferiscono alle forze orizzontali e alla forza di Uplift

Per il calcolo dei momenti viene sempre impiegata l’altezza d’onda calcolata per un tempo di ritorno pari alla vita
utile della struttura:

H TS
γ H⋅^ L

Nel caso di forze di Goda i fattori di bias assumono i seguenti valori:


Figura 67: esempio script matlab modello deterministico (livello 0).
SBOBINE AA.2020/2021 (dalla lezione 37 In poi)

[lez. 38-39 sono esercitazioni MatLab]

Lezione 40: costruzione cassoni galleggianti

I cassoni servono principalmente per la costruzione di dighe a parete verticale o banchine, in questa lezione
vederemo come essi sono usati e vederemo degli elaborati costruttivi nei quali i cassoni sono già progettati e
dimensionati, vederemo anche quali sono gli impianti di prefabbricazione e le fasi costruttive per questi elementi,
vederemo quali sono i materiali utilizzati per realizzarli (di fondamentale importanza non solo per qualità ma anche
per questioni di lavorabilità e impiego), vederemo come essi sono varati a seguito del loro trasporto (fatto via mare)
dall’impianto di fabbricazione e infine vederemo come sono posati in opera.

Porto di Civitavecchia: tipologie di utilizzo per i cassoni


Il cassone cellulare ha diverse tipologie di utilizzo:
- Opere di difesa a parete verticale (antemurale Cristoforo Colombo e rafforzamento dell’antemurale di prima
costruzione) di dimensioni consistenti (30mx20mx19m per l’antemurale nuovo) e più contenute nel caso di
opere di rafforzamento (27x8.9x13.5).
- Opere infrastrutturali di banchina (terminal container), quindi come opere interne al bacino portuale. IN
questo caso le dimensioni sono differenti ma si cerca comunque di sfruttare la massima potenzialità
dell’impianto in termini di lunghezza (29x14x13.5); le sollecitazioni sono diverse rispetto a quelle della diga
quindi questo tipo di cassoni sono meno profondi e spessi.

Figura 68

Nella fig.68 si vede invece una sezione tipica di un cassone di diga a parete verticale. Partendo dal basso si ha:
- Imbasamento: di solito fatto su materiale di scapolame pulito (?) con pezzature di 5-50 Kg, sotto di esso
spesso viene fatto uno scavo per rimuovere le parti limose più importanti.
- Infrastruttura: emerge di circa 1.5m dal pelo dell’acqua in modo da poter lavorare per realizzare la
sovrastruttura ed il muro paraonde
- Sovrastruttua
- Muro paraonde
Figura 69:sezione tipica cassone cellulare per dighe a parete verticale

I cassoni di banchina (oppure banchina eseguita a cassoni) sono strutturalmente simili ma hanno dimensioni inferiori
e servono per creare delle banchine per cui in sommità al posto del muro paraonde vi sono gli arredi di banchina
(parabordi, bitte, via di corsa per le gru, scalette alla marinara…). La sezione tipica per questo tipo di cassoni è
riportata in fig.69:
- Imbasamento: sottomesso rispetto al fondale esistente perché all’interno dei bacini portuali bisogna scavare
piuttosto che elevarsi in altezza
- Infrastruttura:
- Riempimento: La parte retrostante la banchina è un terrapieno che viene poi riempito di materiale, è molto
importante che questo riempimento venga fatto con uno scapolame selezionato che è detto rinfianco
perché serve a scaricare il carico del piazzale trasmesso sul terreno sulla parete verticale del cassone. Se
usiamo materiali non selezionati o argillosi, il sovraccarico del piazzale agisce direttamente sul cassone che
potrebbe scivolare verso l’esterno e far perdere il fondamentale allineamento delle travi gru e di tutto il
resto degli arredi.
- Sovrastruttura: con arredi di banchina e senza muro paraonde perché la banchina deve essere usufruibile
dalle navi e dal piazzale a tergo della banchina

Figura 70: sezione tipica di una banchina eseguita a cassoni

Porto di Livorno: Molo Italia


Sempre rimanendo nell’ambito delle opere interne, in questo caso i cassoni sono stati utilizzati per eseguire la
cinturazione perimetrale del molo prima di iniziare la costruzione vera e propria. Una volta definito il perimetro del
molo (con sviluppo longitudinale di banchina di circa 1Km), l’area racchiusa dai cassoni è stata riempita con materiali
di rinfianco e con materiale di cava (nella parte centrale), in seguito la costruzione è proseguita con la posa in opera
della pavimentazione e l’esecuzione delle sovrastrutture.

Figura 71:

Tavola di carpenteria di un cassone cellulare: disegni costruttivi (?)


Deriva da una serie di step precedenti (progettazione esecutiva e progettazione costruttiva) e descrive ovviamente
come deve essere la carpenteria del cassone (i.e come deve essere la geometria del cassone) e tiene conto di molti
fattori, fra i quali:
- Della reale possibilità di eseguire cassoni in un bacino portuale (se c’è il fondale…??)
- Le sollecitazioni

Figura 72: Carpenteria del cassone (sx), carpenteria in sezione traversale (dx)

Nelle tavole di carpenteria è rappresentato sia in sezione trasversale che longitudinale lo spessore delle pareti
interne ed esterne e il dimensionamento delle celle.
La parte più importante dei disegni costruttivi riguarda il dimensionamento del ferro perché oltre a rispettare le
norme di costruttive, un bravo progettista di cassoni deve avere esperienza costruttiva perché la disposizione dei
ferri, il loro dimensionamento e quello dimensionamento delle candele (?) nonché le riprese devono essere fatti
considerando come verrà eseguito il cassone perché spesso chi non ha esperienza rende la costruzione del cassone
irrealizzabile.
Figura 73: disegno costruttivo dei ferri di armatura
Per la parte bassa del cassone (solettone, fig.73) non si hanno particolari problemi perché, certamente, si ha una
grossa quantità di ferro ma per il getto si usa comunque cassero tradizionale. Per quanto riguarda invece le pareti si
usa invece un cassero scorrevole quindi tutto deve essere calibrato in basse all’elevazione che giorno per giorno
viene gettata (quindi in base al posizionamento delle candele e al posizionamento dei giri del ferro longitudinale)

Figura 74: solettone

Si arriva quindi ad avere una serie di tavole che definiscono la natura del cassone da costruire in termini di
preparazione del ferro e del cassero
Figura 75:esempio di tavola che definisce la natura del cassone
Impianti di prefabbricazione:
Si classificano come segue:

- Impianti fissi
- Impianti galleggianti: sono quelli maggiormente utilizzati perché molto versatili (possono essere spostati da
un posto all’altro) in quanto possono arrivare nelle vicinanze della zona in cui viene eseguita l’opera, fermo
restando che vengano correttamente protetti dal moto ondoso.
- Bacini di carenaggio: in questo caso i cassoni sono fatti “all’asciutto” all’interno dei bacini di carenaggio i
quali poi vengono riempiti per permettere il galleggiamento del cassone. La problematica legata a questi
impianti è la disponibilità del bacino perché è difficile incastrare le tempistiche della riparazione delle navi
con quelle richieste per la realizzazione del cassone.

Nei primi due casi la tipologia di costruzione è identica, mentre nella terza possono essere utilizzati dei casseri
tradizionali piuttosto che scorrevoli.

Impianti di prefabbricazione: impianto fisso


In figura è rappresentato l’impianto fisso (ora smantellato) che era presente nel porto di Taranto, rispetto agli
impianti galleggianti quelli fissi hanno una struttura fissa in cemento (banchina da un lato e cassoni/pali dall’altro)
che permette lo scorrimento verticale della piattaforma metallica. Una volta completati, i cassoni vengono trascinati
via mare con rimorchiatori per raggiungere la destinazione finale. Vediamo le altre parti che compongono questo
impianto:

- Aste: consentono di manovrare la piattaforma


Telaio: che serve per reggere il cassero (i.e cassaforma) durante le fasi di getto del solettone e il varo del
cassone
- Cassaforma: non ha detto nulla, ma immagino permetta di gettare in modo progressivo il cassone
Figura 76: Impianto di fabbricazione fisso (Porto di Taranto, sopra) e sequenze realizzative del cassone in un impianto galleggiante(sotto)

Impianti di prefabbricazione: impianto galleggiante


Questo tipo di impianti sono definiti natanti, la loro conformazione è simile a quella degli impianti fissi solo che la
parte fissa è sostituita dalle torri (come se fossero delle scatole) che consentono di muoversi in galleggiamento e
consentono al bacino di immergersi durante la prefabbricazione.
Anche in questo caso è presente una piattaforma metallica sul quale è costruito il cassero sopra il quale è presente il
carroponte che serve per movimentare il cassero durante le fasi costruttive iniziali e durante il varo.

Figura 77: impianto di prefabbricazione galleggiante San Giorgio (sx), Delfino (dx)

Quindi le torri, opportunamente allagate, servono per fare immergere progressivamente il bacino durante la
prefabbricazione in modo tale da trovare sempre un equilibrio stabile e un carico non troppo gravoso sul bacino
sfruttando la sottospinta dell’acqua.
L’impianto Fincosip più potente è l’impianto “Dario” (fig.77) di Salerno che consente di produrre cassoni di circa
40x27x22 m.
Figura 78: Impianto galleggiante “Dario”

Ci sono poi impianti che possono avere una struttura a catamarano come quello in fig.78, non ci sono più le torri che
si allagano e consentono l’immersione dell’impianto, ma è la platea a scendere progressivamente verso il basso
grazie ad un sistema di catene presente nei bighi (quelli gialli).

Figura 79: Impianto galleggiante "Benedetta"

Impianti di prefabbricazione: impianto di carenaggio


Dal momento che i bacini di carenaggio sono solitamente adoperati per riparare le navi essi non hanno un fondo
regolare (avranno una sorta di “piedistallo” per reggere la chiglia nave) che rende spesso difficoltoso la realizzazione
di casseri regolari richiedendo un’onerosa (in termini di tempo e di denaro) regolarizzazione del piano di posa.
Figura 80: Impianto di prefabbricazione in bacino di carenaggio (sx.), riempimento del bacino per consentire il galleggiamento del cassone (dx)

Realizzazione del cassone: inquadramento generale


Ipotizziamo di avere i disegni della carpenteria e dei ferri del cassone e di procedere nella realizzazione vera e
propria del cassone.
La prima cosa da fare è predisporre il cassero, solitamente viene fatta da ditte specializzate perché bisogna avere dei
casseri sufficientemente rigidi per evitare che si deformino, ma allo stesso tempo non eccessivamente pesanti per
evitare che il telaio dell’impianto non sia troppo sollecitato: bisogna quindi tenere conto della capacità portante
dell’impianto e soppesare con attenzione tutti i dettagli per ottimizzare il processo. Il cassero rappresenta
fedelmente la carpenteria del cassone come si vede in fig.81 ed inoltre deve avere tutte le caratteristiche per essere
scorrevole perché durante le fasi di prefabbricazione, grazie ad un sistema oleodinamico di martinetti comandato, si
arrampica verticalmente su delle aste che vengono progressivamente allungate. La sua altezza è solitamente di un
metro e si riescono quindi a fare complessivamente 3-4 m di getto in elevazione ogni giorno.
Per la realizzazione fisica del cassone vengono adottati degli elementi modulari caratterizzati da opportuni
irrigidimenti che sono assiemati o sull’impianto stesso o a terra e rispecchiano fedelmente la carpenteria del cassone

Figura 81: vista in pianta del cassero

Solitamente si “disegna” sulla base della platea dell’impianto la carpenteria del cassone per facilitare la posa in opera
degli elementi modulari, una volta che sono stati correttamente assemblati e disposti sono “tappati” con dei tavoli
che permettono il calpestio degli addetti al posizionamento dei ferri di armatura e al getto del calcestruzzo.
Figura 82: elementi modulari con tavole di calpestio

Per quanto riguarda il solettone di base (alto dai 50 ai 70 cm), si usa un cassero tradizionale incernierato sulla platea
dell’impianto che è realizzato con una pannellatura all’interno della quale viene montato il ferro del solettone di
base e i ferri di ripresa per le prime elevazioni.
Solitamente, per favorire lo scivolamento del cassone durante la fase di varo, fra il solettone di base e la piattaforma
del bacino viene disteso o un telo in neoprene o uno strato di sabbia.

Figura 83: strato di sabbia (sx) e telo in neoprene (dx)

Nelle immagini seguenti sono messe in luce le difficoltà che stanno dietro alla realizzazione e all’utilizzo di un cassero
scorrevole, in particolare sono rappresentati gli elementi che sorreggono i martinetti permettendo al cassero di
arrampicarsi sulle aste di elevazione (fig.84) e altri tipi di strumentazioni che sorreggono i martinetti (fig.85).

Figura 84: strumenti di sostegno dei martinetti e delle aste di elevazione


Figura 85: altri elementi di sostegno ai martinetti

Per favorire lo scivolamento verticale della lamiera cassero quando il cemento ha raggiunto una consistenza tale
sopportare il getto successivo si utilizza la paraffina, così si evita la formazione di strappi e vespai nel materiale che
“non hanno valenza strutturale ma visiva” e andrebbero quindi riparati una volta ultimato il getto.
Una volta completato il cassero e spalmata la paraffina, si passa alla pensione del cassero al tetto (qua si capisce
perché il cassero non deve essere eccessivamente pesante) e si inizia la realizzazione del solettone di base. Le pareti
laterali del solettone, come abbiamo detto, sono incernierate alla platea dell’impianto per evitare che “scappino”
una volta che inizia la fase di immersione ed il solettone va sotto acqua. L’armatura del solettone è piuttosto fitta ma
abbastanza tradizionale e la sua disposizione occupa tipicamente circa una giornata lavorativa che diventano due nel
caso di cassoni più imponenti.

Figura 86: sollevamento della cassaforma e inizio della realizzazione del solettone (sx.) e armatura del solettone di base (dx)
Realizzazione del cassone: figure lavorative
È bene che per la prefabbricazione di un cassone vengano impiegate persone ben qualificate, visti gli spazi ristretti e
l’attenzione che viene posta nei dettagli (per importanza non solo tecnica ma anche produttiva), solitamente per
realizzare un cassone servono 25 (ma si arriva fino a 60 per le casseforme più imponenti) persone con i seguenti
incarichi:
- Capo Impianto di Prefabbricazione: responsabile dell’impianto di prefabbricazione e che gestisce le fasi di
manovra e movimentazione dell’impianto (affondamento progressivo, varo del cassone, assicura ormeggio
dell’impianto…).
- Cassaformista: gestisce la posa del ferro, la posa del cls e decide quando sollevare il cassero scorrevole per
mandare avanti la produzione ed è lui a coordinare il capo squadra dei Ferraioli e quello dei Cementisti.
- Capo squadra Ferraioli.
- Capo squadra CLS.
- Operai specializzati e comuni.
Realizzazione del cassone: platea di fondazione
In modo un po’ confuso, ritorniamo all’orditura del solettone che viene realizzato come indicato in figura:
posizionamento dell’armatura e getto del calcestruzzo. La fase di getto non è particolarmente complicata e avviene
con una o due pompe in contemporanea.

Figura 87: disposizione delle armature del solettone (sx) e getto (dx)

Figura 88: getto ancora fresco e ferri di ripresa (sx) cassero incernierato abbattuto (dx)

Realizzazione del cassone: fusto cassone


Una volta eseguito il solettone di base e abbattuti i relativi casseri, Il cassero scorrevole viene successivamente calato
e copre perfettamente i ferri di ripresa e vengono effettuati i getti progressivi. Nell’immagine in fig.89 il solettone e i
primi getti non sono ancora stati immersi perché, come accade per piccoli cassoni, la platea di base del bacino è
ancora in grado di reggere il peso di quanto gettato e a galleggiare.

Figura 89: solettone e primi getti


Realizzazione del cassone: getto mediante nastri trasportatori
Il getto del cls può essere fatto in diversi modi:
- Nastri trasportatori e canala: il cls è condotto fino al tetto del bacino con dei nastri o delle pompe e, con un
sistema di tramogge e canale, viene dirottato nelle celle. Questa tecnica permette di gettare piuttosto
velocemente perché le canale sono spesso numerose, tuttavia può portare a problemi di segregazione
accentuata della miscela e quindi non questa tecnica non è ormai più adottata.
- Sistema a pompa: è tutt’oggi quello più adottato. In questo caso la betoniera scarica direttamente sulla
pompa che getta direttamente nelle celle.

Figura 90: nastri trasportatori e canala (sx) e sistema a pompa (dx)

Come in tutte le opere che hanno a che fare con il cemento armato, la fase di vibrazione del getto (tipicamente fatta
con un ago vibrante ad aria compressa) è fondamentale perché un’eccessiva o una ridotta vibrazione provoca
rispettivamente una tendenza a disgregarsi della miscela o una sua aggregazione non soddisfacente.

Realizzazione del cassone: riprese di getto


Grazie all’utilizzo del cassero scorrevole è possibile eseguire giornalmente fra i 2 e i 3 metri di fusto del cassone,
questo dipende da come reagisce la miscela di calcestruzzo. Per dare continuità fra le diverse fasi di getto vengono
realizzati dei giunti freddi, che evitano che i cloruri entrino nella discontinuità fra i due getti e aggrediscano le
armature di ripresa del giorno precedente. Questi giunti sono realizzati con malta della stessa composizione del cls
che compone le pareti, a partire da prove di laboratorio si è in realtà visto che i giunti freddi garantiscono una
maggiore impermeabilità rispetto alla parete e quindi da punto di debolezza diventa punto di forza.
Figura 91: giunto a freddo e altezze di costruzione

Durante la realizzazione del cassone sono indicate le altezze progressive di costruzione per tenere sotto controllo
l’orizzontalità del cassone sia in fase di costruzione che in fase di galleggiamento, questo aspetto è molto importante
perché l’orizzontalità del cassone determina la stabilità globale del sistema cassone-impianto che di per sé è un
elemento unico ma che galleggia (in sostanza riusciamo a capire se il cassone sta affondando orizzontalmente)

Realizzazione del cassone: dettagli chiave del fusto del cassone


Gli angoli del cassone (sia interni che esterni) sono porzioni molto sollecitate, per questo motivo il fusto è smussato
in modo da aumentare la sezione di incrocio delle pareti.

Figura 92: dettagli del fusto in corrispondenza degli angoli. Si notano gli staffoni, i martinetti e le aste del cassero scorrevole

Solitamente per eseguire una struttura non basta un solo cassone, le chiavi sono infatti i punti di unione tra i vari
cassoni e sono realizzate con un inserto in acciaio all’interno del cassero. Una volta uniti i cassoni le chiavi sono
riempite con delle calze di calcestruzzo e ciò consente di evitare, soprattutto per le strutture di banchina, i fenomeni
di sifonamento che consistono nella perdita di materiale tra la parte a tergo del cassone e quella frontale a contatto
con l’acqua. Quindi per evitare sgrottamenti (buche o avvallamenti nel piazzale), i cassoni sono uniti con un unione di
posa (i,e non controllabile più di tanto), “ma si garantisce lo sgrottamento del materiale con queste calze di
calcestruzzo”
Il calcestruzzo: caratteristiche, controlli e problematiche connesse
Oltre all’importanza che ricopre nel definire le resistenze di progetto, lo studio del mix design deve garantire
un’adeguata lavorabilità del materiale (né troppo veloce né troppo lento in fase di presa) per via della presenza del
cassero scorrevole e non solo:
- Lavorabilità S4 – S5: dipende prevalentemente dalle condizioni meteo in fase di getto
- Tempi di presa: nei cassoni standard sono compresi fra i 45 e i 60 minuti (anche questo in funzione delle
condizioni di getto), per casseri più imponenti può aggirarsi anche attorno alle 2/2.30 ore per via del tempo
necessario per ricoprire un’area di getto maggiore
- Autoportanza dopo la presa: questo aspetto non è facilmente definibile a priori, ci sono sicuramente dei
riferimenti teorici ma, dal lato pratico, spesso si eseguono, in contemporanea all’allestimento dell’impianto,
alcune operazioni (tempi di indurimento e altre) su un cassero prova di riferimento (2.5x2.5m) in funzione
dei diversi tipi di mix design che sono stati studiati. In base ai risultati di queste prove viene scelta la miscela
più adatta prima di eseguire il getto sul cassone.

Quindi, primariamente si valutano la certificazione del cemento, quella degli aggregati, quella degli additivi e si
acquisiscono tutte le informazioni necessarie riguardo la curva granulometrica: esattamente come accade nelle
strutture ordinarie in c.a nel rispetto delle NTC.

Figura 93: Certificazione del cemento e degli aggregati (sx) e composizione della miscela e curva granulometrica (entrambi forniti dal
produttore, dx)

Secondariamente, entra in campo la lavorabilità della miscela. Come detto, questo aspetto richiede l’esecuzione di
prove in situ che sono svolte per ogni giorno di getto

Figura 94: prova di SLUMP (col cono di Abrams, sx.) e cubetti prove di resistenza in laboratorio sulla resistenza dichiarata dal fornitore (dx.)

Dando per scontato che la tecnologia attuale abbia sorpassato e messo da parte le problematiche legate al getto del
calcestruzzo tramite nastri trasportatori (disgregazione della miscela non risolvibile nemmeno col vibratore) con i
sistemi di pompaggio, le possibili problematiche riguardano il distacco del copriferro (strappo) causato da un ritardo
nei tempi di indurimento del cls. Questa problematica, potenzialmente, è causata da innumerevoli fattori e viene
risolta andando ad intonacare la parte di cassone danneggiata in modo da proteggere le orditure interne
dall’aggressivo ambiente marino.

Figura 95: strappo del copriferro e riparazione con intonacatura

Il varo del cassone e ultimazione della costruzione:


Man mano che vengono eseguite le fasi di getto le torri sono allagate e l’impianto “affonda” progressivamente in
modo controllato fino a che il cassone, distaccandosi dalla platea dell’impianto, galleggia. Ed è proprio in questa fase
che si capisce l’importanza del telo in neoprene posizionato fra la platea ed il getto del solettone, in usa assenza il
cassone non potrebbe andare in galleggiamento. Contemporaneamente all’immersione dell’impianto per
permettere il galleggiamento del cassone il cassero viene sollevato e agganciato al carroponte.
A questo punto il cassone è un elemento indipendente dalla platea e può essere varato con rimorchiatore tramite
dei golfari che sono posizionati agli spigoli del cassone, in seguito viene traghettato fino in banchina e viene
completato l’allestimento per le future operazioni (trasferimento o la posa se non è necessario trasferirlo in un altro
posto). Al posto del tavolame di legno sono infatti poste delle solette di copertura prefabbricate con un foro
centrale per consentire, dapprima, il riempimento d’acqua del cassone per la posa e, in seguito, per riempire il
cassone di materiale inerte in quantità tale da garantire la stabilità di progetto e la resistenza alle sollecitazioni
esterne a seconda che si tratti di un cassone di diga o di un cassone di banchina.

Figura 96: fasi finali della costruzione di un cassone

In seguito viene completato il getto del piano di calpestio (un’ulteriore soletta) e, se il cassone viene trasferito in
galleggiamento tramite rimorchi, i fori sono tappati per favorire il suo trasporto da un porto ad un altro. Nella fig.96
si nota la presenza dei ferri di ripresa per la creazione delle sovrastrutture di banchina.
Figura 97: soletta di copertura finale e getti ripresa per le strutture di banchina (in questo caso un muro paraonde)

Trasferimento del cassone:


Il trasferimento deve avvenire con le autorizzazioni della capitaneria di porto perché il cassone è un natante stagno
a rimorchio, vengono perciò eseguiti diversi calcoli (di stabilità nautica, del peso delle zavorre di stabilità da inserire
nelle fasi di copertura, varo e navigazione) con le diverse condizioni di onda che sono poi esposti sia al RINA che alla
capitaneria di porto.

Figura 98: stabilità nautica e quantità delle zavorre per stabilizzare il cassone durante la navigazione

Inoltre, RINA e autorità portuale devono approvare anche il piano di rimorchio (disposizione del cavo di rispetto e
dei cavi di rimorchio, luci,…) in modo trasferire la struttura in completa sicurezza.

Figura 99: Cassone in partenza, il cilindro bianco è il cavo di rispetto che serve come sostituto in caso di rottura del cavo di rimorchio
Figura 100: esecutivo del piano di rimorchio (sx) e dettaglio (dx.)

In fase di trasporto portuale il cavo bianco di fig. 99 ha lunghezza molto limitata, ma in fase di trasporto in mare
aperto può essere disteso fino a raggiungere una lunghezza di 200 m.
Se il trasporto avviene su brevi distanze (i.e in ambito portuale) non vengono messe le celle di copertura, ma
vengono messe delle passerelle per la posa del cassone così da garantire il movimento sul cassone stesso.

Figura 101: trasporto di cassone privo di solette.

Arrivo del cassone:


Anche questa operazione va studiata nel minimo dettaglio perché non è rimandabile, tutto viene predisposto
affinché il cassone venga accolto da un pontone che ha il compito di movimentare un sistema di pompe flight che
permettono di portare l’acqua all’interno del cassone e consentirne la posa nella fase finale. In seguito , il cassone è
assicurato, con dei cavi tierfort (?i.e cavi di acciaio manovrati manualmente), a delle boe/strutture esistenti in modo
da essere collocato topograficamente nella sua posizione finale. Queste operazioni vanno eseguite con molta
attenzione non solo perché la precisione richiesta è dell’ordine del centimetro ma anche perché si sta manovrando
una struttura molto grande con un’inerzia elevata e, un eventuale errore di manovra, porterebbe al danneggiamento
del cassone stesso e a quello delle strutture su cui impatta.
Una volta raggiunta la sua posizione finale viene ulteriormente zavorrato d’acqua per raggiungere la sua posizione
definitiva sul fondale, in seguito viene zavorrato con il materiale lapideo previsto nel progetto il quale espelle via via
l’acqua in eccesso all’interno del cassone e si “sostituisce” all’acqua. Lo zavorramento lapideo viene posizionato
tramite pontone o tramite camion (i.e via terra) se le solette di copertura sono calpestabili; contemporaneamente
viene portata avanti l’operazione di riempimento del rinfianco per raggiungere la configurazione grezza della
banchina sopra la quale verrà eseguita la sovrastruttura (pavimentazioni, servizi…)
Figura 102: il pontone consente di movimentare delle pompe che portano acqua all'interno del cassone (sx) e riempimento tramite pompe (dx)

Figura 103: zavorramento con pontone (sx) e camion (dx)

Figura 104: riempimento del rinfianco.

[nella parte finale min. 1:36 ca. fa vedere un video riassuntivo delle varie operazioni una marketta ma ben fatta]
Lezione 41: introduzione alle opere di accosto

Introduzione:
Le opere di accosto, come si può capire dal nome, permettono di fare “accostare” la nave e di farla attraccare per
realizzare le operazioni di carico/scarico in completa sicurezza che è lo scopo per cui sono realizzate le infrastrutture
portuali. Più formalmente possono essere definite come l’insieme dello spazio a terra dedicato alle operazioni
portuali.
Oltre alla sicurezza, un’altra caratteristica fondamentale delle opere di accosto è il pescaggio (i.e la profondità
massima a cui arriva la nave rispetto al pelo dell’acqua) per via del cosiddetto gigantismo delle navi: navi sempre più
grosse richiedono pescaggi sempre maggiori. Il gigantismo non è un “problema” che si trovano ad affrontare solo le
opere di nuova costruzione ma anche quelle esistenti, aumentare il pescaggio richiede infatti di effettuare degli
interventi alla base dell’opera di accosto che possono presentare delle criticità specifiche.
Generalmente questo tipo di opere sono ubicate in zone riparate all’interno dei porti, tuttavia, nel caso di ormeggi
isolati per rinfuse liquide o terminali petroliferi, possono trovarsi anche in zone non protette perché le navi che
trasportano queste sostanze non necessitano di uno specchio d’acqua completamente protetto e possono subire le
agitazioni del moto ondoso.
Per ognuna delle opere di accosto esposte verranno forniti degli schemi di calcolo elementari per una progettazione
preliminare qualitativa (concept design) di predimensionamento.

Funzioni principali e compiti funzionali delle opere di accosto:


Oltre alle già citate funzioni di carico/scarico ce ne sono altre:

- Carico/scarico delle merci e dei passeggeri


- Deposito totale/parziale delle merci
- Rifornimento e riparazione (in fase di galleggiamento)
- Sosta di attesa delle navi
- Fornire un dispositivo di appoggio o di ormeggio delle navi
- Consentire l’installazione e il funzionamento di mezzi terrestri di carico/scarico
- Assicurare il collegamento tra nave e terraferma con i più diversi mezzi
- Consentire il deposito, sia di transito che di sosta delle merci
- Fornire alle navi i necessari servizi

Nel progetto di questo tipo di strutture diventa quindi fondamentale conoscere non soltanto la portanza del terreno
sottostante ma anche la funzione che esso dovrà assolvere (con conseguenti carichi di funzionalità e operatività che
riceverà nel corso della sua vita utile), infatti ad una diversa funzione corrispondono infatti diversi carichi di progetto.
Le diverse tipologie costruttive di banchine vanno di pari passo sia con la disponibilità di spazio a terra sia con le
possibili modalità di realizzazione.

Prima tipologia delle opere di accosto: calate formate da piazzali, delimitati lato mare da banchine, distribuiti
all’interno del porto in sporgenti, ponti o calate di riva
Molto banalmente, questa tipologia viene realizzata quanto il terminal ha bisogno di una linea di ormeggio e di uno
spazio a tergo dove si eseguiranno delle operazioni. In altre parole, possono permettere di svolgere tutti i compiti di
servizio e di deposito inerenti al traffico portuale nella più ampia misura: non si ha soltanto il prospetto di banchina
ma anche gli spazi a tergo, quali i piazzali, in cui svolgere tutte le attività necessarie.
Figura 105: esempio di opera di accosto sporgente all’interno del porto (si nota chiaramente la linea originale di riva)

Seconda tipologia delle opere di accosto: pontili


Queste opere di accosto si differenziano dalle precedenti per la loro assai limitata, o nulla, disponibilità al deposito
delle merci (i.e non viene realizzato un piazzale a tergo dell’opera di ormeggio), sono quindi indicate per il trasporto
di merce che non deve essere posizionata sul piazzale ma che può essere spostata con organi di movimentazione
ridotti (e.g i nastri trasportatori da carbone, le cosiddette rinfuse solide).
Solitamente, sono realizzate per risparmiare spazio a terra o per “conquistare” un pescaggio tale da garantire
l’attracco delle navi che in prossimità della costa potrebbe non sarebbe possibile, si potrebbero certamente fare
delle opere di dragaggio per aumentare il pescaggio in costa ma richiederebbero un impegno continuo ed esoso.

Figura 106: opera di accosto di secondo tipo

Terza tipologia delle opere di accosto: insieme di Dolphins o Ducs D’Albe


Un insieme di Dolphins forma delle opere di accosto isolate (sperate dal porto o in mare aperto) che funzionano
come solo appoggio o ormeggio della nave. Sono impiegate soprattutto nel campo del trasporto delle rinfuse liquide
perché esse non hanno bisogno di spazi specifici presso la banchina in quanto possono essere trasportate grazie alle
tubazioni posizionate sul fondo del mare.
Questo tipo di opere devono essere abbastanza robuste perché, non godendo della protezione fornita dalle varie
opere portuali, deve fare fronte alle intense sollecitazioni trasmesse dalla nave anche nel caso di condizioni meteo-
marine poco favorevoli.

Figura 107: opera di accosto realizzata tramite i Ducs d'Albe


Quarta tipologia delle opere di accosto: ormeggi isolati / in mare aperto
Anche queste tipologie di opere corrispondono sostanzialmente ad ormeggi puntuali a cui la nave si aggancia con
una cima e sono realizzate per l’industria oil and gas perché è l’unica tipologia di merce che si presta per questo tipo
di opere. Le operazioni di carico/scarico sono infatti effettuate tramite delle condotte galleggianti che, in prossimità
della boa, sono portate sul fondo per destinare il prodotto altrove (fig. 108 sx.), si dice in questo caso che la condotta
raggiunge il corpo morto della boa. In alternativa, la condotta può essere interamente in galleggiamento fino al
campo boa (fig. 108 dx.) dove una condotta porta la merce fino al corpo morto, quindi in questo caso la condotta
galleggiante non raggiunge direttamente il corpo morto.

Figura 108: opera di accosto di IV tipo.

Mentre le opere isolate (Ducs d’Albe) sono posizionate all’interno di un raggio di azione limitato (i.e le correnti e le
onde non devono essere eccessivamente forti) per via della necessità di fare accostare la nave alla struttura, questi
campi boa si trovano in mare aperto perché sono al servizio di terminali petrolchimici, di conseguenza l’organo di
scarico/carico è indipendente dal punto di accosto. La posizione in mare aperto degli ormeggi isolati è
particolarmente pratica perché evita di effettuare ogni volta lo scarico a terra della merce estratta dal campo di
trivellazione, la quale viene invece raccolta nei campi boa per essere poi smistata altrove risparmiando inutili viaggi.
Ci sono altri motivi per cui si realizzano questo tipo di opere:

- Difficoltà di realizzare pescaggi importanti per le petroliere nei porti


- Sicurezza nei confronti del trasporto di merci pericolose e/o infiammabili

Classificazione costruttiva delle opere di accosto:


Oltre ad una classificazione in funzione degli spazi disponibili a terra (come abbiamo appena fatto), un’ulteriore
classificazione delle opere di accosto può essere fatta considerando la metodologia costruttiva e la configurazione
costruttiva che le caratterizza.
Una prima caratterizzazione distingue fra le famiglie di opere di accosto con scarpata e fra quelle a parete continua,
nel primo caso è presente una scarpata nel terreno sotto la banchina, mentre nel secondo caso si realizza un muro
continuo.

Figura 109: opere di accosto a parete continua (sx.) e con scarpata (dx.)
Figura 110: classificazione delle opere di accosto per tipologia costruttiva

All’interno delle banchine a parete continua, si distinguono ulteriormente due famiglie di opere: banchine a parete
continua pesante e banchine a parete continua leggera. Nel primo caso la funzione di muro di sostegno viene
espletata grazie al peso stesso della banchina (i.e la spinta del terreno è contrastata grazie al peso del muro) e si
distingue ulteriormente fra:

- Fondazione a parete continua pesante superficiale, in cui l’opera appoggia (quasi) direttamente sul fondale
coi suoi pesanti elementi monoliti. Queste fondazioni possono realizzate in molti modi:
o A piloni su massi prefabbricati, come nelle dighe a parete verticale in cui i massi sono messi uno
sopra l’altro. In questo caso il muro di sostegno non dovrà sopportare la spinta data dalle onde
(all’interno di un porto il moto ondoso è pressoché nullo), ma dovrà contenere la spinta del terreno
a tergo. Erano la tipologia più utilizzato fino all’avvento dei cassoni
o A cassoni di c.a prefabbricati, come visto nella scorsa lezione. Sono i più utilizzati perché la
metodologia costruttiva è molto efficace, rapida e standardizzata
o Muri in c.a prefabbricati o gettati in opera

- Fondazione a parete continua pesante profonda, attenzione non significa che si va a scavare in profondità!
Questo tipo di opere sono solitamente realizzate con:
o Cassoni autoaffondanti: i cassoni autoaffondano pian piano nel terreno (lo vederemo più avanti). Va
detto che questo tipo di soluzione al giorno d’oggi, per motivi legati alla gestione del lavoro e di
sicurezza, non è più adottata.

Nel secondo caso invece il terreno a tergo del muro di sostegno non viene sopportato grazie alla massa del muro
stesso ma grazie ad un elemento incastrato nel terreno, qua si distingue solamente in:

- Palancole:
- Pareti in c.a o c.a.p:
All’interno delle banchine con scarpata si distingue invece in:

- Banchine con scarpata pesanti con fondazione superficiale o profonda che possono essere realizzate con:
o Speroni di massi con impalcato ad arco, sono tecnologie un po’ più antiche che si usavano quando
non si avevano molte soluzioni costruttive e la manodopera costava poco
o A speroni di cassoni con impalcato a solettone, queste strutture sono più moderne sono realizzate
posizionando un solettone sopra i cassoni (gettati in opera o prefabbricati).
In sostanza, queste sono banchine per cui si realizzano dei piloni di massi o dei cassoni e, tra un pilone e l’altro, si
lascia un “buco” dove viene realizzata la scarpata e sopra viene messo l’impalcato

- Su sostegni isolati (a giorno) che possono essere realizzate con:


o Pali infissi nel terreno: si conficcano una serie di pali nel terreno sui quali viene realizzato l’impalcato.
o Piloni con fondazione diretta su pali: in questo caso il pilone è appoggiato sul fondale marino oppure
conficcato nel terreno se le capacità portanti del terreno sono sufficienti
La differenza è che i pali sono progettati per sopportare esclusivamente un carico verticale, mentre i piloni
per via delle sezioni maggiori che li caratterizzano sopportano anche carichi orizzontali.

Figura 111: opere di accosto continue a fondazione superficiale pesante a piloni di massi prefabbricati (sx.), a cassoni prefabbricati in c.a (dx.)

Figura 112: opere di accosto continue leggere con tiranti realizzati in modi differenti (dx e centro), con accorgimenti particolari (muri danesi dx.)

Figura 113: banchine a giorno su piloni con tirante


Lezione 42: progettazione delle opere di accosto

Nei primi minuti fa un’ulteriore recap delle tipologie di opere di accosto nella classificazione appena vista, è
interessante notare che tanto per le fondazioni pesanti continue quanto per quelle leggere continue, le
caratteristiche del terreno influenzano la tipologia di opera di accosto realizzabile. Da un lato, nel caso di fondazioni
pesanti, il terreno deve avere una sufficiente capacità portante; dall’altro, nel caso di fondazioni leggere, il terreno
deve essere in grado si sopportare la presenza di pali infissi. Inoltre, la tipologia di materiali che verranno impiegati
nell’opera di accosto permette di capire quale manodopera andrà richiesta per la realizzazione.

Esempi storici di opere di accosto realizzate:


Fra le altre abbiamo citato delle banchine costruite ad Algeri e realizzate con piloni di massi impilati uno sull’altro
con riempimento a tergo.

Figura 114: esempi storici di opere di accosto


Anche per quanto riguarda delle banchine realizzate a Nador (Marocco) si hanno dei piloni impilati che però in
questo caso sono cavi e sono riempiti con ghiaia per rendere pesanti gli elementi e contrastare la spinta del terreno .
Nel caso di Livorno sono stati invece impiegati dei cassoni autoaffondanti, gli elementi tratteggiati sono dei cassoni
prefabbricati cavi che sono terminati con delle sezioni a spigolo. Se il terreno è abbastanza cedevole, una volta che il
cassone viene adagiato su di esso sprofonderà verso il basso. Chiaramente, lo sprofondamento dovrà avvenire fino
alla quota interessata in modo che non agisca solo la componente legata al peso proprio del cassone ma anche
quella legata all’affondamento.
Anche a Venezia sono stati realizzati dei cassoni autoaffondanti che però funzionano in maniera leggermente diversa
rispetto alla precedente soluzione (questa tecnologia è un po’ antiquata e ormai non si usa più). La zona evidenziata
in figura viene pressurizzata in modo che l’acqua non rifluisca al suo interno, così facendo degli addetti ai lavori
possono entrarvi passando per il foro centrale ed effettuare così uno scavo che permette l’affondamento progressivo
del cassone. Oltre alle difficoltà tecniche, questo tipo di realizzazione comporta un’attenzione particolare alla
sicurezza sul lavoro, gli operai, lavorando sotto una pressione maggiore di quella atmosferica, dovranno trascorrere
del tempo nella camera iperbarica per ristabilizzare i livelli di pressione del sangue.

Figura 115: esempi storici di opere di accosto

A Pasaies (paesi baschi) abbiamo invece un esempio di una tecnologia più moderna, essa è realizzata con cassoni
suddivisi in due celle, una è riempita di un materiale lapideo mentre l’altra (per motivi di risposta idraulica all’interno
del bacino) è riempita di acqua.
Nel porto di Genova (Sestri) abbiamo invece un esempio di banchina a scarpata su piloni di massi con arco, la
funzione della scarpata è quella di dissipare l’energia del moto ondoso

Figura 116: esempi storici di opere di accosto

Nel porto di Rouen è invece presente un esempio di banchina a giorno sempre con scarpata, sotto il piano di
banchina è presente un vuoto e la banchina appoggia su pali a vista. Nel porto di Le Havre è invece presente una
banchina a giorno che poggia invece su piloni (lo si nota per via della sezione molto più consistente).
In fig.119 è riportato anche un esempio di muro danese, di fatto è una struttura con una palancola verticale ed una
piattaforma di scarico fondata su pali.
Figura 117: esempi storici di opere di accosto

Nel porto di Savona è invece presente una diga su palancola in c.a, in questo caso si distingue nettamente l’elemento
che realizza la mensola. A Marsiglia è invece presente un’opera di accosto realizzata con gabbioni (scatoloni
realizzati con palancole, in sostanza un mix fra cassoni e palancole) successivamente riempiti.
Infine, nel porto di Genova (ponte Parodi), vi è un esempio di ampliamento di una banchina. A partire da una
banchina preesistente costituita da piloni di massi è stato realizzato un aggetto per raggiungere un maggiore
pescaggio tramite una banchina a giorno.

Figura 118:: esempio storico di opere di accosto

Osservazioni finali:
Oggigiorno le tecnologie più frequentemente utilizzate sono:

- A cassoni
- Su pali (che alle volte possono essere sostituite da piloni)
- Su palancole

Questo perché:
- Il livello tecnologico raggiunto per queste costruzioni è molto elevato
- sono particolarmente affidabili
- il livello di standardizzazione è molto elevato e la produzione ne risente positivamente

Le tipologie che invece sono ormai desuete sono la n.1 e 2 (cassoni impilati) la n.3 e 4 (cassoni autoaffondanti) e la
n.6 (piloni su scarpata).
L’esempio di fig.118 porta con sé diverse problematiche perché l’adeguamento funzionale delle banchine
preesistenti deve essere fatto senza mandare in crisi le strutture già costruite, per questo motivo è spesso preferibile
realizzare una banchina ex novo
Fattori che influenzano il tipo di banchina da realizzare:
Ci sono 6 fattori in particolare che ci guidano nella scelta:
- Caratteristiche dei fondali: questo fattore è molto importante e incide parecchio nella scelta progettuale, se
ad esempio volessimo realizzare delle palancole direttamente su terreno roccioso non le riusciremmo ad
incastrare, ma allo stesso tempo, se la roccia è ricoperta da un terreno scadente possiamo pensare di
infiggere delle palancole che arrivano fino allo strato di roccia per appoggiarvisi. Se invece il terreno ha
buone caratteristiche portanti possiamo mettere direttamente un’opera a gravità.
Perciò per prima cosa vanno condotte delle indagini geotecniche per capire la natura dei fondali sui quali
vogliamo realizzare l’opera, nonché l’eventuale stratigrafia per individuare gli strati di resistenza.
- Destinazione (tipo di nave o imbarcazione): a seconda del terminale che poggia sulla banchina si avranno
diversi carichi che sollecitano l’opera, anche per quanto riguarda eventuali e possibili urti.
- Profondità fondale e pescaggio: a seconda della profondità di pescaggio richiesta le strutture possono
essere più o meno onerose. Se si considera ad esempio il caso delle palancole può risultare difficoltoso
infiggere nel terreno pali che raggiungono anche i 30 m di lunghezza, per quanto riguarda le strutture
esistenti un aumento del pescaggio potrebbe invece provocare scalzamenti o ribaltamenti dell’opera.
- Modalità di realizzazione (all’asciutto, da mare): a seconda dei casi può essere infatti conveniente adottare
una soluzione piuttosto che un'altra. È infatti molto improbabile che saremo in grado di posare un cassone se
si deve guadagnare il lato terra perché bisognerebbe movimentare molto terreno per posizionarlo , se si
dovesse realizzare ad esempio una cinturazione per la futura realizzazione della banchina è meglio impiegare
delle palancole piuttosto che dei setti in c.a che vengono realizzati all’asciutto.
- Risposta idraulica: corrisponde alla capacità della banchina di smorzare l’eventuale moto ondoso residuo
all’interno degli spazi portuali protetti che può generarsi per via della configurazione stessa del porto.
Solitamente per fare fronte a questa problematica si utilizzano delle opere di accosto a scarpata oppure dei
cassoni provvisti di camere interne di dissipazione.
- Disponibilità dei materiali dei mezzi d’opera e della manodopera: basti pensare ai cassoni, come si è visto
nella scorsa lezione è necessario avere a disposizione una ben definita e qualificata manodopera nonché
materiali e impianti di produzione ben precisi per realizzarli. Anche l’infissione delle palancole richiede un
alto livello di competenza della manodopera ad esempio, questi tre aspetti vanno quindi di pari passo : potrei
avere di cassoni super tecnologici, ma se non ho la disponibilità di manodopera in grado di movimentarli né
di adeguati impianti di produzione diventano inutili!

Progettazione delle opere di accosto: stati limite


La progettazione delle opere di accosto segue la filosofia degli stati limite, vengono quindi individuate delle
combinazioni di carico che sono associate ai diversi stati limite, i quali a loro volta rappresentano differenti
meccanismi di collasso. All’interno di ogni stato limite andranno verificate:

- Capacità portante del terreno


- Durabilità dell’opera
- La fatica
- Capacità di sopportare carichi accidentali

Gli stati limite di riferimento sono invece i seguenti:


- Ultimate limit state (ULS): quando la struttura collassa in questo stato limite deve essere completamente
demolita e ricostruita. Questo stato limite è associato quindi al rischio globale e locale di collasso
- Accidental limit state (ALS): rappresenta il collasso solamente globale della struttura (i.e crisi completa) in
situazioni accidentali quali terremoti, esplosioni, urti improvvisti (i carichi energetici delle navi fuori controllo
sono molto elevati).
- Fatigue limit state (FLS): le operazioni ripetute di scarico e carico in ambito portuale sono la prassi e possono
dare luogo a fenomeno di fatica (ormeggio e disormeggio, moto ondoso, interazione con organi di
manovora…)
- Serviceability limit state (SLS): la struttura non va in crisi completa ma comunque non riesce più a soddisfare
i requisiti per la quale è stata costruita, questo ha chiare ed evidenti ricadute economiche e logistiche
dell’intero sistema portuale

Progettazione delle opere di accosto: vita utile


In generale può essere descritta in diversi modi, solitamente, in ambito portuale, si ritiene che la vita utile ottimale di
un’opera sia l’orizzonte temporale per cui la struttura riesce a svolgere i suoi compiti senza la necessità di interventi
strutturali (major repaires). In base a questa definizione la vita utile della struttura può essere descritta come:

- Uno stato limite rilevante


- Un numero di anni fissato
- Un livello di affidabilità all’interno di un periodo temporale fissato

Solitamente la vita utile di un’opera è definita a partire da normative, se si volesse invece calcolarla in modo più
preciso ci sarebbero alcuni fattori da tenere in considerazione:
- Esperienza del progettista: un progettista esperto capisce quali sono gli aspetti peculiari del progetto che
influenzano la vita utile dell’opera in questione
- Standard di progetto da normativa: possono darci delle indicazioni utili per determinare la vita utile
- Materiali: l’ambiente marino è particolarmente aggressivo e quindi bisogna tenere in conto i processi di
degradamento dei materiali
- Tipologia costruttiva e abilità del costruttore: anche se in Italia non capita perché non sappiamo chi
costruisce l’opera, può capitare che la ditta progettista sia la stessa che realizza l’opera e quindi, in accordo
col costruttore, si può scegliere la tipologia di opera più adatta per garantire una certa vita utile.
- Monitoraggio e manutenzione: il tipo di manutenzione che verrà effettuata, nonché il monitoraggio che
verrà su di essa svolto possono influenzare positivamente la vita utile dell’opera
- Investimenti: a seconda dell’importo che viene investito in una certa infrastruttura la vita utile dell’opera è
differente, a importi elevati dovrebbero corrispondere vite utili piuttosto lunghe per rientrare della spesa
fatta. Una buona progettazione dovrebbe tenere conto anche di costi riparazione, non si può considerare
solo il costo realizzativo della struttura, se lo si facesse si sottovaluterebbe la vita utile dell’opera

Figura 119: schema grado di danneggiamento della struttura in funzione del tempo e della corrosione della struttura

Questi fattori permettono di definire quindi tre aspetti che permettono di giudicare la vita utile di un’opera:
- Una probabilità di collasso limite accettabile
- La probabilità che un particolare stato limite possa verificarsi durante la vita utile dell’opera
[lez 43-44: seminario progettazione opere portuali, interessante]

Lezione 45: opere di accosto – banchine a gravità (I)

Carichi sulle opere di accosto:


Ci sono 3 principali famiglie di carichi che gravano sulle banchine portuali e che vanno considerati in sede di
progetto, ora ci soffermeremo soprattutto sul secondo e terzo gruppo:
1. Carichi lato mare
2. Carichi dovuti al peso proprio, quali:
a. Verticali
i. Peso proprio (sono quelli più consitenti)
1. Banchina stessa (struttura)
2. Costruzioni accessorie (sovrastruttura)
ii. Carichi dovuti agli apparati di movimentazione e carichi accidentali (superimposed loads)
1. Carico dei macchinari
2. Carico neve
3. Forze dovute alle azioni del ghiaccio
b. Orizzontali (dovuti al comportamento della banchina) quali:
i. Calo delle temperature
ii. Gru e mezzi d’opera
3. Carichi lato terra
a. Orizzontali
i. Spinta del terreno di riempimento dovuta al peso peso proprio
ii. Spinta del terreno di riempimento dovuta al peso che grava su di esso
iii. Spinta del terreno di riempimento dovuta ai carichi interstiziali
b. Verticali
i. Dovuti ai pesi propri delle installazioni e alle eventuali superimposizioni sul piazzale
(magazzini di stoccaggio, zone di deposito merci…)

Carichi orizzontali sulle opere di accosto: land side (i.e carichi del terreno)
Il carico principale di progetto in questo caso è quello dovuto al riempimento e ai carichi accidentali che possono
causare dei carichi orizzontali sulla struttura di ormeggio.
Per comprendere meglio i vari addendi che compongono questo carico si può fare riferimento alla fig. 124, si nota
infatti che il diagramma delle pressioni parte da un valore:

p0=q K a

Ove K a è il coefficiente di spinta attiva (di fatto un coefficiente che permette di trasformare le forze verticali in forze
orizzontali su piano di riferimento), man mano che si scende in profondità la pressione cresce in funzione del peso
specifico del terreno emerso (i.e sopra il livello di falda) γ e e, una volta raggiunto il livello di falda, la crescita della
pressione è proporzionale ad un γ i (immerso):

pe =(γ ¿¿ e ∙ z )∙ K a ; pi=γ i ∙(z−h)∙ K a ¿

Una volta raggiunto il fondale, la spinta attiva del riempimento è contrastata dalla spinta passiva del terreno
proporzionale al coefficiente di spinta passiva (di fatto un coefficiente che permette di valutare la resistenza offerta
dal terreno ad una spinta orizzontale):

pf =γ 'i ∙ ζ ∙ K p
Figura 120: profilo delle pressioni al variare dell'approfondimento

I concetti di spinta attiva e passiva permettono di ottenere il diagramma delle pressioni agenti sulla struttura grazie
al quale è possibile ricavare le spinte esercitate che verranno poi confrontate con dei valori ricavabili da normative,
in altre parole la nostra struttura dovrà essere in grado di contenere queste spinte.
In via del tutto generale si può assumere come peso specifico del terreno (secco) il seguente valore:

γ ≅ 1.8 tonn/m3

Mentre per l’acqua:

γ w =1.026 tonn /m3

Il peso dell’unità di volume del materiale saturo dipende dalla sua porosità (ipotizziamo 0.3) e dal peso specifico
dell’acqua:

γ sat =2.1tonn /m 3

Tuttavia, se il terreno/corpo è immerso in acqua il peso dell’unità di volume diminuisce per via della spinta di
Archimede esercitata che in sostanza “alleggerisce” il corpo:

γ ' =γ sat −γ w =1.1 tonn/ m3

Ed è per questo motivo che la crescita nel diagramma delle pressioni è molto più contenuta una volta superato il
livello di falda. I coefficienti di spinta attiva e passiva dipendono dalla configurazione geometrica del problema e, in
condizioni di piano campagna orizzontale, si semplificano notevolmente:

K a =tan 2 ( π4 − ϕ2 ) ; K =tan ( π4 + ϕ2 )
p
2

Ove ϕ è l’angolo di riposo del materiale a tergo, in altre parole se scaricassimo una certa quantità di materiale su
piano orizzontale esso si disporrebbe per natura con un certo angolo in condizioni indisturbate.
Figura 121: significato fisico dell'angolo di riposo ϕ
In via del tutto generale è inoltre possibile affermare che:

K a <1 ; K p >1

Inoltre, quando si ha a che fare con opere di sostegno, si vuole che ϕ sia il più grande possibile perché se esso
aumenta diminuisce il coefficiente di spinta attiva e, di conseguenza, anche la pressione ( p=γz K a). Per questo
motivo nelle opere marittime, subito a tergo della struttura, si tende ad utilizzare un materiale di riempimento
specifico per diminuire il più possibile K a .

Carichi verticali principali sulle opere di accosto: sovraccarichi funzionali


Questi carichi dipendono dal tipo di terminale che si sta progettando (container, rinfuse solide, rinfuse liquide…), in
altre parole ora vogliamo definire i carichi q di fig.124 che agiscono sul piazzale di banchina. Può sembrare una cosa
difficile ma non lo è, oggigiorno i terminali portuali sono infatti altamente specializzati così come lo sono anche i
mezzi di movimentazione, di conseguenza i sovraccarichi funzionali sono precisamente definiti . Da un altro punto di
vista, questa specificità dei carichi non permette di standardizzare il processo progettuale perché la loro variabilità è
piuttosto marcata a seconda dei casi dipendendo dal tipo di traffico commerciale che si realizzerà nel terminale, e
non tanto dalla dimensione della nave. Infatti, i mezzi di movimentazione possono variare notevolmente anche
all’interno di uno stesso terminale e l’unico modo per far fronte a questa variabilità è avere le specifiche del terminal
così da dimensionare i carichi correttamente (se il costruttore monta dei mezzi di movimentazioni diversi rispetto a
quelli che dichiarati in fase di progetto si potrebbero avere danni alla struttura).
Infatti, nei terminali petroliferi, le navi sono molto grandi (300/400m) e possono scaricare migliaia di tonnellate di
rinfuse ma non oltrepassare carichi di 10 kN /m2 (un valore non troppo alto). Viceversa, i terminali di supporto per
l’industria petrolifera offshore accolgono navi solitamente piccole ma che trasmettono carichi di 50−200 kN /m 2 per
via delle attrezzature altamente pesanti che movimentano.
Figura 122: Tabella riassuntiva dei principali sovraccarichi (indicazioni estremamente generiche), il primo gruppo è legato ai carichi dovuti agli
organi di movimentazione, il secondo a carichi semi-permanenti, il terzo invece agli accosti speciali.
Dalla fig. 126 si nota che:
- Quando la variabilità dei carichi non è precisamente controllabile si introduce il termine ≥
- Il peso dovuto ai container è calcolato in funzione di quanti ne sono impilati (two high, four high) e se sono
pieni oppure vuoti (empty/full)
- Con Heavy vehicles, heavy crane, crawler crane etc. that operate from the berth front and 3 m inboard si
intende quanto riportato in fig. 127 (sx)
- Con Heavy vehicles, heavy crane, crawler crane etc. that operate from the berth front and 3 m behind si
intende quanto riportato in fig. 127 (dx)
- Con general ro/ro loads si intende il carico dovuto al via-vai di mezzi roll on e roll off
- Gli oil jetties (pontili petroliferi) non raggiungono pesi eccessivamente elevati perché solitamente sono
appesantiti solamente dagli oleodotti necessari a trasportare le rinfuse liquide.
Figura 123: ship to shore crane (sx), mezzo di movimentazione interno al piazzale (dx)

A questo punto è chiaro che la progettazione di questo tipo di opere deve essere portata avanti a stretto contatto
con i suoi concessionari (chi vince la concessione) per rispettare tutti i requisiti funzionali attesi.
La fig.128 vuole solo mettere in evidenza come, a seconda del tipo di mezzo di movimentazione, i carichi sono
trasmessi alla banchina.

Figura 124: straddle carrier (sx), camion (centro), mobile crane (dx)

La tabella di fig.128 ci dice come, qualitativamente, varino i pesi trasmessi alla banchina dalle ruote quando il mezzo
è in movimento (wheel load) e dai punti di appoggio del mobile crane (che evitano un ribaltamento del mezzo
durante la movimentazione delle merci) durante le operazioni di carico/scarico (outrigger load). I carichi trasmessi
dalle ruote durante il movimento non variano molto perché “è tutta chiusa e non sta caricando molto”, variano
parecchio invece i carichi trasmessi dagli appoggi per via dell’aumento del momento flettente che aumenta
all’aumentare dello sbalzo.
Figura 125: carichi qualitativi in un mobile crane
Lezione 46: opere di accosto – banchine a gravità (II)

Carichi verticali principali sulle opere di accosto: STS


I dati di fig.129 sono forniti anche per i cosiddetti ship to shore cranes (STS, fig.126 sx.), fondamentali quando si
realizzano i terminali container. Questi mezzi possono essere anche molto grandi sia in larghezza che in altezza
(dell’ordine delle centinaia di metri in larghezza in altezza) e possono quindi interferire, come nel caso di Genova,
con gli spazi aerei sovrastanti. In termini di carichi gli STS non movimentano un grande quantitativo di container
contemporaneamente (massimo uno o due alla volta), ma, per via dei grossi sbalzi che possono raggiungere,
possono sollecitare la banchina con un elevato momento flettente, in particolare per quanto riguarda i carichi
concentrati lato banchina.

Figura 126: dimensioni tipiche di una ship to shore crane (STS)

La produzione di queste gru è piuttosto standardizzata e quindi non vi è molta variabilità costruttiva , questo però
permette al produttore di fornire delle tabelle (fig.130) in cui, a seconda delle capacità di carico, della distanza fra le
due rotaie (rail gauge), del peso proprio della gru, viene fornito il massimo carico dovuto alle rotaie lato mare ( max.
wheel load water side) e lato terra (land side). Ma non solo, il produttore fornisce anche altri tipi di dettagli
costruttivi come indicato in fig.131 e fig.132.

Figura 127: tabella per una STS a otto ruote per rotaia

La gru è l’elemento più costoso dell’intero terminale, solitamente infatti ci sono degli accordi fra l’autorità che
gestisce il porto e i concessionari secondo i quali la prima provvede alla realizzazione di tutti gli elementi
infrastrutturali per realizzare un terminale mentre il secondo provvede a fornire i mezzi di movimentazione. Questo
perché il concessionario conosce molto bene che navi arriveranno nel terminale e di conseguenza anche le necessità
operative in termini di movimentazione merci.

Figura 128: a seconda della posizione della gru rispetto al filo della banchina, solitamente, dove sono presenti i binari, il carico viene scaricato
direttamente su fondazioni più profonde.

Figura 129: carichi trasmessi a terra a seconda dell'interasse delle ruote per una gru con 530 kN di capacità di sollevamento

Quindi in base a tutte queste informazioni (che sono reperibili dal concessionario) è possibile ricostruire i carichi
operativi sulla banchina.

Carichi verticali principali sulle opere di accosto: Osservazioni


- Se non conosciamo bene il carico da applicare alla banchina possiamo prendere come riferimento quello dei
container perché, seppur possano presentarsi diverse casistiche (pieni/ vuoti), hanno una variabilità definita:
o Due container impilati da 20 ft. pesano 25-35 kN/m 2 a seconda del carico. Il container da 20 ft
corrisponde il cosiddetto TEU (6.06 x 2.44 x 2.44 m), unità di misura per capire quanti container
movimento un porto (Genova si aggirava, in epoca pre COVID, sui 1 500 000 TEU movimentati)
o Un container di 20 ft vuoto pesa attorno ai 19 – 22 kN
o Un container d 20 ft al massimo può arrivare fino ai 240 kN
- Le rampe di accesso per i container devono essere dimensionate per un peso di almeno 40 kN/m 2
- Le strutture utilizzate per lo stoccaggio della merce trasmettono un carico in funzione di quanto la merce è
“impilata” una sopra l’altra, in generale ci si aggira fra 20 e 50 kN/ m 2
- Per evitare un sovraccarico della struttura è possibile indicare con cartelli o con scritte per terra il carico
massimo permesso
- Per avere un’idea un fork-lift truck trasmette al terreno un carico leggermente superiore a quello trasmesso
da un Boeing747 al decollo
- Se invece non abbiamo informazioni sui mobile cranes o sulle altre attrezzature che verranno impiegate nella
banchina, si può utilizzare un carico di riferimento di 700 kN agente su un’area di 1 x 1 m.
- Per via degli elevati carichi applicati, in questi terminali vengono realizzati i cosiddeti heavy duty pavement
in modo da ridurre l’effetto di carichi concentrati o per aumentare l’area di ripartizione del carico. I carichi di
riferimento sono:
o Carico concentrato di 150 kN agente su un’area di 0.2 x 0.5 m
o Carico uniformemente distribuito di 20 kN/m 2

Figura 130: Heavy duty pavement, sono realizzate utilizzando strati particolarmente resistenti nonché sufficientemente spessi in modo da
distribuirlo il più possibile sul terreno sottostante all'opera (subgrade support)

- In fig. 134 sono invece indicati i carichi tipici da considerare a seconda del tipo di merce movimentata sul
terminale

Figura 131: carichi distriubiti (qualitativi a seconda del tipo di terminale con cui si ha a che fare)

Figura 132: possibili combinazioni di carico, i carichi concertati sono quelli trasmessi dalla gru, quelli distribuiti sono rappresentativi ad esempio
di container appoggiati sul piazzale

Banchine a gravità: introduzione e tipologie


Esattamente come per le dighe a parete verticale, le banchine a gravità resistono per attrito grazie al loro consistente
peso, questo significa che le verifiche di stabilità riguardano:
- Verifica a scorrimento
- Verifica a ribaltamento
- Verifica allo schiacciamento del terreno
- Verifica di stabilità globale

Figura 133: Banchina a gravità a piloni di massi, si nota il carico dovuto al sovraccarico, alla spinta data dal rinterro (si noti la variazione di
inclinazione del diagramma delle pressioni)

Per diminuire la spinta data dal terreno si realizza solitamente un rinfianco di pietrame: ricordiamo che in fase
progettuale si vuole diminuire il coefficiente di spinta attiva K a , per farlo è necessario che l’angolo di attrito ϕ
aumenti, per far aumentare ϕ bisogna adottare un materiale più grossolano che viene quindi posizionato a tergo
della banchina al posto del terreno sciolto.
In realtà questo tipo di opere sono ormai antiche, ma la cosa interessante è che, allo stesso modo delle dighe a
parete verticale, la verifica allo slittamento va effettuata per ogni masso che costituisce l’opera; anche i criteri per la
verifica all’imbasamento della banchina sono gli stessi che si adottano per le dighe a parete verticale (verifica a
scorrimento).
Un ruolo importante è giocato dall’imbasamento perché le banchine vanno ad appoggiarsi su un terreno con scarsa
capacità portante in quanto saturo e non consolidato¸ la verifica della capacità portante del terreno è pertanto
fondamentale per questo tipo di opere (verifica a schiacciamento)
Per quanto riguarda le verifiche a ribaltamento e a scorrimento, esse vanno condotte riferendosi alla normativa
vigente.
In testa ai piloni di massi si nota la cosiddetta sovrastruttura, un elemento che regolarizza e solidarizza tutta la linea
della banchina ed è tipico delle banchine in generale, solitamente viene realizzata in sito e ha sezione cava per
permettere l’alloggiamento dei servizi quali tubature ad esempio. In questo tipo di opere è presente anche un
elemento parabordo (fa parte dei cosiddetti arredi di banchina) in grado di assorbire gli urti trasmessi dalle navi,
sembra un elemento apparentemente innocuo ma, a seconda delle navi che approderanno al terminal, delle merci
che saranno movimentate e dei mezzi che verranno impiegati, sono adottati parabordi diversi.
Un altro elemento fondamentale di questo tipo di banchine è il masso a seggiola, come si nota in figg.137 – 138 sx. il
primo masso alla base della struttura è in aggetto rispetto a tutti gli altri, così facendo tutto ciò che si trova a filo
dell’aggetto viene considerato come una porzione di banchina che contrasta la spinta del terreno e contribuisce
all’equilibrio della banchina. Infatti, guardando più attentamente la fig.137, si nota che i carichi distribuiti sono
applicati a partire dal filo dell’aggetto.
Alle volte, nella parte terminale si impiegava una sottopiastra in c.a posta fra l’imbasamento e il masso a seggiola
(fig.138 dx.) per distribuire meglio il carico.
Uno dei problemi delle banchine costruite come quella in fig.137 è che la chiglia della nave può scontrare con il
masso posto alla base dell’opera, per questo motivo l’imbasamento può essere realizzato sotto al fondale in modo
da non ridurre il pescaggio del terminale (fig. 139 dx.)
Figura 134: effetto del masso a seggiola (sx.), masso a seggiola soprastante la sottopiastra in c.a (dx)

Anche per le banchine a gravità si hanno metodologie costruttive differenti, le due principali famiglie sono:
- Banchine a gravità con fondazione superficiale, che si usano quando il terreno ha buone caratteristiche in
superficie. Le cui metodologie costruttive sono:
o Piloni di massi pieni, solitamente si impiegano quando non si ha la possibilità di realizzare cassoni
o Piloni di massi cavi o speciali
o Cassoni
o Muri di calcestruzzo gettato in opera all’asciutto
o Muri di calcestruzzo armato prefabbricati e portati in opera con pontoni di galleggiamento
- Banchine a gravità con fondazione profonda, che si usano invece quando il terreno superficiale non è adatto
il che costringe a ricercare strati migliori di terreno a profondità maggiori. Le cui metodologie costruttive
sono:
o Cassoni autoaffondanti
o Cassoni costruiti con l’ausilio dell’aria compressa
Queste ultime tipologie elencate sono ormai obsolete, ma vanno conosciute perché nella pratica
professionale potrebbe capitare di dover intervenire sull’esistente.

Figura 135: banchine a gravità con fondazione superficiale. A cassoni (sx.), a muri (centro), a piloni di massi (dx.)

Banchine a gravità: osservazioni


Noti i diversi pesi specifici e angoli di attrito è possibile tracciare il diagramma delle pressioni ed effettuare così la
verifica a stabilità (fig.140).
Figura 136: i contributi 7-8-9-10-11 sono quelli del terreno dovuto all'aggetto del masso di seggiola (n.5), a destra invece si vede un
imbasamento interrato

Il materiale di rinfianco può essere disposto sotto diverse configurazioni anche per una stessa opera, la disposizione
ottimale dipende dagli angoli di rottura del materiale stesso e del terreno. La disposizione ottimale deve tenere
anche conto della necessità di limitare l’utilizzo del pietrame di rinfianco per via del suo costo elevato.
Lezione 47: opere di accosto – banchine a gravità (III)

Banchine a gravità: osservazioni ed esempi


In tempi più antichi si realizzavano piloni di massi o con soluzioni tecniche miste con materiali gettati in loco (fig.141
sx.), sempre guardando al passato, nel caso di consolidamenti e rinforzi di strutture vecchie si utilizzavano pali di
sottofondazione e palancole in modo da contenere eventuali effetti di erosione ed evitare lo scivolamento della
struttura (fig. 141 dx.)

Figura 137: piloni di massi con tecniche miste (sx.), rinforzo di strutture esistenti (dx.)

Col passare del tempo le tecniche costruttive sono cambiate così come i materiali da costruzione, la prima soluzione
ad essere pensata con l’impiego di calcestruzzo prevedeva di impilare dei massi pieni o vuoti, in quest’ultimo caso il
riempimento veniva fatto con un riempimento granulare sciolto in modo da favorire l’equilibrio della struttura e
solidarizzare i vari tratti della banchina. Tra un blocco e l’altro venivano inseriti dei blocchi buchi? per evitare il
dilavamento del terreno a tergo della banchina e rendere quindi la banchina impermeabile (fig.142)

Figura 138

I massi poi potevano assumere diverse forme ed essere così diversamente riempiti come indicato in fig.143 che
venivano impiegati quando non si era in grado di realizzare un blocco completo cavo.
Figura 139: diverse tipolgie di blocchi determinano diverse sezioni della banchina

Il passo in avanti fu comunque importante perché rendere cavi dei massi di pietra e poi controllare che avessero il
peso richiesto era un’operazione piuttosto onerosa, con l’impego del calcestruzzo le procedure si sono semplificate e
velocizzate notevolmente.
Ancora, gli elementi impilati in cemento armato potevano avere sezione anulare ed essere solidarizzati tramite delle
barre in metallo o dei pali come indicato in fig. 144

Figura 140: il carico del mezzo di movimentazione da un lato ha un effetto positivo perchè stabilizza la bancihna nei confronti delle spinte del
terreno, dall'altro però posso dare dei problemi di schiacciamento locale nei blocchi.

I cassoni cellulari sono ormai ampiamente utilizzati, come abbiamo già detto, analogamente a quanto avviene per le
dighe si realizzano degli “scatoloni” cavi che sono posizionati dapprima nella zona in cui va realizzata la banchina e
poi sono riempiti di un materiale adeguato (solitamente materiale sciolto) per poi essere “tappati” da una
pavimentazione e dal massiccio di coronamento della banchina.
Figura 141: esempio di cassone cellulare (sx) e micropali in zona sismica (dx.)

In zone sismiche può capitare che alla base del cassone vengano inseriti dei micropali di consolidamento per favorire
la stabilizzazione della struttura (fig.145 dx). Se la banchina è particolarmente pesante si effettua solitamente una
sostituzione del materiale di fondo come indicato in fig.146.

Figura 142: sostituzione del materiale di fondo

Uno schema estremamente interessante è quello della diga di Taranto, si notano nell’ordine:
- Imbasamento che arriva a una quota molto più alta rispetto al fondale probabilmente perché il cassone non
poteva tecnologicamente raggiungere una certa altezza
- Cassone suddiviso in due celle:
o Una è in comunicazione con il mare tramite delle aperture, questo viene fatto per realizzare una
struttura che sia in grado di assorbire parte del moto ondoso residuo del bacino.
o L’altra è invece riempita di materiale sciolto
Questo tipo di cassoni sono chiamati assorbenti e sono utilizzabili sia nell’ambito di banchine che in quello
delle dighe a parete verticale
- Due binari (della gru), uno dei quali scarica sul cassone il quale a sua volta lo trasferisce all’imbasamento,
l’altro scarica invece su una fondazione superficiale in modo da non far gravare il peso della gru sul terreno a
tergo della banchina evitando così di creare un’eccessiva spinta su di esso.
Figura 143: diga del porto di Taranto

I cassoni assorbenti possono essere fatti in diversi modi, solitamente si realizzano delle camere cave che possono
essere lasciate libere (con fori che permettono entrata/uscita dell’acqua) o riempite con massi che riproducono
l’effetto dissipativo della mantellata delle dighe: l’onda arriva e dissipa la sua energia frangendo sulla massicciata.
Per capire la dimensione delle celle richiesta bisogna ragionare sul coefficiente di riflessione, esso è una funzione
della lunghezza d’onda incidente e della larghezza della cella (e per definizione è il rapporto fra l’altezza d’onda
riflessa e quella incidente):

K r =f (B /Li )=H r /H i

In termini progettuali il coefficiente K r deve essere il più piccolo possibile, quindi le celle sono dimensionate in
funzione delle onde attese all’interno del bacino portuale

Figura 144: cassone con camere piene (sx.), camere dissipative vuote (dx.)

Per quanto riguarda i muri in c.a, essi possono essere gettati in opera oppure prefabbricati, solitamente siamo nel
primo caso quando abbiamo la possibilità di lavorare all’asciutto (i.e l’installazione portuale non esiste ancora), in
questo caso viene eretta una trincea e si effettua il getto. Nel secondo caso invece i prefabbricati sono adagiati sul
fondale marino e sono utilizzati quando si lavora in acqua. Il principio, anche in questo caso, è sempre il medesimo:
un muro che regge del terreno alle sue spalle, questo permette di “sbizzarrirsi” sul tipo di muro da utilizzare.
All’interno dei muri prefabbricati possiamo infatti avare muri su una base ampia (fig.149 sx.) o muri più massicci che
rispondono alla spinta del terreno grazie al loro peso (fig.149 dx.), inoltre fra i muri a base ampia possiamo avere dei
contrafforti in funzione della spinta che il muro deve sostenere (fig. 149)

Figura 145: muri prefabbricati a base ampia (sx) e muri massicci (dx.)

Figura 146: muri con più contrafforti

Per avere una produzione giornaliera significativa e soddisfacente è chiaro che serve una capacità di
prefabbricazione adeguata sia in termini di expertise che di macchinari adeguati.

Figura 147: realizzazione di un muro gettato in opera, vista l’imponenza dell’opera è fondamentale la verifica a schiacciamento del terreno

Per quanto riguarda i muri gettati in opera (all’asciutto) si realizza una trincea a partire dal piano campagna originale
al cui interno viene gettato il muro di sostegno, in seguito si riempie di pietrame a tergo del muro, si realizza il
piazzale e si sbanca tutto il riempimento davanti alla struttura e si allaga così la trincea. Per quanto questa situazione
sia, da un punto di vista realizzativo, quella più semplice può essere fatta quando si realizza la banchina in un terreno
preesistente.

Figura 148: altro esempio di muro gettato in opera

Sempre all’interno dei muri gettati all’asciutto è possibile realizzare dei blocchi monoliti in c.a che riproducono la
forma della tipologia a blocchi impilati vista in precedenza.

Figura 149: blocco monolitico in c.a gettato all'asciutto

Questa scelta non è economicamente conveniente (per via del quantitativo di materiale impiegato) e perciò i blocchi
monolitici non sono più utilizzati, è infatti più economico costruire dei cassoni cavi da riempire poi con un materiale
di bassa qualità.

Osservazione:
- i muri di figg.148-149 non sono altro che delle opere di sostegno geotecniche utilizzate in ambito marittimo
- anche in questo caso l’imbasamento può essere fatto al livello del fondale o sotto di esso per guadagnare
pescaggio
Vi sono poi dei muri prefabbricati che sono ibridi fra un cassone e un muro in cls: sono cavi, possono essere
trasportati per galleggiamento e successivamente riempiti ma hanno la forma del muro di contenimento e non del
cassone.

Figura 150: Muro Dumez, tipologia ibrida

Banchine a gravità: fasi di lavorazione


1. Scelta del posto e consolidamento del fondale (vibro compattazione e impiego di materiale con
caratteristiche meccaniche migliori rispetto al terreno originale)
2. Posizionamento del muro
a. Per galleggiamento se al bagnato
b. Con gru se all’asciutto
3. Riempimento a tergo
4. Realizzazione delle opere di finitura
a. Realizzazione dell’elemento di coronamento
b. Realizzazione della pavimentazione

Figura 151: vibrocompattazione e consolidamento (due diverse tecniche pali e vibrocompattazione)

Figura 152: posizionamento del muro e realizzazione delle finiture


Osservazione: consolidamento del terreno
Il terreno del mare è saturo e non consolidato (i.e gli interstizi sono molto grossi e pieni d’acqua) quindi appena si
applica un carico vi sono grandi deformazioni verticali perché gli interstizi si chiudono e l’acqua esce dai pori, in altre
parole la mancanza di consolidamento ci dice che non si sono sviluppate delle forze di adesione tali da garantire una
sufficiente capacità portante. Per ovviare a questo problema si effettua un consolidamento del terreno, ci sono
diverse tecniche come la compattazione semplice, la vibrocompattazione, l’iniezione del cemento nei vuoiti (jet
grouting) o la realizzazione di micropali in sabbia o pietre. Anche in questo caso le tecniche appena elencate
derivano dall’ambito geotecnico e sono semplicemente trasposte in ambito marittimo.

Banchine pesanti a gravita: cassoni autoaffondanti


Questo tipo di cassoni non hanno fondo e sono caratterizzati da una sezione rastremata che genera una pressione
significativa che ne permette l’affondamento progressivo, i cassoni autoaffondanti sono utilizzati quando si ha a che
fare con terreni di scarse capacità portanti nei quali il cassone si ancora proprio perché sprofonda. In sostanza, è una
specie di fondazione profonda che veniva utilizzata in passato i cui elementi erano costruiti in loco; come già
sottolineato, le banchine moderne sono ben distanti da questo tipo di tipologie costruttive ma è giusto conoscerne le
caratteristiche nell’ottica di non eccedere con eventuali interventi di adeguamento (se scavo troppo il cassone si
ribalta) che devono essere fatti solo se si conosce il comportamento effettivo di queste opere. Solitamente i cassoni
sono cavi e sono poi riempiti con altro materiale sciolto (tipo sabbia)

Figura 153: sezione di cassone autoaffondante (sx.), cassone autoaffondante con sezione circolare (dx.)

Banchine pesanti a gravità: cassoni ad aria compressa


In questo caso abbiamo una zona sotto il cassone che viene messa in depressione così da poter lavorare all’asciutto,
scavare e facilitare l’infissione nel terreno da parte del cassone. Questo tipo di tecnologia è in realtà di tipo storico
(dell’800) ed è anche estremamente pericolosa, la camera 10 di fig.157 era a sigillata e al suo interno gli operai
scavavano fino a che il cassone non raggiungeva la quota di progetto per poi riempire il cassone con calcestruzzo:
all’epoca non si conosceva nulla in merito all’embolia e in merito ai rischi che si corrono se il corpo umano subisce
forti sbalzi di pressione. Queste fondazioni potevano essere realizzate sia in acqua che all’asciutto (le fondazioni della
Tour Eiffel sono state realizzate così fig.157 dx), nel primo caso la pressione era necessaria per evitare di avere
filtrazione di acqua all’interno dalla zona di scavo.
Figura 154: banchine con camera in pressione (sx.) e fondazioni della Tour Eiffel (dx.)