Sei sulla pagina 1di 311

GEOTECNICA

E

FONDAZIONI

P. VENTURA

PREMESSA

P. Ventura – Geotecnica e Fondazioni

Finalità principale del testo per il Laboratorio di Costruzioni dell’Architettura è quello di cercare di coordinare le Discipline fondamentali di Statica, Scienze e

Tecnica delle Costruzioni con quelle specialistiche di Geotecnica, Costruzioni asismiche e Consolidamento, per gli aspetti formativi essenziali e di responsabilità . Nel Laboratorio si svolge pertanto il Corso di Tecnica delle Costruzioni, che in passato era annuale, integrato con i Moduli di Progetto di Strutture e di Geotecnica ,

in modo da consentire di acquisire i criteri di base per il dimensionamento delle

strutture, possibile realisticamente solo se si sono preparate le “ basi” per poter “

pensare insieme “. Il coordinamento con i Laboratori di Progettazione specie Architettonica Tecnologica e le altre Discipline, che dovrebbe essere l’ altra finalità del Laboratorio, si cerca di anticiparlo al 3°e 4° anno, per i primi elementi, e deve confluire chiaramente in special modo nei Laboratori di Sintesi e nelle Tesi di Laurea, se non si vogliono disperdere le fatiche di Statica e di S d C ed i collegamenti con le origini, senza eccessi accademici .

La dispensa nella Parte I tende ad evidenziare i vantaggi e gli svantaggi delle ipotesi poste alla base dei modelli meccanici di tali Discipline, nella Parte II si accenna all‘ evoluzione del linguaggio Matematico nella Storia del Calcolo, a partire da quello Grafico,la Parte III è incentrata sul progetto di elementi di Strutture in elevazione e specialmente in fondazione di un edificio,usando i modelli ogni volta più consoni.

Si è cercato di aggiornare i contributi dei vari Eurocodici al dimensionamento, il cui

coordinamento merita un attento approfondimento, specie per EC2-c.a., EC6

murature, EC7-geotecnica, e soprattutto EC8-sismica, in modo da usare la ricchezza

di

ciascuno .

Si

evidenzia il passaggio dal criterio di sicurezza deterministico con il metodo delle

tensioni ammissibili , al criterio di sicurezza semiprobabilistico agli stati limite. La diagnostica statica del vasto patrimonio esistente, deve usufruire dell’apporto dell’analisi limite retrogressiva , che si deve svolgere peraltro anche sulla base delle

vecchie normative con cui furono progettate le opere, e che pertanto si devono continuare a studiare, arricchendole ,senza lotte strumentali, con i criteri moderni. Il Corso prevede la visita in sede del Laboratorio Sperimentale di prove sui materiali ,

in modo da cominciare ad avvicinare la realtà, e sviluppare un patrimonio Didattico.

Il testo è scaricabile da internet dal sito del Dipartimento d’Ingegneria Strutturale e Geotecnica o è anche su testo e CD a disposizione presso la Segreteria del

Dipartimento presso il Laboratorio Prove sui Materiali di Valle Giulia in Roma.

Si spera di non destare false sicurezze come nella battuta di Marcello Marchesi per

cui “la cultura a dispense, dispensa dalla cultura “, ma di aver tentato di riassumere

le “linee guida” essenziali su cui si basa la Progettazione, in particolare Geotecnica.

P. Ventura – Geotecnica e Fondazioni

Si auspica , pur avendo intrapreso una via poco seguita nei piani di studio della Facoltà di Architettura, di aver delineato il contributo della Scienza e della Tecnica al Progetto delle Strutture e lo stupore del Razionale nella bellezza dell’Arte.

Roma A.A. 2003-2004

Pierfranco Ventura TESTI CONSIGLIATI per il modulo di GEOTECNICA

C.Cestelli Guidi, P.Ventura “Principi di Geotecnica –Fondazioni “ Cap E4.E6 del Manuale dell’Ingegnere Colombo 84° Edizione Hoepli 2003

C.Cestelli Guidi “Geotecnica e Tecnica delle Fondazioni” 2 Volumi Ed. Hoepli , da cui sono tratte le principali figure del presente testo.

Eurocodici EC1-azioni,EC2 –c.a.,EC6 _murature ,EC7- geotecnica ,EC8 –sismica e corrispondenti normative Italiane

I criteri di Progetto più specificamente Geotecnici sono delineati in :

I.3 Principi e prove di laboratorio ed in sito

II.1 Analisi dei cedimenti vincolari – azioni cinematiche

III.3,4,5 Fondazioni e Muri di sostegno

Tutte le altre parti riguardano i fondamenti di Statica, S:d C: e T. d C. incisivamente propedeutici alla Geotecnica.

Analogamente i criteri di Progetto per la Sismica sono appena delineati in :

I.4 Valutazione delle azioni inerziali sismiche-spettri di progetto

II.1,2 Analisi Grafica pseudostatica

III. 1,2,3 Cenni al dimensionamento del c.a.

Si evidenzia ancora il delicato”stato limite” di contributo del presente testo alla “sicurezza” Formativa, che per essere utile necessita dell’ approfondimento degli studi di base sui testi fondamentali , in modo da acquisire una solida preparazione. La laurea quinquennale europea consente sia agli Architetti sia agli Ingegneri Edili di firmare Progetti di Strutture , dopo aver superato in Italia anche l’Esame di Stato, ciò comporta una Didattica che coltivi le radici culturali comuni e favorisca la concezione Strutturale sin dall’inizio, con quantomeno un linguaggio comune al progetto Architettonico ,o consenta realisticamente il dimensionamento tramite il tirocinio pratico. Ciò specie per gli aspetti Geotecnici e Sismici , da acquisire nei fondamenti con esercitazioni specifiche, che superano il calcolo di strutture,pur elementari, utile ma che mira ad un obbiettivo progettuale minimale illusorio, se non si conoscono i vari principi.

P. Ventura – Geotecnica e Fondazioni

Nel campo del Consolidamento poi , trattandosi di Geriatria, le conoscenze devono essere ancora più estese, visti gli interventi inefficaci che si può rischiare di proporre. Approfondire , liberando gli studi da contenuti accademici lontani dalle realtà, ,deve essere sospinto, non da selettiva competizione ma da sana preparazione, accessibile a tutti, anche nel mondo del lavoro attuale dei laureati. Quanto sia preziosa una persona preparata, è una via per trovare lavoro che non tramonterà mai, se si ha il fascino di divenire progettisti.

persona preparata, è una via per trovare lavoro che non tramonterà mai, se si ha il

P. Ventura – Geotecnica e Fondazioni

Analisi Statica Grafica di un Pilone di una Chiesa

PARTE

I

IL RUOLO DELLA MODELLAZIONE MECCANICA

INTRODUZIONE

I.1 CENNI STORICI

INDICE

P. Ventura – Geotecnica e Fondazioni

I.2 IL RUOLO DELLA MODELLAZIONE DELLA STRUTTURA

E DEI VINCOLI

I.3 IL RUOLO DELLA MODELLAZIONE DEI MATERIALI

I.4 IL RUOLO DELLA MODELLAZIONE DELLE AZIONI

I.5 IL RUOLO DELLA MODELLAZIONE NEI CRITERI DI

SICUREZZA

I.6 IL RUOLO DEGLI ASPETTI TECNOLOGICI, ECONOMICI

E DI CANTIERE

INTRODUZIONE

P. Ventura – Geotecnica e Fondazioni

Il testo. come delineato nella premessa, desidera offrire un contributo allo

sviluppo dei Laboratori di Costruzioni dell’Architettura e di Progettazione Architettonica, sorti nella Facoltà di Architettura ed Ingegneria Edile, per coordinare nella progettazione il contributo strutturale con quello architettonico, da affiancare naturalmente ai contributi tecnologico,

impiantistico, storico, urbanistico nonché economico, trattati anche in altri Laboratori.

I nomi dei Laboratori sottolineano le combinazioni scaturenti dalle varie

interazioni fra le singole discipline bilanciando i ruoli dell’Architetto e dell’Ingegnere con gli etimologici “primo costruttore” ed “artefice d’ingegno”. .Il lavoro di progettazione, tipicamente di équipe per coglierne la reale complessità, si spera possa trovare nei Laboratori universitari le libere radici della ricchezza dell’unità nella diversità. . Il fascino di persone che hanno racchiuso in sé la capacità progettuale dell’Architetto, del Geologo e dell’Ingegnere rimane una meta di conoscenza per il dialogo, senza peraltro cadere nel mito dell’eclettismo.

.Si vuole peraltro evidenziare la necessita di avere conoscenze in campo strutturale degli Architetti, sia per saper armonizzare le scelte sin dall’ inizio, sia per accorgersi di delicate problematiche. Le attuali articolazioni in Corsi di Laurea cosiddetti “3+2” , che si affiancano al Corso classico “5 U.E.”, devono necessariamente contemperare la predetta problematica culturale, determinante per divenire progettisti.

Il calcolo “manuale” inoltre, per conoscere anzitutto l’ordine di grandezza

dei problemi, deve affiancare il calcolo “automatico” ,in modo da garantirne l’affidabilità. Questa poi deve basarsi su programmi preparati su modelli fisici che sono sempre ripercorribili chiaramente dalla mente umana e non su modelli la cui elaborazione numerica, pur corretta, non è interpretabile per la complessità

dell’interazioni dei parametri che si vuole coinvolgere nel calcolo, non misurandoli realisticamente.

P. Ventura – Geotecnica e Fondazioni

S’invitano gli studenti dei Laboratori a leggere i testi classici delle discipline strutturali, seguendo il ruolo della modellazione meccanica delineato nella Parte I , perdonando peraltro le varie disgressioni. Si cerca di analizzare i presupposti ed i limiti delle ipotesi scientifiche con il fine di non separarle dalle applicazioni tecnologiche ed in modo da far interagire i modelli perfetti con la realtà complessa. La tendenza, sino dalle scuole superiori, a separare la Tecnologia dalla Scienza e la Sintesi dall’Analisi, non è in sintonia con la tanto apprezzata tradizione culturale italiana e con le finalità stesse di validi Laboratori Universitari. La progettazione delle opere presenta una profonda analogia con il progetto di vita al quale può tendere ciascuna persona. Come l’individuo si completa nel valore personalistico basato su un rapporto armonico non solo fra corpo, ragione, e psiche, ma anche spirito, così il progetto si realizza nel corrispondente rapporto armonico fra la tecnologia, la scienza, l’arte e l’amore per l’opera utile. Il prevalere o la carenza di qualsiasi branca fra le predette crea gravi scompensi nella vita e nel progetto, ancor peggio se la coscienza si confina solo in ideologie che si ammantano di armonie o si manifestano in integralismi settari.

Il forte divario fra la modellazione e la realtà viene superato validamente

specie con il predetto equilibrato rapporto armonico personalistico, mosso pertanto da una giusta causa di lavoro da realizzare con equi costi. La frammentarietà delle eccessive specializzazioni accademiche, come

l’individualismo, od il riduzionismo di livellanti interdisciplinarietà di massa, come il totalitarismo, sono le più note cause estreme del degrado della qualità rispettivamente della progettazione e della vita senza amore, tanto da renderle le più aggredite dal male. o peggio da moralismi che non sperano nel miglioramento umano. Pur se le aspirazioni di non frammentare sono poco colte in quel che segue, nello specifico si cerca di richiamare le tappe essenziali dell’evoluzione del calcolo delle strutture, studiato secondo gli schemi indicati nella premessa, in modo da contemperare la cultura acquisita del passato con l’evoluzione presente, basata anche sull’impiego del calcolatore.

I fenomeni meccanici sono analizzati pertanto sia con il linguaggio del

Calcolo Grafico che viene confrontato con il Calcolo Algebrico classico in

P. Ventura – Geotecnica e Fondazioni

forma chiusa, basata sulla teoria dei vettori, che consente di cogliere con

delle formule “chiuse” l’ordine di grandezza del problema: specie per il

predimensionamento. Il confronto prosegue sia con il linguaggio

infinitesimale del Calcolo Differenziale, qui appena accennato, peculiare

della Meccanica del Continuo. Si delinea infine il Calcolo Numerico ,specie il

Calcolo Matriciale, che consente di esaminare meglio le variazioni della

complessità essendo non vincolati a difficoltà di calcolo molto esteso o non

solubile in forma chiusa.

A tal fine alcuni elementi strutturali semplici vengono utilizzati come mezzo

per effettuare il confronto fra i vari modelli e linguaggi fisico – matematici: gli

elementi sono collegati in modo da realizzare un edificio esemplificativo

costruito da vari materiali.

Il contributo al progetto tramite l’etimologico “gettare in avanti” la ragione

per precedere la realizzazione necessita, come detto nella premessa, dei

contributi tecnologico, architettonico, sociale. Tale contemperazione

consente il fiorire della meccanica, sia “delle terre in fondazione”, sia “delle

pietre in elevazione” per lo sviluppo dell’Architettura.

All’antico criterio di progettare per similitudine con opere già realizzate da

Maestri e Maestranze, si affianca allora il progetto basato sulla modellazione

meccanica supportata, quanto più i corpi non sono omogenei ed isotropi,

da criteri di progettazione sperimentale, cioè supportata da prove su

campioni, prototipi o addirittura tramite il monitoraggio in vera grandezza,

come ad esempio in presenza di terreni od ammassi rocciosi complessi.

Si premette una panoramica sulla modellazione meccanica con particolare

riguardo all’analisi della sicurezza e durabilità in termini di costi – benefici che

davanti alla salvaguardia della vita umana devono essere mutati più in

termini di rischi – benefici. Prevenire, come per la salute umana, è oltretutto

meno costoso sia per la comunità sia per le costruzioni e l’ambiente, in un

continuo tirocinio ed aggiornamento anche tramite network specifici.

La Didattica non si ferma alle aule universitarie, ma prosegue per imparare a

progettare ,con la rinnovata curiosità di trovare soluzioni semplici , ricerca

che era peculiare del Prof Carlo Cestelli Guidi .

La conoscenza tecnica che sembrerebbe oggi prossima alla stabilizzazione è invece in continuo sviluppo ,come evidenziava il Prof Mario Silvestri nella prefazione al Manuale dell’Ingegnere “Colombo” Hoepli, prendendo a

1.2 CENNI STORICI

P. Ventura – Geotecnica e Fondazioni

La vasta interazione fra le varie branche della Scienza per interpretare la realtà trova importanza, ai fini del testo, anzitutto nell’uso del linguaggio Matematico per interpretare la Fisica o più in dettaglio la Statica e la Scienza delle Costruzioni. Il rendere quantitativo il qualitativo trova la sua pietra miliare in Galilei con i “Discorsi e dimostrazioni Matematiche, intorno a due nuove Scienze attinenti alla Meccanica” sia quella celeste che proprio dei materiali, pubblicato a Leida nel 1638. La ricerca della “certezza” cominciò a basarsi sulla coincidenza del dato sperimentale con quello del modello fisico – matematico ipotizzato. Si evidenzia subito che tale “certezza”, o meglio per i presenti fini “sicurezza”, ha un limite e comporta, come affermò Borges, che ogni idea valutata dalla Scienza sia la penultima versione della realtà, o, come più di recente affermò Popper, sia tanto più valida quanto più resistente alla confutazione come si preciserà esaminando i criteri di sicurezza. L’accettazione del criterio che nuove leggi possono modificare quelle presenti del resto consentì al Cardinale Bellarmino di scagionare Galilei dalla confutazione eliocentrica dell’inquisizione. Sempre Galilei nella lettera a Cristina di Lorena nel 1615 peraltro già evidenziava la maggiore libertà degli Scienziati nello studio rispetto proprio agli Architetti ed ai Medici, in parte costretti ad un “determinismo” non ammissibile nella Ricerca Scientifica. Il linguaggio matematico, sempre nel crogiuolo fiorentino, viene introdotto dai fratelli Pacioli nelle Arti figurative, antesignane si può dire della grafica con l’elaboratore. Si arriva poi con Cartesio alla Geometria Analitica in cui l’Algebra vettoriale viene sistematicamente applicata alla Geometria e viceversa, per rappresentare la realtà. L’Algebra si arricchisce allora dei “versori” che caratterizzano la direzione e verso delle grandezze “scalari” trasformandole, insieme alle operazioni, in grandezze “vettoriali”. Contributo importante è poi quello di D’Alembert che oltre a definire le forze d’inerzia, fondò nel 1770 la “Meccanica Razionale” ed effettuò la prima grande divulgazione scientifica insieme a Diderot, tramite la famosa “Enciclopedia”,nella quale in particolare erano disegnati gli strumenti di

P. Ventura – Geotecnica e Fondazioni

lavoro di tutti i principali mestieri ed arti, nello spirito peraltro positivista dell’uomo “faber” più che lo spirito personalistico dell’uomo “sapiens”. Nell’evoluzione del linguaggio matematico, emblematica è la figura di Lagrange che nel 1788 scrisse la “Meccanica Analitica” senza impiegare una figura ma solo formule, che per non far disperare gli Architetti vanno fatte rivedere in termini di Statica Grafica. L’Analisi Infinitesimale di Leibniz apre parallelamente le porte alla Geometria Differenziale ed alla “Meccanica del Continuo” in cui lo stato solido, liquido

e gassoso sono trattati unitariamente, specie sotto gli aspetti Termodinamici.

Tali precedenti hanno consentito di raggiungere nella Scienza delle Costruzioni le sintetiche formulazioni energetiche di Beltrami e Ritz per descrivere il legame fra tensioni e deformazioni nella materia, peraltro di

difficile risoluzione in forma chiusa anche per semplici condizioni al contorno, per cui si è dovuto far ricorso alla suddivisione della materia con il metodo degli elementi finiti.

Si deve inoltre sempre a Leibniz l’ideazione del sistema binario attualmente

usato nei software; il filosofo infatti ispirandosi alla considerazione che 1 è “l’essere “e 0 è il “non essere” pensò di esprimere tutti i numeri solo con queste due cifre , così 5 diventa 101 ovvero 2 o +0 1 +2 2 mentre 7 diviene 111 ovvero 2 o +2 1 +2 2 . Perallelamente il linguaggio matematico è divenuto quello delle matrici che descrivono tali elementi e che ben si adattano ad organizzare il reticolo dei fogli elettronici del calcolatore in cui ogni pixel è un “elemento finito” del video comandato vettorialmente. Così i metodi di Gauss, Jacobi, Laplace, per risolvere le matrici dei vettori sono ritornati in auge nei programmi di calcolo strutturale automatico. Nel testo si riparte peraltro dalla Statica Grafica sviluppata specie da Culmann, essendo il linguaggio della “Geometria della Masse” quello più vicino alla realtà statico – architettonica, come verrà approfondito in seguito trattando la modellazione dei materiali. Dagli studi sulla forma isostatica delle trabecole delle ossa, iniziati da Eifel sulla torre parigina, si è arrivati alla Bionica ed allo studio delle forme strutturali che s’ispirano alla natura. L’appena delineato percorso storico fisico – matematico è permeato anche dalla Tecnologia, dall’Arte, dall’Etica, come evidenziato nell’introduzione

P. Ventura – Geotecnica e Fondazioni

per non cadere nel positivismo privo della meraviglia del progettista che non “inventa” ma “scopre” la Scienza e l’Arte nella Natura creata trascendendo l’uomo, ma per l’uomo. La diversificazione degli studi fra Ingegneri ed Architetti che storicamente si attribuisce alla nascita nel 1880 della Scienza delle Costruzioni di Navier e De Saint Venant, presso l’Ecole de Ponts e Chausseès di Parigi, o quella fra Ingegneri e Geologi dovuta alla nascita della Geotecnica nel 1936 con Terzaghi, è una ricchezza solo nell’unità complessiva che umilmente riconosce i propri limiti. Non a caso il progettista di navi segue anche oggi l’antica scuola di Architettura Navale e Galilei andava all’arsenale navale di Venezia per confrontare le diverse dimensioni dei fasciami di legno, o comparava le diverse dimensioni delle ossa animali ispirandosi al progetto della Natura. Il divorzio fra le varie discipline e politiche ne fa solo soffrire i figli, sacrificandone i frutti di scambio, e provoca gravi carenze per cui gli studenti e gli amministratori disorientati si disimpegnano e la qualità urbanistica delle nostre città ancora ne paga il prezzo. Persino Voltaire dopo il terremoto di Lisbona del 1775 descrisse nel Candido il vacillare delle certezze basate solo su valori illuministici; benché già Cartesio nel 1624 si era chinato a Loreto. Le difficoltà del progettare, oltre che da Galilei, sono espresse anche nei pensieri di Pascal che ci ricorda che: “ la natura possiede perfezioni per mostrare che è l’immagine di Dio, e difetti per mostrare che ne è solo l’immagine, come l’Uomo”. Così le nostre costruzioni sono “mortali” ed il progetto ad esempio di consolidamento non può trasformarsi in accanimento terapeutico, specie per inserire le nuove impiantistiche in vecchie murature o impiegando tecnologie invasive per giunta a volte inefficaci. L’antitesi predetta da Pascal, peraltro disperante sui difetti,deve essere interpretata in maniera più distensiva come delineato da Soeren Kierkegaard il quale evidenziava che il continuo scontro fra questi due aspetti infiniti dell’uomo promuove il riso salutare ingrediente della vita.

P. Ventura – Geotecnica e Fondazioni

I.2 IL RUOLO DELLA MODELLAZIONE DELLA STRUTTURA E DEI VINCOLI

L’iter classico dell’analisi strutturale e del terreno di fondazione sia statica che dinamica è articolata in:

1) modellazioni della struttura e profilo del sottosuolo:

geometrica delle masse, delle rigidezze e scelta dei vincoli; 2) leggi costitutive o tensione – deformazione e resistenza dei materiali; 3) campo delle azioni e combinazioni più “gravose” semiprobabilistiche; 4) condizioni al contorno dei dati predetti; 5) equazioni di equilibrio nei casi isostatici; 6) equazioni di congruenza nei casi iperstatici; 7) analisi delle sollecitazioni e degli spostamenti e rotazioni; 8) analisi delle tensioni e delle deformazioni; 9) analisi degli stati limite per la sicurezza di esercizio; 10) analisi degli stati limite per la sicurezza a rottura.

Nel primo punto è concentrata la parte più importante dell’arte del progettare: fra tutte le possibili soluzioni architettoniche, funzionali, tecnologiche, di adattabilità alla realtà delle capacità di cantiere ed economiche, solo alcune sono valide per essere verificate con il predetto iter “meccanico” per il dimensionamento. In tale ottica si preferisce parlare di verifiche di calcolo, più che di un dimensionamento che scaturisce direttamente dal calcolo di progetto con il computer. Tale istanza è ancora più cogente nel campo geotecnico essendo il terreno un “materiale” con caratteristiche non da progettare artificialmente, ma naturale da rispettare con opportuni adattamenti, ad esempio sotto l’aspetto della filtrazione, consolidazione e drenaggio del regime delle pressioni interstiziali u per contemperare la presenza della fase fluida e solida. Si richiama che tali pressioni sottratte alle tensioni totali σ forniscono le tensioni efficaci σ= σ − u caratterizzanti il comportamento meccanico dello

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig.1 Il ruolo della distribuzione delle masse e delle rigidezze

Fig.1 Il ruolo della distribuzione delle masse e delle rigidezze di un edificio in muratura ed in c.a, e modifica dei baricentri e degli assi principali di inerzia alle azioni sismiche per effetto di casuali ristrutturazioni.

P. Ventura – Geotecnica e Fondazioni

scheletro solido del mezzo poroso terreno, come analizzato da Terzaghi con la prova edometrica, assicurante il drenaggio permanenti (u = 0) al campione che si consolida sotto il carico (v, figura 4 a). Qualsiasi complesso struttura – terreno può essere calcolato per sostenere carichi nel tempo, ma solo alcune sono prive di “protesi statiche” per tutta la vita, e non sono molto vulnerabili al modificarsi reale delle condizioni al contorno specie delle azioni sismiche. La struttura valida, personalizzata alla realtà spesso unica, va scelta pertanto prima di essere modellata per elaborarla specie al computer. La figura 1 mostra il confronto, fra un edificio in muratura ed uno in cemento armato, in base alla distribuzione geometrica delle masse, da cui scaturiscono le forze d’inerzia in caso di sisma, e della modifica della verticale gravitativa degli assi inerziali in caso di ristrutturazione che possono essere fatali in caso di scossa. Anche nel modello di calcolo, assimilare le rigidezze di un edificio in muratura pesante con i solai lignei appoggiati a quello di un edificio con pilastri leggeri in c. a. e con solai rigidi, conduce ad ubicazioni errate di un semipiano degli assi inerziali come evidenziato sempre in figura 1. Ciò accade impegnando programmi di calcolo per le opere in cemento armato, senza adattarli alle opere in muratura. Altrettanto importante, in tale ottica, è per di più la scelta dei vincoli. La modellazione delle strutture tradizionalmente si suddivide fra quelle isostatiche e quelle iperstatiche, ovvero quelle assimilabili a “rigide” globalmente e le altre interamente deformabili. Le isostatiche presentano il numero delle reazioni vincolari (o dualmente il numero dei gradi di libertà lagrangiani impediti) incognite corrispondente al numero delle equazioni di equilibrio in forma scalare, per cui il sistema algebrico lineare è matematicamente (Rouchè e Capelli) solubile con le sole regole della Statica espresse dall’annullamento della risultante e del momento risultante: (R = O; M= O). Le iperstatiche necessitano invece per il calcolo delle reazioni vincolari incognite anche delle equazioni di compatibilità cinematica dello spostamento e delle rotazioni fra le varie membrature e con i vincoli.

P. Ventura – Geotecnica e Fondazioni

La realizzazione di strutture isostatiche per cercare di adattare il modello alla realtà è uno degli esempi più emblematici dei vantaggi e degli svantaggi della Statica nell’iter della progettazione e della valutazione della sicurezza. Gli spostamenti e le rotazioni da limitare sono quelle solo di ciascun corpo, mentre l’insieme vincolato è privo di cinematismi che ridistribuiscono le reazioni: ovvero ogni elemento strutturale “bada a sé” in un criterio di assemblaggio vincolare uguale per tutti. Esempio tipico dei vantaggi sono le travi appoggiate dei ponti fatte per usufruire della “certezza” di avere una catena cinematica di corpi “rigidi” con reazioni e sollecitazioni ben note che non risentono dei cedimenti fondali e delle dilatazioni termiche di difficile valutazione. Si hanno però gli svantaggi notevoli dei costi di manutenzione specie dei vincoli e ancor più ridotta inerzia alle azioni sismiche e ridotta durabilità, fattori quasi ignoti alla sequenza dei memorabili ponti ad arco del passato. Si perde l’enorme vantaggio delle strutture iperstatiche i cui vincoli sovrabbondanti allontanano fortemente l’inizio del collasso, specie in caso di evento sismico, per cui i ponti oggi si ritornano a costruire a travate continue. Per le strutture isostatiche la perdita di un solo grado di libertà lagrangiano, specie vincolare, significa la labilità ed il crollo. Così come accade alle persone prive di riserva d’animo provvidenziale e prive di vincoli di amicizia fraterna in cui l’altro è solidale nell’aiuto e non è “assemblato” socialmente nell’indifferenza di tutti. La scelta ed il progetto dei particolari costruttivi dei vincoli sono di evidente importanza, ma sono proprio quelli non disegnati dagli usuali programmi di calcolo e disegno automatico delle strutture, che danno ad esempio l’estratto dei ferri delle aste ma non dei nodi che vanno invece decisamente disegnati anche con il CAD (Computer Aided Design). L’iperstaticità è invece “solidale” e valorizza la “ricchezza” di ognuno senza isolarla, se però diventa eccessiva imprigiona l’univocità di ciascuno, ovvero tornando alle strutture l'eccesso di rigidezze fa perdere la duttilità ad adattarsi ai “piccoli” spostamenti e rotazioni che creano l’aiuto armonico. Il calcolo delle reazioni iperstatiche è peraltro complesso ed è attendibile di fatto solo in campo lineare elastico. L’avvento infatti delle prime plasticizzazioni locali anche le coazioni impresse, quale ad esempio la diversa maturazione del calcestruzzo o il diverso assestamento dei casseri

P. Ventura – Geotecnica e Fondazioni

durante la presa, o le variazioni termiche o i fenomeni di ritiro e viscosità o ancor più i cedimenti differenziali - fondali anche piccoli (maggiori di circa 2 cm), possono rendere illusorio il calcolo delle reazioni iperstatiche reali. Il calcolo elastico va però comunque percorso in quanto è un modello che anzitutto consente di scegliere le rigidezze di predimensionamento che, come si preciserà nel paragrafo successivo, si basa sull’imporre “piccoli” gli spostamenti, ovvero le rigidezze non devono essere né in eccesso verso il modello rigido statico, né in difetto verso il modello instabile labile. Allorquando non esisteva il calcolatore un semplice telaio richiedeva giorni

di calcoli, pur ricorrendo alle brillanti soluzioni iterative di Cross (nodi fissi) o

Kani (nodi spostabili) per ripartire le sollecitazioni da nodo a nodo e da piano

a piano, cosa che oggi si risolve in pochi istanti con il computer, salvo

peraltro la fatica per implementarlo con il modello del telaio e dei carichi. E’ istruttivo comunque ricordare gli sforzi semplificativi del passato per comprendere il funzionamento dei modelli delle strutture. Per le strutture con prevalenza delle sollecitazioni di sforzo normale N, come accade negli archi antofunicolari dei carichi (ovvero nelle funi) e nelle strutture reticolari rettilinee caricate solo nei nodi e con vincoli che ne consentono le rotazioni, l’effetto delle reazioni iperstatiche flessionali M è

inessenziale. E’ sufficiente infatti il calcolo delle reazioni e degli sforzi normale

N del sistema isostatico più prossimo al reale o “principale” (Verifiche

grafiche di Mery negli archi o di Culmann nelle strutture reticolari) . Per attuare le predette “piccole” rotazioni delle aste nei nodi significa che la struttura deve essere sufficientemente snella senza peraltro cadere nel campo instabile come verrà presentato nel paragrafo successivo. Oppure il materiale può consentire limitate plasticizzazioni come le murature con malta nelle quali un chiodo infisso non crea lesioni come nel calcestruzzo (il modulo elastico di figura 3 e quindi la rigidezza è infatti 10 volte inferiore per

le malte). E’ evidente come vincoli “leggermente cedevoli”, ma iperstatici

conservano i vantaggi delle strutture isostatiche e quelli delle strutture iperstatiche essendo duttili specie al variare dei carichi. L’eccesso di rigidezza nei vincoli è controproducente addirittura per la sicurezza in quanto esaspera le sollecitazioni iperstatiche specie nei vincoli. Un bellissimo esempio è rappresentato dalle 6 ossa del cranio dei neonati (v. dopo gradi di libertà) “incernierate” nelle fontanelle per potersi adattare al

P. Ventura – Geotecnica e Fondazioni

parto ed “incastrate” per ossificazione durante la vita a protezione dagli urti, fortemente ammortizzati anche dal liquido che circonda la massa cerebrale che trasforma eventuali colpi “vettoriali” in pressioni “scalari” meno traumatizzanti. Analoga meraviglia desta la disposizione del cordame fra le tavole costituenti il fasciame dello scavo della nave romana rinvenuta a Comacchio , in modo da renderlo più flessibile a solcare onde tempestose. Nelle strutture iperstatiche in cui invece prevalgono le sollecitazioni flessionali M, quali le travi ed i telai, si possono considerare le aste rigide nei riflessi delle sforzo normale N e sempre poco distorte dal taglio T, specie per i carichi uniformi e non concentrati, per cui il calcolo può limitarsi a valutare solo i momenti M di incastro iperstatici, trascurando nell’analisi delle sollecitazioni iperstatiche il contributo deformativo indotto da N e T. Le predette semplificazioni sul numero delle equazioni di congruenza da aggiungere a quelle di equilibrio non sono possibili in presenza di vincoli cedevoli, come per carenza di fondazioni, o se i nodi sono spostabili, come per effetto delle azioni con prevalente componente orizzontale quali i terremoti. I casi più complessi sono di solito proprio quelli più aleatori (v. sicurezza) in cui la perdita del modello elastico è la regola e pertanto è necessario far ricorso a calcoli non lineari anziché lineari, specie per le più gravose combinazioni dei carichi. In base a quanto prima delineato tale calcolo è complesso e pur se fattibile con il calcolatore, che accetta un numero qualsiasi di equazioni, di condizioni di carico e di leggi costitutive, va orientato verso studi parametrici di ricerca per tarare metodi semplici, anziché per complicare la normale analisi. In tale ottica conviene fare ricorso, pur se solo formale, al più sicuro predimensionamento in campo lineare visto come modello “standard” convenzionale, come del resto lo è la valutazione delle azioni in campo sismico(v. figura 7) o della ridistribuzione delle sollecitazioni per effetto dei cedimenti differenziali del terreno in parte sempre incogniti. Si usufruisce così dei vantaggi della Scienza delle Costruzioni e non degli svantaggi di calcoli onerosissimi pur se la ricerca vorrebbe meglio rispecchiare la realtà, come prima detto per la Statica. Si lascia così alla vita dell’opera di scegliersi le iperstatiche reali per adattamento dei vincoli nel giusto predetto dosaggio delle rigidezze. E’ più

P. Ventura – Geotecnica e Fondazioni

importante allora eventualmente studiare solo i vincoli in campo non lineare, ovvero renderli duttili. Le difficoltà predette hanno dato vita anche ad una modellazione dell’analisi delle strutture a rottura, anziché in campo elastico, ovvero al limit design. In tal caso si modella la struttura iperstatica maggiorando i carichi in modo che si formino tante cerniere plastiche o tanti appoggi al limite dello scorrimento attritivo (vedere resistenze materiali) in modo da rendere la struttura isostatica non più influenzata da precedenti complesse coazioni, e tale da simulare virtualmente la configurazione prossima al collasso. Tale calcolo, se la struttura è molto duttile, specie ad esempio allo scorrimento dei ferri nel c. a., consente di non valutare le reazioni iperstatiche ma direttamente le reazioni isostatiche massime da confrontare con quelle limite a rottura. In tale studio è importante l’uso del teorema di Drucker e Prager per la ricerca dell’univocità del moltiplicatore dei carichi statico η, con quello cinematico, moltiplicatori che rendono minimo il lavoro complessivo per raggiungere il collasso. Tale calcolo a rottura prende le prime mosse nelle verifiche di equilibrio ultimo a scorrimento e ribaltamento (v. § sicurezza). Si deve evidenziare però che il limit design non va scambiato con il calcolo agli stati limite di seguito descritto trattando la sicurezza in termini semiprobabilistici. Si anticipa subito che si maggiorano di un fattore di sicurezza i valori delle sollecitazioni scaturenti dal calcolo iperstatico elastico, le quali si confrontano con i valori delle sollecitazioni resistenti, opportunamente ridotte da un altro fattore di sicurezza. Tali sollecitazioni ultime sono ben misurabili sperimentalmente, al contrario delle sollecitazioni ricavabili dallo stato tensionale ideale (v. figura 8) indotto specie dalle reazioni iperstatiche. In comune quindi fra il limit design e le sollecitazioni di calcolo a rottura semiprobabilistico c’è solo il confronto con le sollecitazioni a rottura misurate su prototipi, ma i valori delle sollecitazioni scaturiscono da analisi diverse peraltro in prima approssimazione consimili nel percorso dei carichi sino a rottura, (v. figura 8). Si raggiungono in tal modo i vantaggi della Tecnica delle Costruzioni nel cercare di legare meglio i modelli alla realtà

P. Ventura – Geotecnica e Fondazioni

sperimentale (v. figura 3) confinando gli svantaggi agli “stati limite” dell’umano operare. E’ interessante evidenziare poi che può essere vitale nelle scelte strutturali adottare in cantiere delle strutture isostatiche da rendere poi in esercizio

iperstatiche. In tal modo tutti gli assestamenti sotto i pesi propri sono scontati

, e la preziosa riserva di sicurezza iperstatica viene riservata tutta proprio

verso le azioni accidentali. Mirabili in tal senso sono gli arcotravi di Krall nei quali l’impalcato collabora con l’arco in c. a. solo dopo che questi è maturato e la sua spinta per peso proprio è stata eliminata al disarmo, in modo che il ponte completo sopporti solo le distorsioni dei carichi

accidentali. Tali considerazioni ben si prestano in particolare in caso di prefabbricazione ancor più usando cavi di precompressione per realizzare vincoli che contrastano proprio le reazioni iperstatiche in modo da avere una rigidezza “artificialmente” elevata e controllata. Si imita così lo scheletro umano in cui il gioco dei muscoli e tendini rende di volta in volta il corpo labile, isostatico e iperstatico, ma con la risultante delle forze muscolari sempre coincidente con gli assi principali d’inerzia del corpo in movimento. Come è mirabile nella danza e nell’assetto inerziale del volo degli uccelli nell’aria. Infine i criteri di modellazione dei vari corpi che costituiscono le strutture, scaturenti sia dalla Statica (Geometria delle masse) che dalla Scienza delle Costruzioni (Distribuzione delle rigidezze), che dalla Tecnica delle Costruzioni (incidenza delle imperfezioni reali) vengono delineati nel successivo paragrafo riguardante il ruolo dei materiali (v. figura 3) nella progettazione.

I vincoli soprattutto devono essere analizzati nella loro dualità statico – cinematica, ovvero come sede di reazione ed assenza di movimenti e viceversa.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig.2 Lesione impedita disponendo i mattoni nella tessitura muraria in

Fig.2 Lesione impedita disponendo i mattoni nella tessitura muraria in modo da bloccare tutti e 6 i gradi di libertà duali delle 6 componenti di sollecitazione.

P. Ventura – Geotecnica e Fondazioni

I 6 gradi di libertà lagrangiani di un corpo rigido nello spazio sono caratterizzati dalle 3 componenti di traslazioni di “rotta”, “scarroccio” e “sussulto” e dalle 3 componenti di rotazione di “rollio”, “beccheggio” e “imbardata”, per usare il gergo navale anziché i termini euleriani, tutte e 6

vanno sistematicamente bloccate. Con una muratura di mattoni ciascuno di questi 6 gradi di libertà, dapprima nelle mani del muratore, se incastrati di “piatto”, “di testa”, “in piedi” o “a faccia vista”, “a scalmo”(o diatono), “a vela”, consentono di realizzare una consistenza muraria di elevatissima durabilità essendo bloccato ogni cinematismo.

La figura 2 esplicita tale realizzazione della consistenza muraria in modo da

impedire il formarsi di lesioni indotte da ciascuna delle 6 sollecitazioni, come

con i ricorsi murari specie gotici; la lesione tratteggiata ad elica è allora innescabile con molta difficoltà.

Le scelte strutturali rappresentano l’essenza della “firmitas” vitruviana sino ad

arrivare al dualismo statico-estetico della recente Storia della Architettura;

scelte che devono essere ancor più controllate proprio dai destrutturalisti per realizzare libberamente una valida “vetustas” ,sempre valorizzando la “utilitas”, sino all’emblematico funzionalismo di Gropius. Analoga problematica presentano le scelte strutturali nel campo della Conservazione del Patrimonio Architettonico e Paesaggistico ,per cui i corsi

di Consolidamento non possono essere alternativi ai presenti; il Geriatra

rischia molto di più di un Medico di base, specie se evita l’accanimento terapeutico, ovvero il rispetto dell’opera.

P. Ventura – Geotecnica e Fondazioni

I.3 IL RUOLO DELLA MODELLAZIONE DEI MATERIALI

Al secondo punto del predetto iter vi è la modellazione delle caratteristiche meccaniche dei materiali, espresse dalla Reologia in leggi costitutive. Fra queste i modelli costitutivi classici sono quello rigido perfetto peculiare della Statica e quello elastico perfetto peculiare della Scienza delle Costruzioni, come richiamato in figura 3 nella quale sono riportate le caratteristiche meccaniche (monoassiali a trazione in alto ed a compressione in basso) dei principali materiali da costruzione. Si noti come il modulo elastico E = dσ/dε e la resistenza f c del calcare siano

più che tripli di quelli del conglomerato cementizio a testimonianza della durabilità delle opere in pietra squadrata. Anche il legno presenta un’alta resistenza lungo le fibre (con difetti ridotti), ovvero sfruttando favorevolmente l’anisotropia, e se ben stagionato, di prima scelta, ventilato e non sottoposto alla pioggia, presenta una vita plurisecolare pur avendo un modulo elastico dell’ordine della metà di quello del conglomerato. Il confronto è fatto anche con la dispersione dei dati per effetto delle imperfezioni e della qualità dei materiali, in base al metodo semiprobabilistico, di seguito descritto, secondo i canoni della Tecnica delle Costruzioni. E’ interessante fare una digressione su tale modellazione che si basa sulla misura sperimentale sia in laboratorio sia in sito su campioni significativi della realtà. Le prove su campioni mono-bi-tridimensionali con percorsi delle tensioni simili ai reali, in particolare sotto carichi statici o sotto carichi dinamici che evidenziano i fenomeni di fatica e di isteresi, ovvero con decorsi dei carichi nel tempo, che evidenziano i fenomeni viscosi, mostrano subito la vasta gamma di studi sperimentali reologici per analizzare una realtà tutt’altro che semplificata in modelli “perfetti”. L’aleatorietà delle azioni e l’eterogeneità dei materiali, come si specificherà trattando della sicurezza più avanti, conducono per esempio in campo geotecnico a ricorrere al monitoraggio in vera grandezza ed al confronto con l’analisi a posteriori o retrogressiva (back analysis) di strutture interagenti con il terreno,

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni 20

20

P. Ventura – Geotecnica e Fondazioni

monitorate (prediction and performance), in particolare con terreni prototipi ben caratterizzati meccanicamente per essere di riferimento alla ricostruzione reologica, come delineato nelle tabelle 1 a,b che seguono. Non è possibile infatti a volte estrapolare dall’“elemento” del campione “indisturbato” un profilo del sottosuolo che consenta di impiegare con sicurezza la predetta analisi a priori basata sulla meccanica classica. La figura 4a mostra una sintesi, delle classiche prove di laboratorio geotecnico, alla luce del principio delle tensioni efficaci e quindi del ruolo delle pressioni interstiziali durante i vari percorsi delle tensioni indotti con vari tipi di apparecchi, in modo da simulare al meglio lo stato tensionale reale indotto dall’opera da inserire nel terreno. La tensione totale indotta dall’opera si ripartisce fra lo scheletro solido, tensione efficace , e la pressione interstiziale u nel fluido che permea in generale il terreno, secondo la classica modellazione di Terzaghi, già prima delineata, ed evidenziata in figura 4 a con le pietre porose e le molle. Le prove allora sono molto influenzate dalle condizioni di drenaggio, ovvero dalla possibilità di svolgersi in condizioni “drenate” (u=0), come nell’edometro e nell’apparecchio di taglio diretto, od in condizioni “non drenate”(u 0), come nell’apparecchio triassiale, con il quale si possono simulare anche le varie condizioni di drenaggio. Le caratteristiche di deformabilità e di resistenza dei terreni presentano, diversamente dai solidi monofase descritti in figura 3, anzitutto idue tipi di leggi costitutive o tensioni - deformazioni mostrati in figura 4 a. La figura evidenzia inoltre tali leggi per i terreni normalconsolidati (NC) ovvero che non hanno subito geologicamente tensioni maggiori di quelle litostatiche pascaliane vo = γ z = (γ- γw )z ( essendo z la profondità di calcolo), e per i terreni sovraconsolidati (SC)che invece hanno subito tensioni di preconsolidazione p maggiori di vo e che sono pertanto molto meno compressibili di quelli normalconsolidati. Tale aspetto è evidenziato dal “ginocchio” delle curve edometriche in particolare ricostruite a tratto in corrispondenza del valore litostatico, per meglio valutare il modulo elastico drenato E in sito, per il modulo non drenato Eu si vedano le curve triassiali. In figura 4 a sono mostrati infine i vari tipi di resistenze “drenato” (c , φ) in termini di tensioni efficaci, e “non drenato” (cu , φu =0) in termini di tensioni

P. Ventura – Geotecnica e Fondazioni

totali e con sovrappressioni interstiziali non dissipabili tanto da non evidenziare l’attrito φ, ma solo la coesione non drenata cu.

La figura 4 b mostra poi i profili geotecnici dei sedimi della valle alluvionale

del Tevere in Roma basati sui dati penetrometrici statici (CPT olandese) e

sulle prove edometriche che individuano gli strati sovraconsolidati ovvero

che hanno subito tensioni σp maggiori di quelle litostatiche che σvo

riducendone la compressibilità C c ≡σvo /E ed . Le leggi tensioni – deformazioni

di figura 4b sintetizzate nei parametri indice delle caratteristiche

meccaniche sono messi a confronto al variare della profondità per valutare l’eterogeneità; è evidente l’importanza della qualità delle prove specie in

sito

se i terreni non sono campionabili, come le sabbie, indisturbatamente

per

il laboratorio.

Una delle ipotesi più drastiche che è stata fatta sulle leggi costitutive dei materiali, è come noto quella tipica della Statica di omogeneità e di totale indeformabilità o perfetta rigidità (v. figura 3) della materia pur se sollecitata dalle più disparate azioni di qualsiasi livello d’intensità, prescindendo

pertanto dalla sua resistenza interna. La spinta alla ricerca della certezza assoluta nella sicurezza progettuale sotto l’impulso degli studi di meccanica deterministica ha condotto alla predetta ipotesi di rigidità perfetta la quale consente di considerare sufficiente il solo rispetto dell’equilibrio delle forze esterne ai corpi per calcolare le reazioni vincolari e per essere “perfettamente” garantiti della loro staticità. Tale certezza s’infrange miseramente con il fatto che appena ci si confronta con realtà si constata che non esistono, specie come i predetti sedimi alluvionali, i materiali perfettamente rigidi e di resistenza invulnerabile. E’ emblematico in tal senso l’esempio della realizzazione degli alberi motori navali della marina tedesca in acciaio pieno di alta qualità che si spezzavano dopo pochi giorni di navigazioni in quanto non si adattavano alla deformabilità dello scafo solcante le onde. Le navi non sono più andate in avaria, solo introducendo alberi motore cavi più flessibili e che si adattavano ai cedimenti vincolari dello scafo. Così lo stelo della spiga di grano è cavo all’interno e dotato di lamelle radiali per dare la rigidezza elastica di ritorno dopo essersi chinata al vento. L’analogia con il comportamento dell’uomo è ancora più istruttiva: se non si prendono in esame le forze interiori della persona nell’adattarsi agli eventi

P. Ventura – Geotecnica e Fondazioni

esterni avversi, si verifica la crisi. Irrigidirsi, anche psicologicamente, è privo di frutti. Il considerare solo il gioco delle forze esterne nel prendere le decisioni per agire, non rispettando le forze dell’anima di ciascuno, ha creato i più gravi dissidi fra gli uomini, in particolare caduti nell’individualismo capitalista

o nella massificazione comunista.

E’ noto peraltro che anche l’assoluta mancanza di fermezza, per parafrasare la rigidezza dei materiali, ha fatto crollare i rapporti fra gli uomini nell’anarchia e peggio nell’indifferenza e nel relativismo etico totale (Social pluralism) anziché nell’ecumenismo rispettoso dell’opinione altrui, senza perdere però la propria identità, ma, arricchendola delle altre.

La Scienza delle Costruzioni sostituisce pertanto il concetto di rigidezza a quello dei corpi perfettamente rigidi, in base alle deformazioni ammissibili. Così la Scienza dell’Educazione introduce con Don Bosco il concetto di amorevolezza rispetto a quello di rigida severità, e quello etimologico di ex- ducere, ovvero “trarre fuori” da ciascuno i propri talenti “ammissibili”; ci si basa quindi sull’amorevole empatia, anziché l’antipatia o la simpatia. Anche il Medico se si basa solo su rigidi protocolli diagnostici, possibili peraltro spesso solo ai ricchi, dimentica che il paziente prima è una persona da rassicurare e non se è una “assicurata”. La sicurezza delle strutture, come quella sociale si avvale allora di un modello prossimo al rigido ma mai totalmente rigido, in modo da poter valorizzare al meglio le forze interne.

In Politica significa equilibrare il centralismo con il localismo federandosi, ed

in Economia fra mercato globale e rionale promuovendo la sussidiarietà.

Per ritornare ai canoni della Statica si richiama che la risultante ed il momento risultante delle forze interne di un corpo reale inerte sono nulle, tanto più per un corpo rigido, per cui è sufficiente rispettare l’equazione di equilibrio cardinale, ovvero l’annullamento della risultante e del momento risultante delle forze esterne, concentrando notoriamente le forze peso nei baricentri delle masse per garantire la staticità. Se il corpo esplode, ovvero le sue forze interne non sono inerti, la risultante ed il momento della risultante delle forze interne ed esterne sono ancora nulli, ma il corpo è tutt’altro che statico. Analogamente se il corpo è sottoposto ad un ciclo termodinamico, si passa dallo stato solido a quello liquido o gassoso e viceversa; così in una reazione

P. Ventura – Geotecnica e Fondazioni

chimica le trasformazioni sono enormi, pur essendo soddisfatte le equazioni cardinali. Analogamente si verifica per i più complessi fenomeni di radianza luminosa e nucleare entrando nella meccanica quantistica ed in astrofisica. La materia inorganica è dunque solo apparentemente inerte e testimonia subito una trascendenza creativa, ancor più ciò si rivela per la materia organica biologicamente viva e maggiormente in quella “grigia” dell’uomo. Ciò ancor più per l’embrione che supera ogni crescita pessimistica dell’entropia e speriamo anche della manipolazione genetica della sua libertà e dignità. Dimenticarsi delle forze interne persino nei materiali inerti “congelandoli” senza tempo nell’ipotesi di rigidità e limitandosi al rispetto dell’equilibrio delle forze esterne, pur in sintonia con la realtà che la risultante ed il momento risultante delle forze interne sono nulli, significa depauperare la materia di tutte le sue capacità fisico - chimiche interne. Così non considerare ancor più attentamente nell’uomo le sue forze interne personalistiche, valutando solo le sue forze esterne di ricchezza e potere, significa limitarsi alla facciata statica esterna e non vedere la parte di bene che è deposta internamente in ciascun uomo. Per nostra debolezza o carenza di speranza non esprimiamo in tutto la ricchezza interiore, impauriti dalle forze esterne o irrigiditi nell’egoismo senza amore per il prossimo. Se si torna alla materia del resto il classico bilancio fra il lavoro delle forze esterne e quello delle forze interne, ampiamente considerate dalla Scienza delle Costruzioni crea l’equilibrio armonico. Se poi si riconosce all’uomo anche l’aspetto trascendente che lo distingue dalle altre specie sia organiche che inorganiche, allora si deve ammettere che l’uomo è l’unico a poter governare la natura, con progetti “naturalmente” non dispotici, per lo sviluppo dell’ambiente, criterio abbandonato dai biocentristi o “verdi” specie della corrente “deep ecology” decisamente anti – antropocentrici per i quali la natura vale più dell’uomo.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig. 4 a Ruolo delle tensioni efficaci nell e prove
P. Ventura – Geotecnica e Fondazioni Fig. 4 a Ruolo delle tensioni efficaci nell e prove

Fig. 4 a Ruolo delle tensioni efficaci nelle prove di Laboratorio Geotecnico

P. Ventura – Geotecnica e Fondazioni

Geotecnica e Tecnica delle Fondazioni “ Hoepli Vol 1 C.Cestelli Guidi

Tecnica delle Fondazioni “ Hoepli Vol 1 C.Cestelli Guidi Fig.4b Profili geotecnica della valle alluvionale del

Fig.4b Profili geotecnica della valle alluvionale del Tevere: resistenza penetrometrica statica

alla punta, q ( CPT )

c

confrontata in particolare con il grado di sovraconsolidazione

(

σ

'

p

/

σ

'

vo

)

desunto da prove edometriche.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni La tabella 1a evidenzia i principali parametri geotecnica misurabili con

La tabella 1a evidenzia i principali parametri geotecnica misurabili con i vari tipi di prove in laboratorio, in sito od in vera grandezza. La tabella 1b descrive una panoramica dei vari strumenti di misure in sito e di monitoraggio in opera, che affiancano le prove di laboratorio, specialmente quando i terreni od i materiali non sono campionabili. Gli strumenti in particolare sono distinti fra quelli “agenti” o che imprimono una sollecitazione nell’opera per misurarne le caratteristiche meccaniche, e gli strumenti “reagenti” in cui l’azione indicatrice delle caratteristiche è esterna all’opera. Manuale dell’Ingegnere Colombo - Hoepli 84 a Ed. 2003 Cap E4, E5 C. Cestelli Guidi, P.Ventura

P. Ventura – Geotecnica e Fondazioni

Il progetto delle strutture in tale cornice si avvale allora di una sicurezza “non quantizzabile” basata sulla responsabilità “interna” degli operatori che consente a volte anche di superare i casi di notevole divario fra la modellazione e la realtà, come già ricordato per la “sicurezza sanitaria” e per lo sviluppo. Il controllo di qualità specie di collegamento (performance bord) fra gli operatori è prezioso, ma solo se illuminato può far sperare anche

gli ecologisti biocentrici a dialogare con quelli antropocentrici, peraltro non

trasformati in tecnocrati soltanto della finanza, in una visione finalmente ecoottimista. Per tornare di nuovo a discutere della modellazione meccanica si ricordano

poi le ipotesi fondamentali su cui si basa la Scienza delle Costruzioni. Ipotesi di Bernoulli, DeSaintVenant, Eulero: linearità geometrica e cinematica.

Nei corpi si attiva la conservazione delle sezioni piane, se monodimensionali,

o dei segmenti rettilinei, se bidimensionali, per cui la distribuzione della

deformazione è lineare lungo lo spessore. Ciò comporta che i corpi non siano troppo tozzi o presentino variazioni brusche di sezione o dei carichi, né vi siano vincoli troppo rigidi. In tal modo le dimensioni dei tratti del contorno, necessari per mandare a regime le tensioni, risultano piccoli o dello stesso ordine di grandezza dello spessore dei corpi. La dimensione più piccola dei corpi deve essere ben minore del raggio di curvatura sotto i carichi, per cui si trascura il taglio nelle travi o l’effetto Poisson nella deformazione laterale nelle piastre, e gli spostamenti e le rotazioni sono linearmente correlati dalla relazione euleriana di traslazione vettoriale infinitesima maggiorata dall’angolo di rotazione infinitesimo per il

rispettivo raggio l di rotazione (ds = ds o + dθ Λl).

Ad esempio nei nodi strutturali, o nei vincoli di continuità, l’ipotesi decade. Ipotesi di Hooke: linearità costitutiva.

I corpi sono omogenei isotropi ed elastici perfetti ovvero gli spostamenti

massimi sono dell’ordine di 1/500 delle luci, condizionando le rigidezze dei corpi K=F/(s=1) EA/l per un pilastro compresso, K=M/(θ =1) EJ/l per una trave inflessa.

Il valore ε < 2‰ del diagramma σ - ε di figura 3, vigendo la proporzionalità fra forze e spostamenti, diviene s < 1/500 in modo da definire quanto devono essere “piccole” le deformazioni in esercizio.

P. Ventura – Geotecnica e Fondazioni

I carichi sono inoltre “quasi - statici” ovvero applicati molto gradualmente in modo anche che non vi siano deformazioni permanenti allo scarico o fenomeni isteretici o di fatica ciclica, non vi sono poi vincoli molto cedevoli o coazioni residue ed è ammessa la sovrapposizione degli effetti. Le sollecitazioni e le tensioni sono allora linearmente legate alle deformazioni e quindi alle rotazioni ed agli spostamenti in base all’ipotesi precedente, con conseguente notevole semplificazione dei calcoli. Ciò comporta anche che il fattore di sicurezza “esterno” sui carichi possa divenire “interno” ovvero basato sulla tensione e la deformazione “ideali” come assunto nel metodo delle tensioni ammissibili e come verrà discusso nel paragrafo sulla sicurezza. Ad esempio nel campo dei materiali non o poco resistenti a trazione, come i terreni, le murature, il c.a., l’ipotesi decade. Ipotesi di Kirchoff: univocità dell’equilibrio elastico.

I corpi presentano deformazioni del 2° ordine trascurabili ovvero le strutture non sono troppo snelle da presentare spostamenti e rotazioni che inneschino

fenomeni di instabilità, ovvero i giratori o raggi di inerzia ρ =

sezioni devono condizionare delle snellezze λ=l o /ρ a partire da

J / A
J / A

λ

e

=

30

delle

(v. in

seguito) . Si noti come sia fondamentale l’uso Statico della Geometria delle masse per fornire i raggi d’inerzia caratterizzanti la distanza dal baricentro, alla quale virtualmente si può concentrare la massa per calcolarne il momento d’inerzia mρ² e tracciare l’ellisse d’inerzia. Nel caso poi della

fra

pressoflessione retta (M y = 0), il giratore è il terzo medio ρ² = e ny

y

l’eccentricità limite del nocciolo e ny = M x /N e la posizione dell’asse neutro y

=

(l’antipolarità fra centro di pressione ed asse neutro rispetto all’ellisse d’inerzia comporta I x = A e n y y), caratterizzante l’inizio delle trazioni.

d’inerzia

d/2(

corpi

omogenei)

consente

di

tracciare

il

nocciolo

Le snellezze sono da quantizzare specie in base al tipo di vincolo condizionante la luce l o dei vari corpi e dei materiali impiegati.

Per il cemento armato le norme indicano λ = 50 da ridurre a 35 in caso di sisma e per l’acciaio λmax = 200 da ridursi a 150 in caso di sisma. Le deformazioni in tal modo non si incrementano in modo trascendente con

i carichi, ma vengono ridotte a lineari e di conseguenza il calcolo delle

reazioni e delle sollecitazioni del problema dell’equilibrio elastico è univoco,

senza entrare nel campo critico di instabilità. Si suole anche dire che i corpi

P. Ventura – Geotecnica e Fondazioni

sono “tozzi” secondo il modello di Navier caratterizzato da snellezze λ e = π

E / f
E / f

y rapporto fra il modulo elastico E di Young e la resistenza di inizio della

rottura per plasticizzazione (failure) del materiale f y (yielding = pieghevole

per snervamento) ovvero di fuoriuscita del campo elastico. Lo sforzo normale N = σ/A per λ<λ e , non dipende in pratica dalla curvatura dell’asta.

I materiali reali naturalmente presentano imperfezioni quali la cristallizzazione differente negli acciai o la segregazione o le difettose riprese di getto nel calcestruzzo, o i nodi o il tipo di taglio del tronco nel legno, solo per citarne alcuni. Tali imperfezioni comportano che campioni di tali materiali sottoposti a carico e scarico presentano deformazioni permanenti e in generale fenomeni di isteresi ciclica, assente nel modello elastico perfetto. La scelta di limitare la snellezza deve pertanto essere tanto più severa quanto più ci sono imperfezioni, dispersioni o carenze di qualità in cantiere (v. figura 3). L’importanza di scegliere materiali omogenei nella progettazione ha portato ad esempio al legno lamellare per non avere la dispersione della resistenza del legno naturale per effetto dei nodi (anche del 40%) o dell’anisotropia delle tensioni divergenti dalla direzione delle fibre del legno. Ancora una volta ci troviamo davanti ad ipotesi, come per il benessere

dell’uomo, né tropo rigide né troppo snelle. In tale ottica l’uso della Statica, in particolare grafica, se esistessero le solo forze peso permanenti consentirebbe di limitarsi allo studio della Geometria delle Masse. I pesi infatti possono essere modellati depurandoli dall’accelerazione di gravità (Newton), come del resto anche le forze di inerzia possono essere depurate dell’accelerazione (D’Alembert) in modo da ridursi alle sole masse. Queste a loro volta possono essere depurate della densità media o della densità se in particolare i corpi sono omogenei, riducendosi infine ai soli volumi, o se il problema è piano (spessori uniformi) alle sole aree.

I volumi non sono altro che proprio la forma architettonica che si vuole

progettare. La distribuzione pertanto delle masse, della forma e dei vincoli delle strutture assimilate a “rigide” sotto i carichi devono assecondare anzitutto i principi della statica in base ai quali la risultante dei pesi passa per

il baricentro delle masse i cui momenti statici sono nulli (S xg = S yg = S zg = 0)

P. Ventura – Geotecnica e Fondazioni

e gli assi principali di inerzia, per i quali i momenti centrifughi sono nulli:

(I xy

agenti

(R x = Σx = 0…; M x = ΣM x = 0 ed analoghe).

= I xz

= I yz

= 0),

devono approssimare l’asse centrale delle forze

Si richiama la brillante intuizione di Mohr di caratterizzare il moto delle masse libere tramite i predetti assi principali d’inerzia ricercati graficamente con il circolo delle inerzie (I centrifughi = 0) e quello delle masse vincolate tramite il

duale circolo di Mohr che consente di analizzare le tensioni principali (τ = 0)

(v. figura 8). Ad esempio l’asse centrale di un edificio è opportuno pertanto farlo passare per il baricentro delle fondazioni (v. anche figura 1). Nelle costruzioni essendo in generale i pesi propri rilevanti rispetto agli accidentali, tale criterio non va mai dimenticato all’inizio della progettazione valorizzando la cultura acquisita nel passato. Sono emblematici in tal senso i modelli usati da Gaudi per progettare la Sagrada Famiglia di Barcellona , le masse dei modelli in scala furono sospese

a funi e poi solidificate con il gesso e ribaltate , in modo da materializzare

l’autofunicolare dei carichi delle volte e delle guglie le cui forme straordinarie rispecchiano proprio la Geometria delle masse. La presenza di carichi variabili influenza inoltre notevolmente, come vedremo nei criteri di sicurezza, le tensioni - deformazioni “interne”, ciò comporta la necessità di rispettare anche le ipotesi fondamentali predette della Scienza delle Costruzioni. Così le grandezze Statiche tipiche della Geometria delle masse, quali l’area A e i momenti di inerzia J, si perfezionano nelle rigidezze EA/l ed EJ/l dei corpi elastici. Ulteriore confronto è quello con le sollecitazioni ultime come indicato sullo schema riguardante gli elementi di teorie sul predimensionamento, in cui peraltro si è usata la pratica semplificazione di non differenziare, rispetto alle azioni ed alle resistenze dei materiali, i fattori parziali di sicurezza γ. Si noti come il modello privo di imperfezioni di figura 3 di fatto corrisponda all’asintoto orizzontale σ - ε di resistenza plastica perfetta. Ancora una volta le grandezze A e J compaiono nel calcolo moltiplicate per

la resistenza f mk anziché per il modulo E. Il confronto richiama la snellezza di

Navier funzione proprio del rapporto E/f mk caratteristico del comportamento

costitutivo del materiale, da confrontare proprio con il rapporto A/J tramite il

P. Ventura – Geotecnica e Fondazioni

termine l o /π caratteristico della lunghezza d’onda flessionale elastica con

cui una sollecitazione si propaga all’interno di un’asta di luce l.

Fig.5a

E lementi di teorie “perfette” per il dimensionamento

CARICHI

SOLLECITAZIONE

STATICA

 

S.d.C.

   

T.d.C.

PREVALENTE

   
 

N

 

A

 

EA/L

 

f

mk A/γ m γ q

G,Q,QE

E = f →∞

mK

 

Π

E f mk
E
f
mk

>l o

A J mm
A
J
mm

M

J

 

EJ/L

 

f

mk J/yγ m γ q

 

MASSA

 

RIGIDEZZA

 

RESISTENZA

MODELLI COSTITUTIVI CLASSICI DEI MATERIALI

RIGIDA

ELASTICA

PLASTICA

PERFETTA

PERFETTA

PERFETTA

 

δ/l=0

δ/l1/500

 

δ/l1/100

Le rigidezze consentono di effettuare il predimensionamento facendo in modo che non siano né troppo elevate in modo da rendere “piccoli”, od ammissibili, invece che nulli come in Statica, gli spostamenti e le rotazioni, né troppo basse, per evitare di cadere nel campo di snellezze elevate passibili d’instabilità, come prima delineato, ed esemplificato in figura 5b.In essa sono indicati i casi di sollecitazione semplice tarati a flessione per θ amm = 1/500 ed a compressione e per λ e = 50

ambedue valori di norma per il c.a. peraltro in assenza di sisma e per moduli elastici non a breve termine di carico. Si evidenzia inoltre che già l’eliminazione delle ipotesi di rigidità lungo le superfici vincolari consente di avvicinarsi immediatamente alla realtà. Basta infatti eliminare l’ipotesi che le impronte di contatto siano nulle con reazioni concentrate normali alla tangente di contatto e quindi lisce, e considerare invece l’importanza della deformazione da contatto vincolare fra i corpi, che costituisce l’impronta con presente l’attrito coulombiano. Ciò consente di valutare la sicurezza in base al maggiore o minore impiego di tale attrito sotto l’effetto dei carichi ovvero di

P. Ventura – Geotecnica e Fondazioni

limitare a “piccole” le deformazioni vincolari, sedi nevralgiche di tutti i flussi statici, sino al terreno di fondazione.

a “piccole” le deformazioni vincolari, sedi nevralgiche di tutti i flussi statici, sino al terreno di

P. Ventura – Geotecnica e Fondazioni

Fig.5 b Elementi di predimensionamento in campo elastico per diverse condizioni di sollecitazione semplice e di vincolo.

P. Ventura – Geotecnica e Fondazioni

I.4 IL RUOLO DELLA MODELLAZIONE DELLE AZIONI

La normativa italiana, in linea con l’Eurocodice1 (EC1),fornisce dati quantitativi sulle azioni, sia per valutare i pesi propri (Gk) in base ai pesi specifici standard dei materiali, sia soprattutto modellando le azioni come schematizzato nelle figure 6 a, b .

Così la pressione cinetica del vento (azioni accidentali Qik) è desunta dagli studi aerodinamici trasformandola in generale in dati statici equivalenti per le varie zone dell’Italia.

Particolarmente importante è la valutazione delle depressioni che possono mettere in crisi, anche con valori non elevati, strutture leggere con luci elevate( ad esempio ponti strillati, grandi coperture leggere).

Fare in modo che l’asse centrale dei pesi deviato dalla verticale dal vento massimo misurato, cada nel nocciolo delle fondazioni è un tipico criterio statico molto valido.

Analogamente i sovraccarichi di neve sono stati modellati zonizzando l’Italia in varie aree e sono molto severe soprattutto al crescere dell’altitudine e della possibilità del perdurare del gelo che trasforma la neve (0,25 t/m³ = 2,5 kN/m³) in ghiaccio (0,50 t/m³ = 5,0 kN/m³) molto più pesante specie se intriso d’acqua (1,0 t/m³ = 10 kN/m³).

Particolarmente importante è la valutazione specie per i tetti a debole pendenza, dei sovraccarichi di neve asimmetrici per tormenta, o per eventuale insaccatura della neve fra più falde, non più ripide come una volta in montagna per l’avvento del c. a. che non si può gettare su forti inclinazioni di copertura.

La combinazione delle azioni “statiche” nell’Eurocodice EC1 viene effettuata come sintetizzato nella figura 6 valutando le forze di calcolo di progetto F d (design) sia per le verifiche agli stati limite ultimi, sia per quelle di

esercizio, come verrà esaminato nel paragrafo successivo trattando i fattori parziali di sicurezza per tener conto dell’aleatorietà delle azioni.

La valutazione poi delle azioni sismiche è di certo quella che richiede la modellazione più complessa e con i risvolti più incisivi sui criteri di progetto delle strutture.

Il sisma presenta infatti un’aleatorietà tanto ampia quanto quella delle caratteristiche meccaniche dei terreni in campo geotecnico o delle murature specie “incerte” nel campo dei materiali.

Si anticipa subito che la combinazione accidentale associata alle azioni sismiche (fig.6b) risulta di norma la più gravosa, tanto che persino nei simboli è indicata con E (Earthquake) anziché con Qk1.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni FIG. 6 a Combinazioni delle azioni permanenti ed accidentali quasi-statiche

FIG. 6 a Combinazioni delle azioni permanenti ed accidentali quasi-statiche

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni La combinazione delle componenti orizzontali ondulatorie e verticali sussultorie

La combinazione delle componenti orizzontali ondulatorie e verticali

sussultorie dell’azione vettoriale sismica ,in generale continuamente variabile

in direzione ed intensità nel tempo, si valuta tramite:

E =

E

x

2 + E

y

2 + E

z

2

si valuta tramite: E = E x 2 + E y 2 + E z 2

oppure E = ± Ex ± 0,3Ey ± 0,3Ez ed analoghe

in prima approssimazione si possono considerare separatamente gli effetti ondulatori ( Ez = 0) da quelli sussultori (Ex = Ey =0 ), se l’edificio è regolare sia in pianta che in elevazione.

Fig. 6 b

Combinazioni delle azioni con le azioni sismiche

P. Ventura – Geotecnica e Fondazioni

La figura 6b evidenzia la combinazione delle azioni Gk, Pk, Qki con quella sismica E (Earthquake) secondo la normativa sismica italiana sensibilmente modificata nel 2003 per adeguarla all’Eurocodice EC8. Si noti subito che per la combinazione sismica . pur riferendosi alle verifiche agli stati di danno e ultimo, le azioni permanenti ed accidentali non sono maggiorate dei fattori parziali di sicurezza ( v. I.5) data l’eccezionalità dell’evento sismico, come se si trattasse dello stato limite di esercizio (v. fig 6 a, γg = γp = γq = 1) ) ,mentre l’azione sismica è invece l’unica maggiorata del fattore d’importanza dell’opera γI , come meglio verrà chiarito in figura 9 . Per entrare nei criteri di base della normativa occorre conoscere gli elementi essenziali del comportamento dinamico di un oscillatore semplice ad un grado di libertà ,ovvero una struttura che da iperstatica diviene isostatica e tende poi a collassare divenendo una volta labile secondo le coordinate generalizzate di Lagrange, che evidenziano anche la gerarchia del collasso dei vincoli sia esterni che interni(v. in seguito il fattore q di struttura). Le figure 7 a,b evidenziano poi il vantaggio di esprimere l’equazione del moto in termini rispettivamente assoluti e relativi fra struttura ed il suolo soggetto all’accelerazione ag (ground). Si può in tal modo adottare la simbologia di Newmark per cui Sa =smax, attingendosi il valore massimo dell’accelerazione allorché la velocità è nulla ed SD = smax – sgmax il valore massimo dello spostamento relativo. Distinzioni fra il moto assoluto e relativo non sono di fatto necessarie per gli oscillatori rigidi, simboleggiati in figura 7a dal telaio semplice con i controventi rigidi a croce di S Andrea , in cui la risposta della struttura coincide con quella del terreno (R = 1), ovvero non è amplificata. L’ equazione del moto è uguagliata a F(t)=0 per descrivere dapprima il caso delle oscillazioni libere e specialmente il caso in cui l’impulso iniziale, ,pur se

tolto, innesca la risonanza o effetto diapason per cui r / 1

=ω ω = .

o

Importanti studi sulla risonanza risalgono a quelli sulle vibrazioni degli strumenti musicali ed agli studi di acustica ed anche sugli oscillatori dei circuiti elettronici,o nella diagnostica con la risonanza magnetica , in cui i dipoli delle cellule monoorientate, tramite un intenso campo magnetico , sono eccitate con varie radiofrequenze.

P. Ventura – Geotecnica e Fondazioni

Lo smorzamento poi ν = c/ccrit della struttura caratterizza la dissipazione dell’ energia andando verso il collasso anelastico o plastico, per gli spettri, di seguito descritti, di solito si assume il valore 5% ,variando ν = 1%10% al crescere della plasticizzazione strutturale. .Valori di ν 1 consentono non solo di attenuare i fenomeni di risonanza, ma

addirittura di non innescare le oscillazioni forzate

= della struttura sotto

ω

D

0

l’effetto eccitatore del sisma, rientrando in campo statico anziché pseudostatico. Nel caso poi delle strutture deformabili , simboleggiata in figura 7b dal telaio con solo il trasverso rigido, s’instaura l’amplificazione R 1, espressa usualmente con la terminologia di Newmark delle pseudoaccelerazioni Sa e pseudospostamenti SD, ed inoltre trattando le oscillazioni forzate F( t ) > 0 .

Si è usato per la forza in figura 7 , il simbolo classico F ,anziché E ,come in

figura 6 , solo per non confonderlo con il simbolo dell’ energia , descritte proprio in figura 7; per le varie intensità dell’energie dissipative in sismica si usa il simbolo I, riservando E all’Earthquake force. Se si riprende la fig.7b, In assenza dei controventi , la sollecitazione di taglio risulta Fmax = 2Vmax = kSD = kSa/ω 2 = mSa = GSa /g , per cui la sollecitazione flettente alla base dei pilastri risulta 2 M = hGSa/g = hGCs. La presenza dei controventi, caratterizzati proprio dai moderni dissipatori dell’energia sismica(stilizzati in figura 7b nella posizione reale), smorzano sensibilmente gli effetti del terremoto. Si progettano proprio le capacità

dissipative e la gerarchia di collasso ( ovvero si accresce il fattore di struttura

q che attenua lo spettro(v.In seguito le figure 9 e 10).

In particolare le sollecitazioni in fondazione di progetto, espressa tramite la trasmissività RD, vanno valutate allo stato limite ultimo, e sono notevolmente influenzate dalla pulsazione naturale ωo della struttura e dall’amplificazione eccitatrice ciclica ω del terreno , specie per r = ω/ωo = 1 di risonanza. In prima approssimazione si possono valutare le azioni sismiche in termini statici equivalenti o pseudostatici o statici lineari elastici e non lineari anelatici(v. in seguito il fattore di struttura q) , ovvero con forze d’inerzia “congelate” nel tempo al valore massimo:

GCs = GRag /g amplificate in corrispondenza del periodo proprio To ,come con gli spettri delle figure 8 ,9,10 e 11, che consentono di cogliere con semplicità gli aspetti

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig. 7 a Elementi di dinamica di un oscillatore ad

Fig. 7 a Elementi di dinamica di un oscillatore ad un grado di libertà , rigido

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig. 7b Elementi di dinamica di un oscillatore ad un

Fig. 7b Elementi di dinamica di un oscillatore ad un grado di libertà

elasto-plastico.

P. Ventura – Geotecnica e Fondazioni

essenziali dell’ analisi dinamica tramite lo studio di oscillatori ad un solo grado di libertà .Questi, seppure rappresentano una semplificazione della realtà, consentono di acquisire una sensibilità dei fattori che entrano in gioco in campo dinamico La figura 8a mostra la costruzione di uno spettro di risposta da una storica registrazione sismica (El Centro vicino la faglia di S.Andrea e san Francisco), ovvero il massimo spostamento SD , velocità SV , accelerazione Sa (od anche potenza eccitatrice) per tutti i possibili sistemi ad un solo grado di libertà caratterizzati da oscillatori con periodo proprio To .Noto pertanto To si risalire alla risposta sismica di progetto: Sa, SD. La rappresentazione degli spettri può essere effettuata anche riportando in ascissa la frequenza propria f o = 1/ T o misurata in Hertz (Hz = cicli/secondo)

ed in ordinata lo spostamento massimo s(t) che in prima approssimazione è

essendo C s = a/g

pari ad s(t) max a(t) max T² o /4π² C s g/ω² o C s g/4πf 3 o

funzione del periodo proprio T o e dello smorzamento ν come mostrato in

figura 7 , ovvero secondo la simbologia di Newmark. L’aleatorietà delle strutture dei terreni e della potenza sismogenetica possono “essere illuminati nel progetto” da brillanti modellazioni dinamiche (strong motion), senza pretendere di ” simulare nel progetto” la realtà con il computer, ma in modo da prevenire seriamente i danni, con criteri prestazionali. Esempi di analisi sono la combinazione delle oscillazioni armoniche ideata da Fourier per analizzare una registrazione sismica qualsiasi, ispirandosi al timbra delle corde musicali , o l’analisi modale delle varie forme di vibrazione della struttura, per valutare i massimi spostamenti e sollecitazioni. In tal caso l’analisi dinamica di un sistema strutturale ad n gradi di libertà è trasformata nell’ analisi relativa ad n sistemi di un solo grado di libertà. L’elemento d’importanza dominanante , come di seguito ripreso interamente dal documento esplicativo della normativa sismica italiana, riguarda anzitutto il valore della azione sismica assunta a base del progetto. L’ EC8 adotta al riguardo quale parametro di scuotimento preferenziale il valore di picco dell’ accelerazione orizzontale del suolo (ag) e raccomanda

P. Ventura – Geotecnica e Fondazioni

di utilizzare valori caratterizzati da periodi medi di ritorno pari a 500-5%=475

anni per lo stato limite ultimo senza il crollo, e pari a 100-5% =95anni per lo stato limite di danno non strutturale.Tali periodi di ritorno corrispondono al 10% di probabilità di superamento dei predetti limiti rispettivamente in 50 e

10 anni.

Al valore di accelerazione così definito,PGA (475), è associato un sistema di

forze (derivanti da criteri di carattere statico “equivalente”,oppure dinamico)e la struttura viene progettata per resistere ad esse.

In Italia sono previste 4 zone sismiche i cui spettri sono all’inizio “ancorati” al

valore di ag , appena definito con probabilità di superamento del 10% in 50

anni, come tabulato in figura 8a.L’ amplificazione di ag al variare di To dipende dalle aleatorità della struttura e dall’ aleatorità del terreno. Le figure 8 a,b evidenziano in proposito gli spettri previsti dalla normativa italiana del 2003 , ripresa dall’ Eurocodice EC8, sia per le accelerazioni Sa, sia per gli spostamenti SD ondulatori e sussultori, per terreno soffice tipo”D” in pianura . Sa è caratterizzato dal tratto TB-TC ad Sa=cost,dal tratto Tc-TD (essendo 1/To), un tratto > TD discendente ad Sv=cost ( essendo 1/To 2 ).

Si noti come lo spettro di spostamento sussultorio sia molto meno esteso di

quello ondulatorio, risultando quindi più incidenti sugli edifici rigidi , ove peraltro gli spostamenti dinamici risultano contenuti essendo i periodi propri delle strutture sono piccoli , specie se di pochi piani.

Al perdurare del sisma, per To 10s, la normativa fornisce il seguente valore

per lo spostamento massimo SD=0,025 agSTCTD, che torna ad allinearsi ad SD a terra. L’aleatorietà dei periodi di eccitazione reali possono comunque coincidere con quelli propri, innescando fenomeni di risonanza, e lo stesso variare aleatorio del reale periodo proprio per degrado specie della rigidezza durante tutto il sisma od i successivi , rende l’uso degli spettri tipicamente

una valutazione in termini statistico-probabilistici (stocastici) delle varie registrazioni sismografiche. La figura 8 a mostra poi gli spettri di progetto che modellano i sismi reali caratterizzandoli con l’accelerazione a g (t) al suolo (ground), e con quella

amplificata della struttura Sa, che, come prima detto, integrata fornisce la velocità Sv e gli spostamenti SD registrati al suolo con il sismografo nella componente ondulatoria ad es., N –S (le altre sono E – O e sussultoria

zenitale); ad esempio

P. Ventura – Geotecnica e Fondazioni

per a g /g =0,35 si instaurano spostamenti massimi

di

circa 50 cm al suolo tipo D e di circa 100cm alla sommità di strutture con ad esempio To = 0,5.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig. 8 a Spettri di risposta della normativa italiana 2003

Fig. 8 a Spettri di risposta della normativa italiana 2003 per le 4 zone sismiche In termini di pseudoaccelerazione Sa e pseudospostamenti SD

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni F ig. 8b Fattori di amplificazione geomorfologici degli spettri di

Fig. 8b Fattori di amplificazione geomorfologici degli spettri di risposta elastici e relazioni dei vari rami dello spettro, ridotti del fattore di struttura q per lo spettro di progetto agli stati limite di danno o ultimo

P. Ventura – Geotecnica e Fondazioni

In figura 8b sono evidenziati inoltre i fattori geomorfologici di amplificazione

sismica per vari tipi di terreno in pianura e per acclività del pendio. Nell’attuale normativa il simbolo S ( da non confondersi con Sa)è usato invece per maggiorare l’accelerazione spettrale, passando da suoli poco compressibili a quelli molto compressibili per i quali le forze inerziali sono meno filtrate a bassa frequenza (o per periodi propri della struttura più

elevati T o > 0,8) rispetto al caso di rocce.

L’effetto sullo spettro dei vari tipi di terreni è caratterizzato dalla velocità di taglio V s (shear) d’introspezione geofisica sismica, misurabile con

apparecchi pulsanti in laboratorio o in sito con prove cross hole e similari, (V s

=

0

per

l’acqua).

La

velocità

longitudinale

V p (push)

non

è

significativa(nell’acqua V p =1500 m/s = 5400km/h), per valutare gli effetti

delle

distorsioni

G=E/2(1+ν )

=

σ / θ

ij

ij

=

isotropi ,ν

il coeff. di

θ

ij

sul

modulo

γV / g V / ρ

s

=

s

2

2

,essendo

nei

corpi

di

taglio

omogenei

ed

Poisson , E il modulo di Young,

σ ij

il deviatore delle

tensioni rispetto ai valori litostatici,γ il peso specifico e ρ la densità.

Si ricorda, in base alla figura 7, che la velocità di propagazione V

s =λ

/ T

,

essendo λ la lunghezza d’onda e T il periodo di eccitazione d’introspezione

sismica, registrato ai geofoni I vari tipi di suoli in funzione di Vs sono descritti in figura 8b, correlandoli anche alle caratteristiche geotecniche tipo, quali lo Standard Penetration Test NSPT o la coesione non drenata cu (v.fig4) ; i terreni passibili di liquefazione(annullamento delle tensioni efficaci per eccesso di sovrapressioni interstiziali indotte dal sisma) o con strati molto compressibili , specietorbosi e non saturi ,vanno bonificati.

A titolo di esempio si ricorda il terremoto di Avezzano del 1915 che durato 5

secondi , con epicentro nella piana lacustre del Fucino , che si abbassò di 40cm distruggendo i paesi della piana, mentre quelli sulle pendici calcaree , lontani dalle grosse faglie indotte anche dal sisma , subirono meno danni. L’incremento spettrale del fattore di pendio va interpretato in senso

sismogenetico e geomorfologico e non solo morfologico , potendo essere meno grave di un sedime in pianura poco addensato, o ben più grave se si tratta di strati a franapoggio o molto fagliati fra due formazioni geologiche

P. Ventura – Geotecnica e Fondazioni

che addirittura attraversano la fondazione. La relazione geologica anziché

(III.4.1) deve interessarsi delle

limitarsi o dilettarsi con il valore della

σ amm

Geologia Strutturale tramite sondaggi mirati .

In tale ottica “convenzionale” si definiscono le zonazioni sismiche tramite le

isosiste ogni 0,025g , in base al catalogo dei terremoti ed alle leggi di attenuazione dagli epicentri ,senza seguire i confini regionali. La valutazione è ancora più complessa se si considera che gli spettri sono isoprobabili a duttilità assegnata ( v. figura 9 a,b )ovvero si valuta la probabilità di superamento di un evento sismico durante la vita di un opera,correlandola al suo grado di ”sana e robusta costituzione” o di contenuta vulnerabilità e adattabilità al collasso(v. in seguito gerarchia dei meccanismi di collasso e duttilità).

Il periodo di non ritorno TR di un terremoto ,prima descritto , ossia l’intervallo

di tempo che contiene almeno un evento con spostamenti che portano la

struttura di “normale costituzione” allo snervamento e quindi verso il collasso è considerata di 50 anni ,ovvero la probabilità di superamento che accada un terremoto è dell’ordine della “normale” vita media di una struttura di edificio in c.a.,usuale in America ,ma non certo in Italia. Se invece l’opera è di “robusta costituzione” o poco vulnerabile , in quanto progetta a resistere anche ad elevate azioni sismiche, il periodo di non ritorno TR passa a circa 500 anni , affinché si verifichi una probabilità di superamento che accada un terremoto ancor più violento di quello di progetto in campo elastico assunto equivalente però a quello ultimo. Quanto delineato circa la zonazione spettrale non deve creare sfiducia ,basata sullo scarso realismo degli aspetti anzitutto geologici, ma deve cogliere i criteri prestazionali sismoresistenti che le nuove norme vogliono evidenziare ,per realizzare nuove costruziori in Italia come in Giappone o Nuova Zelanda. Il problema è analogo a quello delle indagini geognostiche in Geotecnica, l’aleatorietà dei risultati non deve far credere di risparmiare non facendole. Studi rilievi ed indagini geomorfologici e sismogenetici , specie tramite introspezioni sismiche per valutare Vs devono del resto essere svolte su scala pubblica, in modo da non ricadere su cittadini , specie a basso reddito. Nella figura 8b sono riportate poi le relazioni che descrivono i vari rami degli spettri elastici per i vari tipi di terreno ,privi del fattore di struttura q (v.fig.9b),

P. Ventura – Geotecnica e Fondazioni

cerchiati in figura per caratterizzare gli analoghi spettri agli stati limita di danno e ultimo, come subito di seguito descritto.

figura per caratterizzare gli analoghi spettri agli stati limita di danno e ultimo, come subito di

P. Ventura – Geotecnica e Fondazioni

Fig. 9 a Confronto fra gli spettri di progetto previsti nella normativa sismica

italiana del ’96 per verifiche MTA SLU

, per verifiche SLD e

e gli spettri del 2003

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig. 9b Spettri di progetto per analisi lineari (statiche e

Fig. 9b Spettri di progetto per analisi lineari (statiche e dinamiche) caratterizzati dal fattore di struttura q descritto per il c.a. in base alla Capacità Dissipativi o Classe di Duttilità alta /CD”A”) o bassa (CD”B”)

P. Ventura – Geotecnica e Fondazioni

Le figure 9 a,b mostrano poi i criteri generali per valutare gli effetti E dei terremoti ,da combinare come delineato in figura 6b con le azioni statiche ,per i quali l’uso degli stati limite è decisamente peculiare per cercare di modellare realisticamente le azioni sismiche. In particolare lo stato limite ,valutato in base allo spettro di progetto descritto in figura 9 a, che mantiene le sollecitazioni più gravose in pieno campo elastico riguarda in generale non tanto gli usuali edifici ma le

strutture di speciale importanza . La struttura in tal caso, come per le dighe

o le opere di primaria importanza (vedi dopo fattore d’importanza ), si

progetta per rimanere in campo elastico ,anche sotto le azioni sismiche massime (Sag) ,ovvero consente spostamenti SD elastici equivalenti a quelli dello stato limite ultimo, con il predetto criterio della massima prevenzione alla vulnerabilità. Nella nuova normativa permangono solo alcuni dei criteri della precedente del ‘96 per valutare l’azione sismica, mentre per le verifiche, sia con l’analisi pseudostatica che con quella dinamica, si calcolano le sollecitazioni e si controlla che non si superino gli stati limite, di danno e ultimo , anziché lo stato limite di esercizio in base al metodo delle tensioni ammissibili. Lo spettro di risposta di progetto della normativa italiana assume un comportamento non amplificato rigido o statico della struttura se questa

presenta periodi propri T 0 < 0,05 (f 0 > 20 Hz) pur con accelerazioni elevate o

per T 0 > 0,8 (f 0 1Hz), per piccole scosse (a/g 0,1), ovvero fuori del campo

di amplificazione spettrale di figura 9, per cui la risposta R(t) =1.

Il coefficiente di intensità sismico C s = C RI

veniva assunto in Italia , come

visto in figura 9 a riguardante la normativa del ’96 , pari a C = 0,1 per il moto

ondulatorio e C = 0,2-0,4 per il sussultorio per le zone di 1 a categoria sismica

S

essendo C = 100 2 con S grado di sismicità della scala Mercalli (S max = 12).

Il fattore di importanza I = 1,0-1,4 dell’opera cresce passando da

un’abitazione ad un ospedale o caserma sino al 40% ,analogamente con l’attuale normativa si adottano fattori di sicurezza γI=I sempre con il valore

più elevato per il grado di protezione maggiore richiesto per l’opera, orientandoli peraltro verso il criterio di progetto dello spettro elastico

P. Ventura – Geotecnica e Fondazioni

equivalente allo stato limite ultimo, riservato appunto alle opere importanti quali le dighe l confronto fra l’attuale normativa italiana in sintonia con l’Eurocodice 8 e quella antecedente il ’96, evidenzia dunque che le i differenze non riguardano tanto i criteri di valutazione delle azioni sismiche, quanto soprattutto i valori delle azioni ed il tipo di verifiche riguardanti lo stato limite di danno oppure ultimo a duttilità “ammissibile”, anziché allo stato che mantiene per “piccole “ azioni sismiche, le tensioni ammissibili in campo di esercizio, per strutture di normale importanza. Se si confrontano le risposte di strutture di diversa resistenza e regolarità costruttiva, a parità d’intensità del terremoto in un abitato, si vede che quelle non crollate sono quelle duttili , come di seguito definito, e peraltro non ricadenti in zone di faglia o di rilevanti mutamenti stratigrafici o rilevanti pendii (v. fig.8 ). Il criterio di progetto si diversifica quindi da quello della precedente normativa sismica , in cui l’azione del terremoto di 1 a categoria (Sa/g0,1) doveva soddisfare le tensioni ammissibili (MTA), ovvero essere contemperato nello stato di esercizio , in particolare elastico .Solo con le predette opere di elevata importanza, le azioni sismiche massime dello spettro elastico equivalente allo stato limite ultimo, si fanno rientrare nello stato di esercizio, come in passato, Più precisamente i valori di Sa/g ,prima indicati per i vari stati limite, sono codificati in figura 9 a, usando i simboli sia della passata normativa italiana, sia quella attuale ripresa dall’EC8 ,per facilitare i predetti confronti ove possibile. Le verifiche, per strutture che escono dal campo elastico, nella nuova normativa sono incentrate sul mantenimento dello stato limite di danno,(SLD) per cui (Sa/g ÷ ag S) ed è caratterizzato dal raggiungimento in generale della fine del campo elastico, che per i materiali fragili significa peraltro il crollo anziché l’inizio dello snervamento (yielding). Mentre è necessario cercare di realizzare il raggiungimento dello stato limite ultimo(SLU) (per accelerazioni massime normalizzate Sa/g ÷ 2,5 ag S/q) in cui la struttura deve essere sufficientemente duttile ,ovvero possa subire spostamenti al di fuori del campo elastico , senza raggiungere il collasso, sia in grado cioè di plasticizzarsi , dopo attinta la resistenza a snervamento Fy .

P. Ventura – Geotecnica e Fondazioni

Le plasticizzazioni sono in numero più elevato in presenza della preziosa ridondanza dei vincoli iperstatici , che pertanto tendono a ritardare il cinematismo a gradi di libertà nulli per evitare il crollo per risonanza,Riserva invece assente nelle strutture isostatiche nelle quali, le ulteriori plasticizzazioni,

o peggio fragilità, instaurano il primo grado di libertà e quindi il crollo per

cinematismo labile, che solo nelle macchine non è dannoso per l’uomo. La figura 9 b , in base alla nuova normativa 2003, evidenzia i predetti aspetti , caratterizzati dalla duttilità assegnata in termini di spettri isoprobabili elastici con spostamenti equivalenti a quelli ultimi , e di spettri isoprobabili con spostamenti anelatici.

Le grandezze che interessano il progetto in zona sismica , come evidenziato

in

figura 9 b, sono pertanto la resistenza Fy , la rigidezza k = dF/ds, e la duttilità

µ

Si definisce in particolare la duttilità come l’estensione di adattabilità deformativa che presenta la struttura , superato lo snervamento,ovvero il campo d’incrudimento se ci si riferisce al singolo materiale (v. fig. 3, acciaio

con allungamento

ε

max

10%

0

).

Nel caso del c.a. si accenna che la forza di richiamo della rigidezza o di rilassamento dopo la scossa può essere lineare elastica ks o non lineare anelastica ( ad esempio ciclo elasto-plastico di carico-scarico con inversione di sollecitazione-e ricarico con in particolare k=0 nel tratto plastico senza incrudimento, ciclo tipo Takeda). Come si vedrà nel dimensionamento del c.a. (III.2.4) la duttilità locale si ottiene aumentando le sezioni cementizie anziché l’armatura in zona tesa , per cui una struttura poco elastica è più duttile in caso di sisma . Analogamente ,riferendosi al progetto di elementi strutturali anzichè ad una semplice sezione, se si sovradimensionano ad esempio le scale di un edificio, si finisce per renderle più vulnerabili dal terremoto, anziché più sicure per un ordinata evacuazione dopo l’evento sismico; è necessario invece ripartire e centrare il più possibile le rigidezze delle membrature più resistenti. La durata poi del sisma di solito dell’ordine da 10 fino a 30 volte To , al crescere della sua magnitudo da 7 ad 8 , influenza fortemente le sollecitazioni, o meglio le capacità di dissipare energia della struttura.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni 55

P. Ventura – Geotecnica e Fondazioni

Fig. 10 Criteri sismoresistenti: Statici riguardanti la regolarità di un edificio e di Scienza delle Costruzioni riguardanti la gerarchia dei meccanismi di collasso

la regolarità di un edificio e di Scienza delle Costruzioni riguardanti la gerarchia dei meccanismi di

P. Ventura – Geotecnica e Fondazioni

Fig. 11 Periodi propri tipici di edifici e confronti fra le risposte di vari tipi di costruzioni e di terreni.

La capacità dissipativa è analoga alla capacità di crash test delle auto ; incidenza ancora più forte sulle possibilità dissipative sono inoltre imputabili alla sequenza delle pulsazioni sismiche. La figura 10 evidenzia i criteri generali per conferire ad una struttura una elevata capacità dissipativa : dovuta sia a criteri statici di regolarità, descritti

per la figura 1 nella I a Parte, che di

S.d.C. riguardanti la gerarchia dei

meccanismi di collasso e i dettagli costruttivi. Si fa così in modo, ad esempio per le intelaiature degli edifici. che gli “scorrimenti plastici” per taglio si verifichino sempre dopo la formazione delle “cerniere plastiche”, e che queste si formino prima nelle travi e solo dopo nei pilastri; le rotazioni delle sezioni per consentire la duttilità ad esempio per ,

per deformazione ε ammesse dall’acciaio ,devono essere :

s

θ tg

θ δ

=

h

/ h = h

ε

s

/ 3d = 1 / 300 =

0,0033 =3,3 %o = 35mrad (v. fig. 11)

La parte alta di figura 10 evidenzia i criteri di regolarità ed i limiti consigliati, la parte in basso , ripresa dal testo del Prof Gavarini “Ingegneria antisismica” evidenzia invece l’importanza della gerarchia di collasso ,travi troppo rigide penalizzano fortemente i pilastri; al contrario accadeva con gli antichi solai lignei, che non trasferivano trazioni per pressoflessione ai muri. Il fattore di struttura q caratterizza pertanto l’estensione dell’ adattabilità della struttura nel degradarsi duttilmente sino al collasso . Così le coordinate generalizzate q di Lagrange (il simbolo è quello originale per riferimento cartesiano, polare … qualsiasi) descrivono il cinematismo di collasso , in quanto proprio evidenziano il degrado da iperstatico ad isostatico delle strutture ,tanto più celere se la gerarchia del meccanismo di collasso presenta rotture localizzate fragili,che anticipano il cinematismo del crollo, In presenza di stratigrafie regolari e di strutture regolari, ovvero non vulnerabili come quelle di figura 1, è di valida prevenzione progettare in modo che l’uscita dal campo elastico (Fy fig. 9) sia prodotta dall’intensità di progetto

P. Ventura – Geotecnica e Fondazioni

Sad = Sa/q, essendo q il fattore di struttura, prima delineato, che tiene conto della duttilità e regolarità vincolare della struttura. Mentre per un oscillatore

semplice la duttilità vale

µ = F / F ,per una struttura più complessa, le sue

u

y

capacità in duttilità, si sintetizzano nel fattore q. Lo spettro si può allora ridurre di q divenendo Sa, per la duttilità controllata gerarchicamente .

In figura 9b il coefficiente d’intensità sismico 0,1 ,di fig. 9 a, della vecchia

normativa è riportato a tratteggio in basso a titolo di confronto, con riferimento ai diversi tipi di verifiche, prima descritti. Il fattore q consente di fare valutazioni di progetto anziché in maniera forfettaria, valutando invece i benefici di progettare le nuove strutture duttilmente. Quanto maggiori sono le possibilità di plasticizzazione della struttura, tanto minori quindi possono essere le forze di progetto, pur mantenendo la stessa sicurezza nei confronti del terremoto che produce il collasso senza arrivare al crollo in modo da salvaguardare le vite umane. Si deve inoltre all’Architetto Wright aver impiegato degli smorzatori dissipativici sotto le fondazioni del grattacielo progettato in Giappone,in modo da filtrare il terremoto, precorrendo gli studi di ingegneria sismica (base isolation). Dissipatori plastici, come delineato in figura 7b, possono anche essere diffusi

all’interno dei vari vincoli in modo da rendere tutta la struttura adattabile al

la potenza energetica dei sisma .

Se si passa poi alle strutture esistenti, specie in muratura nelle quali tutto è

affidato invece alla qualità plastica delle malte non puramente cementizie

e ad una valida consistenza muraria ( v. figura 2), si cerca di sopperire alla

mancanza di duttilità µ, con una congrua resistenza Fy (v. fig. 9), in modo da

cercare di sfuggire alle amplificazioni di risposta con periodi propri To molto piccoli.

La

figura 11 evidenzia proprio tale accorgimento caratteristico delle strutture

in

muratura di pochi piani (To = 0,05s/piano), per cui R=1, ed anche se q = 1,5

, anziché dell’ordine di 4 ÷ 5 come per il c.a., le azioni sismiche tendono ad essere simili , poiché le strutture in c.a. presentano periodi propri maggiori (To = 0,1s/piano) e pertanto ricadono di più nella zona amplificata a 2,5 dello spettro.

P. Ventura – Geotecnica e Fondazioni

Inoltre sperimentalmente l’amplificazione 2,5 si registra negli edifici in muratura per terremoti di bassa intensità, mentre per alta intensità si riscontrano amplificazioni minori di 2,5 ,usuali invece per il c.a. Il confronto predetto appare poi meno drammatico se si esaminano gli spettri di spostamento SD , anziché di accelerazione Sa, sempre che si tratti di murature di valida consistenza, quali le murature in pietra squadrata od in , mattoni,ben ammorsati. Per piccoli periodi infatti gli spostamenti indotti dal sisma tendono ad essere contenuti e rientrano in quelli tipici della S.d.C. , pari ad h/500 (v. fig. 5 e paragrafo 1.2), usualmente condizionanti le rigidezze di progetto in campo elastico, ovvero un valido progetto statico prelude anche un valido comportamento alle azioni sismiche. In generale , per qualsiasi struttura, poi il progetto deve basarsi sul criterio di dissipare al massimo energia da parte della struttura durante tutto il sisma e possibilmente i successivi, ovvero tenendo conto di ambedue gli spettri di figura 11, confluenti in quello energetici (x.Fig.7) . mSaSD/2 = mSv 2 ./2 cinetici, e dissipativi viscosa ed elastica e isteretica ( energia dissipata nei vari cicli)e attritiva. Proprio considerando tale capacità di disperdere per attrito colombiano (v.III.6 fig.G18),se si escludono le murature a sacco o di scarsa consistenza,come purtroppo si è riscontrato in tanti paesi poveri, allora il fattore q=1,5 che la nuova normativa assume per le murature, può essere maggiorato, in quanto la muratura squadrata pur fessurandosi può consentire ancora di dissipare energia per attrito, anzichè duttilmente ,come mostrano opere romane millenarie. I predetti confronti con il c.a. vanno naturalmente fatti a parità di situazioni geomorfologiche, che possono avere un’ influenza notevole sulla risposta. Il realistico impiego del fattore di struttura q per valutare gli spettri di progetto, non deve però far preferire strutture in c. a. rispetto a quelle in muratura di buona consistenza con il centro delle masse coincidente con quello delle rigidezze, sempre se si tratta di un numero limitato di piani portato da congrui maschi murari. Considerazioni di ecobilancio e di bioarchitettura sono inoltre a favore delle muratare ,maggiormente isolanti termicamente ed acusticamente.

P. Ventura – Geotecnica e Fondazioni

In ogni caso la nuova normativa sismica per le fondazioni prevede l’impiego del conglomerato armato, proprio in quanto realizzano la predetta peculiarità delle strutture rigide a contenere le amplificazioni (R=1). Non altrettanto si verifica di solito in elevazione con strutture in c. a. di pochi piani, ed esili pilastri agli ultimi piani,pur con sezioni verificate, magari uniti da travi a spessore specie nelle angolate, e quindi con minuti nodi vincolari, ben lontani dalla monoliticità delle bibliche pietre angolari, atte a sopportare eventi sismici. I vantaggi del c.a. emergono con gli edifici multipiano, passando per le murature armate, spinte fino a 10 piani in California. Per riassumere, riprendendo lo spettro di figura 9b,la scelta di strutture “rigide” od “isolate” alla base tramite dissipatori cercano di prediligere periodi propri che mantenegono le opere senza amplificazioni sismiche, rispettivamente all’ inizio ed alla fine dello spettro, mentre le strutture “duttili” cercano di ridurre di q le azioni sismiche in mododa mantenere l’opera in campo elastico o con danni non strutturali sino allo snervamento. Scelte ibride come l’inserimento di strutture in c.a. od in acciaio, specie nel caso di consolidamento, sono spesso dannose.Luso poi dei micropali di scarsa resistenza al taglio non rispetta di certo la gerarchia di collasso . L’intelaiamento di rinforzo di strutture in muratura, deve invece essere un chiaro organismo di rinforzo , non sempre peraltro conciliabile con le esigenze del Restauro, pur ricostruttivo anziché conservativo. La deroga alla normativa sismica per i monumenti, prevista dal Ministero dei Beni Culturali, rispetto a quello delle Infrastrutture (ex Lavori Pubblici) propone il “miglioramento” anzichè l’ “adeguamento” delle strutture a resistere al sisma. E’ evidente come tutto vada interpretato con prudenza, specie per quanto riguarda le chiese e le scuole per cui mancano oltretutto sempre sproporzionatamente i fondi economici . In proposito si richiama il caso di murature ben dimensionate originariamente, qualora subiscano danni da terremoti forti, possono essere consolidati tramite l’antica tecnologia “scuci e cuci” , ripristinando ad arte la consistenza e gli ammorsamenti lesionati ,con costi contenuti. L’analisi retrogressiva della massima accelerazione sopportabile dall ’ opera, utilizzata come “macrosensore, evidenzia che la risarcitura delle lesioni ed il ripristino della preziosa resistenza attritiva , può far considerare l’intervento un

P. Ventura – Geotecnica e Fondazioni

adeguamento più che un miglioramento, qualora si sia in presenza di una valida costituzione costruttiva iniziale.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni

I.5 IL RUOLO DELLA MODELLAZIONE NEI CRITERI DI SICUREZZA

In corrispondenza all’ipotesi “di base” di rigidità perfetta della Statica e di

elasticità perfetta della Scienza delle Costruzioni, sono stati formulati i primi classici criteri di sicurezza. Così a ciascuna equazione di equilibrio scalare, ovvero a ciascun spostamento da impedire con l’insorgere delle varie sollecitazioni come mostrato in figura 2, corrispondono le antiche verifiche di

sicurezza “esterne” deterministiche: di portanza (ΣZ = 0), a compressione (η 3) a trazione (η 5), di scorrimento (ΣX = 0; ΣY = 0) (η 1,3) ed a ribaltamento (ΣM x = 0; ΣM y = 0) (η=1,5) ed a torsione (ΣM z = 0) (η 3).

Il fattore di sicurezza deterministico (v. figura 12) η è il rapporto fra i valori di esercizio delle sollecitazioni scaturenti dalle azioni “esterne” alla struttura e le sollecitazioni di rottura scisse però ambedue nelle varie 6 componenti spaziali (v. figura 2) anziché combinandone gli effetti. Tale criterio è rimasto

di fatto ancora in uso per le verifiche di stabilità d’insieme delle opere di

sostegno o dei pendii specie in campo pseudostatico, ovvero ipotizzando

che le forze d’inerzia dovute ad un sisma siano staticamente applicate nei baricentri delle masse oscillanti.

E’ emblematico come al crescere dell’aleatorietà geotecnica e sismica si

sia mantenuto ancora oggi tale antico criterio di sicurezza deterministico anziché quello probabilistico di seguito delineato a causa dell’elevata dispersione dei dati (v. figura 3). I vecchi carpentieri del resto saggiavano con dei colpi secchi per ciascuna delle direzioni cartesiane l’efficacia dei vincoli appena finiti di montare. Analogamente il collaudo del tubo prototipo di una partita di acciaio posta sotto elevata pressione idraulica, veniva collaudato auscultando il tipo di

riverbero di un colpo di martelletto sul tubo, prima dell’impiego dei raggi X.

La Scienza delle Costruzioni ha sviluppato poi l’analisi delle tensioni e delle

deformazioni, introducendo il concetto di tensioni principali σ 1 , σ 2 , σ 3 (sui

piani degli elementi infinitesimi privi di tensioni tangenziali τ = 0) o più in generale, in presenza di sollecitazioni composte, introducendo il concetto di tensioni ideali combinazioni di quelle principali, per evidenziarne gli effetti

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig12 Percorsi delle tensioni ammissibili e distanza di sicurezza interna

Fig12 Percorsi delle tensioni ammissibili e distanza di sicurezza interna deterministica. Percorsi delle sollecitazioni di calcolo e distanza di sicurezza esterna semiprobabilistica.

P. Ventura – Geotecnica e Fondazioni

distorcenti e di variazione volumetrica della materia. La tensione ideale (v. figura 8) consente di ricondurre uno stato tensionale qualsiasi (triassiale o biassiale) ad uno equivalente monoassiale più usuale per misurare la resistenza sui provini in laboratorio, in modo da contemperare il fatto che uno stato di compressione laterale migliora la resistenza monoassiale e viceversa di trazione laterale lo peggiora. Così le sollecitazioni non vengono più trattate separatamente per valutare il margine di sicurezza rispetto alla rottura, come prima delineato secondo la Statica. Si verifica pertanto che le tensioni ideali siano minori di quella ammissibile ricavata dalla penalizzazione delle tensioni di plasticizzazione, sino a rottura del materiale, tramite un fattore di sicurezza “interno”. Tale fattore è perfettamente confrontabile con quello predetto “esterno” solo se

lo stato di esercizio non supera il campo elastico o della sovrapposizione degli effetti e si rimane nel pieno ambito delle ipotesi prima ricordate poste

alla base delle S.d.C

deve essere applicato alla combinazione delle sollecitazioni di prova a rottura, senza scinderle per ciascun componente come prima delineato. Il percorso delle sollecitazioni o delle tensioni durante la vita della struttura, nonché il loro decorso nel tempo, influenzano sensibilmente l’uscita dal campo elastico ovvero l’entrata in campo plastico: in tal caso il fattore di sicurezza “interno” è più cautelativo di quello “esterno”. Viceversa per valutare sperimentalmente rispetto alla rottura di un prototipo le sollecitazioni di esercizio è più attendibile il fattore di sicurezza esterno rispetto all’interno, più difficilmente quantizzabile specie in presenza di fenomeni d’instabilità (v. figura 5). Si deve far ricorso ad analisi non lineari perdendo la prima evidenziata limpidezza del modello lineare elastico per cui è stato proprio ideato il fattore di sicurezza “interno”. Ciò va visto, come tutti i modelli descritti, come una chiara ginnastica mentale che consente di

comprendere analogicamente le realtà, prima che quantizzarla digitalmente con metodi non lineari, in cui pericolosamente non si collega mentalmente l’input con l’output. Si richiama poi che fra i criteri di plasticità più classici della Scienza delle Costruzioni per valutare lo stato tensionale a rottura dal quale distanziare con opportuni fattori di sicurezza interni lo stato tensionale ammissibile, vi sono quelli, per materiali isotropi, di Galilei e Rankine limitanti le tensioni

Peraltro per un corretto confronto il fattore “esterno”

P. Ventura – Geotecnica e Fondazioni

normali massime, seguiti dal criterio di Tresca (v. figura 12 in alto) che caratterizza il collasso in base alla tensione tangenziale massima. Tale criterio si attaglia per l’acciaio e la predetta tensione ideale è proporzionale alla tensione tangenziale “ottaedrica”, ovvero la τ lungo la giacitura di un

ottaedro regolare i cui vertici si trovano sugli assi delle tensioni principali. Per il conglomerato invece il criterio di resistenza più attendibile è quello di Mohr

in cui si ricerca sistematicamente l’inviluppo di tutti i circoli σ - τ che

innescano la rottura del materiale, tale inviluppo è detto anche curva intrinseca di resistenza del materiale caratterizzato da ridotta resistenza a trazione. In quest’ultimo modello la distanza del circolo di Mohr di esercizio della curva intrinseca di resistenza, definisce proprio il fattore di sicurezza “interno” come mostrato in figura 12. Tale criterio è molto simile a quello di Coulomb attritivo, adatto a descrivere la rottura dei terreni nei quali le curve si approssimano ad una retta di pendenza pari all’angolo d’atrito ϕ e con

intercetta all’origine pari alla coesione c. Altri criteri sono quelli legati all’energia potenziale elastica di Beltrami-Ritz da confrontare con l’energia

di plasticizzazione ultima, criterio che sviluppa quelli iniziali proposti da Von

Mises-Hencky e da Huber. Questi ultimi attribuivano la rottura eminentemente a combinazioni del deviatore delle tensioni principali (differenza media delle tensioni principali o raggio del circolo di Mohr) trascurando il contributo dello stato tensionale idrostatico (media delle tre tensioni principali, nel caso piano è l’ascissa del centro del circolo di Mohr) che è stabilizzante se di compressione e provoca invece accelerazione della crisi se di trazione (ad esempio surriscaldamento interno al materiale o prevalere dell’estensione). Per la valutazione dello stato limite ultimo o rottura, come prima detto, è più

utile svolgere le verifiche in termini di sollecitazioni e di spostamenti anziché

di tensioni e deformazioni. Ciò specie per il confronto con i dati sperimentali

che in campo non lineare o in presenza di forti imperfezioni, come nel legno con i nodi, si presentano in termini F – s anziché σ - ε (gli strain gauge del resto sono sostituiti con trasduttori di spostamento alle prime lesioni). Per valutare la sicurezza, con i criteri predetti, si deve allora analizzare il percorso delle sollecitazioni nel dominio di rottura ad es. M - N di una sezione in conglomerato armato (v. figura 12 in basso), anziché il percorso delle tensioni ideali rispetto al dominio delle curve intrinseche (v. figura 12 in alto).

P. Ventura – Geotecnica e Fondazioni

La sollecitazione di pressoflessione in un pilastro ad esempio di “spina” di un edificio passa da uno sforzo normale quasi centrato ad uno anche inflesso per effetto del vento e sino a rottura per effetto del sisma, lungo i percorsi delle rette e/d = M/Nd, essendo d l’altezza della sezione cementizia senza copriferro caratterizzante la posizione dell’armatura tesa. I criteri di sicurezza rispetto ai descritti vari stati limite di comportamento della struttura prima delineati, peraltro personalizzati a seconda del tipo di materiale in progetto, sono stati tutti inizialmente usati con caratteristiche deterministiche anche nei riguardi delle azioni, ricercando un fattore di sicurezza unico sia “interno” che “esterno” come prima specificato. Tali criteri non tengono conto dell’aleatorietà delle variabili in gioco soprattutto riguardanti le resistenze e le azioni. Come anticipato rispettivamente nelle figure 3, 4 e 6a,b per cercare di superare la problematica è stato introdotto nel modello matematico che individua il comportamento meccanico della struttura il calcolo semiprobabilistico. Si determina, in base alle leggi probabilistiche che governano le variabili del problema, la probabilità che queste raggiungano uno stato limite caratterizzato anch’esso da una funzione le cui variabili al limite raggiungono i valori estremi che non si devono superare. Ciascun parametro

del modello di calcolo è caratterizzato allora da un valore medio X = Xi/n,

con n numero delle misure, e

da una varianza o scarto quadratico medio

σ² x = I (Xi X ) 2 / (n-1) e da un coefficiente di variazione V x = σ x / X .

Ciascuna variabile presenta allora una funzione di densità della probabilità f (x) nella quale si può indicare il valore caratteristico X k tramite il frattile ad

esempio al 5%, ovvero con probabilità tale che il valore non venga superato nel 90% dei casi, come delineato nelle figure 3 e 12. Se la funzione di densità è ad esempio gaussiana risulta per il predetto

frattile per cui X k =X +_ 1,64 σx = X (1+_1,64 V x ) mentre, se la distribuzione è

esponenziale cosiddetta estrema di tipo I risulta invece X k = X (1+1,86 V x ) e

così via per altri tipi di distribuzione aleatoria dei dati o addensamento intorno ai valori medi sintetizzato proprio dal coeff. di variazione Vx = x /X La distanza fra X k ed il valore di progetto X d (design) rappresenta pertanto

un fattore parziale di sicurezza γ x nel metodo semiprobabilistico a livello I

dello

studio

della

sicurezza

in

termini

probabilistici.

Il

moderno

criterio

P. Ventura – Geotecnica e Fondazioni

semiprobabilistico della sicurezza cerca di superare i criteri deterministici proprio introducendo i predetti fattori parziali di sicurezza γ. A fianco al dominio di rottura M – N di figura 8 è riportata la dispersione delle sollecitazioni di calcolo scaturenti dalla maggiorazione delle azioni di γ p e γ q

e la dispersione della sollecitazione resistente scaturente dalla penalizzazione della resistenza dal conglomerato di γ c secondo il delineato criterio

semiprobabilistico per valutare la sicurezza su dati caratteristici (v. fig 6 e

§III.1.1.)

L’aleatorietà dell’incremento delle sollecitazioni quale quella indotta dagli spostamenti del terreno o dagli eventi sismici, come la duale aleatorietà della riduzione della resistenza dovuta alla carenza di qualità e al degrado o indotta dall’instabilità e fatica ciclica, mettono in evidenza le differenze fra la virtuale perfezione dei modelli predetti (figura 3 o figura 5a sulle teorie riguardanti il dimensionamento), rigido ed elastico e plastico perfetti, e la caducità della realtà. Tale aspetto non deve però creare sfiducia o rendere ipercritici verso la modellazione, cogliendone anzitutto le linee guida. Il criterio di sicurezza semiprobabilistico agli stati limite basato sostanzialmente sulla maggiorazione del 50% delle azioni con particolare riguardo a quelle accidentali specie sismiche e sulla riduzione del 50% della resistenza rispetto a quella certa del materiale modello omogeneo ed isotropo o di qualità privo di imperfezioni, è soddisfacente. In pratica le opere in cui oltretutto prevalgono le azioni gravitative rispetto a quelle aleatorie sono più sicure e durabili come le costruzioni romane. Nelle macchine specie aeree in cui è necessario ridurre il peso, la vita delle strutture è invece molto corta e necessita di una continua manutenzione specie dopo forti tempeste, ovvero per forte prevalere del carico aleatorio rispetto a quello permanente. Così le opere in cui si “progetta” l’omogeneità della resistenza dei materiali nella costruzione suscitano una maggiore drabilità, qui intesa più come lunghezza di vita dell’opera più che solo resistenza maggiore agli agenti chimici aggressivi. Ciò persino se i moduli elastici non sono elevati come nelle murature con le bibliche pietre angolari che tuttora sfidano l’acciaio.

P. Ventura – Geotecnica e Fondazioni

Il moderno criterio semiprobabilistico della sicurezza cerca di superare i criteri

deterministici proprio introducendo i predetti fattori parziali di sicurezza γ p ,

γ q =1,5

ovvero,

si

ribadisce,

che

maggiorano

del

50%

i

carichi

specie

accidentali e γ m =1,5 ovvero che penalizzano del 50% le resistenze dei

materiali. Ciò consente di allontanare della distanza di sicurezza la curva di dispersione dei carichi da quella della resistenza dei materiali, che normalmente sono di tipo gaussiano (v. figura 12).

Se il valore della Resistenza R supera quello della Sollecitazione S il progetto è

costoso, viceversa si ha il crollo, per cui il progetto ottimale è per R d = S d . Il

valore caratteristico dei carichi non deve superare ad esempio il 90% delle probabilità il valore medio, mentre il valore caratteristico della resistenza non deve essere inferiore ad esempio del 90% delle probabilità del valore medio.

I fattori parziali di sicurezza per le resistenze, corrispondono allora al fattore

γR= R k /R d (1-1,64VR)R/Rd, funzione della densità di probabilità accertata di

dispersione dei dati R e del frattile assunto per definire il valore caratteristico.

Al crescere del tipo di dispersione o del coefficiente di variazione VR

caratterizzante la densità di probabilità, e dell frattile da 0,05 a 0,20, cresce pertanto il fattore parziale di sicurezza γR; inversamente risulta:

γS = Sd/Sk = Sd/(1+1,64VS)S per le azioni.

A sua volta l’antico criterio di sicurezza deterministico si basa su un

coefficiente di sicurezza unico che può considerarsi, in base al predetto concetto di distanza di sicurezza, la somma η= γ q +γ m dei fattori parziali o in

base alla probabilità composta meno conservativamente il prodotto η= γ q ×

γ m . Si noti che la distanza di sicurezza ad esempio (v. fig.12) fra la retta di

rottura per attrito ed il circolo di Mohr d’esercizio dell’elemento più sollecitato, rispecchia proprio il modello di distanza in termini deterministici. Gli studi interamente probabilistici si basano poi sull’analisi della variabile aleatoria x l caratterizzata dalla differenza fra la grandezza in esame e

quella limite x l , per cui, allorquando si raggiunge tale stato, risulta x l = 0.

L’indice di sicurezza viene definito allora tramite β = x l /σ

x rapporto fra il
l

valore medio di x l e la sua varianza (studio probab. di livello II di Lind).

P. Ventura – Geotecnica e Fondazioni

Al ridursi pertanto dell’aleatorietà dei parametri che governano il di calcolo

il valore di β ovvero della sicurezza cresce ed il progetto è più affidabile.

I moderni criteri di sicurezza su basi interamente statistiche probabilistiche o

stocastiche (Safety Reliability) si spingono, sul basare la sicurezza direttamente sulla valutazione della probabilità (livello III) che dati eventi non

vengano superati (ad es. p = 10 6 che un caso insicuro si verifica su un milione di eventi) abbandonando i fattori γ. L’attrazione di tale criterio è però fortemente condizionata dalla carenza di misura delle funzioni di distribuzione della densità di probabilità, delle deviazioni standard, riguardanti la dispersione dei dati. Ciò richiede di solito un numero di prove usualmente non immaginabili nei lavori ordinari, con un eccessivo rapporto costi – benefici. Già con un numero di prove inferiori a 10 per ogni dato, il criterio può essere di fatto illusorio, per un interpretazione gaussiana ci vogliono almeno 12 misure, ovvero si vuole quantizzare “l’incertezza della misura dell’incertezza”. Anatole France ricordava in proposito che il “Caso è lo pseudomino con cui si firma il Padre eterno”. Peraltro un’analisi di “sensibilità” degli effetti sul progetto indotti del variare sistematico di V, indipendentemente anche dalle misure dei parametri in gioco, evidenziano quelli che più influenzano la sicurezza, indicando ove concentrare le misure o migliorare i dati ,specie nei casi più delicati , come per il progetto di una centrale nucleare ove è richiesta la massima sicurezza. Al crescere della complessità dei criteri di calcolo, per cercare di descrivere meglio la realtà, il legame tra input ed output per contro si perde, lasciando il senso di incertezza di usare i risultati ciecamente o di fatto validandoli paradossalmente solo se sono dello stesso ordine di grandezza di quelle desumibili con i criteri deterministici specie basati drasticamente sui modelli rigido e elastico perfetti prima descritti. Peraltro la sicurezza sarebbe totale se la realtà fosse ben rappresentata da modelli perfetti, rimanere fittiziamente in tale “certezza” spostando gli “stati limite” dei modelli (figura 3) diviene allora un criterio che è meglio accettare convenzionalmente, anche nello spirito della ginnastica mentale basata sui modelli chiari in cui almeno il modello di calcolo è perfetto, e che oltretutto consentono di dare spazio alle tante altre discipline che contribuiscono al progetto, fondandolii sugli studi classici di Statica e di Scienza delle Costruzioni.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni Fig.13 Aspetti epistemologici della sicurezza 71

Fig.13 Aspetti epistemologici della sicurezza

P. Ventura – Geotecnica e Fondazioni

La sicurezza e la vita dell’opera scaturenti come detto al paragrafo precedente, dal valutare preventivamente nel progetto il rapporto peso – azioni accidentali, le distribuzioni delle masse e delle rigidezze e la loro omogeneizzazione specie in termini di resistenza, fornisce allora pratica certezza. Inoltre il rapporto costi – sicurezza – manutenzione viene equilibrato sino al punto che nei moderni criteri di appalto europei , oltre all’importo lavoro iniziale viene richiesto di valutare i costi di manutenzione per la durata di vita dell’opera. Si pensi in proposito ai ponti romani ancora in esercizio con carichi maggiorati e senza manutenzione quantomeno secolare se non millenaria, e al vecchio detto abruzzese “chi più spende meno spende” a cominciare dai costi dei progettisti, come si ribadirà nel paragrafo finale, se si vogliono accrescere posti di lavoro ai laureati. Quantizzare tutto ciò solo in base al valore aggiunto è immiserire la cultura del progetto che necessita di una preventiva sussidiarietà pubblica, programmata con congrui anticipi e non solo in emergenza. Allontanandosi poi dai due modelli costitutivi classici, rigido per la Statica ed elastico per la Scienza delle Costruzioni, didatticamente chiari, sottoponendoli a continue variazioni di normative che tutto vorrebbero prevedere probabilisticamente o formulare modelli per qualsiasi realtà, è un’altra perdita della limpidezza delle radici dei modelli classici a guidare la ragione. Normative che non possono comprendere tutti i casi della realtà costituiscono una fittizia limitazione di fatto alle responsabilità, proprio quelle che paradossalmente si vuole far rispettare, come evidenziava Nervi nel suo bel volumetto “Scienza o Arte del Costruire” in cui avrei preferito un “e Arte” non per diplomazia ma per armonia (pur se utopistica) fra Ingegneri ed Architetti, almeno per le radici culturali. La complessità della realtà può indurre in diversi tipi di errore nel valutare la sicurezza di un progetto. Il pensiero quantitativo prevale su quello riflessivo qualitativo senza equilibrare il contributo dell’emisfero cerebrale destro “digitale” con quello sinistro “analogico”, scadendo nel riduzionismo illuminista o neopositivista o più estensivamente nell’errore epistemologico indicato nelle tabelle 1 e 2 di figura 13. Il calcolo digitale, dall’etimologico “numerare con le dita” (digit = cifra) valori finiti, al complicarsi dell’algoritmo costringe a fidarsi degli output destando ,come già detto, insicurezza a chi “vuol toccar con mano”. Il calcolo analogico (valori infiniti) trasferendo

P. Ventura – Geotecnica e Fondazioni

aspetti e forme bene studiate, per similitudine, a quelle in esame, specie usando la grafica per descrivere la Statica, è naturalmente più valido per la mentalità degli Architetti. La tecnologia inoltre se non è vista come riflessione sulle metodiche tecniche, fa eccedere nell’uso per cercare di interpretare la complessità, cadendo nel tecnicismo e dimenticando magari metodi ampiamente comprovati in passato. Nell’indagine per gli studi di consolidamento statico si vede ad esempio fare la termografia, prima del rilievo storico della consistenza muraria e del quadro fessurativo. Oppure si svolgono poche raffinate prove geotecniche triassiali erratiche in terreni alluvionali eterogenei che, come prima detto (v. figura 4), vanno invece provati in sito sistematicamente con il penetrometro statico. Situazioni analoghe si verificano in campo sismico. Le procedure inoltre ed i “protocolli” interpretativi delle cause, in particolare con criteri statistici – probabilistici sono usati per incasellare la complessità, cadendo negli eccessi del previsionismo desunto da pochi dati, dimenticando di ascoltare la realtà. La stessa Ricerca “pura” sui modelli deve essere al servizio della realtà come ad es. il triassiale sui campioni ricostitutivi per valutare la variazione della resistenza al variare del grado di sovraconsolidazione o gli studi degli spettri sismici di progetto agli stati limite. La comprensione eccessiva poi della realtà economico – imprenditoriale, può distorcere il rapporto ottimale costi – benefici in termini di sicurezza, cadendo nel permissivismo. Davanti alle vite umane, non quantizzabili in denaro, è opportuno peraltro svolgere l’analisi rischio – benefici con spirito di prevenzione, anziché costi – benefici con relativismo etico o continua emergenza a disastri avvenuti. Per rimanere solo nel merito stretto dell’impiego della modellazione meccanica per valutare la sicurezza di un progetto è opportuno percorrere parallelamente, sia la via verificazionista galileiana o della certezza ammissibile, sia la via confutazionista popperiana o del rischio, quindi dell’errore accettabile. Questi due percorsi per ricercare la certezza se seguiti sino al limite estremo portano rispettivamente o ad un falso determinismo progettuale o all’impossibilità di decidere. E’ evidente che il giusto è fra le due vie, convivendo con una buona disposizione verso gli errori opinabili, nella

P. Ventura – Geotecnica e Fondazioni

speranza che ciò con il massimo discernimento sia compreso dagli assicuratori costretti a quantizzare il male e temperato dai magistrati in parte costretti a separare il bene dal male. Il moderno criterio probabilistico sulla sicurezza tenta, come prima delineato,

di

recuperare i difetti dei criteri di sicurezza deterministici, con il nobile scopo

di

ricercare come meglio contemperare la complessità della realtà e della

dispersione dei dati. Come tutte le ideologie si può cadere però nell’integralismo. La presenza infatti delle coazioni indotte specie dai cedimenti fondali o peggio da terremoti appena pregressi (after shock), oppure i fenomeni di fatica o di usura del tempo agenti sulla resistenza dei

materiali o la sensibile eterogeneità delle strutture o dei terreni, può scardinare la predetta ricerca probabilistica di certezza. Ciò specie nel campo del consolidamento, della geotecnica e delle costruzioni sismiche o resistenti al vento a raffica ed alle mareggiate, oppure all’incendio o addirittura all’esplosione come richiesto dai militari con costi elevatissimi. Le normative si rimettono di fatto peraltro ai criteri deterministici proprio nei predetti campi ove l’aleatorietà è maggiore solo per la carenza di misure della dispersione dei dati.

Si riprendono allora le considerazioni sopraddette dettagliatamente svolte

dal Prof. Nordio Ordinario di Pediatria a Trieste, sulla necessità di “convivenza” con gli errori, pur minimizzati, nella cure dei neonati patologici che richiedono una “sicurezza” massima per evitare sofferenze e lutti. Dal

suo articolo comparso su “Medicina e Morale” sono tratte le tabelle di fig. 13

in cui si pongono a confronto le due classiche vie, verificazionista di Galilei e

confutazionista di Popper per risolvere problemi e fare previsioni.

Il criterio di basare le decisioni sulla falsificazione del modello, per prevedere

la familiarizzazione con gli errori e quindi la scoperta del risultato desiderato,

rovescia il criterio verificazionista in cui il modello decisionale serve per prevedere il risultato e quindi verificare l’errore possibile. Tanti sforzi peraltro protesi a prevenire errori e contenere dispersioni tramite una ciclica aggregazione e disaggregazione dei dati e dei trend noti, non può certo cadere nella “negligenza”, “imperizia” ed “imprudenza”, cause per cui un errore deve giustamente essere incriminato dal Pubblico Ministero. I progettisti non possiedono dogmi come i teologi e sono costretti, ma anche stimolati, dal cercare di superare le difficoltà reali, accettando i margini di

P. Ventura – Geotecnica e Fondazioni

rischio da errori accettabili non capziosi né vessatori, che corre solo chi fa con coraggioso spirito d’iniziativa ,del tipo imprenditoriale sano. I limiti di separare le variabili per analizzarle in modelli mentre sono un valido sussidio didattico, possono opacizzare o cristallizzare la conoscenza della realtà vera, percorribile in ogni caso anche per via qualitativa specie etica. A tal proposito inoltre il Nobel per la Medicina Jacob afferma “…ciò che è vero è che la bellezza e la verità cambiano con le culture e in una stessa cultura con i tempi” senza aprioristici dogmatismi, né facili sincretismi. Per ritornare ancora verso il quantitativo meccanicistico oltre ad incrementare la sperimentazione reologica sino al monitoraggio in vera grandezza per consentirne la ricostruzione “a posteriori” delle caratteristiche meccaniche dei materiali, come descritto nel precedente paragrafo, per meglio propagare i dati di progetti complessi, e trasmettere l’esperienza fra generazioni, è importante introdurre il concetto di stati limite: di esercizio ed a rottura od ultimo. Per lo stato limite di esercizio si può far riferimento ai criteri di sicurezza classici delle Scienze delle Costruzioni all’inizio richiamati, basati sulla limitazione della distanza del deviatore delle tensioni principali ovvero del circolo di Mohr o percorso delle tensioni più sfavorevoli, dalla curva intrinseca di resistenza del materiale in particolare attritiva coulombiana. Più direttamente si possono limitare gli spostamenti e le rotazioni delle strutture in rapporto alle luci (δ/l÷1/500), o porre l’attenzione che non si inneschino fessurazioni per eccesso di trazioni, come delineato in figura 5 sul predimensionamento. Fra i detti criteri quello anche tradizionalmente più impiegato in passato viene definito metodo delle tensioni ammissibili nel quale la tensione di esercizio σ ideale ≤σ amm = σ f /η essendo η il fattore di sicurezza “interno”

deterministico rispetto alla tensione di rottura del materiale σ f . I vantaggi di

tale metodo, generalizzato nell’analisi allo stato limite di esercizio oltre a quelli detti di controllare le frecce elastiche e quindi le rigidezze e di predimensionare il calcolo specie iperstatico, nel caso del cemento armato consente di usufruire della semplificazione, di omogeneizzare il ferro con il cemento tramite il rapporto dei moduli e soprattutto di controllare l’aderenza dei ferri nei nodi vincolandoli idoneamente.

P. Ventura – Geotecnica e Fondazioni

Il

metodo però presenta diverse critiche specie per il c.a. ove il calcestruzzo

si

fessura già in campo d’esercizio, pur elastico in compressione, per cui è più

realistico esaminare lo stato limite a rottura specie al taglio per esaminare i margini di sicurezza reali. I vantaggi di tale analisi sono quelli di tener conto più realisticamente dell’aleatorietà dei carichi (che esasperano le rigidezze nell’analisi puntuale elastica ovvero priva di qualsiasi punto plasticizzato) e di basarsi su fattori di sicurezza “esterni” contemperanti le plasticizzazioni. E’ consentito poi di valutare il ruolo della duttilità (v. figura 9) e rapportando la sicurezza a sollecitazioni resistenti ben quantizzabili sperimentalmente. Per tale ragione le moderne normative richiedono di svolgere i calcoli in base

allo stato limite di rottura da affiancare a quelli dello stato limite di esercizio per usufruire anche dei vantaggi di quest’ultimo. Per ambedue gli stati limite sono state descritte le corrispondenti combinazioni delle azioni e dei relativi fattori parziali di sicurezza (v. fig. 6a,b) da accoppiare a quelli penalizzanti le resistenze (v. figura 3). La Didattica e l’uso del Calcolo nella progettazione ha subito una forte modificazione con l’avvento del calcolatore. La manualistica che prima si basava su analisi parametriche riassunte in “carte universali” o in “nomogrammi” o in pazienti tabulazioni, oggi sono solubili caso per caso evidenziando con l’analisi di sensibilità i parametri che più influenzano il progetto.

I fogli elettronici e i data base non pongono limiti all’entità dei dati

manipolabili e ciò consente di tener conto di un numero elevatissimo di equazioni per ciascuna condizione di carico, o legge costitutiva, o aleatorietà varie. E’ evidente però quanto siano dapprima necessari gli insegnamenti classici ad iniziare da quelli di Statica grafica, e la valutazione degli ordini di grandezza dei fenomeni da valutare con calcoli in “forma chiusa” in modo da effettuare un sano predimensionamento. La cultura acquisita dal passato si combina così con l’evoluzione presente, senza nostalgie o eccessi di avanguardia, rimanendo soprattutto al servizio dell’uomo.

P. Ventura – Geotecnica e Fondazioni

P. Ventura – Geotecnica e Fondazioni

I.6 IL RUOLO DEGLI ASPETTI TECNOLOGICI ORGANIZZATIVI ED ECONOMICI

I criteri di sicurezza dati nel precedente paragrafo in termine di “stati limite” e di vaglio dell’aleatorietà dei parametri in gioco nella pratica realizzativa sono influenzati dal comportamento di una vasta gamma di operatori. E’ evidente l’importanza delle modalità e dei tempi di finanziamento di un’opera a cominciare dagli incarichi per la progettazione esecutiva prevedendo il coordinamento della gestione dei lavori divenuta sempre più articolata con il fiorire delle specializzazioni. La progettazione preliminare, incentrata sullo studio di fattibilità, e seguita da quella definitiva, articolante le scelte generali e dalla progettazione esecutiva incentrata sui particolari costruttivi, deve pertanto essere effettuata con congruo anticipo. Il conseguente computo metrico estimativo sui quali si valutano i margini di profitto, deve svolgersi nei casi più complessi, quali quelli nel campo della geotecnica, del consolidamento o di opere stradali, ferroviarie o marittime, introducendo anche interventi prototipo – pilota strumentati, in sintonia con realistici finanziamenti per stralci successivi. Ciò consente di affrontare studi sperimentali con l’ausilio del monitoraggio, in cui tutte le capacità dei partecipanti sono esaltate per estrapolare dati da esperienze ed analisi dei costi di opere consimili già realizzate, in modo da trovare il giusto equilibrio fra costi e sicurezza. Solo al ridursi della complessità le previsioni di progetto “al computer” od “a tavolino” ,come già evidenziava Coulomb, sono possibili in termini strettamente statici e senza far ricorso alla sperimentazione in sito.

A titolo esemplificativo, la scelta del tipo di opere di sostegno (v.III.6) dipende

fortemente dai vari tipi di meccanismo di collasso e di stato limite ammesso per

la