Sei sulla pagina 1di 56

IGIENE AMBIENTALE ED OCCUPAZIONALE APPLICATA

1. PROBLEMATICHE NELLA VALUTAZIONE DELL’ESPOSIZIONE AD AGENTI CHIMICI

Nel campo dell’igiene occupazionale, non si può essere esperti in tutto, i rischi per i lavoratori possono essere molto variegati, difatti
si hanno igienisti esperti di rischi chimici o fisici, si possono avere igienisti che sono esperti sia dal punto di vista chimico che
biologico, ma raramente si hanno esperti sia a livello fisico che biologico.

La valutazione del rischio è suddivisa in più step e ciascuno di essi ha diversi errori ai quali stare attenti, la premessa è che ci sono
alcuni fattori di rischio (pericoli) in alcuni scenari di vita e di lavoro.

PERICOLO: proprietà intrinseca di un fattore di rischio, avente il potenziale di poter causare un danno, che può essere
infortunistico, oppure trauma, oppure rischio di sviluppare malattie o effetti e quindi modificazioni che possono diventare delle
patologie. I pericoli sono di diverse tipologie: agenti fisici, chimici e biologici.

RISCHIO: è la probabilità che si verifichi un danno nelle reali condizioni di impiego e/o esposizione di quell’agente di pericolo.
L’esposizione deve esserci, altrimenti il rischio sarebbe 0.

DANNO: modificazione dello stato di salute di una persona, si verifica quando si ha un pericolo e quindi un rischio.

ANALISI DEL RISCHIO: è l’insieme delle fasi per analizzare il rischio, ci dice sia quali sono i pericoli e i rischi e come
comportarsi per ridurre il rischio. Questa analisi si effettua sulla salute umana, la quale viene modificata dagli stessi uomini, che
aumentano i pericoli, poiché introducono maggiori sostanze nocive, quindi maggiori agenti di rischio.
L’analisi del rischio è costituita da tre principali fasi:

1. Valutazione del rischio (REACH), è una fase accurata. Costituita da più fasi:
--Identificazione del pericolo: cioè individuare i pericoli presenti all’interno di uno specifico ambiente. Con le caratteristiche
chimico-fisiche.
--Relazione dose-risposta: è il rapporto quantitativo tra la dose (quantità assorbita dall’organismo di quel pericolo) e la risposta in
termini di effetti avversi sull’uomo stesso. Può essere molto basso, quindi la dose deve essere massiccia perché si abbia una risposta,
oppure può essere alto, quindi basta poca dose perché si abbia la risposta.
L’insieme dell’individuazione del pericolo e della relazione dose-risposta dà origine alla valutazione del pericolo.
--Valutazione dell’esposizione: si valuta l’esposizione, cioè il contatto tra la persona e quel fattore di rischio, perché senza
esposizione, non c’è il rischio, difatti il rischio è dato da: R= PxE. Importante anche considerare le vie di esposizione: inalatoria,
cutanea e ingestione.
--Caratterizzazione del rischio: se si hanno buoni dati sulla valutazione del pericolo e sulla valutazione dell’esposizione, si può
caratterizzare il rischio, che è l’insieme delle fasi precedenti.

2. Gestione del rischio (REACH e CLP), è una fase che è più complessa della valutazione, ma è comunque valida. Viene effettuata
dai politici, dai gestori delle imprese.

3. Comunicazione del rischio (CLP), la comunicazione del rischio non è molto efficace, spesso non si riesce a comunicare in modo
efficiente. La comunicazione avviene attraverso comunicatori del rischio, non è molto efficace, perché i mass-media spesso hanno
fattori che influenzano l’efficacia e spesso il dato scientifico viene travisato.

REACH e CLP sono due regolamenti europei, che vengono utilizzati per la valutazione del rischio chimico, il REACH (1907/2006)
è la registrazione, valutazione, autorizzazione e restrizione delle sostanze chimiche. Fondamentale per la valutazione del rischio e
la gestione del rischio. Il CLP (1272/2008) è un regolamento riguardante la classificazione, etichettatura e imballaggio delle
sostanze. l’etichettatura riporta i pericoli delle sostanze, come si devono usare, quindi fondamentale per la comunicazione del
rischio, ma anche la gestione del rischio, perché guida la realizzazione delle E-SDS, cioè le schede di sicurezza.

IGIENISTA INDUSTRIALE: in ambito occupazionale i compiti sono ben definiti, mentre in campo ambientale è più complesso.
L’igienista industriale si occupa di identificare i pericoli, deve quindi conoscere bene gli ambienti di lavoro e deve sapere maneggiare
relazioni dose-risposta, che sono spesso definiti attraverso valori limite. Può produrre la valutazione dell’esposizione, non può
assolutamente dare origine a dati relazione dose-risposta.
L’igienista industriale deve valutare l’esposizione ai pericoli ed è in grado di caratterizzare il rischio, sono difatti dei valutatori del
rischio.

VALUTAZIONE DEL PERICOLO

L’identificazione del pericolo fa parte della valutazione del pericolo, i pericoli possono essere di tre nature: infortunistici, sono
fattori di rischio per la sicurezza (strutture, macchine, impianti elettrici, sostanze pericolose, incendi ed esplosioni), igienistico-
ambientale, sono fattori di rischio per la salute (agenti chimici, fisici e biologici) oppure trasversale, includono entrambe le sfere,
quindi sono fattori di rischio sia per la salute che per la sicurezza (organizzazione del lavoro, fattori psicologici, fattori ergonomici,

pag. 1
condizioni di lavoro difficili), come ad esempio la movimentazione manuale dei carichi, che possono dare rischi per la sicurezza
(trauma) oppure per la salute (ernie).
Identificare il pericolo significa capire quali agenti chimici, fisici o biologici siano presenti, conoscere le loro proprietà chimico-
fisiche (volatilità, coefficiente di ripartizione ottanolo-acqua), come si generano (se derivano dalle materie prime, se si generano dal
processo, oppure attraverso combustioni, oppure attraverso riscaldamento) e dove si trovano (quindi dove sono collocati, perché
ogni attività lavorativa è esposta in maniera diversa).

Tutto questo processo si fa attraverso delle analisi documentali, attraverso gli uffici acquisti, che ci permette di sapere quanto è stato
acquistato e attraverso le schede di sicurezza (SDS o e-SDS) che danno la composizione della materia prima e quindi le sostanze
presenti in quelle materie prime e la pericolosità di tali sostanze. In più si possono richiedere indagini igieniche precedenti, dati si
sorveglianza sanitaria, inoltre ci sono i registri degli infortuni, verbali degli organi di vigilanza, strumenti aziendali di informazione
sul rischio, dati di letteratura e sopralluoghi.

Nelle grandi produzioni, servono gli schemi di processo, che sono schematizzazioni del ciclo di produzione. L’RSPP e il medico
competente sono fondamentali per ottenere le informazioni. Questo accade nella riunione periodica, cioè una riunione annuale
svolta dalle figure di prevenzione.

Nelle grandi realtà si ha anche l’HSE managment, che ha una visione globale sulle attività preventive, sia per la salute umana che
per l’ambiente.

Gli step per l’identificazione del pericolo sono:

-VERIFICA DELLA PRESENZA: tutti gli agenti chimici (sostanza o miscela) presenti nel luogo di lavoro, analizzando tutto il
ciclo di vita di questi nell’azienda. Nelle aziende capita che l’appalto sia dato da un ente esterno (ad esempio la pulizia), quindi
l’attività può portare ad esposizioni a polvere depositate più o meno tossiche, quindi significa che nel ciclo di vita dell’azienda, si
intenda tutto il periodo di lavoro. Quindi si devono considerare le materie prime, i prodotti intermedi, i prodotti di reazione (dovuti
alla presenza di sostanze reattive, come l’ozono, l’ozono infatti può reagire con etanolo o limonene, solo che il prodotto di reazione
è ad esempio la formaldeide, che è cancerogena; la quale è stata individuata nella professione del panificatore), i prodotti finiti, i
prodotti secondari, rifiuti/scorie.

La domanda da porsi è se le sostanze elencate, le quali sono identificate con il CAS, la percentuale presente in quella miscela, queste
percentuali non tengono conto di sottoprodotti o impurezze, che sono inferiori allo 0.1% in peso, perché sono talmente pochi che
sfuggono o non si considerano (ad esempio la cava di ceramica in Sardegna presentava impurezza da asbesto, quindi questo è un
problema che ha portato alla chiusura della cava, nel caso di contaminazione di sostanze CMR→ cancerogene, mutagene, si può
dover rispondere a livello penale).

Quali possono essere le problematiche: potrebbe esserci la non corretta identificazione della sostanza, ad esempio se avessimo
TiO2, cioè biossido di titanio, usato per il bianco delle vernici, per il bianco della carta e così via. Il biossido di titanio può essere
presente in natura in polimorfi diversi, quindi stessa formula, ma proprietà cristallina diversa, quindi cambiano le proprietà chimico-
fisiche e tossicologiche, inoltre si è in grado di produrre sostanze in nanoforma (nanomateriali), che hanno proprietà chimico-fisiche
e tossicologiche diverse di sostanze in forma micro o milli.

Ad esempio, il biossido di titanio in forma nano viene usato per la cosmesi, oppure ci sono anche la broochite e l’anatasio, usato per
applicazioni di alto livello, come ad esempio per il duomo di Milano, perché protegge le superfici e non le fa annerire, inoltre anche
per abbattere le emissioni.

Rutilo e anatasio sono le due forme più commerciali, il nano-rutilo è usato per la cosmesi, invece il nano-anatasio ha proprietà che
induce mutagenesi.

INTAKE: ingresso dall’esterno all’interno dell’organismo, attraverso una via di esposizione (inalatoria, cutanea e ingestione). La
via di esposizione è importante per la tossicità delle sostanze.

UPTAKE: è il processo attraverso cui la sostanza passa al bersaglio biologico.


Anche gli amianti hanno vari polimorfi, spesso è difficile riuscire a separare i polimorfi, poiché sono molto simili dal punto di vista
chimico-fisico, ma tossicologicamente sono diverse. Per separare tali sostanze servono indagini ottiche, come la tecnica
difrattometrica su elettroni. Come amianto e antigorite.

-ANALISI DEGLI ASPETTI CHIMICO-FISICI: è la fase di inizio della caratterizzazione del pericolo, dalle proprietà chimico-
fisiche dipende l’esposizione e l’intake. Spesso l’esposizione dipende dalla volatilità delle sostanze, perché passando in atmosfera
è più semplice l’esposizione, perché l’uomo deve respirare e quindi assorbe queste sostanze. un’altra proprietà chimico-fisica è la
polarità, dalla quale dipende l’intake cutaneo, le sostanze polari difficilmente penetrano la barriera cutanea, mentre sostanze apolari
possono passare in maniera efficace. La difficoltà è riuscire a capire cosa succede in condizioni non standard, ad esempio quando si
riscalda. Ogni sostanza deve essere classificata in Europa, in funzione della classificazione si sa se quella sostanza è pericolosa,
cancerogena, mutagena o reprotossica o teratogenica (sostanza che ha effetti sul feto).

pag. 2
Anche la reattività di una sostanza e la stabilità di una sostanza è funzione della termodinamica.

Importante anche il coefficiente di ripartizione ottanolo-acqua.

-CONOSCENZA DELLE CARATTERISTICHE TOSSICOLOGICHE: una fonte di informazioni importante è il database


HSDB o anche il sito dell’ECHA. Le conoscenze tossicologiche derivano da studi dosi-risposta, che derivano dalla tossicologia in
vivo, dato che sono più rappresentativi gli animali rispetto a soli organi (prodotti da tossicologi, ecotossicologi). Ci interessa l’effetto
critico, cioè la concentrazione minima alla quale si verifica l’effetto avverso su un determinato organo. Quindi alla più bassa dose
si verifica l’effetto, ad esempio per il benzene è l’effetto cancerogeno.
Bisogna definire gli effetti in base ai tempi di esposizione, abbiamo effetti acuti, sub-acuti e cronici. Bisogna sapere se una sostanza
ha effetti sia sul breve che sul lungo periodo, perché in questo particolare caso si avranno due valori limite, uno sul breve periodo
(15 minuti) e uno sul lungo termine (8 ore, per 5 giorni la settimana, per tutta la vita).
Una sostanza può essere pericolosa in funzione della via di esposizione, tutti gli aerosol solidi, cioè le polveri (legno, minerali, silice
cristallina, polveri di suolo, polveri di abrasione degli pneumatici), non possono penetrare la cute, quindi la via di esposizione
cutanea è irrilevante, mentre è importante quella inalatoria, ad esempio per l’asbesto.

-CONOSCENZA DELLE SORGENTI: nel momento in cui siamo vicini alla sorgente, saremo esposti a molte particelle, a decine,
centinaia o migliaia di particelle a m3, che si aggregano a dare particelle più grandi, da nanometri fino al micrometro. Quindi è
importante conoscere il numero, tipo e posizione delle sorgenti, il tasso di emissione della sorgente, modalità di dispersione in
atmosfera, processi di trasformazione post-emissione. I lavoratori più esposti sono quelli vicini alla sorgente se le particelle sono
superiori a 0.1 micrometri, perché in lontananza dalla sorgente, sedimentano, mentre particelle più piccole di 0.1 micrometri,
rimangono in atmosfera. Quindi importante sapere se la sorgente sia INDOOR o OUTDOOR.

-COME SI GENERANO: è importante conoscere la realtà aziendale, per non perdersi attività fondamentali, sono fondamentali le
persone, nel caso di ambienti di vita, le persone suscettibili, mentre negli ambienti di lavoro, i lavoratori. La materia prima, ad
esempio, per la produzione dell’ABS non è pericolosa, ma per stampare ad esempio i lego, si deve scaldare il granulato, che rilascia
sostanze organiche volatili (VOC). Quindi fondamentale è conoscere il processo. Questi VOC sono sottoprodotti indesiderati, sono
incidentali. Quando c’è alta temperatura, c’è anche il combustibile. Quindi un’analisi basata solo sulle SDS non si può fare.

-APPROFONDITA CONOSCENZA DEL CICLO PRODUTTIVO: analisi complessiva dell’impianto, delle mansioni
lavorative (se non si sa cosa fanno i lavoratori, si perde un pezzo fondamentale), conoscere le procedure operative, conoscere le
misure di gestione, la manutenzione (ad esempio le macchine a ciclo chiuso vengono aperte per essere pulite, di solito una volta al
mese o una volta ogni tre mesi, sottoponendo il lavoratore ad alte esposizioni), la pulizia, inoltre fondamentale è se conoscendo il
ciclo produttivo, la sostanza è autorizzata per quel tipo di lavoro (scenari di esposizione), se così non fosse, allora o si sarebbe contro
l’autorizzazione, oppure servirebbero delle indagini approfondite.

VALUTAZIONE DELL’ESPOSIZIONE

Fase fondamentale, si cerca di indagare lavoratori che abbiano andamenti di esposizione nel tempo che siano assimilabili, perché
spesso le esposizioni sono diverse, anche durante l’arco della giornata, si deve quantificare l’esposizione.

L’esposizione è il contatto tra agente tossico e individuo, quando si parla di sostanze chimiche, l’esposizione è espressa come
concentrazione (massa/volume, mg/m3), quando si parla di esposizione inalatoria, ma per via cutanea si riferisce in massa/superficie
(mg/cm2). Queste concentrazioni variano nel tempo, quando si parla di confronto con i valori limite, quindi quando si effettuano
campagne di misura, si calcola esposizione media su un tempo di riferimento, definito dal VL.

È in funzione del tempo di riferimento l’esposizione.

In alcuni casi potrebbe essere rilevante un’esposizione cumulativa, cioè date le concentrazioni e l’andamento temporale, quale sia
l’esposizione totale di un individuo di sostanze bio-persistenti.

Quindi nel tempo t2, avremo l’esposizione totale, quindi una sommatoria. Se dividessimo l’integrale per l’intervallo di tempo, si
otterrebbe una concentrazione media (esposizione media).

Per sostanze irritanti, corrosive, narcolettiche, non è importante l’esposizione media, ma l’esposizione istantanea.

APPROCCI POSSIBILI PER VALUTARE L’ESPOSIZIONE: monitoraggio ambientale (campionamento sulla matrice
ambientale, quasi sempre si tratta di aria, in alcuni casi è la via cutanea e altri casi quella per via di ingestione→ campionamento
personale in area respiratoria, determinando analiticamente una massa del pericolo, rapportandolo al volume campionato),
monitoraggio biologico (dose interna, con le concentrazioni nei fluidi ematici, quindi si analizza un metabolita per poter risalire
all’esposizione) o modelli di stima dell’esposizione (approcci indiretti).

pag. 3
Il monitoraggio è una misura quantitativa con metodi standardizzati della contaminazione, cioè modifica delle concentrazioni
naturali, sono importanti la concentrazione e il tempo di esposizione, si deve avere sotto controllo il profilo di esposizione, cioè
l’andamento nel tempo dell’esposizione stessa, che dipende dalle sorgenti, dai movimenti della persona e le modalità di esposizione,
quindi in che modo è esposta la persona, quindi in che stato fisico sono le sostanze, quali sono le vie di esposizione e così via. Il
monitoraggio è un’attività ricorrente e sistematica. Il monitoraggio ambientale è quello più standardizzato, quello biologico lo è
abbastanza, mentre i modelli di stima sono meno standardizzati, sono meno precisi.

I soggetti che vengono per primi considerati sono i lavoratori, perché in ambito lavorativo le concentrazioni sono maggiori.
Quando dobbiamo programmare un’indagine di igiene ambientale o occupazionale, dobbiamo essere in grado di rispondere a molte
domande: qual è l’indicatore temporale migliore per la valutazione del rischio (24h negli ambienti domestici, 8h negli ambienti di
lavoro, istantaneo per i cancerogeni); quali sono le vie di esposizione rilevanti; quale interfaccia uomo-ambiente devo indagare, cioè
se dose esterna o interna (se voglio un’informazione utile degli effetti su quel soggetto è migliore quello biologico, mentre
ambientale in altri casi).

L’approccio generale è fatto da:


-Analisi documentale
-Stima quantitativa dell’esposizione per valutare il rischio, attraverso i valori limite, se non esistono valori limite, bisogna analizzare
la letteratura scientifica
-Incrocio tra dati ambientali e sanitari, per capire se il dato è un dato affidabile, il documento deve essere consegnato al datore di
lavoro negli ambienti di lavoro, ai sindaci per i comuni
-Programmazione di misurazioni periodiche per controllare la variabilità temporale della esposizione, la periodicità può essere un
anno o 3 anni.
-Riduzione del rischio, non avviene se si ha un valore accettabile, non serve ridurre, mentre se fosse non accettabile, servirebbe la
riduzione del rischio, quindi che fa parte della gestione del rischio.

MONITORAGGIO AMBIENTALE

Quando si effettua un monitoraggio ambientale a livello occupazionale, ci si riferisce alla via inalatoria (come ad esempio la silice
cristallina, la quale ha un metodo standardizzato NIOSH, che può essere utilizzato, indicandolo. Esistono le norme tecniche ISO,
che hanno valore internazionale, poi ci sono quelle invece che hanno valore europeo e altre a livello nazionale). Quindi ci sono dei
metodi standardizzati per il monitoraggio ambientale, meno in quello biologico e nei modelli non c’è quasi nulla.

L’ideale è quindi usare un metodo standardizzati per il campionamento e l’analisi e anche una strategia standardizzata, poiché il
metodo standardizzato dovrebbe essere stato controllato molto e quindi utilizzandolo, si permette di ridurre l’errore, quindi in modo
da poter confrontare i dati e anche perché nei metodi standardizzati si cerca di lavorare meglio, attraverso strumenti più avanzati.

La strategia standardizzata è molto più generale e complessa, non è solo dal punto di vista del confronto. La norma UNI EN 689, è
una norma che permette di spiegare la strategia per via inalatoria per il rischio chimico. Quindi ha un approccio multilivello, si parte
da una valutazione iniziale, se non avesse dato esito conclusivo all’analisi di base, cioè ad approcci semi-quantitativi (come le
tecniche con fiale colorimetriche, che permettono di capire l’ordine di grandezza dell’esposizione). Se il valore è più basso del VL,
allora va bene e si conclude il monitoraggio, mentre se il livello di esposizione è alto, allora si passa ad un’analisi dettagliata, a un
piano di campionamento, con selezione di lavoratori su cui fare il campionamento (gruppi omogenei di esposizione). La norma
permette di capire se effettuare poche o molte misure. Si deve tener conto del numero di campioni, sui livelli di esposizione e la
variabilità di tali livelli, perciò se la deviazione standard è alta, allora significa che la variabilità è alta, quindi l’esposizione è molto
diversa nel tempo.

L’approccio del 1997 è il seguente: quando si esegue un’analisi dettagliata, quindi campionamenti atmosferici, bisogna scegliere i
soggetti (GOE→ gruppi omogenei di esposizione). O si lavora con un criterio rappresentativo, quindi ciò che succede
normalmente, oppure l’alternativa è un approccio di tipo cautelativo, quindi si lavora nel peggior caso possibile, quindi con
campionamenti in prossimità delle sorgenti, sovrastimando il rischio, non si deve mai sottostimare il rischio, si usa solitamente in
ambiti dove non si può avere il profilo di esposizione media, ad esempio nell’edilizia, perché nell’attività di cantiere si hanno attività
lavorative molto diverse; oppure quando conoscendo il ciclo produttivo e le sostanze, posso presupporre che il livello di
concentrazione è piuttosto basso, allora si peggiora la situazione, perché si pensa che anche in condizioni peggiori le concentrazioni
sono comunque sotto controllo. Il numero di misurazioni per soggetti, tipicamente la norma dice di effettuare 6 misure per gruppo
omogeneo, così da fare misure statistiche.

Inoltre la norma dice che sempre deve essere privilegiato il monitoraggio personale, quindi ogni lavoratore è investigato, con
strumentazione miniaturizzata indossata dal singolo lavoratore e la sonda del lavoratore deve essere inserita nell’area respiratoria
(emisfera di 30 cm di raggio che si trova vicino alle vie respiratorie), oppure campionamento fisso, poiché in alcuni casi il
monitoraggio personale non è possibile, perché per alcune sostanze è necessaria strumentazione ingombrante per avere
discriminazione, ad esempio per le nano-particelle, quindi si usa il monitoraggio ad area o micro-ambientale. Il monitoraggio in
postazione fissa è rappresentativo per un lavoratore che non si muove.

pag. 4
La valutazione si effettua sia sostanza per sostanza, che per miscele, anche questo è indicato nella norma 689, ad esempio tutte le
persone sono esposte a molte sostanze disperse in aria, come benzene, VOC, perciò si identificano i pericoli, si valuta singolarmente
il pericolo per ogni sostanza, si confrontano con il VL e poi si fa anche una valutazione per le miscele.

Per ogni sostanza ci sono metodi standardizzati per il campionamento e l’analisi, la scelta dipende dalla sensibilità della metodica,
se mi aspetto alte concentrazioni, mi possono andar bene metodi a basso costo, perché comunque le concentrazioni sono elevate.
Anche l’accuratezza e la sensibilità del dato sono importanti, se le concentrazioni sono piuttosto base rispetto al VL, si possono
anche accettare incertezze maggiori. La scelta dei metodi prevede che possano essere diretti (sul campo) o indiretti (con il substrato
di campionamento). La metodica da utilizzare è anche in riferimento al tempo legato al VL, quindi se possibile, l’ideale sarebbe
quello di utilizzare una tecnica real-time, per verificare che non ci siano picchi di esposizione (short-term). Alcune tecniche sono
ideali per il campionamento short-term o long-term. La risoluzione temporale è quindi importante.

Il problema che si verifica spesso è che per l’analisi si abbiano dei valori con un’accuratezza ben definita, mentre per il
campionamento ci siano dei valori che inficiano sulla misura.
Importante anche l’intervallo di concentrazione atteso, per capire la tecnica da usare, quindi se giungere a una misura su ppm o ppb
o ppt.

La scelta del metodo più corretto è un aspetto che viene abbastanza gestita bene, mentre è più difficile vedere misure che riportino
accanto al dato misurato l’incertezza della misura. C’è la norma UNI EN 482, che descrive come calcolare l’incertezza delle misure.

Bisogna scegliere il miglior approccio alla misura: per gas e vapori esistono diverse tecniche, come tubi in acciaio intaccati con
sostanza adsorbente (carbone attivo o zeoliti), in grado di trattenere il vapore, si usa una pompa che inserisce aria all’interno. Poi in
laboratorio si determina la massa sul volume di aria. Può essere usato per campionamenti anche short-term quando si lavora
attivamente (pompa), mentre quando si lavora passivamente con semplice diffusione, perché si raccoglie poca sostanza e sul breve
periodo si rischia di essere sotto il LOD.

Esistono anche analizzatori real-time, che permettono di rilevare le concentrazioni e i livelli di esposizione, con ad esempio sensori
miniaturizzati, che però danno dato di qualità peggiore, quindi con questi si ha il profilo dei livelli di esposizione, avendo un
controllo ad alta risoluzione temporale. Si ha scarsa accuratezza delle misure e per aerosol funzionano male. Perciò ora come ora si
deve evitare di utilizzare e basarsi sui metodi real-time, dato che hanno molti interferenti.

Per alcune sostanze funzionano però bene, come CO2 o anche CO, per gli ossidi di azoto non vanno bene.

Per gli strumenti più costosi, non miniaturizzati, danno dati molto precisi e accurati, ad esempio usati nelle centraline per la
protezione dell’ambiente.

Se volessi una misura multi-parametro, si deve usare una postazione fissa, come l’utilizzo di più strumenti in una valigia o uno
zaino.

Il monitoraggio real-time, permette di avere un’idea di quanto incida una certa sorgente o attività sull’esposizione totale (globale,
giornaliera), poiché alla fine dell’attività lavorativa, i lavoratori compilano una scheda delle attività svolte, in modo tale che si riesca
a capire quale sia l’attività più problematica e quindi migliorare la gestione del rischio, è fondamentale che la relazione tecnica
finale abbia al suo interno una serie di informazioni chiave, ad esempio se ho lavorato ai sensi della norma 689, ma se ci sono
modifiche, di riportare il motivo.

Nei DVR, cioè nei documenti di valutazione del rischio (relazione tecnica) si deve riportare: oltre ai materiali e metodi, si deve
indicare quali siano le scelte strategico-metodologiche, i parametri ambientali e interferenti (come la temperatura, oppure l’ozono,
che è interferente della formaldeide, quindi occorrono dei metodi che evitino queste modifiche, come scrubber dell’ozono), la qualità
del dato, le indicazioni per il futuro (ad esempio la periodicità delle prossime misure, che dipende dalla vicinanza delle misure con
il VL), valutazione temporale (quindi se la situazione sta migliorando o peggiorando rispetto al passato), indicazioni della gestione
del rischio. se non ci fossero complicazione, il documento si conclude, altrimenti l’esperto (l’igienista può essere classificato in
tipologie diverse, a seconda dell’esperienza: esperto, senior) deve dare informazione sulla valutazione del rischio o dare delle
strategie che potrebbero risolvere il problema, dando anche magari informazioni costo-beneficio.
Se le condizioni sono le stesse del passato, si possono utilizzare i dati del passato, per effettuare valutazioni più precise.

Le relazioni si chiudono con due tipi di analisi:


-test preliminare, che indica la concentrazione (se più bassa dell’LOD, si mette <LOD), il valore limite e l’indice della sostanza.
Se ho molti dati sul gruppo di soggetti analizzati e ho una misura che supera il VL, si può accettare, attraverso la probabilità, si
considera la concentrazione su scala logaritmica, che si pone sull’asse X, mentre asse Y la probabilità, se si distribuissero su una
retta, saremmo in una condizione di log normale. Questa è una concentrazione classica degli ambienti, perché il logaritmo di un
qualsiasi numero non può mai essere negativo, perché quella a log normale non prevede dati negativi. Questo dato ci permette di
dare un dato molto chiaro, che ci permette di chiudere l’esposizione, perché con la retta riusciamo a vedere la probabilità di superare
il VL, quindi se alta, significa che non si può accettare quel valore. Si osservano gli intervalli di confidenza che sono intervalli che
ci dice che c’è variabilità, quindi si tiene conto della variabilità spazio-temporale.

pag. 5
Perciò se ho poche misure si determina l’indice della sostanza, mentre se avessimo molti dati, si può costruire il grafico descritto
prima.

Quindi si effettua screening test per pochi dati e compliance test per molti dati (UNI EN 689), mentre la UNI EN 482/98, ci dice
degli errori che possono essere presenti, quindi variabilità casuale, sistematica, calcolando l’incertezza globale di misura, tenendo
conto di più elementi statistici, partendo dall’inizio (preparazione), al momento della misura, perdita di campionamento. Tutto ciò
viene messo assieme in una relazione, gli errori non si sommano, ma si moltiplicano.

Il monitoraggio ambientale è importante per la valutazione dell’esposizione, per individuare le sorgenti, per avere idee per la
valutazione del rischio, per poter attivare procedure del controllo del rischio, gestione del rischio in tempo reale, valutando anche la
gestione futura (per valutare l’efficacia (se è stato risolto il problema, quindi se si o no) e l’efficienza (quanto si è ridotto rispetto a
prima), occorre una misura pre e post, per quantificare l’efficienza di mitigazione dei livelli di esposizione), controllo delle
emergenze, documentare l’esposizione nel tempo, predisporre studi tossicologici o epidemiologici (genotossicità e epigenetici),
validare le stime previsionali (VIS o VIA, quindi si effettuano delle valutazioni prima che l’impianto entri in funzione, tramite stime,
poi si passa a misure vere e proprie (monitoraggio ambientale) nel momento in cui il sistema entri in funzione).

Quindi il monitoraggio ambientale fornisce informazioni quali-quantitative attendibili sulla dose esterna, non è inficiata da altri
confondenti individuali, ad esempio l’interferenza ci può essere per il fumo di sigaretta, ma non è inficiato dall’inquinamento, dalla
dieta e così via. È utile per i valori di fondo, perché bisogna capire chi è il responsabile, ad esempio in un polo petrolchimico, ci
sono molte fasi di lavorazione, quindi se il lavoratore è esposto ad alti livelli di una sostanza, si chiude l’esposizione, sapendo però
il valore di fondo, calcolando il contributo aggiuntivo per fare una valutazione compiuta. Quando si parla di particelle ultrafini, si
hanno livelli di fondo elevati, perciò sono importanti per sapere nell’ambiente quali sono i valori di fondo, per far sì di individuare
un errore, quale ad esempio indicazione che siano più bassi i valori dell’LOD, quando quella concentrazione come valore di fondo
è superiore, perciò in un’azienda non possono essere inferiori.

Il monitoraggio usa metodi di campionamento e analisi standardizzati e permette un’identificazione delle sorgenti e determinanti.
Lo svantaggio è il fatto degli interferenti, potrebbe capitare che non si possa effettuare il monitoraggio ambientale su alcune sostanze,
perché non si hanno metodi scientifici adatti, inoltre il monitoraggio ambientale, fa la fotografia riferita alla giornata lavorativa,
però non si sa cosa succede nei giorni successivi, quindi non si sa se sia rappresentativa oppure se si è utilizzato un approccio worst-
case. Questo è un problema a parte nelle aziende a produzione standard. Inoltre stima la dose esterna, ma non quella realmente
assorbita, considera inoltre singolarmente le vie di esposizione, quindi effettuare una valutazione da tutte le vie è lungo, costoso e
complicato.

MONITORAGGIO BIOLOGICO

Il monitoraggio biologico può essere molto utile nella valutazione del rischio chimico, solo in alcuni casi specifici. Non ha nulla a
che fare con gli agenti biologici, è da riferirsi quando si parla di valutazione dell’esposizione, per agenti chimici. Il monitoraggio
biologico si può usare anche per valutare delle problematiche legate ad esempio ai virus, come il COVID.

Quindi è l’avvenuta esposizione di un soggetto, prima del monitoraggio. Può essere usato per alcuni casi, solo quando ci si può
ricondurre a studi per indicatori biologici di esposizione, che è la presenza di un metabolita della sostanza inalata, in certe
concentrazioni, all’interno dei fluidi biologici, anche i capelli, che sono molto utili per l’uso di sostanze stupefacenti, analisi fatte
per i lavoratori che utilizzano mezzi quali bus, camion. Deve essere specifico e sensibile (in grado di identificare l’esposizione, con
una certa percentuale di falsi negativi e minimizzare i falsi positivi, cioè se trovo quell’indicatore, questo deriva da quella sostanza
e non da altre); ad esempio la codeina è un metabolita di una sostanza stupefacente, ma anche di principi attivi usati per scopi
farmaceutici (antidolorifici).

Non si può sempre fare, perché è piuttosto difficile trovare per quel pattern tossico-cinetico i metaboliti. Quando si hanno gli
indicatori biologici di esposizione, si possono avere dei vantaggi, esistono anche altri motivi effettuare il monitoraggio biologico, è
una misura attendibile, è sistematica e ricorrente per misurare qualcosa nella matrice, può essere usato in ambito medico per capire
se si abbiano effetti sulla salute umana da esposizione a sostanze tossiche. L’indicatore biologico (biomarkers) è fondamentale per
il campo prevenzionistico, perciò se dovessimo effettuare una prevenzione primaria e secondaria, bisogna rifarsi a tali indicatori
biologici. Esistono anche biomarkers per valutare la gravità dell’effetto o la suscettibilità individuale.

I vantaggi sono: possibilità di ottenere informazioni qualitative e quantitative sulla dose interna totale che deriva dall’insieme di
esposizione a più sostanze (sostanze bioaccumulabili). Il monitoraggio ambientale ci permette di fare una fotografia ristretta, mentre
grazie al monitoraggio biologico e quanto lavora velocemente il metabolismo, abbiamo la possibilità di indagare esposizioni medie
su tempi più lunghi.
Si possono utilizzare indicatori biologici alla fine del turno lavorativo alla fine della settimana, che rappresentano la media della
settimana.
In caso di intossicazioni che hanno portato alla morte di un individuo, è possibile utilizzare degli indicatori biologici di accumulo,
per capire durante la vita dell’individuo, a quale esposizione è stato soggetto (caso dell’asbesto). Il monitoraggio biologico può
tenere conto di caratteristiche individuali: ci sono soggetti che riescono enzimaticamente a eliminare determinate sostanze, altri
meno.

pag. 6
Il valore di fondo si può ottenere anche con il monitoraggio biologico, non tanto a persone non esposte alla sostanza della stessa
zona, ma sono disponibili dei valori di riferimento, che va a promulgare periodicamente una lista di valori di riferimento, cioè livelli
di biomarkers a metalli nella popolazione generale, perché danno la linea di base.
Il monitoraggio biologico può dare informazione sul controllo del rischio grazie a dei DPI, ad esempio se i lavoratori sono bardati,
allora il monitoraggio ambientale dà delle concentrazioni alte, ma grazie all’uso di DPI validi, evitano di avere problemi nei
lavoratori.
Quando si effettua monitoraggio biologico, l’igienista industriale deve collaborare con il medico competente, che può prelevare
sangue o urine, per effettuare il monitoraggio biologico.

Svantaggi: ci sono IBE (indici biologici di esposizione), che sono indici che non devono essere superati, sono pochi, per poche
sostanze. questo perché il quadro tossico-cinetico non è ben conosciuto.
Mancano studi epidemiologici o IBE per valutare situazioni di non effetto, quindi non è detto che gli IBE funzionino anche a basse
dosi.
La formaldeide viene metabolizzata bene, fino a una certa dose, dopodiché si giunge a formazione di metaboliti tossici. Questa
sostanza è uno dei pochi cancerogeni genotossici con la soglia. Per la formaldeide, quindi, il monitoraggio biologico non si può
fare.

Per effetti acuti, il monitoraggio biologico non va bene, ma serve un monitoraggio ambientale, perché altrimenti nel momento in
cui si facesse quello biologico, l’effetto si sarebbe già verificato.
Il cromo esavalente è in grado di entrare nei globuli rossi e dura all’interno di essi per varie settimane, quindi non vale per lo short-
term, ma darà idea di esposizione media nelle ultime settimane.

Gli IBE esistono solo come luce riflessa, se esistono VL per quella sostanza, allora esistono anche gli IBE. L’IBE è il punto che
interpola questi dati, che corrisponde alla variabile indipendente, che è quel valore limite, quindi l’IBE viene calcolato in funzione
della retta che corrisponde ai dati ottenuti ambientalmente e biologicamente, perciò è dedotto dai VL.

Gli IBE spesso non sono specifici, perché non funzionano ad esempio per i fumatori, quindi ha una possibile interferenza da altre
sostanze presenti, anche la dieta.

ESEMPIO: IPA, l’idrossi-pirene urinario si osserva sia per gli idrocarburi che si assume nella dieta, che per gli IPA. Perciò esso è
un confondente, come il fumo di sigaretta.

ALGORITMI E MODELLI
Approccio alternativo o complementare agli altri due. Ad esempio si può usare la complementarità tra approccio ambientale e
modelli. Quindi ad esempio si parte attraverso modelli che danno una stima su tendenzialmente un soggetto medio, per poi capire
attraverso il monitoraggio ambientale quale sostanze bisogna analizzare. La UNI EN 689 (CEN) prevede questi tipi di approcci.
I modelli dovrebbero essere validati, quindi utilizzare modelli gratis, se non si fosse sicuri che lavorino a dovere, si rischia di
effettuare una valutazione dell’esposizione scorretta. Attraverso l’indagine scientifica, si può riuscire a capire quali siano i modelli
che lavorano bene e quali invece, sono inefficaci.

I modelli seri sono di tipo deterministico o stocastico. Quelli deterministici sono in grado di calcolare un livello di esposizione
medio (concentrazione) a partire da una certa esposizione (massa), poi a seconda delle proprietà chimico-fisiche della sostanza,
dalla ventilazione del locale, dalle caratteristiche dell’ambiente, dai controlli localizzati, dal valore di fondo ambientale, dalla
dispersione e dal tempo di esposizione.

Bnf= E*H*LC1*LC2”*(1+a)*Dnf*t

Tutti i modelli sono sbagliati, perché danno una stima, ma alcuni possono fare stime realistiche e valide. In ingegneria, vengono
usati modelli fluido-dinamici. I modelli sono costruiti per dare delle informazioni worst-case, soprattutto gli algoritmi (modelli
molto semplificati) sono molto pessimistici.
I modelli stocastici sono in grado di effettuare stime sull’andamento della stima, quindi per calcolare ad esempio i percentili, che si
usano solitamente il 50esimo percentile e il 95esimo percentile o 99esimo, che ci dicono i valori massimi.

Vantaggi: costano poco, mi permettono di avere un dato medio, con uno sforzo minimo. Più è semplificato il modello, meno
informazioni necessito, ma meno informazioni valide avrò.
Utilizzabili in fase previsionale e calcolare per il futuro quale sia il beneficio atteso per misure di gestione del rischio.
Alcuni di questi modelli sono utili per i pesticidi, per i solventi e altri per stime dell’esposizione cutanea e uno dei vantaggi è che
riesco ad ottenere stime cutanea oltre che inalatoria e quindi di esposizione totale.
Un modello si capisce se sia avanzato o semplificato, con i livelli di TIER→ tier 1, usati per stime semplici; tier 2, più complessi,
lavorano meglio, ma richiedono più informazioni.
Permettono di dare un’incertezza sulla misura.

Svantaggi: esistono pochi modelli validati, servono molte misure, il calcolo dell’incertezza è molto complicato.

pag. 7
I modelli tier 1 solitamente sovrastimano i valori, sono poco attendibili. Ci sono però dei casi di sottostima. I modelli tier 1-2, sono
un po’ migliori, ma hanno sempre sovrastima. Tier 2, sono più precisi, ma ogni tanto non funzionano bene, con sovrastima e
sottostima.

CARATTERIZZAZIONE DEL RISCHIO

Il modo più semplice per effettuare la caratterizzazione del rischio è attraverso i valori limite, definiti in periodi di riferimento (8
ore lavorative e per la popolazione generale, dipende, ad esempio ozono 30 minuti, NO2 1 ora). Perciò si confronta un gruppo di
dati con il valore limite, perché si deve calcolare un buon indicatore di tendenza centrale, che tendenzialmente non è una media e
servirebbe calcolare anche un indicatore di dispersione o variabilità.

I valori limite possono essere healt-based, quindi al di sotto la popolazione è adeguatamente protetta, mentre per i cancerogeni
genotossici (benzene, benzo-pirene), sono disponibili valori-limite tecnici, che sono dei valori limite basate sull’impatto
socioeconomico.
I valori limite possono essere legalmente vincolanti e quelli raccomandati da istituti diversi.
Ci sono tantissimi valori-limite, nel DLGS 81/2008, ci sono 2 allegati, che presentano valori limite healt-based e tecnici, con un
incremento durante gli anni.

I VLEP sono vincolanti in Italia, gli OELV sono quelli europei. Il problema è che chi si occupa di tutela sociale, non pensava al
prodotto chimico e coloro che si occupano di prodotto chimico, non pensava ai problemi alla salute. Il REACH perciò ha previsto
di derivare i DNEL e DMEL, per il consumatore e il lavoratore, che possono essere diversi, non derivano solo da dati tossicologici
sull’uomo o sull’animale, ma che possono essere derivati da dati alternativi, come tossicologia in vitro o in silico, ma sono meno
rappresentativi. I VLEP sono migliori per la normativa sociale. Mentre la normativa di prodotto effettua un’analisi chimica
intrinseca.

I DNEL e DMEL servono per prevenzione, mentre i VLEP per fare valutazione.
Ci sono poi i TLV, che sono americani e sono i primi ad essere stati prodotti, sono molto validi, perché diventano validi a livello
contrattuale.

Gli OELV o VLEP sono molti di meno, perché sono determinati in procedimenti più complessi, mentre DNEL e DMEL sono molti
di più (circa 3000).

Gli OELV sono europei e sono quelli da cui derivano i VLEP e l’UE da tempo 2 anni per accettarli.

A livello Europeo la SCOEL e il RAC, erano due enti legate la prima all’ambito sociale e l’altro al chimico, quindi questo sistema
non poteva più andare avanti, perciò nel 2015 è stata realizzata una task-force (RAC più a livello politico). Il RAC ha assorbito poi
lo SCOEL.

Esistono valori limite più importanti di altri, quelli di legge sono i più importanti, poi sono importanti i TLV contenuti nei contratti
nazionali del lavoro. Poi si hanno DNEL, DMEL. Valori limite risk-based. Valori di azione (vincolanti ad esempio nel rumore).
Valori in-house, usati ad esempio in farmacologia → difatti non c’è nulla di riferimento nel DLGS 81/2008 sui farmaci.

È il valutatore del rischio che sceglie il VL, spiegandone il motivo.

Gli approcci integrati possono essere fondamentali in alcune situazioni.

pag. 8
2. UNI EN 689

Ci dà criteri, semplifica il sistema. Negli ambienti di lavoro si ha un responsabile che è il datore di lavoro, che deve indicare i pericoli
presenti, perciò si affida a degli esperti per la valutazione.

La UNI EN 689 è indicata nel DLGS 81/2008. Questo decreto dice che il datore di lavoro deve effettuare misure standardizzate per
le sostanze, per i cancerogeni è un obbligo.

La valutazione dell’esposizione deve essere basata su un metodo oggettivo e deve essere effettuata con metodi di campionatura e
analisi conformi all’allegato (UNI EN 482/98 e UNI EN 689).

La nuova 689, è del 2019, non è applicabile a valori limite di riferimento a meno di 15 minuti.

NOVITA’: il D.M. 11 febbraio 2021, recepisce due direttive europee del 2019, modificando il DLGS 81/2008, uno riferito ai
cancerogeni, sono stati aggiunti a quelle già presenti, come l’inserimento di esposizione cutanea degli oli minerali e lavori
comportanti esposizione alle emissioni di gas di scarico a motori diesel. In più l’allegato 43 (valori limite tecnici), si avevano fino
a poco fa 3 sostanze, mentre ora sono di più.

È un criterio standardizzato, non è da seguire obbligatoriamente. L’approccio si è evoluto nel corso del tempo, il primo approccio è
stato del NIOSH, che ha cercato di dare indicazioni su quanti campioni raccogliere, come fare il confronto dei valori limite e così
via.

La responsabilità sarebbe tutta del datore di lavoro, ma non può essere un datore di lavoro che può effettuare tale lavoro, è necessaria
una delega per esperti che possano effettuare tali lavori. Il DLGS 81/2008, dice che il datore di lavoro, salvo che possa dimostrare
che la prevenzione sia efficace mediante altri mezzi (organizzazione lavoro, dispositivi di protezione collettiva), quando sono
presenti sostanze chimiche alle quali i soggetti possono essere esposti, è necessario effettuare misurazioni con metodiche
standardizzate.

Molto spesso, anche se questo è scritto per legge, non viene rispettato in pieno.

Il capo II è focalizzato sugli agenti cancerogeni, il datore di lavoro, se presenti agenti cancerogeni, deve per forza misurare agenti
cancerogeni e mutageni, per individuare precocemente eventuali esposizioni anomale, che potrebbero comportare effetti avversi
sulla salute del lavoratore, con metodi standardizzati indicati con l’allegato 41, con la presenza della UNI EN 482 (incertezza delle
misure) e UNI EN 689 (strategie per la valutazione dell’esposizione e confronto tra monitoraggio ambientale e VL).
L’elenco dei valori limite con valore legale (vincolanti, cogenti), sono presenti nell’allegato 43 (cancerogeni), l’allegato 38 (valori
limite healt-based per sostanze non cancerogene, nel 2020 sono state inserite ben 31 nuove sostanze) e sono molti di più, perciò
bisogna utilizzare approcci standardizzati per tali sostanze.

Per tutte le sostanze sono presenti VL sulle 8 ore (protezione per gli effetti cronici), ma per altre sostanze, ci sono anche esposizioni
short-term, saranno più alti quelli degli effetti acuti, perché ci si aspetta una elevata concentrazione in breve tempo.

L’allegato 43 viene aggiornato con nuove sostanze cancerogene, con modifica nel 2021, con aggiunta di emissione di motori diesel
(settore dell’autotrasporto, macchine per la produzione, muletti), e aggiunta esposizione a oli esausti.

C’è stato anche un aggiornamento a maggio e giugno dell’allegato 43, con modifica legata ai lavoratori che sono esposti a polvere
di silice cristallina respirabile generata da un processo di lavorazione. L’ipotesi tossicologica della silice cristallina è che sia
cancerogena in seguito a un processo di infiammazione prolungata nell’albero respiratorio, che deriva principalmente da silice
cristallina lavorata recentemente, quindi con fresca fratturazione.

Oltre alla silice cristallina, è stato modificato anche il valore limite delle polveri di legno duro; del cromo esavalente.
Il valore del benzene (già presente prima di Giugno 2021) è molto più alto di quello proposto da ACGIH, perciò in Europa si è
molto cautelativi per alcune sostanze, ma non per altre (silice cristallina e benzene), probabilmente per motivi socioeconomici.

Quindi prima c’erano 14 sostanze, poi dopo giugno 2021, sono circa 20.

Quindi si devono effettuare delle misure standardizzate, per poi confrontare con valori limite, attraverso l’allegato 41 che presenta
la UNI EN 689, non si può applicare nei luoghi indoor, che si fanno in un altro modo, anche i valori limite cambiano, principalmente
per valutare la qualità dell’aria.

Vale per tutte le sostanze che abbiano un tempo di riferimento per almeno 15 minuti, esistono per poche sostanze dei valori limite
al di sotto dei 15 minuti (TLV-ceiling), esistono per sostanze che hanno effetto immediato (sostanze narcolettiche), in questi ultimi
casi, non si può effettuare una valutazione dell’esposizione come previsto dalla UNI EN 689.

pag. 9
Non è una norma esaustiva, perché prevede solo la via inalatoria e non le altre esposizioni, non vale per il monitoraggio biologico
e se non esiste un valore limite, non si può applicarla.

La norma inizia a dare delle definizioni, viene introdotta una figura professionale che è responsabile di questo tipo di approccio,
che è l’appraiser (valutatore), che è un esperto che deve avere delle caratteristiche, è una persona sufficientemente esperta per
l’igiene occupazionale, deve essere in grado di effettuare il monitoraggio ambientale, conoscere i processi produttivi.

È giunta una legge che ha permesso di riconoscere figure professionali non ancora riconosciute. Non è ancora stato inserito nel
DLGS 81/2008 che la valutazione dell’esposizione deve essere effettuata dall’igienista industriale.

-L’igienista industriale è colui che si occupa dell’identificazione dei pericoli, della valutazione dell’esposizione e del controllo
(valutazione e gestione del rischio) quando si ha potenziale esposizione a agenti chimici, fisici, biologici e trasversali, che possano
alterare la salute e il benessere dei lavoratori.
In Italia la certificazione avviene con ICF, controllato da ACCREDIA (istituto nazionale riconosciuto dallo Stato, che controlla che
tutto venga effettuato in modo corretto). È necessario certificarlo per far sì che la valutazione del rischio sia effettuato in maniera
valida e verificata.
Il datore di lavoro non rimane esente da responsabilità, ma è supportato da un esperto che possa aiutarlo e consigliargli delle scelte
in dipendenza dal rapporto rischi/benefici.
La figura base è in grado di effettuare un monitoraggio, quindi è un tecnico, non può concludere l’esposizione; mentre chi può finire
la valutazione è uno specialista su agenti chimici e biologici; c’è anche l’esperto e senior.
L’esperto può fare anche stima dell’esposizione attraverso una stima delle misure effettuate, mentre il senior propone anche
interventi per la riduzione del rischio.
Altre definizioni importanti:

-Profilo di esposizione: variazione dell’esposizione nel tempo in funzione delle attività dei lavoratori. L’esposizione considerata,
può essere media o cumulativa, però per il profilo di esposizione è importante la variazione.

-Gruppo di esposizione similare: SEG, sono gruppi di lavoratori scelti a priori dal valutatore e in funzione del profilo di esposizione
li divido in più gruppi, in base a lavoratori avente lo stesso profilo di esposizione. Si numerano i gruppi SEG con i numeri (SEG 1,
SEG 2, SEG 3).

La norma tecnica è stata scelta per ridurre al minimo gli errori decisionali, ad esempio se viene affermato che la situazione sia
inaccettabile, quando invece è accettabile, si rischia di avere un danno economico per l’azienda, mentre nel caso in cui si affermi
che sia una situazione accettabile, quando non lo è, questo è un grossissimo problema, perché si potrebbero avere successivamente
dei problemi legati ai lavoratori, con insorgenza di malattie.
Un monitoraggio continuo su tutti i lavoratori è impossibile, a meno di grandi evoluzioni tecnologiche, perciò il numero di
monitoraggi è limitato, non si può avere sotto controllo sempre la situazione; ci sono errori sistematici e casuali, si possono fare
poche misure, i livelli di esposizione variano nel tempo e nello spazio.

Il monitoraggio ambientale deve essere su solidi criteri di rappresentatività e specificità. È stata rivista la UNI EN 689, con la
minimizzazione delle misure per arrivare alla decisione finale. Nella norma precedente, nel caso ci siano molte misure per il SEG,
poteva risultare in una zona di indecisione, quindi c’era sempre un margine di indecisione. Succede che nella 689 attuale, si è detto
che per le imprese è un caos, quindi si deve venire incontro alle imprese, facendo sì che se un numero minimo di misure possano
darci una potenza statistica, si possa arrivare a una decisione (accettabilità o meno).

Inoltre, nella norma, si afferma che si possa utilizzare il dato storico, quindi aumentando la potenza statistica e altra novità, si vanno
a valorizzare i dati inferiori al limite di quantificazione (LOQ), perciò devono essere valutati in modo adeguato.

Inoltre, si ha la possibilità delle raccomandazioni, così che il valutatore tenga conto del fatto che la valutazione dell’esposizione è
sostanza per sostanza, ma è anche possibile verificare, che se le sostanze abbiano lo stesso organo bersaglio, che un’esposizione
combinata possa dare effetti sinergici o antagonistici.

Vengono sdoganati dei sistemi di stima (modelli), che sono utilizzabili solo quando sussistono particolari elementi e il modello deve
essere validato. La valutazione si conclude con si o no e poi si vanno a definire gli intervalli di misure successive.

La norma è basata su un approccio multilivello, non è necessario effettuare tante misure se la situazione è già ben definita, non è
necessario effettuare misure molto accurate, se fossimo molto sotto al valore limite. Quindi si parte da una caratterizzazione di
base, perciò per valutare se siano necessarie o meno misure oggettive e costruire SEG. Nel caso il valore di esposizione sia molto
inferiore al VL, ci si ferma. Nel caso in cui il risultato della caratterizzazione di base sia inferiore al valore limite, ma la situazione
non è molto chiara, allora si passa a una valutazione più approfondita, il valutatore deve effettuare misurazioni predisponendo uno
specifico piano di campionamento e procedere alla analisi dei dati raccolti mediante test preliminare (n<5) e test statistico (n>6).
Quindi la caratterizzazione di base parte dall’identificazione del pericolo, considerando anche l’esposizione cutanea o per ingestione,
poi si valuta come è configurato il posto di lavoro (sopralluogo), le mansioni, le qualificazioni, come funziona la turnistica e le

pag. 10
funzioni, il ciclo tecnologico, quali sono le procedure di lavoro, conoscere la ventilazione industriale e altri dispositivi di protezione
collettiva, tempo di esposizione e così via, inoltre è importante il dato sanitario.

Quindi non è sempre necessario effettuare misure, ma si può utilizzare una stima con il modello che sia validato e non con
l’algoritmo, che invece non è validato.

Nel caso in cui non sia sufficiente la caratterizzazione di base, è necessaria la misura, quindi il monitoraggio ambientale.
Bisogna decidere quante misure fare (nelle linee guida AIDII si hanno alcune informazioni, basate sulla potenza statistica) nel SEG,
il piano di campionamento deve basarsi principalmente sul campionamento personale, si deve conoscere l’incertezza di questo
approccio (UNI EN 482). Per misurazioni molto sensibili si usa ICP-MS.

Si deve usare il più corretto periodo di campionamento, l’ideale sarebbe sulle 8 ore, tenendo conto della pausa.

Quindi si costruiscono i SEG, si decide la procedura si misurazione, esecuzione delle misurazioni, validazione dei risultati e SEG,
se negativi, si deve ripartire dalla costituzione dei SEG, se i risultati fossero positivi, allora si confrontano i dati con i VL, poi con
test preliminare o statistico, capisco se il dato è conforme al valore limite, riportando il tutto in relazione, lo stesso se non fosse
conforme (in questo caso il datore di lavoro deve porre rimedio in tempi brevi) e poi si rifà la valutazione, per osservare se c’è
conformità con il VL dopo le modifiche.

MISURAZIONI: si devono effettuare delle misurazioni, informando i lavoratori, di ciò che si sta facendo, poi le attività lavorative
devono essere coerenti, l’attività non deve essere modificata precedentemente le misurazioni (quindi il valutatore deve avere
conoscenze sul ciclo produttivo), inoltre il monitoraggio deve procedere secondo quanto previsto, perciò nel corso di misure
personali, il campione deve proseguire secondo quanto previsto, perciò che il campionamento vada a buon fine, i campionatori
devono funzionare e si devono fare controlli sul flusso.
Poi c’è un foglio in cui si compila a chi viene applicato il campionatore 1 o 2 e così via, ci deve essere un controllo continuo, se ci
fossero lavorazioni insolite, si deve indicare.

VALIDAZIONE DELLE MISURE E SEG: si valuta se le misure siano coerenti o meno, poi si deve validare il SEG (gruppo di
esposizione similare), la validazione si effettua con metodi statistici e grafici, quindi si deve osservare che i dati si dispongano in
una disposizione statistica, che sia più una log normale che una normale, poiché la log normale devono distribuirsi in modo univoco
(concentrazione in ascissa e frequenza in ordinata), con indicazione di moda (punto più alto, nel senso che la frequenza è maggiore),
mediana (50esimo percentile) e media, in più ad alte concentrazioni ci possono essere misure, ma in modo molto meno frequente.
La normale, invece, è molto rara, perché non può esistere un dato di esposizione negativo (non ha significato), in più la distribuzione
normale prevede che ci sia il punto più alto. La log normale è semplicemente la scala normale con scala logaritmica.
Dopo la trasformazione in log normale, si possono adottare metodi statistici provati.
Per validarlo, si deve capire come si distribuiscono i dati.
Il profilo di esposizione dei SEG dipende dal processo produttivo, dalla diversa esposizione, dalla diversa attività lavorativa. La
norma afferma che serve esperienza, per scegliere i SEG, se i dati si dispongono in log normale, si realizza un diagramma di
probabilità logaritmica.

RIASSUNTO UNI EN 689


Uno degli obiettivi nuovi della UNI EN 689 è quello di ottenere sempre una valutazione (caratterizzazione del rischio), ma
effettuando il numero minimo di misure, quindi come visto prima, con una caratterizzazione di base.
Si hanno risultati se si avessero almeno 6 misure per SEG, perciò nel caso si debba passare alle misure, bastano 6 misure, nel caso
in cui i lavoratori svolgano le stesse mansioni. Qualsiasi test statistico si svolge in base alla numerosità del campione, se avessi
pochi dati, calcolare una media o una deviazione standard, risulta di poco significato, sono poco rappresentativi.
Quindi un gruppo di esperti ha stabilito che se 6 misurazioni sono sufficienti, se seguono una distribuzione di log normale.
Si deve prendere una decisione con solidità scientifica, riducendo al minimo gli errori decisionali.
Uno degli approcci che si usano di più è quello di supporre che conoscendo la tensione di vapore, tutto ciò che viene distribuito, si
distribuisce in modo uniforme e quindi si fa una stima peggiorativa, quindi considerando ad esempio una volatilità maggiore rispetto
alla verità. Se con calcoli semplici si è sotto i VL non è necessario effettuare misure, nel caso contrario sono necessarie.
Per le misure si devono scegliere le modalità di misura (campionamento personale o ad area), se attivo o passivo, se diretto o
indiretto. Per il campionamento, come visto si selezionano i SEG, poi la procedura di misurazione, si effettuano le misure, validare
le misurazioni e il SEG (per validare il SEG, la frequenza di certe concentrazioni si devono distribuire lungo una log normale, quindi
si realizza un istogramma di frequenza, per capire se già ad occhio i dati si distribuiscono in log normale) e poi confronto con valore
limite e relazione.

VALIDAZIONE SEG
Si costruisce un diagramma di probabilità logaritmica, cioè si ordinano in modo crescente i dati, si calcola il logaritmo e associare
ad ognuno di questi punti, una certa probabilità. Per legarli alla probabilità, c’è una tabella, che permette di capire in che modo si
dispongono i dati. Ad ogni numero si può associare quindi la probabilità, che dipende dal numero di campioni effettuati.

pag. 11
Questo diagramma serve per validare il SEG, quindi se si potessero interpolare i dati, attraverso i minimi quadrati, si otterrebbe una
retta, perciò il SEG è verificato se i punti seguono la retta, mentre se un punto ad esempio fosse molto distaccato, si potrebbe avere
come causa che un lavoratore sia stato inserito in un SEG sbagliato, poiché effettua lavorazioni differenti.

Il SEG si valida con almeno 5,6 dati, attraverso questo metodo del diagramma di probabilità logaritmica.

La variabile Pk, che è la probabilità sull’asse Y, si calcola come Pk= k-3/8/n+1/4 k(posizione occupata in quel valore misurato, nel
momento in cui sono stati ordinati in modo crescente) n(valori totali di esposizione).

La probabilità si può superare, ma i valori non devono mai superare più del 5% del valore limite, l’ideale sarebbe 0.1%, quindi su
1000 misure, solo una, ma è troppo, perciò si deve avere il 95% dei valori più bassi del VL.

Questo metodo è anche importante per poter determinare la probabilità di avere un valore e quindi determinare un valore limite.
Percentile: posizione di un dato in una popolazione di dati misurati. Probabilità: pochi dati a disposizione e vorrei calcolare a livello
probabilistico cosa succederebbe in futuro, quindi si riferisce a uno scenario futuro.

Se si avessero due dati che non seguono gli altri, devono essere scorporati, quindi non seguono la distribuzione teorica, perché più
alti di quello che ci saremmo aspettati, perciò se facessimo la retta di interpolazione, si osserverebbe un coefficiente di
determinazione (r2), che è il quadrato della varianza, con un valore più basso. Il valore di questo coefficiente è tra 0 e 1, più è
vicino all’uno, più la retta è buona, mentre più è vicino allo 0, meno si può effettuare una retta di interpolazione.

Sopra lo 0.9 l’interpolazione è buona, mentre al di sotto, l’interpolazione non è buona. Questa validazione del SEG si possono fare
con metodo grafico.

Esistono dei test statistici di verifica della normalità o log normalità, ogni test statistico è basato su assunzioni diverse. Il più
utilizzato è il Kolmogorov-Smirnov. I dati che si distribuiscono secondo una log normale sono ideali, perché si possono applicare i
test parametrici, quindi applicando una statistica solida. Mentre nel caso non si possa, si devono applicare dei test meno non
parametrici. La UNI EN 689 favorisce il test statistico di Shapiro-Wilk, poiché molto più efficace con pochi dati, ci sono dei
software, il risultato finale è una variabile P, che può essere superiore o inferiore a una soglia arbitraria, che permette di capire se
quei valori vanno bene o meno.

CONFRONTO CON I VL

Se il gruppo di SEG è validato, si può andare ad osservare la conformità con il VL, con test preliminare, se nel caso di 3 misurazioni,
queste devono essere inferiori al 10% del VL. Se anche solo uno di questi dati fosse superiore al VL, si deve porre rimedio al rischio
(gestione del rischio).

Nel caso avessi 4 misure, devono essere inferiori al 15% del VL. Se uno dei risultati è superiore non ho conformità e serve gestione
del rischio.

Se avessi 5 misure, invece, dovrebbero essere inferiori al 20% del VL.


Queste strategie sono dette di approccio preliminare, nel caso di più di 6 misure si passa a un approccio più complesso, per
verificare la conformità con i VL.

ESEMPIO: se avessi 4 misurazioni e 3 sono al di sotto del 15% del VL e una invece è al di sotto del VL, ma non del 15%, allora si
devono aumentare le misure, quindi si devono raccogliere altri dati, in modo da ottenere 6 misure, così da effettuare un test statistico,
con il 70% di conformità (nella scienza 95%), in modo tale che meno del 5% delle misure siano superiori al VL. Poi si deve calcolare
un intervallo associato di confidenza, che mi dice quanto probabilisticamente ci si può allontanare dalla retta. Questi intervalli di
confidenza dipendono dalla numerosità dei dati e dalla variabilità dei dati.

Questo procedimento è fondamentale per confrontare una popolazione di dati nei confronti di un valore soglia.

La norma UNI EN 689 semplifica la situazione, difatti grazie all’idea di dover usare pochi dati, si è introdotto l’intervallo di
confidenza del 70%. L’intervallo di confidenza è un indicatore che serve nel momento in cui sto analizzando una sottopopolazione
di dati e serve per avere una certezza ragionevole che anche se sono state analizzate poche persone, mi rende ragione che sto
riportando un dato di una sottopopolazione, su una popolazione molto più grande, quindi il valore vero deve ricadere in
quell’intervallo. Si prende il limite superiore dell’intervallo di confidenza, quindi è superiore al 5% dell’ottenimento di valori più
alti del VL, in funzione della deviazione standard e dei campioni, più la deviazione standard è elevata, peggiore è la situazione.

ESEMPIO: utilizzando un certo numero di dati dello stesso SEG, ho il grafico con asse X il Ln dei livelli di esposizione e sull’asse
Y la probabilità, si osserva l’intervallo di confidenza, attorno alla linea di tendenza che interpola al meglio i punti riguardanti
l’esposizione. Poi si osserva il 95% dei valori e massimo devo avere il 5% dei valori, il valore al di sotto del quale bisogna stare, è
dato dal 5% rispetto alla retta di interpolazione.

pag. 12
Quindi dovrebbe bastare un numero limitato di misure per arrivare alla decisione (rispetto o non rispetto del VL).
In funzione dei dati che ho e quanto sono variabili, si deve calcolare l’intervallo di confidenza, poi si confronta con il VL, se inferiore
al VL c’è conformità, altrimenti no.

Perciò si calcola l’indice Ur, che più alto è, migliore è la situazione: UR= OELV-AM/SD, AM= media aritmetica. SD= deviazione
standard.

Di solito ci si aspetta una distribuzione di dati log normale, perciò UR=ln (OELV) – ln (GM) / ln (GSD) GM=media geometrica,
che è la somma dei logaritmi delle misure diviso il numero totale di misure. GSD= deviazione standard geometrica.
Questo valore di Ur si deve confrontare con Ut, se avessi una normale, si calcola il tutto con delle tabelle, che mi danno il valore
Ut, che tiene conto dell’intervallo di confidenza al 70%. Quindi si po' avere conformità o meno, se Ur è inferiore a Ut, non si ha
confidenza con il VL. Quindi se si cade in zona verde del grafico, si ha conformità, mentre nel caso no sia conforme, si avrebbe
ricaduta in zona rossa.

Si potrebbe già mettere in confronto con il VL attraverso il metodo del diagramma di probabilità logaritmica, perché si inserisce il
VL, si sa che il 95% delle misure devono essere inferiori al VL, però il problema è che si perde l’intervallo di confidenza, difatti
questo deve essere considerato, il quale fa ottenere una probabilità di ottenimento del VL più alta. Quindi tenendo conto del 99%,
si avrebbe una non conformità.

La UNI EN 689 permette di usare anche intervalli di confidenza più alti, quindi di essere maggiormente cautelativi, esistono altri
metodi per verificare la conformità e uno di questi è il NIOSH, o in Italia le guide AIDII. Sono metodi basati su una sogli di
conformità, pari sempre al 95% di probabilità di non superamento, ma con intervallo di confidenza al 95% e non 70%. Il problema
di avere una cautelatività maggiore è che si ha un Ut, molto più in alto, quindi si deve avere Ur molto alto per avere conformità.

Inoltre, si avevano delle fasce diverse, una prima fascia di conformità, una seconda fascia di non completa conformità, quindi
necessario aumentare le misure, poi una fascia successiva che non è di conformità e questo provoca una modifica
dell’organizzazione.

Questi procedimenti sono fatti da un igienista industriale al termine di una valutazione del rischio per via inalatoria di sostanze
chimiche, per confrontare con VL.
La norma UNI EN 689 ci dà un quadro, ma le scelte ad esempio del campionamento, devono essere scelte dall’esperto.

ESPOSIZIONE A MISCELE

La UNI EN 689 parla anche dell’esposizione a miscele (si intende sostanze contemporaneamente presenti nell’area respiratoria del
soggetto), prima della nuova versione del 2019, non si considerava l’approccio di esposizione a più sostanze contemporaneamente.
Gli igienisti americani lo fanno già da tempo.

Si calcola un indice di esposizione a miscele, quindi si lascia da parte la statistica, perciò se un lavoratore fosse esposto a più sostanze
diverse, si potrebbe avere un effetto combinato, quindi possono essere assimilati in relazione additiva → effetti sostanza 1 + effetti
sostanza 2 + effetti sostanza 3.
Quindi il ragionamento è che quindi le sostanze sono additive, se facessi una valutazione singolarmente si avrebbe conformità, ma
considerandole assieme magari no. Quindi si fa un miscuglio tra le sostanze e si calcola l’indice di esposizione a miscele (Ie), che è
la sommatoria per l’esposizione delle sostanze diviso ciascuna per il suo VL. Se Ie supera l’uno, allora si ha una situazione di
preoccupazione, perciò non si ha compliance, se fossimo sotto l’uno si avrebbe conformità. Perché la sommatoria tra tutte le sostanze
è alta.

Ie= sommatoria Ei / OELVi.

Questo approccio non ha basi epidemiologiche solide, perché non è detto che le sostanze si debbano sommare.
Si ha un secondo approccio, dove si sommano le sostanze con stesso effetto critico o organo bersaglio, poiché sostanze che hanno
diversi organi bersaglio, non avranno un’additività, non si interpoleranno tra loro. Ad esempio tutte le sostanze nefrotossiche le
sommo.

Iaej=sommatoria Ei / OELVi.

Gli studi tossicologici sulle miscele non esistono, anche perché gli studi devono essere moltissimi, ad esempio se avessi tre sostanze,
gli studi dovrebbero essere 32, quindi 9, cioè tutte le possibili combinazioni.

DURATA DEL CAMPIONAMENTO

La durata è stabilita dalla UNI EN 689 deve essere rappresentativa per il periodo di riferimento del valore limite utilizzato, cioè se
il valore limite è short term, si devono realizzare misure ogni 15 minuti (analizzatori a lettura diretta). La durata del campionamento

pag. 13
deve essere stabilita considerando la variabilità della concentrazione, LOQ (limite di quantificazione) e altre caratteristiche di
prestazione del metodo analitico.

Tendenzialmente quando ci si deve confrontare con VL sulle 8 ore, non si deve mai avere un campionamento al di sotto di 2 ore, se
l’esposizione è costante, mentre se non lo fosse, si deve considerare l’intera giornata lavorativa.

Se avessi lavoratori che effettuano degli straordinari, si dovrebbe contare il fatto che il lavoratore effettua più di 8 ore di lavoro.

I valori al di sotto dell’LOQ, non venivano considerati prima della UNI EN 689, oppure si sostituiva il LOQ con valori pari alla
metà del LOQ; ma si ha un errore sulla media e deviazione standard e quindi non si può calcolare in modo corretto la conformità.

Quindi la soluzione è quello di determinare la Pk, quindi la probabilità di avere quel dato. Quindi così facendo si considerano lo
stesso, in modo tale da distorcere meno la media e la deviazione standard.

In tutti i casi in cui si debba lavorare in basse contaminazioni o dosi, può capitare di avere una certa quantità di dati sul totale, non
quantificabile, se questa quantità è minimale, non cambia utilizzare la metà dell’LOQ. Ma se la percentuale di tali valori inizia ad
essere tra il 20 e 30%, bisogna effettuare delle considerazioni diverse, quindi o si eseguono metodi alternativi al monitoraggio, nel
caso di tanti dati inferiori al LOQ, quindi non vanno sostituiti, ma devono essere trattati con il metodo della stima della massima
probabilità.

Solo che il problema è che queste considerazioni non sono sempre possibili da controllare, visto che la produzione industriale spesso
ha dei tempi ristretti.

INTERVALLO TRA MISURE PERIODICHE

Un altro aspetto della UNI EN 689, in funzione della pericolosità, dei valori stimati e della variabilità dei risultati, si va a definire il
tempo che intercorre alle prossime campagne di misura. Il DLGS 81/2008 è chiaro, l’obiettivo è il continuo miglioramento della
situazione, non basta una sola attività di controllo in molti anni, ma si deve avere una periodicità.

Se ci sono sostanze pericolose, serve una periodicità di controllo, che dipende dalla pericolosità dell’agente di rischio, prossimità
delle esposizioni al VL, efficacia dei controlli sul processo, variabilità dei risultati. Di solito la periodicità è tra 1 e 3 anni, a seconda
delle situazioni che sono presenti.

pag. 14
3. SILICE LIBERA CRISTALLINA

È un aspetto che si conosce già da molto tempo, è un agente chimico di rischio per la salute umana. Però la cancerogenicità della
silice cristallina è stata verificata negli anni ’90 dalla IARC (gruppo 1). Dopo gli anni ’90 si è sviluppata una discussione, perché
una parte degli scienziati affermava che fosse cancerogena solo nel caso di polmoni già compromessi e in dose alte, mentre un’altra
porzione affermava una cancerogenicità senza soglia, quindi a basse dosi. Nel 2018 difatti l’Unione Europea ha classificato ai sensi
del CLP, come cancerogeno di categoria 1 (cancerogeno certo dell’uomo). Inoltre ha proposto un OELV cogente, recepito in Italia
nel 2020 (VLEP a 0.1 mg/m3). Questo ha cambiato il modo di valutazione della silice cristallina, poiché se presente un cancerogeno,
è necessario sempre effettuare delle misure, quindi monitoraggio ambientale. È un obbligo, tutti i datori di lavoro devono effettuare
delle misure. In più il medico competente ha una serie di attività da svolgere, come inserire coloro che sono soggetti a sostanze
cancerogene.

Quando si parla di silice cristallina, si parla principalmente di quarzo, ma ci sono dei polimorfi, che hanno la stessa formula chimica
(SiO2), ma diversa formula cristallina (cristoballite e tridimite).

La struttura cristallina varia causa metamorfismo, quindi cambiamento di temperatura e pressione, alzando le temperature si passa
prima a tridimite e poi cristobalite (si trovano molto rari in natura, nei vulcani, mentre nel caso antropico è presente nel vetro).

La silice cristallina è ovunque, dato che il quarzo è il secondo minerale più diffuso dopo i feldspati (rocce sedimentarie, rocce ignee,
come granito). Tutte le lavorazioni che partano da un materiale naturale, come la sabbia, perciò per realizzare vetro o ornamenti,
l’edilizia (cementi), movimentazione suoli, attività di perforazione. La popolazione sottoposta a silice di cristallina è a milioni di
lavoratori in Italia (agricoltura, edilizia).

La silice amorfa è nel gruppo 3 della IARC, quindi nessun dato che sia cancerogena per l’uomo, quindi la struttura cristallina conta
tantissimo.

EFFETTI: oltre al cancro al polmone e alla silicosi, che è una fibrosi polmonare, cioè può insorgere ad alte dosi cumulative
(minatori). La silicosi è un processo infiammatorio ripetuto, che produce collagene, sostituendo le normali cellule del parenchima
polmonare, così il polmone non è più elastico.

Si hanno anche malattie renali e autoimmuni, ad esempio l’artrite rematoide. Il possibile meccanismo di azione è associato a una
proteina, che a livello di macrofagi, viene usata per il riconoscimento dell’ospite indesiderato, quindi si sviluppa un meccanismo di
reazione, con cascata di citochine, quindi tempesta infiammatoria che fa formare un tessuto di collagene.
I comparti con le possibili esposizioni sono molti: edilizia, fonderie, produzione della carta, abrasione, sabbiatura, agricoltura,
produzione di sapone e detergenti.

I livelli di esposizione negli ultimi anni, fa osservare che nella lavorazione delle pietre, il 41% dei lavoratori superano la metà
dell’attuale valore limite, ma anche nelle altre lavorazioni si è sempre a una percentuale alta, circa 20/30%.

In altre lavorazioni ci si aspetta un valore basso.

Negli ultimi 20 anni sono stati effettuati molti studi sui lavoratori, specialmente nell’edilizia, nel settore minerario. Ma anche in
altre settori, ad esempio in America, per ottenere idrocarburi si usa un metodo spremitura delle rocce, questo comporta notevoli
esposizioni. Ma ci sono anche altre lavorazioni importanti per l’esposizione, come ad esempio nel settore odontoiatrico, chi prepara
delle protesi dentarie è molto esposto.

Anche i jeans sono trattati con particolari attività, che provocano silicosi.

ESEMPIO: in un progetto a Milano, sono stati effettuate delle analisi individuali, dove sono stati analizzati vari composti ed è stato
osservato come ben nel 91% dei casi si aveva esposizione a quarzo.

Il VLEP è 0.1 mg/m3, il VL degli USA è la metà, ma c’è addirittura il caso del VL che è ¼ del nostro (TLV-TWA).
Man mano che aumentano le conoscenze scientifiche, i VL si abbassano, difatti il TLV-TWA non è sempre stato fissato a 0.025
mg/m3, ma prima era fissato come il VLEP.

La silice cristallina è un aerosol, quindi si campionano in modo attivo (pompa aspirante) e metodi indiretti (su substrati), in modo
tale da trattenere solo l’inquinante di interesse.

Si deve considerare la frazione respirabile, quindi particelle con diametro aerodinamico inferiore a 4µm.

I metodi più utilizzati per l’analisi della silice cristallina è il metodo NIOSH, che prevede un campionamento con cicloni in nylon
o HD, su filtri in PVC, poi questo filtro viene trattato in laboratorio, distrutto con sistema di digestione e analizzato in DRX
(difrattometria a raggi X in polvere), questo metodo è detto NIOSH 7500.

pag. 15
Oppure il NIOSH 7602, con FTIR (spettroscopia infrarossa in trasformata di Fourier).
I metodi sono indiretti, quindi si può avere una perdita del campione, difatti non si ha mai un 100% di campione, ma si ha spesso
perdite anche fino al 20%. Questi sistemi inoltre non riescono a identificare meno dell’1% di una sostanza in miscela.
Un altro metodo è UNI ISO, che consente l’analisi diretta del filtro, senza distruggerlo.

Le alternative fino ad oggi sono 2:


-analisi indiretta, quindi prelievo su substrato, distruzione del substrato, preparazione del campione idoneo all’analisi
-analisi diretta, quindi prelievo su filtro, analisi del filtro con portacampioni. Vantaggio è la velocità e la non perdita del campione.

I metodi NIOSH sono vecchiotti, ma hanno degli svantaggi, quindi perdita del campione e il filtro d’argento non si usa solo per la
silice cristallina, ma anche per l’asbesto, che ha problemi, perché ha alti costi e una fase preparativa molto lunga, ogni campione
prevede un elevato trattamento.

Quando si parla di silice cristallina, si ha un volume dell’INAIL, specifico fino al 2015, ma c’è anche un nuovo volume con le novità
degli ultimi anni.

La criticità principale è che la sensibilità analitica è scarsa, quindi limiti di detenzione bassi, il LOQ deve essere almeno 1/10 del
valore limite, poiché se 3 misure devono essere inferiori a 1/10 del valore limite, ai sensi della UNI EN 689, è necessario riuscire
ad arrivare a questo LOQ.

Ci sono alcuni modi per migliorare la sensibilità: aumentare la portata di campionamento, ci sono i cicloni in nylon o conduttivi,
che hanno una portata di campionamento che è circa 2L/min, perciò sono stati sviluppati strumenti in grado di campionare 5L/min,
sono più pesanti, quindi meno accettati dai lavoratori. Alcuni funzionano a 10L/min.

L’altro escamotage è quello di sfruttare l’innovazione tecnologica, per avere una maggiore sensibilità.
Inoltre, altro modo è aumentare il numero di lavoratori in un SEG.

Per i metodi diretti, bisogna migliorare delle caratteristiche tecniche, con strumenti tecnologici migliori.

Altre criticità sono la presenza di polimorfi, l’interferenza della granulometria.

Ci sono delle nuove proposte, con possibilità di sviluppare tecniche che possano sviluppare nuovi metodi tecnologici in modo da
migliorare di un fattore 10. Esistono quindi sistemi di campionamento e analisi di queste tecniche.

Un’altra cosa interessante è l’utilizzo di strumenti portatili, che vanno bene per misurare alte concentrazioni in real-time.

RIASSUNTO

Si devono effettuare misure obbligatoriamente per la silice cristallina, poiché cancerogena, le metodiche sono standardizzate
(NIOSH), ma scegliere quale metodica usare è una delle scelte più critiche, perché sono molte e hanno degli svantaggi. Se si
utilizzasse uno strumento diverso da quello previsto nella metodica standardizzata, si deve indicare. Ci sono poi nuovi valori limite,
quindi la scarsa sensibilità deve essere superata.

pag. 16
4. LEGIONELLA

È una famiglia di batteri gram -, il rischio legionella è importante, anche nei Paesi più sviluppati, si può osservare in tutti gli ambienti
indoor, specialmente ambienti di comunità, come ospedali, ma anche nei settori della ricezione alberghiera e anche nel settore del
trasporto pubblico, dato che la Legionella è spesso riscontrabile in sorgenti degli impianti di condizionamento.

È un rischio che nei casi più gravi può comportare polmoniti.

AGENTI BIOLOGICI: sono agenti con caratteristiche dose-risposta meno controllabili, si comportano a livello di relazione dose-
risposta, come se fossero senza soglia. Basta un contatto con un solo microrganismo per avere una patologia. Non esiste
un’esposizione minima per il danno. Il nostro organismo è in grado a rispondere efficacemente al rischio biologico, più del rischio
chimico, dato che il rischio biologico è sempre stato presente.

Una valutazione del rischio da agenti biologici, si fa diversamente dalla valutazione del rischio chimico, perché la valutazione
dell’esposizione è importante, ma non così fondamentale, perché basta riscontrare una contaminazione per far sì che si debba
intervenire con una migliore prevenzione. Perciò si deve garantire la sanificazione di un determinato ambiente.

La legislazione italiana, per quanto riguarda gli ambienti di lavoro è concentrata nel DLGS 81/2008, c’è il titolo X dedicato al rischio
biologico. Per la popolazione generale, si hanno una serie di documenti ufficiali che propongono delle attività da effettuare. La
legionella è uno dei pochi microrganismi che ha delle normative in suo riferimento.

Il datore di lavoro è sempre il responsabile, quindi occorre capire se sia possibile un’esposizione ad agenti biologici (classe di rischio
nell’allegato 46), quindi capire con quali dispositivi si debba lavorare.

Nell’allegato 46 ci sono una serie di microrganismi e le specie patogene accomunate da uno stesso genere, sono suddivise in 4
gruppi, in base all’infettività e alla virulenza (patogenicità→ potere di causare malattia + infettività). Si deve capire se il
microrganismo possa passare da individuo ad individuo, perciò se il rischio è riferito all’intera comunità. Un altro fattore che
concorre è la neutralizzabilità utilizzando profilassi di tipo farmacologico o terapeutico, quindi che si possa affrontare la patologia
con farmaci o terapie coadiuvanti.
-gruppo 1: presenta poche probabilità, di causare malattie in soggetti umani.
-gruppo 2: il microrganismo è virulento, ma è poco probabile che si propaghi nella comunità.
-gruppo 3: il microrganismo è virulento, c’è trasmissibilità, ma se si interviene con tempismo si può curare.
-gruppo 4: il microrganismo è virulento, è trasmissibile e non è neutralizzabile (ebola).

GRUPPO 1,2,3 hanno una certa pericolosità, ma non richiedono una gestione del rischio estrema.
GRUPPO 4: come ebola, sono microrganismi che hanno una gestione molto estrema. I laboratori di gestione sono di classe 3 (classe
massima), devono avere autorizzazione del ministero di sanità.

Quando si deve capire in un campione se il virus è in grado di replicarsi, occorre lavorare in laboratori di classe 3.

VALUTAZIONE DEL RISCHIO

Il datore di lavoro deve avere una classificazione di questi agenti biologici, quali patologie si possono avere, ma non solo l’infezione
in sé, ma anche le reazioni allergiche che possono derivare. Poi si deve capire se la sorgente lavorativa aumenta la probabilità di
esposizione e capire se ci sia sinergismo tra diversi microrganismi.

Questo processo è stato modificato dalla direttiva 2000/54/CE, dedicata agli agenti biologici negli ambienti lavorativi.
Si deve quindi identificare l’agente biologico in una certa matrice, in ambiente di lavoro; conoscendo le mansioni lavorative si va a
definire un sistema di prevenzione che deve essere efficace a priori, sono misure principalmente di contaminazione, per verificare
se il sistema funziona oppure no, quindi si verifica se i mezzi di sanificazione funzionano.

La legionella deve essere identificata ad esempio dove è presente acqua, come acqua di sanificazione, il rischio legionella in ospedale
è da evitare.

Un datore di lavoro, per mettere in piedi dei sistemi di buona prassi biologica, deve adottare dei sistemi che facciano sì che
l’esposizione sia 0. Non si dovrebbero usare agenti biologici nocivi, si dovrebbero avere il minor numero di lavoratori in quella
attività pericolosa, devono essere ben formati. I processi lavorativi devono essere ben studiati, progettati, anche con l’utilizzo di
DPI per eventuali esposizioni accidentali ad agenti biologici. Si devono adottare delle misure collettive di protezione, vanno
privilegiate quelle collettive rispetto a quelle individuali, quelle collettive per gli agenti biologici sono generalmente con raggio UV,
O3 o cappe a flusso laminare, nelle quali si può utilizzare e maneggiare l’agente biologico. È fondamentale anche disporre in questi
ambienti, specialmente in settori dove il rischio è alto (laboratori di microbiologia), dei sistemi di rischio biologico, perciò se un
operatore sbaglia, si deve rendere conto dell’errore e si devono attuare delle procedure di emergenza per ovviare all’inconveniente.
Inoltre, sono fondamentali dei segnali di rischio biologico.

pag. 17
L’igiene industriale è utile per poter analizzare con monitoraggi la presenza di agenti al di fuori di sistemi chiusi. Si utilizzano dei
wipe test, che ricercano l’agente biologico, per verificare che non ci siano stati eventi di contaminazione minima. Ci sono poi delle
procedure per trattamento dei rifiuti, anche il trasporto di campioni biologici deve essere effettuato in maniera corretta e specifica.
Quindi in riassunto si effettua l’identificazione del pericolo, le modalità possibili di trasmissione di questi agenti, ad esempio in
atmosfera (COVID→ trasmissione aerea, così come per la legionella). Importante anche considerare il sinergismo tra microrganismi,
inoltre ci sono anche fattori traversali da considerare, ad esempio nel caso del COVID, i lavoratori nell’ambito della terapia intensiva,
lavorano in condizioni estreme.

Un’altra fase fondamentale è quella di individuare le potenziali esposizioni: si progetta un sistema di gestione del rischio, per capire
se il sistema di gestione sia efficace o meno. Quindi si deve capire quale sia il rischio residuo dopo la gestione, se non fossero
accettabili, non si potrebbe lavorare in quell’ambito, tendenzialmente bisogna quindi tenere sotto controllo la situazione nel tempo.

LEGIONELLA

È un agente di rischio classificato nel gruppo 2, contiene diversi microrganismi, come la Legionella spp (tutte le specie di legionella)
e Legionella pneumophila, per gruppo due significa che è un agente virulento, ma poco trasmissibile e normalmente curabile. La
legionella deriva da un caso del 1976, negli USA, dove si ammalarono dei veterani dell’esercito, si scoprì che la malattia deriva da
un microrganismo, un batterio, allora sconosciuto, chiamato poi legionella, dal nome del gruppo di questi veterani (legion).

Legionella è un gram- della famiglia delle legionellacee, hanno bisogno di acqua per la sopravvivenza, sono dei batteri flagellati e
come tutti i batteri hanno dimensioni micrometriche. Ci sono tante specie nella famiglia Legionellacee e all’interno del genere della
Legionella, si hanno 61 specie. Non consumano zuccheri e hanno una debole attività di ossidasi e catalasi. Tendenzialmente la
Legionella pneumophila è la più pericolosa, dato che nell’84% dei casi i soggetti sono ascrivibili alla specie Legionella pneumophila.
Possono infettarsi e replicarsi in protozoi e amebe, consumano amminoacidi e in ambiente con contenuto di ferro, si trovano bene.

L’ambiente acquatico è il preferito, con temperatura tra 6 e 60°C.

Può sopportare una certa acidificazione e alcalinità. Gli ambienti stagnanti sono quelli ideali. Gli impianti di condizionamento sono
abbastanza pericolosi, perciò devono essere manutenuti. Lo stesso può valere per le docce, le piscine. Nei sistemi idrici di
emergenza, come i lava-occhi o le docce, che si attivano se ci fosse un acido che raggiunga una parte del corpo, ma anche le fontane
pubbliche. Si hanno piastre per il campionamento della legionella, con terreno specifico di coltura. Si contano poi il numero di
colonie dopo incubazione a opportune temperature.

PATOLOGIE: dopo esposizione a legionella, si ha la cosiddetta “febbre di Pontiac”, con sintomi aspecifici, che da febbre, malessere
diffuso, dolori muscolari, cefalea. In questo caso dopo pochi giorni si ha la conclusione degli effetti.
Nei casi peggiori si può avere legionellosi, i batteri gram-, tipicamente, in seguito a periodo di contaminazione più lungo, il batterio
rimane, può diffondere nelle vie aeree profonde, si hanno sintomi specifici del sistema respiratorio, come tosse, respiro affannoso,
fino ad arrivare a polmoniti, ascessi polmonari, che portano a insufficienza respiratoria e nei casi peggiori a morte. Una patologia
di questo tipo si cura con l’utilizzo di antibiotici, anche se il problema attuale è la resistenza agli antibiotici.

RIFERIMENTI LEGISLATIVI: è gestita da una serie di linee guida pubblicate oltre che il DLGS 81/2008.

ANALISI DI LABORATORIO: campionare e analizzare in laboratorio di acque prelevate da alberghi o altre strutture. Nel
campionamento si usano elementi sterili di plastica, con tutte le precauzioni del caso (guanti, mascherina), poi i campioni sono stati
portati in laboratorio. Si effettua filtrazione, con membrana, per ogni campione veniva filtrato tutto il litro di acqua, poi si toglieva
l’imbuto, si prendeva il filtro e si mette in barattolo sterile, dove si metteva poi un po’ di acqua ancora, poi si passa a coltura su
piastra, con il GVPC (terreno che favorisce la crescita), poi la piastra veniva messa in un termostato, per avere una temperatura
ideale. Poi dopo 2,3,4 giorni venivano osservate e se ci fosse già la crescita si passerebbe alla parte successiva, cioè si spatolava su
altri due terreni BCYE e TSASB. Si era in presenza di legionella solo se la crescita avvenisse in BCYE, dopo si metterebbero di
nuovo in termostato poi si passava al test di agglutinazione al lattice, dopo 5 giorni, se compariva legionella.

Quindi dal terreno si prendeva legionella e si inseriva in questi dischi, poi si mettevano delle gocce, si tratta legionella se avvenisse
agglutinazione, cioè aggregazione. La parte finale è di compilare dei rapporti di prova, che venivano dati al committente, l’unità di
misura è UFC/L.

Alcuni batteri sono psicrofili, altri mesofili e altri ancora termofili o ipertermofili, quindi la temperatura fissata nel termostato è
fondamentale per la crescita.

L’igienista industriale non firma i rapporti di prova, ma definisce i campionamenti e va a conferire a un laboratorio in grado di
effettuare queste analisi e chiude la relazione andando a definire se le procedure del rischio appaiano efficaci oppure no.

Una situazione molto da considerare è se la Legionella fosse presente nell’aria. Bisogna effettuare delle periodiche attività di
decontaminazione, sterilizzazione, condizionamento. Il rischio Legionella non è mai 0. La prevenzione del rischio Legionella passa
a procedure di disinfezione delle acque, deve avere una certa periodicità, alcune tecniche sono efficaci nel breve periodo e altre sul

pag. 18
lungo periodo. La procedura di disinfezione passa attraverso delle sostanze chimiche, oppure agenti fisici, come radiazioni non
ionizzanti (UV-C). Si possono abbinare sistemi chimici e fisici per la disinfezione dell’aria.
La disinfezione deve essere idonea verso le sorgenti. Si devono usare sostanze disinfettanti e nel momento della disinfezione è
fondamentale la cinetica, cioè il tempo di contatto tra il prodotto disinfettante e l’agente biologico, deve essere un tempo efficace a
ottenere la disinfezione.

In funzione della sostanza disinfettante che si usano, si deve tenere conto del fatto che alcune sostanze siano pericolose, quindi
l’effetto collaterale deve essere minimo.

I principali disinfettanti chimici sono:


Cloro (ipoclorito di sodio in modo particolare), che è ottimo come battericida e viricida, in grado di rompere le strutture esterne dei
batteri (membrana), è anche attivo sui Miceti. Il cloro però è tossico, un po’ corrosivo, in ambienti molto sporchi non è
raccomandabile.
Iodio: come il cloro, è uno ione negativo, non è attivo sui miceti, è meno tossico del cloro, non è così corrosivo, ma non va bene in
ambienti sporchi ed è meno stabile del cloro, perciò si deve usare immediatamente.
Sali di ammonio quaternario: NH4, si mantengono in acqua, penetrano nelle crepe, vanno bene per una serie di superfici, male nella
zootecnia. Il potere disinfettante è inibito anche da una serie di ioni, come in acque dure (magnesio e calcio). Sono meglio del cloro
e dello iodio, usati quindi molto nella zootecnia.
Acqua ossigenata: va molto bene, difatti è stata proposta anche per la disinfezione di superfici per il COVID, è usata anche per
lesioni della cute. Il contatto con acqua ossigenata, attiva delle bollicine. È poco tossico, ma incompatibile con i metalli.
Alcoli: sono battericidi e viricidi molto efficaci, quando in alte concentrazioni nei prodotti, si usano alcol etilico e isopropilico,
quest’ultimo è migliore. soprattutto attivi sui batteri, meno sui miceti e anche sui virus vanno bene. la presenza di materiale organico
li disattiva in parte, quindi non va bene per ad esempio la zootecnia. Alcune plastiche, metalli e vetro sono resistenti all’alcool.
Nelle strutture di comunità, si usano specialmente cloro (in acqua), trattamenti termici (sopra i 60°C) si ha uccisione di legionella,
raggi UV o microfiltrazione. Tendenzialmente si combinano diverse tecniche. Ognuna di queste tecniche ha svantaggi e vantaggi,
il trattamento termico è da privilegiare, perché costa poco, ha un’efficacia nel breve periodo, ma non sul lungo periodo, ma grazie
all’abbinamento con clorazione, si può effettuare anche un trattamento efficace sul lungo periodo, però la clorazione però, il
problema è la corrosione di certe tubature, ma soprattutto la produzione di composti secondari che derivano da composti attivi, come
i trialometani, che si formano tra cloro e materia organica, classificati come cancerogeni per l’uomo.

DISPOSITIVI DI PROTEZIONE COLLETTIVA: si usano per prevenire il contatto con microrganismi per via aerea, il metodo
migliore è la cappa a flusso laminare (hanno diverse classi 1,2,3). Per Legionella, quelle in classe 2, vanno bene.
Queste cappe di contenimento sono conformi a una norma tecnica e devono mantenere dei requisiti.
Poi si hanno i dispositivi di protezione individuale, che sono dispositivi che proteggono la singola persona, si indossano, per far sì
che eventuali bio-aerosol non raggiungano le vie di esposizione di interesse. Sono comunque fondamentali e sono: guanti (categoria
3 per la legionella), tute (preferibilmente categoria 3, generalmente usa e getta, devono proteggere anche nelle giunture, devono
essere compatibili con altri DPI), mascherine (le migliori con i filtri FFP3, ma anche FFP2) e facciali filtranti.
Perciò la gestione si effettua in modo sequenziale: eliminazione alla sorgente, disinfezione delle sorgenti, disinfezione delle
superfici, poi si passa ai dispositivi di protezione collettiva e poi DPI.

pag. 19
5. COVID-19

INTRODUZIONE: per ridurre l’esposizione al COVID, si usano DPCM, decreti regionali, DPC, DPI. Legionella ha infezioni ancora
diffuse ai giorni nostri, ma causa pandemia, l’interessa è monopolizzato al COVID-19, che fa parte della famiglia dei coronavirus,
che danno sintomi parainfluenzali (interessano le prime vie aeree), provocano raffreddori, ma questo tipo di coronavirus da problemi
in più legati ai polmoni.
SARS COV-2

È un virus a RNA, nella famiglia dei coronavirus ci sono state epidemie di SARS e MERS, la SARS è stata una pandemia, ma che
a differenza di questa è durata poco (6 mesi), mentre SARS COV-2 è un virus che è più contagioso di SARS e il fatto è che muta
molto rapidamente, le mutazioni sono casuali e si selezionano varianti più contagiose (variante inglese). Il virus funziona come un
classico virus, perciò tendenzialmente si agganciano alle cellule umane, iniettando il proprio RNA, in modo tale da replicarsi nella
cellula ospite, legandosi a proteine superficiali, nel caso del SARS COV-2 è la proteina ACE2, riconosciuta dalla proteina spike
presente sul virus.

Per l’infezione, si ha un soggetto positivo, il quale emette “droplets” di saliva tramite respirazione, che rimangono aerodisperse, ma
al giorno d’oggi si sa che l’esposizione per via inalatoria è quella principale, si è data grossa importanza alle superfici, può avvenire
anche con contatto con superfici, ma la mano che è entrata in contatto con superficie infetta, vada poi in contatto con le mucose
(occhi, naso, bocca). Più la gocciolina è grossa, più la carica virale è alta, quindi ciò che serve per evitare l’infezione è il
distanziamento sociale, perché i droplets grossolani (>10 micron) tendono a sedimentare e quando inalate tendono a fermarsi nelle
prime vie aeree, ma nel naso-faringe, c’è la più alta concentrazione di proteine ACE2, quindi il contagio maggiore avviene con il
naso e i tamponi che vengono effettuati per verificare l’infezione a SARS COV-2 sono naso-faringei proprio per questo motivo.

Non vengono emessi solo i droplets grossolani, ma anche fini, quindi c’è comunque emissione di particelle molto più fini (aerosol),
e questi piccoli possono penetrare nelle vie più profondo, dove ci sono cellule che esprimono meno ACE2, quindi il primo contagio
è più raro, grazie alla carica virale più bassa. L’infezione poi progredisce, con contagio tra cellula e cellula, quindi anche se il primo
contagio è principalmente in naso e faringe, dato che i virus vivono nei biofilm, possono entrare in contatto con altre cellule e passare
dalle prime vie aeree alle zone più profonde. Questo non succede sempre, perché in alcuni soggetti il sistema immunitario interviene
subito e interrompe la diffusione.

Una volta infettati, si hanno soggetti asintomatici (nessun effetto), sintomatici (esprimono effetti e sono i più contagiosi, perché
tossiscono, starnutiscono e quindi la produzione di droplets sono moltissimi), poi si hanno sintomi lievi (perdita dell’olfatto e del
gusto→ anosmia e ageusia, rinite, faringiti, tosse, febbre, vomito) e sintomi gravi, che si instaurano almeno 10 giorni dall’infezione,
come la polmonite interstiziale bilaterale.

Si ha un allegato nel DLGS 81/2008 che come già detto li classifica, è stato classificato nel gruppo 3 (elevata infettività e virulenza
e elevata trasmissibilità), c’è stata un po’ di discussione, dato che non si hanno terapie efficaci, ma la classificazione in gruppo 4,
significava avere a che fare con un virus come ebola, quindi si doveva chiudere tutto, poiché con agenti di gruppo 4 possono lavorare
solo laboratori di classe III. Si era puntato prima sulla HCQ (idrossiclorochina), che era già stata testata anche in Cina per ridurre la
mortalità, ma aveva effetti collaterali importanti, come arresto cardiaco e il tasso di mortalità in studi successivi e più potenti, ha
dimostrato che non cambiava il tasso di mortalità.

Gli antivirali hanno effetto solo nella prima fase, gli antibiotici solo se si hanno effetti combinati con altri batteri. Si usano eparina
per evitare il tromboembolismo e il cortisone, si usa in soggetti gravi.

All’inizio, nel momento in cui c’è infezione, la malattia dà sintomi lievi, quindi il nostro sistema cerca di reagire, si cerca di
intervenire con farmaci antivirali, poi si hanno sintomi respiratori, dove si ha fase infiammatoria acuta, che dà problemi, quindi
usare gli antivirali non serve più, quindi è necessaria la ventilazione.

Il tutto è iniziato a inizio gennaio in Cina a Wuhan, con isolamento della zona, poi pandemia ufficiale l’11 marzo 2020, il paziente
1 italiano è a 21 febbraio 2020.

Ma in realtà, una serie di studi scientifici successivi, come l’istituto italiano dei tumori, hanno cercato gli anticorpi contro SARS
COV-2, e avevano donato il sangue prima della pandemia e la prima positività rilevata risaliva a settembre 2019. Lo stesso in
Francia, che a livello plasmatico verificavano la presenza di anticorpi da SARS COV-2.
Si sono avute 3 fasi pandemiche in Italia (marzo, dicembre e di nuovo marzo), il lockdown funziona, inoltre c’è influenza anche
con il meteo e altri fattori climatici.

Esistono in letteratura scientifica degli elementi che considerano il dato di incidenza, cioè il numero di nuovi casi positivi sull’intera
popolazione. Se si esprimesse i positivi sul numero di tamponi effettuati, si avrebbe un valore maggiore.

Quando si è contagiati, solitamente serve una dose infettante, quindi è vero che anche un singolo virus o batterio è in grado di
contagiare, ma si può definire una dose minima infettante, quindi perché ci sia contagio, ci deve essere esposizione a una certa carica

pag. 20
di un soggetto infetto. La prima causa di infezione è il contatto, quindi se siamo vicini a un soggetto contagiante, la probabilità di
essere infetti aumenta, se non fossimo vicini a una persona infetta, il rischio sarebbe praticamente nullo.
Per infettarsi servono più particelle, se respira e basta ne servono almeno 1000, se si stesse parlando, basterebbero 10/15 minuti,
perciò è stato definito in base a questo il “contatto stretto”.

Quando si parla di infettività, l’indice è r0, che dice la probabilità che un soggetto infetto possa contagiare altre persone, si parla di
circa 14 giorni, con le varianti fino a 3 settimane, in base anche alla quantità di persone che si incontrano. Gli ambienti più pericolosi
sono gli ambienti indoor, frequentare lo stesso ambiente chiuso, significa avere una condivisione di uno stesso spazio, non ci sono
i raggi UV, che permettono di disinfettare e anche l’ozono, quindi non avendo la diluizione, gli ambienti indoor sono critici. È sulla
base di r0 che si definiscono le zone con i colori (in Italia). Non è un indicatore onnicomprensivo ed è facile da calcolare. Però non
tiene conto di alcuni aspetti, come ad esempio l’esistenza di ambienti, persone definiti come super-diffusori, ad esempio il ciclo del
freddo ha fatto osservare una serie di casi, perché a basse temperature il virus permane in un tempo molto più lungo.
Quando si ha un contatto, se l’esposizione al virus è bassa, noi siamo dotati di immunità innata, quindi ci sono componenti che
reagiscono a ospiti esterni, perciò nella saliva e nelle secrezioni si hanno meccanismi di difesa.

Dopo il contatto si ha un’immunità acquisita presente nei linfociti C e nelle immunoglobuline, ma anche in soggetti sani con buon
sistema immunitario, se la dose infettante è importante, la probabilità di infezione aumenta, oppure con dosi infettanti medio-basse,
in soggetti non così performanti a livello immunitario, hanno maggiore probabilità di infezione, come gli anziani, che possono avere
anche sintomi più gravi. Il virus può raggiungere le vie più profonde.

L’età conta, nella prima fase erano principalmente anziani, adesso un po’ meno, ma comunque il soggetto con malattie pregresse
(come trapiantati, obesi, o altre problematiche a livello immunitario) è sempre quello con esiti più gravi. Ci sono alcuni fattori che
aumentano l’infezione negli adulti, mentre di meno nei bambini. Se tutta la popolazione avesse l’immunità dei 20/30enni, non si
avrebbero tutti questi casi in ospedale, dai 50 in su si hanno problemi maggiori, quindi la probabilità di avere sintomi gravi aumenta.

La probabilità aumenta causa funzioni endoteliali ridotte, quindi si ha ipercoagulazione nell’adulto, l’endotelio si attiva e rilascia
informazioni al resto del corpo. Un altro ruolo è quello dell’immunità preesistente, cioè essere esposti agli altri coronavirus in lunghi
periodi, non aiuta l’adulto. Si ha un sistema immunotario che deperisce con gli anni e si ha che la vitamina D è un antiinfiammatorio
e antistress ossidativo e nell’adulto è meno presente che nei bambini, inoltre i bambini hanno più melatonina, i bambini hanno una
maggiore presenza di microbiota, equilibrato. Inoltre, sono soggetti a più infezioni, quindi si potrebbero avere infezioni da virus
antagonisti.

I casi gravi si hanno con cascate di citochine, con aggravamento della polmonite, insufficienza respiratoria, possono portare anche
a decesso.

VIE DI TRASMISSIONE E GESTIONE

Chi è esperto di ambiente si occupa anche di salute umana, quindi è fondamentale occuparsi anche di questo aspetto, trattandosi di
un agente biologico. Si sono effettuati degli studi dagli igienisti, in modo tale da collaborare con il datore di lavoro per aiutare nella
prevenzione, in modo rapido e se possibile in modo efficace.
Le vie di trasmissione sono:
-inalatoria
-contatto con superfici cutanee
Si è parlato di diffusione tra uomo e animale, è possibile, ma più probabile è tra uomo e uomo.
Si ha anche la possibilità di infezione fecale-orale.

VIA AEREA

È la via principale, i droplets (aerosol grossolani >10 micron) sono stati decritti, è stato ipotizzato il contagio con droplets da Flugge,
depositano in circa 2 metri e l’emissione delle goccioline aumenta a seconda di ciò che facciamo, parlare emette di più che respirare,
cantare, tossire e infine starnutire è ancora peggiore.
Gli aerosol sono definiti come inferiori a 10 micron.
In una prima fase della pandemia erano basati sui droplets, quindi è stato definito un distanziamento di 2 metri, vista la
sedimentazione a 2 metri delle particelle grossolane, senza considerare gli aerosol, quindi si era dimenticati del fatto che negli
ambienti indoor, anche le goccioline fini possono avere un ruolo importante e la dose virale è alta, specialmente se l’ambiente non
è molto ventilato. Più sono fini, più possono giungere a distanza dal soggetto che le emette. Il grosso dei droplets sedimenta, ma
comunque un colpo di tosse emette particelle a 10m/s, quindi si arriva fino a 2 metri e uno starnuto anche fino ai 6 metri.
Un colpo di tosse rilascia 3000 goccioline e uno starnuto 30000 goccioline.

MISURE DI GESTIONE

Politiche: lockdown, zonizzazioni, limitazione spostamenti


Piccola scala: distanziamento sociale, lavaggio frequente delle mani, utilizzo delle mascherine

pag. 21
Ambienti indoor: sanificazione delle superfici, purificatori aria, ventilazione e corretta gestione dei sistemi HVAC, perché questi
sistemi espellono aria presente nell’edificio e ne inseriscono di nuova, quindi fondamentale è gestirli correttamente, con circolazione
completa, evitando il ricircolo tra un ufficio e un altro ufficio.

Anche l’organizzazione mondiale della sanità non aveva considerato l’aerosol fine nella prima parte della pandemia, mentre sono
fondamentali anche gli aerosol fini, vista la presenza di persone della IAQ, che hanno insistito su questo fattore.

Gli esperti di IAQ sostengono che il distanziamento sociale e la disinfezione delle mani sono importanti, ma non sufficienti,
specialmente negli ambienti indoor, che hanno sistemi di ventilazione o un tasso di ricambio dell’aria inadeguato. Quindi si deve
garantire una ventilazione dell’aria, specialmente le aree con molte persone. Ci sono anche delle filtrazioni ad alta efficienza, che
sono in grado di trattenere anche le particelle più fini e l’uso di sistemi basati su radiazioni UV, che hanno azione battericida. Un
conto è stare vicini all’aperto e un conto è stare vicini al chiuso.

Più che il distanziamento, negli ambienti indoor è l’uso di mascherine, perché alcune mascherine sono in grado di bloccare i droplets
più grossolani e altre anche di proteggere dagli aerosol più fini. Le mascherine hanno un doppio ruolo, perché proteggono gli altri
(mascherine chirurgiche), e queste mascherine proteggono anche coloro che le indossano, vanno bene per bloccare le particelle
grossolane sia in entrata che in uscita, vanno bene anche per quelle piccole in uscita, ma poco in entrata.

Esistono anche mascherine che proteggono i lavoratori da agenti chimici, che possono essere anche UFP o nano particelle, il fatto
del distanziamento sociale, non è sufficiente, con il solo distanziamento sociale, si può calcolare il tasso di infezione, se inserissimo
anche le mascherine, si avrebbe una diminuzione del tasso di infezione del 50%.

La mascherina di comunità (in tessuto), hanno un fattore di protezione dell’individuo è relativamente bassa, con la mascherina
chirurgica aumenta, le FFP2 sono le migliori, perché permettono il passaggio di una sola particella su 100.

Però rispetto alla protezione degli altri, le particelle escono più facilmente, con la FFP2, escono ben 30 particelle su 100.

Le mascherine hanno una protezione dovuta non solo ai filtri, ma anche la tenuta facciale, perciò si ha la tenuta sul naso. Il problema
della mascherina chirurgica è la tenuta facciale. Le mascherine con la valvola, sono vietate, perché nel momento dello starnuto, non
proteggono gli altri, ma solo se stessi.

Le mascherine sono da considerare come l’ultimo strumento, perché sono DPI, prima si deve cercare di eliminare (tutt’ora non
possibile), controlli ingegneristici, controlli amministrativi e infine DPI.

Quindi il miglior modo di controllare è bloccare alla sorgente (isolamento, distanziamento sociale), secondo, impedire che il virus
possa diffondersi, quindi controlli sulla diffusione e infine i DPI.

Parlando di droplets e aerosol c’è stata un po’ di confusione, anche per via di alcuni ricercatori di pubblicare osservazioni, ma
devono essere revisionati, da altri ricercatori. Quindi così facendo di migliora il lavoro. Quindi il problema è che si sono prodotte
conclusioni troppo affrettate, quindi hanno preso l’andamento del PM atmosferico, quindi hanno dedotto che il PM funzionasse
come carrier del virus, poi permette al virus di rimanere vitale, ma tutto ciò è falso e smentito dalla letteratura scientifica.

Quindi se non si avessero tutte le varie variabili in gioco, quindi se non si conoscesse il sistema nel complesso, si avrebbero delle
deduzioni che potrebbero essere sbagliate, perché si considerano solo alcune variabili, ma non altre. L’RNA virale del virus si ritrova
nel PM, anche a Milano, soprattutto nella fase di Febbraio, perché si è nella terza fase, ma il fatto che ci sia RNA virale non significa
che il virus sia contagioso. Quando si effettua un tampone, si verifica la presenza di tre geni: E, RdRP e N, il gene N non è specifico
di SARS COV-2, mentre gli altri due sono molto più specifici.

Quando l’amplificazione avviene in pochi cicli, significa che c’è infezione, perciò se i tre geni sono presenti nel PM (anche se in
realtà se ne ricerca solo 1, anche se non è così specifico come trovarli tutti e 3), significa che c’è l’RNA del virus.

Certamente l’inquinamento aumenta gli effetti, quindi il PM ha un’azione di amplificazione dell’effetto, più che di carrier, ma non
è trasportatore di virus vitale, ma agiscono su quei sistemi che portano poi a iper-coagulazione e problemi di respirazione (quindi
effetti del COVID). I tamponi non sono un perfetto indice di prevalenza (indice di positivi su tutta la popolazione italiana), però è
un buon dato ed è un indice di gravità della malattia. Però il particolato e NO 2 aggravano la situazione, perché aggravano gli effetti,
il principale effetto del PM è di tipo cardiovascolare (ictus, infarti).

Bisogna inoltre sapere che ci siano dei periodi in cui ci siano dei picchi di infezione (come in inverno), mentre d’estate si abbia un
picco più basso causa presenza di raggi UV e anche perché il sistema immunitario è più efficiente, oltre ad altri parametri ambientali.
Il problema è multifattoriale, quindi si devono considerare vari elementi, perciò non è vero che è infettante il PM, però è un fattore
che può peggiorare la situazione viste le sue caratteristiche intrinseche.

L’ipotesi è che alcune componenti del PM hanno un effetto lesivo sull’infettività del virus, perché è acidulo, alcuni componenti del
PM inattivano il virus più velocemente rispetto all’assenza del virus.

pag. 22
In ambiente outdoor la carica infettiva del virus si disattiva facilmente, in modo particolare se sia presente il sole, mentre in ambienti
indoor, si ha una presenza più persistente dei droplets, quindi è maggiormente vitale.

Negli ambienti indoor, già in Cina, si era capito che in questi ambienti ci sia una diffusione importante, quindi si deve focalizzare il
tutto in questi microambienti (ambiente di tipo non industriale, chiuso o confinato), perciò hanno preso vari casi in cui ci sono stati
diversi cluster, analizzando i contatti familiari o di lavoro, osservando che il contagio è ristretto a poche persone, ma in alcuni casi
anche a cluster con più di 10 persone. Gli ambienti in cui si ha più infezione è la casa. Inoltre, gli ambienti di trasporto, sono stati
molto importanti, i luoghi di lavoro non sono stati molto considerati. Gli ambienti outdoor ha una rilevanza molto inferiore rispetto
all’indoor. Perciò si deve avere distanziamento, mascherine se ci fosse un’altra persona, lavaggio delle mani, ma in ambienti chiusi
il distanziamento è poco efficace, quindi è fondamentale l’uso di mascherine e lavaggio delle mani.

Inoltre, è fondamentale una buona ventilazione, se si volesse ridurre la probabilità di contagio, si deve ventilare bene e tanto, nel
modo corretto. La ventilazione può essere meccanica o naturale (apertura della finestra), in un sistema di ventilazione, che può
essere anche portatile, si può cercare di disinfettare l’aria, pulirla, evitando il ricircolo.

Nella prima fase della pandemia è stato fondamentale la disinfezione dei DPI, poiché se ne avevano poche e quindi anche negli
ambienti sanitari si aveva il problema. Quindi molto importante è anche la disinfezione delle superfici, con soprattutto etanolo, ma
l’etanolo ha evidenze tossicologiche di avvelenamento nei bambini, per ingestione.

Esistono vari metodi di disinfezione.

ESEMPIO PRATICO: valutazione dell’efficacia e efficienza della sanificazione con sistema di abbattimento fotocatalitico nei bus
(sani-bus). La fotocatalisi deriva da materiale attivo, che è l’anatasio, che è attivato dai raggi UV (lampada UV), la sostanza reagisce
con molecole in atmosfera e le dissocia e produce radicali che hanno potere disinfettante.
È stato scelto un bus, con una tratta percorsa da lavoratori, si è scelta quella tratta per avere le stesse persone in due giorni successivi,
con le stesse abitudini. Siccome determinare il SARS COV-2 è difficile da determinare se non si ha un soggetto infetto, si è dovuto
analizzare microbiologicamente, per poter verificare in atmosfera la presenza di bateriomiceti. Con campionamenti ripetuti, si usa
un sistema di CRS, cioè l’aria viene spinta contro le pareti per forza centrifuga, dove c’è una piastra e il particolato viene spinto
contro la striscia, che è coperta da terreno di coltura, che permette alle particelle di rimanere lì e crescono colonie dopo opportuna
incubazione (stessa cosa che succede con legionella).
Quando l’autobus è chiuso, l’efficienza è importante, quindi efficienza tra giorno 1-2 è circa 60-70%.
È stato effettuato un secondo test, aumentando l’efficienza di questi sistemi fotocatalitici, si sperava di aumentare l’efficienza di
abbattimento, mentre invece è stata abbattuta, perché se l’aria passa troppo velocemente, non si ha contatto tra le particelle e il
sistema di abbattimento, quindi si deve avere una portata adeguata.
Quindi è fondamentale che il datore di lavoro e i medici competenti riescano a gestire al meglio il rischio COVID (rivedere la
produzione, le postazioni di lavoro). Negli ambienti sanitari, lo stravolgimento è stato ancora maggiore, con impossibilità di fare
visita ai parenti, DPI molto importanti.

pag. 23
6. MOVIMENTAZIONE MANUALE DEI CARICHI

È un fattore traversale, perché è un fattore che ha effetti sia sulla sfera della salute che sulla sicurezza. Quindi effetti lesivi sull’uomo,
sia perché in seguito ad esposizione possono esserci delle patologie (problemi per la salute), oppure infortuni (problemi per la
sicurezza).

L’organo bersaglio, quando si movimentano dei pesi, il problema principale è osteo-articolare, specialmente il rachide (spina
dorsale), che è composta da più vertebre e tra l’una e l’altra si ha la cartilagine (disco intervertebrale) e all’interno si ha nucleo
polposo, se fuoriuscisse, si avrebbero ernie (pressione sul nervo).

Il rachide serve per permettere la posizione eretta, la struttura è elastica, inoltre l’elasticità è consentita dal disco. Le vertebre non si
consumano e siamo in grado di reagire in modo elastico a degli stimoli esterni.
Il rachide è costituito da una parte anteriore (in cui ci sono i corpi vertebrali separati dal disco), la parte posteriore (si ha
l’articolazione vera e propria), la parte anteriore ha la funzione di sorreggere il carico e quella posteriore di consentire movimenti.

Il nucleo polposo ha il compito di redistribuire le forze compressive, attorno al nucleo polposo si ha l’anello fibroso che contiene il
nucleo e non consente l’estensione in caso di pressione.
Il disco intervertebrale non ha vasi e non ha fibre nervose.

L’ideale per il rachide è avere alternanza di carico e scarico, inoltre deve alimentare il nucleo polposo. Già quando si lavora per
molto tempo seduti, si hanno delle sofferenze al rachide. Il disco deve avere un giusto nutrimento, quindi ad esempio l’attività fisica
è importante, altrimenti il disco non avrebbe una giusta idratazione. Il disco può essere compromesso con un evento traumatico
oppure quando si ha un carico eccessivo, quindi forze compressive eccessive, quindi a seconda del movimento e del peso che si sta
cercando di sollevare. Le forze compressive sono quelle che fanno la differenza, la massa trasferita in modo puntuale alla vertebra
lombare, si va a un carico inferiore ai 100Kg quando siamo seduti in posizione eretta, se ci flettessimo in avanti si raddoppierebbe
il carico, se fossimo in piedi e ci pieghiamo si raddoppia, se fossimo a 90° ancora di più e se si sollevasse un peso, ancora peggio.
Le posture e l’ergonomia sono fondamentali, si parla di ergonomia, perché molte persone sono davanti al computer (lavoro
sedentario), quindi si ritrova a stare seduta davanti al computer per 8 opre, quindi non si avrebbe sollevamento carichi, ma il disco
è in sofferenza e si rischia la disidratazione.
Se eccedessimo con il carico trasferito: se fossimo in piedi va bene, se il carico è moderato (al di sotto dei 200Kg), va bene, i
metaboliti e cataboliti vengono espulsi, se il carico è intenso, si possono avere microfratture a livello di cartilagine. Quindi di
distinguono in, carico lombare leggero (80-100Kg), moderato (100-250Kg), intenso (250-650Kg) e estremo (oltre 650Kg).
Questo tema è stato trattato da diversi anni, si ha un limite di trasferimento del carico, di solito i soggetti maschi possono sopportare
cariche superiori alle donne, causa rachide maggiore, solitamente il valore è 350Kg per l’uomo.
Però non è sufficiente distinguere con il sesso e l’età, il carico massimo accettabile è maggiore quando si è giovani.
In caso di errata movimentazione manuale dei carichi, si può avere carico eccessivo su colonna integra o carico fisiologico su rachide
debole. In questo ambito conta tanto la suscettibilità.

Le patologie che possono derivare sono:


-Spondiloartrosi: processo degenerativo della cartilagine e possono formarsi infiammazione e disidratazione, microfessurazione,
generando un processo artrosico, cioè una patologia delle articolazioni.
-Discopatia
-Ernia del disco: è la disidratazione del materiale (del nucleo polposo) e fessurazione dell’anello fibroso, può essere dolorosa o
asintomatica.

Il problema principale è il dolore lombare, è la patologia professionale più diffusa a livello professionale, colpisce almeno il 70-
80% della popolazione.

Certe patologie sono difficilmente visualizzabili, tendenzialmente quando c’è un’ernia, si valuta la storia lavorativa e si valuta con
il tipo di patologia e si riconosce dall’INAIL.

I fattori di rischio sono molti, sia lavorativi (posture incongrue, posture fisse, movimentazione carichi) che individuali (età, sesso).

Il Titolo del DLGS 81/2008 è il 6, molto importante l’allegato 33, che dice quali siano i fattori da considerare.

I problemi di questo tipo possono derivare dal trasporto dei pesi, traino, spinta. C’è stato un grande passo avanti nel 2008, rispetto
al 1994, quindi non c’è solo l’ernia da valutare, ma anche rischi meno importanti.

Il DLGS dà indicazioni generali, con strategie, come organizzazione della postazione di lavoro, inoltre, servono delle strumentazioni
che permettano di facilitare il lavoro. Riducendo i rischi al minimo, si deve considerare anche le patologie (grazie al medico
competente).

Sono fondamentali anche le norme tecniche, le buone prassi e le linee guida (le prime pubblicate da un’organizzazione
internazionale), le buone prassi da INAIL, le linee guida da società scientifiche riconosciute dal ministero della salute.

pag. 24
Le norme fondamentali sono 3 norme ISO (che hanno valenza mondiale) ISO 11228-1; -2; -3, e le norme UNI EN 1005-2 si
applicano solo al territorio coperto dall’UE.

La sorveglianza sanitaria tiene conto della valutazione del rischio, per soggetti con elevato rischio, si deve effettuare qualcosa,
servono esami diagnostici.

La periodicità della sorveglianza sanitaria varia in base alla periodicità del rischio.

Fondamentale è poi la formazione, informazione e addestramento dei lavoratori.

L’allegato 33, ci dice alcuni aspetti fondamentali da considerare: caratteristiche del carico, sforzo fisico richiesto, caratteristiche
dell’ambiente di lavoro, esigenze connesse all’attività, fattori individuali di rischio.

Di solito per verificare la presenza del rischio, si usano dei video, in modo tale da osservare se ci sia il rischio o meno.

VALUTAZIONE DEL RISCHIO

La valutazione del rischio nella pratica si effettua utilizzando dei modelli, il dinamometro è lo strumento che calcola le forze da
usare per la spinta o trascinamento del carico.

Sono degli algoritmi applicati per calcolare quale sia e a quanto corrisponda il massimo carico che si possa sollevare. Il modello
deriva dal NIOSH (istituto americano), che è basato sul calcolo di un indice (limite di peso raccomandato), si parte da un peso
massimo raccomandabile, che dipende dall’età e dal sesso, poi il peso massimo sollevabile dipende anche dei movimenti sfavorevoli
che vengono tenuti nell’equazione. Poi si fa il rapporto realmente sollevato e il peso limite raccomandato, così da capire se quello
realmente sollevato sia inferiore a quello massimo raccomandato. Se il valore è <1, si ha rischio controllato, se l’indice fosse >1 si
hanno problemi.

Di solito si lavora in tre fasce (buona, accettabile e non compliance), nella UNI EN 1005-2 si distinguono zona verde, gialla e rossa.
Il massimo carico per i soggetti maschi fino ai 45 anni, sono 25Kg, per le donne 20Kg, per i giovani e anziani, diventano 20 per i
maschi e 15 per le donne. La situazione viene peggiorata se si facessero movimenti non idonei.

Le tre fasce dette prima sono:


- ≤0.85 verde: nullo o trascurabile
- 0.86<x<0.99 giallo: significativo
- ≥1 rosso: da evitare

La nuova revisione della ISO propone indici più diversificati, quindi UNI e ISO sono differenti.
ESEMPIO: sollevamento di sacchi da 25Kg contenenti sostanze chimiche, i problemi principalmente sono dovuti al fatto che si
debba prendere il sacco da un’altezza maggiore e sporgendosi all’interno del cartone dove sono contenuti, quindi il problema è che
il limite di peso raccomandato, diminuisce con fattori demoltiplicativi e si giunge ad un indice di circa 2, quindi si è in fascia rossa.

Tendenzialmente nei reparti ospedalieri si usa l’indice MAPO, che è utilizzato soprattutto in Italia, ed è l’acronimo con
movimentazione e assistenza pazienti ospedalizzati. È un indice più complesso, meno solido dell’indice NIOSH.
Quindi se ci fosse un rischio si devono riorganizzare le postazioni di lavoro, definire idonei percorsi, degli ausili, poi si ha anche la
robotizzazione, nel caso estremo, che non è presente in edilizia, questo è un grosso problema.

pag. 25
7. NANOMATERIALI INGEGNERIZZATI

Siamo tutti sottoposti a nanomateriali, sono un inquinante emergente, questa branca industriale ha reso a disposizione questi nuovi
materiali da una ventina di anni. Si è in grado di identificarli, si è in grado di effettuare la valutazione dell’esposizione, anche se non
con facilità, ma il problema principale, è che si hanno assenza di informazioni solide sulla dose-risposta e quindi non si hanno dei
valori limite. Quindi l’approccio migliore è quello cautelativo, perciò i soggetti che producono nanomateriali, devono adattarsi per
una gestione del rischio molto ferrea.

I nanomateriali sono composti/sostanze pulverulenta (solida), prodotta o generatasi in ambiente in dimensioni nanometriche (10-
9
m). Si intende quindi un materiale in polvere, costituito da particelle, che hanno per almeno il 50% delle dimensioni inferiori ai
100nm. Le nanoparticelle hanno la stessa definizione di particelle ultrafini (PM 0.1).

Possono essere:
-Naturali: immessi in ambiente a seguito di eventi naturali
-Incidentali: prodotte dall’uomo, ma non volontariamente, sono sottoprodotti. Ad esempio dalla combustione di composti organici.
sono tipicamente costituite da carbonio elementare o organico.
-Ingegnerizzati: sono prodotti intenzionalmente dall’uomo, perché hanno proprietà chimico-fisiche molto importanti e nuove. Sono
prodotti che hanno una dimensione inferiore ai 100nm. La produzione di nanomateriali, ad esempio è fondamentale per la
nanomedicina che è una promettente parte della farmacologia che si basa all’uso di farmaci legati alle nanoparticelle in grado di
riconoscere il target biologico.

Di solito hanno proprietà completamente diverse rispetto agli stessi materiali che hanno però una dimensione micrometrica.
In funzione del tipo di morfologia si hanno:
-Nanoparticelle
-Nano-lastre
-Nano-aste
-Nano-fibre

I nanomateriali hanno caratteristiche molto diverse, alcuni sono poco problematici per l’ambiente e la salute umana, altri invece
destano preoccupazione, come i nano-tubi biopersistenti.

I nanomateriali possono essere amorfi o cristallini, possono essere mono-cristallini e poli-cristallini, possono essere mono o pluri-
elemento, possono essere in forma libera o incorporati in matrici, possono essere metallici, ceramici o polimerici.

PROPRIETA’ DEI NANOMATERIALI

I nanomateriali, se considerassimo un cubo di 1x1m, se li suddividessimo in cubi di 1x1nm, si avrebbero 10 27 cubi, quindi si avrebbe
lo stesso peso, ma un’area superficiale molto grande, quindi si avrebbero molte particelle in concentrazione numerica e una
concentrazione in area superficiale molto alta.

Sono molto più reattivi, sia per foto-reattività, che per reattività superficiale, che chimica. Tendono ad aggregarsi subito in atmosfera,
quindi l’uomo è esposto a aggregati, non alla singola particella.

Le applicazioni in ambito domestico, nel settore automobilistico, alimentare, sta crescendo nel tempo.

In termini di valutazione del pericolo, ci chiediamo quanto siano pericolosi, ma si sa poco, si hanno delle informazioni per il biossido
di titanio, ma per gli altri nanomateriali non si sa nulla.

VALUTAZIONE DELL’ESPOSIZIONE

Si può effettuare solo un monitoraggio ambientale, il grosso problema è la dose-risposta. Si valuta la dose inalatoria, perché
l’esposizione cutanea non è pertinente, perché se la cute è integra, l’assorbimento per via cutanea non può portare le particelle al
sangue. L’esposizione per via inalatoria è molto importante, perché essendo così piccole, possono passare anche al cervello, dal
naso o per via emato-encefalica. Oltre a giungere anche agli alveoli polmonari.

Bisogna definire in modo accurato e specifico l’esposizione, si devono avere misure accurate, ma non è facile.
Ci sono una serie di aspetti e complessità che rendono complicata la valutazione dell’esposizione, come:

-Scelta dell’unità di misura, di solito si usa la massa, ma in alcuni casi si hanno valori che sono al di sotto del limite di identificazione
LOD, perciò forse servirebbe la misura con il numero di particelle, quindi concentrazione numerica, si hanno strumenti a lettura
diretta che sono i contatori a particelle a condensazione, che sono in grado di contare le particelle in un volume di aria, anche l’area
superficiale può essere un parametro importante.
Se analizzassimo il volume di aria, il grosso della distribuzione delle particelle atmosferiche, si avrebbero tra 10 e 20 micrometri,
mentre nel caso di area superficiale, iniziano a contare anche le nanoparticelle e nel caso del numero, sono fondamentali.

pag. 26
La concentrazione numerica è il valore più raccomandato, però bisogna stare attenti, perché a differenza degli aerosol classici, come
ad esempio il PM2.5, la variabilità numerica è elevatissima. Fare misure della concentrazione numerica, significa spesso usare
strumenti aspecifici, quindi le misure sono aspecifiche, è impossibile effettuare misure numeriche specifiche.
Inoltre, all’interno della misura si hanno tutte le nanoparticelle (naturali, ingegnerizzate e incidentali), quindi non si può misurare
solo una classe di queste.

Quando si vuole misurare l’esposizione-effetto, l’unità di misura ideale è l’area superficiale, per predire gli effetti su NM e NP (però
pochi sono gli studi che la utilizzano).

Poi si ha la concentrazione ponderale in massa, ma non è adeguata agli scopi di misura.

Quindi se possibile bisogna effettuare un’analisi multi-metrica, quindi un’analisi in massa e numerica, poi se si potesse aggiungere
l’area superficiale sarebbe ancora meglio. La massa serve per avere una misura specifica.

Volendo si potrebbe esprimere le misure in funzione della cristallinità o caratterizzare chimicamente le particelle, analisi della
distribuzione dimensionale o studiare lo stato di aggregazione. Gli agglomerati sono difficilmente disaggregabili.

Le proprietà chimico-fisiche che si devono considerare sono, oltre a numero, area superficiale, massa, importante è la distribuzione
dimensionale e la composizione chimica e cristallina.

Oggi si è in grado di definire delle misure dell’area superficiale delle particelle e delle particelle in grado di depositare nell’area
polmonare (LDSA→ lung deposited surface area), la risposta biologica dipende più che dalla massa, dalla superficie.

-Scelta della tecnica di misura, la scelta è cruciale, dipende se volessimo un dato unico o in continuo, inoltre è importante la scelta
di avere a disposizione un dato con una buona risoluzione dimensionale oppure no, cioè se necessito avere una separazione
dimensionale delle particelle. Se volessimo una buona risoluzione temporale e dimensionale, sono necessari strumenti che siano
molto costosi, poiché servono strumenti molto specifici. Questi strumenti misurano solitamente la mobilità elettrica delle particelle.

Ci sono anche strumenti come ELPI e DMA, che danno risoluzione temporale e dimensionale, dà anche un valore a livello di area
superficiale.

Possiamo avere strumenti con buona risoluzione temporale, ma non distinguono le dimensioni delle particelle, esistono molti
strumenti, come i CPC (condensation particle counter), possono essere piccoli strumenti indossabili (monitoraggio personale), questi
strumenti consentono un aumento di dimensione, causa condensazione (nella camera di condensazione) per la presenza di pressione
molto alta, poi con un sistema laser vengono individuate. Esistono CPC in postazione fissa o mobile, quelli in postazione fissa hanno
una sensibilità maggiore (dai 3 nm in su), gli altri sono meno sensibili (dai 10-20 nm in su). Esiste l’elettrometro, che è un contatore
di particelle per diffusione, quindi le particelle vengono caricate da un electron charger, entrano in un primo sistema di diffusione e
a seconda del movimento si capisce la dimensione e poi alla fine vengono contate. L’elettrometro misura in base all’area superficiale.

Oppure avere una buona risoluzione dimensionale, ma bassa a livello temporale (come per gli impattori multistadio, che permettono
di ricostruire la distribuzione dimensionale, ma non temporale). Uno strumento che consente una buona risoluzione dimensionale,
ma non buona a livello temporale è l’impattore a cascata, i filtri possono essere mandati ad analisi chimica. Sono degli strumenti
che danno dei valori sensibili.

Il sistema più semplice è quello che consente di dare una taglia integrata e un’integrazione temporale, con impattori ad esempio
elettrostatici, ma non esistono strumenti piccoli.

A livello di enti e normazioni, esiste una norma tecnica che suddivide le possibilità di monitoraggio ambientale di nanoparticelle,
nelle categorie viste prima, si hanno quindi diversi strumenti utilizzabili.

Quindi in riassunto, ci sono molti strumenti e l’esperienza fa la differenza, serve dare una misura specifica e precisa, accurata, si
necessita di individuare uno strumento che sia non troppo costoso. Si necessita generalmente di effettuare una misurazione con degli
strumenti personali, ma ad oggi è impossibile per le nanoparticelle. In conformità della UNI EN 689, si deve scegliere la migliore
opzione in funzione della metrica e dei tempi di riferimento dei valori limite, se fossero dei dati short-term, non si potrebbero usare
strumenti che non hanno una buona risoluzione temporale. Inoltre, si deve scegliere in base alla metrica. La strumentazione non è
specifica, perché si hanno delle misure di nanoparticelle, ma senza riuscire a classificarle dimensionalmente, a meno di strumenti
come impattori a cascata molto grandi. La sfida è quindi quella di sviluppare strumenti accurati e precisi.

Esistono ipotesi basate sul fatto di misurare delle proprietà superficiali.


-Scelta della strategia di monitoraggio, quindi scelta dei SEG, numero dei campioni da ottenere e valutare se si deve effettuare una
valutazione in postazione fissa.

pag. 27
Il punto della situazione attuale è che nelle linee guida che esistono, ci sono approcci dove il monitoraggio è lasciato come ultimo
punto di approfondimento. Quindi si parte dal punto di vista delle caratteristiche chimico-fisiche e tossicologiche (sono più
pericolose a livello inalatorio quelle insolubili, rispetto alle solubili). Si fanno misure solo se si hanno dei dubbi.
Tipicamente un approccio di monitoraggio multilivello prevede un monitoraggio non specifico (con CPC), si valutano le sorgenti,
si osserva se le concentrazioni siano o meno sotto controllo. Se non lo fossero si usa strumentazione portatile, in cui si raccolgono
campioni in massa per analisi più specifica. Le nanoparticelle ingegnerizzate sono solo una parte, quindi anche negli scenari
lavorativi, sono presenti anche in concentrazioni molto inferiori rispetto ad alcuni particolari mansioni lavorative.

-Discriminazione del valore di fondo, quindi si deve trovare un modo per discriminare il valore di fondo già presente in quell’attività
lavorativa. A Como si hanno qualche migliaio di UFP in un cm3, a Milano ancora di più.

La discriminazione del valore di fondo deve essere eseguita, poiché ci sono varie mansioni lavorative, quindi si può effettuare:
Approccio temporale: concentrazione determinata durante il periodo di non attività è considerata come concentrazione di fondo.

Ogni incremento verificato durante l’attività è attribuito al processo, alla presenza di NP o entrambi.

Approccio spaziale: in prossimità dell’attività e contestualmente con lo stesso strumento e con lo stesso approccio si effettua anche
in un’altra zona e la differenza dà la presenza di nanoparticelle prodotte.

Approccio comparativo: cioè lo stesso reparto fa le stesse attività in assenza di nanomateriali e il giorno dopo si effettuano attività
di punta periodicamente. Quindi si ha un paragone e la differenza dà il contributo.

Approccio con analisi chimiche e/o morfologiche: con analisi di filtri o con microscopia elettronica (potere risolutivo molto elevato).
Se non si sapesse che ci fosse un valore di fondo, tutta l’esposizione verrebbe attribuita all’attività lavorativa. Quindi con le
nanoparticelle, il valore di fondo è fondamentale, perché le UFP sono presenti ovunque.

Con strumenti a bassa sensibilità si perderebbe un po’ di informazione.

-Confronto con il valore limite, il problema è che in queste classi di contaminanti, non si hanno a disposizione dei valori limite,
quindi spesso diventa inutile valutare il rischio, se non si avessero dei VL, perciò la misura serve per tenere sotto controllo il
processo.

Quindi non avendo a disposizione VL occupazionali per quello specifico agente chimico, non si può concludere la valutazione del
rischio (caratterizzazione del rischio). Esistono dei valori limiti proposti da enti nazionali, ma sono delle proposte, quindi non sono
cogenti. Poi si hanno valori limite proposti da aziende o gruppi di ricerca. Si hanno anche dei DNEL (REACH). Questi valori limite
proposti sono sulle 8 ore lavorative in 5 giorni a settimana. Molto spesso i VL derivano dall’applicazione di diversi fattori
demoltiplicativi.

Esistono anche livelli di riferimento basati sulla dimensione e densità dei nanomateriali, considerando i nanomateriali metallici,
nanomateriali granulari e nanotubi di carbonio.

Quindi è una sfida determinare dei VL per i nanomateriali.

Altri limiti al giorno d’oggi delle nanoparticelle e nanomateriali:


-Monitoraggio biologico: non è possibile effettuare un monitoraggio biologico con le nanoparticelle, perché i fattori di
confondimento sono talmente elevati che non si può effettuare.
-Esposizione cutanea: al giorno d’oggi non è considerata.

Si hanno linee guida internazionale e norme tecniche specifiche che ci dicono come misurare l’esposizione da nanoparticelle
ingegnerizzate (schema riassuntivo degli approcci strumentali) e un’altra parla della valutazione dell’esposizione a nanoparticelle e
agli aggregati.
Esistono linee guida della WHO, che sono riferite specialmente alla gestione del rischio.

GESTIONE DEL RISCHIO

In settori produttivi che producono o utilizzano nanomateriali ingegnerizzati, il primo passo è eliminare il nanomateriale
sostituendolo, ma se non si potesse, allora si devono realizzare delle cabine ermeticamente separate dal resto del sistema produttivo,
con forte aspirazione che genera depressione, quindi si ha un grosso ricambio di aria, si effettuano anche controlli ingegneristici al
sistema di ventilazione, specialmente sistema di ventilazione contingentati alla sorgente, poi un passo successivo è il lavoro sotto
cappa (con buona velocità frontale), più è basso il vetro della cappa, più aumenta la velocità. Si devono avere buoni sistemi di
ventilazione e non si deve emettere in ambiente, dato che non si conoscono gli aspetti ecotossicologici.

pag. 28
Oltre alle misure ingegneristiche, servono delle misure procedurali, quindi nei settori in presenza di sostanze nanomateriali, le
operazioni critiche devono essere effettuate secondo procedure che proteggono lavoratori e anche soggetti delle pulizie. Meglio
usare le cappe biologiche di quelle chimiche.

Alla fine di tutto ci sono i DPI, che servono per proteggere (mascherine e maschere, guanti→ per evitare il contatto tra mano e
bocca, tute).
Le mascherine FFP1 hanno un picco per le particelle nanometriche, mentre hanno un calo dell’efficienza a circa 0.3 micrometri,
poiché quelle nanometriche si muovono attraverso moti Browniani, quindi non passano per il filtro, mentre quelle più grossolane
non passano grazie al filtro. La FFP2 e FFP3 sono molto più protettive, perché hanno un’efficienza di 95 e 99%.

Di solito si usa il polietilene ad alta densità (Tyvek).


I guanti sono o in lattice o neoprene, di solito si usa il neoprene, perché al lattice si hanno molto spesso allergie, il lattice presenta
maggiore protezione da alcune sostanze.

In conclusione: mancano i dati tossicologici, non si può concludere la valutazione del rischio, la valutazione dell’esposizione non è
semplice, anche se possibile. È molto importante l’identificazione del pericolo, soprattutto per la presenza di polimorfi, come
anatasio per l’ossido di titanio. Attualmente ci sono esperti che lavorano in questo campo, si spera di avere indicatori biologici in
futuro per legare anche il monitoraggio biologico con quello ambientale.

pag. 29
8. QUALITA’ DELL’ARIA OUTDOOR

Reti urbane per il monitoraggio della qualità dell’aria e telerilevamento: la qualità dell’aria è uno dei problemi principali che danno
i principali impatti sulla salute umana. Questa valutazione dell’inquinamento ambientale si osserva per verificare le cause di morte
o ricoveri ospedalieri, specialmente da particolato atmosferico (PM 2.5), il quale ha un effetto principalmente cardio-vascolare a
livello acuto (si parte da arresto cardiaco, ictus, trombosi→ il sangue diventa molto più denso), oltre che tumore al polmone (long-
term). Il PM viene generalmente misurato con delle centraline ARPA.

Oltre al PM, vengono controllati:


-NO2, ha gli stessi effetti sull’uomo del PM, una serie di studi dimostra che provoca effetti cardio-vascolari e respiratori.
-O3, presente principalmente d’estate, causa raggi UV, che fanno da catalizzatore, quindi avvengono reazioni fotochimiche, è
irritante e ha effetti sull’apparato respiratorio → esacerbazione sulle crisi d’asma.
-CO, ha effetti acuti, al sangue non lega l’emoglobina e si ha un ipo-ossigenazione.
-SO2, è un problema nelle cittadine marittime, perché nei porti si ha traffico navale e il gasolio navale è pieno di zolfo.
-Benzene, da leucemie, con 1% massimo nelle benzine. Il benzene si voleva una percentuale alta di benzene, perché aumenta il
numero di ottani e quindi aumenta le prestazioni. È cancerogeno, non ha soglia, quindi è molto problematico anche adesso. Ci sono
circa 20-30 casi di leucemia da benzene. L’attuale valore limite è 5 µg/m3, negli ambienti indoor si ha la stessa esposizione degli
ambienti outdoor.
-BaP , benzo-a-pirene, fa parte degli IPA, è cancerogeno per il polmone, da combustione incompleta, principalmente della legna. Il
valore limite è un ng/m3, in alcune zone si sfora, specialmente in inverno.

Si misurano, perché costretti dalla UE, l’Italia è uno dei Paesi dell’UE con il maggior numero di centraline.

L’inquinamento atmosferico è il cambiamento della composizione media dell’atmosfera, causata per motivi antropici, ma anche
naturali (eruzioni vulcaniche, incendi boschivi), quindi c’è presenza di sostanze che in quantità e caratteristiche alterano le
condizioni di salubrità e tali da costituire pericolo per la salute umana.

L’inquinamento è un fenomeno complesso e mutevole, che provoca danni per la salute (danni acuti e cronici), ma anche danni
globali (effetto serra, ma anche alterazione del patrimonio storico, artistico, degli ecosistemi e della vegetazione).

Quando si parla di inquinamento atmosferico, non si intende solo di inquinanti primari, quindi che vengono emesse come tal quali
dalle sorgenti, ma ci sono anche gli inquinanti secondari, che si generano successivamente a diffusine, trasporto, deposizione e
trasformazioni chimico-fisiche. Le reazioni possono portare anche al cambiamento di stato degli inquinanti primari, come
l’ammoniaca che reagisce con l’acido nitrico o solforico (derivati da NOx e SOx), quindi gli inquinanti gassosi reagiscono e danno
origine a inquinanti solidi (Sali). Oppure la reazione negli ambienti indoor tra VOC e O 3 a dare UFP.

L’aria che respiriamo è la prima preoccupazione per la salute umana, poi si hanno anche contaminazione dell’acqua, radiazioni,
rumore, rifiuti, clima, prodotti chimici, presidi medico-chirurgici.

Quindi con aria contaminata, si ha possibile intake, poi con le particelle riescono a entrare nel circolo sanguigno solo se molto fini,
mentre per il gas, esso entra subito nel circolo sanguigno. Si possono avere danni acuti, cronici, locali o sistemici.

Lo studio dell’incidenza o prevalenza di una malattia sull’uomo avviene con l’epidemiologia, che studia l’esposizione con una
statistica molto avanzata. Un indicatore epidemiologico di danno è il DALY, che è composto da due addendi, che sono gli anni di
vita sana persa e gli anni di vita persi perché si muore precocemente. Questi fattori sono diventati sempre più importanti, ormai da
una decina danni si sono raccolti dati sull’incidenza e prevalenza per una serie di patologie a livello globale e unire a queste una
serie di rischio ambientali.

Quando si parla di DALY e inquinamento atmosferico, si può osservare uno studio che comprende i 9 inquinanti principali (PM2.5,
benzene, NOx…), che indicano i problemi e danni principali da tali composti.
Tendenzialmente tutti i Paesi comunicano vari dati e quindi si ha la possibilità di osservare le cause ei rischi, i pattern e tendenze
per posizione, età, sesso e i cambiamenti nel tempo delle patologie. Nel DALYS, si osservano delle mappe che indicano la crescita
di alcune malattie, come diabete, HIV, con colore rosso per le malattie trasmissibili, blu: non trasmissibili e verde: lesioni.
Poi si può scegliere il fattore di rischio, il Paese, per filtrare i dati.

PM
Dal punto di vista del PM in Italia, in Pianura Padana, in inverno si ha ristagno al suolo di inquinanti, dovuta a stabilità atmosferica
grazie all’orografia del terreno, in più in inverno si ha l’inversione termica (temperatura più alta in alto piuttosto che in basso in uno
strato dell’atmosfera→ strato di inversione).

L’inversione termica blocca la PBL, quindi concentra gli inquinanti in pochi metri.
Si parla tipicamente di PM2.5.

pag. 30
Per particolato si intende un insieme di particelle di origine diversa, composizione chimica diversa, quindi è un insieme di particelle
molto diversificate.
In Europa, in un report del 2015 riferito al PM 10, si osserva problema principalmente nell’Europa centro meridionale e nell’Europa
dell’est.

Focalizzandoci in Lombardia, il PM10 deriva più dal riscaldamento domestico (che produce soprattutto gas che si ricombinano→
principalmente inquinanti secondari; in America è principalmente di tipo carbonioso), combustione non industriale, ma anche
traffico, abrasione degli pneumatici. Si cerca quindi di ridurre la produzione di energia e la produzione industriale, ma anche a
livello di traffico, ma a livello di riscaldamento si sta andando peggio.

La quota antropogenica di produzione di PM pareggia la quota naturale, si ha una produzione naturale elevatissima dal deserto, che
presenta silice cristallina (cancerogena).

Il PM dà problemi cardio-vascolari, cancro al polmone, polmoniti, diabete, peso inferiore alla nascita.
NO2

Oltre al particolato si ha NO2, il problema è più ampio, con principale presenza in Europa centrale. È molto complicato riuscire ad
abbattere gli NOx, non si hanno tecnologie molto valide, forse la soluzione sarebbe quella di avere auto elettriche (emissioni 0).
O3

L’ozono è un grosso problema perché sta aumentando a livello globale, anche in ragione dei cambiamenti climatici, perché l’ozono
è un inquinante secondario di origine fotochimica. Bisogna stare attento ai precursori, quindi i composti chimici inorganici non
metanici. Sono stati ridotte le produzioni di idrocarburi non metanici.

È molto complicato abbassare la presenza di ozono.

Benzene (C6H6)
È un cancerogeno, è gruppo 1 della IARC, ma anche categoria 1 europea. Si è ridotta la percentuale di benzene nelle benzine
(massimo 1%), con riduzione notevole di concentrazione.

Benzo-a-pirene
È una sostanza cancerogena, che ha incrementato la presenza di tumori al polmone, è un IPA (idrocarburo policiclico aromatico).

Si può osservare la concentrazione di questi inquinanti sul sito dell’ARPA Lombardia. È un dato di simulazione, con modelli che è
basato sulla conoscenza delle sorgenti.

La rete è composta anche da centraline, quindi strutture in vetro-resina, chiuse, in cui sono presenti una serie di strumenti che hanno
una disposizione modulare.

Gli strumenti che trovano alloggiamento sono strumenti di riferimento a livello europeo, di solito si usano gli analizzatori, che danno
valori real-time. Il dato migliore è con la determinazione gravimetrica, mentre gli strumenti in continuo non sono sempre validi, si
possono avere errori. Devono essere strumenti che siano basati su standard europei, si analizzano: SO2, NOx, PM, CO, O3, BTX,
per ognuno degli inquinanti si hanno delle tecniche di verse: Fluorescenza molecolare (SO 2), chemiluminescenza (NOx), TEOM
(PM), spettrofotometria infrarosso (CO e CO2), Assorbimento UV (O3), gascromatografia (BTX).

C’è una direttiva che ha stabilito le aree dove campionare, indicando che in una certa area servono un certo numero di centraline a
seconda della quantità di persone presenti in quell’area.

In area urbana ci sono diverse tipologie di centraline, ad esempio per l’impatto del traffico o in aree industriali o per i livelli di
inquinamento di fondo urbani, quelle più importanti sono quelle urbane, perché consentono di valutare la concentrazione per la
salute umana.

I dati sono raccolti dalle stazioni fisse, ma anche da alcuni mezzi mobili, campionatori aggiuntivi in alcune aree.

Una valutazione della qualità dell’aria, si effettuano considerando i valori limite presenti nel DLGS 155/2010, per il PM 10 si ha
valore limite di 50µg/m3 nelle 24 ore, per più di 35 volte in un anno non deve essere superato tale valore. Mentre il valore annuale
è di 40µg/m3. Per il PM2.5, il valore limite è di 25µg/m3, durante l’anno, ma spesso in inverno si hanno 100µg/m 3.

Per NO2 si hanno valori limite orario e annuale, che sono 200µg/m3 e 40µg/m3, mentre per l’ozono, si ha un valore limite nelle 8
ore di 120µg/m3 da non superare per più di 25 volte all’anno, anche se poi si può superare, basta che nei tre anni non si superi il
valore per più di 75 volte; poi si hanno valori obiettivi per la vegetazione, poi si ha anche un valore di soglia d’informazione e
d’allarme, che sono 180µg/m3, 240µg/m3.

pag. 31
Per il CO il limite è di 10µg/m3 sulle 8 ore, questo valore non è un problema, anche se si è riaperta la problematica, con evidenza di
effetti cronici del CO, però il problema degli studi epidemiologici, è difficile scorporare l’effetto sull’uomo di una variabile rispetto
alle altre.

Per SO2 si ha un valore limite giornaliero di 125µg/m 3, con massimo 3 superamenti all’anno e 350µg/m 3 come valore limite su
un’ora.

Poi si ha il benzene, che ha un solo valore limite long-term, 5 µg/m3.

Il benzo-a-pirene ha valore limite cronico di 1ng/m3. In alcune zone si supera il valore.

Per i metalli pesanti, si ha Arsenico, Cadmio e Nichel che sono cancerogeni confermati, mentre il Piombo è un neurotossico e non
è confermato come cancerogeno (saturnismo). I valori sono: Arsenico→ 6ng/m3, Cadmio→ 5ng/m3, Nichel→20 ng/m3, Piombo→
0.5µg/m3.

SORGENTI LOCALI
Si hanno emissioni disponibili al cittadino da INEMAR, ma non è più stato aggiornato, questo sistema presenta come problema
principale degli NOx, il traffico veicolare, mentre per l’SO 2, la principale sorgente è il trattamento e smaltimento dei rifiuti.
Per il metano, si hanno emissioni da agricoltura, trattamento e smaltimento dei rifiuti e perdita dalla combustione.
Per i VOC (fondamentali per l’ozono), questi derivano dall’utilizzo di solventi e dai processi industriali.
L’ammoniaca è il precursore di tutto il particolato secondario, deriva principalmente da agricoltura. Sul PM 2.5, la componente
principale è generata dalle caldaie domestiche.

Esistono anche delle APP, che permettono di avere il dato ufficiale per le agenzie della protezione dell’ambiente o anche dati
mondiali.

Oltre al monitoraggio ci sono tecniche di remote sensing, una è il telerilevamento, usato specialmente per il controllo del suolo e
inquinamento delle acque. Dove si hanno cementi-amianto, si utilizzano queste tecniche, che permettono tramite telerilevamento,
di individuare la presenza dell’amianto. Quindi in funzione del dato, si possono individuare delle aree da tenere in considerazione.
Inoltre, è fondamentale anche l’uso dei satelliti, che sono in grado di controllare la colonna atmosferica dei composti. Si possono
fare anche stime di concentrazione al suolo, ci sono complessi algoritmi di calcolo.

Si hanno in orbita dei satelliti della famiglia “sentinel”, in grado di produrre immagini ultraspettrali. Sono in grado di dare
informazioni con risoluzione spaziale. Le informazioni vengono poi inserite nel modello “Ensamble”, in grado di determinare la
deposizione di tali inquinanti.

ESPOSOMA: si basa sulla storia espositiva di un soggetto, sulla base di sostanze biologicamente attive, tenendo conto della
suscettibilità individuale, quindi l’obiettivo è di usare questi dati, per avere un rapporto su uomo e ambiente.

pag. 32
9. QUALITA’ DELL’ARIA DEGLI AMBIENTI INDOOR

L’obiettivo è valutare la qualità dell’aria tenendo sotto controllo i rischi per la salute umana, di solito si prevedono delle stime o
delle misure, confrontando dei valori guida, tenendo sotto controllo di alcuni inquinanti chimici, ma anche fisici.

Quando si parla di qualità dell’aria, non si considera l’esposizione, ma si fa una qualità dell’aria nel complesso, ma in senso più
ampio, non solo della qualità dell’aria, ma della qualità ambientale (IAQ→ indoor air quality e in più ampio grado IEQ→ Indoor
environmental quality).

Si parla del problema della qualità dell’aria interna, perché è attuale, riguarda la salute della popolazione umana, deriva da
caratteristiche costruttive dell’edificio (quindi quando un edificio non è costruito con materiali idonei o quando non è strutturato),
caratteristiche di esercizio degli edifici (possono dare problemi alla salute, come ad esempio il rischio legionella o i problemi di
comfort percepito dal calore), caratteristiche della popolazione a rischio (cambia il tipo di popolazione che si presenta negli
ambienti indoor→ ad esempio le case di riposo per il rischio SARS COV-2, oppure per quanto riguarda l’amianto, sono più a rischio
i soggetti giovani).

Per quanto riguarda le caratteristiche degli edifici, è necessario avere nuovi criteri di progettazione e costruzione, nuovi materiali
da costruzione, rivestimento e arredo, avere isolamento termoacustico, installazione di impianti di ventilazione forzata.
Tutti noi passiamo più del 90% del tempo in casa/aule/mezzi di trasporto, perciò si necessita di avere delle case o comunque degli
ambienti indoor che siano con il migliore dei materiali, è cambiato quindi il modo di arredare, gestire e così via.

In alcuni casi si possono avere anche grossi problemi.

Si tende ad abbinare ad un intervento trainante, quindi un nuovo cappotto termico con impianti di ventilazione forzata per garantire
una buona ventilazione, questi impianti vanno gestiti.

Per quanto riguarda le caratteristiche di esercizio degli edifici, è necessario il risparmio energetico, la diffusione di strumenti di
lavoro con uso di locali, utilizzo di nuovi prodotti di pulizia, inadeguata manutenzione degli impianti di riscaldamento e
condizionamento dell’aria.

Quindi se non manuteniamo bene gli impianti, possono esserci dei problemi.

Per quanto riguarda le caratteristiche della popolazione a rischio, si hanno sempre meno lavoratori nel settore primario, mentre ora
si hanno molti più lavoratori nel terziario (attività effettuate per altri e che non prevedono un ciclo produttivo).

Questo va tenuto in considerazione, perché sono sempre di più i lavoratori impiegati negli ambienti indoor. Per i lavoratori
dell’industria il monitoraggio si effettua con monitoraggio ambientale o biologico o modelli o algoritmi. Ma per chi lavora in
ambienti indoor, non si può confrontare con un valore limite di valenza occupazionale, ma si usano dei valori guida (necessari per
la popolazione generale). Si considerano le 24h al giorno e non le 8h come al lavoro, quindi i valori saranno molto diversi,
sicuramente più alti negli ambienti industriale, ma più bassi i valori guida, e sono questi utilizzati per valutare se il sistema sia
salubre o meno.

Tipicamente la popolazione che vive negli ambienti indoor, sono più suscettibili, ad esempio troppo rumore, temperatura inadeguata,
quindi in questo caso si hanno molte più lamentele.

Tutti noi passiamo più del 90% negli ambienti indoor, l’esposizione complessiva è influenzata dagli ambienti indoor, mentre poco
dagli ambienti outdoor, a meno che ci siano forti impatti. Ma di solito passando poco tempo negli ambienti outdoor, l’influenza è
bassa, a meno che si considera l’effetto acuto.

L’esposizione maggiore a UFP (particolato di origine recente), si ha quando si accendono dei fornelli o movimento in macchina.

Per quanto riguarda le particelle fini, allora la situazione cambia leggermente.

I maggiori inquinanti indoor sono: allergeni, Radon, fumo di tabacco, Benzene, Monossido di carbonio.

Questa tematica si è diffusa principalmente dagli anni ’80, da fine anni ’80 si sono prodotte monografie per informare esperti e
popolazione generale.

Il primo intervento importante a livello legislativo risale al 2001, con la diffusione delle linee guida, riferendoci specialmente la
legionella.

Anche il DLGS ci parla di ambienti indoor, quindi il datore di lavoro ha l’obbligo di far lavorare i propri lavoratori in ambiente
salubre.

pag. 33
Gli agenti chimico-fisici principali sono: PM, NO2, asbesto, IPA, VOC (spesso arrivano fino a 10 volte di più della concentrazione
esterna), formaldeide (si può arrivare a 100microgrammi/m3), antiparassitari (come gli antizanzara), radon.
Gli agenti biologici sono: batteri, pollini, virus, miceti, acari, residui biologici (micotossine, endotossine→ pezzi di molecole che
fanno partire una reazione dal sistema immunitario), composti allergenici.

Negli ambienti indoor è quindi necessario avere dei buoni sistemi di ventilazione, che presentano un ventilatore di aspirazione, in
parte viene eliminata all’esterno e una parte viene riciclata, perciò l’aria che viene tolta dall’ambiente indoor, in parte viene ri-
inserita, ma diluendola. Quest’aria può essere trattata con dei filtri.

Ci sono grossi problemi nell’impianto di ventilazione, come errata collocazione di bocchette di presa d’aria.

Bisogna stare attenti a dei tavolini, che sono in truciolato e contengono colle realizzate con formaldeide, che quindi viene emessa
nell’aria interna. Poi si hanno le stampanti, la carta stoccata da anni può diventare un problema per i miceti. Oppure le muffe. Certi
locali vengono usati come deposito, come per le vernici, intonaci e così via.

I prodotti di pulizia sono potenziali sorgenti di contaminazione indoor, di solito non sono direttamente dannosi per la salute umana,
ma possono giungere allergie.

Il problema è quindi molto attuale, si fanno anche nelle grandi industrie analisi delle qualità degli ambienti indoor.

EFFETTI CLASSICI

-Sindrome dell’edificio malato (SDS): accade che gli occupanti di un edificio o di un singolo locale di un edificio o di un piano
dell’edificio, manifestano dei problemi e quindi si lamentano, ad esempio per effetti sgradevoli. Però nessuno di questi soggetti deve
avere delle malattie già identificate. È molto difficile determinare la causa.

-Malattie correlate agli edifici (BRI): è molto specifica, quindi è più facile individuare la causa, i sintomi sono ascrivibili a un solo
contaminante indoor e sono tendenzialmente difficilmente recuperabili, cioè non sono sempre di rientro immediato. Sono agenti che
agiscono a livello polmonare (come solventi).

-Sindrome da sensibilità chimica multipla (MCS): patologia rara, ascrivibile a un solo soggetto. I sintomi sono molto fastidiosi,
oltre a irritazione o conseguenze nelle vie aeree, si possono vere difficoltà respiratorie, è successo che dopo attività di
ristrutturazione, si avevano soggetti che non potevano più stare in quegli ambienti. Ci potrebbero anche cause legate alla sfera
psicologica, quindi non ascrivibili solo alla sfera biologica.

SORVEGLIANZA IGIENICO-SANITARIA

È necessaria una sorveglianza ambientale e sanitaria, quindi si abbina una sorveglianza ambientale a una serie di dati sul comfort
sullo stato di salute e sulla percezione degli occupanti. La sorveglianza ambientale si basa su due strumenti, una è una check-list
prodotta in seguito a un sopralluogo, che si basi su tutte le sorgenti indoor e come vengono gestiti e controllati, quindi si fa un
inventario, queste check-list sono ormai standardizzate.

Poi si passa al monitoraggio ambientale, al quale si associa una misura o stima del tasso di ricambio dell’aria, considerando gli
inquinanti chimico-fisici e biologici.

Si ha poi la sorveglianza sanitaria, dove si effettuano dei questionari anonimi, nei quali si valuta il comfort, con una scala da 1 a 5
o 1 a 7. In più in questo questionario si raccolgono dei dati sui sintomi percepiti (cefalea, sintomi oculari, sintomi delle prime vie
aeree), poi il dato sanitario, nel caso di uffici è già disponibile (cause di assenza per malattia), poi il medico del lavoro visita i
pazienti, ci parla e ha sotto controllo lo stato di salute (ogni 3 anni per i video terminalisti).

Questa visita preventiva è anche per sensibilizzare i lavoratori a uno stile di vita migliore.

Il tutto, viene gestito in più fasi, quindi la valutazione dell’aria si effettua nel seguente modo:
-acquisizione di dati (alcune già presenti in ufficio tecnico), inventario delle sorgenti e informazioni sulla manutenzione.
-rilievo della situazione in loco: sopralluogo, compilazione scheda, questionario per la valutazione della percezione della qualità
dell’aria da parte degli occupanti.

-indagine strumentale ambientale: avviene in due fasi, si parte prima dagli inquinanti di base (PM, NO 2, TVOC, CO, CO2→ cattiva
ventilazione, le misure di CO e CO2 sono abbastanza attendibili, un po’ meno per il PM; poi si misurano anche caratteristiche
biologiche, come UFC, ad esso si associa anche il microclima) se anche questo non fosse sufficiente ad individuare il colpevole, o
anche se si individuasse, si deve capire però quale sostanza specifica genera i problemi maggiore, tipicamente con gas-
cromatografia. se la situazione è sotto controllo, si conclude la relazione, mentre se non fosse sotto-controllo, sarebbe necessaria
una bonifica, quindi una sorta di gestione (gestione della qualità dell’aria).

pag. 34
-accertamenti ambientali mirati: come detto prima, si analizzano in modo specifico delle sostanze, come con gascromatografia o
HPLC, GC-MS, oppure usando terreni selettivi per capire il genere o la specie, con test biochimici o su base morfologica. Poi si
possono analizzare gli allergeni (metodi immunologici) oppure analisi delle fibre con filtri. Anche le fibre sostitutive irritano le vie
aeree. La misura del tasso di ventilazione si usa con gas traccianti, ad esempio il decadimento di picchi del CO o la CO 2. Poi si ha
anche la misura del radon, spesso molto semplice.

Di solito si usa una stazione multi-parametro, così da misurare più inquinanti insieme. Per quanto riguarda il PM2.5, si hanno valori
molto più alti rispetto al valore raccomandato, in inverno si hanno la maggior parte degli edifici con un valore doppio di quello
raccomandato.

COME FARE UNA VALUTAZIONE AMBIENTALE DELLA IAQ?

Una valutazione della IAQ, dopo che si è effettuata la valutazione dell’esposizione, si esegue una caratterizzazione del rischio,
confrontandosi con la qualità dell’aria degli ambienti indoor e i valori guida dell’ambiente indoor, con i giusti tempi di riferimento,
come indicato per i VL.

Quindi si effettua un campionamento a centro ambiente, quindi un campionamento ad area (150cm di altezza o 110cm se l’operatore
è seduto), quindi si campiona un certo inquinante (PM, CO, Benzene, NOx). Se c’è combustione, si producono vari inquinanti, come
IPA, NOx e così via. Le concentrazioni vanno riferite a un tempo di campionamento che sia compatibile con il tempo di riferimento
del valore guida.

Ad esempio, la formaldeide dà effetti acuti, è irritante a livello di organi di senso (prime vie aeree). Il tempo di riferimento è breve,
il valore infatti è 100µg/m3 su 30 minuti.

Mentre per il PM è 40µg/m3 sulle 24 ore, quindi per effettuare campionamenti che considerino entrambi gli inquinanti e i loro tempi
di riferimento, è necessario per la formaldeide usare strumenti in continuo, poiché il tempo di riferimento è molto breve.
Un buon campionamento indoor, servirebbero due momenti di misura, nella stagione fredda e nella stagione calda (viste le grosse
differenze, dove in inverno si ha una temperatura più bassa, meno radiazioni, mentre in estate c’è più inquinamento da ozono, ma
meno da PM, grazie alle radiazioni UV). Quindi serve almeno un campionamento ripetuto.

Si deve per prima cosa capire quante case/scuole si devono misurare per avere un dato che sia corretto in termini statistici, quindi si
deve effettuare un’analisi di potenza. Si può fare una valutazione delle misure da effettuare per avere un dato che sia approssimativo
di ciò che devo valutare. Il secondo aspetto è quanto siano rappresentativi gli ambienti selezionati. Quindi gli aspetti di disegno
preliminare sono essenziali.

Le linee guida migliori sono riferite alla WHO del 2010, per il CO le misure sono affidabili, si usano strumenti che siano diretti, in
continuo e poi si effettua una media. Più si va avanti negli anni, più l’inquinamento outdoor si riduce.

SORVEGLIANZA SANITARIA

Nel momento in cui ci siano lamentele, non si può non prendere informazioni sullo stato di salute degli occupanti, quindi si procede
con un questionario, ora sono online. Si considera la percezione dell’ambiente esterno e la sintomatologia (quali sono e frequenza
delle problematiche), soprattutto ci si focalizza su sintomi specifici, come irritazione, manifestazione di allergie, mal di testa,
stanchezza. Quindi c’è una quota di soggettività, quando si fa una valutazione sanitaria, si può anche fare a meno di un medico, ma
sarebbe fondamentale collaborare con uno di loro. Quindi il medico competente ha le competenze di giudizio, vengono fatti anche
test oculari, di ammiccamento.

Ovviamente è fondamentale considerare le malattie pregresse di un soggetto, cioè se questa persona ha emicrania sempre, non si
può correlare il problema alla cattiva qualità dell’aria, dopodiché si indicano i disturbi che si hanno, quindi che possono essere
correlati alla qualità dell’aria indoor o al rumore, indicando anche la frequenza. Con questi dati, si generano dei diagrammi a
ragnatela, dove si collocano tutte le domande, con un certo numero di risposte e in funzione alla percentuale di risposta negativa, il
diagramma ci permette di vedere se fossimo a una soglia superiore al 20%, quando meno del 20% delle persone si lamentano,
significa che nell’edificio si sta abbastanza bene.

Quando si hanno problemi legati alla ventilazione, quindi il sistema di ventilazione non è mai performante, per avere la certezza, si
deve considerare la CO2 (indicatore indiretto), quindi se la concentrazione di anidride carbonica fosse elevata, allora significa che
il sistema di ventilazione non funziona bene. Oppure si misura il tasso di ventilazione, quindi il numero di ricambi d’aria per ora,
garantiti dalla ventilazione meccanica e naturale. Per misurare il tasso di ventilazione, si possono usare gas traccianti, che permettono
di capire il tasso di deposizione dell’anidride carbonica (in ambiente è 400-500ppm), se il decadimento è veloce, la ventilazione è
buona, alle nostre latitudini si hanno 0.5 ricambi per ora mediamente.

In baso alla sintomatologia, poi si valutano degli agenti specifici, quindi se ci fosse molta irritazione, allora si considererebbero gli
agenti chimici.

pag. 35
Un’indagine è stata effettuata con 167 misurazioni in Europa (2014)→ la percezione in Italia è principalmente dovuta all’odore
sgradevole, superiore alla media europea, mentre nella media europea, le percezioni principali sono: qualità dell’aria, rumore, aria
sporca, poco movimento dell’aria.
Per quanto riguarda i sintomi, fortunatamente i sintomi non sono grandi, non si hanno problemi così evidenti. I problemi di
percezione sono sotto al 20%, gli italiani si lamentano per lo più di percezione oculare.
Si considerano poi i tipi di edifici, quindi i materiali da costruzione, cosa fanno gli occupanti. Si possono usare anche marker di
infiammazione, anche a livello sistemico. Quando si mettono insieme i sintomi, qualità dell’aria e percezione, si possono suggerire
le risoluzioni di questi problemi.

Se i sintomi finiscono con il turno lavorativo, allora si ha emissione di materiali o cattiva gestione della ventilazione. Se questi
sintomi peggiorano durante l’occupazione degli spazi, c’è una cattiva ventilazione, uso di determinati materiali.

Ci sono anche dei sintomi intermittenti, può capitare anche un singolo evento.

Quando i sintomi ci sono e sono iniziati da poco, ci potrebbe essere stata una ristrutturazione.

Quando si hanno sintomi che rientrano anche lentamente, si può essere in presente di BRI, malattia correlata all’edificio, quindi c’è
qualcosa nell’edificio che non va. Se i sintomi non se ne vanno mai, allora il problema è probabilmente più ampio.

Si può avere tosse, irritazione, respiro affannoso, quindi si possono avere cause anche microbiologiche. Ci può essere discomfort,
quindi se non si sta bene e non si hanno sintomi specifici, ci possono essere problemi più ampi. C’è anche la sfera psicosociale.

Nelle scuole si considerano principalmente gli allievi, poiché hanno degli organi ancora in crescita e quindi si possono avere iper-
suscettibili.

Quando si ha un problema di temperatura o umidità relativa si agisce sul controllo del microclima, lo stesso per la ventilazione. In
funzione del numero di occupanti si necessita una certa quantità di aria fresca per persona, quindi si realizza un sistema HVAC,
quindi un sistema di riscaldamento, ventilazione, con un certo numero di litri/persona e devono essere manutenuti.

Ci sono poi misure importanti e secondarie. Se si aprissero le finestre, si realizzerebbero dei pattern, come ad esempio aprire le
finestre per cambiare l’aria.

Nel momento in cui si individua la causa, si deve fare gestione del rischio, ad esempio il fumo passivo, può essere dovuto a bocchette
che fanno entrare aria dall’esterno, e aspirano anche il fumo di sigaretta, oppure se si fuma all’interno.

Il problema del radon è risolto o con vespaio areato, oppure si mette in sovrapressione lo scantinato, in modo tale che possa solo
uscire l’aria e non entrare.

Il problema delle fotocopiatrici si può risolvere realizzando un locale apposito.

Quando si parla di materiali da costruzione e anche di arredi, ormai esistono etichettature e classificazioni volontarie come low
emitted materials. Quindi si devono utilizzare materiali a bassa emissione, ventilazione buona e manutenuta, cappe aspiranti.

Ci sono una serie di attività per ridurre l’esposizione, dopo il fumo di sigaretta, il miglior sistema è usare camini che abbiano un
buon sistema di fuoriuscita, poi le caldaie devono essere manutenute.

ESEMPIO→ studio a Lodi


Le centraline dell’ARPA rilevavano le più alte concentrazioni di tutta la Pianura Padana con molte emissioni di ammoniaca da
allevamenti, l’ammoniaca reagisce con l’acido nitrico, dando nitrato di ammonio. Quindi sono stati effettuati circa 50 punti di
campionamento, principalmente in città, ma anche zone rurali. Una volta identificate le case è stata messa a punto una stazione di
monitoraggio multi-parametro, in cui ci sono una serie di frazioni del PM, ma anche CO2, VOC.
Quindi la concentrazione di particolato 2.5 era superiore in inverno e anche estate rispetto al valore guida, in modo particolare di
inverno. Difatti in qualche casa c’era una concentrazione di 150µg/m 3, perciò un valore 6 volte maggiore al valore guida.
Ci= (Pa/a+k)Ca+Q/V(a+k)-△Ci/△t(a+k)
Quindi si può per differenza determinare ciò che deriva dall’ambiente esterno e quello da sorgenti interne. La quota outdoor,
generalmente di inverno è molto elevata, ma comunque il particolato indoor è lo stesso importante. In percentuale, invece si ha una
quantità generata indoor del PM in estate maggiore rispetto all’inverno.
In laboratorio con tecniche di estrazione si è potuto indagare gli IPA di quell’ambiente indoor. Una volta che si hanno le check-list
e il diario delle attività (operazioni svolte in quelle ore di campionamento). Si possono poi realizzare le analisi in multivariata, quindi
si ha una combinazione di effetti random. Questo permette di trovare le associazioni alle attività. Ci sono degli elementi che sono
fortemente associati alle concentrazioni elevate. Quindi si hanno come Y i vari PM e come X le variabili indipendenti, che sono
attività svolte. Nel grafico in rosso è indicato se quella variabile peggiora la variabile dipendente, mentre in verde la migliora. La
frazione che peggiora è il movimento delle persone, le pulizie domestiche, il traffico pesante peggiora la situazione, questi tre fattori
visti si riferiscono al particolato grossolano. Ma ci sono anche fattori che peggiorano la situazione del PM2.5 o inferiore. Se si

pag. 36
avesse umidità elevata, si avrebbe più particolato. Le variabili che migliorano sono: dimensioni maggiori delle case, uso delle cappe
in cucina, buoni serramenti delle finestre.
Avere degli edifici vicini, può proteggere da contaminazioni vicine.
Ci sono poi delle differenze tra estate e inverno (in inverno il camino aumenta il particolato fine e grossolano).
Alla fine di questa trattazione, si può ad ogni coefficiente di determinazione (r 2), che ci dà quanto i dati siano più o meno dispersi
alla retta o curva che interpola al meglio i dati. Questo valore mi dice anche la variabilità spiegata dalle diverse variabili, quindi si
può capire quanto sia importante la presenza di queste co-variate. Il modello non spiega tutto, ma solo le variabili scelte, quindi ci
sono anche delle co-variate che non vengono considerate.
Poi sono stati determinati i contaminanti principali per l’indoor, che sono: IPA (principalmente sigarette), poi si ha la temperatura
che riduce alcuni IPA, perché sono volatili.
Poi si possono utilizzare dei modelli a recettore, per capire quali campioni sono associati alla cottura dei cibi.
Quando si ha presenza di soggetti che fumano, si ha il fumo diretto, il fumo passivo e il fumo di terza mano (sono emissioni di
composti volatili che derivano dagli abiti, cioè il fumatore rilascia VOC dagli abiti).
Il contributo dalle sigarette è elevatissimo, si hanno dei pichi molto alti. Si analizza anche il numero oltre che la massa, la massa si
spiega con le particelle grossolane, il particolato ultrafine deriva da, ad esempio, le attività in cucina.

ESEMPIO→ progetto europeo basato su uffici moderni


Lo studio era multilivello, progettato per raccogliere informazioni di base, su un’ampia popolazione (tra 150 e 200 edifici), si è
decisa di porre attenzione su alcuni edifici, alcuni piani. Basata su alcuni contaminanti e aspetti emergenti.
Sono stati scelti alcuni edifici su cui fare valutazioni molto più approfondite, osservando come problematiche i prodotti di reazione,
cioè sostanze che si originano quando in ambiente indoor avvengono reazioni particolari che non avvengono outdoor, ad esempio
in ambiente indoor ci sono molti terpeni, in Europa vanno di moda il limonene e il geraniolo. I terpeni sono dei VOC che non hanno
un impatto diretto sulla salute umana, ma sono coinvolti in reazioni di ozonolisi, quindi l’ozono infiltra da fuori, generalmente
d’estate, quindi O3 reagisce con i terpeni dando una serie di sostanze, come aldeidi (formaldeide), si è visto che la formaldeide che
si genera, è molto più importante di quella che deriva dagli arredi, dato che, essendo edifici moderni, non deriva più dagli arredi;
inoltre si generano altri VOC ancora più fastidiosi dei composti di partenza.
In più sono stati studiati acidi organici, le emissioni umani sono CO2, squalene (sostanza volatile che reagisce con l’ozono a dare
vari altri prodotti).
Sono state individuate possibili soluzioni, come portare stampanti in zone isolate e la seconda è stato un cambio dei prodotti di
pulizia, quindi è stato effettuato uno studio di intervento, cioè in un’area è stato utilizzato una sostanza che sostituiva la precedente
e poi in un’altra zona senza sostituzione del prodotto di pulizia.
In questo studio è stato dimostrato che si ha una drastica riduzione di formaldeide e altri composti reattivi. È importante quando si
individua un problema, fare uno studio di intervento, quindi capire se delle misure di gestione sono efficaci e efficienti per ridurre
il problema.

ESEMPIO→ caratterizzazione del PM


Sembrerebbe che il particolato estivo sia più pericoloso di quello invernale, perciò sono stati analizzati degli edifici vuoti, valutando
l’infiltrazione. Indoor si trova il 70% del PM esterno, quindi l’ambiente indoor protegge per il 30%, se non si avessero sorgenti
indoor. Però per altri componenti non si segue questo trend, ad esempio il vanadio era molto più alta. Inoltre per sostanze come
ossidi di azoto, solfati e ozono, la concentrazione esterna è molto più alta rispetto all’ambiente indoor, poiché la temperatura esterna,
specialmente d’inverno è più bassa e quindi nell’ambiente indoor si ha evaporazione.

pag. 37
10. VALUTAZIONE DI IMPATTO SANITARIO (VIS)

È una parte della valutazione di impatto ambientale, è un insieme di procedure (iter) che serve a valutare preliminarmente l’impatto
sanitario nel caso di opere assoggettabili a VIA (che si occupa di progetti, ad esempio ammodernamento di un edificio, oppure
costruzione di aeroporto, impianti industriali, dighe e così via), mentre VAS (piani e programmi).

In questi casi non si deve valutare solo gli impatti, difatti serve una valutazione integrata, cioè tutti i possibili impatti devono essere
valutati (dall’impatto paesaggistico, alle componenti sistemiche, alle varie matrici ambientali, all’utilizzo di sostanze naturali, agli
impatti in termini di cambiamento della viabilità, impatti sulla salute e comfort delle persone).

La VIS ha come oggetto la popolazione nei dintorni di un sito che viene sottoposto a VIA.

Non viene considerato solo l’ambiente, ma anche l’aspetto sociale, ci sono quindi interessi contrapposti.

Al centro di tutto si ha la promozione della salute umana, quindi miglioramento dello stile di vita, la VIS è operazione di salute
pubblica, le ATS partecipano a queste valutazioni, sono anche i detentori del dato epidemiologico.

Le fasi del processo di VIS seguono le fasi della VIA:

-Screening, cioè se questo tipo di opera può avere impatti sulla salute, se si si passa allo scoping. Ad esempio per EXPO 2015 era
necessaria una VIS per PM, rumore e NO2. In questo caso si coinvolgono comuni, agenzie (hanno un ruolo di consiglio, come le
ARPA o ATS). Si deve garantire quindi partecipazione e trasparenza. Alla fine dello screening si ha un parere, con decisione da
parte dell’autorità competente, che dice se si dovesse andare avanti con la VIS o se ci si potesse fermare.

-Scoping, è la fase in cui si capisce come condurre la VIS, in questa fase si fanno ipotesi sulla valutazione del rischio. Quindi in
questa fase si stabiliscono quali siano le fasi su cui basare il processo successivo, le aree di studio, quali metodi, quindi tipo di
valutazione epidemiologica, decidere quali portatori di interesse devono essere coinvolti, il tipo di coinvolgimento e definire i tempi
entro quando si deve consegnare lo studio preliminare e i tempi per lo studio finale.

-Impact assessment, in questa fase si effettuano studi prospettici, si utilizzano quindi dei modelli, sia sulla sfera dell’ambiente, che
epidemiologica. Quindi ante-operam, prima che sia realizzata quell’opera. Poi i decisori determinano se quell’impatto è trascurabile
o no. Generalmente si tiene conto del peggiore del worst case.

Quindi si considera la condizione della popolazione, gli impatti che porterebbe l’opera, gli impatti sulla salute che avrebbe quella
popolazione.

Poi si effettuano anche degli studi sulla dose-risposta, quindi con studi epidemiologici, si effettua un approccio tossicologico
principalmente. In alcuni casi si deve tenere conto della suscettibilità individuale.

-Reporting: è un rapporto finale inviato al decisore e distribuito al gruppo di lavoro, quindi si riportano i risultati per tutti i
contaminanti.

-Monitoring, ha lo scopo di valutare ex-post se le stime che sono state effettuate sono azzeccate o se sono pessimistiche o
ottimistiche. Quindi dopo la realizzazione dell’opera si effettuano valutazioni.

La VIS è tendenzialmente prospettica, in passato sono state chieste anche VIS retrospettive, la VIS può essere trasversale, cioè nel
momento di realizzazione si effettua lo studio degli impatti.

La VIS si effettua come una normale valutazione del rischio, la caratterizzazione avviene con una stima dell’intake, confrontandola
con soglie tossicologiche definite come massima dose interna tollerabile dall’individuo. Dal punto di vista epidemiologico si prende
lo scenario controfattuale, cioè un dato ante-opera, quindi dato di incidenza già presente oppure si prende un valore raccomandato,
ad esempio per PM2.5. Quindi l’epidemiologi, vanno a considerare il rischio relativo, il rischio attribuibile, il più utilizzato è quello
attribuibile, quindi casi aggiuntivi che non ci sarebbero stati se non si fosse realizzata l’opera. Quindi si prende la prevalenza degli
esposti diviso la prevalenza dei non esposti, quindi si ha un fattore di rischio che aumenta. Poi si suddivide la popolazione in due
parti, quelli sottoposti a un valore sotto la soglia e quelli sottoposti a un valore sopra la soglia.

Quando si parla di ODDS ratio, si parla degli esposti che hanno la patologia per non esposti che non la hanno, diviso coloro che non
sono esposti e non hanno la patologia, meno quelli esposti, ma che non hanno la patologia.

Il rischio attribuibile è il numero di nuovi di nuovi casi, meno l’incidenza di nuovi casi.

L’aumento di esposizione per ogni soggetto, si verifica con la differenza dopo la realizzazione dell’opera e ante-operam, serve
quindi l’incremento stimato, per tutta la popolazione di riferimento.

pag. 38
EXPO 2015

È un’area molto grande, la VIS non si fa in modo generico, ma si deve tenere conto del cambiamento delle emissioni, quindi si deve
tenere conto del cambiamento delle emissioni. Ad esempio si deve tener conto dell’incremento degli inquinanti traffico correlati.
Poi sono state montate delle centraline per la fase di monitoraggio.
Gli inquinanti considerati sono stati NO2, PM10 e rumore.
Per NO2 e PM sono stati considerati i rischi cardiovascolari e respiratori, prendendo di riferimento 6 comuni limitrofi, tipicamente
si lavora per comuni e non distanza. Poi è stata stimata la concentrazione di PM 10 e NO2 tramite modelli, stimando poi l’impatto
sanitario (da medici e epidemiologi). Sono stati considerati gli aumenti di decessi e ricoveri, attribuibili alle concentrazioni medie
di quell’area, meno quelle ante-operam ed espresse come medie dei 3 anni precedenti. L’impatto è stato definito come tasso di
mortalità ricoveri per 100,000 abitanti attribuibile a quel tipo di inquinante. Sono stati utilizzati dei modelli gaussiani, che grazie
alla conoscenza dei dati metereologici e degli inquinanti, il modello permette di stimare le ricadute sull’area di studio che derivano
dall’emissione in atmosfera e che sarà influenzato dall’intensità del vento.
Sono modelli gaussiani, perché basati sulla dispersione gaussiana, quindi in una certa direttrice, variano in modo gaussiano. Sono
di facile utilizzo, perché basati su una serie di caratteristiche, si presume che non ci sia movimento verticale dell’aria, ma che il
vento lavori solo in modo orizzontale, inoltre non tengono conto delle trasformazioni chimiche, che però per l’NO 2 sono
fondamentali. Le variabili fondamentali sono: tasso di emissione, l’altezza della sorgente, la velocità del vento e direzione, variazioni
su y e z che dipendono da una variabile σ (funzione di distanza).

STIME DI IMPATTO
È stato valutato come numero di decessi per tutte le patologie cardiovascolari e respiratorie, numero di ricoveri, le stime sono state
effettuate in un anno, quindi tendenzialmente per le stime, sono state usate:
-stime dell’effetto: variazioni mortalità/ricoveri per un incremento di 10 micrometri/m 3 di NO2 e PM10. È stata considerata
l’esposizione come omogenea, considerando la soglia ante-operam, se si avesse un valore superiore a questo, allora significa che il
numero di eventi è superiore a 0.
-valore medio di esposizione annuale
-numero di eventi sanitari annui predetti nella popolazione
-scenario controfattuale

Lo studio è stato effettuato su 300,000 abitanti, l’area è già sottoposta a impatti notevoli, vista la vicinanza ad un’autostrada. È stata
considerata la mortalità cardio-vascolare prima dell’opera, sia per causa naturale, che per problemi respiratori e i dati dei ricoveri. I
dati sono espressi come numero di casi su 100,000 abitanti.
Prima dell’opera sono state misurati i livelli di PM, NO2 dalle centraline ARPA.
Dopodiché sono state effettuati degli studi in fase cantiere, quindi il modello gaussiano era basato su dati meteo, coordinate del
recettore (cioè griglia di punti e più concentrata nella sorgente), rugosità del territorio
Nel cantiere è stato considerato il risollevamento di particolato dovuto a mezzi di cantiere. Quindi il modello ha calcolato le
concentrazioni in ogni recettore.
Per quanto riguarda quindi i risultati del modello, si osserva un aumento minimale per comuni più lontani, mentre comuni vicini
hanno un aumento maggiore.
Quindi è stato preso il dato dell’incremento di esposizione all’inquinante PM e si è calcolato il rischio attribuibile, come rischio
attribuibile per tipologia di evento. Quindi lo scenario di cantiere porta a un incremento di 0.1 caso su 100,000 abitanti.
Lo stesso è stato effettuato per NO2 prodotto da scarichi veicolari, considerando le direttrici di entrata e uscita dei veicoli, quindi in
funzione dei veicoli si hanno dati diversi di emissione di NO 2. Il problema è che ogni direttrice non può essere posta in mappa, ma
ogni strada è una linea di emissione a sé. Il modello usato è CALINE e consente di considerare l’esposizione fino a 500m.
In questo caso si ha un aumento molto basso di NO 2, rispetto all’ante-operam e quindi anche il rischio attribuibile è bassissimo.
Tutto il procedimento si fa anche dopo la realizzazione del cantiere, considerando quindi il traffico, il parcheggio.
Quindi si ha una differenza in fase cantiere e fase evento, sia per NO 2 e PM.
PM e NO2 dipendono dalle condizioni metereologiche, quindi senza usare marker specifici non è facile la valutazione.

Oltre all’inquinamento atmosferico per EXPO 2015, si è fatta anche un’analisi anche del rumore, che è stato selezionato come uno
dei tre fattori da considerare. gli effetti che si possono attendere da un’esposizione a rumore sono molto diversi da quelli
dell’inquinamento atmosferico, si hanno effetti uditivi (effetti acuti, a carico dell’orecchio medio o orecchio interno→ lesione del
timpano), poi ci sono effetti cronici (ipoacusia), in questo caso non si arriva a valori alti, ma si arriva ad avere effetti extrauditivi
(cardiovascolari, stress, disturbi del sonno). Per il rumore, si tengono in considerazione il consumo dei farmaci, dato che c’è un
controllo sul consumo di farmaci, quindi si hanno dati reperibili, sia al consumo, ma anche riferibili a categorie di farmaci (anti-
acidi o farmaci che aiutano il sonno). Esistevano già mappe sul livello di rumore, per l’area di interesse, l’area di studio è un po’ più
piccola rispetto a quella considerata per PM e NO2. Il rumore, al raddoppio della distanza, diminuisce di 3dB.
Il periodo di tempo considerato sono le 16h diurne e 8h notturne, perché l’impatto del rumore è diverso, di notte da disturbi del
sonno, di giorno generalmente è più alto. I limiti, a livello ambientale, sono descritti dal DPCM 1997.
Si ha sempre un limite massimo da non superare, a livello diurno e notturno. La soglia per le aree residenziali è 55dBa di giorno e
40dBa di notte, i 55dBa, vengono usati anche per la valutazione del rischio rumore negli ambienti indoor (uffici).

pag. 39
Prima dell’evento sono stati misurati i livelli di rumore sia di giorno che di notte, per avere lo scenario ante-operam, poi sono sttai
scelti dei recettori esposti direttamente al rumore, dalle linee di traffico principali, considerando soprattutto i mezzi pesanti perché
il rumore emesso da questi ultimi, è molto superiore del traffico.
Si hanno i livelli di emissione da ogni mezzo, che si devono considerare. Quindi sono stati stimati i livelli di rumore delle attività
previste, tutto doveva essere pronto per inizio 2015, c’era anche il contributo del traffico, rilevante per una prima fase, ma il
contributo maggiore era del cantiere.
Siccome le stime avevano dato superamenti soprattutto di notte, la regione Lombardia ha imposto come opera di mitigazione, di
ridurre l’attività lavorativa notturna di cantiere per il 60%, quindi fare un’attività di solo 40%.

Il problema è che però, viste le scadenze, il tempo di esposizione era al 100% anche di notte, altrimenti non si sarebbe riuscito a
concludere la realizzazione delle opere.

Per gli indicatori di impatto sanitario, si usano i consumi di farmaci, sedativi, antidepressivi, sono state fatte comunque stime dagli
epidemiologi.

Questo studio è stato effettuato su 40,000 persone, considerando le persone effettivamente esposte e i non-esposti, quindi che non
arrivano a stime di rumore all’abitazione di quelle soglie definite prima (55 e 40).

A livello notturno si hanno più esposti che non esposti, di giorno il contrario. Poi si considerano i consumi di farmaci di esposti e
non esposti, considerandoli come ODDS ratio.
Non si verifica l’aumento di consumo dei farmaci negli esposti, rivalutando il tutto, è emersa l’esistenza di un’associazione
significativa di rumore notturno e consumo di farmaci antiipertensivi.

Durante l’esercizio, l’aumentato rischio di consumare certe categorie di farmaci rispetto ai non esposti, danno dei rischi vicini a uno
o inferiori, quindi non emergono dalle stime criticità. Mentre di notte, emerge qualcosa, con stima di aumento di rischio di notte,
con disturbo di sonno, con aumento di consumo di antiipertensivi. Il 7% di coloro che avrebbero consumato questi farmaci è stata
attribuita alla sorgente durante l’esercizio, che è addirittura superiore a ciò che è stato stimato durante la fase cantiere.

pag. 40
11. CICLI PRODUTTIVI E PRINCIPALI RISCHI NELL’INDUSTRIA SIDERURGICA, METALMETTANICA E
GALVANICA

I grandi produttori mondiali di acciaio erano in Unione Europea, adesso è la Cina. Quando si parla di siderurgia, si deve suddividere
il comparto in due attività:

-industrie da prima fusione, che partono dal minerale. Le fonderie di prima fusione danno origine a ghisa e acciaio. La ghisa si
origina in altiforni, che è una lega ferro-carbonio (carbonio fino a circa 7%), mentre l’acciaio contiene poco carbonio o anche 0%
di carbonio, gli acciai sono leghe di metalli, con ferro che è la componente principale.
Queste fonderie possono produrre ghisa e acciaio, oppure semilavorati in acciaio di getti di ghisa o getti di leghe.
Oltre a ghisa e acciaio, sono importanti anche altri elementi, come Manganese, cromo, Nichel, Piombo, Cobalto,Vanadio ecc.

Il rischio non è ovviamente solo chimico, ma anche stress termico, radiazioni non ionizzanti, rumore, infortunistico.
PRODUZIONE DEL FERRO: ci sono degli altiforni, in cui vengono caricate dall’alto materie prime, che sono per importanza,
minerali naturali che contengono ferro (magnetite, ematite, ma anche prodotti artificiali), poi ci vuole il carbone o carbon coke
(contenente carbonio) e basso-fondenti. Gli ossidi di ferro vengono ridotti dall’ossigeno e dal carbone, il ferro si libera quindi dai
minerali e si ferma ghisa fusa, che cola verso il basso e viene poi spillato.

Per ottenere l’acciaio, la ghisa viene trasformata in ferro-acciaio con processi di ossidazione (produzione di CO2), quindi in forni
convertitori, questo processo produce sempre anidride carbonica, quindi si ha la frantumazione del minerale e poi agglomerazione
di prodotti fini. Questo materiale viene poi caricato in cima all’altiforno, quindi c’è il carbon coke e carica di minerali fondenti. I
minerali fondenti sono calcite dolomite, quarzo, in più c’è il vento caldo, nel caso in cui occorra apportare ossigeno, poi la parte
fusa viene colata. Una volta ottenuta la ghisa si ottiene acciaio con processi di affinazione, quindi si ossida la ghisa e il carbonio
ossidato diventa CO2. Esistono diversi processi di affinazione della ghisa, per produrre l’acciaio. Ci sono degli scatolotti chiusi, con
flusso d’aria da sotto per far avvenire la combustione. Ci sono le siviere o lingottiere dove viene inserita la colata d’acciaio.

-industrie che fanno seconda fusione, che partono dal rottame, si fondano anche pani o lingotti originati nelle industrie di prima
fusione. In questo caso è più complicato ottenere la concentrazione voluta di acciaio, quindi ci sono operazioni diverse che
permettono di ottenerlo. Quando si parla di seconda fusione, per la ghisa si usano i cubilotti (forni in cui si utilizza combustione di
ghisa per ottenere altra ghisa). Per i metalli e leghe si usano forni elettrici.
Quando si aggiunge in forno il rottame, si ha la formazione di residui plastici, non sempre si riesce a separare la plastica
completamente, che a quelle temperature producono diossine. Ci sono poi delle scorie che rimangono in alto e vengono poi
eliminate.

Quindi le fasi sono: realizzare uno stampo, attraverso utilizzo di sabbia apposita costituita principalmente da quarzo (silice
cristallina), poi si prepara la ghisa nell’altoforno, si inserisce nello stampo con colata, poi si lascia a riposo per un giorno, poi si ha
la forma definita, ma non ancora in buone condizioni, quindi si ha la sabbiatura finale che consente di avere la forma desiderata.
Quindi si ha in un’industria siderurgica, il reparto modelli, poi si ha il reparto formatura, con formazione manuale di staffe o motte
o formatura delle anime (le anime sono quelle più complicate da realizzare). Le vernici sono spesso refrattarie e sono utilizzate per
facilitare la distaccatura. Nelle staffe si lasciano dei vuoti per richiamare l’acciaio in eccesso al momento della solidificazione.

Quindi il getto finale non sarà solo costituito dal manufatto che vogliamo ottenere, ma al manufatto saranno collegate delle
materozze che con opportune operazioni di saldatura dovranno essere rimosse.

Si usano resine isocianiche, che induriscono, ma sono molto tossiche, le anime possono essere prodotte in diversi modi.

Ci sono anche delle motte, che sono zone in cui ci siano colate continue, in stampi che passano su rulli.

Poi quindi si ha il getto nelle siviere, che poi vanno a colare all’interno degli stampi, in questa fase si controlla anche la temperatura,
quindi si ha una fase di controllo, poi si ha la smaterozzatura, la granigliatura-sabbiatura (i getti vengono investiti da una graniglia
che permette di avere una pulitura), sbavatura-molatura (consiste nell’eliminazione di bave che si formano nelle giunzioni, in questa
fase si fa molta saldatura, quindi i rischi sono molto diversificati, inoltre nella sbavatura si applicano liquidi penetranti. la molatura,
invece, serve per finitura delle superfici del getto).

C’è anche la scriccatura, che consente di inserire il metallo in zone dove si sono formate le bolle, attraverso saldatura a fusione
dell’elettrodo.

Nel reparto colata si deve considerare anche l’aspetto dei CEM (campi elettromagnetici).

Il posizionamento delle materozze deve essere preciso, per evitare che non si solidifichino le componenti in momenti diverse.

La fonderia non ha solo l’ambiente “grezzo”, perché quando si devono realizzare acciai speciali e manufatti con caratteristiche
importanti alla resistenza alla pressione, alla temperatura, vengono realizzati con modelli specifici, che permettono di ottenere un
ottimale processo di raffreddamento.

pag. 41
Ci sono dei pezzi che vengono analizzati in spettroscopia a infrarossi o DRX, che permette di capire la composizione metallica, si
hanno anche bunker per le gamma grafie.

Nelle fonderie di seconda fusione, sono simili a quelle di prima fusione, ma serve anche aggiungere elementi che consentano di
migliorare la qualità dei rottami che vengono utilizzati. Le fasi sono: ramolaggio, colata e finitura in getti. Quindi le fasi sono molto
simili.

RISCHI IN FONDERIA

Tra agenti fisici e chimici ce ne sono moltissimi:


-AGENTI FISICI: elettricità, rumore, vibrazioni e microclima
-AGENTI CHIMICI: aerosol: componenti di ferro, bentonite, grafite, dolomite, quarzo, nero minerale, fumi metallici; gas: CO,
SO2, NOx, nelle fonderie di seconda fusione, si hanno anche: formaldeide, alcol, resine, fenolo, acetaldeide, diossine, olii per
l’essiccazione.

CASO STUDIO→ studio autunno 2019 in industria siderurgica.


L’approccio è stato un campionamento personale, con uno screening, per avere un’informazione sulle concentrazioni da analizzare,
considerando nel reparto formatura il quarzo, dato che è cancerogeno. Sono stati usati dei campionatori a simmetria radiale.si è
prelevata la frazione respirabile, usando un ciclone (GS3), con prelevamento di 2.75L. Poi si prende il filtro, si inserisce in una
scatola chiusa, si porta in laboratorio, poi si effettua un’analisi in difrattometria.

Il valore limite è 0.1mg/m3, nel caso della formatura di anime si aveva un valore di 0.98mg/m 3.

Prendendo tutti i dati dei vari lavoratori considerati nello stesso SEG e generando un diagramma di probabilità logaritmica, si ottiene
una retta di interpolazione dalla quale si distaccano di molto i valori, quindi si devono eliminare, nel senso che si deve scegliere un
altro SEG. Inoltre, si osserva il coefficiente r2, che dovrebbe essere superiore a 0.9.
Tolti i tre valori molto alti, si osserva comunque che si ha un valore di r basso, ma si nota la presenza di un valore estremamente
basso, che si riferisce alle motte, quindi è normale che l’esposizione sia basso, quindi si rimuove questo e si ottiene un coefficiente
superiore a 0.9. Quindi il SEG ipotizzato all’inizio è stato validato. Poi si possono effettuare anche dei test statistici che validano il
SEG.

Poi si devono validare anche le misurazioni, quindi calcolando Ur (Ur=(Ln(OELV)-Ln(GM)) / Ln(GSD)) e Ut e confrontandoli
(Ur>Ut). Il valore Ur è molto più alto di Ut se considerassimo il VLEP (0.1 mg/m3), mentre con ACGIH (0.025mg/m3), si ottiene
più alto dell’Ut, ma non così come per il VLEP.
Rimane comunque l’incertezza per i lavoratori che realizzano le anime.
Quando si parla di silice cristallina, il problema è anche la distaffatura (può essere automatica o manuale), quindi si applica il dato
preliminare, perciò si hanno 3 misurazioni e quindi si deve avere che tutte le misure siano < 0.1VL. Il problema è che avendo
distaffatura manuale e automatica nello stesso SEG, il valore della distaffatura manuale è superiore a 0.1VL.

Per quanto riguarda la saldatura, ci sono molti agenti di rischio, presenti nella sbavatura e scriccatura. La saldatura è un processo
che consente di attaccare dei pezzi metallici o distaccare delle porzioni non utili. In questo caso si tolgono dei pezzi grazie al calore.
Nel settore anche della metalmeccanica si salda molto. Solitamente quando la saldatura deve essere buona, va protetta da fenomeni
di ossigenazione, si tende a lavorare in atmosfere inerti.

Di solito si usano degli impianti di ventilazione localizzata, che deve essere posta in posizione opposta ai lavoratori, si dovrebbe
tenere guanti e mascherina e occhiali. Esistono varie tipologie di saldatura, come saldatura di precisione, saldatura autogena (non si
ha apporto di nuovo metallo, usano un gas che viene incendiato e il gas è dato da fiamma ossidrica o acetilene), saldatura eterogena
(apporto di metallo diverso).

Si possono avere saldature autogene: a gas (per pezzi leggeri e basso fondenti), elettrica ad arco, al plasma, al laser, ci sono anche
autogene per pressione.

Quella eterogena è effettuata con fiamme, si può fare a filo o ad arco (può essere effettuata con elettrodo fusibile, gli elettrodi
possono essere di diversa composizione; oppure con atmosfera protettiva, con varie tipologie→ MIG, TIG, MAG, plasma; ad arco
sommerso, cioè materiale solido scoccato sulla superficie, poi con sostanza granulare, cioè il flusso, che protegge l’arco che scocca).

Le patologie per la saldatura sono: rischi per l’occhio, congiuntivite, cheratite, cataratta (ROA), anemia, ipertensione (Pb),
siderofibrosi e siderosi polmonare (Fe), tumore del polmone (Cr VI, Sali Ni, il nichel 4 è un problema, Cd), patologie
neurodegenerative (Mn, si trova negli elettrodi), danni al sistema scheletrico (F), cefalea (CO), irritazione delle vie respiratorie,
tosse e febbre (Cu), dermatiti allergiche (Cr, Ni, Co→ il VL è molto basso e difficile da rispettare), irritazione (F, O 3, fosgene, Cu,
Cd), febbre da fumi metallici (Zn, Fe), alterazioni cutanee (UV).

pag. 42
I fattori di rischio sono: rischi fisici (calore, IR, UV, CEM, rumore), aeriformi (O 3, CO, NOx, AsH3, NH3), metalli pesanti (PB, Cr,
Ni, Mn, Cd, Co, Cu, Th→ torio). Inoltre, si hanno anche molte altre componenti occasionali, come sgrassanti, boro.
Il cromo esavalente è molto da tenere sott’occhio, si arriva al 30% in acciai speciali, le particelle di cromo ossidano a Cr III, ma poi
si può avere l’ossidazione a Cr VI. Il cromo VI ha un’esposizione alta per la saldatura ad arco, perché viene superato il VL di
5µg/m3.

Il monitoraggio dei fumi di saldatura avviene con prelevamento delle frazioni inalabili e valutazione dell’esposizione tramite
monitoraggio ambientale o anche biologico, perché esistono degli IBE. Con il monitoraggio biologico si valuta anche l’efficacia dei
DPI. Per il campionamento esiste una norma tecnica specifica. Ogni tipo di saldatura ha i rischi specifici, quindi la valutazione del
rischio deve valutare le specifiche problematiche riferite all’attività di saldatura.

Per ogni tipo di attività e metallo, non era presente nel caso studio solo la silice cristallina, quindi è stato realizzato un grafico che
presenta valori di Ur, al di sopra del quale si ha compliance. Però ce ne sono molti che si trovano al di sotto, come cromo, manganese,
il nichel, quindi non si ha compliance, perché Ur è < di Ut, per alcune delle sostanze. si può superare il VL, ma massimo il 5%,
considerando l’intervallo di confidenza, che è posto al 70%, quindi all’interno di questo intervallo ci devono essere circa il 70% dei
valori, mentre a livello scientifico è il 95%.

Quindi il tutto si chiude con le criticità trovate, quindi per i casi in cui non si ha rispetto della UNI EN 689, si deve dare dei consigli,
quindi raccomandare delle nuove tipologie di gestione del rischio. Inoltre si indicano anche le problematiche riscontrate, come ad
esempio il cobalto che aveva un valore al di fuori della retta di interpolazione. Inoltre il cobalto è all’interno di una lega, quindi
l’attività è sporadica, quindi si dovrebbe tracciare il materiale, anche con segnaletica, in modo che i fumi di saldatura non
raggiungano le vie respiratorie.

pag. 43
12. IMPATTO AMBIENTALE NELLA PRODUZIONE DEGLI ACCIAI

In Italia, il caso più eclatante è l’ILVA di Taranto, che è un impianto storico che non è mai stata sottoposta all’iter della VIA, però
sono emersi studi epidemiologici, con aumento dell’incidenza di tumori nel rione più prossimo all’industria. Tendenzialmente i
tumori sono ascrivibili al benzo-a-pirene prodotto per la produzione del carbon coke, quindi gli impianti di preparazione di carbon
coke contiene molti IPA.

Il settore di produzione dell’acciaio è importante, si produce principalmente acciaio di prima fusione, ma anche seconda fusione,
nel Mondo, negli ultimi 30 anni, la produzione è stata raddoppiata. L’alluminio si produce per seconda fusione, poi si hanno scorie
che vengono anche ri-immesse nel ciclo. L’industria produce tra le 1000-2000 milioni di tonnellate all’anno e quindi ha una serie
di impatti su ambiente e salute umana (si deve considerare non solo la salute umana, ma anche l’acqua, suolo, aria, sedimenti).
Quindi si hanno una serie di emissioni in tutto il ciclo di vita di quell’attività, quindi dal reperimento, al trasporto, alla manipolazione
e all’utilizzo finale e rifiuti.

Perciò non si deve considerare solo l’aspetto legato alla salute umana, ma si deve considerare anche l’ambiente, quindi è una realtà
multidisciplinare. La produzione di acciaio è sia di prima che di seconda fusione, si hanno 3 grossi impianti di produzione a ciclo
integrato (produzione dal minerale ferroso), Taranto, Piombino e Trieste → tutti e tre con gli altoforni, ci sono poi convertitori
all’ossigeno (Piombino e Taranto→ la ghisa viene ossigenata, in modo da togliere il carbonio e ottenere acciaio) e poi ciclo
attraverso forni elettrici (Aosta, Bergamo, Bolzano, Brescia, Catania), che utilizzano il rottame ferroso.

Il processo non avviene tutto nella stessa zona, quindi bisogna calcolare o stimare l’impatto a livello totale di tutte queste fasi
produttive. L’acciaio viene usato in molte lavorazioni, quindi è fondamentale tenere conto di tutti questi processi.

A livello occupazionale, è fondamentale considerare la via inalatoria, anche se per alcune sostanze, come PCB, si ha contaminazione
anche della catena alimentare. La tecnica più usata è la LCA (life cycle assessment), quindi considerando la produzione e uso
dell’acciaio dalla culla alla tomba. Per ogni tonnellata di materiale prodotto, la richiesta energetica è inferiore rispetto a quella di
altri metalli, ad esempio per l’alluminio e titanio, si ha delle richieste ambientali maggiori energetiche e di produzione di CO2.
L’acciaio è il peggiore, perché anche se non ha una richiesta energetica alta come l’alluminio o il titanio, però considerando la
grandissima quantità prodotta all’anno è il metallo peggiore a livello di contaminazione ambientale e salute umana. Difatti richiede
assieme al ferro il 70% di energia totale, rispetto agli altri metalli o minerali non metallici.

È possibile ed è auspicabile, suddividere per ogni tipo di prodotto, gli impatti nelle varie fasi del ciclo, lo stesso per gli impatti sulla
salute umana, il rutenio ha l’impatto maggiore, ma è talmente raro che su scala globale non conta nulla.

È stato effettuato uno studio in Turchia, considerando le fasi di produzione dell’acciaio, osservando i vari impatti sulla salute e
riscaldamento globale. Nelle prime fasi si ha un impatto maggiore legato alla salute umana, mentre nelle fasi successive il problema
principale è legato al riscaldamento globale, quindi cambiamento climatico.

Gli effetti sulla salute umana e gli impatti sulla salute umana sono i principali, poi si considera l’acidificazione, eutrofizzazione
terrestre, eutrofizzazione dell’acqua e così via.

Queste valutazioni di impatto sono molto complesse, quindi ci sono alcune lacune e sfide specifiche da affrontare, studi basati sia
sull’impatto ambientale, sia sul LCA, e risultano comparabili sono più solidi.

EFFETTI SULLA SALUTE UMANA E SULL’AMBIENTE

Principalmente causati dall’emissione di inquinanti atmosferici tossici e persistenti, sia da POPs, IPA, metalli pesanti, PM
(contenente ossidi metallici, ma anche PM non contenente ossidi metallici), NO2, SO2, composti alogenati (poli-cloro-dibenzo-
diossina→ stoccaggio di materie prime e nella seconda fusione, dove partendo da materiali che potrebbero essere contaminati da
plastiche, si produce diossina), di-benzo furani.

Questi studi non possono fare a meno di considerare i multipli impatti, con interconnessione con tutte queste fasi di processo, perciò
c’è un percorso della valutazione degli impatti, che deve considerare varie variabili, quindi si usano degli studi specifici, effettuando
per ogni inquinante una stima dell’esposizione. Se possibile si devono usare approcci combinati e la valutazione dell’impatto si fa
come per EXPO, quindi usando modelli di dispersione, affiancati con sistemi di monitoraggio e in alcuni casi, come per gli
inceneritori, si hanno dei dati di monitoraggio ambientale continuo, associati con dati di monitoraggio biologico, quindi si
controllano a livello di marcatori di esposizione e biomarcatori, quindi il monitoraggio biologico è un altro sistema per completare
la valutazione dell’esposizione, poi si ha la possibilità di fare un “source apportionment”, quindi per ogni sorgentesi può discriminare
il contributo di ogni sorgente, sono basati su tecniche di analisi multivariata.

Gli impianti di produzione dell’acciaio, devono essere soggetti alla normativa AIA-IPPC, quindi con sistemi BAT (best available
technology), perciò sistemi di abbattimento migliori presenti. Come poi reperito nel DLGS 152/2006. C’è ancora molto da fare,
perché le emissioni clima alteranti sono ancora molto elevate e in alcuni casi non sono facili da abbattere.

pag. 44
Non si hanno solo sorgenti puntiformi (camino industriale), ma ci sono anche delle sorgenti diffuse e areali (nel caso dell’ILVA di
Taranto, ci sono emissioni diffuse dalle cave, quindi è stata effettuata una copertura dei campi minerari).

13. INDUSTRIA METALMECCANICA E GALVANICA

13.1 INDUSTRIA METALMECCANICA

Quindi si ha un prodotto siderurgico, che viene sottoposto a tagliatura, sgrassatura, trattamenti termici, decapaggio, lavorazione per
deformazione plastica caldo-freddo, finitura, sgrassaggio, decapaggio e decontaminazione, rivestimento e protezione delle superfici
metalliche e infine si ha la produzione del manufatto.

Il cuore è la deformazione plastica, che sfrutta il fatto che il metallo scaldato o sottoposto a pressione, viene deformato, i pezzi più
spessi vengono deformati a caldo e quelli più sottili a freddo, che richiede energia meccanica maggiore. Importante è la laminazione,
cioè si hanno lingotti che vengono scaldati a una temperatura inferiore a quella di fusione e viene compresso in cilindri metallici
che ruotano in direzioni opposte. Inizialmente si ha il riscaldamento, poi la sbozzatura e poi laminazione vera e propria. La
laminazione consente non solo di produrre le lamine, ma anche nastri, barre, travi, semi-lavorati, tubi, profilati.

Il laminatoio a freddo agisce solo per compressione.

Gli agenti di rischio sono: raggi infrarossi, calore, fumi, microclima, rumore e vibrazioni, aerosol, CO.
In atmosfera si ha rilascio di NOx, SOx, consumo energia e aerosol, per le acque di scarico si hanno gli oli (facilitano la laminazione)
e per i rifiuti solidi, ma anche oli.

Dopo la laminazione si ha la trafilatura, cioè il manufatto viene tirato e fatto passare attraverso fori sempre più piccoli, quindi sfrutta
la duttilità dei metalli. Poi si ha la fucinatura.

I trattamenti non sono solo di tipo meccanico, ma sono anche termici, c’è la tempera, che consiste nel riscaldare il metallo e
raffreddarlo bruscamente per immersione in un bagno liquido. Poi c’è la cementazione, che è un trattamento superficiale che avviene
con diverse metodologie, che permette di arricchire la superficie della lega con determinati metalli. Può essere cementazione con
carburante, oppure cianurazione o nitrurazione.

Poi si ha come ultimo processo il processo dell’industria galvanica.

13 .2 INDUSTRIA GALVANICA

Il pezzo prodotto nell’industria metalmeccanica viene immerso in liquidi contenenti Sali metallici, tutto ciò non è nient’altro che
una cella elettrochimica con anodo e catodo, che servono ad elettro-deporre i metalli dei Sali sulla superficie del pezzo, con
passaggio di corrente elettrica. Quindi il pezzo viene pulito, si ha la detersione con spazzole, solventi, pulitura, sgrassatura.
Poi quando il pezzo è pronto si effettua elettrodeposizione.

Quando si deve nichelare un pezzo, si ha nel bagno: acido borico e solfato di Nichel, quindi il rischio è il Nichel.
Nel caso della zincatura si ha nel bagno: acido solforico con formazione rischi dovuti a nebbie acide oppure si ha idrossido di sodio
o cianato di sodio o Zn (CN)2, che producono nebbie alcaline.
Poi si può avere anodizzazione. Al, con presenza nel bagno di acido solforico e ossido di cromo, con formazione di nebbie acide, si
ha cromo esavalente.

Mentre per l’argentatura e doratura, nel bagno si ha CN, HgCl 2, NaOH, con rischi dovuti a cianuri, mercurio e nebbie alcaline.
Sono stati effettuati degli studi in industria galvanica, per il cromo esavalente, si può effettuare monitoraggio biologico, ricercando
come indicatore biologico il cromo eritrocitario. I lavoratori più a rischio sono quelli esposti a cromo VI.

Per mitigare il rischio, se non si volesse produrre aerosol contenenti cromo esavalente o nichel, o diminuire il rilascio di aerosol,
uno dei metodi è usare palline antischiuma, che evitano che le bollicine che scoppiano possano rilasciare direttamente in atmosfera.

pag. 45
14. INDUSTRIA DEL LEGNO

Si parte da una materia prima di origine naturale (tronchi di albero), trattati con una prima fase di lavorazione, si producono aste o
travi, l’industria del legno massello produce semi-lavorati. L’Italia è uno dei Paesi più importanti per la produzione di manufatti in
legno e quindi produzione di oggetti basati sul legno come materia principale. Ci sono anche una serie di altri studi che spaziano ad
altre realtà del territorio italiano. Gli italiani sono tra i più attivi nei lavori scientifici di questo fattore di rischio, sia igiene
occupazionale, che tossicologia. L’esposizione delle polveri di legno è molto più un problema per i lavoratori, non per la popolazione
generale.

Gli alberi sono suddivisi in gimnosperme (conifere), usato per l’industria del serramento, mentre le angiosperme (latifoglie) sono
usati per la liuteria, bare.

La differenza principale è la durezza del legno e quindi la resistenza a sollecitazione meccanica, quelli di latifoglia sono molto più
resistenti. L’ebano africano è molto duro.

Oltre a cellulosa, emicellulosa, pectine e lignina (che non hanno conseguenze sulla salute umana), si hanno anche sostanze dette
estraibili, perché dal tessuto celluloso, si hanno sostanze che si possono estrarre con solventi. Rendono ragioni in piccola percentuale
della costituzione del legno stesso. Sono costituite da sostanze polari o apolari.

Quelle apolari sono più concentrate nelle conifere, specialmente terpeni (pinene), mentre nelle latifoglie si hanno più sostanze polari
(tannini), la presenza di queste sostanze conferisce al legno delle proprietà specifiche.

Il legno è classificato su base merceologica su base botanica, su base della provenienza (autoctoni o alloctoni), sulla compattezza
(legno duro e tenero, il primo delle angiosperme e il secondo appartiene alle gimnosperme).

I legni duri sono pericolosi per la salute umana, con una prima classificazione tabellare in base alla compattezza, rilevante anche
per l’igiene occupazionale. Le conifere hanno una resistenza minore, mentre le latifoglie una resistenza maggiore.

L’Italia è un Paese di grande esportazione, si esportano anche semi-lavorati di bassa importanza commerciale, si esporta tanto il
prodotto finito pregiato, le importazioni sono di meno delle esportazioni.

Tendenzialmente si tagliano foreste, che vengono poi ripiantate, si hanno poi delle prime lavorazioni, quindi nelle segherie si
producono segati, come pannelli, listelli, panforti, poi avviene una seconda trasformazione, per arrivare al prodotto finito. Negli
ultimi 10-15 anni si recuperano gli scarti della produzione, per riciclare in parte il legno (terza trasformazione).
Si hanno come prodotti finiti: mobile, infissi, parquet, rivestimento, liuterie, cofani mortuari, imbarcazioni.

INDUSTRIA DEL MOBILE

Per produrre un mobile si parte alla sezionatura di legno, i pannelli vengono incollati, subiscono lavorazioni meccaniche, hanno
l’impiallacciatura, che permette di aumentare la resistenza. Poi si ha la ricopertura, verniciatura e così via.

In queste lavorazioni si producono trucioli o aerosol negli ambienti di lavoro. Le polveri di legno presenti nelle atmosfere, non sono
un problema solo per la salute, ma anche la sicurezza, dato che alti livelli di polveri infiammabili, possono scatenare un’esplosione.

Dopo la sezionatura delle varie lastre, si ha poi la bordatura, lavorazioni meccaniche, impiallacciatura e nobilitazione, altre
lavorazioni meccaniche, levigatura, assemblaggio, tinteggiatura, verniciatura.

Il legno duro (legni di latifoglia) sono particolarmente pericolosi per la salute umana, quindi i rischi sono in segherie, produzione di
scale, infissi particolari, mobilifici artigianali, botti, liuterie, arredi da giardino, cofani mortuari, cantieristica navale.

ESPOSIZIONE: l’esposizione dei lavoratori a polveri di legno derivano dalle attività già citate e a differenza di una serie di altri
agenti chimici, hanno un diametro aerodinamico medio piuttosto grossolano (10-30 micron), tranne nella levigatura, dove si
generano polveri (con diametro aerodinamico attorno ai 5 micron).

Nel momento in cui si usano utensili ad alta velocità, si producono trucioli ad alta velocità e le polveri rilasciate in atmosfera, hanno
dimensioni millimetriche, queste particelle enormi trascinano con sé una serie di particelle con diametro molto più fine, che
permangono per un tempo medio-lungo e quindi essere inalate.

Il legno è una sostanza igroscopica, quindi in ambienti con elevata umidità atmosferica, rispetto agli ambienti secchi, il peso può
aumentare anche del 20%.

Accade che la IARC ha classificato le polveri di legno duro come cancerogene, quindi per la valutazione del rischio, uno degli
aspetti più critici è discriminare le polveri di legno dolce da quelli di legno duro. Si utilizzano dei marker chimici per identificare

pag. 46
da cosa deriva quel legno (come alfa-pinene che indica la provenienza da conifere, acido gallico le latifoglie, l’acido plicatico è
indicatore della presenza di cedro rosso).
Quindi con il DLGS 81/2008, prima del 2000 non era stata trattata, mentre dopo il 2000, si considera la frazione inalabile, indicando
un primo VL (allegato 43), inizialmente posto a 5mg/m3. La linea di campionamento è attiva e indiretta, con preselettore per frazione
inalabile, il campionatore è realizzato con più pezzi. Si usano metalli o plastiche conduttive per tali strumenti, perché le polveri di
legno possono essere elettrostaticamente carichi, quindi si avrebbero perdite di parete se non fossero materiali di questo tipo.

Si usano filtri o in fibra di vetro (contro: fragili, però il vantaggio è che non sono igroscopiche) oppure PVC (possono elettrizzarsi
in superficie e quindi vanno opportunamente disperse con sistemi trattati con ionizzatori, sono molto sottili, quindi si deve porre la
giusta attenzione alla manipolazione) oppure esteri di cellulosa (che non hanno una buona determinazione gravimetrica). Si
utilizzano filtri di maglia diversa a seconda del pre-selezionatore.

STUDI: in studi effettuati in Toscana e Liguria, il 30% dei dati erano superiori a 2mg/m 3, che è il VL posto dal DLGS 81/2008 nel
2021. La UNI EN 689 permette il superamento solo al 5%, perciò siamo in una situazione non buona, però il fatto è che in quegli
anni il VL era posto a 5 e non 3.

Progetto PLECO: progetto con la ASL di Como, su una cinquantina di aziende, la maggior parte produttori di mobili, si è lavorato
con prelievi personali, ma anche prelievi statici per avere idea sulla contaminazione media sulle postazioni di lavoro.

Sono stati effettuati 232 campionamenti validi, è stata ottenuta una mediana di 1.47mg/m 3. Il valore massimo è stato 8 mg/m3. Le
postazioni fisse sono meno importanti e siccome prevalevano i “centro ambiente”, lavorare in centro ambiente produce una
sottostima del 70%.

Quando esiste un’aspirazione, i livelli medi misurati di esposizione sono la metà di quelli misurati senza aspirazione. Se si avesse
una buona aspirazione generale, si avrebbe una diminuzione del valore di fondo degli ambienti.
Quando c’è un’aspirazione localizzata, si ha una significatività per falegnameria, levigatura e squadrabolla.

In questo studio, avendo tanti dati, si è potuto suddividere tra i diversi tipi di produzione, quindi la tipologia dell’industria del legno,
con i mobilifici che sono i principali, con l’esposizione maggiore. Il tutto si può suddividere anche in tipologia di attività lavorativa.
Quando si produce in grande quantità, si usano macchine a controllo numerico (CNC), che sono macchine totalmente diverse, con
livelli di esposizione decisamente più bassi. Quindi i problemi sono l’assenza di ventilazione, la tipologia di lavorazioni e quindi è
stato proposto sulla base della conoscenza delle variabili un algoritmo predittivo per permettere alle ATS di effettuare calcoli e
individuare i settori più problematici, non solo per sanzioni, ma anche per consigliare degli interventi.

Gli effetti delle polveri di legno duro sono: allergie (dermatiti da contatto e asma), sono attribuibili sia ai composti presenti nelle
vernici, che polveri di legno tropicali. L’effetto più grave è il tumore delle fosse nasali e dei seni paranasali, i seni paranasali non
hanno uno scopo completamente capito. Il rischio nei falegnami è 50-90 volte più alto della popolazione generale, non ha una
prognosi ottima, è una patologia a cui prestare tutte le attenzioni e quindi fare prevenzione. L’adenocarcinoma ha una prevalenza
maggiore in Europa, forse per il tipo di lavorazioni effettuate. Il tumore del naso para-sinusale è particolarmente rilevante per
l’attività lavorativa, quindi si deve avere un’associazione con la dose cumulativa.

Ci sono poi altri tipi di tumori:


-cancro nasofaringeo (non ancora confermato)
-tumore al polmone (nessuna associazione)

Altri effetti delle polveri di legno duro sono: riduzione della funzionalità respiratoria, irritanti.

Altri rischi per le attività svolte: rumore (utensili ad alta velocità), vibrazioni (mano-braccio), rischio chimico (colle, vernici,
sostanza antimuffa e antitarlo, fungicidi, antiparassitari, ci potrebbe essere anche l’esposizione a formaldeide, nella formazione di
pannelli e ci potrebbe essere esposizione a IPA, causa elevata temperatura, oppure di inverno quando dei residui di legno vengono
usati per riscaldare, ma ci sono fumi che vengono rilasciati all’interno), rischio biologico (endomiceti, spore fungine, endotossine
batteriche, l’esposizione a tali microrganismi, può generare reazioni allergiche).

L’unico approccio è con monitoraggio ambientale, andando ad ascrivere la massa determinata alle polveri di legno duro, si
considerano solo le polveri di legno duro per la valutazione, ma la distinzione tra i due legni non è ancora praticabile, perché costa
tanto, è complicato. Quindi si considera tutta la massa come se fosse costituita esclusivamente da polveri di legno duro, quindi si
conclude l’esposizione con confronto con VL, tenendo di riferimento il nuovo di VL, che è di 3mg/m 3, fino a gennaio 2023, quando
passerà a 2mg/m3. Le direttive sono del 2017 e 2019, con poi recepimento nel 2021.

A livello di TLV dell’ACGIH, il valore limite è posto a 1mg/m 3, con 0.5mg/m3, per il cedro rosso.

Dopo che si è chiusa una valutazione del rischio e si passa alla gestione del rischio, generalmente non si ha compliance con il VL,
quindi si deve intervenire sulle attività che determinano le esposizioni più elevate, automatizzare è importante per risolvere
contestualmente un problema, altrimenti si deve ridurre il rischio alla fonte (aspirazione nel punto di emissione).

pag. 47
L’aria espirata deve essere convogliata al di fuori del sito produttivo e previo opportuno abbattimento, si usano dei cicloni che sono
performanti per abbattere le emissioni, un altro consiglio è eliminare le attività nella stessa area di dove si effettuano lavorazioni del
legno, ad esempio il verniciatore dovrebbe essere separato.
La pulizia degli ambienti di lavoro in umido e con filtri idonei ad alta efficienza e macchinari che prevedono aspiratori di polveri.

Evitare l’uso di aria compressa, perché si risospendono le polveri, con picco di esposizione.

Poi si ha la ventilazione generale, che deve essere progettata correttamente, considerando la velocità di cattura, la velocità frontale
e le velocità nel condotto.

La frazione da considerare è quella inalabile, dato che il tumore è nel settore paranasale.

pag. 48
15. COMPARTO OSPEDALIERO E FORMALDEIDE

È una sostanza cancerogena, non c’è ancora il valore limite, nelle realtà indoor, la situazione è migliorata, visto che nelle colle, la
quantità di formaldeide è diminuita. La formaldeide è un importante reattore per i VOC con ozono. L’SQA è 100mg/m 3.
COMPARTO OSPEDALIERO: gli ospedali sono un ricettacolo di rischi diversi, si va dal rischio biologico, al rischio chimico e al
rischio fisico.

Il rischio biologico sia contatto con fluidi corporei che contatto con persone infette, può portare a patologie da agenti biologici. Il
COVID ha modificato l’organizzazione del reparto ospedaliero.

Oltre agli agenti biologici, ci sono materiali allergizzanti, come i guanti in lattice, che è uno dei polimeri più allergizzanti, quindi la
presenza di aerosol contenente lattice, dovuto al cambiamento di guanti continua, porta a esposizione a lattice che può essere
problematica (da eczema cutaneo, fino a problemi respiratori). Quindi si dovrebbe eliminare il lattice, ma i costi sono molto elevati.

Inoltre, si deve effettuare una pulizia continua e molto di dettaglio.


Poi si ha la presenza di farmaci antiblastici, come terapie contro il cancro, questi sono principi attivi molto potenti, che possono
avere conseguenze sul personale che prepara e somministra questi farmaci.

Si hanno poi grossi utilizzi di gas anestetici, ma si hanno anche conservanti, quando cioè si effettua una biopsia, si deve conservare
in formalina (soluzione diluita di formaldeide).

Si hanno anche movimentazione manuale dei carichi, radiazioni ionizzanti sia per diagnosi che radioterapie (quindi si hanno fisici
sanitari e radio-patologi che sono sottoposti a questa esposizione), poi si ha anche utilizzo di videoterminali (problemi ergonomici).

AGENTI BIOLOGICI NEL SETTORE SANITARIO


Sono dei microrganismi che possono portare a infezioni al personale esposto, si trovano sia nei campioni biologici, molto di più nel
sangue che nelle urine. Il contatto con campioni o contaminazioni dell’ambiente di lavoro (atmosfera e superfici), può portare a
patologie. I ceppi influenzali (coronavirus, virus dell’influenza), sono categorie di virus che portano a esposizione principalmente
inalatoria, ma anche eventualmente contatto con superfici contaminate. Anche lo schizzo di sangue ha una possibilità di
trasmissione.

Il rischio biologico viene gestito con metodi preventivi e con forte accortezza (secondo procedure standardizzate) e obbligo di
formazione e informazione dei lavoratori. Sono fondamentali anche la sorveglianza sanitaria e il monitoraggio ambientale (con wipe
test, per controllare le superfici, o con piastre da contatto per avere un’idea della contaminazione, dopo sanificazione non si deve
trovare nulla, altrimenti si dovrebbe eseguire un ulteriore intervento di sanificazione).

COMPOSTI E MATERIALI ALLERGIZZANTI


Si hanno molte sostanze allergizzanti, come il lattice, poi detergenti, disinfettanti, farmaci (per alcuni farmaci, si preparano delle
terapie, che contengono principi attivi, non solo per curare, ma anche per il sistema immunitario, causando reazione allergica). Per
contenere le allergie, si devono sostituire le varie sostanze con prodotti anallergici, come i guanti in nitrile.
È importante l’addestramento e la formazione, si devono effettuare corsi di addestramento (prima formazione e poi informazione)
e sempre sorveglianza sanitaria (è l’ultima fase della prevenzione, che si suddivide in prevenzione primaria→ procedure per evitare
di essere esposto, eliminazione del fattore di rischio, secondaria→ diagnosi precoci che individuano la possibilità del danno e
terziaria→ si ha il danno vero e proprio, quindi patologia cronica e si può intervenire solo con terapie specifiche).

DISINFETTANTI
Sono sostanze chimiche che sono utilizzati per la sanificazione delle attrezzature, degli strumenti, oltre ad essere allergizzanti, alcuni
hanno un elevato livello di rischio. un esempio è la gluteraldeide. Per gestire il rischio si devono utilizzare sempre le procedure
standardizzate (SOPS), quindi utilizzare la sostanza disinfettante in modo non eccessivo, ma solo in piccole quantità e non in maniera
estesa. Fondamentale l’uso dei DPI, la formazione e informazione e sorveglianza sanitaria. Questi disinfettanti non entrano nelle
case, ma sono usati a livello ospedaliero. Il cloroformio era molto usato in passato, mentre oggi non è più utilizzato.

CONSERVANTI
Un esempio principale è la formaldeide, che è un’aldeide che presenta il gruppo carbonile. Tendenzialmente è usata come
conservante, perché è il migliore conservante per i tessuti biologici, quindi la materia organica non viene decomposta, ma si ha una
perfetta conservazione delle strutture biologiche, quindi analizzare un tessuto conservato in formaldeide è diverso rispetto a
analizzare un tessuto biologico che non è stato conservato. Non è ancora stata trovata una sostanza che permette come la formaldeide
di mantenere le caratteristiche del tessuto anche a livello microscopico.

La formaldeide è cancerogena di gruppo 1 sia per IARC, ACGIH, Unione Europea, dal 2017 in poi, è in categoria 1B dell’unione
europea (frase H350).

Da quando è stata classificata come cancerogena, anche il DLGS 81/2008 è stato modificato, con obbligo del datore di lavoro di
effettuare monitoraggio ambientale per analizzare l’esposizione dei lavoratori.

pag. 49
La formaldeide non si può analizzare con monitoraggio biologico, perché può derivare da altre cause, ad esempio l’esposizione a
metanolo da formaldeide. Ci sono valori limite, ad esempio ACGIH, da valore sulle 8 ore e short-term, quello delle 8 ore è
0.12mg/m3, 0.37mg/m3, invece, per lo short-term.

La formaldeide è genotossica e non si può determinare il NOAEL.

Gli approcci possibili per monitorare la formaldeide sono:

-strumenti real-time: danno dato ad alta risoluzione temporale, con la possibilità di poter ricostruire il profilo di esposizione, ma
danno risultati non attendibili (sensori elettrochimici), mentre i metodi in situ hanno problemi a livello del LOD.

-strumenti ad analisi differita: tipicamente si lavora sia a livello attivo (cartucce che contengono gel di silice, rivestito dalla DMPH,
perché il campionamento è un campionamento di adsorbimento di tipo chimico, che vengono usati per sostanze polari, c’è anche il
problema legato all’ozono, che provoca perdita di analita nella cartuccia, si tende ad usare nella linea di campionamento un
abbattitore di ozono). Si hanno vari metodi standardizzati, come NIOSH, OSHA (prevedono l’uso di DMPH e poi uso di HPLC).

Si deve sempre utilizzare dei bianchi, che devono essere sia di laboratorio che di campo, cioè delle cartucce (substrato di
campionamento), che segue la procedura delle cartucce su cui si effettua il campionamento, ma non si effettua su di esso il
campionamento, per valutare la contaminazione di fondo e controllare gli errori.

Di solito si usano campionatori di simmetria radiale, perché hanno un uptake rate più alto, quindi garantiscono di ottenere più massa
nella stessa unità di tempo.

Un altro problema è che dopo mesi di utilizzo degli strumenti, si ha una diminuzione della qualità del dato.

Quando si parla di formaldeide si ha il problema dei tempi di campionamento, perché un conto è considerare il rischio cronico e un
conto è scegliere le procedure di monitoraggio più idonee per confrontare con un VL short-term.

Quindi si deve effettuare campionamento attivo su fiala o ricorrere ad analizzatori a lettura diretta, con i limiti di questo approccio.

Il tempo di campionamento è anche funzione di ciò che accade, se avessimo una serie di fattori che influenzano il profilo di
esposizione su tutto il periodo lavorativo, ci si aspetta che le concentrazioni siano molto simili a quelle a breve periodo, quindi si
può scegliere di misurare tutto il turno per fare un confronto con VL di 8 ore. Oppure se fossimo nel caso di picchi improvvisi e
l’attività lavorativa è molto più bassa delle 8 ore, allora non si deve considerare l’esposizione long-term. Quindi si esprime su TLV-
STEL (sui 15 minuti), che per la formaldeide è 0.4 mg/m3.

Se si deve confrontare con VL short-term, si deve campionare comunque per 15 minuti, perché se il VL è espresso su questo tempo,
ci si deve riferire a tale tempo, anche se l’esposizione è più breve, se l’esposizione è più lunga di 15 minuti, si deve lavorare in una
condizione di worst-case. Nei reparti di sanità, si hanno valori molto più alti del VL.

Per la formaldeide, come per le altre sostanze è fondamentale riuscire a intervenire con prevenzione, quindi si riducono le
manipolazioni di campioni, l’utilizzo di contenitori pre-riempiti, con velo protettivo sottovuoto. Utilizzo di cappe specifiche, utilizzo
di DPI specifici, responsabilizzazione del personale.

CHEMIOTERAPICI ANTIBLASTICI
Sono mutageni, perché devono indurre metagenesi su cellule maligne, per poter provocare danni al DNA e quindi far sì che le cellule
vadano in necrosi. Sono anche cancerogeni e generando mutagenesi, può essere trasferita, quindi possono essere trasferite alla prole
e al feto (teratogeni), non sono solo mutageni in sé, ma possono avere effetti lesivi. Quindi il problema è la formazione del farmaco,
quindi il personale è esposto e l’intake può essere rilevante non solo per via inalatoria, ma anche se c’è contatto cutaneo. Si possono
generare anche gli aerosol. A differenza della formaldeide, queste sostanze non sono volatili e quindi sono presenti nei liquidi che
si preparano per la somministrazione, inoltre è rilevante anche l’evaporazione dalle superfici.

Si parla di farmaci che sono una categoria molto estesa, si ha il ciclo-fosfamide, il cloro-uracile, il cisplatino. Molti sono del gruppo
1 per l’uomo, alcuni sono 2A e altri 2B. Quelli più potenti sono anche cancerogenici.

A livello di strategie, per valutare la contaminazione di questi ambienti, si usa un monitoraggio biologico, che è fondamentale per
valutare la concomitanza di intake da più vie, quindi se esiste un indicatore biologico di esposizione, è una strategia di punta, per
effettuare una valutazione dell’esposizione buona, altrimenti si deve effettuare un approccio di esposizione inalatoria e cutanea.

Nella prassi l’uso di PADS cutanei o lavaggio delle mani è poco praticata, si tende ad applicare un’esposizione inalatoria, con
contestuale uso di wipe test.

I PADS cutanei sono importanti per avere un indicatore di esposizione cutanea, ma anche per capire in quale regione dell’operatore
ci sia il problema, i wipe test si fanno anche sotto la suola delle scarpe, per verificare il potenziale di contaminazione di ambienti

pag. 50
adiacenti, si può fare una doppia valutazione. Se ci accorgiamo che nell’aria ci sono livelli sensibili da chemioterapici antiblastici,
allora una delle ipotesi è che i filtri di questa cappa funzionino un po’ male.
Si devono usare cappe a flusso laminare per evitare che ci sia dispersione nell’ambiente del laboratorio di preparazione di queste
sostanze. A fine operazione servono operazioni di pulizia. Se parte uno schizzo si deve evitare di rilasciare in ambiente la sostanza.

GAS ANESTETICI
Sono sostanze attive a livello biologico, devono indurre narcosi, devono avere effetto neurologico, si parla di gas alogenati, come il
sevofluorano e l’enfluorano (molecole più avanzate che permettono di controllare il risveglio, ma sono biologicamente attivi).
L’esposizione avviene perché c’è qualche perdita dal sistema di somministrazione, oppure per errori da parte degli operatori, o
perché quando l’operatore viene estubato e si ha una perdita. Esistono VL di esposizione, come per il protossido di azoto, è possibile
effettuare anche il monitoraggio biologico, anche per gli alogenati.
Gli effetti sulla salute sono a livello del cervello, per il fegato e sistemi di riproduzione, alcuni hanno ipotizzato anche danni a livello
di cuore.

Per prevenire l’esposizione, si deve avere un elevato tasso di ricambio dell’aria, serve un tasso di ventilazione di circa 15 ricambi
per ora. Se non si avesse un sistema idoneo di protezione collettiva serve istallarne uno nuovo. Inoltre è fondamentale la
manutenzione, perché speso si hanno contaminazioni dovute a giunti che non tengono più e si hanno quindi perdite.
Serve poi formazione e informazione, monitoraggio ambientale (si può effettuare monitoraggio attivo e indiretto, si sta fornendo
anche per le sale operatorie degli strumenti installati che mandano un dato via cavo, per un controllo integrato del livello
decontaminazione delle sale) e sorveglianza sanitaria.

MOVIMENTAZIONE MANUALE DEI CARICHI


Si parla di indice MAPO, gli operatori sanitari sono sottoposti a rischio trasversale.

RADIAZIONI IONIZZANTI
Sono radiazioni ionizzanti quelle che riescono a sopraffare l’energia di legame di un elettrone. Servono degli esposti di dosimetria
per studiare le radiazioni. Servono metodi preventivi, come adeguamento degli impianti, pianificazione della manutenzione,
formazione e informazione, dosimetria e sorveglianza sanitaria.

UTILIZZO DEI VIDEOTERMINALI


Vale anche negli ospedali, visto dei gruppi di persone che lavorano per 8 ore al giorno. Si deve sottoporre a sorveglianza sanitaria
una volta ogni 3 anni, considerando problemi osteo-articolari e oculari. Servirebbero sempre pause di 15 minuti ogni due ore.

Le infezioni ospedaliere più frequenti sono urinarie, polmoniti e cutanee. Per evitare queste infezioni si deve lavorare per ridurre al
minimo la possibilità di esposizione del personale.

pag. 51
16. SETTORE ESTRATTIVO

In Italia è limitato alla coltivazione in cava, cioè la classica miniera del passato, quindi l’estrazione da miniera è stata dismessa,
mentre è ancora fiorente l’estrazione da cave a cielo aperto.

L’industria estrattiva è suddivisa in due tipologie, la coltivazione in galleria (miniere) e la coltivazione a cielo aperto o detta anche
coltivazione a giorno (riguarda tutte le attività di cava), al giorno d’oggi le attività di cava sono soprattutto per il settore del cemento,
come calcare e marne e rocce usate per le pietre ornamentali, come piode, tetti, ma anche usate per il vetro, per le ceramiche.
Quando si parla di cave, si ha tipicamente delle attività di smantellamento di una parete rocciosa per recuperare il materiale che ci
interessa, quindi si hanno una serie di lavorazioni:
-perforazione, si creano dei fori, si inseriscono microcariche e la roccia si frattura secondo piani pre-fissati (volata)
-sgombero, cioè i blocchi vengono spostati, ci sono delle prime lavorazioni dei blocchi
-manutenzione e armatura, si mantiene la prima parte della cava e si arma per aumentare la resistenza

I minerali principalmente estratti dalle cave sono: quarzo (silice cristallina), asbesti, graniti, arenarie, quarziti, pomici, terra di
Tripoli, terra di Diatomee (silice amorfa, che potrebbe trasformarsi in silice cristallina con alte temperature), sabbia e ghiaia (molto
fiorente).

In alcuni casi si verificano delle contaminazioni da altri minerali, ad esempio ci sono stati casi di contaminazioni da asbesto, più
precisamente da tremolite.

A livello di miniere, il carbone è il minerale più estratto, ma anche ferro, manganese, piombo e zinco, rame, mercurio, pirite,
feldspati, talco, grafite, barite e fluorite.

La lavorazione in miniera preoccupa maggiormente per l’igienista occupazionale, rispetto a lavoratori in cava, le lavorazioni sono:
-avanzamento (volata)
-coltivazione (demolizione e sgombero)
-riempimento con sterile
-manutenzione e armatura
-preparazione del minerale (cernita, vagliatura)

Il settore delle grandi opere è quello che prevede lo scavo di gallerie, non per recuperare minerali, ma per inserire tubazioni per
l’acqua, per il settore viabilistico, oppure gallerie per dare sfogo alle dighe.

Lavorazioni:
-perforazione (con macchinari appositi)
-sgombero
-manutenzione e armatura

I rischi presenti nell’industria estrattiva sono:


-agenti fisici: rumore, vibrazioni, temperatura, umidità, illuminazione, radiazioni ionizzanti (specialmente radon). (In galleria si
hanno molti più problemi, mentre in cava, grazie al fatto che si è all’aperto, i problemi sono minori).
-polveri: silice, amianto, carbone, talco, ferro, grafite, silicati
-tossici: grisou (metano + altri idrocarburi, CO2, O2, N2), gas di mina (CO+NOx). Quindi spesso ci possono essere gas che possono
essere liberati dal sottosuolo causa estrazione
-zoonosi: anchilostomiasi (parassitosi da nematode, che penetra tipicamente nel piede, si riproduce e raggiunge l’intestino e provoca
emorragie), leptospirosi (infezione batterica, deriva dal contatto con escrementi di topo).

POLVERI MINERALI
-Silice cristallina: la silice non è solo cristallina, ma si hanno anche delle fasi amorfe, come il calcedonio (che ha una struttura mista
tra cristallina e amorfa) e poi si ha l’opale (che è la fase della silice più amorfa), è colloidale ed è un gel di silice, è la base strutturale
del guscio di molti organismi plantonici, la cui deposizione sul fondo dà origine a successioni rocciose sul fondo. Vengono usate
come riempitivi, il problema è che quando la silice amorfa viene scaldata con alte temperature per molto tempo, si convertono in
tridimite e cristoballite (tra gli 800 e 1100°C).

Ci sono stati anche degli studi negli studi dentistici, perché si utilizzano gli alginati, che servono per l’impronta dei denti e questo è
formato da silice amorfa, che però causa temperature per la produzione, si trasforma in silice cristallina e in questo caso si è verificato
anche un caso di silicosi.

La cristoballite è anche un problema ambientale soprattutto in zone vulcaniche.


-Asbesto: famiglia degli anfiboli (fibre un po’ più grossolane, con morfologia un po’ più rettilinea, resistono per l’intera vita
nell’albero respiratorio) e crisotilo (meno bio-durabile, forma curvilinea e più fini). La malattia (mesotelioma pleurico) dipende
molto dal tempo, più tempo passa, maggiore è la probabilità di sviluppare la malattia. La dose ha un’incidenza, ma generalmente
anche una bassissima dose può provocare la malattia.

pag. 52
-Talco: il talco può essere contaminato con tremolite e antofillite, in questo caso, quindi si può poi avere una contaminazione da
asbesto.
-MICA: silicato complesso di Al, con metalli alcalini o Fe e Mg. Si ritrovano come costituenti di una serie di rocce. Usati come
riempitivi di vernici, come isolanti elettrici, cementi, asfalti.
-Vermiculiti: usati come isolanti termici, possono essere contaminate da una serie di fasi ad abito asbestiforme ed esse possono
presentare morfologia asbestiforme.
-Caolino: è un silicato chiaro, quando si estrae, un po’ di quarzo ci può essere e il caolino è pregiato, è la base per produrre le
porcellane o le ceramiche bianche, ma anche come riempitivo ed adsorbente nell’industria della carta, ceramica, plastica e refrattari.
-Altre argille: terra da follone, usata come sgrassante della lana, decolorante di oli e solventi, impermeabilizzante di manufatti in
cemento e ceramica. Quando c’è atapulgite, il potere adsorbente è importante, è un silicato complesso, la cristallizzazione avviene
con fibre rettilinee allungate. Si deve trattare come se fosse un asbesto, dato che ha lo stesso rischio, anche se non è classificato
come asbesto.
Bentonite, sono usate come fanghi di perforazione.
Le patologie che si generano sono patologie da miche o argille.

CICLO PRODUTTIVO IN MINIERA


Di solito si usa l’esplosivo nel caso di rocce dure, oppure macchine da attacco puntuale, poi si rimuove la parte che ci interessa e le
scorie dall’altra parte, poi la galleria viene armata, in modo tale da evitare che crolli. Poi si portano all’esterno i materiali, il materiale
lapideo viene poi frantumato, quindi si ha emissione di polveri, poi si ha arricchimento e purificazione del minerale in alcune realtà
si usano dei bagni di mercurio, quindi con inalazione da parte dei lavoratori di vapori di mercurio).
Poi led fasi sono stoccaggio, vendita nel mercato.

CICLO PRODUTTIVO IN CAVA


Prevede fori che si intersecano per garantire l’estrazione di un blocco di forma e dimensioni pre-determinate, si usano cariche che
sono programmate per esplodere con una differenza temporale, in modo tale che il blocco si distacchi come si desidera.
Poi il blocco viene purificato da materiali indesiderati, poi in laboratorio, dove si ha riquadratura, taglio delle lastre (generalmente
multilama), lavorazioni in superficie, finitura (levigatura, smussatura→ esposizione a polveri molto elevata).
È stato effettuato uno studio considerando 5 cave, si deve comunque distinguere il crisotilo da confondenti, che non sono dannosi
come il crisotilo. Inoltre sono stati osservati anche i valori in zone circostanti le cave.
Per la gestione del rischio: chiudere la cava più contaminata, inibire l’accesso locai telai multilama, lavorazioni in umido, lavorazioni
manuali su tavoli aspiranti, DPI (maschere FFP3, tute dei lavori), formazione, informazione e addestramento dei lavoratori.

CASO STUDIO→ scavo di gallerie di una tratta ferroviaria (TAV Torino-Lione)


È un tracciato ferroviario che è stato subito oggetto di critiche della popolazione locale e poi a una politica nazionale. Una
componente è in gallerie, con una serie di tunnel di base che sfocia nel territorio francese.
Quindi si hanno decine di km da scavare in galleria, quindi si ha rischio per la viabilità, trasporto merci, per chiudere la parte ad alta
velocità. Quindi è stato fatto uno studio di impatto ambientale, che ha considerato una serie di fattori, uno dei più importanti è sul
sistema geologico e idrologico. Lo studio di impatto ambientale è stato integrato con la radioattività e sulla presenza di amianto,
dato che si movimentano rocce che possono essere arricchite con uranio e isotopi. Nel SIA erano previste una serie di misure
previste.
Una delle critiche era quello di perforare rocce che possono contenere asbesti (nello specifico crisotilo e anfiboli). L’amianto non è
stato l’unico tema, comunque è necessario predisporre un progetto preliminare che deve essere approvato dopo aver valutato la
compatibilità ambientale. Per opere così importanti si va in conferenza stato-regioni.
I rischi per la salute non sono stati attribuiti solo alla presenza di amianto (è presente nelle rocce della val di Susa, non è presente
nelle rocce integre, ma nelle fratture, ci sono rischi per i lavoratori in galleria, ma anche per i lavoratori che si occupano del trasporto,
devono essere posti negli appositi siti di smaltimento, è stato quindi adottato un sistema di ventilazione generale, ventilazione
localizzata, DPI, come mascherine FFP3, ventilazione assistita o maschere facciali. Inoltre c’è stato anche un controllo condiviso,
con altre misure, come proteggere le rocce contenenti amianto dall’erosione, controllo giornaliero delle concentrazioni atmosferiche
di fibre di amianto all’interno e all’imbocco delle gallerie, trattare l’aria con filtri ad alta efficienza, come gli HEPA, uso anche di
lame d’acqua, cioè montare una lama d’acqua all’imbocco della galleria, da completa eliminazione dell’impatto, ma è escluso nel
caso dell’uso di ventilazione), ma anche radioattività (radiazioni ionizzanti, isotopi dell’uranio→ minerali che contengono uranio
238, si deve gestire il rifiuto in maniera corretta, il radon è il problema principale, che ha disgregazioni elevatissime, il cui limite
sarebbe di 100Bq/m3, fissato dall’organizzazione mondiale della sanità, quindi un metodo sarebbe quello di ventilare bene. Il Radon
è la seconda causa di cancro al polmone. Il problema del radon sono i suoi figli, si deve quindi avere ventilazione e controllare anche
la presenza continua di uranio e della possibile mineralizzazione, con monitoraggio personale) e rumore (rumore durante le
lavorazioni, rumore per la valle). Sia amianto che uranio possono essere presenti solo in zone specifiche.

pag. 53
17. INDUSTRIA DEL LATERIZIO, DELLA CERAMICA E DEL VETRO
Sono industrie le cui materie prime sono minerali.

17.1 INDUSTRIA DEI LATERIZI

Laterizio: manufatto composto da argilla opportunamente lavorata, formata e sottoposta a cottura (mattone). L’argilla è quindi alla
base, poiché l’argilla una volta bagnata garantisce malleabilità, quindi si può produrre un manufatto dando una forma desiderata e
viene poi cotto, si ottiene la terracotta, che è il prodotto finale. Le argille sono rocce che contengono minerali argillosi (silicati idrati
di alluminio), con una serie di altri elementi, quindi alla base dell’argilla c’è il silicio (fillosilicati), che ha una struttura tetraedrica
o ottaedrica. La base di tutto è la plasticità dei minerali delle argille, poiché sono in grado di catturare acqua interstrato e gonfiarsi.
A seguito di essicazione, si perde acqua e in seguito a cottura si ha una certa resistenza anche meccanica, anche se sono fragili.
Esistono argille di buona qualità, contenenti molto alluminio e poca silice, il quarzo è praticamente assente. Argille grasse (poco
contenuto di quarzo, ricche di alluminio), argille magre (alto contenuto di quarzo, poco contenuto di alluminio).
Ci sono anche argille refrattarie, argille fusibili e terre di follone.

17.2 INDUSTRIA DELLA CERAMICA

In questi manufatti si hanno argilla e caolino, con aggiunta di dimagranti (sabbia di quarzo, feldspati, barite, creta). La ceramica è
alla base delle costruzioni. Esistono varie tipologie di ceramiche, come terracotta, maiolica, gres, faenza, porcellana (materiale di
maggior pregio→ molta caolinite e poco quarzo).

La ceramica si produce con un impasto, con acqua, che si chiama barbottina, poi gli impasti vanno essiccati, cotti, ma il ciclo della
ceramica non finisce qui, devono essere rivestiti da smalti e vernici (che consentono impermeabilità).
Sassuolo è un’importantissima città di produzione della ceramica, quindi in Italia è molto importante, ci sono molti lavoratori e un
indotto molto rilevante. Gli smalti e le vernici sono miscele di silicati che garantiscono impermeabilità. Nelle stoviglie vengono
usate delle vernici dette cristalline, che producono le fritte. Gli smalti e le vernici contengono ossidi di cobalto, ossidi di piombo,
ossidi di ferro, ossidi di stagno, ossido di cromo, nichel, uranio.
Una volta preparata la barbottina, si mette in stampi, si ha la colata dell’impasto, a cui segue una foggiatura o colaggio, cioè
formatura a mano o automatiche e rifinitura, poi si riscalda per essiccazione e poi rifinitura e infine cottura, in alcuni casi si può
avere una prima cottura detta biscottatura, dopodiché si ha la pulitura del biscotto e poi una seconda cottura dopo verniciatura, a
temperature inferiori.
Per i sanitari e piastrelle mono-cotte, si attua un’unica fase di cottura.

AGENTI DI RISCHIO NELL’INDIUSTRIA DEI LATERIZI E DELLA CERAMICA


I rischi generali principali sono quelli fisici (microclima, rumore, movimentazione manuale dei carichi), polveri (silice cristallina),
rischio chimico (colle organiche→ VOC).
Rischi specifici
→ inalazione e contatto cutaneo con polveri e ossidi contenenti smalti per le colorazioni, quindi piombo, cobalto, cromo, nichel.
→ cottura, che da problemi di microclima, polveri contenenti fibre ceramiche refrattarie (gruppo 2A della IARC) e silice cristallina.
La silice è cancerogena, provoca anche silicosi (solo ad altissime concentrazioni, non è questo il caso), inoltre provoca patologia
autoimmuni (come artrite rematoide).

17.3 INDUSTRIA DEL CEMENTO

Il cemento è basato sulla calce, che è un ossido di calcio, la calce può essere aerea, cioè indurire e tornare ad essere calcare, oppure
la calce può indurire a contatto con l’aria. Il cemento è un materiale in polvere, si parte dalle marne, che richiedono la calcinazione
e la macinazione.

Oppure artificialmente, ottenendo cemento Portland e tipo alluminoso. Nel cemento ci si può mettere altro gesso e altri additivi, per
ottenere cementi particolari, a presa rapida, cemento idraulico, cemento metallurgico, cemento marittimo e da pozzolana.

Il cemento viene prodotto da marna o miscela di calcare e argille, se si avesse la marna, si avrebbe già la presenza di calcare, il
materiale viene cotto in forno, c’è una prima fase di cottura che dà origine ad aggregazione di polveri, che poi viene scaldato, i forni
da cemento sono rotativi, hanno una piccola pendenza, quindi il materiale scivola verso il basso lentamente e scendendo verso il
basso, la temperatura aumenta. All’uscita del forno si ha il clinker, che è un materiale in pellet, costituito da varie fasi cristalline,
quindi sono avvenute delle reazioni che oltre alla de-carbonatazione del calcare. Il clinker è costituito da belite, alite, C3A e C4AF.
Il clinker viene sottoposto ad un’ulteriore macinazione, poi insacchettamento e distribuzione. Tendenzialmente si aggiunge acqua
per favorire la presa, poi si formano ossidi di calcio e sul lungo periodo c’è carbonatazione.

AGENTI DI RISCHIO NELL’INDUSTRIA DEL CEMENTO


-rumore
-polveri
-microclima

pag. 54
L’uso di materiali cementanti porta alla disidratazione della cute e alla sensibilizzazione (eczema da cemento), causato dal cromo
VI, contenuto nel cemento. Va anche fatta la valutazione della silice cristallina, ma in realtà il quarzo è un composto indesiderato,
quindi la presenza è bassa, ci può essere una piccola contaminazione.

17.4 INDUSTRIA DEL VETRO

Anche in questo caso si hanno forni che devono portare a completa fusione del minerale di partenza che sono sabbie quarzifere.
Importante ricordare la differenza tra minerale, cristallo e sostanze amorfe, perché la silice che si necessita è quella cristallina e non
quella amorfa. Il vetro è un solido amorfo.

Il ciclo prevede la preparazione e fusione, lavorazione (soffiatura, colata, stampaggio, laminazione e finitura) e finitura (molatura,
smerigliatura e incisione). Il vetro è riciclabile al 100%, in modo tale anche da ridurre l’uso della plastica.
Se si avesse solo seconda fusione, quindi da vetro produrre altro vetro, la silice cristallina non entra in gioco, quindi è un aspetto
fondamentale per i lavoratori.

AGENTI DI RISCHIO NELL’INDUSTRIA DEL VETRO


Nella preparazione e fusione:
-Silice cristallina
-ossidi di metalli pesanti
Nella fusione:
-radiazioni IR, microclima, gas (anidridi, CO, acido fluoridrico, l’acido fluoridrico ha un VL molto basso e ha una tossicità acuta
dato che il vetro può contenere impurità)
Nella lavorazione:
-polveri
-danno polmonare nei soffiatori
Nella finitura:
-polveri silicotigene
-acido fluoridrico nell’incisione → unico acido che attacca la silice
MATERIE PRIME
Silice cristallina, minio (ossido di piombo), feldspati, caolino, ossido di zinco, composti del cadmio (fondamentali per vetri
particolari, come vetri anti-neutroni), acido fosforico, manganese (usato per sbiancare il vetro), arsenico (si usa anidride arseniosa).
CASO STUDIO→ Murano
A Murano si sforava il valore limite per il cadmio in atmosfera, c’erano concentrazioni molto più elevate, con conseguenti problemi
ambientali, sono quindi state chiuse una serie di aziende e su 89 vetrerie, alcune non erano in regola.

pag. 55
18. SETTORE AGRICOLO

Il problema dell’agricoltura è dovuto all’utilizzo di sostanze chimiche e inoltre si ha uno spazio enorme occupato, con anche piccole
imprese, quindi si hanno piccole imprese, inoltre ci sono problematiche legate al fatto del lavoro in nero, quindi non si hanno
protezioni dei lavoratori.

L’agricoltura dà lavoro a più di 3 milioni di persone, si ha prevalenza di lavoratori in proprio rispetto a quelli dipendenti, c’è possibile
lavoro minorile, ci sono lavoratori stagionali, ci sono pensionati al lavoro, c’è una commistione tra ambiente di lavoro e vita, cioè
se le persone vivono nell’ambiente lavorativo, si è sottoposti ai rischi per tutto il tempo e non solo le 8 ore lavorative. Ci sono diversi
trattamenti, tante mansioni, non è quindi facile fare valutazione del rischio, diventa problematico fare una valutazione del rischio.
Tipicamente si tende a fare formazione.

AGENTI DI RISCHIO PER L’AGRICOLTURA


-Agenti chimici (fitosanitari, polveri organiche vegetali e animali, polveri minerali)
-Agenti fisici (rumore, vibrazioni, microclima, UV)
-Agenti biologici
-Trasversali (movimentazione manuale dei carichi)
-Rischi infortunistici (macchine, sttrezzi, fabbricanti, animali)
-Rischi di incendio (depositi e magazzini)
-Rischio elettrico (fabbricanti, macchine e impianti)

I pesticidi hanno un effetto biologico, agiscono sui neuroni, gli organofosforici agiscono tenendo aperta la sinapsi, provocando un
danno neuronale, sono sempre più selettivi, non hanno selettività assoluta, quindi la maggior parte di questa è tossica anche per
animali e uomo. L’esposizione occupazionale si ha nell’ambito di chi produce e chi utilizza. L’erbicida è più preoccupante a livello
eco-tossicologico (problemi ambientali). Ci può anche essere un’esposizione della popolazione generale che risiede in aree agricole.

I prodotti fitosanitari vengono usati per molte lavorazioni, contengono principi attivi e co-formulanti, favorendone la distribuzione
sulle foglie e si hanno gli additivi (aumentano il volume del prodotto per facilitarne l’uso e il dosaggio).

Per mettere a disposizione dei fitosanitari, si deve rispettare una direttiva pesticidi e si deve testare con studi tossicologici ed eco-
tossicologici. L’agricoltore non è l’unico lavoratore esposto, ma ci sono i contoterzisti (applicatori di pesticidi), addetti a serre,
rivenditori di fitofarmaci, addetti alla disinfezione stalle e animali. In agricoltura non si deve sottostimare il problema legato
all’esposizione cutanea, perché sicuramente un po’ depositano sulla cute e in parte trasportata con i venti e raggiungere case e centri
abitati. Di solito si effettua una valutazione in area personale, e cutanea con PADS, quindi monitoraggio ambientale, ma si può
anche usare un monitoraggio biologico, anche se non è semplice, dato che gli IBE non sono sempre presenti. Però permette di dare
la dose realmente assorbita e si possono usare i capelli. L’inibizione dell’acetilcolinesterasi, porta al deterioramento dell’assone che
è la base del neurone, gli effetti sono acuti (muscarinici), quindi visione offuscata, salivazione, sudorazione. Poi si hanno effetti
nicotinici (debolezza, disartria, astenia, atassia). Si hanno poi effetti a livello centrale (convulsioni).

L’assorbimento percutaneo è peggiore sempre per gli organofosforici. Ci sono protocolli rigidi da seguire, deve essere presente
l’etichettatura, ci devono essere i giusti segnali, si deve conservare in modo consono. Uso di mascherina, guanti, rimuovendoli nel
modo più opportuno.

pag. 56

Potrebbero piacerti anche