Sei sulla pagina 1di 77

AFFIDABILITA E CONTROLLO DI QUALITA L-A

Peretto
ELEMENTI DI METROLOGIA
La misura un processo con cui si stabilisce una corrispondenza univoca tra tutte le grandezze di
una certa classe e tutti i numeri.
Il risultato della misura inevitabilmente un numero.
In Misure Elettriche quasi tutte le grandezze di cui ci si occupa sono grandezze fisiche e la loro
grandezza misurabile utilizzando una scala di rapporti.
DEF: La misura di una grandezza il rapporto fra la grandezza considerata ed unaltra, ad essa
omogenea, assunta come unit di misura.
Un qualunque strumento di misura ha un campione per confrontarlo con lingresso.
Un sistema di unit di misura il complesso delle unit di tutte le grandezze fisiche, o di quelle
che servono in un particolare settore.
La scelta di ununit di misura di una grandezza , in linea di principio, arbitraria.
I sistemi di misura si suddividono in:
incoerenti: tutte le unit di misura vengono scelte arbitrariamente
coerenti: vengono assunte come fondamentali soltanto le unit di alcune grandezze e le altre
sono da esse derivate
Un sistema, prima di essere proposto, deve definire un campione con i seguenti requisiti:
assolutezza: la grandezza fisica che il campione rappresenta non deve dipendere dal luogo
in cui il campione stesso si trova (es. il peso non lo )
stabilit: un campione deve risultare invariante nel tempo:
a breve termine (influenzata soprattutto dalla temperatura)
a lungo termine (influenzata da modificazioni strutturali con cui il
campione stato realizzato)
riproducibilit: un campione deve essere disseminabile. Occorre avere la possibilit di
realizzare delle copie di un campione.

Classificazione dei campioni:
naturali: unentit esistente e ben individuabile in natura (es. lunghezza donda)
materiali (o artificiali): un oggetto costruito dalluomo (es. regolo)
primari: sono caratterizzati dal minimo livello di incertezza consentito dalla tecnica
metrologica (se degli strumenti devono essere ritarati vengono portati nei laboratori e
confrontati con i campioni primari) . Attraverso una molteplicit di misure e confronti con i
diversi laboratori si definisce il minimo livello di incertezza per i campioni primari.
secondari: sono campioni tarati mediante confronto con i campioni primari
Il Sistema Internazionale (SI) fu scelto nel 1946 con entrata in vigore il 1 gennaio 1948. E un
sistema coerente con 7 grandezze fondamentali (e 2 supplementari: angolo piano e angolo solido):
1- METRO (1983) : il metro la distanza percorsa dalla luce nel vuoto in una frazione di
secondo pari a 1:299.792.458. La sua unit di misura definita tramite quella del tempo.
1
2- CHILOGRAMMO (1901) : il chilogrammo la massa del prototipo internazionale
conservato al Pavillon de Breteuil (Sevres). Il prototipo costituisce il campione materiale e
la sua incertezza nulla per definizione, mentre quella con cui si possono confrontare le
copie oggi dellordine di 10
-9
. Verr sostituito da un campione naturale.
3- SECONDO (1967) (il pi importante) : il secondo il tempo corrispondente a
9.192.631.770 periodi della radiazione corrispondente alla transizione iperfina da (F=4,
MF=0) a (F=3, MF=0) dellatomo di Cesio 133, non perturbata da campi esterni. Concetto
del trigger (conta colpi) .
La riproducibilit dei campioni naturali basati su questa definizione dellordine di 10
-14
,
molto superiore a qualsiasi altro campione.
4- CORRENTE ELETTRICA (1948) : lampere definito come lintensit di una corrente
elettrica costante la quale, mantenuta in 2 conduttori paralleli, rettilinei, di lunghezza
infinita, di sezione trascurabile e posti alla distanza di un metro uno dallaltro, nel vuoto,
produrrebbe tra questi conduttori una forza uguale a 2x10
-7
newton per metro di lunghezza.
5- TEMPERATURA : il Kelvin K pari a 1:273,16 la temperatura termodinamica del punto
triplo dellacqua. Punto triplo dellacqua:
Esiste ununica condizione di temperatura e pressione in cui si trovano tutti e 3 gli stati
dellacqua (aeriforme, solido, liquido). Questo punto stabile ovunque venga effettuata la
misura -> assoluto -> campione. La scala Celsius attualmente definita dalla relazione: t = T
- 273,16.
2
6- INTENSITA LUMINOSA : la candela (cd) lintensit luminosa in una data direzione
di una sorgente che emette una radiazione monocromatica di frequenza 540x10
12
Hz
(=0,555m) e la cui intensit energetica in quella direzione 1/683 watt allo steradiante
(sr). Lo steradiante langolo solido dove faccio passare la luce. Alcuni derivati della
candela:
- flusso luminoso (lumen lm = cd x sr) : quantit di luce emessa da una sorgente
- luminanza (nit nt = cd x m
-2
) : intensit luminosa di una sorgente per unit di superficie
- illuminamento (lux = lm / m
-2
) : quantit di luce incidente su una superficie per unit di
area
7- QUANTITA DI SOSTANZA: la mole la quantit di sostanza di un sistema che contiene
tante entit quanti sono gli atomi in 0.012 Kg di carbonio 12. Il numero di entit elementari
cos definito pari al numero di Avogadro (N6,022 x 10
23
mol
-1
). Esso non viene
esplicitamente espresso per non condizionare, con un valore convenzionale affetto da
notevole incertezza (stimata intorno a 5ppm (parti per milione=10
-5
, mentre i confronti fra
masse danno luogo ad incertezze non superiori a 10
-8
) lutilizzazione di migliori
determinazioni cui si pensa di poter pervenire in futuro.
3
INCERTEZZE DI MISURA E LORO ESPRESSIONE
La misura di una grandezza X costituita da un numero x (stima del valore del misurando), da
unincertezza u(x) (indica la qualit con cui la misura stata effettuata)e da ununit di misura[U].
] ))[ ( ( U x u x t
Non possibile ottenere il valore vero del misurando come risultato di una misura perch nel
processo di misura intervengono eventi aleatori e sistematici.
In un processo di misura agiscono 5 elementi principali:
- il misurando: loggetto fisico di cui vogliamo misurare una certa propriet
- il campione: il valore di riferimento per la propriet che vogliamo andare a misurare
- il metodo: la tecnica con cui vogliamo misurare la propriet del parametro
- lo strumento: loggetto che implementa il metodo di misura
- loperatore
Ognuno di questi elementi (grandezze di influenza) contribuisce a rendere il risultato della misura
diverso dal valore vero, consegue che ripetendo la misura si ottengono risultati differenti
(dispersione dei risultati).
Le cause possono essere:
- sistematiche: ripetendo la misura agiscono allo stesso modo
- casuali: ripetendo la misura agiscono in modo differente e, complessivamente, tendono a
compensarsi
Esprimere il risultato della misura con un solo numero sarebbe privo di significato: non sarebbe
possibile confrontare fra di loro misure della stessa quantit in quanto si avrebbero ovviamente
numeri diversi.
Per esprimere questa dispersione, fino a qualche anno fa la bont di una misura veniva espressa
attraverso il concetto di errore: sia X la grandezza da misurare, x il valore misurato e x
v
il valore
vero, lerrore assoluto X dato da:
v
x x X
Ma non ci si pu riferire ad un valore vero se questo non ricavabile dal processo di misura, se lo
si conoscesse non si farebbero misure!
Parlare di errori quindi concettualmente sbagliato.
Resta per il problema di sapere con quale approssimazione la misura stimi il valore del misurando.
Siccome la misura importante dal punto di vista legale, per confrontare le varie misure c bisogno
dellincertezza.
Il concetto di incertezza stato introdotto (solo recentemente) allo scopo di definire un parametro
che dia una valutazione quantitativa della qualit di una misura, parametro che, associato al
risultato di una misura, caratterizza la dispersione dei valori che ragionevolmente possono essere
attribuiti al misurando.
La valutazione quantitativa avviene definendo un intervallo di confidenza, cio un intervallo
allinterno del quale cadano, con un dato livello di confidenza, gran parte dei valori
ragionevolmente attribuibili al misurando. Lincertezza di misura viene quindi definita in termini
probabilistici perch non detto che lintervallo contenga il valore del parametro.
Lincertezza viene normalmente espressa dalla semiampiezza di tale intervallo:
La valutazione dellincertezza non pu ovviamente essere lasciata alla libera iniziativa di ognuno.
La ISO (International Organization for Standardization) ha emesso nel 1993 la Guide to the
expression of Uncertainly in Measurement (GUM) che nel seguito stata fatta propria dalle norme
nazionali di molti paesi (in Italia UNI-CEI 13006). Essa fornisce le definizioni dei termini utilizzati
4
per indicare la dispersione dei risultati e indica le regole per calcolare ed esprimere correttamente
lincertezza di misura.
Il risultato di una misura viene trattato come una variabile aleatoria.
Lincertezza quindi espressa da uno scarto tipo (standard deviation) o da un suo multiplo. Lo
scarto tipo rappresenta la variabilit, e quindi la dispersione, di una certa grandezza aleatoria.
Il livello di confidenza corrispondente dipende dal tipo di distribuzione di probabilit.
In base alla metodologia con la quale le incertezze vengono valutate, queste si dividono in:
- incertezze di tipo A
- incertezze di tipo B
Si definiscono incertezze di tipo A quelle che vengono valutate mediante lapplicazione di tecniche
statistiche, cio a partire dalla distribuzione statistica dei risultati di un numero significativo di
misure. Lincertezza data dallo scarto tipo della distribuzione. Il parametro di un certo sistema
viene tipicamente valutato praticando pi volte il processo di misura e ottenendo risultati diversi. La
misura sar pi significativa, pi sono le misure che vengono effettuate.
Questo tipo di procedimento non pratico (non si ha la possibilit di ripetere milioni di volte la
stessa misura), si fa come nei laboratori di taratura.
Si definiscono incertezze di tipo B quelle che vengono valutate mediante lapplicazione di tecniche
non statistiche. In questo tipo di analisi la distribuzione di probabilit viene ipotizzata sulla base
dellesperienza o di altre informazioni. il caso delle specifiche di uno strumento. Anche in questo
caso lincertezza viene espressa dallo scarto tipo.
Incertezze di tipo u(x) (standard uncertainly): incertezza del risultato x espressa come scarto tipo.
Incertezza estesa U(x) (expanded uncertainly): grandezza che definisce, attorno al risultato, un
intervallo che si ritiene contenga gran parte della distribuzione dei valori che possono essere
ragionevolmente attribuiti allincertezza.
Per poter associare allincertezza estesa una certa probabilit occorre conoscere o ipotizzare la
distribuzione di probabilit.
Fattore di copertura K (coverage factor): fattore numerico utilizzato come moltiplicatore
dellincertezza tipo per ottenere lincertezza estesa.
Esistono 2 forme per scrivere lincertezza di misura:
- in valore assoluto (stessa unit di misura del misurando)
- in valore relativo (grandezza adimensionale, pu essere espressa in p.u., ppm,
percentuale)
Il numero di cifre significative di una grandezza si ottiene contando, da sinistra verso destra, tutte le
cifre a partire dalla prima cifra diversa da zero, indipendentemente dalla posizione della virgola.
5
Nelle misure dirette il valore del misurando viene determinato mediante strumenti appositamente
costruiti e tarati (voltmetri, frequenzimetri). Lincertezza calcolata in base alle specifiche fornite
dal costruttore dello strumento.
Negli strumenti elettromeccanici le specifiche sono espresse da un unico indice chiamato indice di
classe (c). Lindice di classe espresso come una percentuale del fondo scala : si ha quindi
unincertezza assoluta costante lungo tutta la scala. Lincertezza relativa aumenta man mano che ci
si allontana dal fondo scala.
Negli strumenti digitali, invece, le specifiche di accuratezza sono normalmente espresse da 2 indici:
- uno (es. ) fornisce unincertezza costante in valore relativo
- laltro (es. ) una costante in valore assoluto
+ x
con
percentuale della lettura
percentuale del fondo scala
Osservazione: il numero di cifre fornite dallo strumento sovrabbondante rispetto allincertezza.
Nelle misure indirette il valore del misurando viene determinato sfruttando relazioni esistenti con
grandezze misurate direttamente.
Sia y il risultato di una misura dipendente da N misure x
i
(con N i 1 ) secondo la funzione:
) ,..., ,..., , (
2 1 N i
x x x x f y
Siano note le incertezze tipo u(x) di ciascun x
i
. Lincertezza u
c
(y) su y detta incertezza tipo
combinata (combined standard uncertainly): incertezza tipo del risultato di una misura
allorquando il risultato ottenuto mediante i valori di un certo numero di altre grandezze; essa
uguale alla radice quadrata positiva di una somma di termini che sono le varianze o le covarianze
di quelle grandezze, pesate secondo la variazione del risultato della misura al variare di esse.
Lincertezza estesa viene poi valutata a partire dallincertezza combinata.
Il modo in cui viene valutata u
c
(y) dipende dal grado di correlazione fra le grandezze di ingresso.
Nel caso di grandezze scorrelate:


,
_

N
i
i i i
N
i i
c
x u c x u
x
f
y u
1
2 2
1
2
2
) ( ) ( ) (
i termini c
i
sono detti coefficienti di sensibilit
Il grado di correlazione fra x
i
e x
j
espresso dal coefficiente di correlazione r :
) ( ) (
) , (
) , (
j i
j i
j i
x u x u
x x u
x x r

E sempre compreso tra 0 e 1:


- r = 0 grandezze indipendenti
- r = 1 grandezze totalmente correlate
Pertanto lespressione dellincertezza combinata per grandezze correlate pu essere cos scritta:

,
_

N
i
N
i
N
i j
j i j i
j i
i
i
c
x u x u x x r
x
f
x
f
x u
x
f
y u
1
1
1 1
2
2
) ( ) ( ) , ( 2 ) ( ) (
In questo modo se:
- r = 1 -> u
c
(y) lespressione di un quadrato
- r = 0 -> assume lespressione scritta per il caso non correlato
6
NOZIONI DI PROBABILITA
Si chiama esperimento aleatorio un qualunque processo o fenomeno, oggetto di osservazione, che
pu dar luogo a pi risultati, dei quali non si pu dire quale si verificher prima che lesperimento
sia compiuto.
Linsieme S contiene la totalit dei risultati di un esperimento aleatorio.
Levento un sottoinsieme di S contenente i risultati che hanno una data propriet.
Lo spazio degli eventi linsieme di tutti gli eventi, cio linsieme di tutti i sottoinsiemi di S.
Si chiama evento elementare un elemento costituito da un solo risultato.
Levento certo coincide allinsieme S.
Levento impossibile linsieme vuoto .
La somma di 2 eventi A e B (A+B) levento rappresentato dal risultato delloperazione di unione
fra i corrispondenti insiemi.
Il prodotto di 2 eventi A e B (AB) levento rappresentato dal risultato delloperazione di
intersezione fra i corrispondenti insiemi.
Se AB = gli eventi si dicono incompatibili.
La probabilit una funzione di insieme, che ha come insieme di definizione uno spazio di eventi
e che assume valori nellinsieme dei numeri reali.
3 assiomi fondamentali:
- se A un evento , P[A] >= 0
- assioma di normalizzazione: P[S] = 1 (siccome S levento certo)
- assioma di additivit: se A e B sono eventi incompatibili => P[A+B] = P[A] + P[B]
Corollari:
- P[] = 0 (siccome levento impossibile)
- La probabilit un valore compreso tra 0 e 1 compresi
- Se tutti i risultati che compongono un evento B fanno parte anche di un altro evento A => P
[B] <= P[A]
- Se A e B sono 2 eventi non incompatibili => P[A+B] = P[A] + P[B] P[AB]
Si definisce una variabile aleatoria (v.a.) ogni volta che si stabilisce una regola mediante la quale
si fa corrispondere un numero (reale), e solo uno, a ogni risultato di un esperimento aleatorio.
Ad ogni valore di v.a. corrispondono pi risultati, cio un sottoinsieme di S, quindi un evento.
Gli eventi corrispondenti ai valori di una v.a. sono tutti fra loro incompatibili. La somma levento
certo:

1 ) (
i
x P
La distribuzione di probabilit linsieme delle probabilit associate a tutti i valori di una v.a.
Ogni evento di variabile aleatoria indipendente.
7
Probabilit composta (condizionata) : siano A e B 2 eventi e P[A/B] la probabilit che ha un
qualsiasi evento A di manifestarsi se si manifesta un evento B detto condizionante. Quindi
A levento condizionato
B levento condizionante
) (
) (
] / [
B P
AB P
B A P
Propriet:
P[AB] = P[A]-P[B/A] = P[B]P[A/B]
Se P[B/A] = P[B] perch A non influisce su B AB =
Lo scarto tipo di una v.a. la differenza fra la v.a. stessa e il suo v.m. : x
i
(x)
una nuova v.a. e si deduce subito che il suo v.m. nullo.
Il valore medio statistico e aritmetico sono uguali solo se le variabili hanno la stessa probabilit.
) (x
il valore medio del primo ordine (valore atteso) (valore medio statistico)
] [ )] ( [
i i
x P x x P
perch il valore medio nullo
Si chiama varianza di una distribuzione di probabilit il momento del secondo ordine del suo
scarto:
[ ] ] [ ) ( ) (
2 2
i
i
i
x P x x x


Tutti gli addendi sono positivi, quindi la varianza sempre >0 (=0 solo se x
i
fosse una costante).
tanto pi grande quanto pi sono probabili scarti grandi, e pu quindi essere considerata una
misura della dispersione della distribuzione attorno al proprio v.m.
La radice quadrata della varianza (x), presa col segno +, si chiama scarto quadratico medio o
deviazione standard.
Il momento di ordine n la media pesata, con le probabilit come pesi, della potenza n-esima della
v.a. :

n
i
i
n
i n
x P x x M
1
) ( ) (
Il centro di una distribuzione individuato dal momento del primo ordine, detto valore medio
(v.m.):

n
i
i i
x P x x M
1
1
) ( ) (
Nel caso del dado:



6
1
6
1
1
6
1
6
1
) (
i
i
i
i
x x x M
Se la variabile aleatoria pu assumere tutti i valori dellasse reale si parla di variabile aleatoria
continua (X).
necessario parlare di intervalli infinitesimali perch parliamo di variabili aleatorie continue (nel
quale intervallo ci sono infiniti punti -> retta).
Per una v.a. continua la derivata:

d
dF
f
) (
) (
definisce la densit di probabilit o probabilit accumulata.
8
E:

+ < <
+
1
) ( ) (
] [ ) (
) ( ) ( ) ( ) (
1
x
dx x f x F
d x P d f
F d F dF d f


La funzione di distribuzione F() , , la probabilit che la variabile x assuma valori
minori o uguali :
] [ ) ( x P F
Propriet:
-
0 ) ( F
-
1 ) ( F
- F una funzione non decrescente
- ) ( ) ( ] [
2 1 2 1
F F x P < <
In particolare:

+

+

2
1
) ( ] [
) ( )] ( [ ) (
) ( ) (
2 1
2 2
x
x
dx x f x x x P
dx x f x x x
dx x xf x

Distribuzione uniforme: si consideri una v.a. con densit di probabilit costante k in un certo
intervallo a-b e nulla allesterno:
1


+

b
a
kdx kdx
da cui
a b
k

1
Per valor medio e varianza si ha:

b
a
b
a
a b
dx x
a b
b a
xdx
a b
12
) (
) (
1
2
1
2
2 2

Distribuzione normale: la pi importante tra le distribuzioni continue la distribuzione normale o


di Gauss, con densit di probabilit:
9
2
2
1
2
1
) (

,
_


x
e x f
Distensione o meno dei valori rispetto al valore centrale .
Se le singole variabili aleatorie (tutte) hanno media e varianza
2
allora la somma (x
s
) sar una
variabile aleatoria con media uguale a ne varianza n
2
e pi sar elevato n pi si tender ad una
distribuzione normale (considerando i diversi x
s
).
Se invece di fare la somma faccio la media
,
_

n
x
s
allora media =
n

e varianza =
n
2

Qui i valori sono meno dispersi delle singole variabili (saranno pi vicine al valore centrale ).
Teorema centrale del limite: sommando n valori di una v.a. con densit di forma qualsiasi, media
e varianza
2
, si ottiene una v.a. che tende in distribuzione alla normale con media n e varianza
n
2
, per
n
.
Teorema di Laplace: anche la somma di n variabili tra loro indipendenti, aventi distribuzioni
diverse luna dallaltra, tende ad una v.a. con distribuzione normale, purch siano soddisfatte certe
condizioni.
10
NOZIONI DI STATISTICA
La statistica permette di inferire, cio stimare o misurare, le caratteristiche ignote di una
popolazione da quelle osservate da un campione.
La probabilit una scienza esatta: se ho una densit f(x) riesco a trovare tutto. Tutto definito con
funzioni ben precise.
La statistica, invece, non una scienza esatta: si vogliono calcolare dei valori probabilistici partendo
da pochi elementi.
La qualit di misura dipende sostanzialmente dalle modalit del prelievo del campione.
Affinch un campione estratto da una popolazione sia significativo necessario che esso possieda,
per quanto possibile, le caratteristiche della popolazione. Se questa condizione soddisfatta il
campione detto casuale ed ogni suo elemento una v.a. con la stessa distribuzione della
popolazione.
Lo stimatore di un parametro della popolazione la funzione dei valori campionari utilizzata per
misurare un certo parametro della popolazione (ad esempio la media e la dispersione intorno alla
media indicata dalla deviazione standard ).
Uno stimatore si dice:
- corretto (unbiased) quando il suo valore medio coincide con il parametro da stimare;
altrimenti si dice distorto (biased)
- asintoticamente corretto se il suo valore medio tende al valore del parametro al tendere
allinfinito della numerosit del campione
- consistente quando corretto e la sua varianza tende a zero al crescere della numerosit n
del campione
- pi efficiente di un altro quando approssima meglio il parametro a parit di n
- efficiente quando pi efficiente di tutti.
Stima del valore medio:
Lo stimatore pi usato per il valore medio della popolazione la media aritmetica m degli n valori
campionari:

i
i
n
x
m
Ad esso si pu attribuire la varianza:
n
m
2
2


essendo
2
la varianza della popolazione.
Quando si devono mediare variabili con diversa dispersione pu convenire effettuare una media
pesata in modo da attribuire maggior peso ai valori meno dispersi. Ad esempio si pu usare la media
pesata quando si deve stimare il valore medio di altri valori medi ottenuti da campioni di diversa
numerosit:

i
i i
x a m
dove
x
i
sono i valori da mediare
a
i
sono i pesi
Se si conosce solo il valore stimato m della media della popolazione, uno stimatore corretto s
2
della
varianza
2
della popolazione stessa dato da:
) 1 (
) (
2
2


n
m x
s
i
i
Per cui lo stimatore s
2
della varianza della media campionaria risulta:
11
) 1 (
) (
2
2
2



n n
m x
n
s
s
i
i
m
In presenza di errori aleatori utile mediare pi risultati di una misura per ridurre la sua incertezza.
Intervalli di fiducia (incertezza) per la media campionaria
Il risultato della misura di una grandezza costituito dalla coppia di numeri che indicano il valore
stimato e lincertezza, o errore, ad esso associata.
Quando il valore stimato una v.a. lerrore da attribuirgli quellintervallo, detto intervallo di
confidenza, entro cui il valore del misurando pu trovarsi con una assegnato valore di probabilit.
Per calcolare il valore dellintervallo di confidenza occorre conoscere la forma ed i parametri della
distribuzione della v.a.. Se per essa la media campionaria di molti valori, il teorema centrale del
limite garantisce che la sua distribuzione approssimativamente normale quando il numero dei
valori mediati sufficientemente grande.
Si pu scrivere:
m
s k m t essendo k un coefficiente ricavabile dalle tabelle di probabilit
della normale standard.
12
TEORIA DELLAFFIDABILITA
Laffidabilit consiste nel prevedere quando un sistema si pu rompere.
2 parole fondamentali: tempo e rompere (guasto).
Il guasto diverso dellavaria (trattata in seguito) ed la propriet a non adempiere pi alle
funzioni (specifiche nominali) per il quale il sistema stato progettato/realizzato. Il periodo di
regolare funzionamento di un dispositivo si conclude allorch un qualsiasi fenomeno fisico-chimico
prodottosi in una o pi delle sue parti componenti determina variazioni delle prestazioni nominali
che lutente ritiene insopportabili per luso che egli fa del dispositivo. Questa situazione va sotto il
nome di guasto. La definizione generale di guasto : cessazione dellattitudine di un dispositivo ad
adempiere alla funzione richiesta.
Il tempo di guasto listante in cui, da quando il sistema stato messo in funzione, si guasta.
La qualit la capacit di un bene a soddisfare le necessit dellacquirente e risulta dalla
combinazione di 2 propriet:
- conformit: capacit del dispositivo ad essere conforme alle specifiche nominali
- affidabilit: capacit del sistema ad adempiere alle proprie funzioni per un determinato
periodo di tempo prefissato e in prescritte condizioni di lavoro nominali (es. temperatura,
vibrazioni, sollecitazioni in ingresso) indicate dal costruttore. Laffidabilit contiene la
conformit.
Laffidabilit, al contrario della conformit che una disciplina deterministica, una disciplina di
tipo statistico probabilistico, quindi vengono effettuate delle stime per fornire una previsione ->
funzione di densit di probabilit con una variabile aleatoria: f(t) .
Di solito la variabile aleatoria utilizzata il tempo, ma in alternativa pu essere utilizzato il numero
di guasti (uno discreto e laltro continuo).
Se conoscessimo a priori la funzione di densit saremmo in grado di stimare tutte le propriet del
sistema.
f(t) => R(t) la funzione di affidabilit e fornisce istante per istante la probabilit di guasto del
sistema.
f*(t) la misura ottenuta sperimentalmente in laboratorio stimo f(t) con f*(t)
Queste vengono calcolate attraverso la statistica campionaria.
Dato un sistema voglio calcolare f(t) (ma soprattutto R(t) )
N
0 il numero di elementi che formano il campione
Supponiamo che allistante t ci siano n
g
(t) guasti.
Deriva che il numero di elementi sani : n
s
(t) = N
0
n
g
(t)
13
La grandezza statistica fondamentale che rappresenta la distribuzione temporale dei guasti la
densit di frequenza dei guasti f*(t) ed definita come:
Nel secondo caso il rapporto incrementale normalizzato al numero di elementi che formano il
campione (N
0
). Rappresenta la variazione locale dei guasti.
La corrispondente funzione teorica, o di previsione, sar la funzione di densit di probabilit dei
guasti, ricavata dalla precedente facendo tendere 0 t :

,
_

0
0
1 ) (
) ( * lim ) (
N dt
t dn
t f t f
g
t
F*(t) rappresenta la stima della funzione di distribuzione (o cumulativa -> integrale -> somma di
tutti i guasti) dei guasti.
0
) (
) ( *
N
t n
t F
g

La corrispondente funzione di previsione :

t
d f t F
0
) ( ) (
Viene detta anche funzione di inaffidabilit perch a parit di tempo, pi la funzione alta, pi sono
i guasti e meno affidabile.
una funzione non decrescente e tendente a 1.

1)
1 ) ( * + F

) ( ) ( 1 t R t F


t
t t P d f t F
0
) ' ( ) ( ) ' ( *
Studio la probabilit che si rompa prima di t -> inaffidabilit
) ' ( ) ( * 1 ) ( t t P t F t R
Studio la probabilit che si guasti dopo t -> affidabilit

0 0
0
0
) ( ) ( ) (
1 ) ( * 1 ) ( *
N
t n
N
t n N
N
t n
t F t R
s g g


Studio gli elementi sani -> affidabilit

14
0 0
1 ) ( ) ( ) ( ) (
) ( *
N t
t n t t n
t N
t n t t n
t f
g g g g


Laffidabilit di un componente dipende dal tempo:
R*(t) complementare a F*(t), decresce col tempo.
NB: importante sapere da quale istante si inizia la misura.
2)
) (
1 ) ( ) (
) (
) ( ) (
) (
) ( ) (
) ' ( *
t n t
t t n t n
t t n
t t n t n
t t n
t n t t n
t z
s
s s
s
s s
s
s s

z*(t) viene detta funzione dazzardo. Studia localmente la variazione degli elementi sani ed un
rapporto incrementale normalizzato al numero di elementi sani allistante iniziale dellintervallino
(t) .
Se mi sposto posso avere un azzardo diverso e spostandomi in avanti lazzardo potrebbe migliorare.
Come determinare la relazione tra ) ( ) ( * t R t z
Consideriamo z(t) funzione di previsione:
t
t t t t t t P
t t t z

) ' / ' ' (


) ' , ' (
+
+

Controllo la probabilit che si guasti da t a t+t, considerando il fatto che non si guastato fino a
t -> applicazione del teorema di Bayes:
) (
) (
) / (
B P
AB P
B A P
dove
) ' ( ) ' ( ) ( t t P t R B P

+
+ + +
t t
t
t t R t R t F t t F d f t t t t P


'
'
) ' ( ) ' ( ) ' ( ) ' ( ) ( ) ' ' (
Si ottiene che
) ' (
1 ) ' ( ) ' (
) ' (
) ' ( ) ' (
) ' (
) ' ' (
) ' , ' (
t R t
t t R t R
t t R
t t R t R
t t P t
t t t t P
t t t z
+


+
+

,
_

'
) (
) ' (
1 ) ' ( ) ' (
lim
) ' (
1
) ' (
0
t t
dt
t dR
t R t
t t R t R
t R
t z
t

Una delle relazioni pi importanti tra funzione di azzardo e funzione di affidabilit :


dt
t dR
t R
t z
) (
) (
1
) (
Dalla quale si ricava:


t
dt t z
t R
t dR
0
) (
) (
) (
15


t
dt t z t R
0
) ( ) ( ln

dt t z t R
e e
) ( ) ( ln
Questa espressione costituisce la legge fondamentale e generale che consente di calcolare la
funzione di affidabilit partendo dalla conoscenza, o quanto meno da unipotesi, della funzione di
azzardo che normalmente il parametro fornito dalle case costruttrici perch molto semplice
calcolarlo. Si parla di parametro perch solitamente costante.
Lazzardo rappresenta la dinamica/andamento (trend) della percentuale di guasti a partire da un
istante (mentre R(t) parte da t = 0) e per un certo tempo.
Sappiamo che:
dt
t dR
dt
t dF
t f
) ( ) (
) (
) (
1 ) (
) (
t R dt
t dR
t z
) ( ) (
) (
t R t z
dt
t dR
) ( ) ( ) ( t R t z t f
Quindi, come detto in precedenza, se si conoscesse f(t) a priori si saprebbe molto sullaffidabilit
del componente.
Attraverso z(t) posso calcolare tutto.
La funzione di inaffidabilit F(t) (funzione di distribuzione) e la funzione di affidabilit R(t) ad essa
legata sono dei numeri puri; nella versione revisionale sono infatti delle probabilit ed il loro valore
varia tra 0 e 1. Laffidabilit una probabilit.
) ' ( ) ' ( t t P t R
Invece lazzardo non una probabilit e la sua unit di misura il fit , failure (guasto) unit, che
rappresenta 10
-9
, siccome il numero di componenti guasti su 1 milione di componenti totali
(N
0
= 10
6
) in 1000 ore ( t = 10
3
).
Quindi lazzardo il numero di componenti che si guastano su 10
6
componenti totali in 1000 ore di
osservazione.
Il MIL uno standard (banca dati) che riporta tutti gli standard per il calcolo dellaffidabilit ed
nato in ambito militare, al ministero della difesa statunitense.
z(t) un termine che per la maggior parte della vita di un componente elettronico costante (questo
non vero in ambito informatico/software) quindi viene ritenuto costante perch non dipendente
dal tempo in un certo intervallo. Questa una semplificazione derivante dalla realt dopo aver
effettuato moltissime prove.

t
dt t z
e t R
0
) (
) (
) ( ) ( ) ( t R t z t f
16
Curva a vasca da bagno:
Questa curva presenta i 3 periodi tipici, durante il quale lazzardo risulta, nellordine, decrescente,
costante e crescente:
(1) avvio: le prove hanno dimostrato che nel primo periodo di vita lazzardo si decrescente,
ma inizialmente molto alto, quindi, prima di commercializzare un prodotto necessario che
superi questa fase (rodaggio, warm up) chiamata periodo dei guasti prematuri : si tratta
soprattutto di difetti di fabbricazione, ma anche (raramente) di difetti progettuali. La durata
di questo periodo pu variare da poche decine ad alcune centinaia di ore.
(2) se un componente supera la fase (1) giunge ad una fase costante chiamata periodo dei
guasti casuali (le cause di questi guasti sono molteplici e non si possono eliminare). Viene
anche chiamato vita utile del componente. Per i dispositivi di buona qualit il periodo dei
guasti casuali (detto anche a tasso di guasto costante) quello che presenta la maggiore
durata, potendo raggiungere anche valori di alcune decine di migliaia di ore.
(3) arrivato ad un certo punto il componente inizia a degradarsi giungendo alla fase chiamata
periodo dei guasti da usura. La causa di questi guasti sempre la conseguenza di uno o pi
fenomeni di degradazione fisico-chimica.
Nel periodo dei guasti casuali, il valore costante, , della funzione di azzardo coincide, con buona
approssimazione, con la grandezza utilizzata praticamente per indicare il numero relativo di guasti,
cio il tasso di guasto * (failure rate). Viene definito come il rapporto, per uno specificato
periodo di vita dei dispositivi, tra il numero totale di guasti in un campione ed il tempo cumulativo
osservato per questo campione:
T
t n
g
) (
*

dove T il tempo cumulativo, cio la somma dei tempi di funzionamento dei componenti osservati.
Assumendo sempre N
0
come il numero degli elementi del campione che sottoponiamo a test, T sar
definita come:

)] ( [ 0
) (
1
g
n
i
i n N t T
g
+

(*)
dove
t
i listante in cui il componente i-esimo si guasta
N
0
- n
g
( ) il numero di componenti sani alla fine del periodo di osservazione.
Hp: tutti i componenti che si guastano, lo fanno a tempo t = .
(*) T N n N n g g + 0 0

0
) (
*
N
ng

17
Siccome la misura viene effettuata a t = 0 e t + t = 0 + =

0 0
0 0 ) ( ) (
) 0 (
) ( ) 0 (
) (
N
n
N
n N N
n
n n
z
g g
s
s s
si misura in fit come lazzardo
z
Confrontiamo le 3 funzioni di affidabilit calcolate nei 3 periodi supponendo che la funzione di
azzardo possa essere rappresentata in questo modo:
Ricordando che

t
dt t z
e t R
0
) (
) (
si ottiene:
(2)
t
e t R z


) ( 2
quindi laffidabilit un termine esponenziale decrescente. Pi alto pi laffidabilit scende
rapidamente.
(1) t K K t z 1 0 ) ( per
1
0
0
K
K
t
importante che non vada sotto lo 0 perch z una funzione positiva
2
1
1
2
0
) (
t K
t K
e t R
+

(3)
2
2
3
) ( ) (
t
K
e t R Kt t z


Sovrapponiamo ora le 3 funzioni (R
1
,R
2
,R
3
) considerando le 3 zone completamente distinte tra di
loro (supponiamo che linizio di ogni zona coincida con t = 0).
A partire da t = 0 ci spostiamo di

1
t in tutte e 3 le zone.
18
Hp:
e
t R
1
) ( con

1
t
(3)
2
2
2 2
1

K Kt
e e
e



2
2 K

2 2
) ( 3
t
e t R



(1)
0 1 1 0 1 0
0
1 0
0 0
1
0 K K K K K K t K K
vaa

,
_

2
1 0
2
1

K K
e
e

2
0
k

2
1
2 k

) 2 (
2 2
) ( 1
t t
e t R


(2)
t
e t R

) (


Nel periodo dei guasti prematuri laffidabilit decresce pi rapidamente che negli altri casi. Nel
periodo dei guasti per usura laffidabilit dapprima diminuisce pi lentamente fino allistante

1
t
, dopo di che diminuisce pi rapidamente rispetto al caso di tasso di guasto costante.
R
3
almeno nella parte iniziale della zona 3 ha laffidabilit pi alta anche se per un tempo molto
limitato perch poi la curva scende molto velocemente (t
2
).
19
Molte volte, se loggetto deve essere usato per un periodo limitato di tempo, viene prima portato in
questa fase di alta affidabilit per poi essere utilizzato.
R1 la curva pi bassa, quindi un componente deve assolutamente essere commercializzato dopo
aver superato questa fase.

I componenti elettronici hanno una vita utile nellordine delle decine di migliaia o milioni di ore,
mentre per i componenti meccanici molto pi breve (nellordine delle centinaia o migliaia di ore).
Un progettista solitamente non guarda la curva di affidabilit di ogni componente per effettuare una
scelta, ma ha bisogno di parametri fondamentali, questi sono:
MTTF (Mean Time To Failure) il tempo medio fino al guasto: il rapporto, riferito ad un periodo
di vita specificato nella vita di un dispositivo, fra il tempo cumulativo rilevato per il campione
considerato e il numero totale dei guasti in esso manifestatisi durante il periodo specificato, in
condizioni di lavoro prefissate.
r
T
MTTF
dove
r il numero dei guasti
T il tempo cumulativo, cio la somma di tutti i tempi durante i quali ogni elemento del campione
ha fornito la funzione richiesta

+
r
i
p i
t r N t T
1
0
) (
t
i
sono i singoli tempi in corrispondenza dei quali si sono verificati i guasti
t
p
il tempo di prova (tempo specificato nella vita del componente, listante in cui si guasta)
Si applica generalmente a sistemi/componenti non riparabili e quindi utilizzato per rappresentare il
comportamento affidabilistico di lotti di dispositivi non scomponibili (componenti elementari).
Possiamo anche vederlo come un valore atteso del tempo di guasto del componente che sto
sottoponendo a test (in termini probabilistici la speranza matematica dei tempi di guasto di una
popolazione).


0
) ( } { dt t tf t E MTTF
Supponiamo di trovarci nel periodo di azzardo costante e quindi

d z
e t R
) (
) ( ,
t
e t R

) (
si ottiene:
t
e t R t z t f

) ( ) ( ) (
20
[ ]

+
0 0
0
0
0
dt e dt e te dt e t MTTF
t t t t



il primo termine si annulla perch lesponenziale tende a 0 pi rapidamente di qualsiasi altra
funzione.
Moltiplico e divido per e ottengo:
[ ] [ ]


1
1
1 1 1
0 0 0



t t t
e dt e dt e

1
m MTTF

Il tempo medio al guasto inversamente proporzionale al tasso di guasto.
Quando invece
) (t z
:

0
) ( dt t tf m

0
) (
dt
dt
t dR
t

,
_


dt
t dR
dt
t dF
t f
) ( ) (
) (
[ ]

0 0 0
0
) ( ) ( ) ( ) (
0
) (
dt t R dt t R t tR t tdR
dt t z
e
t

se non si possono fare ipotesi a priori sullazzardo.
MTBF (Mean Time Between Failure) il tempo medio fra guasti: il valore medio degli intervalli di
tempo tra guasti consecutivi, relativo ad uno specificato periodo di vita di un dispositivo, calcolato
come rapporto tra il tempo cumulativo osservato ed il numero di guasti rilevati nelle condizioni
precisate.
Questo parametro (molto simile al MTTF) si pu applicare solo a dispositivi riparabili e,
specificatamente, ad apparati e sistemi.
Supponiamo che la cosa si ripeti r volte:

r
i
fi
t
r
MTBF
1
1
t
fi
il tempo di funzionamento regolare del generico componente
t
r
sono i tempi di guasto
,
nei quali vanno compresi quelli occorrenti per la riparazione del dispositivo
Limitatamente al periodo dei guasti casuali, i 2 parametri MTTF e MTBF e linverso del valore
costante dellazzardo,

1
vengono spesso usati indifferentemente luno con laltro.
MTTR (Mean Time To Repair) il tempo medio di riparazione:

r
i
ri
t
r
MTTR
1
1
E il concetto chiave che caratterizza la casa produttrice e riguarda la manutenibilit del prodotto,
cio il prodotto deve essere progettato e costruito in maniera da facilitare le operazioni di
21
manutenzione (tutte quelle operazione che concorrono al ripristino delle funzionalit del
dispositivo).
naturalmente conveniente che lMTTR risulti molto minore dellMTBF.
A(t) (Availability) la disponibilit: probabilit che un dispositivo sia funzionante al tempo t, in
determinate condizioni di impiego.
Questa funzione parte da un valore unitario per tendere, per tempi molto grandi, ad un valore
minimo costante fornito dal rapporto:
MTTR MTBF
MTBF
A
+
) (
AFFIDABILITA DI MISSIONE
uno dei rami pi complessi dellaffidabilit perch bisogna fornire indicazioni molto precise per il
futuro con i dati del presente. Per alcuni dispositivi impiegati in particolari applicazioni,
importante determinare la probabilit che il loro funzionamento risulti regolare durante un
prestabilito intervallo della loro vita.
Voglio sapere se, tra un tot di tempo, tra lora x e lora y il mio sistema funziona.
Consideriamo una funzione di densit di probabilit di guasto simmetrica, quale quella normale
rispetto la vita media , e calcoliamo la probabilit di guasto a priori G:

2
1
) (
12
t
t
dt t f G
G
12
la probabilit che il componente si guasti dentro lintervallo [t
1
,t
2
]

e che sia sano in t
1
.
) ( ) / ( ) (
12
B P B A P AB P G
dove
) ( ) (
1
t R B P cio la probabilit che sia sano in t
1
) ( ) ( ) / (
1 2 12
t F t F F B A P
R
m
laffidabilit di missione ed data da:
) (
) (
) (
)) ( ) ( ( 1
) (
) ( ) ( 1
) (
1
1
2
1
2 1
1
1 2
1
12
t R
t R
t R
t R t R
t R
t F t F
t R
F
R
m

(*)
Supponiamo di considerare un nuovo intervallo della stesso dimensione del primo in modo che:
t
2
-t
1
=t
t
4
-t
3
=t
(*)
t
t
t t
e
e
e

+

1
1
) (
Da questo si deduce che non importa dove mi colloco, ma la durata della missione (t).
22
AFFIDABILITA DEI SISTEMI
Bisogna scomporre il sistema che si ha sotto studio in tanti blocchi funzionali (RBD Reliability
Block Diagram) considerati come device. Il massimo livello di scomposizione pu essere dato dal
fatto che mi fermo quando conosco i parametri affidabilistici.
Lo studio di fattibilit nasce in fase di progettazione perch devo avere informazioni su come il
sistema fatto.
importante osservare linterazione dei blocchi.
I parametri che devo conoscere per ciascun blocco sono:
, m e raramente R(t)
AFFIDABILITA COMBINATORIA
Si parla di affidabilit combinatoria perch riferita allinterazione tra i blocchi funzionali (parti del
sistema), quindi dal punto di vista operativo e non della disposizione fisica. Quindi si opera una
scomposizione del sistema nelle sue parti componenti e si determina la modalit con il quale le
singole parti sono connesse. Si deve analizzare linfluenza che il guasto di ciascun componente ha
sulla funzionalit del sistema

Vi sono 2 condizioni limite:
SERIE: si dice che i componenti sono operativamente in serie se alla rottura di uno corrisponde il
non funzionamento del sistema (viene detta anche struttura a catena).
Si indica con:
x
i
il generico componente che funziona
i
x
il generico componente guasto
Un punto rappresenta il collegamento funzionale tra blocchi
(simbologia CEI 56-60)
Laffidabilit di questa configurazione coincide con la probabilit composta del successo di tutti gli
n componenti:
) ... ( ) (
3 2 1 n
x x x x P t R
per il Teorema di Bayes:
)... / ( ) / ( ) (
1 2 3 1 2 1
x x x P x x P x P
Assumendo lipotesi che siano tutti eventi indipendenti si ottiene:



n
i
i
n
i
i
t R x P x P x P
1 1
2 1
) ( ) ( )... ( ) (
23

n
i
i
t R t R
1
) ( ) (
dove
) ( ) (
i i
x P t R
Essendo laffidabilit una quantit sempre minore di 1, se ne deduce che laffidabilit del sistema
totale risulta inferiore al pi piccolo valore tra gli R
i
(t) e che diminuisce allaumentare di n. Quando
si fa uno studio di affidabilit vale la regola: quando il componente non c non si rompe, cio meno
componenti ci sono, meno guasti sono probabili, quindi il sistema pi affidabile.

n
i
t
t
i i
n
i
i
i
e e t R
t z
1
1
) (
) (

siccome lesponenziale negativo si conferma la regola sopraccitata


Consideriamo il caso peggiore
i
i

dove il pi alto di tutti i
i

si ha che:
t n
e t R

) ( (formula semplificata operativa)
PARALLELO: il sistema funziona se almeno uno dei componenti in parallelo funziona. Viene
introdotto il concetto di ridondanza:
) ... ( 1 ) ... (
3 2 1 3 2 1 n n
x x x x P x x x x P + + + +
Gli eventi x
i
non sono tra loro incompatibili e quindi la probabilit totale di successo non pu ridursi
alla somma delle probabilit di successo degli n componenti.
Facciamo lipotesi di avere eventi indipendenti:


n
i
i
x P
1
) ( 1


n
i
t F
i
i
x F
1
) (
) ( 1

Siccome
) ( 1 ) ( t R t F


n
i
i
t R
1
)] ( 1 [ 1
In questa configurazione laffidabilit del sistema, pur rimanendo sempre inferiore a 1, aumenta al
crescere di n.
Supponiamo di trovarci nel periodo dei guasti casuali, quindi
t
i
i
e t R

) ( segue che:


n
i
t
i
e t R
1
) 1 ( 1 ) (

se aumentiamo il numero di componenti, tende sempre pi a 1.
Supponiamo che
i

per i=1,2 e otteniamo :
2
) 2 (
) 1 ( 1 ) (
t
n
e t R


CONFIGURAZIONE R SU N (REGOLA DELLA FUNE)
Il sistema operativo se almeno r dei suoi n componenti funzionano regolarmente (tipico
lesempio della fune).
Laffidabilit di questa configurazione viene calcolata ricorrendo alla distribuzione binomiale (la
probabilit che r di questi n fili allistante t siano sani):
r n r
p p
r
n
n r P

,
_

) 1 ( ) , (
dove
)! ( !
!
r n r
n
r
n

,
_

r sono gli eventi favorevoli


24
p rappresenta la probabilit di successo.
) ( )] ( 1 [ ) ( ) , (
,
t R t R t R
r
n
r n P
n r
r n
filo
generico
ta affidabili
r

,
_



Laffidabilit totale risulta:

,
_

n
r j
j n j
p p
j
n
t R ) 1 ( ) (
Supponiamo di trovarci nel periodo dei guasti casuali, quindi
t
e t R P

) ( allora :

,
_

n
r j
j n t t j
e e
j
n
) 1 (

In questo modo se:
- r = 1 si avr la configurazione in parallelo
- r = n degenera nella configurazione in serie
Ora valutiamo lMTTF (il pi importante parametro di un sistema) alla luce delle configurazioni
illustrate in precedenza. Sappiamo che la sua formula :

0
) ( dt t R MTTF
Nella serie:




n
i
i
t
dt e MTTF
n
i
i
1
0
1
1


Da questultima si deduce che tanto pi aumentano i componenti tanto pi si accorcia il tempo
medio al guasto.
Per le configurazioni complesse esistono diversi metodi per poterle studiare:
Metodo delle ispezioni
Di qualunque complessit sia il sistema bisogna cercare di ridurlo a una serie.
Considerando R
i
laffidabilit delli-esimo componente, il calcolo dellaffidabilit totale R
t
parte
dalla determinazione dellaffidabilit dei 2 rami in parallelo:
7 6 67
5 4 45
R R R
R R R


Laffidabilit del parallelo (R
p
) sar:
8 3 2 1
67 45
) (
) 1 )( 1 ( 1
R R R R R t R
R R R
p tot
p


25
Metodo degli eventi
Se un sistema non pu essere ridotto alla combinazione di configurazioni elementari, dal
corrispondente grafo di flusso si pu redigere un elenco di tutti gli eventi possibili distinguendo
favorevoli e sfavorevoli.
Conoscendo laffidabilit di ogni componente, calcoliamo la probabilit associata a tutti gli eventi
favorevoli (che coincide con laffidabilit totale):
d c b a E
d c b a E
d c b a E
d c b a E
d c b a E
d c b a E
d c b a E
d c b a E
d c b a E
d c b a E
d c b a E











12
11
10
9
7
6
5
4
3
2
1
Tutti questi eventi sono indipendenti per natura e questo facilita il calcolo dellaffidabilit.
) (
12 11 10 9 7 6 5 4 3 2 1
E E E E E E E E E E E P R
tot
+ + + + + + + + + +
Posto che
r R
i

si ha:
3 2 2 3 4
) 1 ( ) 1 ( 5 ) 1 ( 4 ) ( r r r r r r r t R
tot
+ + +
Metodo delle unioni minime o dei tagli minimi
Sapendo che ogni ramo rappresenta un componente e riporta una freccia che indica il senso di
percorrenza dellinformazione, affinch un sistema risulti operativo occorre che un certo numero di
rami risultino attivi. Tra tutte le configurazioni favorevoli, ne esisteranno alcune che assicurano
questo collegamento con il minimo numero di rami. Laffidabilit del sistema risulta quindi la
somma di tutte le probabilit di queste unioni minime:
) ... (
2 1 k tot
U U U P R + + +
) , ( ) , (
4 3 2 1
c c P c c P R
tot
+
26
Si pu risalire allaffidabilit del sistema anche individuando le configurazioni per le quali,
tagliando il numero minimo di rami, si interrompe il flusso tra ingresso e uscita del sistema che
quindi risulta guasto. Questo metodo (dei tagli minimi) fornisce la funzione di inaffidabilit totale
mediante la somma delle probabilit di queste configurazioni.
27
PROVE SUI COMPONENTI
Per stimare laffidabilit dei componenti elementari possibile attuare un metodo di prova statistico
che consiste nel sottoporre un campione a prove di laboratorio simulanti alcuni situazioni tipiche
dimpiego. In queste prove si misurano i dati caratteristici dellaffidabilit (distribuzione di
frequenza dei guasti, MTTF, vita media,).
PROVE DI VITA
La prova di vita la procedura pi usata e la pi affidabile; si svolge in laboratorio con sistemi di
sollecitazione (forme di ingresso che possono essere anche non nominali). Il metodo migliore fare
prove di vita di lunga durata (cio attendere fino al guasto) , ma non sempre possibile perch
buoni componenti possono durare anche pi di 70 mila ore; inoltre, quando il campione numeroso,
potrei avere problemi ad alimentarlo e devo decidere anche quale sollecitazione applicare. Per
ovviare a tutti questi problemi vengono utilizzate:
Prove di vita troncate: decido io per quanto tempo. Es. faccio la prova su un tot di componenti
oppure mi fermo quando raggiungo un certo numero di guasti. Il componente viene sollecitato con
sollecitazioni nominali.
Prove di vita accelerate: vengono applicate al componente sollecitazioni superiori a quelle
nominali. Si osservato che la vita media di un componente decresce allaumentare del livello di
sollecitazione.
Il rapporto tra il valore di ciascuna sollecitazione applicata in queste prove e il corrispondente valore
usato in esercizio viene detto fattore di accelerazione.
Queste prove danno solo indicazioni a livello globale es. MTTF(difficile estrapolare dei valori di
affidabilit). Sono per molto utili per effettuare dei confronti.
I passi da seguire per le prove accelerate sono:
- assestamento preliminare
- controlli e misure iniziali (temperatura, umidit, tensione iniziale)
- trattamento
- riassestamento
- controlli e misure finali
Prove secondarie:
- prove combinate: il componente sottoposto a 2 o pi sollecitazioni
- prove composite: il componente sottoposto a sollecitazioni applicate in successione
- sequenza di prove
LIFC ha stabilito le sollecitazioni da considerare quando si effettuano prove di vita:
Prove a gradino: voglio applicare una sollecitazione variabile e poi vedere nel tempo i vari livelli
di sollecitazione (non si pu fare per ogni livello).
Consiste nel sottoporre un campione di piccole dimensioni ad una sollecitazione crescente per
incrementi costanti e rilevando per ciascun intervallo la corrispondente frazione di guasti, quindi
viene applicato un livello di sollecitazione e, passato un certo tempo prestabilito, viene aumento il
livello della sollecitazione e via di seguito.
Il campione deve essere piccolo (20/40 elementi): si preferisce fare pi prove con meno componenti
piuttosto che una sola prova con tanti componenti.
28
I risultati sono acquisiti in maniera rapida ed economica per la brevit del tempo di applicazione di
ciascun gradino e il campione ristretto.
Si suppone che tutte le prove siano indipendenti tra di loro anche se i componenti utilizzati nelle
diverse prove sono gli stessi quindi bisogna tener conto della storia passata degli elementi.
Relazione tra tipo di guasto e sollecitazione:
BANCHE DATI
importante raccogliere le informazioni di affidabilit sui componenti prodotti; sono pertanto sorte
delle organizzazioni con il compito di istituire vere e proprie banche di dati affidabilistici. Le pi
importanti sono:
- RADC: Rome Air Developement Center per conto del Ministero della Difesa degli USA
- CNET: Francia, settore delle telecomunicazioni
- SRS: Inghilterra, settore nucleare e altri settori industriali
- Exact: Peasi Scandinavi, componenti elettronici
I principali criteri con cui vengono classificati i dati sperimentali sono:
1. famiglia di appartenenza del componente
2. caratteristiche costruttive nellambito di ciascuna famiglia
3. ambiente in cui il componente opera
4. esigenze particolari di affidabilit
MODELLI DEI FENOMENI DI DEGRADAZIONE
Le prove di vita accelerate risultano utili quando sia possibile estrapolare dai dati acquisiti,
informazioni sul comportamento del sistema quando ad esso sono applicati valori nominali delle
sollecitazioni. Risulta quindi fondamentale il criterio di estrapolazione. Il criterio pi rigoroso
quello che utilizza il modello chimico fisico che provoca la degradazione del dispositivo, posso
conoscere come reagisce il dispositivo ( particolarmente adatto per componenti di struttura
semplice). Il guasto per usura dato, infatti, dalla degradazione molecolare.
Conoscendo la funzione di invecchiamento posso arrivare a studiare meglio i componenti.
La velocit di reazione la variazione nel tempo di un reagente o di un prodotto di reazione. Pi
rapidamente avvengono le reazioni nel componente, tanto pi rapido il consumo dello stesso,
tanto prima possibile che il componente si guasti.

dt
Z d
dt
Y d
dt
X d
v Z Y X
inuisce
che
ione concentraz
r
] [ ] [ ] [
dim
+
dove X e Y sono i reagenti e Z il prodotto
29
La v
r
si esprime come prodotto di 2 funzioni:
) ( ) (
2 1
c f T f v
r

dove
T la temperatura assoluta
c la concentrazione di un certo reagente
La reazione :
- del primo ordine se dipende in maniera lineare da c
- del secondo ordine se dipende in maniera quadratica da c
La pi importante la f
1
(T), come afferma Arrhenius (1889): v
r
dipende da T in modo esponenziale.

,
_


kT
B
e A f
1
dove
A il fattore di frequenza
B lenergia di attivazione E
a
, cio lenergia potenziale che deve essere acquisita dai reagenti
affinch abbia luogo la reazione
k la costante di Boltzmann
La velocit di reazione secondo Arrhenius (ipotizzando una reazione del primo ordine) :

,
_


kT
B
r
e A c v
Le razioni chimiche che avvengono in un componente conducono ad una variazione delle
concentrazioni dei reagenti tali che, ad un certo punto, il componente smette di funzionare.
Conoscendo la velocit con cui tali reazioni avvengono e conoscendo i loro valori limite per il
funzionamento del componente, si pu stimare il tempo di guasto: t
g
Supponiamo una reazione del primo ordine per semplicit, in cui la qualit del componente dipenda
dalla concentrazione c di un reagente:
c T f
dt
dc
v
r
) (
1
Separando le variabili ed integrando si ottiene:
t T f
c
c
) ( ln
1
0
dove c
0 la concentrazione iniziale
) ( ) (
) (
0
1
t Q e c t c
t f


dove con Q(t) si indica la qualit del componente.
Con D(t) invece indichiamo la degradazione:
[ ]
) (
0
1
1 ) (
t f
e c t D


Conoscendo il valore limite della concentrazione c
m ,
sotto il quale il componente si pu ritenere
guasto e dunque conoscendo il valore massimo ammissibile D
M
, si ha:
[ ]
) (
0
1
1
g
t f
M
e c D


quindi:
) (
1 ln
1
1 0 1
T f
D
c
D
t f
t
L M
g

,
_


30
Utilizzando lespressione di Arrhenius e ipotizzando che le reazioni dipendano soprattutto dalla
temperatura si ha:
A
e D
t e A T f
kT
B
L
g
kT
B

,
_

,
_

) (
1
31
PROVE SU SISTEMI
Le prove di vita su base statistica difficilmente possono essere applicate alla determinazione
sperimentale dellaffidabilit sui sistemi. Essendo molto importante acquisire informazioni
affidabilistiche di un prodotto prima che sia messo in produzione, vengono spesso effettuate prove
preliminari su prototipi o lotti di produzione.
Vi sono 2 tipi di prove (prove di tipo cio regolamentate, stabilite):
Prove di conformit dellaffidabilit
Servono a verificare se il valore di una determinata caratteristica di affidabilit soddisfi certe
condizioni (prove per laccettazione o il rifiuto dellapparecchiatura da parte dellacquirente).
Il piano di prova deve contenere:
- il parametro prescelto e il valore accettabile
- tutte le condizioni operative
- i controlli e le regolazioni iniziali
- il ciclo di prova
- la rilevanza di ogni tipo di guasto
- il tempo di prova minimo e massimo
Viene assunto inizialmente che il tasso di guasto sia costante (si usano piani di prova troncati).
Prove di determinazione dellaffidabilit
Servono a misurare il valore di una caratteristica di affidabilit di unapparecchiatura.
Le prescrizioni della prova devono indicare le condizioni operative, i parametri funzionali, le
definizioni dei vari livelli di guasto. Ovviamente non viene indicato il piano di prova e il tipo di
distribuzione dei guasti. consentita la sostituzione e la riparazione degli elementi guasti.
Le prove di determinazione dellaffidabilit vengono terminate:
- nellistante in cui viene raggiunto un certo tempo prestabilito di prova
- quando si verifica un certo numero di guasti
Quando il tasso di guasto risulta costante, i vari elementi del campione possono essere sottoposti
alle prove anche in tempi diversi e per durate diverse.
CONDIZIONI DI PROVA
Le condizioni di prova devono prendere in considerazione tutte le sollecitazioni che possono
causare un guasto rilevante al sistema.
Salvo casi particolari, le prove sui sistemi sono di lunga durata (ove possibile si attua una forma di
accelerazione).
Le grandezze che hanno una qualche influenza sul funzionamento del sistema sono raggruppate in:
- alimentazione elettrica
- segnali o dati di ingresso
- condizioni di carico
- operazioni manuali
- funzioni ausiliarie
- sollecitazioni climatiche
- sollecitazioni meccaniche
- sollecitazioni fisico chimiche
CICLI DI PROVA
32
Durante lesercizio un sistema si trova a lavorare in condizioni di funzionamento differenti nei
diversi periodi della sua vita, inoltre si alterneranno periodi di funzionamento con periodi di
inattivit.
Per fare delle prove sul sistema in esame in laboratorio quindi bisogner simulare tutte le possibili
situazioni che si possono avere durante lesercizio del sistema. Un primo criterio da seguire quello
di suddividere la vita utile del sistema in attivit distinte: ognuna di queste rappresenter un periodo
distinto di funzionamento del sistema. Poi bisogna individuare le sollecitazioni associabili a
ciascuna attivit del sistema e valutare il livello di severit applicabile sulla base delle rispettive
frequenze di occorrenza.
Una fase importante della programmazione consiste nella verifica dellesistenza di combinazioni tra
sollecitazioni diverse. Si possono verificare i seguenti casi:
- sollecitazioni mutuamente dipendenti: si manifestano sempre contemporaneamente e mai
separatamente, quindi possono essere trattate come unica entit
- sollecitazioni mutuamente escludenti: possono verificarsi soltanto in periodi diversi e quindi
non compaiono mai contemporaneamente
- sollecitazioni dipendenti: si applicano solo se sussiste una sollecitazione primaria
- sollecitazioni indipendenti: si manifestano contemporaneamente solo per caso
ANALISI DEI GUASTI
Per individuare linsorgere di un guasto nel sistema sottoposto a prove, il piano di prova deve
descrivere chiaramente tutti i fattori legati a questa decisione.
Quindi vanno definiti tutti i parametri caratterizzanti le funzionalit del sistema ed i limiti, per
ciascuno di essi, al di fuori dei quali questa funzionalit viene ritenuta insoddisfacente ed il sistema
viene ritenuto guasto.
Un altro fattore importante la frequenza con la quale vengono effettuate le misure (se non
possibile effettuare unosservazione continua). importante determinare lintervallo di prova:
lesperienza consiglia una durata pari al 20% del valore medio dei tempi di buon funzionamento
delle apparecchiature in prova.
Un certo numero di guasti pu essere giudicato non rilevante (es. quelli derivati da errori durante la
prova), altri invece comportano il rifiuto immediato del sistema (come quelli che costituiscono
pericolo per lutente).
Se si verificano guasti ricorrenti significa che siamo in presenza di una deficienza progettuale
oppure stiamo utilizzando dispositivi non idonei allo scopo.
33
TEST STATISTICI PER LA VERIFICA DELLE IPOTESI
In molte applicazioni non si hanno conoscenze sulla distribuzione di probabilit delle v.a., in altre
sono incogniti i loro parametri, allora si fanno delle ipotesi:
- Hp semplice: verificare che
0
e
2
0
2

- Hp composta: verificare che
0
e
2
0
2
<
Per la verifica delle iposi si ricorre a test statistici che possono essere:
- parametrici: nota la distribuzione di probabilit ma non i suoi parametri, quindi lipotesi
formulata sui parametri. Si dividono in:
test bilaterali o a 2 code: se si confrontano unipotesi semplice con una composta
test unilaterali o ad una coda: se si confrontano 2 ipotesi composte
- non parametrici: non si richiede a priori il tipo di distribuzione da testare
Un test mette sempre a confronto 2 ipotesi:
- H
0
ipotesi nulla (prima, si vuole che sia vera)
- H
1
ipotesi alternativa (seconda)
C il rischio di sbagliare, si possono commettere i seguenti tipi di errore:
- errore di prima specie: H
0
vera ma viene rifiutata e quindi si accetta H
1
- errore di seconda specie: quando H
1
verificata ma si accetta H
0
Si deve stabilire una regola di decisione che permetta appunto di prendere decisioni sullaccettare o
meno H
0
.
Si introduce una v.a. T (campionaria) che sotto la condizione di H
0
vera, assume una distruzione di
probabilit nota e tabulata e che non dipenda dal tipo di distribuzione di probabilit e dei parametri
incogniti della v.a..
Successivamente si suddivide lintervallo di variabilit (comunemente infinito) in 2 regioni:
- C

regione critica, con piccola probabilit che i valori di T vi appartengano
-

C regione complementare alla prima, con probabilit 1 di appartenenza di T
La regola del test : rifiutare H
0
se i valori osservati di T appartengono a C

.
detto livello di significativit.
TEST PARAMETRICI
Test di Fisher per luguaglianza di 2 varianze
Si considerino 2 campioni
( )
n
x x x x
1 13 12 11
,..., , , e
( )
n
x x x x
2 23 22 21
,..., , , con numerosit n
1
e n
2
.
Essi siano relativi alle v.a. indipendenti ) , (
2
1 1 1
N x e ) , (
2
2 2 2
N x
2
2
2
1 0
: H
si introducono la varianze campionarie:
1
) (
1
1
2
1 1
2
1
1

n
x x
S
n
i
i

1
) (
2
1
2
2 2
2
2
2

n
x x
S
n
i
i
con
1
1
1
1
1
n
x
x
n
i
i

e
2
1
2
2
2
n
x
x
n
i
i

34
Si riscontra che il rapporto
) 1 , 1 (
2 1
2
1
2
2
2
2
2
1
n n F
S
S


una v.a. con distribuzione di Fisher con (n
1
1) e (n
2
1) gradi di libert.
Distribuzione di Fisher con g.l. ( m
1
, m
2
)
Dominio { } x S 0
2
2
1 2
1
2
1
2 1
2 1
2 1
1
2
1
1
2 2
2
) (
m m
m
m
m
x
m
m
x
m
m
m m
m m
x f
+

,
_

,
_

,
_


,
_

,
_

con



0
1
) ( dx e x
x

2
) (
2
2

m
m
x M
con
2
2
> m
{ }
[ ] ) 4 ( ) 2 (
) 2 ( 2
2
2
2 1
2 1
2
2

+

m m m
m m m
x Var
con
4
2
> m
Si individua lintervallo fiduciario:

'

1
2
1
2
1
2
2
2
2
2
1
2
x
S
S
x P
2

il rischio associato al verificarsi di ciascuna coda.


Normalmente 1 = 0,95 o pi alto.
I quantici
2

x
sono tabulati in corrispondenza di 1-
2

x
e dei gradi di libert m
1
= n
1
1 e m
2
= n
2
1
Se
2
2
2
1 0
: H vera, allora la v.a. di Fisher cos ottenuta cade con probabilit 1
nellintervallo centrale (dove c anche x = 1, vedi figura) e dunque lipotesi da accettare con tale
probabilit.
Siccome
2
1
e
2
2
non sono noti, si osserva che anche il rapporto
2
2
2
1
S
S
(campionario) soddisfa le
stesse propriet viste per il rapporto
2
1
2
2
2
2
2
1

S
S
.
Dunque si applica la verifica dellipotesi H
0
utilizzando tale rapporto.
Normalmente un evento molto raro quello per cui
2
2
2
1
e
2
2
2
1
S
S
cada fuori dallintervallo
centrale.
35
Test di Student sulla differenza tra 2 valori medi statistici
Si suppone che sia
2
2
2
1

2 1 0
: H
Si definisce
2
) 1 ( ) 1 (
2 1
2
2 2
2
1 1 2
+
+

n n
S n S n
S
con
2
1
S e
2
2
S varianze campionarie
Si dimostra che:
S
x x
n n
n n
T
2 1
2 1
2 1

+

una v.a. con distribuzione di Student a m = n


1
+ n
2
2 gradi di libert.
Dopo aver scelto , se compresa fra -
2
1

x
e
2
1

x
allora con probabilit 1 appartiene alla
zona centrale e dunque lipotesi H
0
da accettare.
Distribuzione di Student con m g.l.
Dominio { } x S
2
1
2
1
2
2
1
) (
+

,
_

,
_

1
]
1

m
m
x
m
m
m
x f

{ }
{ }
2
0

m
m
x Var
x M
con m > 2
TEST NON PARAMETRICI
Test di
2
sulladattamento dei dati ad una distribuzione di probabilit
Sia x
1,
x
2,,
x
n
un campione rappresentativo di una v.a. x.
Si ordinano gli n valori in ordine crescente.
Supponendo che linsieme delle x sia gi ordinato allora sar: x
1
< x
2
< < x
n
Si suddivide lintervallo x
n
x
1
in m sottointervalli di ampiezza
m
x x
n 1

.
Si collocano le n variabili campionarie nei vari sottointervalli detti classi.
Sia N
i
il numero di tali variabili che cadono nella classe i-esima.
Si ipotizza che landamento delle N
i
per ogni i abbia una certa distribuzione.
Si vuole verificare se vero o no ( H
0
).
A tale proposito siano p
i
le probabilit ottenute integrando la densit di probabilit ipotizzata
nellintervallo [(i-1) i] .
Si definisce la seguente v.a.:
i
i
i
i
p
n
p
n
N
y
,
_


con i = 1, 2,.., m
Si dimostra che la v.a.:


m
i
i
y
1
2 2
36
una v.a. con distribuzione
2
a (m 1) gradi di libert.
Posto un , allora se
2

1
x

lipotesi H
0
da accettare.
37
ANALISI STATISTICA DEI DATI DI PROVA
I risultati delle prove di vita vengono generalmente sottoposti ad unanalisi statistica per trarre le
informazioni che saranno poi utilizzate per fornire i dati di previsione dellaffidabilit del
dispositivo.
Dal punto di vista statistico si tratta di determinare una v.a. definibile in un certo campo di valori
sempre positivi. Ha interesse determinare il tipo di distribuzione assunto da questa v.a. , per questo
necessario ricavare dalle osservazioni sperimentali alcune funzioni che caratterizzano le
distribuzioni statistiche. La prima di queste la densit di probabilit:
) ( ) ( dx x X x P dx x f +
cio la probabilit che la v.a. X cada nellintervallo x, x+dx.
Risulta pi frequente lutilizzo della funzione cumulativa F(x):
) ( ) ( x X P x F
cio la probabilit che X non superi il valore di x.
Per qualsiasi distribuzione ha interesse calcolare i parametri statistici fondamentali : il valor medio
x, la varianza
2
e il valore mediano x
m
:
5 , 0 ) (
) ( ) (
) ( ) (
2 2 2
0

m
x F
x E x E
dt x xf x E x

DISTRIBUZIONE ESPONENZIALE
la distribuzione applicabile ai tempi di guasto quando la funzione di azzardo risulta costante nel
tempo (tasso di guasto ). La densit di probabilit sar:
t
e t f


) (
I suoi parametri statistici:

6931 , 0 2 ln
1
1

m
t
t
La funzione accumulativa e quella di affidabilit:
t
t
e t R
e t F


) (
1 ) (
38
La prima pu essere linearizzata isolando lesponenziale e facendo il logaritmo naturale degli
inversi:
t
t F

1
]
1

) ( 1
1
ln
otteniamo quindi unespressione del tipo: y = x. In questo modo possibile tracciare la seguente
carta di controllo:
DISTRIBUZIONE DI RAYLEIGH
la distribuzione che si applica quando la funzione di azzardo pu ritenersi linearmente crescente
nel tempo.
La densit di probabilit:
2
2
2
2
) (
s
t
e
s
t
t f

per t = s raggiunge il suo valore massimo.


La funzione cumulativa e quella di affidabilit:
2
2
2
2
2
2
) (
1 ) (
s
t
s
t
e t R
e t F


I parametri statistici:
2 2 2
429 , 0
2
2
253 , 1
2
s s
s s t

,
_

39
DISTRIBUZIONE NORMALE
la pi importante di tutte per il teorema centrale del limite.
Questa distribuzione idonea a rappresentare i tempi di guasto derivanti da un determinato
fenomeno di degradazione.
La densit di probabilit pu essere espressa in 2 forme.
La prima:
2
2
2
) (
2
1
) (

t
e t f
dove
rappresenta il valor medio della distribuzione (coincidente anche con il valore mediano)
s.q.m.
Si tratta di una distribuzione simmetrica centrata su e con 2 flessi in corrispondenza di
t
,
avente andamento a campana.
La funzione cumulativa relativa :
1
]
1


+
2
) (
1
2
1
) (

t
erf t F
dove erf la funzione di errore.
Pi spesso, la densit di probabilit viene espressa in una forma ridotta, ottenuta dalla precedente
introducendo la nuova v.a.

) (

t
x :
2
2
2
1
) (
x
e x f

La funzione normale ridotta ha come valor medio lo zero e come s.q.m. lunit.
La corrispondente funzione cumulativa:
1
]
1

+
2
1
2
1
) (
x
erf x F

Per tracciare la carta di controllo si parte da un diagramma che mette in relazione la y con quella
ridotta x, ma su questo asse coordinato si riportano, invece delle determinazioni x, i corrispondenti
valori di F(x). Occorre fissare prima i valori minimo e massimo dellintervallo F(x) che si vuole
rappresentare, cio
) ( ), (
M M m m
x F F x F F
e stabilire la lunghezza D del relativo asse
coordinato. I valori intermedi, d, si determinano attraverso la semplice proporzione:
m M
m
x x
x x
D
d

E opportuno che la scala delle ascisse abbia valori interi di F(x).


40
DISTRIBUZIONE DI WEIBULL
una distribuzione che si presta molto bene a rappresentare unampia gamma di v.a. continue, da
quella esponenziale a quella approssimativamente normale.
La funzione di densit:


,
_

t
e
t
t f
1
) (
dove
il parametro di scala , se aumenta f(t) diminuisce
il parametro di forma, compare sia come parametro moltiplicativo che come esponenziale,
cambiandolo varia completamente la curva (forma).
Entrambi sono positivi ma non necessariamente interi.
Se:
- = 1 : landamento quello esponenziale
- = 2 : si ottiene la distribuzione di Rayleigh
- al crescere di landamento approssima sempre meglio quello di una distribuzione normale.
41
I parametri statistici:
1
1
1
1
]
1

,
_

,
_

,
_

1
2
2
1
2
2 2
t
t
dove (y) la funzione gamma di y.
Le altre funzioni caratteristiche:

,
_

,
_


t
t
e t R
e t F
) (
1 ) (
Per costruire la carta di controllo:
La funzione cumulativa viene linearizzata attraverso un duplice passaggio ai logaritmi naturali
dellinverso del suo complemento ad uno:
[ ]
) ln (ln
) ( 1
1
ln ln

t
t F
Si ottiene cos unespressione nella forma
ln X Y
avendo posto:
t X
t F
Y
ln
) ( 1
1
ln ln

1
]
1

La carta di controllo riporta Y in ordinate e X in ascisse; generalmente per sugli assi coordinati
vengono indicati i valori di F(t) e di t.
42
DISTRIBUZIONE CHI-QUADRO
una distribuzione utilizzata nei test statistici per la verifica delle ipotesi.
Questo deriva dal fatto che questa distribuzione viene definita attraverso una sommatoria dei
quadrati di n v.a. indipendenti di tipo normale:

t
n
i
i
U
1
2
2
viene detta funzione chi-quadro ad n gradi di libert.
Per
n
la
2
tende ad una normale (teorema centrale del limite).
La somma di m v.a.
2
ancora una v.a. con distribuzione
2
e m gradi di libert.
Nelle verifiche delle ipotesi sono importanti i percentili della distribuzione
2
ad n gradi di libert.
La funzione di densit di probabilit:
2
2
1
2
2
2
) (
x
n
n
n
e
n
x
x f

,
_

,
_

>

p
p
dx x f P
p
p
1
100
) ( ) (
2
2 2
il valore di
p
2
detto anche percentile o frattile a p%.
detto livello di significativit.
STIME PUNTUALI
Le stime puntuali consistono nel calcolo dei parametri caratteristici di un modello probabilistico
ipotizzato per la popolazione esaminata. Esistono vari metodi:
- metodo della stima dei momenti: il metodo pi usato per effettuare una stima puntuale,
impiegabile in tutte le applicazioni.
- metodo della massima verosimiglianza: se consideriamo n osservazioni della popolazione
in esame come altrettante v.a. indipendenti, possiamo scrivere per ciascuna di esse la densit
marginale esprimente la probabilit che sia
i i
x x
e dipendente dal parametro che deve
essere stimato:
) ( ) , (
i i i i
x x P dx x f
si definisce funzione di verosimiglianza L la funzione di densit di probabilit congiunta
fornita dal prodotto delle n funzioni sopra citate:

n
i
i n
x f x x x L
1
2 1
) , ( ) ; ,..., , (
il valore di non lo ricavo, ma vado a tentativi.
- metodo della stima lineare in media quadratica: il metodo pi semplice per stimare una
v.a. Y funzione di unaltra v.a. indipendente X, tramite una funzione lineare di X:
b aX Y +
Trovo poi la retta di regresso in media quadratica, cio la retta che approssima meglio i punti
(minima distanza):
43
CAMPIONAMENTO STATICO
La fase in cui vengono effettuate prove e misure su un prodotto industriale al momento del suo
passaggio dal costruttore allutilizzatore spesso caratterizzata dal collaudo del materiale oggetto
della transazione.
Nelle produzioni in grande serie, la verifica delle prestazioni di tutti gli elementi di un lotto
comporterebbe costi insostenibili; daltra parte, limmissione sul mercato di una produzione con un
elevato numero di elementi difettosi costituirebbe, per la ditta costruttrice, un grave danno
economico.
I costi delle attivit di collaudo e delle difettosit del prodotto possono essere rappresentati in un
diagramma, in funzione della percentuale di pezzi difettosi non individuati nei quantitativi immessi
sul mercato.
La curva del costo dei collaudi cresce dapprima lentamente, per poi aumentare rapidamente allorch
la percentuale suddetta deve essere ridotta a valori molto bassi.
Al contrario, la curva dei costi derivanti dalle difettosit della produzione, risulta rapidamente
crescente con la diminuzione dei pezzi difettosi non rilevati nelle operazioni di collaudo.
La somma di queste 2 curve presenta un valore minimo in corrispondenza di una certa percentuale
di difettosi non rilevati (di solito superiore al valore nullo).
Ci significa che, dal punto di vista economico, non conviene verificare tutti i pezzi prodotti.
Quindi solitamente, si effettuano le operazioni di collaudo su base statistica, prelevando in maniera
44
casuale da ogni lotto, un campione omogeneo (che rappresenta staticamente tutte le propriet
tecniche della popolazione originaria) sul quale effettuare le prove e le misure.
In primo luogo necessario stabilire i limiti delle caratteristiche per il quale il prodotto viene
definito difettoso; il controllo applicato in questo tipo di collaudo risulta essere generalmente quello
per attributi, in quanto la decisione finale : passa non passa (non quanto durer).
La decisione di accettare il lotto esaminato viene presa, nel caso pi semplice, individuando il
numero di pezzi difettosi presenti nel campione e verificando che tale numero non superi un valore
prefissato in base a determinati criteri probabilistici. La scelta di questi criteri particolarmente
importante al fine di evitare il rischio di rifiutare un lotto buono o di accettarne uno cattivo.
Quindi si considera loperazione di collaudo nel suo sviluppo generale, ossia si prende in esame il
caso in cui molti lotti dello stesso prodotto vengono sottoposti al collaudo luno dopo laltro: questo
consente di calcolare la probabilit di accettazione di ciascun lotto in funzione della sua difettosit
curva operativa che assume un andamento caratteristico per ciascun piano di campionamento.
Un piano di campionamento caratterizzato da:
N = grandezza del lotto
N = grandezza del campione
D = n. di pezzi difettosi nel lotto
N
D
p
= frazione di difettosi nel lotto
d = n. massimo di difettosi ammessi nel campione al fine di considerare il lotto conforme alle
prescrizioni
Si pu cos calcolare la probabilit P
a
, funzione di p, di accettare un lotto che abbia D difettosi:

,
_

,
_

,
_

n
N
k
D
k n
D N
p P
d
k
a
0
) (
Per campioni di piccole dimensioni (quando 1 , 0
N
n
) :

,
_

d
k
k n k
a
p p
k
n
p P
0
) 1 ( ) (
Landamento della funzione il seguente e costituisce la curva operativa del campionamento:
45
Osservazioni:
- allaumentare di n/N la curva tende ad avere un andamento sempre pi discriminante tra
laccettazione e il rifiuto dei lotti
- se n=N avremo un controllo al 100% e la curva operativa assumerebbe un andamento a
gradino, con P
a
= 1 per p inferiore al valore di accettazione e P
a
= 0 per p superiore a tale
valore
Caratterizzano la curva operativa:
- LQA: livello di quantit accettabile il valore di p a cui corrisponde una probabilit di
accettazione di 0,95. Il complemento a 1 di LQA viene chiamato rischio del costruttore.
- LQT: livello di qualit tollerabile il valore di p a cui corrisponde una probabilit di
accettazione di 0,10. Il complemento a 1 di LQT viene detto rischio del committente.
La curva della qualit media risultante (QMR) esprime la percentuale di elementi non conformi
rimanente dopo la verifica al 100% dei lotti rifiutati e dopo aver sostituito in questi gli elementi
difettosi:
a
P p QMR 100 %
Presenta un punto di massimo la cui ordinata detta limite di qualit media risultante (LQMR):
il suo interesse per il committente risiede nel fatto che la frazione di difettosit della fornitura non
potr mai essere superiore al valore di LQMR qualunque sia la percentuale p di difettosit del
materiale fornito dal costruttore.
Nellattuazione pratica del campionamento sono previste alcune procedure:
- campionamento semplice:
dal lotto di numerosit N si preleva il campione di grandezza n da sottoporre a verifica. Si
individua cos il numero d di difettosi nel campione e lo si confronta con il valore limite d
M
:
se d<d
M
il lotto viene accettato altrimenti viene rifiutato.
46
- Campionamento doppio:

composto di 2 fasi. Nella prima si estrae dal lotto un primo campione di numerosit n
1
e si
individua in esso il numero d
1
di difettosi. Questo valore viene confrontato con 2 valori
limite d
M1
e d
M2
stabiliti dal piano di campionamento: se
1 1 M
d d il lotto accettato,
altrimenti se
2 1 M
d d viene rifiutato. La seconda fase consiste nel prelevare dal lotto un
secondo campione di numerosit n
2
e nel rilevare i pezzi difettosi d
2
in esso presenti. Si
confronta poi la somma
2 1
d d + con il terzo valore limite d
M3
(eventualmente coincidente
con d
M2
); il lotto viene accettato se
3 2 1 M
d d d + .
- Piani sequenziali:
sono rappresentati da 2 rette parallele tracciate nel piano coordinato avente come ascisse il
numero n degli elementi ispezionati e in ordinate il numero d dei difettosi rilevati. La retta
superiore la linea di rifiuto e quella inferiore la linea di accettazione. La procedura
47
consiste nel prelevare successivamente dal lotto campioni di piccola entit e di sommare via
via il numero di pezzi difettosi rilevato. Se questa somma attraversa una delle 2 rette la
procedura si interrompe: il lotto accettato se viene attraversata la retta inferiore altrimenti
rifiutato se viene attraversata quella superiore. Ma pu capitare che non si giunga mai ad una
decisione; per evitarlo, ogni piano di campionamento sequenziale stabilisce un limite
superiore n
M
per le unit ispezionabili e un limite superiore d
M
per i pezzi difettosi
ammissibili. Le 2 rette risultano espresse da:
sn h d
sn h d
r
a
+
+
2
1
dove
d
a
il numero di difettosi consentiti per laccettazione del lotto
d
r
il numero di difettosi consentiti per rifiutarlo
n il numero di unit ispezionate
h
1
e h
2
sono calcolati attraverso il rischio del fornitore, LQA, il rischio del committente e
LQT.

48
TECNICHE DI ANALISI DELLAFFIDABILITA DEI SISTEMI
Molte tecniche di analisi dellaffidabilit dei sistemi si propongono soltanto risultati di tipo
qualitativo: effettuano unanalisi della struttura del sistema volta a stabilire le interdipendenze tra
guasti di componenti diversi e tra questi e il guasto di tutto il sistema.
Si dividono in:
- metodi deduttivi: studiano la propagazione di un guasto dal livello di complessit pi alto
ai livelli via via pi bassi, cio tendono a determinare quali cause possono essere allorigine
di ogni modalit di guasto prevedibile per il sistema. Richiedono la conoscenza dei modi e
degli effetti dei guasti sul sistema , sono utilizzati in fase iniziale di progettazione,
richiedono unequipe di attori e vengono utilizzati strumenti grafici (CAD).
- metodo induttivi: procedono invece dai livelli di complessit pi elementari a quello pi
elevato, cio tendono ad individuare quali conseguenze sulla funzionalit del sistema possa
avere il guasto di un singolo componente.
ANALISI DEI MODI E DEGLI EFFETTI DEI GUASTI
FMEA (Failure Modes and Effects Analysis) un metodo induttivo che procede dal basso verso
lalto per fornire informazione qualitative sullaffidabilit di unapparecchiatura.
Lanalisi parte dallesame di una struttura minimale del sistema, per ciascun elemento della quale
siano disponibili informazioni precise sui modi di guasto e sulle loro cause. Analizzando le
relazioni funzionali tra questi elementi essa permette di risalire agli effetti che ciascun tipo di guasto
provocher sulle prestazioni dellintero sistema.
Per alcune apparecchiature importante estendere questa analisi alla gravit delle conseguenze di
un loro guasto su altri sistemi e sulla sicurezza dei loro utenti: in questo caso si parla di FMECA
(Failure Modes, Effects and Criticity Analisis): analisi dei modi, degli effetti e della criticit dei
guasti.
Queste 2 tecniche fanno parte di un programma generale di assicurazione dellaffidabilit e trovano
il momento di applicazione principale nella fasi di progetto e di sviluppo del sistema (utilizzazione
limitata nelle fasi di studio e pianificazione).
Queste indagini dovrebbero consentire di tracciare un panorama del comportamento
dellapparecchiatura in tutte le possibile situazioni di impiego e di diagnosticare ciascun tipo di
guasto.
MODI DI GUASTO
Il modo di guasto rappresenta come si manifesta il fallimento del componente.
I dati di appartenenza della tecnica FMEA sono costituiti dalle modalit di guasto caratteristiche per
ciascun elemento della struttura dalla quale essa prende lavvio.
Lesame dei modi di guasto non deve essere effettuato singolarmente per ciascun componente, ma
va approfondito per verificare leventualit che una qualsiasi causa provochi contemporaneamente
guasti della stessa modalit in 2 o pi componenti del sistema. Quindi, la tecnica FMEA utilizzata
anche per studiare questo tipo di guasti, detti di modo comune, e per decidere gli interventi pi
idonei ad eliminare le cause.
49
ANALISI DELLE CRITICITA
Nella FMECA, quindi nellanalisi delle criticit, assume importanza la stima delle probabilit con la
quale ciascun effetto pu manifestarsi.
La graduatoria delle gravit delle conseguenze dei guasti di una determinata apparecchiatura su un
sistema complesso pu seguire i seguenti criteri, in ordine crescente di importanza:
I. mancato funzionamento del macrosistema
II. conseguenze economiche per il mancato funzionamento
III. danneggiamento di altre apparecchiature o dellapparecchiatura stessa
IV. lesioni al personale addetto allesercizio del sistema
V. effetti letali sulle persone
Una classificazione della probabilit di occorrenza di ognuno dei suddetti eventi pu seguire il
seguente criterio:
a) probabilit molto bassa
b) probabilit piccola
c) probabilit media
d) probabilit alta
Le fasi dellanalisi FMECA sono:
(1) ricerca dei difetti potenziali di ciascuna funzione elementare del prodotto
(2) per ciascun difetto, ricerca dei suoi effetti, le sue cause, la criticit e la gerarchizzazione
(3) per ciascuna azione correttiva prevista, designare un responsabile ed elaborare un piano
revisionale
(4) messa in pratica e verifica delle azioni correttive
(5) rivalutazione delle criticit
(6) aggiornamento del piano di sviluppo
Indice di criticit: C = P G R
Dove
P la probabilit non che si manifesti, ma che si rilevi durante la fase di collaudo (tra 0 e 1)
G la gravit (come le conseguenze gravano sul sistema, scala da 1 a 10)
R la rilevabilit (un difetto che si manifesta non detto che venga rilevato, scala da 1 a 10)
Quindi il massimo valore che pu assumere C 100.
Per evidenziare i risultati della tecnica FMECA viene utilizzata la griglia di criticit:
50
ANALISI DELLALBERO DEI GUASTI
FTA (Fault Tree Anlysis), albero dei guasti: un metodo deduttivo che procede dallalto verso il
basso per studiare (generalmente in modo qualitativo) la dipendenza funzionale tra i guasti al livello
massimo e quelli al livello minimo (analisi grafica).
La tecnica FTA si propone pertanto lo scopo di individuare le vie che dal guasto principale
risalgono ai guasti originari; i risultati vengono di solito rappresentati mediante un grafico i cui
simboli sono:
Questa tecnica ha varie fasi:
51
(1) definizione dello scopo
(2) costruzione dellalbero dei guasti
(3) una volta che lalbero completo si passa alla fase finale i cui scopi sono:
- identificazione dei guasti originari che sono causa diretta del guasto principale
- valutazione dei livelli di severit dei guasti tollerabili dal sistema
- verifica dellindipendenza dei guasti
- individuazione dei dati necessari per diagnosticare i guasti critici e loro meccanismi
- identificazione delle modalit di diagnosi dei guasti e delle procedure di manutenzione

ANALISI CON IL MODELLO DI MARKOV
I modelli di Markov sono delle funzioni di 2 v.a.:
s stato del sistema
t tempo di osservazione
In campo affidabilistico vengono utilizzate s discreta e t continua.
Qualsiasi modello di Markov caratterizzato da un certo numero di probabilit p
ij
che sono
probabilit di transizione del sistema dallo stato iniziale i allo stato finale j; p
ij
dipende solo dagli
stati i e j presi in considerazione.
Queste probabilit di transizione devono seguire 2 regole generali:
1- la probabilit di transizione dallo stato iniziale a quello finale, relativa allintervallo di
tempo t, individuata dal prodotto t t z ) ( , essendo z(t) la funzione di azzardo associata ai 2
stati
2- la probabilit che nellintervallo t avvengano 2 o pi transizioni un infinitesimo di ordine
superiore e pu essere quindi trascurata
Un modello di Markov risolvibili con metodi relativamente semplici solo se ci troviamo nel
periodo di azzardo costante.
Nel caso di sistemi riparabili, la probabilit di transizione da uno stato guasto ad uno operativo
viene indicata in funzione del valore del tasso di riparabilit (considerato costante nel tempo ed
espresso con la stessa unit di misura di ).
Lanalisi con il modello di Markov fornisce, oltre ad un metodo uniforme e sintetico per lo studio
dellaffidabilit e della disponibilit, anche un metodo utile nella scelta delle strategie di
manutenzione.
Diagrammi di stato
Questo tipo di analisi inizia con il tracciamento dei diagrammi di stato del sistema considerato,
consistente in un diagramma di flusso che indica le possibili transizioni tra tutti gli stati assumibili
dal sistema.
Sistema non riparabile: il flusso unidirezionale (dallo stato di partenza verso quello successivo) e
lo stato finale viene chiamato stato assorbente, perch esso non consente altre transizioni.
Sistema riparabile: il flusso tra gli stati bidirezionale.
Il caso pi elementare quello di un solo elemento non riparabile che assume solo 2 stati:
s
0
operativo
s
1
guasto
Si otterr:
dal quale si possono ricavare formule:
52
{
{ 1 ). ( ) ( ) (
0 ). ( ) 1 )( ( ) (
1 0 1
1 0 0
t P t t P t t P
t P t t P t t P
+ +
+ +


dove:
P
1
+ la probabilit dello stato s
1
P
0
+ la probabilit dello stato s
0
Con il passaggio al limite si ottengono le seguenti equazioni differenziali del primo ordine:
) (
) (
) (
) (
0
1
0
0
t P
dt
t dP
t P
dt
t dP


risolvibili con i consueti metodi analitici, dopo aver stabilito le appropriate condizioni iniziali.
53
TECNICHE DI INCREMENTO DELLAFFIDABILITA E
DISPONIBILITA
AZIONI SUL PROGETTO
La massima affidabilit di un prodotto industriale si raggiunge nella fase di progetto (affidabilit
intrinseca): nelle fasi successive del suo ciclo di vita questo valore pu solo diminuire.
Per i dispositivi non riparabili pi logico far riferimento alla disponibilit, piuttosto che
allaffidabilit. Essa strettamente legata alla loro manutenibilit, pertanto, per questi dispositivi,
necessario prendere in considerazione nella fase progettuale anche tutte quelle azioni che
favoriranno le operazioni di manutenzione del prodotto finito.
Laffidabilit e la manutenibilit sono i principali requisiti che devono essere presi in
considerazione per ottimizzare il progetto. Queste grandezze devono essere specificate in termini
quantitativi:
- la prima mediante uno dei consueti parametri quali il tasso dei guasti, la vita utile o il valore
di MTBF
- la seconda attraverso il valore MTTR, il tempo massimo di riparazione.
AZIONI SUI COMPONENTI
La via pi diretta per incrementare laffidabilit totale quella di scegliere i componenti col pi
basso tasso di guasto possibile. Ma la scelta non deve essere fatta solamente utilizzando questo
criterio, anzi anche in base alla specifica situazione ambientale nella quale ciascun componente
verr a trovarsi in quel particolare sistema (non si fanno rispettare le condizioni di lavoro nominali).
Un prima tecnica per aumentare laffidabilit suggerita dallesperienza, infatti, applicando ad un
componente sollecitazioni inferiori a quelle nominali, la sua vita utile risulter maggiore.
Questa procedura chiamata sotto-utilizzazione (de-rating).
RIDONDANZA
La disposizione operativa in parallelo di dispositivi simili conduce ad un incremento
dellaffidabilit totale. Questa tecnica prende il nome di ridondanza e pu assumere diverse
configurazioni.
Ridondanza attiva (active redundancy): la forma applicativa pi immediata quella di 2, o pi,
elementi connessi stabilmente tra di loro fino dal primo istante della messa in esercizio del sistema.
Il punto di forza che poco costoso, ma vi sono 2 inconvenienti:
- difficilmente 2 dispositivi possono coesistere in un circuito senza interferire tra di loro
- i fenomeni di degradazione si manifestano contemporaneamente nei 2 dispositivi, a partire
dallo stesso istante; uno dei 2 si guaster dopo laltro.
Ridondanza in attesa o sequenziale (stand-by redundancy): il tipo pi consueto di ridondanza in
campo elettrico ed elettronico; consiste nellintrodurre un dispositivo di commutazione che
introduce lelemento ridondante B solo dopo che si guastato quello principale A. In questo caso i 2
dispositivi non interferiscono circuitalmente; inoltre il secondo comincia a degradarsi solo al
momento della sua messa in servizio e aumenta (raddoppia) lMTBF. Inconveniente: molto
costoso e necessita di un sistema logico di gestione.
Una considerazione importante per questa tecnica riguarda la scelta del livello di complessit al
quale effettuare la ridondanza, cio se a livello di componente elementare o di sottosistema.
Esempio: consideriamo il caso pi semplice della ridondanza di 2 elementi:
54

( ) ( )
2
2 , 1
2 , 1
2 , 1
2 1 2 1 2 , 1
2 1 2 , 1
1 1
'
' ' '
R
R
R
R
R R R R R
R R R
tot


22 11
' ' R R R
tot

Quindi, il maggior incremento di affidabilit si ha generalmente attuando la ridondanza ai livelli pi
bassi di complessit. Tuttavia, ci comporta un maggiore onere economico per il maggior numero di
dispositivi ausiliari necessari. Per questo sar necessario scegliere una situazione intermedia di
compromesso fra le 2 esigenze.
MANUTENZIONE
La manutenzione il complesso di tutte quelle azioni che tendono a ripristinare le condizioni
operative iniziali di un sistema. La sua attuazione richiede ovviamente che il sistema sia accessibile
al fine di effettuare le necessarie operazioni di riparazione.
La manutenibilit lattitudine di un dispositivo, in condizioni specificate duso, ad essere
conservato o ripristinato in uno stato nel quale pu adempiere alle funzioni richieste, quando la
manutenzione effettuata in prestabilite condizioni e usando le procedure e i mezzi prescritti.

1
MTTR
dove il tasso di riparabilit.
t
e t A
) (
) (

+
+
+

dove A
Il valore di regime, per t , risulta:
MTTR MTBF
MTBF
A
+

) (
Quindi A aumenta al crescere del tasso di riparabilit ( = al diminuire dellMTTR).
Tempi di riparazione
Le tappe fondamentali per la riparazione di un componente sono:
1. rilevamento della condizione di guasto del sistema (cliente)
2. individuazione del guasto (assistenza)
3. reperimento delle parti di ricambio (periodo pi lungo, punto critico, assistenza)
4. operazioni di sostituzione (tempo molto ridotto, assistenza)
5. ripristino delle condizioni operative (come un collaudo post-riparazione)
Tipi di manutenzione:
- correttiva: consiste in una vera e propria azione di riparazione effettuata sul sistema dopo la
comparsa di un guasto. I tempi di riparazione sono indicati precedentemente.
- preventiva: consiste nel sostituire un componente prima che si guasti, quando si prevede
che esso possa entrare nel periodo dei guasti per usura. meno costoso (non prevede le
tappe 1. e 2.); il rischio che si corre di sostituire un componente con MTBF ancora alto.
55
Definizione degli obiettivi di manutenibilit
La manutenibilit di un sistema, come la sua affidabilit, deve essere definita in fase di
progettazione.
In primo luogo si deve effettuare, per ogni parte o sottosistema, una scelta tra i 2 tipi di
manutenzione al fine di stabilire la condizione ottimale per raggiungere il prestabilito tasso di
manutenibilit. Il presupposto iniziale quello di poter determinare i tempi richiesti da questi 2 tipi,
in uomo x ora, per ciascuna delle fasi. Da questi valori si potr stabilire la struttura base
dellorganizzazione preposta alla manutenzione.
Inizialmente viene predisposta una documentazione molto accurata.
Per ridurre i tempi di individuazione del guasto, consigliabile prevedere dei metodi per favorire la
diagnosi della stato di funzionamento; ad esempio predisponendo delle segnalazioni di guasti nelle
parti pi importanti tramite semplici mezzi di segnalazione.
Sempre con questo scopo, possono essere predisposti nel sistema (in sede di progetto) appositi punti
di misura accessibili con strumentazione esterna per verificare lo stato di funzionamento. Per
ognuno di questi punti il costruttore dovr indicare le grandezze che assicurano la corretta
funzionalit del sistema. Questa attitudine dellapparecchiatura ad una diagnosi esterna prende il
nome di verificabilit o testabilit (testability).
Nei sistemi dove possibile introdurre un microprocessore, si utilizza sempre di pi lautodiagnosi
(BITE, Built-In Test Equipement).
PRECONDIZIONAMENTI
Sono diversi i motivi per i quali sarebbe opportuno che la vita di un dispositivo iniziasse subito con
il periodo di azzardo costante:
- assicura la validit della legge esponenziale usata correntemente nei calcoli affidabilistici
- corretta applicazione della manutenzione preventiva
Ma resta sempre linconveniente di fondo che lutente di unapparecchiatura deve sopportare, nel
primo periodo di utilizzo, un tasso di guasto superiore (periodo dei guasti prematuri).
Lo studio metodi per ridurre lincidenza dei guasti prematuri sui parametri affidabilistici di un
dispositivo rientra nelle tecniche di incremento dellaffidabilit.
Si tratta di tecniche di precondizionamento da attuarsi su tutti i dispositivi immessi sul mercato,
prima delle prove di determinazione e di conformit dellaffidabilit. Queste tecniche si fondano
sullipotesi che tutta la popolazione esaminata sia costituita da:
- elementi buoni
- elementi potenzialmente difettosi
Quindi, si ipotizza che la distribuzione della resistenza dellintera popolazione ad una certa
sollecitazione presenti 2 massimi ben distinti.
Se si conoscesse la distribuzione si potrebbe subito rilevare il valore critico S
c
della sollecitazione
che discrimina le 2 sottopopolazioni. Applicando a tutti gli elementi questo valore, quelli
intrinsecamente deboli verrebbero cos eliminati. Ovviamente ci non si verifica nella pratica.
56
Una delle tecniche pi usate la setacciatura con sollecitazioni ambientali (ESS, Environmental
Stress Screening) che consiste nellapplicazione a tutto il prodotto di una successione di cicli con
sollecitazioni incrementate rispetto ai valori nominali di impiego. Il fattore di accelerazione di
ciascuna sollecitazione costituisce il punto critico della setacciatura. Esso deve essere abbastanza
elevato per eliminare pressoch tutti gli elementi della sottopopolazione debole, ma senza degradare
apprezzabilmente quelli della sottopopolazione buona. Leliminazione dei difetti latenti non
lunico scopo dellESS, ma anche individuare i diversi modi di guasti, la loro incidenza relativa, le
loro possibili cause e la loro variabilit nel tempo, in modo da acquisire gli elementi tecnici per
attuare una retroazione correttiva sul processo costruttivo e quindi aumentare laffidabilit del
prodotto.
Un atro tipo di precondizionamento il cosiddetto rodaggio (burn-in) che si applica
prevalentemente ai sistemi e consiste essenzialmente in prove di vita di lunga durata. Le
sollecitazioni applicate sono di solito quelle massime previste per il sistema, che vengono applicate
fino a quando il tasso di guasto osservato si stabilizza su di un valore minimo di regime.
57
NORMAZIONE
La normazione lattivit che trova soluzioni ottimali a problemi che si ripetono in vari campi
(scienza, tecnica), cio lattivit che porta alle norme.
Le norme sono specifiche tecniche accessibili al pubblico ed approvate da un organismo qualificato
sul piano nazionale, regionale ed internazionale. Sono regole unificate rispetto a possibili
proliferazioni, coerenti fra loro e accessibili a tutti gli interessati.
La normativa:
- deve essere rispettata da ogni prodotto sul mercato
- serve a sanare i contenziosi
- uguale per tutti (valida in tutta Europa)
Gli scopi della normazione (iso-iec 1977) sono:
- facilitare gli scambi
- unificare i metodi (es. simboli)
- unificare i prodotti
- facilitare la comunicazione tecnica
- salvaguardare gli investimenti dei consumatori
Una volta la normativa tendeva ad armonizzare (adeguarsi) le normative nazionali preesistenti.
Oggi, la tendenza della normativa, invece, quella di creare nuove norme.
Tendono a diminuire le norme nazionali, ormai sono tutte norme CENELEC (europee).
La normazione tende ad essere una disciplina integrale:
- formulazione, emissione e diffusione degli standard
- metrologia e servizi di calibrazione
- controllo di qualit
- certificazioni
- ricerca e sviluppo
- education & training
La normativa pu essere:
- imposta: sono previsti controlli
- raccomandata: sono previsti incentivi
I vantaggi per limpresa sono, con lunificazione dei processi produttivi:
- riduzione del bisogno di comunicazione tra progettisti
- riduzione del tempo per trasferire le informazioni al nuovo personale
- linguaggio comune tra venditore ed acquirente
- riduzione dei tempi di consegna
- semplificazione dei controlli
- riduzione del volume e della complessit dei manuali di manutenzione
Mentre a livello di nazione si hanno i seguenti vantaggi:
- si legifera in base a norme esistenti, oppure
- si promuovono norme nuove
- quindi si semplifica lattivit amministrativa e riduce i costi
Gli enti nazionali di normazione sono:
- comitati congiunti: coordinano le attivit di normazione in specifici settori (es. affidabilit)
- comitati pilota: coordinano e guidano lattivit di molti comitati tecnici (TC) riguardo ad un
tema specifico (nellIEC vi sono 7 CP)
- comitati guida: istituiscono norme di carattere generale
es TC1: terminologia.
58
La CEE ha investito molto per produzione e armonizzazione di norme della sicurezza, sanit
pubblica, tutela dei consumatori e protezione dei lavoratori a fronte di vari tipi di rischi.
Esiste un nuovo approccio comunitario, si parla di rinvio alle norme nellambito della sicurezza:
- i prodotti che circolano nella CEE devono soddisfare precisi requisiti di sicurezza
- gli organismi di normazione europea emetteranno le specifiche tecniche armonizzate
- le amministrazioni sono obbligate a riconoscere i prodotti fabbricati secondo le norme
armonizzate una presunta conformit ai requisiti dichiarati essenziali
Questo concetto si iniziato ad applicare nei campi: costruzione meccanica, materiali da
costruzione, apparecchi elettronici.
59
QUALITA
Ogni prodotto caratterizzato da dei parametri che esprimono le sue prestazioni.
La qualit la capacit del prodotto di mantenere inalterati tali parametri nel tempo (definizione
operativa).
Quindi pi mantengo inalterati i parametri dei prodotti, tanto pi la qualit sar alta.
La qualit la capacit di un bene a soddisfare le necessit dellacquirente (definizione generale,
storica).
Per la determinazione e la certificazione di tali parametri viene effettuato un controllo di qualit del
prodotto, cio monitoro i parametri per vedere che non cambino.
La qualit data da:
- affidabilit (caratteristica del prodotto, parametri statistici)
- conformit (caratteristica dellazienda, parametri deterministici)
Il controllo della qualit viene effettuato:
- durante la produzione (controllo dei macchinari che non funzionano, come viene fatto il
prodotto)
- al momento del passaggio del prodotto finito allacquirente (controllo in uscita)
La prova di tipo una prova stabilita dalla normativa per verificare le caratteristiche del prodotto.
60
GUASTI ED AVARIE
Un guasto (failure) la cessazione dellattitudine di un dispositivo ad adempiere alla funzione
richiesta. Si tratta quindi di un evento.
Lavaria (fault) lo stato di unentit caratterizzato dalla inabilit a eseguire una funzione
richiesta. Si tratta quindi di una condizione stazionaria, di uno stato.
Il guasto un evento, al seguito del guasto il sistema entra in avaria (stato).
Lentit (item) ogni parte componente, sistema, sottosistema che pu essere considerata
individualmente.
I guasti sono classificabili secondo vari criteri.
Cause:
- guasti per impiego improprio: attribuibili allapplicazione di sollecitazioni superiori ai
massimi livelli sopportabili dal dispositivo
- guasti dovuti a deficienza intrinseca: dati da debolezze costruttive intrinseche ai
dispositivi
- guasti primari: quelli non provocati dal guasto di un altro dispositivo
- guasti indotti: quelli provocati dal guasto di un altro dispositivo
- guasti per usura: quelli provocati da fenomeni di degradazione dei materiali componenti il
dispositivo
Effetti:
- guasti critici: quando possono causare danni alle persone o danni gravissimi ad altre parti
del sistema
- guasti di primaria importanza: quelli che possono ridurre le funzionalit del sistema
- guasti di secondaria importanza: quelli che non riducono le funzionalit del sistema
Entit:
- guasti parziali: consistono nella variazione di una o pi prestazioni dei dispositivi ma tali
da non impedirne completamente il funzionamento richiesto
- guasti totali: consistono in variazioni delle prestazioni tali da impedire completamente ai
dispositivi di fornire le funzioni richieste
- guasti intermittenti: consistono nella successione di periodi di funzionamento e periodi di
guasto
61
IL CONTROLLO STATISTICO DI PROCESSO
Il processo produttivo deve essere stabile e le perone impegnate nella produzione devono essere
continuamente impegnate nel miglioramento del processo produttivo e nella riduzione della
variabilit dei fattori coinvolti nella produzione. LSPC (Statistical Process Control) lo
strumento primario per conseguire tale risultato, e le carte di controllo sono lo strumento pi
semplice per definire una procedura di controllo statistico di processo.
Gli strumenti statistici di base per il controllo statistico di processo sono 7 e vengono chiamati i
magnifici 7:
(1) istogrammi e grafici rami e foglie
(2) fogli di controllo
(3) grafici di Pareto
(4) diagrammi cause ed effetto
(5) diagrammi sulla concentrazione dei difetti
(6) grafici a dispersione
(7) carte di controllo
Ogni processo produttivo soggetto ad una certa variabilit intrinseca o naturale detta rumore di
fondo e provocata dalleffetto cumulato di molti piccoli ma ineliminabili fattori casuali. Nel caso
in cui la variabilit di un processo sia data solo da fattori casuali, il processo verr detto sotto
controllo.
Ma, tra le fonti di variabilit, ne esistono alcune che influiscono sulla qualit dei prodotti e possono
presentarsi nel processo produttivo solo occasionalmente: in questo caso parliamo di fattori
specifici e sono causati da 3 fattori principali:
- macchinari non ben funzionanti
- errori degli operatori
- materiali grezzi difettosi
Un processo che stia funzionando in presenza di questi fattori specifici viene detto fuori controllo.
Se il processo sotto controllo la maggior parte degli valori delle grandezze in oggetto cade tra i
limiti di specifica superiore (USL) e inferiore (LSL). Trovare questi 2 limiti non semplice.
Lobiettivo primario del controllo statistico di un processo individuare il pi velocemente
possibile il verificarsi di fattori specifici ed eliminare la variabilit allinterno del processo stesso:
per quanto non sia possibile eliminarla completamente, le certe di controllo costituiscono un
efficace strumento per ridurla il pi possibile.
62
FOGLI DI CONTROLLO
I primi passi per limplementazione dellSPC richiedono che si provveda ad una raccolta di dati
riguardanti il processo oggetto di controllo: per tale scopo un utile strumento il foglio di
controllo.
La rilevazione effettuata in ordine di tempo risulta particolarmente utile per individuare un trend
nella manifestazione dei difetti.
Quando si progetta un foglio di controllo, importante definire in modo chiaro il tipo di
informazione che deve essere raccolta, la data, loperatore e qualsiasi altra nota che renda pi
intelligibile la provenienza del dato. In alcuni casi potr essere daiuto un periodo di test per verifica
lefficienza del foglio di controllo.
63
GRAFICI DI PARETO
Il grafico di Pareto uno degli strumenti pi utili nellSPC: riporta listogramma e lassociata
distribuzione di frequenza cumulata di dati qualitativi ordinati per categoria.
Con questo grafico lutente pu facilmente individuare la pi frequente tipologia di difetti.
Il grafico di Pareto individua le cause che pi di frequente si sono manifestate, non quelle pi
importanti per il funzionamento del prodotto.
La maggior parte del tutto concentrata in pochi.
DIAGRAMMI CAUSA ED EFFETTO
Una volta che un errore stato identificato e isolato, devono essere cercate le cause potenziali di
questo indesiderabile effetto.
In situazioni dove le cause non sono ovvie, il diagramma di cause ed effetto costituisce un efficace
strumento per la loro individuazione.
DIAGRAMMI SULLA CONCENTRAZIONE DEI DIFETTI
un particolare disegno della struttura del prodotto, su cui vengono riportate tutte le visuali
rilevanti del prodotto stesso.
GRAFICI A DISPERSIONE
Sono utili per individuare potenziali relazioni funzionali tra 2 variabili.
64
CARTE DI CONTROLLO
Una carta di controllo descrive una certa qualit di un prodotto misurata in diversi istanti di tempo.
La carta riporta una linea centrale (CL) che rappresenta il valore medio della qualit, in genere
corrispondente al valore desiderato quando il processo sotto controllo.
Le altre 2 linee orizzontali vengono chiamate:
- limite di controllo superiore (UCL, Upper Control Limit)
- limite di controllo inferiore (LCL, Lower Control Limit)
Questi limiti di controllo vengono scelti in modo tale che, se il processo sotto controllo, quasi tutti
i valori campionari cadranno al loro interno e non sar necessario alcun intervento correttivo.
Si soliti unire i punti consecutivi con dei tratti, cos da rendere pi facile la visualizzazione
dellevoluzione del processo nel tempo.
C uno stretto legame tra carte di controllo e verifica delle ipotesi (le carte di controllo sono la
rappresentazione visiva della verifica di controllo).
Ristabilisce se lipotesi che il processo sia sotto controllo sia da accettare o meno.
Se i limiti son ben posti ho unalta probabilit che il processo sia veramente sotto controllo.
La carta di controllo pu essere usata anche come strumento di stima. Ovvero, sulla base di una
carta di controllo si possono stimare alcuni parametri del processo.
Queste stime possono essere usate per valutare la capacit del processo (process capability) nel
produrre pezzi accettabili.
Le carte di controllo possono essere usate in 2 modi a seconda della caratteristica della variabile
oggetto di studio:
(1) se la caratteristica di un prodotto rappresentabile su una scala continua di valori, viene
detta variabile ed possibile descriverla con una misura di centralit e una di variabilit: le
carte di controllo per la centralit e la variabilit di un processo vengono chiamate carte di
controllo per variabili
(2) nel caso in cui molte caratteristiche dei prodotti non possano essere misurate ne su scala
continua ne su scale genericamente quantitative, ciascuna unit prodotta viene valutata
conforme a seconda che possieda o meno certi attributi o a seconda del numero di difetti
presenti nellunit prodotta. Le carte di controllo costruite sulla base di queste grandezze
vengono chiamate carte di controllo per attributi
Un passo importante nelluso delle carte di controllo la progettazione (scelta della dimensione
campionaria, dei limiti di controllo e della frequenza di campionamento -> se il campionamento
troppo fitto i costi sono elevati, se il campionamento rado si ha perdita di informazione).
Le carte di controllo hanno avuto unampia applicazione per queste ragioni:
1- sono una comprovata tecnica per migliorare la produttivit
2- sono efficaci per prevenire la produzione di pezzi difettosi
3- evitano di dover apportare inutili aggiustamenti sul processo produttivo
4- forniscono informazioni diagnostiche
5- forniscono informazioni sulla capacit del processo e sulla sua stabilit nel tempo
65
SCELTA DEI LIMITI DI CONTROLLO
- limiti 3 sigma
- limiti con probabilit 0,001
- limiti di sorveglianza delle carte di controllo: sono i limiti interni solitamente posizionati a
2-sigma, vengono chiamati limiti di sorveglianza superiore (UWL, Upper Warning Limits) e
inferiore (LWL, Lower Warning Limits)
Carta di controllo a 3 - sigma
Sono costruite su campioni, ogni punto una media.
Uso il teorema centrale del limite sommando n v.a. con la stessa distribuzione e ottengo una
distribuzione con media n e varianza n
2
. Facendo la media di n v.a. si ottiene una distribuzione
con media e varianza
n
2

.
La media tende ad avere una distribuzione normale.
I punti sono medie ottenute dai campioni. Se la loro media CL costruendo i limiti 3 sigma, si
avr il 99,73% di probabilit di trovare tutti gli elementi allinterno.
Carta di controllo a 1 - sigma
La probabilit di trovare i punti allinterno dei limiti scende al 66%.
66
DIMENSIONE DEL CAMPIONE E FREQUENZA DI CAMPIONAMENTO
Quanto pi grande il campione tanto pi facile sar individuare piccoli spostamenti allinterno del
processo.
Per scegliere la dimensione campionaria ottimale bisogna avere presente qual lo scostamento del
processo che si vuole individuare pi velocemente.
Si preferisce aumentare la frequenza di campionamento.
Vi sono 2 strumenti utili per calcolare lottimale dimensione campionaria e la frequenza di
campionamento:
- lunghezza media delle sequenze (ARL, Average Run Lenght) : il numero medio di
punti che devono essere osservati prima che un punto cada al di fuori dei limiti di controllo.
Quando il processo sotto controllo:
370
0027 , 0
1 1

p
ARL
dove p la probabilit che un punto superi i limiti di controllo. Se il processo rimane sotto
controllo, un segnale di fuori controllo si presenter in media ogni 370 campioni.
- tempo medio al segnale (ATS, Average Time to Signal) : il prodotto dellARL per
lintervallo medio di tempo intercorrente tra 2 campioni e indica il tempo medio
intercorrente tra 2 segnali di fuori controllo. Se i campioni vengono esaminati a intervalli di
tempo costante (in ore):
h ARL ATS
ANALISI DEGLI ANDAMENTI TIPICI DI UNA CARTA DI CONTROLLO
Una carta di controllo pu indicare una situazione di fuori controllo.
Una successione di punti aventi un andamento crescente o decrescente viene chiamata sequenza.
Un processo da considerarsi fuori controllo (esempio Western Electric) se:
(1) un punto cade al di fuori dei limiti di 3 sigma
(2) 2 punti su 3 consecutivi cadono oltre i limiti di sorveglianza posizionati a 2 sigma
(3) 4 punti su 5 consecutivi cadono oltre la distanza di 1 sigma dalla linea centrale
(4) 8 punti consecutivi cadono tutti dalla stessa parte della linea centrale
COMMENTO ALLE REGOLE DI SENSIBILITA PER LE CARTE DI CONTROLLO
Pi regole vengono usate nelle carte di controllo pi facile individuare i fuori controllo.
Tuttavia, quando vengono usate contemporaneamente molte regole aumenta lerrore di I specie (dire
che fuori controllo quando non lo ).
Si supponga di usare k regole decisionali e che la regola i-esima abbia una probabilit di errore di I
specie pari ad
i

. Lerrore globale di I specie (o probabilit di falso allarme) per la decisione presa


con tutte le k regole (Hp: k regole indipendenti):


K
i
i
1
) 1 ( 1

67
CARTE DI CONTROLLO PER VARIABILI
Sono carte di controllo per caratteristiche qualitative misurate su scala numerica, chiamate
variabili.
Le carte per la variabilit sono importantissime per la qualit.
Non evidenziano se il processo sotto controllo.
Minore la variabilit maggiore la qualit del prodotto.
CARTA DI CONTROLLO PER x e R
Supponiamo di avere m campioni di numerosit n, il range campionario R la differenza tra la pi
grande e la pi piccola determinazione campionaria:
min max i i
x x R
La cosa pi importante da trovare il valore centrale (CL) attraverso luso di uno stimatore. Una
stima corretta si ottiene facendo la media aritmetica:
{ }

m
k
k
m
k
k
x
m
CL x E
x
m
x
1
1
1
1
min max i i i
x x R
Range medio:
m
R
R
m
i
i

1
Possiamo costruire 2 carte di controllo: una con x CL e laltra con
R CL
.
Ottenuto il range posso definire i limiti per la carta x :
R A x LCL
x CL
R A x UCL
2
2

+
dove
A
2 una costante ricavabile dalle tabelle e dipende solo da n sotto la condizione che gli elementi del
campione siano presi indipendenti.
Per quanto riguarda la carta di controllo R:
R D LCL
R CL
R D UCL
3
4

dove
D
4 e D
3 sono costanti ricavabili dalle tabelle e dipendono solo da n.
Quindi entrambi questi limiti valgono solo per campioni di uguale numerosit.
Consideriamo la carta R. La linea centrale sar in corrispondenza di
R
. Per determinare i limiti di
controllo abbiamo bisogno di una stima di
R
. Ipotizzando che X abbia distribuzione normale,
R

pu essere trovata analizzando la distribuzione del range relativo

R
W .
68
I parametri di W ( aleatoria perch R una v.a.) dipendono solo da n.
Il valore atteso { }
2
d W E (anche d
2
tabulata e dipende solo da n).
Sapendo che

R
W
W
R

Dove W non noto, ma il suo valore atteso si:
{ }

nti Windipende
d
R
W
R
E E
Re
2

'


Otteniamo che: (Limiti per carta x a 3-sigma)
n d
R
x x R A x UCL
1
3 3
2
2
+ + +

n
1
perch vogliamo il della
x
n d
A
n d
R
x LCL
x CL
2
2
2
3
1
3

Calcolo D
3
e D
4
:

R
W

w
deviazione standard varia al variare di
3
d n

Se n costante:
3
d
w

3
d
W R
R

ignoto ma prima labbiamo stimato:


R
d
d
d
R
d
d
R
R
2
3
2
3
2

In definitiva, quindi, i limiti di controllo a 3 sigma della carta R sono:
3
2
3
2
3
4
2
3
2
3
3 1 3 3
3 1 3 3
D R
d
d
R R
d
d
R R LCL
R CL
D R
d
d
R R
d
d
R R UCL
R
R

,
_

,
_

+ + +

dove:
2
3
4
2
3
3
3 1
3 1
d
d
D
d
d
D

+
Utilizzo del range per stimare
Efficienza relativa: quanto bene R approssima S
2
e quindi .
Se la dimensione del campione relativamente piccola, il ricorso al range restituisce una stima della
varianza
2
sufficientemente precisa quanto quella ottenibile con la varianza campionaria S
2
. Per
valori di n compresi tra 6 e 10 la stima gi non buona.
69
Limiti di controllo di prova
Lo scopo di questi di verificare se il processo era sotto controllo quando sono stati estratti gli m
campioni iniziali.
Si osserva se tutti i punti sono allinterno dei 2 limiti; se qualche punto cade fuori allora
sopraggiunta una causa specifica che ha mandato il sistema fuori controllo.
Si scartano quei punti e si ricalcolano i limiti e si verifica di nuovo se i punti cadono entro
lintervallo delimitato dai nuovi limiti.
Si ripete loperazione finche tutti i punti cadono dentro lintervallo.
In ogni operazione il limite tende a ridursi. Bisogna fare in modo che questi limiti non siano ottenuti
con pochi punti prescelti (dopo diverse iterazioni).
COSTRUZIONE ED USO DELLE CARTE
x
E R
Vedi esempio pagina 159 (qualit).
Limiti di controllo, limiti di specifica e limiti di tolleranza naturali
I limiti di controllo vengono individuati in base alla variabilit naturale del processo (calcolata
mediante il valore del processo) ovvero in base ai limiti di tolleranza naturali:
- UNTL: limite superiore di tolleranza naturale del processo
- LNTL: limite inferiore di tolleranza naturale del processo
Solitamente vengono posti a 3 sigma dal valore medio.
Invece, i limiti di specifica, sono individuati indipendentemente dal comportamento naturale del
processo (vengono in genere definiti dal management).
Bisogna sempre tenere presente che qualsiasi processo caratterizzato da una variabilit naturale e
che non esiste alcuna relazione tra limiti di controllo e limiti di specifica.
Stima delle capacit del processo
La valutazione della capacit di un processo la si ottiene dal rapporto processo capacit (process
capability, C
p
) che indichiamo come indice di capacit e che, per una certa caratteristica, di cui
siano noti i limiti di specifica, dato da:
6
LSL USL
C
p

Poich generalmente ignota, deve essere sostituita con una stima, di solito
2

d
R

, allora si
ottiene:
2
6
d
R
LSL USL
C
p

Di solito C
p
> 1.
70
Il C
p
ha anche un altro significato. La grandezza:
% 100
1

,
_

p
C
P
proprio la percentuale di specifica usata dal processo.
CARTA DI CONTROLLO PER x e S
Supponiamo di avere a disposizione dei campioni di numerosit n e siano:
i
x la media del parametro del campione i-esimo
la variabilit del campione (in realt la deviazione standard degli elementi del campione) ->
riferita ai campioni (teorema centrale del limite)
n

riferita ad ogni singolo campione


In presenza di dimensioni campionarie sufficientemente grandi, opportuno stimare la deviazione
standard del processo con la deviazione standard campionaria S.
Uno stimatore si dice corretto quando il suo valore atteso tende al valore vero del parametro da
stimare (non distorto). Si dice consistente quando la sua varianza tende a zero allaumentare della
numerosit del campione.
noto che se
2
la varianza (sconosciuta) di una distribuzione, uno stimatore non distorto di
2
la
varianza campionaria:
1
) (
1
2
2

n
x
S
n
i
i

con

n
i
i
x
n
1
1

valore atteso di x (v.a.) = E{x}


Nel caso in cui n>10:
1
) (
1
2
2

n
x x
S
n
i
i
con

n
i
i
x
n
x
1
1
valore medio aritmetico
Nelle carte di controllo
2
S S
. Le carte costruite con
2
S S
non sono corrette in quanto
sarebbero polarizzate: { } S E
2 2
S
termini asintotici
2
} { S E termini statistici
Si pu dimostrare che:
4
} { c S E dove c
4
dipende solo da n.
CL valore centrale della carta S.
2
4 4
1 c c UCL +
In altre parole, la deviazione standard di S risulta:
2 2 2
4
2 2 2
4
} { 1 S E c c

dove E{S}
2
rappresenta la distanza tra il valore centrale ed il limite dato.
Per una carta di controllo S a 3 sigma risulta:
2
4 4
4
2
4 4
1 3
1 3
c c LCL
c CL
c c UCL


71
Pongo:
2
4 4 6
2
4 4 5
1 3
1 3
c c B
c c B
+

B
5
e B
6
sono costanti che dipendono esclusivamente da c
4
che a sua volta dipende solo da n.
I valori di B
5
e B
6
al variare di n sono tabulati.
Risulta che:

5
4
6
B LCL
c CL
B UCL


Non posso ancora calcolare la S perch ignota.
Abbiamo m campioni di numerosit n. Per ognuno calcolo una S
i
:

m
k
k
n
S
m
S
S
S
S
1
2
1
1
.
4 4
} {
c
S
c
S E

Si ottiene:
4
5
4
6
c
S
B LCL
S CL
c
S
B UCL

2
d
R


4
c
S

S A x
n
c
S
x LCL
x CL
S A x
n
c
S
x UCL
3
4
3
4
1
3
1
3

+ +
72
CARTE DI CONTOLLO PER ATTRIBUTI
Molte caratteristiche relative alla qualit di un prodotto non possono essere rappresentate
numericamente, ma in termini di difettoso o non difettoso. Caratteristiche di questo tipo prendono
il nome di attributi.
Esistono 3 carte di controllo per attributi ampiamente usate:
- carta di controllo per frazioni di non conformi o di prodotto difettoso ottenuto da un
processo produttivo, detta anche carta p
- carta di controllo per non conformit, o carta c, stata ideata per trattare il caso in cui
pi semplice esaminare il numero di difetti o di non conformit osservate piuttosto che la
frazione di non conformi
- carta di controllo per non conformit per unit, o carta u, utile quando il numero medio
di conformit per unit costituisce un riferimento pi conveniente per il controllo di un
processo
Le carte di controllo per attributi non forniscono tutte le informazioni che vengono fornite dalle
carte di controllo per variabili. Basta un difetto fondamentale per il prodotto perch il processo sia
fuori controllo, al contrario, una serie di difetti ritenuti di poco conto non intaccano la produzione.
CARTA P
Isolo, trovo un difetto tale da far uscire di produzione il prodotto.
p la probabilit che il difetto si presenti sullelemento (dato dallesperienza).
Qual la probabilit che quel campione abbia un certo numero di elementi con quel difetto?
La probabilit che si verifichi un evento tot volte su n tentativi -> distribuzione binomiale
(Bernulli):
Hp: p uguale per tutti gli elementi
x n x
p p
x
n
x D P

,
_

) 1 ( ) (
con x = 0, 1, , n
dove
D il numero di difettosi sul campione di dimensione n
X il numero di difettosi accettabili (imposto)
)! ( !
!
x n x
n
x
n

,
_

noto che la media e la varianza della v.a. D sono rispettivamente np e np(1-p) e non dipendono da
x ma solamente da p.
Ora posso costruire la carta: vi sono 2 casi
p nota
n
p p
p LCL
p CL
n
p p
p UCL
) 1 (
3
) 1 (
3

+
p non nota, bisogna stimarla
Si prendono m campioni (20 30) ciascuno con n elementi e calcolo D
i
:
73
n
D
p
D
D
i
i
n

.
1
(statistica frazionaria o sequenziale)
m
p
mn
Di
p
m
i
i
m
i



1 1

Ricostruisco la carta di controllo:


n
p p
p LCL
p CL
n
p p
p UCL
) 1 (
3
) 1 (
3

+
C una terza via: p volutamente non si conosce ma lo si pone. La carta ottenuta bisogna
interpretarla come una carta cautela perch difficile conoscere a priori il vero valore di p.
Vedi esempio pag. 209 210 211 (qualit).
Progettazione di una carta di controllo per frazione di non conformi (Carta p)
3 sono i parametri che caratterizzano una carta di controllo per frazione di non conformi:
- dimensione campionaria
- frequenza di campionamento
- ampiezza dei limiti di controllo
Per la scelta della dimensione n del campione, possono essere seguite vie diverse. Se p molto
piccolo, n dovr essere molto grande per trovare nel campione almeno un elemento difettoso,
oppure bisogner progettare i limiti di controllo in modo tale che la sola presenza di un elemento
difettoso produca uninformazione di fuori controllo.
Esempio:
se p = 0,01 e n = 8, il limite superiore :
1155 , 0
8
) 99 , 0 )( 01 , 0 (
3 01 , 0
) 1 (
3 +

+
n
p p
p UCL
dove p la probabilit di difettosit di un elemento del campione.
Se c un solo elemento difettoso nel campione , si ha:
p p 125 , 0
8
1

il valore stimato pi alto di quello dato.


Da cui si ottiene che il processo classificabile come fuori controllo.
Per evitare tale inconveniente possibile scegliere un valore di n tale che mi dia la possibilit di
rilevare la presenza di qualche elemento difettoso senza andare sempre fuori controllo.
Posto sempre p = 0,01 si supponga di volere che la probabilit di avere almeno ununit non
conforme nel campione sia >= 0,95.
Se D indica il numero di unit non conformi, allora si dovr cercare n tale che 95 , 0 } 1 { D P .
Usando lapprossimazione della variabile casuale di Poisson alla binomiale, si trova, usando la
tavola di probabilit cumulata della Poisson, che np deve essere maggiore di 3.
Di conseguenza, avendo p = 0,01 n dovr essere 300.
Duncan (1986): posto p = 0,01 si supponga di voler cercare n tale che la probabilit di osservare uno
scostamento di p al valore 0,05 sia pari al 50%. Ipotizzando che sia accettabile lapprossimazione
74
con la distribuzione normale della binomiale e indicando con lampiezza dello scostamento si ha
che n deve soddisfare la seguente espressione:
n
p p
L
) 1 (

da cui n risulta:
) 1 (
2
p p
L
n
,
_

Ipotizzando di usare limiti di controllo a 3 sigma:


56 ) 99 , 0 )( 01 , 0 (
04 , 0
3
2

,
_

n
Sempre nel caso che la frazione di non conformi sia molto piccola, si pu scegliere di avere una
carta di controllo con limite inferiore positivo, cos da costringere ad indagini ulteriori ogni volta
che il campione contenga un numero troppo piccolo di non conformi.
Poich si chiede che valga:
0
) 1 (
>


n
p p
L p LCL
ne segue che:
2
) 1 (
L
p
p
n

>
CARTA DI CONTROLLO np
possibili costruire la carta di controllo per numero di non conformi e non per frazione di non
conformi e viene chiama carta np. I suoi parametri sono:
) 1 ( 3
) 1 ( 3
p np np LCL
np CL
p np np UCL

+
dove, se non sono stati assegnati valori standard a p, si provveder ad assegnargli una stima.
Si ragiona in unit: si ha a disposizione il valore assoluto dei difettosi.
DIMENSIONE CAMPIONARIA VARIABILE
Se la dimensione campionaria variabile (ad es. perch la produzione non produce sempre lo stesso
numero di pezzi) anche i limiti di controllo di una carta per frazione di non conformi dovr
cambiare. Vi sono 3 criteri:
Limiti di controllo ad ampiezza variabile
Calcolo i limiti per ogni ampiezza campionaria.
Esempio (tabella 6.4):
i
p
i
p
n
p p
p p LCL
n
p p
p p UCL
) 1 (
3 3
) 1 (
3 3

+ +

75
Limiti di controllo basati sulla dimensione campionaria media
Costruisco i limiti di controllo sulla base della dimensione campionaria media e ottengo cos limiti
di controllo approssimati.
Supponendo m=25:
n
p p
p LCL
n
p p
p UCL
n
n
n
i
i
) 1 (
3
) 1 (
3
25
1

Carta di controllo con valori standardizzati


Il terzo approccio consiste nellutilizzare valori standardizzati. La carta risultante avr una linea
centrale posizionata sul valore 0 e i limiti UCL ed LCL rispettivamente a +3 e -3. la variabile da
rappresentare sulla carta sar:
i
i
i
n
p p
p p
Z
) 1 (

dove
p il valore imposto, il valore del processo sotto controllo
i
p
la stima
i
i
n
D
una v.a. con deviazione standard
i
n
p p ) 1 (
CARTA C
Ununit non conforme un prodotto che non soddisfa una o pi caratteristiche qualitative ->
difetto o non conformit.
possibile costruire una carta di controllo sia per il numero totale di non conformit per unit
prodotta sia per il numero medio di non conformit.
Procedure con dimensioni campionarie costanti
Il campione in genere costituito da ununica unit di riferimento che pu essere anche una sola
parte dellintero prodotto.
Si ipotizzi che il numero di difetti abbia distribuzione di Poisson, ovvero:
!
) (
x
c e
x p
x c

con x = 0, 1, 2,
dove
x il numero di non conformit
c > 0 il parametro della distribuzione di Poisson:
c x Var x E } { } {
non dipendono da numeri,
possiamo fare tutto indipendentemente dal caso specifico.
I limiti 3 sigma della carta di controllo per non conformit sono:
c c LCL
c CL
c c UCL
3
3

+
76
Se nessun valore di riferimento viene assegnato possibile stimare c col numero medio di difetti
rilevanti in un campione preliminare ( c ). In questo caso i limiti saranno:
c c LCL
c CL
c c UCL
3
3

+
Vedi esempio pag. 227 228 229 (qualit).
Scelta della dimensione campionaria: CARTA U
1 metodo: se ho c difetti in n elementi -> moltiplico c per n e ricado nel caso precedente.
2 metodo: si definisce una carta basata sul numero medio di non conformit per unit di riferimento.
Se vengono individuate complessivamente c non conformit in n unit di riferimento, allora la
media del numero di non conformit per unit di riferimento :
n
c
u
dove se c ha distribuzione di Poisson anche u avr distribuzione di Poisson e i parametri della carta
saranno:
n
u
u LCL
u CL
n
u
u UCL
3
3

+
dove u il numero medio di u rilevato nelle ispezioni preliminari.
Vedi esempio pag. 232 233.
77

Potrebbero piacerti anche