Sei sulla pagina 1di 43

QUALITÀ E SIX SIGMA

LA QUALITÀ

La qualità può essere definita come una conformità alle specifiche o una
soddisfazione delle esigenze dei clienti.
L’ISO, con la norma ISO 9000, ha proposto la seguente definizione: la qualità è
l'insieme delle proprietà e delle caratteristiche di un prodotto o di un servizio che
conferiscono ad esso la capacità di soddisfare esigenze espresse e implicite.
Per i prodotti manifatturieri tali esigenze possono riguardare l’economicità, la
facilità di uso e manutenzione, la sicurezza, la disponibilità, l'affidabilità, e l’impatto
ambientale. In molti casi le esigenze possono modificarsi nel tempo; ne segue la
revisione periodica delle prestazioni offerte dal prodotto.
Con David Garvin le varie definizioni di qualità vengono suddivise in diverse
categorie; si parla infatti di qualità trascendentale (soggettiva), product-based,
user-based, process-based, value-based (confronto tra utilità e prezzo).

I COSTI DELLA QUALITÀ

Il costo della qualità viene calcolato nel modo seguente:

𝑪𝒅𝑸 = 𝑪𝒅𝑵𝑸 + 𝑪𝒅𝑷 + 𝑪𝒅𝑪

• Il costo della non qualità esternamente è generato dall’insoddisfazione del


cliente e porta a costi di assistenza, riparazioni e sostituzioni in garanzia, e
perdite di immagine; internamente invece il CdNQ è generato dalla non
conformità alle specifiche interne e porta a ritardi e costi di rilavorazione per
difetti e scarti.

• Il costo della prevenzione comprende le spese sostenute per il Poka Yoke, per
la formazione e l’addestramento degli operatori, e per la definizione di
procedure di ispezione preventiva.

• Il costo del controllo comprende le spese per l’acquisizione di strumenti di


misura, per lo sviluppo di metodi e procedure di controllo, per controlli su
materiali provenienti dai fornitori, e per i controlli o collaudi dei prodotti in
fabbricazione (il controllo è la verifica del rispetto delle specifiche per ogni
componente, il collaudo è la verifica del funzionamento del prodotto finale).
IL METODO SIX SIGMA

La variabilità del processo offre opportunità di errore, e pertanto deve essere


ridotta e minimizzata per evitare il rischio di difettosità e la conseguente bassa
soddisfazione del cliente; se nell’ambito della Lean Production il focus principale è lo
spreco, in ambito di qualità invece è la variabilità.
Per minimizzare la variabilità del processo si utilizza una metodologia chiamata Six
Sigma, nata in Motorola negli anni ’80: la teoria afferma che l'obiettivo da
raggiungere è quello di avere sei deviazioni standard tra il limite superiore di
specifica e il centro della produzione e altrettanto tra questo e il limite inferiore; in
altre parole, la produzione deve avere una deviazione standard non superiore a un
dodicesimo della larghezza delle specifiche. Nella pratica, questo principio spesso
non viene applicato in modo rigoroso; la metodologia viene quindi vista come un
metodo generale per la riduzione dei difetti.
Six Sigma statisticamente rappresenta un processo perfetto: in un processo Six
Sigma ci sono 3,4 difetti per milione di opportunità (precisione al 99,9996%), mentre
per esempio in un processo a cinque sigma ci sono 233 DPMO.
Nella metodologia Six Sigma si usano come metriche di difettosità DPMO (pezzi
difettosi per un milione di pezzi controllati), PPM (pezzi difettosi per un milione di
pezzi prodotti), e DPU (pezzi difettosi per pezzi di un campione).

LEAN VS SIX SIGMA

Sia la Lean che Six Sigma perseguono il miglioramento continuo dei processi
aziendali: il Kaizen (cambiare in meglio) vuole ridurre le cause di inefficienza del
processo per dare più valore al cliente in minor tempo, mentre il Six Sigma vuole
raggiungere risultati eccellenti in termini di capacità di processo e ridurre le cause di
inefficacia.
Conviene usare tecniche Lean quando si vuole eliminare le attività non a valore,
quando si hanno problemi legati alle scorte, o quando ci sono tempi di fermo per
guasti o per setup lunghi; conviene invece usare Six Sigma quando si hanno
problemi legati alla bassa qualità dei prodotti, quando ci sono eccessi di
rilavorazioni, o quando i processi non sono costanti.
Conviene usare entrambe le metodologie quando il prodotto/servizio è
insoddisfacente, quando la produttività è bassa, o quando bisogna agire sui tempi di
attesa.
Inoltre, prima di usare Six Sigma, conviene valutare il gap che intercorre tra l’attuale
livello di qualità e lo standard desiderato: se questo gap richiede un intervento che
comporta la realizzazione di un progetto che ha una durata di almeno 4 o 6 mesi,
allora conviene utilizzare Six Sigma.
LA SCELTA DEI PROGETTI E LA STRUTTURA ORGANIZZATIVA

Generalmente ogni anno vengono decisi i progetti che verranno svolti nel corso
dell’anno successivo. Il Project Portfolio è un elenco di potenziali progetti definiti
dai manager (Champion) e dagli esperti Six Sigma (Black Belt), che riguardano
problemi da risolvere o opportunità da cogliere.
Per ciascun progetto potenziale sono definiti il livello di complessità (tempo
necessario, risorse impiegate, numero di funzioni e processi) e l’impatto atteso sul
business in termini economici.

La struttura organizzativa di riferimento per i programmi Six Sigma è costituita da:

• Lo Steering Committee, un comitato di executive dell’azienda che


rappresenta un organo che guida e coordina i progetti con riunioni periodiche,
assicurandone l’allineamento con la strategia aziendale.

• Il Champion, una figura solitamente ricoperta da un dirigente che fa da


supervisore di un insieme di progetti e da interfaccia tra lo Steering
Committee e i gruppi di miglioramento. Il Champion garantisce l’allineamento
dell’operatività dei progetti alla strategia, gestendo le persone che possono
contribuire al progetto.

• I Master Black Belt, massimi esperti della metodologia Six Sigma responsabili
della formazione e del coaching nel caso di problematiche complesse.

• Le Black Belt, figure dedicate a tempo pieno al programma Six Sigma che
operano contemporaneamente su più progetti di cui spesso sono responsabili
(project leader), coordinando le altre figure; essi conoscono la metodologia e
le tecniche più avanzate e supportano le altre figure nella scelta delle
metodologie più appropriate.

• Le Green Belt, figure operative gestite dai Black Belt che dedicano circa il 20%
del proprio tempo ai progetti di miglioramento e sono responsabili di
conseguire alcuni risultati di progetto; essi sono preparati sulla metodologia,
conoscono e sanno usare gli strumenti.

• Le Yellow e White Belt, figure operative con formazione di base che sono
coinvolte saltuariamente e sono formate sulle metodologie specifiche
all’occorrenza.
LA PROCEDURA DMAIC

La gestione dei progetti di miglioramento di un’iniziativa Six Sigma segue la


procedura DMAIC, costituita da cinque fasi in sequenza; ciascuna delle varie fasi ha
l’obiettivo di rispondere a una domanda sfruttando un set di strumenti, e il suo
output è funzionale alla fase successiva.
Con le prime due fasi si identifica l’oggetto del progetto di miglioramento (Define) e
si determina quanto il problema sia grande (Measure). Successivamente si
identificano le vere cause del problema sviluppando ipotesi su relazioni causali tra
input e output (Analyse), si cerca di comprendere come si può migliorare
rimuovendo le cause dei difetti (Improve), e si mantiene il miglioramento effettuato
implementando diversi strumenti di controllo (Control).

LA PROCEDURA DMADV

Nel caso della completa riprogettazione o sostituzione di un prodotto/processo, la


procedura più adeguata è invece la DMADV.
Le prime tre fasi di questa metodologia sono le stesse della DMAIC, mentre le ultime
due fasi si occupano della progettazione e realizzazione di quanto è necessario al
nuovo processo (Design) e della verifica di quanto realizzato attraverso controlli e
test pilota (Verify).
DMAIC - DEFINE

Nel dettaglio, gli obiettivi della fase di Define consistono nel capire cosa migliorare
(VoC Tree e Modello di Kano), approfondire e definire i confini del processo (SIPOC,
Process Mapping), pianificare il progetto (Gantt), e gestire le informazioni di
progetto (Project Charter):

• Il Voice of Customer Tree (qualità soggettiva) è uno strumento che permette


di definire cosa interessa al cliente sviluppando dei sistemi misurabili. I
principali desiderata dei clienti sono generalmente qualità, costo, tempi di
consegna, assistenza, sicurezza, e responsabilità dell’azienda (etica e
sostenibilità).
L’Affinity Diagram è uno strumento utilizzato per generare idee e di
conseguenza per creare categorie di requisiti del cliente: ogni individuo
dell’organizzazione scrive le proprie idee su un foglietto, dopodiché tutti i
fogli vengono raggruppati in categorie di idee comuni, le quali a loro volta
vengono raggruppate in categorie di desiderata dei clienti e infine in un’unica
sintesi mediante un diagramma ad albero.
Critical To Quality (CTQ) sono le caratteristiche chiave misurabili di un
prodotto/servizio/processo, e rappresentano le specifiche che devono essere
raggiunte per soddisfare le aspettative del cliente. L’albero CTQ è uno
strumento che permette di passare da indicazioni generali a specifiche
dettagliate assicurando che tutti gli aspetti importanti vengano identificati.
Tutte le caratteristiche CTQ identificate vengono poi misurate attraverso i KPI.
• Il Modello di Kano è uno strumento che consente di classificare le aspettative
del cliente, in funzione della diversa percezione del cliente, allo scopo di
indirizzare le attività di miglioramento.
Kano individua tre gruppi di fabbisogni CTQ: caratteristiche implicite (se
erogate al di sotto delle attese del cliente generano insoddisfazione, se
erogate al di sopra delle attese del cliente non generano maggiore
soddisfazione), caratteristiche esplicite (maggiore è il livello di qualità di
queste caratteristiche, maggiore è la soddisfazione del cliente), e
caratteristiche eccitanti (un livello di qualità inferiore alle aspettative non
genera insoddisfazione, mentre un livello di qualità inaspettatamente alto
soddisfa molto il cliente).

Il Modello di Kano trova anche una definizione particolare per i servizi:


• Definire il cosiddetto project ring o project scope serve per chiarire i processi e
le attività che sono coinvolte dal progetto di miglioramento.
Il SIPOC (Supplier – Input – Process – Output - Customer) è un diagramma che
serve per distinguere gli elementi che sono oggetto di analisi da quelli che sono
fuori dal ring di progetto. La sua definizione richiede la partecipazione di un
Process Owner e di uno o più Subject Matter Expert che possano portare un
punto di vista più operativo.

• Il Process Mapping è quella fase in cui si fa la mappatura del processo,


costruendo una matrice Is/Is Not nella quale si distingue ciò su cui bisogna
concentrarsi da ciò che non riguarda il progetto.

• Il diagramma di Gantt è una delle metodologie di Project Evaluation &


Review Techniques (PERT) più utilizzate. Il Gantt serve per pianificare e
monitorare la sequenza delle attività necessarie per la gestione di un
progetto: può partire da uno schema di progetto semplificato fino a
comprendere l’esplosione di tutte le attività di progetto.
• Il Project Charter è un documento sintetico che riporta le principali
informazioni in merito all’implementazione di un progetto Six Sigma: è il
documento di riferimento per l’intero svolgimento del progetto.
Questo documento riporta l’impegno che il team leader (GB/BB) prende nei
confronti dello Sponsor in termini di saving, scadenze e review, e personale
coinvolto. Il Project Charter viene redatto con un modello A3 (un foglio di
carta strutturato e realizzato nel formato cartaceo A3) e deve essere
continuamente aggiornato per verificare l’allineamento con gli obiettivi
prefissati.

QUALITY FUNCTION DEPLOYMENT

Il Quality Function Deployment (QFD) è una tecnica usata a supporto del


miglioramento di un prodotto. Questa tecnica si basa sull’utilizzo della House Of
Quality, una tabella che assume proprio la forma di una casa:

Il primo passo consiste nell’identificare il target della House Of Quality e i


requirements del cliente per quel prodotto/servizio, attribuendo ad ogni
requirement un valore di importanza relativa compreso tra 1 e 5. Successivamente
si attribuisce una valutazione al livello di soddisfazione di ogni requirement
secondo la percezione del cliente, confrontandosi anche con i principali competitor,
e dunque si calcola l’indice gap e il valore di importanza assoluta:
𝑴𝒂𝒙(𝒕𝒖𝒕𝒕𝒊 𝒊 𝒗𝒐𝒕𝒊)
𝑰𝒏𝒅𝒊𝒄𝒆 𝑮𝒂𝒑 =
𝒏𝒐𝒔𝒕𝒓𝒐 𝒗𝒐𝒕𝒐

𝑰𝒎𝒑. 𝑨𝒔𝒔. = 𝑰𝒎𝒑. 𝑹𝒆𝒍. ∗ 𝑰𝒏𝒅𝒊𝒄𝒆 𝑮𝒂𝒑

A questo punto si identificano le principali caratteristiche funzionali (o tecniche) e si


attribuisce un valore di relazione tra ogni caratteristica e ogni requirement (0, 1, 3,
9), dopo aver realizzato la matrice di correlazione delle caratteristiche funzionali
(che corrisponde al tetto della casa).
L’ultimo passo consiste nel determinare l’importanza complessiva di ogni
caratteristica funzionale:

𝑰𝒎𝒑. 𝑪𝑭 = BC𝑹𝒆𝒍𝑪𝑭,𝑹𝒆𝒒 ∗ 𝑰𝒎𝒑. 𝑨𝒔𝒔. D

VALUE ENGINEERING

Con il Value Engineering (qualità oggettiva) si confronta il valore economico del


prodotto stabilito dal produttore con quello stabilito dal cliente, e si verifica se ciò
che si sta spendendo per una caratteristica o un componente del prodotto è
coerente con l’importanza della funzione che svolge (funzione principale,
secondaria, da vincolo, o obbligata).
Per attribuire un valore economico ad un prodotto bisogna descrivere il prodotto
stesso, identificare le sue componenti e funzioni, determinare il costo di ogni
componente e funzione, e stabilire se è possibile svolgere le stesse funzioni in un
altro modo. Il costo di una funzione dipende dal costo dei componenti che assolvono
a quella funzione: ognuno di questi componenti però generalmente assolve a più
funzioni, e di conseguenza è necessario determinare in quali percentuali il suo costo
viene spartito tra le varie funzioni.
Quando è invece il cliente ad attribuire il valore economico ad un prodotto, egli si
chiede quali sono le funzioni che sta acquistando, quali sono le funzioni che
effettivamente desidera o che gli servono, e se esiste un prodotto ad un costo
inferiore in grado di fornire le stesse prestazioni.
Una funzione è formata da un predicato verbale e da un complemento (per esempio
una matita non serve per scrivere ma per tracciare segni). Ogni funzione viene
classificata in principale (assolve specificatamente allo scopo prioritario del
prodotto/servizio), secondaria (assolve ad un’esigenza complementare), da vincolo
(risponde ad un vincolo tecnico), e obbligata (risponde ad un vincolo normativo
imposto).
LA RISK ANALYSIS

La risk analysis (analisi del rischio) è una tecnica che considera il rischio come
elemento fondamentale per guidare le scelte progettuali di un prodotto o di un
servizio. Il termine più corretto con il quale chiamare il processo completo di analisi
e valutazione dei rischi è in realtà risk assessment; la risk analysis in sé si
completerebbe con il terzo passo, ma è comune attribuire questo termine all’intero
processo seguente:

• Individuazione del sistema da esaminare.

• Identificazione dei rischi.

• Stima dei rischi (risk estimation) e valutazione dei rischi (risk evaluation).

• Eventuali azioni per la riduzione del rischio.

• Raggiunto il rischio tollerabile, predisposizione di informazioni sui rischi


residui e sulle misure appropriate per ridurli.

Lo strumento principalmente utilizzato per l’identificazione dei rischi è il diagramma


causa-effetto. Alle “costole” del diagramma si associano i fattori principali che
possono generare particolari effetti (rischi). Per comodità e in funzione del sistema
che si sta esaminando, tali fattori si possono aggregare in diverse categorie chiamate
aree problematiche: in ambito industriale le aree problematiche sono
principalmente quattro, ossia le 4M (men, machines, materials, methods). In altri
contesti le aree problematiche sono le 4P (place, procedure, people, policies) o passi
di un processo (progettazione, produzione, vendita, spedizione, assistenza).

Per stimare e valutare il rischio di un sistema si procede seguendo due approcci


complementari tra di loro: l’approccio Forward (si parte da un evento che può
accadere ad un elemento del sistema e si procede in avanti per andare ad analizzare
che tipo di inconveniente può generare nel sistema) e l’approccio Backward (si parte
dall’inconveniente del sistema e si vanno a cercare le possibili cause che lo
determinano). Nell’approccio Forward le tecniche utilizzate sono la FMEA (Failure
Mode and Effect Analysis) e la FMECA (Failure Mode, Effect and Criticality
Analysis), mentre nell’approccio Backward si usa la tecnica FTA (Fault Tree
Analysis). Per ottenere una valutazione del rischio completa bisogna adottare
entrambi gli approcci ed entrambe le tecniche, per poi integrarle tra di loro.
FAULT TREE ANALYSIS

La FTA è una tecnica che correla, attraverso porte logiche (AND e OR), gli eventi che
provocano un determinato evento finale. Le relazioni che in questo modo si
vengono a creare permettono di costruire un modello ad albero:

La probabilità del top event sarà pari a:

𝑷𝑻𝒐𝒑𝑬𝒗𝒆𝒏𝒕 = 𝑬𝟏 + 𝑬𝟐 + 𝑬𝟑 + 𝑬𝟔 + 𝑬𝟕 ∗ 𝑬𝟖
FAILURE MODE, EFFECTS AND CRITICALITY ANALYSIS

La FMEA/FMECA venne inizialmente proposta e sviluppata per la progettazione


affidabilistica di vettori aerospaziali e di manufatti ad alto rischio per la vita umana;
la sua applicazione divenne poi gradualmente una procedura comunemente usata
per la garanzia della qualità nella progettazione di prodotti (FMECA di prodotto) e di
processi di produzione (FMECA di processo).
La differenza tra FMEA e FMECA consiste nel fatto che con la prima si può condurre
un’analisi solo qualitativa di difetti o malfunzionamenti (risk estimation), mentre la
seconda conduce un’analisi quali-quantitativa completando il processo con una
valutazione della criticità di ogni difetto o malfunzionamento (risk evaluation).
Nella prassi comune si usa il termine FMEA anche per indicare la FMECA.
Procedendo con la FMECA, si introduce l’analisi di criticità: la criticità di ogni tipo di
malfunzionamento/difetto del componente del prodotto è valutata mediante un
indice detto Indice di Priorità di Rischio (IPR), determinato nel seguente modo:

𝑰𝑷𝑹 = 𝑷 ∗ 𝑺 ∗ 𝑫

Nella formula appena rappresentata si prendono in considerazione la probabilità di


accadimento (P) del malfunzionamento/difetto base, la severità (S) degli effetti del
malfunzionamento/difetto base, e la rilevabilità (D) del malfunzionamento/difetto
base. Ai tre parametri che concorrono nella determinazione dell'IPR si attribuiscono
dunque punteggi sulla base di scale predefinite di valori. Un valore alto di P
rappresenta una probabilità di accadimento alta, mentre al contrario un valore alto
di D rappresenta una rilevabilità bassa (quindi sia P che D devono essere
minimizzati): aumentando i controlli sui parametri del processo si riduce il valore di
P, mentre aumentando i controlli sui parametri del prodotto si riduce il valore di D.
Per svolgere efficacemente una FMECA si utilizzano normalmente schede
strutturate, una per ciascun componente e/o fase di lavorazione:
CRITERI PER L’ATTRIBUZIONE DEI PUNTEGGI AI PARAMETRI PSD

Generalmente i punteggi attribuiti ai parametri P, S e D sono valori compresi in una


scala da 1 a 10. Sebbene sia impossibile definire dei criteri di valenza generale per
l’attribuzione dei punteggi ai tre parametri, rimane comunque possibile seguire
criteri che si fondano su basi sia quantitative che qualitative:

• Un esempio di elemento di giudizio per il parametro P nel caso di operazioni


svolte manualmente consiste nella classificazione della difficoltà
dell’operazione come alta o bassa; un secondo elemento di giudizio legato alla
macchina operatrice è la politica di manutenzione cui è sottoposta, che può
essere correttiva, migliorativa, o preventiva. Tra tutte le sei combinazioni
possibili, quella che garantisce un valore di P più basso è data da
un’operazione facile e una manutenzione preventiva.

• Per il parametro S si può considerare se il malfunzionamento/difetto minaccia


la sicurezza dell’operatore, elemento che può essere semplicemente
caratterizzato da un sì o da un no. Quindi tra le due combinazioni possibili,
ovviamente, quella che garantisce un valore di S più basso è data da una
sicurezza dell’operatore non a rischio.

• Un elemento di giudizio appropriato per il parametro D, anch’esso di tipo


on/off, è la presenza di un test che rilevi il malfunzionamento/difetto; un altro
ancora è il tipo di controllo effettuato, che può essere un controllo del 100%
della produzione, un controllo statistico, o un’assenza di controllo.
Le combinazioni possibili sono teoricamente sei; tuttavia quelle ammissibili
sono solamente tre (assenza di stazione di test, stazione di test con controllo
100%, o stazione di test con controllo statistico). Tra tutte le tre combinazioni
ammissibili, quella che garantisce un valore di D più basso (e quindi una
rilevabilità concettualmente più alta) è data da una stazione di test con
controllo 100%.
LA PROCESS CAPABILITY

La process capability (capacità di processo) mira a definire ciò che è necessario per
rispettare le specifiche di processo. Il problema fondamentale per garantire il
rispetto delle specifiche progettuali in produzione è la scelta del processo di
produzione capace.
Il controllo è l’elemento fondamentale che deve essere implementato per verificare
il rispetto delle specifiche: è importante prediligere una modalità di controllo a
priori piuttosto che a posteriori, perché in questo modo si riesce a prevenire la
manifestazione di un problema.

LA TOLLERANZA INDUSTRIALE

Ogni processo è caratterizzato dalla sua tolleranza industriale, ossia il range che
intercorre tra il minimo valore di risultato ottenibile e il massimo valore di risultato
ottenibile di un determinato elemento del processo (tecnologia, mezzi, materiale,
operatori). La tolleranza industriale deve rispettare la tolleranza progettuale
imposta sulle specifiche/esigenze espresse in fase di progettazione: il confronto tra
queste due grandezze consente di valutare la capacità di processo e di decidere se
impiegarlo o meno per le operazioni da svolgere.

𝑺𝒑𝒆𝒄𝒊𝒇𝒊𝒄𝒂 (𝒄𝒂𝒎𝒑𝒐 𝒅𝒊 𝒕𝒐𝒍𝒍𝒆𝒓𝒂𝒏𝒛𝒂 𝒑𝒓𝒐𝒈𝒆𝒕𝒕𝒖𝒂𝒍𝒆) 𝑳𝑺𝑺 − 𝑳𝑺𝑰


𝑪𝑷 = =
𝑹𝒊𝒔𝒖𝒍𝒕𝒂𝒕𝒐 (𝒄𝒂𝒎𝒑𝒐 𝒅𝒊 𝒕𝒐𝒍𝒍𝒆𝒓𝒂𝒏𝒛𝒂 𝒊𝒏𝒅𝒖𝒔𝒕𝒓𝒊𝒂𝒍𝒆) 𝟔𝝈

Un processo di produzione è capace se la sua capacità di processo ha un valore


maggiore o uguale a 1. Un valore di CP esattamente uguale a 1 indica che non sono
ammessi ulteriori errori, neanche di minima entità. Un valore di capacità di processo
troppo alto indica però che c’è un eccesso di risorse impiegate per mantenere il
risultato nel campo di tolleranza industriale, perché significa che il range di
tolleranza di progetto consentirebbe di mantenere un range di tolleranza industriale
anche più ampio (con un conseguente impiego minore di risorse).

Le componenti della tolleranza industriale sono le seguenti:

• La tolleranza naturale, ossia la variabilità di operare della macchina


operatrice determinata nella fase di collaudo del macchinario stesso.
Per convenzione si assume che la tolleranza naturale abbia una ampiezza pari
a sei sigma: 𝑻𝑵𝑨𝑻 = ±𝟑𝝈
• La variazione media del materiale, che può dipendere da irregolarità della
forma e delle dimensioni, da proprietà meccaniche, dalla composizione
chimica, ecc.

• La tolleranza di costruzione del mezzo operatore (utensile), ossia la


tolleranza riferita al disegno costruttivo dell’utensile.

• La deriva sistematica, ossia il fenomeno per il quale i risultati variano


tendenzialmente con il volume cumulato della produzione realizzato con lo
stesso mezzo operatore, a causa dell’usura dell’utensile stesso. Se le tre
componenti menzionate precedentemente devono essere considerate
costanti in relazione al volume cumulato della produzione, il fenomeno della
deriva invece ha un andamento lineare crescente.

Ognuna di queste componenti, per essere migliorata, prevede l’intervento di


determinate funzioni o enti aziendali: la manutenzione per la tolleranza naturale, il
reparto acquisti e fornitori per la variazione media del materiale, i reparti di
progettazione e l’attrezzeria per la tolleranza di costruzione del mezzo operatore, e
infine i reparti di progettazione e i trattamenti per la deriva sistematica.

La differenza che esiste tra la tolleranza industriale e la tolleranza di progetto


rappresenta il campo di variazione del risultato, e se non è pari a zero può
sostenere la deriva sistematica.
Nella gestione di un processo capace rimane però una funzione che deve essere
svolta dall’operatore per evitare produzione di scarto: l’operatore deve verificare
che l’estremo superiore della tolleranza industriale sia minore dell’estremo
superiore della tolleranza di progetto e che l’estremo inferiore della tolleranza
industriale sia maggiore dell’estremo inferiore della tolleranza di progetto (il campo
di tolleranza industriale deve essere compreso nel campo di tolleranza di progetto
mantenendo la stessa scala).
La capacità di processo ex post (a posteriori) deve essere almeno di 1,33 (ma, come
detto in precedenza, non deve essere troppo maggiore di questo valore perché
altrimenti significa che c’è uno spreco di risorse).
MODELLI DI SISTEMI DI PRODUZIONE

Gli elementi che condizionano il risultato finale di un sistema di produzione, da un


punto di vista del controllo della qualità, sono la qualità della fornitura QF, la
qualità della capacità di processo (che dipende dalla probabilità di introdurre
difettosità nella fase di lavorazione), e l’efficienza del test (che dipende dalla
modalità di svolgimento del test e dall’utilizzo degli strumenti giusti).

Un modello di sistema di produzione è rappresentato usando le stazioni elementari,


collegate tra di loro in modo tale da rappresentare l'intero sistema. Ogni stazione
agisce in modo diverso sui flussi ed è descritta da un'equazione matematica che
definisce le caratteristiche dei flussi uscenti rispetto a quelle dei flussi entranti (e
quindi la modifica avvenuta). Nei paragrafi seguenti verranno riportate le diverse
tipologie di stazioni elementari esistenti.

LE STAZIONI DI INPUT/OUTPUT

Le stazioni di input/output (I/O), sono quelle che immettono/tolgono dei flussi dal
sistema:

• Una stazione di input introduce parti disassemblate all’inizio o durante il


processo di lavorazione.

𝑮𝑶 (𝒌) = 𝟏 − C𝟏 − 𝑸𝑭(𝒌)D = 𝑸𝑭(𝒌)

• Una stazione di output scarica gli elementi completi alla fine del processo di
lavorazione.
𝒏

𝑮𝑰 (𝑲) >= Y 𝑮𝑰 (𝒌)


𝒌3𝟏

• Una stazione di kill elimina durante il processo le parti difettose o gli elementi
disassemblati difettosi.

𝑮 𝑰 (𝒌 ) = 𝟎
LE STAZIONI STEP

Le stazioni step sono quelle stazioni nelle quali si compie una lavorazione sui flussi; il
flusso uscente è pari in dimensioni al flusso entrante:

• Una stazione di lavorazione (WRK) compie la lavorazione di una parte.

𝑮𝑶 (𝒌) = 𝑮𝑰 (𝒌) ∗ C𝟏 − 𝑨(𝒌)D

𝑮𝑶 (𝑾𝑹𝑲) = 𝟏 − 𝑨(𝑾𝑹𝑲)

• Una stazione di assemblaggio (ASM) assembla due parti.

𝑮𝑶 (𝒌) = 𝑮𝑰 (𝒌) ∗ C𝟏 − 𝑨(𝒌)D

𝑮𝑶 (𝑨𝑺𝑴) = 𝟏 − 𝑨(𝑨𝑺𝑴)

• Una stazione di disassemblaggio (DIS) disassembla due parti.

𝑮𝑶 (𝒌) = 𝑮𝑰 (𝒌) ∗ C𝟏 − 𝑨(𝒌)D

In questo caso k è esteso a tutte le entità a monte della stazione tranne che a
quella di assemblaggio che scompare con il disassemblaggio (la GO(ASM) non
viene considerata).
LE STAZIONI NODO

Le stazioni nodo sono quelle stazioni nelle quali si uniscono o suddividono i flussi a
seguito dell’esito di controlli o per altri motivi tecnici:

• Una stazione di connessione flussi unisce in un flusso i flussi di parti uguali, e


il flusso uscente è pari alla somma dei flussi entranti.

𝑭𝑶 = 𝑭𝑰𝟏 + 𝑭𝑰𝟐

𝑭𝑰𝟏 ∗ 𝑮𝑰𝟏 (𝒌) + 𝑭𝑰𝟐 ∗ 𝑮𝑰𝟐 (𝒌)


𝑮 𝑶 ( 𝒌) =
𝑭𝑰𝟏 + 𝑭𝑰𝟐

• Una stazione di suddivisione flussi suddivide in due flussi i flussi di parti


uguali, e la somma dei flussi uscenti è pari al flusso entrante.

𝑭𝑰 = 𝑭𝑶𝟏 + 𝑭𝑶𝟐

𝑮𝑶𝟏 (𝒌) = 𝑮𝑶𝟐 (𝒌) = 𝑮𝑰 (𝒌)

• Una stazione di test suddivide il flusso entrante in un flusso delle parti buone
e un flusso delle parti difettose; la somma dei flussi uscenti è pari al flusso
entrante.

𝑭𝑶6𝑮𝑶𝑶𝑫 = 𝑭𝑰 − 𝑭𝑶6𝑫𝑬𝑭𝑬𝑪𝑻𝑰𝑽𝑬

𝑭𝑶6𝑫𝑬𝑭𝑬𝑪𝑻𝑰𝑽𝑬 = 𝑭𝑰 ∗ 𝑻𝑬(𝒌) ∗ C𝟏 − 𝑮𝑰 (𝒌)D

C𝟏 − 𝑻𝑬(𝒌)D ∗ C𝟏 − 𝑮𝑰 (𝒌)D
𝑮𝑶6𝑮𝑶𝑶𝑫 (𝒌) = 𝟏 −
𝟏 − \𝑻𝑬(𝒌) ∗ C𝟏 − 𝑮𝑰 (𝒌)D]

𝑮𝑶6𝑫𝑬𝑭𝑬𝑪𝑻𝑰𝑽𝑬 (𝒌) = 𝟎
LA STAZIONE DI TEST IMPERFETTA

Prendendo in considerazione una stazione di test imperfetta, si generano due


tipologie di errori: l’errore del primo tipo e l’errore del secondo tipo.

𝑬𝒏𝒕𝒊𝒕à 𝒅𝒊𝒇𝒆𝒕𝒕𝒐𝒔𝒆 𝒔𝒄𝒂𝒓𝒕𝒂𝒕𝒆


𝑻𝑬(𝒌) =
𝑬𝒏𝒕𝒊𝒕à 𝒅𝒊𝒇𝒆𝒕𝒕𝒐𝒔𝒆 𝒕𝒐𝒕𝒂𝒍𝒊

𝑬𝒓𝒓𝒐𝒓𝒆 𝒅𝒆𝒍 𝒑𝒓𝒊𝒎𝒐 𝒕𝒊𝒑𝒐 = 𝟏 − 𝑻𝑬(𝒌)

𝑬𝒏𝒕𝒊𝒕à 𝒃𝒖𝒐𝒏𝒆 𝒔𝒄𝒂𝒓𝒕𝒂𝒕𝒆


𝑻𝑬: (𝒌) =
𝑬𝒏𝒕𝒊𝒕à 𝒃𝒖𝒐𝒏𝒆 𝒕𝒐𝒕𝒂𝒍𝒊

𝑬𝒓𝒓𝒐𝒓𝒆 𝒅𝒆𝒍 𝒔𝒆𝒄𝒐𝒏𝒅𝒐 𝒕𝒊𝒑𝒐 = 𝑻𝑬: (𝒌)

L’errore del primo tipo consiste nel non scartare parti difettose, mentre l’errore del
secondo tipo consiste nello scartare parti buone.

IL GLOSSARIO DI RIFERIMENTO

Riferendosi ad un modello di sistema di produzione, è opportuno identificare il


seguente glossario:

• Un’entità è tutto ciò cui è associabile un contenuto di qualità.

• Una parte (part number) è un’entità fisica indivisibile e che non può essere
disassemblata.

• Un’operazione è un’entità logica consistente in una lavorazione eseguita sulla


parte.

• La qualità (goodness) è la percentuale di entità che soddisfa pienamente la


funzione richiesta.

• La difettosità (defectivness) è la percentuale di entità che non soddisfa


pienamente la funzione richiesta.

• L’adder è la difettosità aggiunta da una determinata stazione step del


processo (espressa in termini percentuali).
• La test efficiency è la capacità della stazione di test di selezionare le entità
defective dalle good (espressa in termini percentuali).

• Lo yield è il rapporto tra il numero di elementi considerati good uscenti da


una stazione e il numero di elementi good entranti nella stazione stessa.

• Lo start factor è il numero di elementi che deve passare in ciascun punto del
sistema per ottenere una certa quantità good alla fine del processo.
A titolo di esempio si prenda in considerazione un modello di sistema di
produzione composto da una stazione di assemblaggio di due componenti
(una con una QF del 100% e una caratterizzata da una percentuale di
difettosità) e da una stazione di test per la seconda componente (con una test
efficiency del 100%): lo start factor della prima componente dovrà essere
minore di quello della seconda componente perché la seconda componente
viene ridotta in termini di quantità a causa della stazione di test che ne rileva
la difettosità.

k è l’entità fisica in ingresso.


QF è la qualità di fornitura.
GO è la qualità in output (goodness output) dalla stazione di input.
GI è la qualità in input (goodness input) nella stazione di output.
A è l’adder.
FI è il flusso in input.
FO è il flusso in output.
TE è la test efficiency.
DMAIC - MEASURE

Con la fase di Measure si determina la grandezza del problema valutando il sistema


di misura (MSA), raccogliendo i KPI del processo, e rivisitando l’output della fase di
Define. Di fatto, quindi, questa fase consiste nel determinare come calcolare e
misurare ogni determinato KPI.
Nel dettaglio, gli obiettivi di questa fase consistono nel raccogliere i dati (piano di
raccolta dati, stratificazione, campionamento), stabilire l’affidabilità dei dati (MSA,
Gage, R&R), rappresentare la variabilità del processo (Box Plot), misurare la baseline
del processo (Capability, OEE, FTY, RTY), e definire le priorità di progetto (Pareto).

LA RACCOLTA DATI

Raccogliere dati significa procurarsi una base decisionale e comparativa per


comprendere su cosa bisogna intervenire per risolvere un determinato problema.
Per impostare una raccolta dati è fondamentale seguire e rispettare i seguenti
passaggi:

• Prima di tutto bisogna definire chiaramente gli obiettivi dell’analisi per


comprendere di quali informazioni si ha bisogno e per stabilire se i dati
forniscono una risposta adeguata a questa necessità oppure se è necessario
raccogliere nuovi dati.

• Nel caso in cui sia necessario raccogliere nuovi dati, bisogna progettare la
raccolta stessa sulla base delle caratteristiche dei dati da raccogliere
(quantitativi, qualitativi, numerabili, ecc.). Nella progettazione della raccolta
dati è necessario quindi definire il tipo di dati che si possono raccogliere, la
definizione operativa della misura, la stratificazione dei dati, il campione da
analizzare rispetto ad una popolazione di interesse, e il foglio di raccolta dati.

• Successivamente è possibile avviare la raccolta del dato e cercare di evitare


la possibilità di errori da parte di chi la dovrà effettuare (se possibile
utilizzando sempre lo stesso strumento e curando l’addestramento di chi
raccoglierà i dati).
È fondamentale che il dato in input sia affidabile, rappresentativo e
significativo per evitare il fenomeno del Garbage In Garbage Out (GIGO).
PROGETTAZIONE DELLA RACCOLTA DATI – LA TIPOLOGIA DI DATO

I dati vengono generalmente classificati in due macrocategorie:

• I dati discreti sono dati di natura categorica rappresentabili con numeri interi
oppure con nomi o etichette. Alcuni dati discreti possono essere i conteggi, i
dati binari, gli attributi nominali (per esempio la tipologia di difetto: graffio,
buco, macchia), e gli attributi ordinali (per esempio le performance del
macchinario: eccellenti, molto buone, discrete, scarse).

• I dati continui sono dati quantitativi misurati su una scala continua che può
essere divisa all’infinito (ossia per la quale si possono realizzare suddivisioni
decimali). Alcuni dati continui possono essere le ore (oppure i minuti o i
secondi), i metri (oppure i centimetri o i millimetri), le tonnellate (oppure i
chilogrammi o i grammi), i gradi di temperatura, e così via.

Alcune volte un processo o un’attività può essere misurata sia in modo discreto che
in modo continuo. A seconda dell’obiettivo dell’analisi, si può aver bisogno di una o
di entrambe le tipologie di dato. Ovviamente è possibile convertire un dato continuo
in un dato discreto, mentre non è possibile il viceversa.
I dati continui solitamente sono preferibili rispetto ai dati discreti perché forniscono
maggiori informazioni, più precise e non affette da variabilità o da errori dovuti ad
approssimazioni per l’inserimento in specifiche categorie. Tuttavia, la raccolta di
questo tipo di dati è più onerosa in termini di tempo (time-consuming), a meno che
essa non sia automatica. Per esempio, infatti, risulta essere più rapido stabilire che
la temperatura di una stanza è fredda (dato discreto) piuttosto che determinare che
corrisponde esattamente a dieci gradi (dato continuo).

PROGETTAZIONE DELLA RACCOLTA DATI – LA DEFINIZIONE OPERATIVA DELLA


MISURA

Realizzare una definizione operativa della misura significa definire in modo chiaro e
preciso le istruzioni relative a come misurare uno specifico fenomeno, per garantire
che persone diverse possano ottenere lo stesso risultato se si trovano nella stessa
condizione. Una misura è operativa se è caratterizzata da uno strumento con cui
raccogliere il dato e da un protocollo da seguire per raccogliere il dato.
PROGETTAZIONE DELLA RACCOLTA DATI – LA STRATIFICAZIONE DEI DATI

Quello della stratificazione dei dati è un metodo utilizzato per individuare i fattori
che possono influenzare la misura di un dato. Tali fattori vengono detti fattori di
stratificazione e sono sempre accompagnati da una vera e propria causa che
scatena l’effettiva variazione del dato misurato. Alcuni fattori di stratificazione
possono essere il tempo, la macchina, l’attrezzatura, l’operatore, l’ambiente
esterno, e così via.
Dopo aver identificato i fattori di stratificazione e le cause ad essi correlate, è
opportuno raggruppare i dati misurati in gruppi omogenei secondo i fattori di
stratificazione stessi. Successivamente sarà necessario rappresentare graficamente i
dati stratificati, ossia raggruppati in gruppi omogenei, per poter verificare che
esistano delle effettive differenze tra di essi (altrimenti sarà necessario svolgere
un’altra stratificazione).
A titolo di esempio si prenda in considerazione la misura del tempo di attesa
presente all’interno di un ristorante prima di sedersi al tavolo: un fattore di
stratificazione può essere il fattore tempo, ossia il giorno della settimana nel quale si
effettua la misura, e la causa ad esso correlata è legata al fatto che in alcuni giorni
della settimana sono presenti più clienti rispetto a quelli presenti in altri giorni. In
questo caso un gruppo omogeneo di dati sarà composto da n set di dati, dove n è il
numero di giorni della settimana (un set di dati per ogni giorno della settimana).

PROGETTAZIONE DELLA RACCOLTA DATI – DEFINIRE IL CAMPIONE

Quando si vuole comprendere i comportamenti statistici di una popolazione, spesso


è praticamente impossibile esaminarne tutti gli elementi. Per questo motivo ci si
limita a studiare e prendere in considerazione un singolo campione, ossia un
sottoinsieme dell’intera popolazione: dal campione sarà poi possibile trarre
conclusioni sull’intera popolazione (inferenza statistica).
Un campione deve essere, su scala ridotta, una copia fedele della realtà che si vuole
indagare. Ogni elemento del campione deve avere la stessa probabilità di essere
selezionato, e di conseguenza la casualità del campionamento garantisce la
miglior rappresentatività. Esistono comunque diverse tipologie di campionamento:

• Il campionamento random (casuale semplice) estrae le unità campione in


maniera casuale partendo dall’estrazione di numeri di un elenco (lista di
campionamento) e facendo si che le unità abbiano tutte la stessa probabilità
di essere selezionate. Questo metodo di campionamento è sicuramente il più
efficace ed affidabile.
• Il campionamento sistematico estrae le unità campione seguendo un
intervallo regolare (per esempio un pezzo ogni dieci pezzi).

• Il campionamento per sottogruppi consiste in una selezione di gruppi di unità


individuati sulla base di cluster già formati spontaneamente (per esempio lotti
di produzione) o artificialmente (per esempio cinque pezzi al giorno).

• Il campionamento stratificato prevede la suddivisione della popolazione in


strati sulla base di un certo fattore di stratificazione che influenza il fenomeno
in analisi. Il campione viene poi selezionato in modo casuale all’interno degli
strati che si sono formati.

Una dimensione del campione (numero di elementi del campione) considerata


soddisfacente nell’analisi statistica è pari a circa 4 o 5, mentre un numero di
campioni da raccogliere considerato soddisfacente nell’analisi statistica è pari a
circa 20 o 25.

PROGETTAZIONE DELLA RACCOLTA DATI – IL FOGLIO DI RACCOLTA DATI

Il foglio di raccolta dati è un modulo che verrà utilizzato per registrare


ripetutamente i dati da raccogliere definiti nelle fasi precedenti. La registrazione dei
dati avviene in appositi spazi e per mezzo di simboli o semplici segni.
Un foglio di raccolta dati è composto da una testata che contiene tutte le
informazioni di carattere generale (data, rilevatore, destinazione del dato, unità di
misura, ecc.) e da un corpo che contiene una matrice a doppia entrata in cui i dati
sono organizzati in modo coerente con le finalità di rilevazione.

LA MEASUREMENT SYSTEM ANALYSIS

Il sistema di misurazione è l’insieme di procedure, metodi, operatori, strumenti,


software e hardware necessari per ottenere la misura. L’analisi del sistema di
misura (Measurement System Analysis MSA) è necessaria per creare accuratezza,
precisione e stabilità.
Gli strumenti utilizzati nella MSA sono molteplici, e verranno descritti nel dettaglio
nei paragrafi successivi.
MSA – IL BIAS STUDY, IL GAGE LINEARITY E LA TEN BUCKET RULE

Il Bias Study e il Gage Linearity sono strumenti che valutano l’accuratezza di un


sistema di misura, la quale dipende dal bias. Il bias rappresenta la differenza tra la
misurazione media osservata e il valore target (valore misurabile più accurato in
assoluto), e può dipendere dalla linearità e dalla risoluzione: la linearità stabilisce
quanto la dimensione di ciò che viene misurato influisce sull’accuratezza dello
strumento di misura, mentre la risoluzione indica la variazione fisica più piccola che
il sistema è in grado di riconoscere (per esempio un millimetro o un micrometro).
Ovviamente un valore di bias positivo indica che il misuratore sovrastima, mentre
un valore di bias negativo indica che il misuratore sottostima.

𝑩𝒊𝒂𝒔 = 𝑽𝒂𝒍𝒐𝒓𝒆 𝒎𝒊𝒔𝒖𝒓𝒂𝒕𝒐 − 𝑽𝒂𝒍𝒐𝒓𝒆 𝒕𝒂𝒓𝒈𝒆𝒕

|𝑩𝒊𝒂𝒔|
𝑩𝒊𝒂𝒔 % =
𝑽𝒂𝒓𝒊𝒂𝒛𝒊𝒐𝒏𝒆 𝒅𝒆𝒍 𝒑𝒓𝒐𝒄𝒆𝒔𝒔𝒐

𝑽𝒂𝒓𝒊𝒂𝒛𝒊𝒐𝒏𝒆 𝒅𝒆𝒍 𝒑𝒓𝒐𝒄𝒆𝒔𝒔𝒐 = 𝟔 ∗ 𝑫𝒆𝒗. 𝑺𝒕. = 𝟔𝝈

Il Bias Study (studio del bias) consente di capire qual è in media la differenza tra i
valori che il misuratore produce e i valori di riferimento, mentre il Gage Linearity
(misura della linearità) consente di capire se lo strumento di misura ha la stessa
accuratezza per tutte le dimensioni degli oggetti misurati. L’obiettivo
dell’applicazione del Gage Linearity consiste nell’identificare la pendenza della retta
che correla i valori target crescenti delle misurazioni (asse x) e il bias misurato (asse
y) e ridurla il più possibile portandola idealmente a zero.
La regola utilizzata per stabilire la risoluzione da mantenere è la Ten Bucket Rule,
secondo la quale è necessario mantenere una risoluzione pari a un decimo del
valore target (per esempio se si deve misurare la lunghezza di un tubo di 5mm, il
sistema dovrà essere in grado di identificare differenze di 0,5mm).

MSA – IL GAGE R&R

Il Gage R&R (misura della ripetibilità e della riproducibilità) valuta la precisione di


un sistema di misura, che può dipendere dalla ripetibilità (capacità di un operatore
di raggiungere lo stesso risultato ripetendo la misura di uno stesso fenomeno dalle
stesse caratteristiche con lo stesso strumento e nelle stesse condizioni ambientali) e
dalla riproducibilità (capacità di un gruppo di operatori diversi di raggiungere lo
stesso risultato ripetendo la misura di uno stesso fenomeno dalle stesse
caratteristiche con lo stesso strumento e nelle stesse condizioni ambientali).
In generale, valori di ripetibilità e riproducibilità inferiori all’80% rendono il sistema
non accettabile.
Un Gage R&R su dati continui deve essere fatto con test statistici (per esempio con
l’analisi della varianza) mentre un Gage R&R su dati discreti può essere fatto come
nella figura riportata di seguito, ossia selezionando almeno due o tre operatori
diversi, identificando i campioni da inserire nel test, facendo misurare ogni
campione più volte ad ogni operatore, e infine riportando tutti i dati in un foglio di
raccolta per poterli analizzare.
In particolare, per i Gage R&R su dati discreti, si seguono due strutture che si
fondano sullo standard AIAG (Automotive Industry Action Group): la struttura
della prova corta prevede di usare tre operatori che effettuano due misure ciascuno
su cinque elementi (trenta misure complessive), mentre la struttura della prova
lunga prevede di usare due o tre operatori che effettuano tre misure su dieci
elementi, (sessanta misure complessive o novanta misure complessive).

MSA – LA STABILITY ANALYSIS

La Stability Analysis valuta la capacità di ottenere gli stessi risultati nel tempo in
termini di accuratezza e precisione.
La stabilità analizza la consistenza della misurazione nel tempo considerando che gli
strumenti di misura non sviluppino problemi di accuratezza e precisione e che gli
operatori non commettano errori e non modifichino il loro metodo di utilizzo dello
strumento di misura.
DMAIC – MEASURE, ANALYSE E CONTROL

LA STATISTICA PER IL CONTROLLO QUALITÀ

Le performance di un processo aumentano con l’aumentare della sua stabilità e


della possibilità di prevederne il comportamento, e di conseguenza con il diminuire
della sua variabilità. In generale esistono due principali cause di variabilità: le cause
comuni (che rappresentano circa il 94% delle cause di varianza) sono il risultato
naturale del sistema (in un sistema stabile, la variazione per causa comune sarà
prevedibile entro certi limiti); le cause speciali (che rappresentano circa il 6% delle
cause di varianza) rappresentano un evento unico al di fuori del sistema (per
esempio un disastro naturale). Ovviamente l’obiettivo è quello di riuscire a ridurre
entrambe le cause. Per quanto riguarda le cause comuni esse devono essere
identificate e analizzate per essere ridotte dove possibile, dopodiché si dovrà
definire la tolleranza naturale per capire qual è il range entro il quale viene tollerata
una certa variabilità (al di fuori di questo range ci sono le cause speciali); per quanto
riguarda invece le cause speciali, devono essere trovati modi per ripeterle (se
l’evento ha provocato una variazione migliorativa) oppure contromisure per evitare
che si ripetano (se l’evento ha provocato una variazione peggiorativa).
La statistica è una scienza che studia un fenomeno con l’uso di metodi matematici
che analizzano la distribuzione e le proprietà di un set di dati raccolto attraverso le
osservazioni di una popolazione (o, più spesso, di un campione di una popolazione).
In generale, esistono tre principali rami della statistica:

• La statistica descrittiva rappresenta le caratteristiche della popolazione


studiata e del fenomeno in analisi attraverso grafici e indici (per esempio la
media e la deviazione standard).

• La statistica inferenziale trae conclusioni relativamente alla popolazione


studiata e al fenomeno in analisi su caratteristiche non conosciute in partenza
(per esempio il test di verifica delle ipotesi).

• La statistica predittiva consente di effettuare previsioni sui valori futuri


assunti dalla popolazione studiata relativamente al fenomeno in analisi (per
esempio la regressione lineare).
STATISTICA DESCRITTIVA – GLI INDICI

Gli indici di tendenza centrale (o indici di posizione) indicano la posizione centrale


dove i dati sono numericamente concentrati. Le tre misure maggiormente utilizzate
sono le seguenti:

• La media aritmetica è il singolo valore numerico che descrive in modo


sintetico un set di dati.

• La mediana è il punto centrale (valore nel mezzo o media dei due valori nel
mezzo) di un set di dati ordinato in base a qualche criterio (ordine crescente o
decrescente).

• La moda è il valore più spesso osservato in un set di dati.

Media, mediana e moda sono uguali quando i dati sono distribuiti secondo una
normale (i valori reali tendono a concentrarsi intorno a un singolo valor medio e il
grafico della funzione di densità è simmetrico e ha una forma a campana); mentre
sono differenti quando i valori non sono distribuiti secondo una normale.

Vista la presenza di variabilità in tutti i processi, misurare il solo valore medio non è
significativo: è sempre importante misurare anche la dispersione della distribuzione
dal valor medio. Gli indici di dispersione indicano come i dati sono distribuiti intorno
al punto centrale (una dispersione alta indica alta variabilità dei dati). Le tre misure
maggiormente utilizzate sono le seguenti:

• Il range è la differenza tra il valore massimo e il valore minimo di un set di


dati.

• La varianza esprime quanto i valori del set di dati discordino quadraticamente


dalla media.

∑𝑵
𝒊3𝟏(𝑿𝒊 − 𝝁)
𝟐
𝟐
𝑷𝒐𝒑𝒐𝒍𝒂𝒛𝒊𝒐𝒏𝒆 −→ 𝝈 =
𝑵

h )𝟐
∑𝒏𝒊3𝟏(𝑿𝒊 − 𝑿
𝑪𝒂𝒎𝒑𝒊𝒐𝒏𝒆 −→ 𝑺𝟐 =
𝒏−𝟏
• La deviazione standard definisce la distanza media di ciascun dato dalla
media (è la radice quadrata della varianza).

∑𝑵
𝒊3𝟏(𝑿𝒊 − 𝝁)
𝟐
𝑷𝒐𝒑𝒐𝒍𝒂𝒛𝒊𝒐𝒏𝒆 −→ 𝝈 = i
𝑵

h )𝟐
∑𝒏𝒊3𝟏(𝑿𝒊 − 𝑿
𝑪𝒂𝒎𝒑𝒊𝒐𝒏𝒆 −→ 𝑺 = i
𝒏−𝟏

STATISTICA DESCRITTIVA – I BOX PLOT

I dati continui possono essere rappresentati attraverso box plot e istogrammi, e


possono essere convertiti in run e control chart. I dati discreti possono essere
rappresentati attraverso grafici a torta, grafici a barre e diagrammi di Pareto, e
possono essere convertiti in run e control chart.
I box plot sono dei grafici a scatola e baffi che consentono di visualizzare la
distribuzione del set di dati. Tale grafico parte da cinque numeri di sintesi: il minimo,
il primo quartile (Q1), la mediana, il terzo quartile (Q3), e il massimo.

Nei diversi segmenti (minimo – primo quartile; primo quartile – mediana; mediana –
terzo quartile; terzo quartile – massimo) deve esserci progressivamente almeno il
25% - 50% - 75% - 100% del data set. Di conseguenza, la scatola del box plot tra il
primo e il terzo quartile rappresenta i valori comprendenti almeno il 50% del data
set. L’altezza di questa scatola, inoltre, viene definita IQR (InterQuartile Range) e
indica il range di variabilità dove più probabilmente ricadranno i valori.
La mediana divide la scatola in due parti, le quali non sono obbligatoriamente
uguali. I baffi si ottengono congiungendo Q1 al minimo e Q3 al massimo; ogni baffo
deve essere lungo al massimo 1.5 volte IQR.
Confrontando le lunghezze dei due baffi e le altezze dei due rettangoli che
costituiscono la scatola, è possibile analizzare la simmetria della distribuzione
(lunghezza dei baffi simili e altezze dei rettangoli simili indicano alta simmetria).
Il box plot consente inoltre di identificare gli outlier, ovvero i valori che sono
maggiori del massimo (+1.5 volte IQR dal terzo quartile) o minori del minimo (-1.5
volte IQR dal primo quartile). Gli outlier spesso riflettono errori nella raccolta dei
dati o, nei casi in cui tali valori non siano derivanti da errori ma valori reali, aiutano a
identificare aree su cui indirizzare analisi di dettaglio per comprendere cosa stava
succedendo in quel momento nel processo. Gli outlier effettivi (dati errati o dati
corretti ma isolati e fuorvianti) vengono eliminati dal campione, mentre i dati al di
fuori dei baffi che però non sono outlier devono essere mantenuti.
L’ideale consiste nell’avere una distribuzione normale, ossia nell’avere un’alta
simmetria della distribuzione (box simmetriche, baffi simmetrici e mediana pari alla
media), ma anche nell’avere box schiacciate verso la mediana e baffi corti.

STATISTICA DESCRITTIVA – GLI ISTOGRAMMI

Per poter introdurre gli istogrammi, è necessario conoscere i diversi significati di


frequenza. La frequenza (o frequenza assoluta) rappresenta il numero di volte in cui
una variabile assume lo stesso valore, la frequenza relativa rappresenta il rapporto
tra la frequenza assoluta e il numero totale degli elementi, la frequenza cumulata
rappresenta il numero totale degli elementi che non superano un determinato
valore, e infine la frequenza relativa cumulata rappresenta il rapporto tra la
frequenza cumulata e il numero totale degli elementi.
Un istogramma è un diagramma a barre realizzato su dati continui, utile a
sintetizzare un campione di osservazioni e a verificare l’andamento dei dati in
termini di distribuzione seguita. Di conseguenza, l’istogramma fornisce informazioni
riguardo al range di dati analizzati e alla distribuzione dei dati stessi in questo range.
Quando i dati in analisi sono numerosi il range preso in esame è suddiviso in classi,
ognuna delle quali è caratterizzata dai propri limiti, dalla propria ampiezza
(larghezza), e dalla propria frequenza (altezza). Nel caso in cui sia necessario il
raggruppamento in classi, è opportuno utilizzare un numero di classi
approssimativamente uguale alla radice quadrata della dimensione del campione
(solitamente da 4 a 20 classi) e dimensionare le classi con un’ampiezza uniforme (o
se l’ampiezza non è uniforme, perlomeno proporzionare la frequenza all’ampiezza).
Per identificare l’ampiezza uniforme da attribuire ad ogni classe, si procede con il
seguente calcolo: 𝑨𝒎𝒑𝒊𝒆𝒛𝒛𝒂 = (𝑴𝒂𝒙 − 𝑴𝒊𝒏)/𝑵°𝑪𝒍𝒂𝒔𝒔𝒊
Dopo aver realizzato un istogramma, esso verrà analizzato per elaborarne
un’interpretazione:

• Nell’istogramma con una distribuzione normale i dati sono disposti in modo


simmetrico rispetto a una media centrale.

• Nell’istogramma ad isola alcuni dati hanno una distribuzione isolata rispetto


agli altri dati.

• Nell’istogramma a precipizio la distribuzione dei dati cambia bruscamente


rispetto all’andamento che stava mantenendo.

• Nell’istogramma bimodale è presente una sovrapposizione di dati non


omogenei (vengono sovrapposti insiemi distinti di dati).
STATISTICA DESCRITTIVA – IL GRAFICO A TORTA, IL GRAFICO A BARRE E IL
DIAGRAMMA DI PARETO

Il grafico a torta viene utilizzato per confrontare le percentuali di un intero


utilizzando “fette di torta”, ossia segmenti che rappresentano il valore proporzionale
di ogni fetta (categoria in analisi) sull’intera torta (somma dei valori caratterizzanti
tutte le categorie).

Il grafico a barre verticali visualizza dati discreti (indicati con specifiche


etichette/categorie) sull'asse orizzontale e il loro impatto su valori o metriche
misurate sull'asse verticale.

Il grafico a barre orizzontali visualizza dati discreti (indicati con specifiche


etichette/categorie) sull'asse verticale e il loro impatto su valori o metriche misurate
sull'asse orizzontale.
Il diagramma di Pareto è un grafico a barre e linee che viene utilizzato per
identificare e dare la priorità ai problemi più rilevanti (in frequenza o in valore) da
affrontare.

Ogni barra rappresenta una categoria di causa in analisi, e le cause vengono


ordinate in ordine decrescente di impatto sull’effetto. La linea rappresenta la
cumulata dell’impatto percentuale di ciascuna causa.
Il diagramma di Pareto può essere utilizzato per classificare una serie di cause sulla
base del loro impatto sull’effetto (analisi ABC) e quindi per differenziare e stabilire
le priorità delle azioni sulle cause in base alla classe di appartenenza.
Secondo l’analisi ABC vengono inserite in classe A tutte le cause che cumulano sino
all’80% delle cause dell’effetto misurato, in classe B tutte le cause che cumulano un
ulteriore 15% (tra 81% e 95%), e in classe C tutte le cause che cumulano l’ultimo 5%
(sopra il 95%).

STATISTICA DESCRITTIVA – IL RUN CHART

Il run chart è un grafico sequenziale che mostra i dati raccolti in ordine cronologico,
rappresentando la loro sequenza temporale. Di conseguenza, questo strumento
serve per verificare se la tendenza centrale sta cambiando nel tempo o se si sta
mantenendo costante e quindi stabile.
Nel run chart è anche possibile riportare diversi campioni di dati (ognuno
contenente dati raccolti nello stesso momento), e rappresentare la loro mediana o
media per poter studiare l’andamento nel corso del tempo:

STATISTICA DESCRITTIVA – LA CONTROL CHART

La control chart è un grafico molto simile al run chart perché prevede una
visualizzazione dei dati nel tempo, ma i due si differenziano perché nel costruire ed
utilizzare una control chart vengono presi in considerazione dei limiti di controllo.
Questi limiti sono delle linee addizionali (Upper Control Limit UCL e Lower Control
Limit LCL) alla linea centrale rappresentante la media (CL) che servono a
rappresentare un range atteso di variazione e che aiutano a identificare la cause di
variazione speciali. I dati rappresentati nelle control chart, a differenza di quelli
rappresentati nei run chart, devono avere una distribuzione normale.

Le control chart vengono principalmente utilizzate per esaminare la variabilità di un


processo, ricercare dei trend nel processo, ed evidenziare eventuali cambiamenti
avvenuti.
Il primo passo consiste nel verificare che il processo sia stabile e che quindi abbia
una variabilità controllata, per poter poi identificare il valore desiderato CL e la
variabilità attesa (ossia il range LCL – UCL). È dunque possibile fare una previsione di
come il sistema dovrebbe comportarsi per rimanere sotto controllo, e quindi si
potranno confrontare i valori futuri con i limiti di variabilità previsti per
comprendere se è necessario un intervento correttivo oppure no.
Un processo è sotto controllo se è caratterizzato esclusivamente da cause comuni,
mentre è fuori controllo se è caratterizzato anche da cause speciali.
Una Control Chart serve anche per comprendere altre problematiche che si possono
presentare anche quando il processo è sotto controllo, per esempio quelle legate al
fatto che la maggior parte dei dati raccolti ricadono in uno dei due range (Upper o
Lower) e che quindi non sono correttamente distribuiti come dovrebbero essere in
una distribuzione normale.
La scelta dei limiti di controllo deve evitare il rischio di primo tipo (il rischio che il
punto si posizioni al di fuori dei limiti e segnali una situazione fuori controllo quando
in realtà non lo è; si evita questo rischio evitando di posizionare i limiti troppo vicini
alla linea centrale) e il rischio di secondo tipo (il rischio che il punto si posizioni
all’interno dei limiti e segnali una situazione sotto controllo quando in realtà non lo
è; si evita questo rischio evitando di posizionare i limiti troppo lontani dalla linea
centrale).

STATISTICA DESCRITTIVA – LE TIPOLOGIE DI CONTROL CHART

Le carte di controllo sono per variabili (o di misure continue) se i dati presi in esame
sono espressi in una scala continua. Di seguito vengono descritte le varie tipologie di
control chart per variabili:
• La carta x.

𝝈
𝑳𝑪𝑳 = 𝝁 − 𝟑 ∗
√𝒏

𝑪𝑳 = 𝝁

𝝈
𝑼𝑪𝑳 = 𝝁 + 𝟑 ∗
√𝒏

• La carta x – R (campione minore di 8 – 12).

h
𝑹
n−𝟑∗
𝑳𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙 h
n − 𝑨𝟐 ∗ 𝑹
=𝒙
√𝒏 ∗ 𝒅 𝟐

n
𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙

h
𝑹
n+𝟑∗
𝑼𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙 h
n + 𝑨𝟐 ∗ 𝑹
=𝒙
√𝒏 ∗ 𝒅𝟐

h
𝑳𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑹 = 𝑫𝟑 ∗ 𝑹

h
𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑹 = 𝑹

h
𝑼𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑹 = 𝑫𝟒 ∗ 𝑹

• La carta x – S (campione maggiore di 8 – 12).

h
𝑺
n−𝟑∗
𝑳𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙 h
n − 𝑨𝟑 ∗ 𝑺
=𝒙
√𝒏 ∗ 𝒄𝟒

n
𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙

h
𝑺
n+𝟑∗
𝑼𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙 h
n + 𝑨𝟑 ∗ 𝑺
=𝒙
√ 𝒏 ∗ 𝒄𝟒
h
𝑳𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑺 = 𝑩𝟑 ∗ 𝑺

h
𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑺 = 𝑺

h
𝑼𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑺 = 𝑩𝟒 ∗ 𝑺

• La carta x – moving avg (campione uguale a 1).

Le carte di controllo sono per attributi se i dati presi in esame sono espressi in una
scala discreta. Di seguito vengono descritte le varie tipologie di control chart per
attributi:

• La carta p viene utilizzata quando le dimensioni dei campioni sono uguali.

h ∗ (𝟏 − 𝒑
𝒑 h)
h−𝟑∗i
𝑳𝑪𝑳 = 𝒑
𝒏

h
𝑪𝑳 = 𝒑

h ∗ (𝟏 − 𝒑
𝒑 h)
h+𝟑∗i
𝑼𝑪𝑳 = 𝒑
𝒏

• La carta np viene utilizzata quando le dimensioni dei campioni sono diverse.

h ∗ (𝟏 − 𝒑
h − 𝟑 ∗ o𝒏𝒑
𝑳𝑪𝑳 = 𝒏𝒑 h)

h
𝑪𝑳 = 𝒏𝒑

h ∗ (𝟏 − 𝒑
h + 𝟑 ∗ o𝒏𝒑
𝑼𝑪𝑳 = 𝒏𝒑 h)

• La carta u viene utilizzata quando si misurano i difetti per unità.

• La carta c viene utilizzata quando si misurano i difetti per campione.


STATISTICA DESCRITTIVA – LE CAUSE SPECIALI NELLE CONTROL CHART

Tra le varie cause speciali, possiamo identificare le seguenti:

• Il trend è un andamento caratterizzato da una sequenza crescente o


decrescente di almeno 6 punti, e può indicare per esempio un fenomeno di
deriva.

• Il fenomeno dell’oscillation si verifica quando almeno 4 dati consecutivi


fluttuano su e giù rapidamente, e può indicare un processo instabile.

• Il clustering è una struttura caratterizzata da dati raggruppati in una certa


area del grafico (almeno 2 consecutivi nella fascia 2𝜎 − 3𝜎, almeno 4
consecutivi nella fascia 1𝜎 − 2𝜎, e almeno 15 nella fascia 𝜇 − 1𝜎).

• Il mixture è una disposizione di dati nella quale pochi punti si trovano in


prossimità della mediana.
ANALYSE

Nella fase di Analyse si identificano le varie possibili cause che hanno generato un
determinato problema, con l’obiettivo di stabilire quale tra queste è la vera causa
effettiva. Per rendere ciò possibile viene utilizzato il diagramma di Ishikawa (o
diagramma causa effetto o diagramma a lisca di pesce) che nel complesso
raggruppa le cause all’interno delle 4M+E, ossia le cinque principali aree
problematiche riferite ai materiali, alla manodopera, alle macchine, ai metodi, e
all’ambiente (environment). Dopo aver definito le potenziali cause, esse vengono
incluse come fattori di stratificazione nella raccolta dati (per questo motivo il
diagramma di Ishikawa è utile anche prima della fase di Analyse, all’interno della
fase di Measure).

LA CORRELAZIONE

L’analisi di correlazione serve per verificare se due variabili si muovono in maniera


coordinata, ossia se al variare di una si assiste alla variazione dell’altra. Una
correlazione però non rappresenta un rapporto causa effetto, ma una semplice
coordinazione tra due variabili. La correlazione può essere diretta o inversa, ma
anche lineare o non lineare. Essa viene misurata con il coefficiente di Pearson e
viene rappresentata nel grafico a dispersione.

LA REGRESSIONE

L’analisi di regressione calcola la forza del legame tra una variabile indipendente
(causa) e una dipendente (effetto), e solitamente rappresenta il passo successivo
all’analisi di correlazione. Il coefficiente di determinazione 𝑹𝟐 [0,1] sintetizza
quanto il comportamento dei punti è spiegato dalla retta di regressione. I parametri
(coefficiente angolare e intercetta) della retta di regressione si ottengono con la
funzione Excel REGR.LIN(variabile dipendente y; variabile indipendente x), mentre
𝑅 > è calcolabile come RQ(variabile dipendente y; variabile indipendente x).
Detto in altre parole, l’analisi di regressione stabilisce se è possibile descrivere con
una retta l’andamento e il legame tra variabili identificato con l’analisi di
correlazione (ed eventualmente fornisce informazioni riguardo a quanto la retta
approssima questo andamento).
IL TEST DELLE IPOTESI

Il test delle ipotesi è lo strumento per poter trarre conclusioni basate sui dati e in
particolare per capire se i dati sono coerenti con un modello, o se è possibile
confermare un’ipotesi sui dati, o infine se è possibile confermare un cambiamento.
I test effettuati dipendono dalla tipologia di dati considerati e dalle risposte che si
stanno cercando, ma le regole per condurre i test sono generali: prima si definiscono
i dati di partenza, e poi si definiscono l’ipotesi nulla (𝐻? ) e l’ipotesi alternativa.
L’ipotesi nulla solitamente prevede che i dati messi a confronto non abbiano
differenze, mentre l’ipotesi alternativa prevede quindi che ci sia una differenza
statistica tra i dati a confronto. Il test verifica la validità di 𝐻? e, in caso essa sia
rigettata, accetta l’alternativa.
Alcuni dei test solitamente usati sono applicabili solo in caso di dati normalmente
distribuiti, e di conseguenza sarebbe necessario verificare la normalità dei dati
(statistiche di base).

L’ANALISI DELLA VARIANZA

L’analisi della varianza di Fisher (Analysis of Variance ANOVA) si basa sul modello
additivo, il quale ipotizza che ogni dato sia composto da una somma di fattori: la
media reale generale 𝝁, un fattore del campione 𝜶𝒊 , e infine un fattore casuale 𝜺𝒊,𝒋
chiamato residuo o errore sperimentale (che è lo scostamento di quel particolare
dato dalla media del campione a cui appartiene). Possiamo considerare il dato come
𝒙𝒊,𝒋 = 𝝁 + 𝜶𝒊 + 𝜺𝒊,𝒋 .
L'ipotesi nulla 𝐻? è che la grandezza media reale 𝜇 sia uguale per tutti i campioni di
dati, mentre l’ipotesi alternativa 𝐻A è che almeno un campione abbia una grandezza
media reale 𝜇 diversa dagli altri. Se è valida l'ipotesi nulla, cioè se non c'è alcuna
differenza reale tra i campioni e le differenze nelle loro medie sono dovute solo al
caso, allora si dovrebbe trovare la stessa variabilità sia all'interno dei gruppi che tra
un gruppo e l'altro. Per controllare questa affermazione, l'analisi della varianza
prevede di calcolare la devianza totale, la devianza tra i campioni (between), la
devianza all'interno dei campioni (within), e i gradi di libertà di ognuna.
Si può ora calcolare il rapporto F tra le due varianze (varianza between/varianza
within) e, se l'ipotesi nulla fosse vera, questo rapporto dovrebbe essere uguale a 1
(o risultare vicino a 1, visto che le analisi statistiche non sono mai perfette); se
invece l'ipotesi nulla fosse falsa, in particolare se ci fosse almeno un campione con
una media realmente diversa dalle altre, la varianza tra i campioni risulterebbe
maggiore della varianza within, e di conseguenza il rapporto sarebbe sensibilmente
maggiore di 1.
Per determinare qual è il limite oltre il quale si può escludere l'ipotesi nulla, con una
possibilità 𝛼 di commettere un errore del primo tipo, si ricorre alla distribuzione F,
che per ogni coppia di gradi di libertà (quelli delle due varianze) e per ogni
probabilità 𝛼 indica il valore limite oltre il quale si può escludere l'ipotesi nulla.
Solitamente 𝛼 = 0,05, e cioè si ha il 95% di copertura. Si confronta il p-value (valore
di significatività) con il valore di 𝛼: se il p-value è minore o uguale di 𝛼, allora si
rifiuta l’ipotesi nulla (più basso è il p-value, meglio è).

Potrebbero piacerti anche