Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
LA QUALITÀ
La qualità può essere definita come una conformità alle specifiche o una
soddisfazione delle esigenze dei clienti.
L’ISO, con la norma ISO 9000, ha proposto la seguente definizione: la qualità è
l'insieme delle proprietà e delle caratteristiche di un prodotto o di un servizio che
conferiscono ad esso la capacità di soddisfare esigenze espresse e implicite.
Per i prodotti manifatturieri tali esigenze possono riguardare l’economicità, la
facilità di uso e manutenzione, la sicurezza, la disponibilità, l'affidabilità, e l’impatto
ambientale. In molti casi le esigenze possono modificarsi nel tempo; ne segue la
revisione periodica delle prestazioni offerte dal prodotto.
Con David Garvin le varie definizioni di qualità vengono suddivise in diverse
categorie; si parla infatti di qualità trascendentale (soggettiva), product-based,
user-based, process-based, value-based (confronto tra utilità e prezzo).
• Il costo della prevenzione comprende le spese sostenute per il Poka Yoke, per
la formazione e l’addestramento degli operatori, e per la definizione di
procedure di ispezione preventiva.
Sia la Lean che Six Sigma perseguono il miglioramento continuo dei processi
aziendali: il Kaizen (cambiare in meglio) vuole ridurre le cause di inefficienza del
processo per dare più valore al cliente in minor tempo, mentre il Six Sigma vuole
raggiungere risultati eccellenti in termini di capacità di processo e ridurre le cause di
inefficacia.
Conviene usare tecniche Lean quando si vuole eliminare le attività non a valore,
quando si hanno problemi legati alle scorte, o quando ci sono tempi di fermo per
guasti o per setup lunghi; conviene invece usare Six Sigma quando si hanno
problemi legati alla bassa qualità dei prodotti, quando ci sono eccessi di
rilavorazioni, o quando i processi non sono costanti.
Conviene usare entrambe le metodologie quando il prodotto/servizio è
insoddisfacente, quando la produttività è bassa, o quando bisogna agire sui tempi di
attesa.
Inoltre, prima di usare Six Sigma, conviene valutare il gap che intercorre tra l’attuale
livello di qualità e lo standard desiderato: se questo gap richiede un intervento che
comporta la realizzazione di un progetto che ha una durata di almeno 4 o 6 mesi,
allora conviene utilizzare Six Sigma.
LA SCELTA DEI PROGETTI E LA STRUTTURA ORGANIZZATIVA
Generalmente ogni anno vengono decisi i progetti che verranno svolti nel corso
dell’anno successivo. Il Project Portfolio è un elenco di potenziali progetti definiti
dai manager (Champion) e dagli esperti Six Sigma (Black Belt), che riguardano
problemi da risolvere o opportunità da cogliere.
Per ciascun progetto potenziale sono definiti il livello di complessità (tempo
necessario, risorse impiegate, numero di funzioni e processi) e l’impatto atteso sul
business in termini economici.
• I Master Black Belt, massimi esperti della metodologia Six Sigma responsabili
della formazione e del coaching nel caso di problematiche complesse.
• Le Black Belt, figure dedicate a tempo pieno al programma Six Sigma che
operano contemporaneamente su più progetti di cui spesso sono responsabili
(project leader), coordinando le altre figure; essi conoscono la metodologia e
le tecniche più avanzate e supportano le altre figure nella scelta delle
metodologie più appropriate.
• Le Green Belt, figure operative gestite dai Black Belt che dedicano circa il 20%
del proprio tempo ai progetti di miglioramento e sono responsabili di
conseguire alcuni risultati di progetto; essi sono preparati sulla metodologia,
conoscono e sanno usare gli strumenti.
• Le Yellow e White Belt, figure operative con formazione di base che sono
coinvolte saltuariamente e sono formate sulle metodologie specifiche
all’occorrenza.
LA PROCEDURA DMAIC
LA PROCEDURA DMADV
Nel dettaglio, gli obiettivi della fase di Define consistono nel capire cosa migliorare
(VoC Tree e Modello di Kano), approfondire e definire i confini del processo (SIPOC,
Process Mapping), pianificare il progetto (Gantt), e gestire le informazioni di
progetto (Project Charter):
VALUE ENGINEERING
La risk analysis (analisi del rischio) è una tecnica che considera il rischio come
elemento fondamentale per guidare le scelte progettuali di un prodotto o di un
servizio. Il termine più corretto con il quale chiamare il processo completo di analisi
e valutazione dei rischi è in realtà risk assessment; la risk analysis in sé si
completerebbe con il terzo passo, ma è comune attribuire questo termine all’intero
processo seguente:
• Stima dei rischi (risk estimation) e valutazione dei rischi (risk evaluation).
La FTA è una tecnica che correla, attraverso porte logiche (AND e OR), gli eventi che
provocano un determinato evento finale. Le relazioni che in questo modo si
vengono a creare permettono di costruire un modello ad albero:
𝑷𝑻𝒐𝒑𝑬𝒗𝒆𝒏𝒕 = 𝑬𝟏 + 𝑬𝟐 + 𝑬𝟑 + 𝑬𝟔 + 𝑬𝟕 ∗ 𝑬𝟖
FAILURE MODE, EFFECTS AND CRITICALITY ANALYSIS
𝑰𝑷𝑹 = 𝑷 ∗ 𝑺 ∗ 𝑫
La process capability (capacità di processo) mira a definire ciò che è necessario per
rispettare le specifiche di processo. Il problema fondamentale per garantire il
rispetto delle specifiche progettuali in produzione è la scelta del processo di
produzione capace.
Il controllo è l’elemento fondamentale che deve essere implementato per verificare
il rispetto delle specifiche: è importante prediligere una modalità di controllo a
priori piuttosto che a posteriori, perché in questo modo si riesce a prevenire la
manifestazione di un problema.
LA TOLLERANZA INDUSTRIALE
Ogni processo è caratterizzato dalla sua tolleranza industriale, ossia il range che
intercorre tra il minimo valore di risultato ottenibile e il massimo valore di risultato
ottenibile di un determinato elemento del processo (tecnologia, mezzi, materiale,
operatori). La tolleranza industriale deve rispettare la tolleranza progettuale
imposta sulle specifiche/esigenze espresse in fase di progettazione: il confronto tra
queste due grandezze consente di valutare la capacità di processo e di decidere se
impiegarlo o meno per le operazioni da svolgere.
LE STAZIONI DI INPUT/OUTPUT
Le stazioni di input/output (I/O), sono quelle che immettono/tolgono dei flussi dal
sistema:
• Una stazione di output scarica gli elementi completi alla fine del processo di
lavorazione.
𝒏
• Una stazione di kill elimina durante il processo le parti difettose o gli elementi
disassemblati difettosi.
𝑮 𝑰 (𝒌 ) = 𝟎
LE STAZIONI STEP
Le stazioni step sono quelle stazioni nelle quali si compie una lavorazione sui flussi; il
flusso uscente è pari in dimensioni al flusso entrante:
𝑮𝑶 (𝑾𝑹𝑲) = 𝟏 − 𝑨(𝑾𝑹𝑲)
𝑮𝑶 (𝑨𝑺𝑴) = 𝟏 − 𝑨(𝑨𝑺𝑴)
In questo caso k è esteso a tutte le entità a monte della stazione tranne che a
quella di assemblaggio che scompare con il disassemblaggio (la GO(ASM) non
viene considerata).
LE STAZIONI NODO
Le stazioni nodo sono quelle stazioni nelle quali si uniscono o suddividono i flussi a
seguito dell’esito di controlli o per altri motivi tecnici:
𝑭𝑶 = 𝑭𝑰𝟏 + 𝑭𝑰𝟐
𝑭𝑰 = 𝑭𝑶𝟏 + 𝑭𝑶𝟐
• Una stazione di test suddivide il flusso entrante in un flusso delle parti buone
e un flusso delle parti difettose; la somma dei flussi uscenti è pari al flusso
entrante.
𝑭𝑶6𝑮𝑶𝑶𝑫 = 𝑭𝑰 − 𝑭𝑶6𝑫𝑬𝑭𝑬𝑪𝑻𝑰𝑽𝑬
C𝟏 − 𝑻𝑬(𝒌)D ∗ C𝟏 − 𝑮𝑰 (𝒌)D
𝑮𝑶6𝑮𝑶𝑶𝑫 (𝒌) = 𝟏 −
𝟏 − \𝑻𝑬(𝒌) ∗ C𝟏 − 𝑮𝑰 (𝒌)D]
𝑮𝑶6𝑫𝑬𝑭𝑬𝑪𝑻𝑰𝑽𝑬 (𝒌) = 𝟎
LA STAZIONE DI TEST IMPERFETTA
L’errore del primo tipo consiste nel non scartare parti difettose, mentre l’errore del
secondo tipo consiste nello scartare parti buone.
IL GLOSSARIO DI RIFERIMENTO
• Una parte (part number) è un’entità fisica indivisibile e che non può essere
disassemblata.
• Lo start factor è il numero di elementi che deve passare in ciascun punto del
sistema per ottenere una certa quantità good alla fine del processo.
A titolo di esempio si prenda in considerazione un modello di sistema di
produzione composto da una stazione di assemblaggio di due componenti
(una con una QF del 100% e una caratterizzata da una percentuale di
difettosità) e da una stazione di test per la seconda componente (con una test
efficiency del 100%): lo start factor della prima componente dovrà essere
minore di quello della seconda componente perché la seconda componente
viene ridotta in termini di quantità a causa della stazione di test che ne rileva
la difettosità.
LA RACCOLTA DATI
• Nel caso in cui sia necessario raccogliere nuovi dati, bisogna progettare la
raccolta stessa sulla base delle caratteristiche dei dati da raccogliere
(quantitativi, qualitativi, numerabili, ecc.). Nella progettazione della raccolta
dati è necessario quindi definire il tipo di dati che si possono raccogliere, la
definizione operativa della misura, la stratificazione dei dati, il campione da
analizzare rispetto ad una popolazione di interesse, e il foglio di raccolta dati.
• I dati discreti sono dati di natura categorica rappresentabili con numeri interi
oppure con nomi o etichette. Alcuni dati discreti possono essere i conteggi, i
dati binari, gli attributi nominali (per esempio la tipologia di difetto: graffio,
buco, macchia), e gli attributi ordinali (per esempio le performance del
macchinario: eccellenti, molto buone, discrete, scarse).
• I dati continui sono dati quantitativi misurati su una scala continua che può
essere divisa all’infinito (ossia per la quale si possono realizzare suddivisioni
decimali). Alcuni dati continui possono essere le ore (oppure i minuti o i
secondi), i metri (oppure i centimetri o i millimetri), le tonnellate (oppure i
chilogrammi o i grammi), i gradi di temperatura, e così via.
Alcune volte un processo o un’attività può essere misurata sia in modo discreto che
in modo continuo. A seconda dell’obiettivo dell’analisi, si può aver bisogno di una o
di entrambe le tipologie di dato. Ovviamente è possibile convertire un dato continuo
in un dato discreto, mentre non è possibile il viceversa.
I dati continui solitamente sono preferibili rispetto ai dati discreti perché forniscono
maggiori informazioni, più precise e non affette da variabilità o da errori dovuti ad
approssimazioni per l’inserimento in specifiche categorie. Tuttavia, la raccolta di
questo tipo di dati è più onerosa in termini di tempo (time-consuming), a meno che
essa non sia automatica. Per esempio, infatti, risulta essere più rapido stabilire che
la temperatura di una stanza è fredda (dato discreto) piuttosto che determinare che
corrisponde esattamente a dieci gradi (dato continuo).
Realizzare una definizione operativa della misura significa definire in modo chiaro e
preciso le istruzioni relative a come misurare uno specifico fenomeno, per garantire
che persone diverse possano ottenere lo stesso risultato se si trovano nella stessa
condizione. Una misura è operativa se è caratterizzata da uno strumento con cui
raccogliere il dato e da un protocollo da seguire per raccogliere il dato.
PROGETTAZIONE DELLA RACCOLTA DATI – LA STRATIFICAZIONE DEI DATI
Quello della stratificazione dei dati è un metodo utilizzato per individuare i fattori
che possono influenzare la misura di un dato. Tali fattori vengono detti fattori di
stratificazione e sono sempre accompagnati da una vera e propria causa che
scatena l’effettiva variazione del dato misurato. Alcuni fattori di stratificazione
possono essere il tempo, la macchina, l’attrezzatura, l’operatore, l’ambiente
esterno, e così via.
Dopo aver identificato i fattori di stratificazione e le cause ad essi correlate, è
opportuno raggruppare i dati misurati in gruppi omogenei secondo i fattori di
stratificazione stessi. Successivamente sarà necessario rappresentare graficamente i
dati stratificati, ossia raggruppati in gruppi omogenei, per poter verificare che
esistano delle effettive differenze tra di essi (altrimenti sarà necessario svolgere
un’altra stratificazione).
A titolo di esempio si prenda in considerazione la misura del tempo di attesa
presente all’interno di un ristorante prima di sedersi al tavolo: un fattore di
stratificazione può essere il fattore tempo, ossia il giorno della settimana nel quale si
effettua la misura, e la causa ad esso correlata è legata al fatto che in alcuni giorni
della settimana sono presenti più clienti rispetto a quelli presenti in altri giorni. In
questo caso un gruppo omogeneo di dati sarà composto da n set di dati, dove n è il
numero di giorni della settimana (un set di dati per ogni giorno della settimana).
|𝑩𝒊𝒂𝒔|
𝑩𝒊𝒂𝒔 % =
𝑽𝒂𝒓𝒊𝒂𝒛𝒊𝒐𝒏𝒆 𝒅𝒆𝒍 𝒑𝒓𝒐𝒄𝒆𝒔𝒔𝒐
Il Bias Study (studio del bias) consente di capire qual è in media la differenza tra i
valori che il misuratore produce e i valori di riferimento, mentre il Gage Linearity
(misura della linearità) consente di capire se lo strumento di misura ha la stessa
accuratezza per tutte le dimensioni degli oggetti misurati. L’obiettivo
dell’applicazione del Gage Linearity consiste nell’identificare la pendenza della retta
che correla i valori target crescenti delle misurazioni (asse x) e il bias misurato (asse
y) e ridurla il più possibile portandola idealmente a zero.
La regola utilizzata per stabilire la risoluzione da mantenere è la Ten Bucket Rule,
secondo la quale è necessario mantenere una risoluzione pari a un decimo del
valore target (per esempio se si deve misurare la lunghezza di un tubo di 5mm, il
sistema dovrà essere in grado di identificare differenze di 0,5mm).
La Stability Analysis valuta la capacità di ottenere gli stessi risultati nel tempo in
termini di accuratezza e precisione.
La stabilità analizza la consistenza della misurazione nel tempo considerando che gli
strumenti di misura non sviluppino problemi di accuratezza e precisione e che gli
operatori non commettano errori e non modifichino il loro metodo di utilizzo dello
strumento di misura.
DMAIC – MEASURE, ANALYSE E CONTROL
• La mediana è il punto centrale (valore nel mezzo o media dei due valori nel
mezzo) di un set di dati ordinato in base a qualche criterio (ordine crescente o
decrescente).
Media, mediana e moda sono uguali quando i dati sono distribuiti secondo una
normale (i valori reali tendono a concentrarsi intorno a un singolo valor medio e il
grafico della funzione di densità è simmetrico e ha una forma a campana); mentre
sono differenti quando i valori non sono distribuiti secondo una normale.
Vista la presenza di variabilità in tutti i processi, misurare il solo valore medio non è
significativo: è sempre importante misurare anche la dispersione della distribuzione
dal valor medio. Gli indici di dispersione indicano come i dati sono distribuiti intorno
al punto centrale (una dispersione alta indica alta variabilità dei dati). Le tre misure
maggiormente utilizzate sono le seguenti:
∑𝑵
𝒊3𝟏(𝑿𝒊 − 𝝁)
𝟐
𝟐
𝑷𝒐𝒑𝒐𝒍𝒂𝒛𝒊𝒐𝒏𝒆 −→ 𝝈 =
𝑵
h )𝟐
∑𝒏𝒊3𝟏(𝑿𝒊 − 𝑿
𝑪𝒂𝒎𝒑𝒊𝒐𝒏𝒆 −→ 𝑺𝟐 =
𝒏−𝟏
• La deviazione standard definisce la distanza media di ciascun dato dalla
media (è la radice quadrata della varianza).
∑𝑵
𝒊3𝟏(𝑿𝒊 − 𝝁)
𝟐
𝑷𝒐𝒑𝒐𝒍𝒂𝒛𝒊𝒐𝒏𝒆 −→ 𝝈 = i
𝑵
h )𝟐
∑𝒏𝒊3𝟏(𝑿𝒊 − 𝑿
𝑪𝒂𝒎𝒑𝒊𝒐𝒏𝒆 −→ 𝑺 = i
𝒏−𝟏
Nei diversi segmenti (minimo – primo quartile; primo quartile – mediana; mediana –
terzo quartile; terzo quartile – massimo) deve esserci progressivamente almeno il
25% - 50% - 75% - 100% del data set. Di conseguenza, la scatola del box plot tra il
primo e il terzo quartile rappresenta i valori comprendenti almeno il 50% del data
set. L’altezza di questa scatola, inoltre, viene definita IQR (InterQuartile Range) e
indica il range di variabilità dove più probabilmente ricadranno i valori.
La mediana divide la scatola in due parti, le quali non sono obbligatoriamente
uguali. I baffi si ottengono congiungendo Q1 al minimo e Q3 al massimo; ogni baffo
deve essere lungo al massimo 1.5 volte IQR.
Confrontando le lunghezze dei due baffi e le altezze dei due rettangoli che
costituiscono la scatola, è possibile analizzare la simmetria della distribuzione
(lunghezza dei baffi simili e altezze dei rettangoli simili indicano alta simmetria).
Il box plot consente inoltre di identificare gli outlier, ovvero i valori che sono
maggiori del massimo (+1.5 volte IQR dal terzo quartile) o minori del minimo (-1.5
volte IQR dal primo quartile). Gli outlier spesso riflettono errori nella raccolta dei
dati o, nei casi in cui tali valori non siano derivanti da errori ma valori reali, aiutano a
identificare aree su cui indirizzare analisi di dettaglio per comprendere cosa stava
succedendo in quel momento nel processo. Gli outlier effettivi (dati errati o dati
corretti ma isolati e fuorvianti) vengono eliminati dal campione, mentre i dati al di
fuori dei baffi che però non sono outlier devono essere mantenuti.
L’ideale consiste nell’avere una distribuzione normale, ossia nell’avere un’alta
simmetria della distribuzione (box simmetriche, baffi simmetrici e mediana pari alla
media), ma anche nell’avere box schiacciate verso la mediana e baffi corti.
Il run chart è un grafico sequenziale che mostra i dati raccolti in ordine cronologico,
rappresentando la loro sequenza temporale. Di conseguenza, questo strumento
serve per verificare se la tendenza centrale sta cambiando nel tempo o se si sta
mantenendo costante e quindi stabile.
Nel run chart è anche possibile riportare diversi campioni di dati (ognuno
contenente dati raccolti nello stesso momento), e rappresentare la loro mediana o
media per poter studiare l’andamento nel corso del tempo:
La control chart è un grafico molto simile al run chart perché prevede una
visualizzazione dei dati nel tempo, ma i due si differenziano perché nel costruire ed
utilizzare una control chart vengono presi in considerazione dei limiti di controllo.
Questi limiti sono delle linee addizionali (Upper Control Limit UCL e Lower Control
Limit LCL) alla linea centrale rappresentante la media (CL) che servono a
rappresentare un range atteso di variazione e che aiutano a identificare la cause di
variazione speciali. I dati rappresentati nelle control chart, a differenza di quelli
rappresentati nei run chart, devono avere una distribuzione normale.
Le carte di controllo sono per variabili (o di misure continue) se i dati presi in esame
sono espressi in una scala continua. Di seguito vengono descritte le varie tipologie di
control chart per variabili:
• La carta x.
𝝈
𝑳𝑪𝑳 = 𝝁 − 𝟑 ∗
√𝒏
𝑪𝑳 = 𝝁
𝝈
𝑼𝑪𝑳 = 𝝁 + 𝟑 ∗
√𝒏
h
𝑹
n−𝟑∗
𝑳𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙 h
n − 𝑨𝟐 ∗ 𝑹
=𝒙
√𝒏 ∗ 𝒅 𝟐
n
𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙
h
𝑹
n+𝟑∗
𝑼𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙 h
n + 𝑨𝟐 ∗ 𝑹
=𝒙
√𝒏 ∗ 𝒅𝟐
h
𝑳𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑹 = 𝑫𝟑 ∗ 𝑹
h
𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑹 = 𝑹
h
𝑼𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑹 = 𝑫𝟒 ∗ 𝑹
h
𝑺
n−𝟑∗
𝑳𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙 h
n − 𝑨𝟑 ∗ 𝑺
=𝒙
√𝒏 ∗ 𝒄𝟒
n
𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙
h
𝑺
n+𝟑∗
𝑼𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑿 = 𝒙 h
n + 𝑨𝟑 ∗ 𝑺
=𝒙
√ 𝒏 ∗ 𝒄𝟒
h
𝑳𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑺 = 𝑩𝟑 ∗ 𝑺
h
𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑺 = 𝑺
h
𝑼𝑪𝑳 𝑪𝒂𝒓𝒕𝒂 𝑺 = 𝑩𝟒 ∗ 𝑺
Le carte di controllo sono per attributi se i dati presi in esame sono espressi in una
scala discreta. Di seguito vengono descritte le varie tipologie di control chart per
attributi:
h ∗ (𝟏 − 𝒑
𝒑 h)
h−𝟑∗i
𝑳𝑪𝑳 = 𝒑
𝒏
h
𝑪𝑳 = 𝒑
h ∗ (𝟏 − 𝒑
𝒑 h)
h+𝟑∗i
𝑼𝑪𝑳 = 𝒑
𝒏
h ∗ (𝟏 − 𝒑
h − 𝟑 ∗ o𝒏𝒑
𝑳𝑪𝑳 = 𝒏𝒑 h)
h
𝑪𝑳 = 𝒏𝒑
h ∗ (𝟏 − 𝒑
h + 𝟑 ∗ o𝒏𝒑
𝑼𝑪𝑳 = 𝒏𝒑 h)
Nella fase di Analyse si identificano le varie possibili cause che hanno generato un
determinato problema, con l’obiettivo di stabilire quale tra queste è la vera causa
effettiva. Per rendere ciò possibile viene utilizzato il diagramma di Ishikawa (o
diagramma causa effetto o diagramma a lisca di pesce) che nel complesso
raggruppa le cause all’interno delle 4M+E, ossia le cinque principali aree
problematiche riferite ai materiali, alla manodopera, alle macchine, ai metodi, e
all’ambiente (environment). Dopo aver definito le potenziali cause, esse vengono
incluse come fattori di stratificazione nella raccolta dati (per questo motivo il
diagramma di Ishikawa è utile anche prima della fase di Analyse, all’interno della
fase di Measure).
LA CORRELAZIONE
LA REGRESSIONE
L’analisi di regressione calcola la forza del legame tra una variabile indipendente
(causa) e una dipendente (effetto), e solitamente rappresenta il passo successivo
all’analisi di correlazione. Il coefficiente di determinazione 𝑹𝟐 [0,1] sintetizza
quanto il comportamento dei punti è spiegato dalla retta di regressione. I parametri
(coefficiente angolare e intercetta) della retta di regressione si ottengono con la
funzione Excel REGR.LIN(variabile dipendente y; variabile indipendente x), mentre
𝑅 > è calcolabile come RQ(variabile dipendente y; variabile indipendente x).
Detto in altre parole, l’analisi di regressione stabilisce se è possibile descrivere con
una retta l’andamento e il legame tra variabili identificato con l’analisi di
correlazione (ed eventualmente fornisce informazioni riguardo a quanto la retta
approssima questo andamento).
IL TEST DELLE IPOTESI
Il test delle ipotesi è lo strumento per poter trarre conclusioni basate sui dati e in
particolare per capire se i dati sono coerenti con un modello, o se è possibile
confermare un’ipotesi sui dati, o infine se è possibile confermare un cambiamento.
I test effettuati dipendono dalla tipologia di dati considerati e dalle risposte che si
stanno cercando, ma le regole per condurre i test sono generali: prima si definiscono
i dati di partenza, e poi si definiscono l’ipotesi nulla (𝐻? ) e l’ipotesi alternativa.
L’ipotesi nulla solitamente prevede che i dati messi a confronto non abbiano
differenze, mentre l’ipotesi alternativa prevede quindi che ci sia una differenza
statistica tra i dati a confronto. Il test verifica la validità di 𝐻? e, in caso essa sia
rigettata, accetta l’alternativa.
Alcuni dei test solitamente usati sono applicabili solo in caso di dati normalmente
distribuiti, e di conseguenza sarebbe necessario verificare la normalità dei dati
(statistiche di base).
L’analisi della varianza di Fisher (Analysis of Variance ANOVA) si basa sul modello
additivo, il quale ipotizza che ogni dato sia composto da una somma di fattori: la
media reale generale 𝝁, un fattore del campione 𝜶𝒊 , e infine un fattore casuale 𝜺𝒊,𝒋
chiamato residuo o errore sperimentale (che è lo scostamento di quel particolare
dato dalla media del campione a cui appartiene). Possiamo considerare il dato come
𝒙𝒊,𝒋 = 𝝁 + 𝜶𝒊 + 𝜺𝒊,𝒋 .
L'ipotesi nulla 𝐻? è che la grandezza media reale 𝜇 sia uguale per tutti i campioni di
dati, mentre l’ipotesi alternativa 𝐻A è che almeno un campione abbia una grandezza
media reale 𝜇 diversa dagli altri. Se è valida l'ipotesi nulla, cioè se non c'è alcuna
differenza reale tra i campioni e le differenze nelle loro medie sono dovute solo al
caso, allora si dovrebbe trovare la stessa variabilità sia all'interno dei gruppi che tra
un gruppo e l'altro. Per controllare questa affermazione, l'analisi della varianza
prevede di calcolare la devianza totale, la devianza tra i campioni (between), la
devianza all'interno dei campioni (within), e i gradi di libertà di ognuna.
Si può ora calcolare il rapporto F tra le due varianze (varianza between/varianza
within) e, se l'ipotesi nulla fosse vera, questo rapporto dovrebbe essere uguale a 1
(o risultare vicino a 1, visto che le analisi statistiche non sono mai perfette); se
invece l'ipotesi nulla fosse falsa, in particolare se ci fosse almeno un campione con
una media realmente diversa dalle altre, la varianza tra i campioni risulterebbe
maggiore della varianza within, e di conseguenza il rapporto sarebbe sensibilmente
maggiore di 1.
Per determinare qual è il limite oltre il quale si può escludere l'ipotesi nulla, con una
possibilità 𝛼 di commettere un errore del primo tipo, si ricorre alla distribuzione F,
che per ogni coppia di gradi di libertà (quelli delle due varianze) e per ogni
probabilità 𝛼 indica il valore limite oltre il quale si può escludere l'ipotesi nulla.
Solitamente 𝛼 = 0,05, e cioè si ha il 95% di copertura. Si confronta il p-value (valore
di significatività) con il valore di 𝛼: se il p-value è minore o uguale di 𝛼, allora si
rifiuta l’ipotesi nulla (più basso è il p-value, meglio è).