Sei sulla pagina 1di 245

STATISTICA

PER LE
VALUTAZIONI
Appunti tratti dalle lezioni del
corso “Statistics for Evaluation”
Anno Accademico 2018-19

Duccio Stefano GAZZEI


GUIDORICCIO, IL NOSTRO SIMBOLO

Mi hanno chiesto perché ho scelto questo affresco come copertina delle mie dispense.

Ho sempre considerato Guidoriccio il simbolo dell'uomo che sta per prendere una decisione
importante. E' raffigurato pochi istanti prima di dare il segnale dell'attacco per l'assedio di
Montemassi. Ma l'artista lo ha ritratto da solo.... perché è da soli che si prendono le grandi
decisioni. Dopo avere elaborato le informazioni disponibili, ci si chiude in noi stessi e si
decide... DA SOLI...

Quindi mi sembrava il simbolo adatto per chi fa il nostro mestiere ... come Guidoriccio, in ogni
occasione, dobbiamo analizzare le informazioni disponibili e prendere decisioni... DA SOLI...
come lui.

Chi lo dipinse voleva proprio ricordare, a chi doveva prendere decisioni in quella grande stanza
del "Mappamondo" - decisioni che avrebbero deciso la storia di una Comunità - che nel
momento delle decisioni, sarebbero stati da soli...

Desidero ringraziare:
- Andrea Alessi
- Mena Dell’Angelo
- Bruno Giorgi
- Sabrina Petrini Rossi
- Enrico Sacco

Per il loro contributo alle lezioni ed a queste dispense.

I
Questo scritto è dedicato a quel gruppo di
ragazzi che, nonostante l’orario difficile,
parteciparono alla trentina di lezioni del
corso, negli ultimi mesi del 2018

II
INDICE

INTRODUZIONE ........................................................................................................... 1
LA STATISTICA E LA VALUTAZIONE ............................................................................. 1
CAPITOLO 1 ................................................................................................................. 3
IL REPORTING ............................................................................................................. 3
1.1. MECCANISMI DI CONTROLLO E DI COMUNICAZIONE........................................... 4
1.2. LA REPORTISTICA: FINALITÀ GENERALI ............................................................... 4
1.3. DESTINATARI E TIPOLOGIA DI REPORTING .......................................................... 5
1.4. REQUISITI, CONTENUTI E PERIODICITÀ DEI REPORT ........................................... 6
1.5. TABLEAU DE BORD - TDB ................................................................................... 9
1.6. DECISION SUPPORT SYSTEM - DSS ......................................................................11
1.7. ADVANCED DECISION SUPPORT SYSTEM - ADSS ............................................... 14
CAPITOLO 2 ............................................................................................................... 15
IL CLIENTE ................................................................................................................ 15
2.1. IL “MODELLO DEI GAP” COME GUIDA PER IL NOSTRO PERCORSO ..................... 17
2.1.1. IL CONCETTO DI QUALITÀ E LA SUA EVOLUZIONE ........................................... 23
2.1.2. IL “NET PROMOTER SCORE” .......................................................................... 31
2.2. LA SEGMENTAZIONE DELLA CLIENTELA ............................................................ 45
2.2.1. LA SEGMENTAZIONE A PRIORI ......................................................................... 46
2.2.2. LA SEGMENTAZIONE A POSTERIORI ................................................................ 61
CAPITOLO 3 ............................................................................................................... 98
LA VALUTAZIONE DELLA PRODUZIONE ..................................................................... 98
3.1. LA VALUTAZIONE DELLA PERFORMANCE PRODUTTIVA .....................................100
3.2. LA VALUTAZIONE DELLA QUALITÀ PRODUTTIVA ...............................................126
CAPITOLO 4 ..............................................................................................................134

III
LA VALUTAZIONE DELLA EFFICACIA DELLA COMUNICAZIONE PUBBLICITARIA ........134
4.1. IL MODELLO D.A.G.M.A.R. (DETERMINING ADVERTISING GOALS FOR
MEASURED ADVERTISING RESULTS) (1961) DI R. COLLEY ......................................135
4.2. IL MODELLO DI RUSSELL WINER ......................................................................137
4.3. LA MISURAZIONE DELLA RISPOSTA COGNITIVA: I MODELLI DI ZIELSKE,
MORGENZSTERN E BROADBENT .............................................................................138
4.4. LA MISURAZIONE DELLE RISPOSTE AFFETTIVO-COMPORTAMENTALI ...............140
4.5. CENNI DI WEB ANALYSIS ..................................................................................142
CAPITOLO 5 ..............................................................................................................155
LA VALUTAZIONE DEL POTENZIALE DI VENDITA .......................................................155
5.1.1 INTRODUZIONE AL GEOMARKETING STATISTICO ...........................................157
5.1.2. I CONCETTI BASE E GLI STRUMENTI DEL GEOMARKETING STATISTICO .........160
5.2.1 LE ATTIVITÀ E LE METRICHE DEL CRM ..........................................................179
5.2.2 LA REALIZZAZIONE DI UNA CAMPAGNA COMMERCIALE................................... 181
5.2.3 LA VALUTAZIONE DELL’EFFICACIA DI UNA CAMPAGNA COMMERCIALE ...........185
CAPITOLO 6 ..............................................................................................................193
LA VALUTAZIONE DELLE RISORSE UMANE ...............................................................193
6.1 LA VALUTAZIONE DELLE PRESTAZIONI ..............................................................195
6.2 LA VALUTAZIONE DEL POTENZIALE ...................................................................196
CAPITOLO 7 ..............................................................................................................199
LA VALUTAZIONE DEGLI EFFETTI DELLE POLITICHE PUBBLICHE ..............................199
7.1.1 L’EFFICIENZA INTERNA DELLA PUBBLICA AMMINISTRAZIONE...................... 202
7.1.2 L’ ACTIVITY BASED MANAGEMENT: LO STRUMENTO PER LA PIANIFICAZIONE
STRATEGICA DELLE RISORSE UMANE ...................................................................... 203

7.1.3 L’ANALISI PER ATTIVITÀ E LA COSTRUZIONE DEL MODELLO ABM................. 206


7.1.4 LA COSTRUZIONE DELLA MAPPA DEI PROCESSI DI AZIENDA ........................... 207
7.1.5 LO SCHEMA BASE DELLA METODOLOGIA ABM ............................................... 209
7.1.6. LE ATTIVITÀ DI UNA LOGICA ABM ................................................................. 211
7.2. VALUTARE GLI EFFETTI DELLA POLITICA USANDO IL METODO SPERIMENTALE212
7.3. I CONFRONTI SPAZIO-TEMPORALI CON DATI NON SPERIMENTALI ....................217
CONCLUSIONI ......................................................................................................... 234
BIBLIOGRAFIA ................................................................................................... 235

IV
V
INTRODUZIONE
LA STATISTICA E LA VALUTAZIONE

Spesso mi viene domandato quando è avvenuto che la statistica sia entrata


di prepotenza nel mondo delle valutazioni, soprattutto quelle legate alla vita
aziendale. Rispondo sempre allo stesso modo: quando è arrivato il
computer… quando, cioè, nelle aziende sono entrati in modo diffuso i PC.
Questi ultimi, infatti, hanno creato le condizioni perché gli strumenti statistici
potessero funzionare al meglio, mettendo a disposizione l’ingrediente più
importante: i dati.
Prima della diffusione in grande scala dei computer, infatti, era davvero
difficile poter fare analisi statistica. Chi, ad esempio, avesse dovuto fare uno
studio sulle risorse umane (numero e attività svolte in un certo periodo di
tempo) per una azienda medio-grande, sarebbe stato costretto a
scartabellare sulle copie dei prospetti inviati, per legge, all’INPS o all’INAIL
facendo grande attività di data entry, sperando che negli archivi dell’azienda
fossero stati conservati in modo corretto ed ordinato, e magari anche per un
numero di anni superiore a quelli previsti per la prescrizione.
Altro esempio: pochissime aziende avevano conoscenza di quale fosse la
reale consistenza del loro magazzino in tempo reale. L’inventario spesso si
faceva una volta sola ed alla fine dell’anno. Contando a mano pezzo per
pezzo.

1
INTRODUZIONE

Oggi i moderni sistemi di gestione delle risorse umane, basati sull’utilizzo di


tesserini dotati di banda magnetica (badge elettronici), una volta che i
dipendenti li hanno “strisciati” in appositi lettori all’entrata ed all’uscita,
forniscono con estrema precisione qualunque tipo di dato su orari ed attività
svolte, già in formato leggibile dai software di analisi più diffusi.
Nel caso della gestione del magazzino, i “codici a barre” hanno
rappresentato una vera e propria rivoluzione. Ogni azienda “carica” il
magazzino con una semplice penna ottica, e lo “scarica” al momento della
vendita. Quindi è sempre possibile, in ogni momento, conoscerne la reale
consistenza.
Quindi i PC e gli strumenti collegati hanno prodotto in modo diretto ed
indiretto le condizioni perché ci fossero i mattoni di base per la costruzione
dell’analisi quantitativa.
Anzi è successo che in molti casi che la disponibilità di dati sia quasi
diventata eccessiva, tale da generare l’esigenza opposta di doverli gestire,
per trasformarli in POCHE IMPORTANTI INFORMAZIONI.
Ed è nata la disciplina della Statistica Aziendale ed oggi la figura del Data
Scientist. Obiettivo: trasformare tanti dati in poche fondamentali
informazioni strategiche.
Ecco, la nostra mission è questa: TRASFORMARE TANTI DATI IN POCHE
FONDAMENTALI INFORMAZIONI STRATEGICHE

2
CAPITOLO 1
IL REPORTING

L’efficienza di una qualsiasi organizzazione imprenditoriale, passa attraverso


l’ottimizzazione del sistema composito che coinvolge gli aspetti interni
all’azienda, quelli che si rivolgono verso l’esterno e quelli che riguardano la
relazione con i clienti reali e potenziali. Un’attenta strutturazione e gestione di
questo sistema complesso, l’adeguatezza delle scelte direzionali del
management e un efficace impianto di controllo e monitoraggio delle attività,
possono funzionare nel tempo solo se supportate da un idoneo meccanismo di
comunicazione interno all’organizzazione.

Il reporting, perciò, lungi dall’essere il punto di arrivo legato alla presentazione e


condivisione dei risultati finali di un determinato processo, rappresenta un
fondamentale supporto alla corretta gestione delle attività decisionali e di
controllo di un’organizzazione. Perché ciò avvenga, è necessario comprendere
bene le caratteristiche che, di volta in volta, uno strumento di reportistica può
assumere in funzione alle esigenze informative cui deve rispondere, in maniera
completa, sintetica, corretta e tempestiva.

In questo capitolo si cercherà di evidenziare quali sono le finalità generali di un


efficace sistema di reportistica, evidenziando obiettivi e aspetti caratterizzanti un
buon reporting – requisiti, contenuti, periodicità – in funzione dei suoi destinatari
e del livello di decisione o valutazione che si intende supportare. Infine, dal
“sistema” variegato e versatile presentato, si approfondirà la descrizione di
quattro famiglie classificatorie generali: report, Tableau De Bord (TDB), Decision
Support System (DSS), Advanced Decision Support System (ADSS).

3
Duccio Stefano Gazzei

1.1. Meccanismi di Controllo e di Comunicazione

Nell’ambito di una qualsiasi organizzazione di impresa esiste un legame


biunivoco tra meccanismi di controllo e quelli di comunicazione: infatti se da
una parte si può affermare che efficienti sistemi di controllo consentono
efficienti sistemi di comunicazione, dall’altra è indubbio che efficienti sistemi
di comunicazione consentono di valorizzare al massimo i sistemi di
controllo. La sinergia tra i due meccanismi consente un continuo
affinamento della “strumentazione” gestionale e lo sviluppo del meccanismo
di comunicazione fa parte di quel ramo aziendale identificato come
“Innovazione e Sviluppo”.

1.2. La reportistica: finalità generali

La reportistica direzionale è costituita dall’insieme di rendiconti, tabelle,


grafici, indicatori opportunamente strutturati per area di responsabilità e per
oggetti del controllo, che mettono a confronto i dati programmati con quelli
effettivamente consuntivati. Gli obiettivi sono molteplici e mirano ad
evidenziare il rispetto degli obiettivi programmati, identificare le eventuali
cause di scostamento, favorire l’adozione di eventuali azioni correttive e
valutare le prestazioni dei vari responsabili operativi.

Il reporting è quella parte di output del sistema di contabilità direzionale che


diviene input di un processo decisionale volto a verificare le politiche aziendali,
formulate in sede di budget, ad intervenire sulle cause che hanno impedito il
raggiungimento degli obiettivi prefissati, ed infine, a riformulare politiche e
strategie aziendali alla luce di nuove situazioni intervenute all’interno ed
all’esterno dell’impresa1.

Le finalità degli strumenti di reportistica, quindi, variano al variare del livello


di referenti cui essi sono destinati, poiché diverse sono le valutazioni che
devono effettuare così come le azioni che sono chiamati a prendere.

1 Saita M. (1988), Il sistema amministrativo evoluto, Mc Graw Hill, Milano

4
Statistics for Evaluation

Figura 1 – Le diverse finalità del reporting in ordine al livello di referenti

1.3. Destinatari e tipologia di reporting

Si possono sintetizzare tre principali categorie di destinatari e le relative


tipologie di reporting ad esse solitamente associate; si riportano a partire
dal livello più altro nell’organizzazione di una realtà di impresa:
- Manager di alto livello  Report di Sede Centrale: l’obiettivo è far
capire se l’impresa è gestita in modo efficace ed efficiente cosicché
possano impostare correttamente la loro attività di guida strategica. I
report hanno un oggetto molto ampio e una cadenza non frequente.
- Dirigenti di vario grado  Report per unità di business:
l’obiettivo è rendere comprensibile ai dirigenti se il loro operato è
coerente con il piano concordato in ordine ai tempi e alla direzione di
marcia. I report, essendo destinati a chi ha la responsabilità di
un’unità organizzativa autonoma (ad es. uno stabilimento, una filiale
estera, un’area strategica d’affari), presentano un più approfondito
livello di dettaglio e una maggiore frequenza.

5
Duccio Stefano Gazzei

- Responsabili di progetto  Report operativi: l’obiettivo è rendere


edotto il responsabile di un servizio e/o di un singolo progetto sul suo
stato di avanzamento (SAL) per ciò che riguarda i tempi di
attuazione, il consumo di risorse e la qualità ottenuta. I report,
essendo destinati a chi ha la responsabilità di un prodotto/ servizio o
di una commessa o di un’attività produttiva, sono molto dettagliati e
presentati con frequenza elevata.

1.4. Requisiti, contenuti e periodicità dei report

Ogni report, perciò, deve essere strutturato in modo da rispondere in


maniera esaustiva ed efficace alle esigenze del destinatario. Nel momento
in cui si sintetizzano e organizzano le informazioni, si devono dunque
valutare in maniere attenta una serie di aspetti che si raggruppano sotto tre
diversi ambiti: requisiti delle informazioni, contenuti e periodicità.

Requisiti delle informazioni


Chiarezza. Le informazioni devono essere facilmente comprensibili per
chi le deve utilizzare. Tabelle, grafici e indicatori devono rappresentare
con immediatezza i fenomeni analizzati.
Affidabilità. Le informazioni devono essere sottoposte a procedure di
controllo per rendere ridotto al massimo il margine di errore.
Selettività. Le informazioni devono essere selezionate in funzione
all’interesse del destinatario.
Sinteticità. Le informazioni devono essere non ridondanti, di facile
consultazione e assimilazione. Non vale il melius abundare quam
deficere, poiché in molti casi troppa informazione equivale a nessuna
informazione.
Tempestività. Le informazioni devono essere rese disponibili in tempo
utile per chi deve prendere le decisioni.

6
Statistics for Evaluation

Contenuti
Economico-Finanziari. Illustrano fenomeni espressi in quantità
monetaria (ad es. Costi, Liquidità, Redditività, Produttività, etc.).
Operativi non monetari. Riguardano i tempi di consegna, i tempi di
produzione, le quantità prodotte e/o vendute, scarti di produzione, numeri
di reclami, etc.
Strategici. Consentono di monitorare variabili strategiche di medio e
lungo periodo (ed es. fidelizzazione e soddisfazione degli utenti,
affidabilità dei fornitore, gradi di efficienza, quote di mercato, etc.).

Periodicità
Giornaliera. Il reporting giornaliero serve a monitorare prodotti/servizi
che hanno elevata volatilità legata ai singoli giorni della settimana.
Settimanale. Il reporting settimanale fornisce informazioni su tutti quei
progetti che coinvolgono più strutture, con cadenze periodali di breve
periodo.
Mensile. Il reporting mensile deve fornire informazioni relative ai fattori
critici di successo (portafoglio ordini, indicatori di soddisfazione della
clientela, indicatori del grado di rispetto dei tempi programmati, etc.) e
relative alla redditività per prodotti e per clienti.
Semestrale. Il reporting semestrale deve fornire informazioni sintetiche
che consentono di seguire alcuni progetti o programmi da parte dell’alta
direzione
Annuale. Il report annuale deve fornire indicazioni di sintesi sull’intera
azienda in modo da avere una visione di insieme sull’andamento
dell’impresa.

7
Duccio Stefano Gazzei

Sulla base degli elementi richiamati che caratterizzano la corretta


strutturazione di un reporting in base alle esigenze informative cui deve
rispondere, è possibile strutturare uno schema riassuntivo generale.

Di sede centrale Per unità di business Operativi

Quantitative-Operative Quantitative-Operative
Tipi di Quantitative-Operative
Economico-Finanziarie Economico-Finanziarie
informazione Economico-Finanziarie
Strategiche Strategiche

Unità organizzative
Riferimenti Intera azienda Singoli prodotti/servizi
autonome
Sintesi report unità di
business
Fattori critici di
successo Produzione
Sintesi report fattori
- portafoglio ordini - qualità prodotti/servizi
critici di successo
- consegne - qualità forniture
- indicatori di efficacia
Bilancio Economico
- indicatori di Costi controllabili
Gestionale
tempistica - controllo costi qualità
Oggetto delle
- controllo costi che
informazioni Rendiconti e preventivi
Redditività per prodotti non aggiungono valore
finanziari
e per cliente
- controllo costi variabili Investimenti
Analisi Indicatori (ROI,
- controllo costi fissi - riduzione delle scorte
ROS, ROE)
- controllo rotazione - controllo utilizzo
scorte impianti
Esame Budget

Balanced Scorecard
Grado di dettaglio
approfondito
Grado di Informazioni sintetiche Informazioni dettagliate
(comunque minore
dettaglio preventive e consuntive sui dati effettivi
rispetto ai rapporti
operativi)
Mensile, Semestrale, Frequente (giornaliera,
Periodicità Mensile
Annuale settimanale)

Tabella 1 – Tassonomia del reporting

Fin da questi primi elementi finora illustrati, e sintetizzati nella tabella


precedente, è chiaro come il corretto utilizzo del reporting rappresenti un
“sistema” assai vario, estremamente flessibile e versatile, adattabile alla
realtà oggetto di studio. Tuttavia è possibile, pur nella estrema molteplicità
di casi ed esperienze, individuare quattro famiglie classificatorie generali:

8
Statistics for Evaluation

report, Tableau De Bord (TDB), Decision Support System (DSS), Advanced


Decision Support System (ADSS).

1.5. Tableau De Bord - TDB

Il Tableau De Bord, come ben si intuisce è di origine francese, ed è ispirato


al “Diario di bordo” che si compilava ed ancora oggi si aggiorna sulle barche
in navigazione. Per le leggi marinare era fondamentale che ogni giorno si
facesse il punto della posizione dove ci si trovava con la nave (oggi si
direbbe georeferenziazione) e si verificasse il rispetto della rotta fissata
all’inizio del viaggio.
Guai a non fare con precisione e costanza questa operazione di verifica: un
errore di navigazione individuato con un ritardo maggiore di un giorno
avrebbe potuto pregiudicare l’intero viaggio, considerando le scorte
alimentari e di acqua.
Oggi i moderni impianti di geolocalizzazione rendono tale controllo
automatico e continuo, ma è restata ai marinai ben presente, quasi fosse
una paura atavica e latente, l’esigenza di calibrare sempre gli sforzi per
organizzare il viaggio nel modo più efficace possibile.
Quindi il TBD, come “diario di bordo” della gestione aziendale, ha il compito
di controllare il rispetto della “rotta” di uno specifico progetto o di una attività
aziendale.
Per creare un TDB adeguato è indispensabile comprendere a fondo gli
obiettivi strategici e di performance del progetto, conoscere l’organizzazione
che opera per conseguire tale performance.
In primo luogo, conoscere gli obiettivi strategici e di perfomance del
progetto è necessario per esplicitare l’orientamento strategico dell’azienda
e cioè delle modalità di rapportarsi con l’ambiente tramite la formulazione
degli obiettivi da raggiungere con i progetti. Si tratta, in altri termini, di

9
Duccio Stefano Gazzei

comprendere le variabili critiche, i fattori critici di successo del progetto


oggetto d’indagine. In definitiva questa fase è finalizzata ad interpretare:
- i bisogni del cliente
- le caratteristiche dei beni/servizi e le modalità di offerta
- la struttura tecnico produttiva, commerciale, direzionale dei settori
che operano sul progetto.
In secondo luogo è fondamentale conoscere l’organizzazione che opera
per conseguire la il livello di performance desiderato sul progetto. La
performance è il risultato di una pluralità di azioni intermedie o
frammentarie, poste in essere dalle varie unità organizzative che
compongono l’impresa e spesso tale azioni sono distanti nel tempo e nello
spazio o non immediatamente percepibili. In questo senso per progettare il
TDB è necessario conoscere assai bene:
- le unità organizzative aziendali coinvolte nel progetto
- le relazioni esistenti tra le varie unità organizzative che si
concretizzano in scambi di servizi necessari al funzionamento
dell’unità organizzativa che li riceve
- le attività svolte dalle varie unità organizzative per porre in essere le
relazioni dirette al conseguimento della performance e cioè per
erogare i servizi alle unità organizzative “clienti”
- i processi rilevanti per la realizzazione della performance, vale a dire
le sequenze di attività e di scambi servizi effettuati per conseguire
una determinata prestazione strategicamente rilevante.

Infine, sulla base dell’analisi svolta su obiettivi e organizzazione, si arriva


alla definizione del sistema di indicatori di performance che,
coerentemente a quanto illustrato, si caratterizzano in indicatori di
efficienza, efficacia e economicità.
Gli indicatori che si riferiscono a specifici scambi con l’ambiente esterno si
definiscono globali o finali. Questi riguarderanno da una parte la
misurazione degli obiettivi, dei vincoli e dei risultati di ordine economico e

10
Statistics for Evaluation

finanziario attesi dalle combinazioni organizzative e gestionali aziendali,


dall’altra le variabili chiave, vale a dire dei fattori critici di successo su cui si
basa l’azione strategica, organizzativa e gestionale del progetto.
Gli indicatori che si riferiscono all’interno dell’azienda possono essere
invece analitici o intermedi. Oggetto di misurazione sono le unità
organizzative aziendali e si prende in considerazione l’efficienza interna
delle singole unità, l’efficacia delle relazioni e cioè degli scambi di servizi tra
le varie unità organizzative, l’economicità delle combinazioni prodotto-
mercato-organizzazione che caratterizzano la formula imprenditoriale del
progetto.

1.6. Decision Support System - DSS

Un DSS (Decision Support System ) si basa su una intuizione semplice ma


geniale che si ispira al cruscotto dell’auto. In sostanza, su un progetto si
cerca di offrire un numero limitato di indicatori che permettano di capire se
“tutto va bene” proprio come in un auto: basta un’occhiata agli strumenti per
rendersi conto se ci sono problemi o meno. Per il middle ed il top
management rappresenta la sintesi di tutte le informazioni significative,
esposte in modo da rappresentare con efficacia l’andamento aziendale. Per
creare un DSS adeguato è indispensabile comprendere a fondo gli obiettivi
strategici e di performance del progetto, conoscere l’organizzazione che
opera per conseguire tale performance, definire il sistema di indicatori
completo e sintetico tarato sulle informazioni disponibili.
I Decision Support System sono divenuti un’area culturale della ricerca
scientifica grazie al lavoro di Gorry e Scott Morton nei primi anni ‘70, i quali
hanno evidenziato l’utilità e le potenzialità di tali sistemi. Da allora si sono
susseguite diverse definizioni di DSS anche se dal nome, piuttosto
autoesplicativo, è possibile dedurre quali siano gli elementi alla base dei
DSS:

11
Duccio Stefano Gazzei

- Decision sta ad indicare l’attenzione rivolta ad attività decisionali e a


problemi direzionali
- Support indica che il reporting è di aiuto nel prendere le decisioni,
ma non si sostituisce al decisore, il quale rimane il vero protagonista
- System evidenzia che questi strumenti mirano all’integrazione tra
utenti, macchine e metodologie di analisi.

Prima di dare una caratterizzazione dei DSS è utile precisare cosa si


intende per processo decisionale: una successione di attività elementari
che hanno luogo nel momento in cui un individuo o un’organizzazione
prende una decisione. All’interno di una realtà aziendale ogni attività
produce dei risultati che alimentano le attività successive e i processi
decisionali possono essere anche molto diversi a seconda del soggetto che
è chiamato a gestire la scelta direzionale. Per la maggior parte degli
studiosi di DSS, il processo decisionale può essere rappresentato con il
modello proposto da Simon negli anni ‘60 e ancora oggi ritenuto
soddisfacente, il quale suddivide il processo in tre fasi principali, da ognuna
delle quali è possibile tornare alle precedenti, e che consistono in:
- Intelligence: è la fase in cui si raccolgono informazioni sia
dall’ambiente esterno che interno per individuare e circoscrivere un
problema da affrontare
- Design: questa fase consiste nel comprendere il problema, generare
soluzioni possibili e analizzarle. È in questa fase che intervengono le
capacità e l’esperienza del decisore, nonché la sua creatività
soprattutto nel generare le alternative
- Choice: in questa fase si procede alla valutazione e quindi alla scelta
delle alternative formulate nella fase precedente. Si definiscono a tal
fine dei parametri e degli indicatori che permettano di fare sia
confronti fra i piani d’azione che previsioni su quali saranno le
conseguenze delle scelte.

Il processo decisionale definito nel modello di Simon è anche detto


processo decisionale a razionalità limitata, perché secondo Simon nella

12
Statistics for Evaluation

maggior parte dei casi il decisore non ha interesse a raggiungere la


soluzione ottimale, ma piuttosto una soluzione approssimata che rispetti
certi targets.
Alcuni studiosi, come ad esempio Rubenstein e Haberstroh, ampliano il
modello di Simon aggiungendo alle fasi da lui delineate anche le fasi di
implementazione della decisione e verifica dei risultati e, se necessario, il
feedeback alle fasi precedenti al fine di poter modificare la decisione.
Nell’arco di pochi anni si sono ripetute diverse definizioni, partendo dalle
prime molto generiche, che hanno lasciato spazio ad un’accezione molto
ampia del concetto di DSS. Nei primi anni ‘70 si definisce DSS “un sistema
informatico a supporto del processo decisionale”. Intorno alla metà degli
anni ‘70 si enfatizza l’aspetto interattivo del sistema e la sua capacità di
aiutare l’utente nell’utilizzo della base dati e dei modelli per risolvere
problemi. Alla fine degli anni ‘70 e agli inizi degli anni ‘80 un DSS viene
definito come “un sistema che usa le tecnologie disponibili per migliorare le
attività manageriali”.
Un Decision Support Sistem è un sistema di reporting che mette a
disposizione dell’utente, il decisore, una serie di funzionalità di analisi dei
dati e utilizzo di modelli in maniera interattiva ed estremamente semplice,
allo scopo di aumentare l’efficienza e l’efficacia del processo decisionale. È
perciò possibile, a partire datale definizione, identificare gli aspetti
essenziali che devono caratterizzare di un DSS:
- facilità d’uso e flessibilità del reporting
- supporto per la soluzione di problemi
- efficacia nell’utilizzo dei modelli e nell’analisi dei dati di interesse
- possibilità per il sistema di diventare parte integrante del processo
decisionale.

13
Duccio Stefano Gazzei

1.7. Advanced Decision Support System - ADSS

Nella fase di preparazione di un progetto e nella sua successiva attuazione,


il management chiamato a prendere le decisioni è interessato a verificare
possibili scenari, procedendo per confronti fra ipotesi e risultati di
osservazioni sistematiche sulla realtà.
Un possibile approccio, in questo senso, prevede che le osservazioni sui
fenomeni che il decisore è interessato è valutare, vengano condotte
seguendo opportuni schemi di stratificazione della realtà in base a caratteri
diversi collegati con le ipotesi da verificare. Si osserva e si analizza
l’evolversi di eventi critici, partendo da più punti di vista e effettuando
valutazioni attraverso uno sistema predefinito con molteplici livelli di lettura.
Il approccio più evoluto prevede anche l’intervento del reporting su una o
più variabili che condizionano i fenomeni oggetto d’indagine, secondo un
schema preordinato in funzione delle ipotesi da verificare. In sostanza il
sistema di reporting “simula” come in un esperimento il verificarsi di alcune
situazioni che possono consentire al management (top e middle) di
assumere opportune decisioni. Un Advanced Decision Support Sistem è un
sistema avanzato di reporting che consente proprio di seguire questo
secondo approccio.

14
CAPITOLO 2
IL CLIENTE

Il cliente è alla base di qualsiasi discorso aziendale e quindi anche del marketing.
Le aziende per poter essere realmente competitive devono conquistare, e
mantenere nel tempo, la fiducia dei propri clienti, allineandosi alla loro percezione
di valore per poterne ottimizzare l’offerta.

Sono tante le definizioni che si danno del marketing, e per quanto possano
essere diverse, tutte sono caratterizzate da un unico, comune denominatore. Lo
scopo del marketing è quello di apprendere: cos’è, come funziona, come si
utilizza in comunicazione e come è possibile trasferire, in modo sostenibile e
profittevole, valore al cliente.

Il cliente gioca infatti un ruolo fondamentale nel mondo del marketing, in quanto,
se questi dovesse decidere di andare a spendere i propri soldi altrove, potrebbe,
da solo, contribuire fattivamente alla chiusura dell’azienda.

Una relazione cliente-azienda impostata sulla reciproca fiducia è quindi di


basilare importanza per rimanere a lungo sul mercato, perché è il cliente a
decidere quali beni e servizi acquistare, e da chi acquistarli. Se a un certo punto
decidesse di non comprare più i prodotti di un’azienda, necessariamente
rivolgerebbe le proprie attenzioni nei confronti della concorrenza.

Oltre alla fiducia, un altro termine di importanza rilevante è valore. Qualsiasi tipo
di azienda infatti, di qualsivoglia settore merceologico o ambito, vive il cliente
come perno attorno al quale ruota la propria attività, e suo obiettivo primario deve
essere trasferirgli più valore possibile.

Quando si parla di marketing, infatti, alcune persone erroneamente tendono a


pensare che voglia dire esclusivamente ricerche di mercato finalizzate alla
comunicazione o anche solo, banalmente, attività di manipolazione della
domanda. Le attività di marketing, invece, molto più sottilmente aiutano le
aziende a vedere il mercato e il panorama economico con gli stessi occhi del
cliente, in modo da poter avere la sua stessa percezione di valore.

15
Duccio Stefano Gazzei

Possiamo quindi dire che la disciplina del marketing ruota attorno un unico,
grande concetto: la creazione o l’ottimizzazione di un valore irresistibile che il
cliente sia in grado di percepire in ogni momento dell’offerta di beni o servizi da
parte dell’azienda.

16
Statistics for Evaluation

2.1. Il “Modello dei Gap” come guida per il nostro percorso

Ad oggi la qualità è intesa come la capacità di adattare il sistema produttivo


ai bisogni espressi dai propri clienti: una certa impresa deve quindi
considerare la qualità in termini di soddisfazione dei consumatori. La
nozione di qualità si sposta perciò verso l’idea di qualità percepita, che si
affianca al concetto di customer satisfaction. In letteratura si sottolinea la
differenza tra qualità percepita e soddisfazione: in generale la prima è vista
come una valutazione globale relativa alla superiorità del servizio, un
concetto simile a quello di atteggiamento, mentre per soddisfazione si
intende la reazione emozionale ad una specifica transazione. Ripetute
esperienze che inducono soddisfazione, generano qualità percepita dai
clienti nei confronti dell’offerta.
In letteratura si riscontrano molteplici definizioni di soddisfazione. Questo
fatto sottolinea come non vi sia una visione univoca di tale concetto, anche
se le varie definizioni sembrano fondarsi sulla stessa idea di base: la
soddisfazione deriva da una disconferma (in positivo) delle attese del
cliente, ovvero si tratta di una risposta del consumatore nel momento in cui
percepisce un disallineamento tra le sue aspettative prima dell’utilizzo del
prodotto/servizio ed il risultato effettivamente ottenuto.
L’analisi della customer satisfaction dovrebbe perciò essere incentrata sulla
valutazione degli scostamenti (gap) tra la qualità offerta – nelle sue varie
sfaccettature e dimensioni – e quella domandata. In tal senso, uno dei primi
modelli proposti e fra i più diffusi per la valutazione dei servizi è il modello
SERVQUAL2 che misura la qualità del servizio tramite la determinazione
della differenza tra le valutazioni che i fruitori intervistati hanno assegnato
alla coppia aspettative/percezioni. Lo scopo del lavoro di Parasuraman,
Zeithalm e Berry è quello di proporsi come strumento di portata generale,
riuscendo ad individuare le dimensioni fondamentali che sottostanno al
giudizio di soddisfazione per i servizi, così da poter costruire uno strumento
versatile applicabile a diversi settori. Gli autori infatti arrivano, con la loro
analisi, a scomporre la qualità del servizio in cinque dimensioni principali e

2Parasuraman, Berry, Zeithaml (1988)

17
Duccio Stefano Gazzei

tra loro indipendenti: Aspetti tangibili, Affidabilità, Capacità di risposta,


Capacità di rassicurazione, Empatia.
Il modello SERVQUAL ha ricoperto un’enorme importanza nell’ambito delle
ricerche di marketing per la valutazione della qualità dei servizi e ha aperto
un dibattito che ha portato alla sua revisione e integrazione – anche da
parte dei suoi stessi autori – e all’evoluzione della tematica legata alla
misurazione della customer satisfaction. I numerosi contributi rispetto ai
metodi di misurazione della qualità percepita e della soddisfazione dei
clienti hanno perseguito l’obiettivo di individuare le dimensioni fondamentali
che sottostanno al giudizio di soddisfazione ed identificare il peso relativo di
tali dimensioni sul livello di soddisfazione globale. L’esperienza nella ricerca
ha insegnato, comunque, che le scale di misurazione costruite ad hoc per
particolari tipologie di servizio permettono di identificare con maggiore
precisione i fattori collegati al giudizio di soddisfazione: una scala costruita
per la specifica situazione di servizio valorizza gli aspetti situazionali
dell’esperienza e permette di identificare puntualmente le aree di successo
e quelle di intervento. Ma l’apporto principale del SERQUAL e dei contributi
che ne sono seguiti, è stato quello di introdurre la logica della misurazione
dei gap per pervenire ad una valutazione della qualità da parte dei clienti
utile ad intervenire nell’intero processo aziendale.
La matrice teorica di questi studi è costituita dal “Modello dei Gap”3.
Con questo tipo di approccio, la soddisfazione (o l’insoddisfazione) del
cliente è generata dal confronto che egli opera tra la percezione del servizio
fruito e le aspettative sullo stesso. Secondo l’impostazione che discende da
tale modello, se un servizio è percepito dall’utente di livello inferiore alle sue
aspettative, le cause vanno ricondotte ad uno o a più segmenti gap.
I vari gap possono essere ridotti o eliminati attraverso il raggiungimento di
un più elevato standard di qualità all’interno delle diverse aree
problematiche. La ricerca di detto standard orienta gli obiettivi del
management al perseguimento della total quality.

3 Parasuraman,Zeithaml e Berry (1988)

18
Statistics for Evaluation

GAP 1 GAP2 GAP3 GAP4 GAP5

servizio soddisfazione
soddisfazione soddisfazione servizio
offerto percepita
attesa pianificata comunicato

specifiche
soddisfazione soddisfazione servizio
medie soddisfazione
recepita attesa offerto
di qualità attesa
insufficiente
discrepanza
comprensione non idonea prestazione
tra quanto differenza tra
necessità allocazione del servizio
l’ente ha la percezione
dell’utenza: delle risorse (qualità
promesso del servizio da
differenza tra aziendali offerta) di
all’utente e le parte
le aspettative destinate a livello
effettive dell’utente e le
dell’utenza e soddisfare le inferiore agli
prestazioni aspettative
le percezioni aspettative standard
del servizio dello stesso
del della clientela medi attesi
reso
management
Tabella 2 – Specifiche del “gap model”

Figura 2 – Il “gap model”

19
Duccio Stefano Gazzei

Lo schema che ci propone il Modello dei Gap ci fornice la mappa per il


nostro percorso tra gli strumenti di valutazione. In questo modo potremo
introdurre strumenti e metodologie nei vari ambiti aziendali, chiamati in
causa dal modello, come settori critici dove deve verificarsi la
corrispondenza tra la percezione del servizio fruito e le aspettative sullo
stesso.
Il nostro piano di lavoro affronterà quindi i seguenti temi:
LA VALUTAZIONE DEL CLIENTE: per comprendere quali siano e come si
formino le aspettative dei vari segmenti di clientela ed evitare una differenza
con le percezioni del management (GAP 1)
LA VALUTAZIONE DELLA PERFORMANCE E DELLA QUALITA’
PRODUTTIVA: per comprendere come ottenere una idonea allocazione
delle risorse aziendali destinate a soddisfare le aspettative della clientela e
come controllare che la prestazione del servizio (qualità offerta) sia al livello
degli standard medi attesi (GAP 2 e 3)
LA VALUTAZIONE DELLA EFFICACIA DELLA COMUNICAZIONE
PUBBLICITARIA: per comprendere quali siano i fattori che possono essere
determinanti per ottenere il massimo risultato in termini di target di clientela
raggiunti e di qualità dell’informazione fornita (GAP 4)
LA VALUTAZIONE DEL POTENZIALE DI VENDITA: per comprendere
come ottimizzare il funnel commerciale di una azienda, indirizzando gli
sforzi commerciali al giusto target di clientela (GAP 5)
A tutto questo materiale direttamente collegato con il Modello dei Gap
abbiamo voluto aggiungere una ultima parte dedicata a:
LA VALUTAZIONE DELLE RISORSE UMANE E DEGLI EFFETTI DELLE
POLITICHE PUBBLICHE: per comprendere come gli strumenti di
misurazione possono aiutarci nel trattare tematiche connesse con uno dei
fattori produttivi più importanti (la risorsa lavoro appunto) o con “aziende”
particolari (della Pubblica Amministrazione).

20
Statistics for Evaluation

A proposito del GAP 5, che rappresenta il vero e proprio “momento della


verità” della relazione tra azienda e cliente, la misurazione, il
raggiungimento ed il mantenimento di uno standard di qualità richiede un
monitoraggio delle informazioni esterne (rilevate sul consumatore), di quelle
interne all’azienda, raccolte attraverso il personale a contatto diretto con il
cliente.
La capacità di soddisfare la domanda dell’utenza, in termini di bisogni e di
aspettative – deve essere perciò continuamente misurata dall’impresa in
quanto tutto ciò che non può essere misurato non può essere migliorato.
L’approccio di misurazione della efficacia si articola in quattro step:
- Step 1: identificazione delle dimensioni di base del servizio (componenti
chiave), secondo il punto di vista del cliente
- Step 2: misurazione dell’importanza attribuita dal cliente alle componenti
- Step 3: valutazione dell’azienda, secondo il cliente, sulle componenti e
identificazione del posizionamento della stessa rispetto ad altre imprese
- Step 4: verifica del soddisfacimento delle necessità del cliente.

SITUAZIONE ESAMINATA EVENTUALE


EVENTUALE OPPORTUNITÀ
LIVELLI DI SODDISFAZIONE RISCHIO

Possibili giudizi
L’Ente è in grado di
sfavorevoli causati d
Percepita < Attesa conoscere le reali
mancata soddisfazione
esigenze dell’utenza
dell’utenza
Benefico effetto
Possibile incremento
Percepita > Attesa “passaparola” da parte
attese future dell’utenza
dell’utenza
Possibile meccanismo
di assuefazione con Formazione immagine
Percepita = Attesa conseguente positiva correlata a un
incremento delle attese senso di affidabilità
dell’utenza

21
Duccio Stefano Gazzei

SITUAZIONE ESAMINATA EVENTUALE


EVENTUALE OPPORTUNITÀ
LIVELLI DI SODDISFAZIONE RISCHIO

Ricerca di forme più


efficaci di trasferimento e
Possibile frustrazione comunicazione per far
Percepita < Erogata
del soggetto erogatore percepire
adeguatamente i
contenuti del servizio
Possibile “inganno”
Possibili economie
dell’utenza (risultato
nell’erogazione del
soddisfacente con
servizio senza
Percepita > Erogata risorse minori) che può
pregiudicare il livello
indurre perdita di
qualitativo percepito
immagine nel
dall’utenza
medio/lungo periodo
Possibile rilassamento Aumento della
per mancanza di stimoli motivazione nella ricerca
Percepita = Erogata
da pare dell’Ente di rispondere alle
erogatore esigenze dell’utenza
Tabella 3 – Le conseguenze dei gap

La qualità del servizio è un concetto, difficile da definire e da misurare. Tra


le diverse concettualizzazioni e definizioni si rimanda a quella secondo la
quale la qualità del servizio – Service Quality (SQ) – si può misurare
mediante lo scostamento fra Performance (P) e Aspettative (E) ovvero:

SQ  P  E [1]

Tale definizione si rifà anch’essa alla gap theory e postula, sulla base di
evidenze teoriche ed empiriche, che la differenza tra le aspettative di
performance del consumatore – su una classe di servizi – e le performance
effettive del servizio di una specifica impresa operante nella classe, può
essere considerata un indicatore della percezione della qualità del servizio.
Il modello è stato oggetto di vari approfondimenti e un’utile trasformazione
proposta è la seguente:

22
Statistics for Evaluation

k
SQ   w j (Pij  Eij ) [2]
j 1

dove:
SQ j = qualità del servizio generale (overall) percepita relativa allo stimolo sperimentale i
k = numero di attributi del servizio
Wj = coefficiente di ponderazione dell’attributo j (se gli attributi pesi differenziati)
Pij = percezione della performance dello stimolo i, relativo all’attributo j, sulla qualità
del servizio
E ij = aspettativa sulla qualità del servizio verso l’attributo j, conseguentemente allo
stimolo i

Le indagini di Customer Satisfaction, sviluppate a partire dalla seconda


metà degli anni ’80 in Giappone, attualmente rappresentano uno strumento
per conoscere i giudizi sulla qualità così come viene percepita dai clienti, in
base a parametri obiettivi. Attraverso l’indagine, il cliente viene messo nella
condizione di giudicare gli standard di prestazione e, soprattutto, di fornire
gli input per il miglioramento dei prodotti e dei servizi erogati. Egli, quindi, si
trasforma in un suggeritore di stimoli esterni che possono tradursi in nuove
risposte, le quali, a loro volta, andranno ad aumentare il grado di “virtuosità”
dell’impresa. Ma come si è arrivati a considerare il cliente come punto di
partenza piuttosto che di arrivo? In che modo è arrivato a ricoprire questo
ruolo fondamentale nell’ottica aziendale? Prima di riportare i concetti legati
ai modelli di misurazione della qualità percepita, si ripercorrono
velocemente le tappe del processo di mutamento socio-economico che
hanno portato alla generazione del concetto di qualità e alla sua
progressiva trasformazione.

2.1.1. Il concetto di qualità e la sua evoluzione

Nell’ultimo trentennio, la parola d’ordine per le aziende manifatturiere,


prima, e per gli operatori commerciali del terziario, poi, sembra essere
diventata “qualità”. Essa ha assunto nel tempo un ruolo sempre più centrale
nel processo di concorrenza tra le imprese e in molti settori la competizione

23
Duccio Stefano Gazzei

di prezzo ha ceduto il passo ad una competitività basata sull’innovazione e


sulla qualità dei prodotti e dei servizi. Il miglioramento della qualità da parte
delle imprese, produce livelli di soddisfazione dei consumatori più elevati:
questo si traduce in una maggiore fedeltà da parte dei clienti e in un
comportamento di passaparola positivo. Tutto ciò non fa che aumentare la
quota di mercato dell'impresa che, nel lungo periodo, genera redditività.
Una conseguenza tangibile di tale tendenza si è potuta apprezzare nella
elevata diffusione delle certificazioni di qualità secondo le norme ISO,
perseguite dalle aziende per documentare e garantire la qualità dei propri
prodotti. Quest'ultima si concretizza in una maggiore attenzione nei
confronti del cliente, da ottenere attraverso la creazione di un’efficiente rete
di vendita e assistenza, instaurando un rapporto sempre più diretto e
ravvicinato col consumatore, per conoscerne le esigenze, le richieste e le
eventuali proposte.
Il concetto di qualità nasce con l’avvento della rivoluzione industriale: prima,
infatti, le figure di “produttore” e “consumatore” non esistevano. È con
l’industrializzazione che si determina un sistema economico caratterizzato
dallo squilibrio tra domanda e offerta a favore della prima: il consumatore
trova la sua soddisfazione nell’appagamento di bisogni mai avvertiti in
precedenza e non è sensibile alle caratteristiche di qualità dei prodotti. Le
imprese sono attente alla qualità soltanto a livello di processo produttivo:
nasce il concetto di qualità ingegneristica. Quest’ultima ricerca la
conformità del prodotto ai requisiti previsti ed alle procedure e norme
stabilite dall’organizzazione: esistono una qualità progettata e una prestata
e l’obiettivo è quello di evidenziare eventuali scostamenti tra le due ed
attivare interventi correttivi.
Successivamente il consumatore diviene parte attiva e non si trova più in
situazione dominata dall’offerta: egli deve essere conquistato. Le imprese
vedono così ampliarsi la propria concezione di qualità, la cui definizione va
ad includere anche la modalità di utilizzo del prodotto. Nasce concorrenza
nel mercato e ciò induce le imprese a perseguire l’affidabilità del prodotto
nel tempo affiancata dall’offerta di servizi di supporto al prodotto: si cerca di
fidelizzare un consumatore che ormai ha piena consapevolezza delle
proprie necessità. Sorge così l’idea di qualità aziendale che amplia la

24
Statistics for Evaluation

visione strettamente connessa all’ambito intrinseco del prodotto sino a


comprendere anche quello organizzativo più in generale: si va ad includere
nella nozione di qualità tutte le attività aziendali che generano il prodotto,
con l’intento del controllo e miglioramento continuo, per il raggiungimento
della “qualità totale”.
Infine, le dinamiche di evoluzione del rapporto tra domanda e offerta, fanno
sì che le imprese mostrino un orientamento alla soddisfazione del cliente. Si
ha un progressivo incremento della concorrenza, che aumenta nelle
imprese il bisogno di una vicinanza nei confronti del consumatore. Ciò crea
nuove fonti di vantaggio competitivo, connesse allo sviluppo delle risorse
legate al valore aggiunto della marca, del prodotto, ed in generale tutte le
caratteristiche che avvolgono il prodotto/servizio. Anche l’aumento della
complessità tecnologica dell’offerta fa sì che vi sia una più attenta e attiva
politica di servizi, che renda la realtà proposta a misura di utente. Tutto ciò
genera una domanda caratterizzata più che in passato da un consumatore
alla ricerca di prodotti e servizi di qualità superiore, ed in generale un cliente
che cerca nel consumo l’integrazione di più bisogni. Si ha lo sviluppo del
terziario, che sancisce l’ingresso definitivo dei servizi nel “mondo” della
qualità e sorge il bisogno di una definizione della qualità del servizio. Tutto
ciò provoca quindi un ribaltamento di visuale, per cui non ci si concentra più
tanto sulla capacità di rendere il proprio prodotto o servizio offerto al meglio:
la qualità è intesa come la capacità di adattare il sistema produttivo ai
bisogni effettivamente espressi dai propri clienti. Gestire la qualità in termini
di soddisfazione del cliente diventa una componente fondamentale per
garantire il successo di un’impresa. Questa visione appartiene alla qualità
economica che sposta completamente il riferimento sul cliente: l’obiettivo
principale diventa quello di individuarne desideri, bisogni, criteri di
valutazione e di giudizio. Tale approccio è la chiave interpretativa per capire
e misurare la qualità dei servizi.

25
Duccio Stefano Gazzei

IL CASO – UN ESEMPIO DI ANALISI DI CUSTOMER


SATISFACTION APPLICATA ALL’UNIVERSITA’

Dieci studenti hanno simulato un’analisi di Customer Satisfaction applicata


all’Università di Siena.

Come prima cosa sono state definite le dimensioni di base del servizio
(componenti chiave), che rappresentano i fattori critici di successo del servizio
universitario.

N° FATTORI CRITICI DI SUCCESSO


1 Qualità del materiale didattico
2 Aule e attrezzatura
3 Qualità insegnamento
4 Apertura sul mondo del lavoro
5 Servizi per la didattica
6 Servizi ausiliari
7 Organizzazione logistica
8 Apertura allo studio
9 Comunicazione

Su ognuna delle dimensioni di base sono stati assegnati due voti da 1 (basso) a
5 (alto): il primo per misurare l’importanza attribuita dal cliente alle varie
componenti.
N° FATTORI CRITICI DI SUCCESSO A B C D E F G H I L Media
1 Qualità del materiale didattico 3 4 5 1 3 1 5 4 4 4 3,4
2 Aule e attrezzatura 2 3 3 3 1 2 2 3 3 2 2,4
3 Qualità insegnamento 4 5 4 4 4 4 4 4 5 5 4,3
4 Apertura sul mondo del lavoro 5 4 4 2 4 5 2 5 3 4 3,8
5 Servizi per la didattica 1 2 2 2 2 4 3 2 1 2 2,1
6 Servizi ausiliari 1 1 1 4 2 2 1 1 2 1 1,6
7 Organizzazione logistica 3 2 2 1 1 3 4 2 2 3 2,3
8 Apertura allo studio 4 1 1 5 3 3 1 1 4 1 2,4
9 Comunicazione 2 3 3 3 5 1 3 3 1 3 2,7

26
Statistics for Evaluation

Il secondo rappresenta la valutazione, secondo ogni studente, sulle componenti


e identificazione del posizionamento della stessa

Per il primo studente (A), ad esempio, il fattore più importante è l’ “apertura sul
mondo del lavoro”. A quel fattore è stato, dallo stesso studente, attribuito il
punteggio “4” (medio-alto).

A questo punto i valori medi delle due tabelle sono stati rappresentati in un
grafico dove è subito possibile individuare quatto quadranti.

Nel quadrante “A” sono riportati quei fattori con “Importanza” maggiore della
media e “Valutazione “Inferiore alla media”. Si tratta, quindi, delle componenti del

27
Duccio Stefano Gazzei

servizio alle quali dobbiamo dare massima attenzione: un miglioramento su


questo ambito avrà il massimo risultato in termini di soddisfazione complessiva.
In questo quadrante è presente il fattore “Apertura sul mondo del lavoro”. Per i
dieci studenti, quindi, l’Università deve lavorare meglio per assicurare una
migliore prospettiva lavorativa dopo la laurea.

Nel quadrante “B” i fattori dove “Valutazione” e “Importanza” sono maggiori della
media.

La “Qualità dell’insegnamento “ e la “Qualità del materiale didattico” sono punti di


forza del servizio universitario.

Seguono i fattori dei quadranti “C” (Bassa Importanza – Alta valutazione) e “D”
(Bassa Importanza – Bassa valutazione). Nell’ultimo quadrante sono riepilogati i
fattori dove è necessario concentrare gli sforzi di miglioramento, subito dopo
quelli riepilogati nel settore “A”.

Abbiamo voluto confrontare questi risultati con la “Valutazione dell’Overall”. In


pratica ogni studente, oltre a fornire le valutazioni sulle singole componenti del
servizio, ha dato un punteggio complessivo (overall) al servizio universitario.
N° FATTORI CRITICI DI SUCCESSO A B C D E F G H I L Media
1 Qualità del materiale didattico 4 5 5 5 3 2 3 4 4 4 3,9
2 Aule e attrezzatura 4 4 3 4 3 3 4 3 3 4 3,5
3 Qualità insegnamento 4 5 5 5 4 4 4 4 4 5 4,4
4 Apertura sul mondo del lavoro 4 3 5 3 2 2 4 2 2 5 3,2
5 Servizi per la didattica 4 3 4 4 3 4 2 3 4 3 3,4
6 Servizi ausiliari 3 3 1 5 4 3 3 4 4 2 3,2
7 Organizzazione logistica 3 4 3 3 2 3 4 4 5 3 3,4
8 Apertura allo studio 5 4 3 5 2 4 4 4 3 3 3,7
9 Comunicazione 4 3 4 3 2 4 5 3 3 5 3,6
10 Soddisfazione complessiva (Overall) 4 4 4 4 3 4 4 4 4 4 3,9

Abbiamo calcolato l’indice di correlazione del Pearson4 tra i punteggi dell’Overall


e le singole valutazioni fornite da ogni studente sui fattori critici ed abbiamo
ottenuto il seguente risultato:

4 Date due variabili statistiche e , l'indice di correlazione di Pearson è definito come la loro covarianza
divisa per il prodotto delle deviazioni standard delle due variabili:

.
dove , è la covarianza tra e e , sono le due deviazioni standard
Il coefficiente assume sempre valori compresi tra -1 e 1: . In Excel è possibile
calcolare l’indice in modo automatica utilizzando la formula “Dati -> Analisi Dati-> Correlazione”

28
Statistics for Evaluation

I fattori critici maggiormente correlati all’overall dovrebbero essere quelli


maggiormente capaci di condizionare il giudizio sul servizio universitario.

Lungi dal voler essere un risultato statisticamente significativo con sole dieci
interviste, una certa coerenza con le risposte fornite in termini di importanza dei
fattori la ritroviamo.

Come ultima analisi abbiamo voluto verificare se, analizzando i punteggi


assegnati all’importanza dei fattori, vi fossero dei cluster omogenei di risposta: i
cosiddetti “Segmenti in base ai vantaggi ricercati”.

Abbiamo evidenziato in rosso i punteggi assegnati superiori alla media5.


N° FATTORI CRITICI DI SUCCESSO A B C D E F G H I L
1 Qualità del materiale didattico 3 4 5 1 3 1 5 4 4 4
2 Aule e attrezzatura 2 3 3 3 1 2 2 3 3 2
3 Qualità insegnamento 4 5 4 4 4 4 4 4 5 5
4 Apertura sul mondo del lavoro 5 4 4 2 4 5 2 5 3 4
5 Servizi per la didattica 1 2 2 2 2 4 3 2 1 2
6 Servizi ausiliari 1 1 1 4 2 2 1 1 2 1
7 Organizzazione logistica 3 2 2 1 1 3 4 2 2 3
8 Apertura allo studio 4 1 1 5 3 3 1 1 4 1
9 Comunicazione 2 3 3 3 5 1 3 3 1 3
2,78 2,78 2,78 2,78 2,78 2,78 2,78 2,78 2,78 2,78

Esiste un cluster formato dagli studenti B,C e H che ha grande attenzione per la
qualità dell’insegnamento, il materiale didattico e la comunicazione.

Un secondo cluster, formato dagli studenti A, F,G e L, si preoccupa molto della

5 In Excel è possibile ottenere questo risultato grafico in modo automatico usando il comando: “Home-
>Formattazione Condizionale->Regole di evidenziazione celle”

29
Duccio Stefano Gazzei

Organizzazione logistica. Mentre un terzo cluster (studenti D, I) tiene in alta


considerazione aule, attrezzature e apertura allo studio.

Conoscere bene i propri target di clienti è una delle prerogative più importanti
per fornire un servizio efficace.

30
Statistics for Evaluation

2.1.2. Il “Net Promoter Score”

Uno degli indicatori che si sta ritagliando progressivamente sempre più


spazio nelle discussioni degli uffici marketing di molte aziende italiane è il
cosiddetto NPS. Si tratta di un acronimo di una definizione inglese, cioè Net
Promoter Score; che potremmo tradurre in italiano come tasso o punteggio
di passaparola di un brand.
Si tratta di un parametro di fedeltà del cliente, sviluppato nel lontano 2003,
quando i social network muovevano i primi timidi passi nel mondo della
comunicazione B2B e B2C, da Fred Reichheld di Bain & Company in
collaborazione con Satmetrix. L’obiettivo era determinare un punteggio di
soddisfazione del cliente che fosse facile da interpretare e potesse essere
utilizzato per il confronto fra diverse aziende.
Nonostante questo indicatore abbia ormai … “terminato la terza media”, con
i suoi tredici anni di età, ha avuto dallo scorso anno un vero e proprio boom
di interesse.
In pratica il NPS valuta in che misura un utente consiglierebbe una
determinata impresa, un prodotto o un servizio ai propri amici, parenti o
colleghi: perché, normalmente, quando si è soddisfatti di qualcuno o
qualcosa, si tende a proporre la stessa esperienza anche agli altri.
Al cliente viene posta la seguente domanda:
“Attribuendo un valore compreso tra 0 e 10, quanto consiglieresti
l’azienda/brand/prodotto X a un amico/parente/collega?”
in cui il valore 0 è il valore più negativo ed il valore 10 il più positivo della
scala di soddisfazione.
Il calcolo avviene suddividendo le possibili risposte alla domanda indicata in
tre categorie:
– I promotori: coloro che rispondono 9 o 10;
– I passivi: coloro che rispondono 7 o 8;
– I detrattori: coloro che rispondono da 0 a 6.

31
Duccio Stefano Gazzei

Il Net Promoter Score viene calcolato sottraendo la percentuale di detrattori


alla percentuale di promotori ottenuta.
Il risultato però non viene espresso in punti percentuale, ma come numero
assoluto compreso tra -100 e + 100. Per fare un esempio, se il risultato del
sondaggio riporta un 25% di promotori, un 55% di passivi e un 20%
restante di detrattori, il nostro NPS sarà 25% – 20% = +5. Ogni NPS
superiore allo 0 viene considerato un buon NPS.
Oggi il Net Promoter Score viene utilizzato da un alto numero di aziende
come strumento di riscontro della soddisfazione della clientela. Fornisce
alle imprese una indicazione, facile da interpretare e da utilizzare, come
input per meglio indirizzare le strategie aziendali. Secondo molti, il NPS è
anche un ottimo indicatore della crescita potenziale e della fidelizzazione
del cliente per quanto riguarda sia l’azienda stessa sia il singolo prodotto.
Naturalmente è possibile tracciare l’andamento del NPS nel tempo o
confrontarlo con un obiettivo precedentemente stabilito, suddividerlo per
diverse aree di interesse, controllare la posizione della propria azienda
rispetto alla posizione media del settore in cui si opera, etc. etc.

NPS E VALORE
Nessuno ha dubbi sul fatto che avere clienti soddisfatti sia una necessità.

32
Statistics for Evaluation

Più difficile è, invece, stabilire quanto sia necessario (e possibile) spendere


ed investire per la ricerca della soddisfazione del cliente. Il dilemma è
sempre lo stesso: rendere i clienti più felici o concentrare l’attenzione su
misure più pratiche ed operative per liberare immediati profitti?
A volte si ha l’impressione che mostrare un aumento della soddisfazione del
cliente del 10% non abbia lo stesso appeal di mostrare una riduzione del
costi del 10%
Il Net Promoter Score (NPS) consente di spostare il focus sui “ritorni”
economici derivanti dalla soddisfazione.
Per vari motivi: gli esperti di neuroscienze spiegano bene che il modo con
cui è posta la domanda di raccomandabilità, il fatto che sia posta per prima
al cliente, a freddo, con una motivazione (il cosiddetto “verbatim”) libera,
rende la voce del cliente particolarmente forte e sincera, molto di più di
quanto riuscivano a fare le tradizionali survey di Customer Satisfaction.
Quindi il cliente arrabbiato se ne va, il cliente contento compra e produce
ricavi, il cliente neutrale è flat, stabile.

IL LEGAME FRA LA RACCOMANDABILITA’ E GLI ECONOMICS


Prima evidenza: il legame tra NPS e gli economics di una azienda c’è ed è
fortissimo.
Il grafico in Fig.3, elaborato sui dati di una grande banca italiana, mostra
una serie di evidenze analitiche in questo senso. A sinistra in basso viene
evidenziato il legame tra voti NPS (da 0 a 10) e numero medio di prodotti
posseduti dai clienti rispondenti. Ad ogni voto corrisponde un numero medio
di prodotti: cresce il voto, crescono i prodotti (ed i ricavi).
Il grafico in basso al centro analizza, invece, il legame tra voti NPS e tasso
di abbandono della clientela (churn): cresce il voto, diminuisce il tasso di
abbandono. Su una media del 6%, chi ci ha dato un voto NPS pari a zero,
ha un tasso di abbandono del 22%, quasi quattro volte il tasso medio. Chi ci
ha dato dieci ha un churn del 2%.

33
Duccio Stefano Gazzei

Figura 3 – Il legame tra NPS e gli Economics

Quindi l’NPS è legato al fatturato della banca [(che si chiama “Margine di


Intermediazione” (MINTER)]: ogni suo aumento genera un impatto diretto
positivo per via dell’upselling e indiretto come riduzione delle perdite per
minori abbandoni.

LA “VOCE” DEL CLIENTE CI RACCONTA I NOSTRI FATTORI CRITICI


Seconda evidenza: è lo stesso cliente che ci evidenzia i fattori critici del
nostro lavorare.
Si tratta delle categorie (driver) nelle quali sono stati classificati i vari temi
trattati nei verbatim: micro (Driver 2° livello) e macro (Driver 1° livello).
In Fig.4 ancora il caso della grande banca italiana. Il verbatim del cliente
detrattore fa esplicito riferimento alle “competenze del personale”. Quindi è
possibile individuare un Driver di 2° livello (Staff competence) ed un Driver
di 1° livello (Staff). Seguendo questa impostazione sono stati individuati
ben sette Driver di 1° livello [Staff, Prezzi (pricing), Prodotti (product), Brand
(image), Processi e Information Technology (processes & IT), Logistica ed
organizzazione (logistic/org), Web (digital)].

34
Statistics for Evaluation

Figura 4 – Le categorie della “voce” del cliente: i driver di 1° e 2° livello

Ma attenzione: non sono categorie pre-disposte o fissate da noi:


provengono direttamente dalle dichiarazioni dei clienti trattate con
procedure di text mining.
Quindi da una parte abbiamo che i punti NPS sono legati agli economics e,
dall’altra, abbiamo i fattori critici dei prodotti/servizi, così come sono stati
individuati direttamente dai clienti, dalla loro sensibilità, dai loro bisogni e
dalle loro esperienze.
Come in un ristorante: la valutazione della nostra esperienza con una
location è la valutazione olistica, complessiva, di tutti i momenti, i fattori, gli
attributi della esperienza: certo, la qualità del “mangiare”, ma anche la
cortesia, la pulizia, l’ambiente, etc.
E non è detto che si riesca ad eccellere in tutto: spesso qualcosa va
benissimo, qualcosa così così, altro male. Quante volte vi sarà successo
che un amico vi ha consigliato una trattoria dicendovi: “L’ambiente non è un
granché, ma i sapori sono buoni, gli ingredienti genuini, il clima familiare, ed
il prezzo civile…”
Magari essere bravi in tutto!
Magari essere bravi nei fattori critici che più interessano i clienti!

35
Duccio Stefano Gazzei

Quindi, stabiliti i fattori critici, in ognuno di questi si gioca una “partita” per
soddisfare i clienti, che si dividono tra promotori, neutrali e detrattori.
La loro “voce” è sincera: il confronto tra percentuale di promotori e detrattori
è proprio la migliore risposta alla domanda se siamo stati capaci a vincere
quella “partita”.

L’ “NP$-COIN”, OVVERO… LA MONETA DELLA RACCOMANDABILITA’


Come calcolare l’impatto dei promotori e dei detrattori in termini di NPS (e
quindi di ricavi)?
Figura 5 – Valore creato e consumato per dominio

Ci sono tante metodologie.


Noi abbiamo adottato la metodologia proposta da Medallia: il contributo dei
promotori e dei detrattori su ogni fattore critico (driver) viene calcolato
eliminandoli, vicendevolmente, e misurando gli impatti conseguenti.
Prendiamo il grafico in Fig.5 estratto dalla reportistica di una grande banca
italiana. In questo caso i Driver di 1° livello sono chiamati “Domini” e sono
diversi da quanto visto nel grafico in Fig.2. Questo a dimostrazione di
quanto detto circa il fatto che le categorie delle tematiche trattate nei
verbatim derivano dall’analisi con text miner delle frasi detti dei clienti e non
esiste un framework unico per tutte le aziende.

36
Statistics for Evaluation

Consideriamo il dominio “Behaviour & Competences” per i clienti


Individual6. Si tratta di tutte le tematiche legate, ad esempio, a cortesia,
cura del cliente, professionalità, competenza, etc.
Se prendiamo tutti i clienti che hanno esplicitamente parlato di tematiche
afferenti questo dominio ed eliminiamo i detrattori, l’indice NPS degli
Individual aumenta di 8,1 punti. Se tolgo i promotori, l’indice di abbassa di
23,3 punti.
Quindi 23,3 punti sono il valore “creato” dai clienti promotori, -8,1 punti è il
valore “consumato” dai detrattori alore, dall’altra lo consumo.
In conclusione, nel dominio “Behaviour & Competences”, riusciamo a
vincere la “partita” per soddisfare i clienti, perché attraverso i promotori
generiamo un valore (23,3) maggiore di quello che consumiamo (-8,1)
attraverso i detrattori.
Vuol dire che ho una differenza di 15,2 punti percentuali tra coloro che sono
soddisfatti per i miei prodotti e servizi (che acquisteranno e parleranno bene
della mia azienda), rispetto agli arrabbiati che vorranno andarsene ed
intanto parleranno male, a volte malissimo, di noi.
Questo è l’elemento fondamentale, cardine di tutta la nostra attività
relazionale con i clienti: la RACCOMANDABILITA’, il “VALORE della
RACCOMANDABILITA’.
In ogni ambito, il fatto che qualcuno sia soddisfatto e, soprattutto, parli bene
di noi, diventa il presupposto perché la nostra Azienda continui ad operare,
abbia mercato, successo, visibilità, crescita.
La raccomandabilità è già da tempo diventata un valore: chiunque di noi
compri o venda in Ebay, ad esempio, va a controllare i commenti degli
acquirenti o dei venditori, sul fornitore, sul cliente e sul prodotto.

6 Nel gergo bancario si tratta dei clienti “persone fisiche” che si differenziano dai clienti Small Business, Imprese o

Corporate. Sono anche esclusi dall’analisi i clienti Private, cioè i clienti che rappresentano la fascia più ricca della
customer base.

37
Duccio Stefano Gazzei

Sempre di più alberghi e ristoranti si cercano in Tripadvisor cercando tra le


classifiche dei “raccomandati” dai già clienti. A volte basta un commento
negativo, su un fattore critico al quale siamo sensibili, a farci desistere dalla
scelta: per questo motivo, in alcuni articoli sull’NPS i detrattori sono
chiamati “killer”.
La raccomandabilità è la leva di successo di AIRBNB ad esempio e di altri
portali che consigliano artigiani e servizi vari. E potremmo continuare con
altri mille esempi.
Lo ribadiamo: la raccomandabilità di una azienda è un vero e proprio
valore, molto maggiore della semplice trasposizione in MINTER: è la
raccomandabilità che assicura la sua sopravvivenza, il mantenimento della
quota di mercato e la sua ragion d’essere, soprattutto se si basa sul
rapporto con la clientela.
Proprio per enfatizzare questo concetto abbiamo introdotto il concetto di
“NP$-COIN”, la moneta della raccomandabilità.
In un’epoca di cripto-monete, la nostra è ben quantificabile, reale, ed è la
differenza tra il valore creato e quello consumato, in termini di NPS.
Figura 6 – Valore creato e consumato per dominio

38
Statistics for Evaluation

IL CASO – L’analisi dei risultati della analisi NPS sul corso di


“Statistics for Evaluation” utilizzando Python
Alla fine del corso sono stati inviati via WEB (utilizzando Google) questionari NPS
a tutti gli studenti che dovevano rispondere alla domanda: “Quanto consiglieresti,
in una scala da 0 a 10, il corso ‘Statistics for Evaluation’, a colleghi/amici?”.
Successivamente si chiedeva di spiegare il perché (Verbatim).
Hanno risposto n°17 studenti, 11 promotori e 6 neutrali.
Nonostante l’esiguità del campione, abbiamo lo stesso condotto una analisi
completa utilizzando Python, che può essere replicata con dimensioni
campionarie molto più ampie.
1. Caricamento delle librerie necessarie per l’analisi

2. caricamento dati del questionario NPS

3. Visualizzazione dei record del file


(nell’esempio che segue sono riportati solo i primi tre record)

39
Duccio Stefano Gazzei

4. Ridenominazione colonne e primo trattamento dati

……

40
Statistics for Evaluation

5. Analisi distribuzione votazioni

6. Calcolo Promotori, Neutrali e Detrattori

41
Duccio Stefano Gazzei

7. Calcolo NPS

8. Text Processing

42
Statistics for Evaluation

9. Analisi delle 20 parole più citate

43
Duccio Stefano Gazzei

10. Costruzione della Word Cloud

44
Statistics for Evaluation

2.2. La segmentazione della clientela

Premessa fondamentale per introdurre il concetto di segmentazione è che


non è conveniente considerare omogeneo un mercato: le differenze fra gli
individui o fra le aziende-clienti, esistono in modo naturale perché sono
diversi i loro bisogni, le loro esperienze e le influenze ambientali subite. In
teoria, quindi, ogni tentativo di aggregazione costituisce, in certa misura,
una forma di forzatura. Semmai, la segmentazione può essere considerata
come una soluzione intermedia fra due approcci opposti ed estremi: quello
del marketing individualizzato (ogni cliente è un mercato) e quello del
marketing indifferenziato o “aggregato” (tutti i clienti sono simili tra loro).
Quindi per un’impresa, la scelta della modalità secondo cui classificare la
propria clientela, si concretizza nel determinare a quale livello di trade off ci
si vuole fermare fra tali approcci.
A tutti gli operatori del mercato sono noti i vantaggi apportati da una corretta
strategia di segmentazione, che permette di suddividere il mercato di
riferimento in sotto-mercati più omogenei, adeguare l’offerta dell’azienda
alle aspettative di ogni segmento, evitare la dispersione degli sforzi di
marketing compiuti dall’azienda basati su una visione indifferenziata del
mercato di riferimento e, infine, di identificare uno o più segmenti target
prioritari sui quali concentrare gli sforzi di marketing per ottenere una
posizione competitiva stabile.
Perché ciò sia possibile, un modello di segmentazione deve poter
individuare segmenti aventi i requisiti della:

i clienti all’interno dei singoli gruppi devono essere il più


DIFFERENZIALITÀ
possibile omogenei tra loro riguardo le variabili di
segmentazione
e disomogenei rispetto ai clienti degli altri gruppi
la dimensione quantitativa e la redditività del segmento
SOSTANZIALITÀ
devono risultare rilevanti per definire la possibilità di
ottenere ritorni sugli investimenti necessari per attuare le
strategie di differenziazione

45
Duccio Stefano Gazzei

i segmenti di domanda individuati devono essere


misurabili in termini di soggetti che li compongono e di
MISURABILITÀ volume di domanda esprimibile

raggiungibilità dal punto di vista commerciale, fattore che


ACCESSIBILITÀ può condizionare in modo decisivo il successo dei
prodotti/servizi predisposti
Tabella 4 – I requisiti dei gruppi identificati da un’efficace attività di segmentazione

La segmentazione del mercato, da un punto di vista operativo, passa


attraverso l’attuazione di alcune fasi, la prima – e più importante – delle
quali è la definizione del modello di segmentazione nelle seguenti tipologie:
- a priori, per cui si procede, invece, alla suddivisione del collettivo in
esame a seconda delle modalità presentate dalle “basi” specificate
appunto a priori, che diventano descrittori dei vari profili dei segmenti
- a posteriori, per cui ci si basa sull’applicazione di algoritmi di
raggruppamento (clustering) secondo una o più variabili (le cosiddette
“basi” della segmentazione) che vengono rilevate “a valle” di un
comportamento delle unità di un collettivo, quindi, dopo che queste si
sono verificate
- flessibile, come mix dei due criteri precedenti

Scelto il modello di segmentazione, si procede alle fasi dell’indagine, della


raccolta delle informazioni, dell’elaborazione e dell’interpretazione dei
risultati. Condurre a termine ogni singolo step del processo è importante per
ottenere un buon livello di qualità della classificazione, ma decidere subito
quale modello di segmentazione scegliere è fondamentale per assegnare
una giusta mission strategica all’attività commerciale dell’azienda.

2.2.1. La segmentazione a priori

Non molte sono le aziende che adottano una segmentazione della clientela
“a priori”: preferire questo tipo di segmentazione significa anche classificare

46
Statistics for Evaluation

il cliente, sin dall’inizio del rapporto con l’azienda, in categorie che sono la
combinazione di variabili potenzialmente capaci di identificare le sue
aspettative. Si riportano di seguito alcuni metodi per giungere ad una
segmentazione “a priori” della clientela.
SEGMENTAZIONE SOCIO-DEMOGRAFICA (O DESCRITTIVA). È basata sulla
diversità dei profili socio-demografici dalla quale scaturisce la diversità dei
vantaggi che i consumatori cercano nel prodotto, nonché la varietà delle
loro preferenze. I criteri socio-demografici vengono utilizzati come indicatori
di bisogni e le variabili di segmentazione più utilizzate sono: genere,
reddito, provenienza geografica, dimensioni del nucleo familiare, livello di
istruzione, professione. Questo tipo di segmentazione è il più utilizzato per
la sua facilità di applicazione ma ci sono dei forti limiti: pone l’accento sulla
descrizione degli individui che costituiscono il segmento piuttosto che
sull’analisi dei fattori che spiegano la formazione del segmento stesso.
Inoltre determina la perdita di valore previsionale a causa della
standardizzazione delle abitudini di consumo nelle diverse classi sociali.

SEGMENTAZIONE IN BASE AI VANTAGGI RICERCATI. Tale analisi parte dal


presupposto che due individui con profili socio-demografici identici possono
avere sistemi di valori molto diversi: il vantaggio ricercato in un prodotto – in
questo caso – è il dato da individuare e attraverso il quale operare la
segmentazione. Questo metodo porta a definire ogni segmento in base al
paniere completo di attributi richiesti sul prodotto/servizio. Generalmente
emerge che i clienti desiderano il maggior numero possibile di attributi o di
vantaggi e ciò che distingue i segmenti tra loro è l’importanza relativa
assegnata agli attributi quando i clienti sono spinti a compiere delle scelte.
Infatti i vari segmenti possono avere degli attributi in comune, ma è
l’insieme totale del paniere nella sua composizione che li caratterizza.
L’applicazione di questo tipo di segmentazione presuppone la raccolta delle
informazioni sulla lista degli attributi del prodotto/servizio e sulla valutazione
d’importanza e risulta particolarmente utile nella definizione delle politiche di
promozione del prodotto.

47
Duccio Stefano Gazzei

SEGMENTAZIONE PER STILE DI VITA. Con questo approccio si vuole stabilire un


nesso tra il comportamento d’acquisto e una serie di variabili della
personalità. Si analizza la combinazione di variabili capaci di identificare lo
stile di vita del cliente e, quindi, in definitiva, le sue aspettative: in questo
modo risulta più facile identificare le domande diverse da parte dell’utenza
allo scopo di adattare in modo razionale i prodotti, e le attività di marketing
connesse, agli specifici bisogni che queste domande esprimono.
Lo stile di vita si articola intorno a quattro livelli di analisi vicini ad ogni atto
di acquisto che sono rappresentati da: 1) valori individuali, 2) attività,
interessi e opinioni, 3) prodotti acquistati e consumati 4) bisogni latenti. Uno
stile di vita viene definito dall’interazione tra questi quattro livelli: l’insieme di
individui che presentano comportamenti simili in ciascuno di essi costituisce
un gruppo omogeneo dalle medesime necessità. Lo stile di vita è quindi il
risultato globale del sistema di valori di un individuo, dei suoi atteggiamenti,
delle sue azioni e del suo tipo di consumo. Il grande vantaggio conseguente
all’adozione di questo tipo di segmentazione è la possibilità di impostare il
modello di servizio così da esaltare al massimo il valore che un cliente può
esprimere in tutto il suo rapporto con l’azienda (life time value), valore che,
all’inizio è soltanto potenziale e che, piano piano diventa effettivo. In pratica,
se in base alla segmentazione si scopre che il nuovo cliente fa parte della
categoria “alfa”, e conosciamo quale sia lo stile di vita di questo tipo di
segmento, è possibile fin dal primo momento proporre un ventaglio di
prodotti/servizi personalizzati prima che il cliente stesso li richieda,
prevenendo così le sue esigenze. Ed il modello di servizio da “reattivo”
diventa “proattivo”. In questo modo si crea tra cliente azienda un rapporto di
“fedeltà cognitiva”, cioè l’allineamento dei valori dell’azienda a quelli del
consumatore, che riesce a resistere alla continua azione dei concorrenti e
attenua l’impatto di eventuali esperienze negative nell’acquisto.

48
Statistics for Evaluation

Figura 7 – Segmentazione a posteriori e a priori: diversi approcci alla clientela

I sistemi di analisi degli stili di vita sono “analisi psicografiche” che si


fondano su atteggiamenti, valori, opinioni e comportamenti e che
consentono una segmentazione del mercato più sofisticata rispetto all’uso
dei soli parametri demografici e socioeconomici. In Italia il primo esempio di
analisi psicografica è la ricerca condotta da Eurisko nel 1976, trasformata
in “Sinottica” nel 1986 e da allora aggiornata annualmente fino ad oggi.
L’obiettivo è quello di capire le logiche sociodemografiche, culturali, di
comportamento, di consumo e di esposizione ai mezzi e, in questo modo,
proporsi come strumento di diagnosi del posizionamento, per consentire di
individuare nello schema proposto il target di certi prodotti/servizi. Uno
strumento di grande efficacia interpretativa adottato da Eurisko è quello
della Grande Mappa che offre una rappresentazione visiva della
classificazione della società per stili di vita attraverso una lettura per assi e
vettori tematici.

49
Duccio Stefano Gazzei

Figura 8 – La Grande Mappa Eurisko: assi, vettori e polarità

Questo tipo di analisi permette di individuare 18 “Stili di Vita”, ovvero 18


gruppi di individui che si distinguono a seconda del diverso posizionamento
sulla mappa determinato dalla presenza di caratteri, valori, comportamenti e
dalla loro differente intensità:

Figura 9 – La Grande Mappa Eurisko: assi, vettori e polarità

Per ogni segmento Eurisko fornisce una descrizione sintetica dei caratteri
distintivi del gruppo, riportando anche un dettaglio dei tratti prevalenti da un

50
Statistics for Evaluation

punto di vista socio-demografico, di valori individuali e sociali e di


orientamenti e comportamenti. Nello schema seguente – a titolo
esemplificativo – si riportano le specifiche di due gruppi posizionati ai vertici
opposti della mappa:

Tabella 10 – Esempio della descrizione di due segmenti opposti nella Grande Mappa Eurisko

51
Duccio Stefano Gazzei

IL CASO – LA SEGMENTAZIONE EURISKO NELLA VERSIONE


“BANK-USAGE”

Da diverso tempo NOMEBANCA ha acquisito da Eurisko gli algoritmi di


classificazione di propri utenti in profili di clientela verso le attività, i prodotti ed
i servizi del mondo bancario. La segmentazione Eurisko nel mondo finanziario
deriva da un mix fra una segmentazione comportamentale e una per stili di
vita e costituisce il più esteso database presente in Italia sulle scelte
finanziarie delle famiglie e degli individui.

La metodologia adottata considera come universo di riferimento le famiglie


italiane in cui viene intervistato il “decisore finanziario” fino a 74 anni di età e
sono rilevate anche schede sul comportamento finanziario degli altri membri
adulti della famiglia. Per una miglior analisi dei fenomeni e dei mutamenti del
mercato vengono condotte due rilevazioni nel corso dell’anno. Vengono
effettuate complessivamente 4.500 interviste personali domiciliari
(corrispondenti a circa 9.000 schede individuali sui principali comportamenti
finanziari), con sistema CAPI (Computer Assisted Personal Interviewing).
Sono considerate le seguenti aree tematiche:

- le logiche di segmentazione del mercato finanziario


- gli asset finanziari, i redditi, i risparmi
- la struttura delle famiglie, le dotazioni, gli umori economici
- la formazione delle opinioni in campo finanziario
- gli strumenti di transazione, le carte
- i finanziamenti alle famiglie, il credito al consumo e il suo potenziale
- le coperture assicurative
- gli investimenti
- i canali
- il posizionamento competitivo di Banche, Assicurazioni, SIM, etc.
- alcuni temi "speciali": il private banking, previdenza e fondi pensione

NOMEBANCA sa che ogni cliente è “unico” in quanto combinazione di


esperienze, di bisogni, di influenze ambientali. Questa unicità produce
tipologie specifiche di comportamenti d’acquisto, di aspettative, di azioni, di

52
Statistics for Evaluation

reazioni all’offerta di prodotti/servizi, etc. La segmentazione Eurisko ha la


capacità di essere una classificazione sulle modalità di utilizzo della banca da
parte della clientela (bank usage). I vantaggi per NOMEBANCA di legare
l’analisi interna con lo studio Eurisko noto come “Multifinanziaria Retail
Market” – che restituisce attraverso batterie di domande e risposte gli
atteggiamenti dei sette profili di clientela verso il mondo della banca – sono
evidenti: attribuendo a ciascun cliente in portafoglio il proprio segmento di
appartenenza è possibile inferire per ciascuno le caratteristiche più probabili, i
suoi bisogni e i suoi atteggiamenti (ad es. valutare la propensione all’acquisto
dei prodotti, il numero di volte che si reca in Agenzia, il suo interesse
all’utilizzo dell’e-banking, il suo atteggiamento nei confronti delle campagne
telefoniche, etc.). Ma vi sono ulteriori vantaggi.

Le tipologie di clientela individuate da Eurisko sono in realtà legate a filo


doppio con le variabili che da tempo sono utilizzate in NOMEBANCA anche
per comprendere le potenzialità del territorio, caratterizzare i bacini di
gravitazione dei presidi, e per classificare le Agenzie: livello di
scolarizzazione, livello di reddito ed età del cliente.

Se si ipotizza che per ogni variabile sia possibile indicare con “A” se il valore
della variabile è superiore alla media e con “B” se il valore è inferiore, si
ottiene la seguente tabella di classificazione:

Segmento Scolarizzazione Reddito Età


Tycoon A A A
Elite Culturale A A B
Innovazione Giovani A B B
Benestanti B A A
Funzionali B A B
Lontani B B A
Disimpegnati B B B

Tabella 4 – Profili Eurisko in relazione con le variabili socio-demografiche

È evidente quanto sia differente, a parità di età, il comportamento “bancario”


di un cliente ad Alto Reddito ed Alta Scolarizzazione (Tycoon) rispetto a
quello di un cliente ad Alto Reddito e Bassa Scolarizzazione (Benestante). Si
riporta, comunque, una breve descrizione dei segmenti individuati:
- Tycoon: clienti con Alta Istruzione, Alto Reddito, Età adulta/centrale. Sono presenti
soprattutto in città grandi o metropolitane, possiedono la laurea, lavorano come
dirigenti o liberi professionisti o imprenditori. Si tratta di clienti pluribancarizzati che

53
Duccio Stefano Gazzei

ricercano in una banca professionalità e competenza nonché dinamismo e spirito


propositivo (Servizio in Guanti Bianchi)
- Elite Culturale: clienti con Alta Istruzione, Alto Reddito, Età giovane/centrale. Sono
clienti con un elevato profilo culturale e professionale, con patrimoni in via di
formazione o impiegati nella crescita e nel benessere della famiglia. Sono clienti
pluribancarizzati possessori di tutti i prodotti base ma pronti all’evoluzione: alla
banca chiedono di essere seguiti nel processo di sviluppo (Innovazione e Sviluppo)
- Benestanti: clienti con Bassa Istruzione, Alto Reddito, Età adulta/matura.
Prevalentemente pensionati con un livello di istruzione medio basso. Si tratta di
clienti pluribancarizzati, facoltosi e accumulatori, caratterizzati da un approccio alla
finanzia piuttosto tradizionale e cauto. Dalla banca cercano professionalità, fiducia e
la “tranquillità” di portafogli bilanciati
- Innovazione Giovani: clienti con Alta Istruzione, Basso Reddito, Età giovane.
Possiedono un elevato livello culturale e svolgono professioni medio alte (liberi
professionisti, impiegati) ma con un patrimonio in fase di costruzione. Si tratta di
clienti monobancarizzati, che utilizzano prodotti di base ma con una forte
propensione verso i nuovi prodotti; ricercano in una banca innovazione e prodotti di
finanziamento
- Lontani: clienti con Bassa Istruzione, Basso Reddito, Età adulta/matura.
Principalmente impiegati non professionali o pensionati, con un livello culturale
medio-basso ed avanti negli anni. Si tratta di clienti prevalentemente
monobancarizzati, con un approccio molto cauto e timoroso alla finanza: possiedono
prodotti tradizionali e il loro uso è sostanzialmente “basico”. Dalla banca cercano
prodotti di base
- Funzionali: clienti con Bassa Istruzione, Alto Reddito, Età giovane. Medio livello
culturale, lavoratori autonomi prevalentemente di livello medio come commercianti,
artigiani, etc. Nella maggior parte di casi sono clienti monobancarizzati, con un
approccio pragmatico alla finanza caratterizzato da un’apertura all’innovazione
limitatamente ai soli prodotti di base. Alla banca chiedono concretezza, fiducia e
prodotti con bassi livelli di rischio
- Disimpegnati: Bassa Istruzione, Basso Reddito, Età giovane. Sono clienti giovani o
giovanissimi, occupati come operai o impiegati non professionali con un livello
culturale medio-basso ed un patrimonio in corso di costruzione. In prevalenza sono
clienti monobancarizzati che possiedono prodotti di base; data la loro giovane età,
internet ha grandi potenzialità di diffusione. Dalla banca cercano facilitazioni nella
crescita verso l’autonomia finanziaria e prodotti previdenziali.

54
Statistics for Evaluation

IL CASO – Una applicazione di segmentazione Eurisko alle Unità Territoriali


di Base (UTB) di Firenze

Spesso non si dispone delle informazioni necessarie per segmentare i clienti della
propria Customer Base secondo l’impostazione Eurisko che, come detto, richiede tre
descrittori: Scolarizzazione, Reddito ed Età.
Una delle difficoltà maggiori è relativa alla acquisizione dei dati relativi al livello di reddito
di ogni cliente, come proxy del suo stato di benessere.
Una soluzione a questo problema è dedurre tale informazione dalla zona censuaria di
residenza del cliente stesso: se un luogo è caratterizzato da un elevato valore di
ricchezza (reddito, valore catastale, consumi, etc.) allora è probabile che anche la
maggior parte dei sui abitanti abbia le stesse condizioni. Studi empirici effettuati su
campioni numericamente rilevanti di popolazione hanno mostrato una certa validità di
questa affermazione almeno per l’80-85% dei casi. Quando non si hanno altre
possibilità, quindi, è possibile scegliere questa metodologia.
Ma come fare per capire in modo statisticamente rilevante se una zona ha un reddito
medio più alto della norma, tale da evidenziare una situazione dove gli abitanti siano da
classificarsi come “ad alto reddito”?
Abbiamo preso il SIT (Sistema Informativo Territoriale) della Provincia di Firenze (vedi
estratto in Tab.5)

Tabella 5 –SIT della Provincia di Firenze – Campi presenti

Il file è composto da oltre tremila righe e da una cinquantina di colonne. Ogni riga
rappresenta una zona censuaria, ogni colonna una variabile.
La parte che utilizzeremo è composta da n°7 colonne:
- COD_SEZ: Codice ufficiale che identifica la zona censuaria

55
Duccio Stefano Gazzei

- NOME_ISTAT: Nome della provincia


- UTB: Nome della Unità Territoriale di Base di cui fa parte ogni zona censuaria
- CEN_X_G: Coordinate di Latitudine
- CEN_Y_G: Coordinate di Longitudine
- FAMIGLIE: Numero di famiglie residenti nella zona censuaria
- REDDITO_FAM: Reddito prodotto dalle famiglie produttrici nella zona censuaria

Come prima cosa abbiamo, utilizzando la procedura Excel “Tabella Pivot”, raggruppato i
dati per UTB

Tabella 6 –Raggruppamento dei dati per UTB con l’utilizzo della “Tabella Pivot”

Abbiamo rappresentato in un grafico a dispersione (Procedura “Scatter Diagram” di


Excel) i dati della tabella (Asse X = Somma di FAMIGLIE, Asse Y = Somma di
REDDITO_FAMIGLIE).
L’idea è verificare se, almeno graficamente, sussista una relazione di questo tipo:
REDDITO_FAMIGLIE = B0 + B1*FAMIGLIE
L’analisi del grafico mostra una evidente stretta relazione tra le due variabili.
E’ possibile tracciare una retta di regressione utilizzando una funzionalità di Excel che si
attiva “cliccando” con il mouse su uno dei pallini del grafico e, subito dopo, con il tasto
destro, facendo apparire una finestra dove appare “Aggiungi linea di tendenza”.
Selezionando la forma lineare e “flaggando” sulla possibilità di visualizzare l’equazione e
il coefficiente “R-Quadrato”, si ottiene il risultato seguente.

56
Statistics for Evaluation

Figura 11 – Il risultato della regressione tra Reddito prodotto dalle Famiglie Vs Famiglie

Questa semplice funzionalità non ci consente di effettuare la verifica delle ipotesi della
regressione (ANOVA, Test t sui coefficienti, etc.) ma ci da una prima idea di quale possa
essere la relazione tra variabile dipendente e variabile indipendente.
In questo caso sembra ci sia una relazione lineare quasi perfetta, individuata in:
REDDITO_FAMIGLIE = 820,69 + 48,358*FAMIGLIE
Procediamo, però, ad effettuare una regressione utilizzando il tool “Analisi Dati” di Excel.
Il percorso in excel è il seguente:
DATI → ANALISI DATI → REGRESSIONE

57
Duccio Stefano Gazzei

Il tool ci presenta una “finestra” dove ci viene chiesto di evidenziare la variabile Y


(Intervallo di input Y) che, nel nostro caso, è la variabile “REDDITO_FAMIGLIE”. Poi la
variabile X (Intervallo di input X), che è la variabile “FAMIGLIE”. Dobbiamo ricordarci di
“flaggare” in corrispondenza di “Etichette” (sono presenti le intestazioni delle variabili) e
in corrsipondenza di “residui” (vogliamo che il tool calcoli la Y della retta ed i residui).
Il primo risultato è esattamente identico a quanto ottenuto nel grafico con la “Linea di
tendenza”.
OUTPUT RIEPILOGO

Statistica della regressione


R multiplo 1,00
R al quadrato 0,99
R al quadrato corretto 0,99
Errore standard 8.816,39
Osservazioni 71,00

ANALISI VARIANZA
gdl SQ MQ F Significatività F
Regressione 1 633.010.081.000 633.010.081.000 8.144 0
Residuo 69 5.363.287.161 77.728.799
Totale 70 638.373.368.161

Coefficienti Errore standard Stat t Valore di significatività


Intercetta 820,69 1.726,39 0,48 0,64
Somma di FAMIGLIE 48,36 0,54 90,24 0,00

Figura 12 – Le statistiche della regressione tra Reddito prodotto dalle Famiglie Vs Famiglie

Tuttavia è subito evidente che l’ordinata all’origine (Coefficiente “Intercetta”) non è


statisticamente significativa (Valore di significatività (P-Value) >0,05)
Effettuiamo una nuova regressione imponendo il passaggio per l’origine degli assi

58
Statistics for Evaluation

Il nuovo risultato è il seguente:


OUTPUT RIEPILOGO

Statistica della regressione


R multiplo 0,9985
R al quadrato 0,9969
R al quadrato corretto 0,9826
Errore standard 8.767,52
Osservazioni 71,00

ANALISI VARIANZA
gdl SQ MQ F Significatività F
Regressione 1 1.737.786.005.468,19 1.737.786.005.468,19 22.607,02 0,00
Residuo 70 5.380.852.678,81 76.869.323,98
Totale 71 1.743.166.858.147,00

Coefficienti Errore standard Stat t Valore di significatività


Intercetta 0 #N/D #N/D #N/D
Somma di FAMIGLIE 48,56 0,32 150,36 0,00

Figura 13 – Statistiche della regressione tra Reddito prodotto dalle Famiglie Vs Famiglie

Non c’è più l’intercetta e la relazione finale stimata risulta essere:


REDDITO_FAMIGLIE = 48,56*FAMIGLIE
Che ci dice che il reddito medio stimato è di circa 48k euro a famiglia.
Proviamo a ottenere lo stesso risultato con una procedura che può essere utilizzata in
una logica di machine learning: utilizzeremo lo strumento “Risolutore” Excel. Si tratta di
una applicazione metodologia presentata da Aigner & Chu nel 1968.
Prima però dobbiamo organizzare i dati in modo che il computer capisca il nostro
obiettivo e lo raggiunga in un costante processo di ottimizzazione.
Creiamo un foglio dove simuliamo la struttura lineare che vogliamo stimare.
Somma dei residui al quadrato---> 1.672.315.285.517,00
Etichette di riga b0 b1 Somma di FAMIGLIE Somma di REDDITO_FAMIGLIE RED_FAM_FIT u^2
BANDINO 1 1 5.477 273.616 5.478 71.897.987.044,00
CAREGGI 1.304 61.756 1.305 3.654.323.401,00
CASCINE DEL RICCIO- CINQUE VIE 217 12.475 218 150.234.049,00
CASTELLO 1.233 61.767 1.234 3.664.244.089,00
COVERCIANO 5.957 284.463 5.958 77.565.035.025,00
CURE 3.623 175.442 3.624 29.521.425.124,00
DONATELLO 2.661 130.400 2.662 16.316.996.644,00

Tabella 7 – Foglio Excel predisposto per la stima della Funzione di Frontiera

Per iniziare poniamo b0 e b1 =1. Quindi come primo calcolo abbiamo:


RED_FAM_FIT=1+1*Somma_di_Famiglie (5.478=1+1*5.477)
Calcoliamo il residuo (Somm di REDDITO_FAMIGLIE – RED_FAM_FIT) ed eleviamo al
quadrato. La somma dei residui al quadrato è la nostra cella obiettivo.

59
Duccio Stefano Gazzei

Attiviamo il risolutore (DATI → RISOLUTORE) e questo ci mostra una finestra dialogo


dove ci viene richiesta quale sia la cella obiettivo (la somma dei residui al quadrato da
minimizzare) e quali siano le celle su cui il sistema di ottimizzazione può operare per
minimizzare la cella obiettivo (le celle dei due parametri).
A questo punto possiamo dare l’ok e “cliccare” su “Risolvi”.

A questo punto il Risolutore ci ha dato il risultato dell’elaborazione.


Somma dei residui al quadrato---> 5.363.287.160,96
Etichette di riga b0 b1 Somma di FAMIGLIE Somma di REDDITO_FAMIGLIE RED_FAM_FIT u^2
BANDINO 820,69 48,36 5.477 273.616 265.680 62.980.722,99
CAREGGI 1.304 61.756 63.880 4.511.872,84
CASCINE DEL RICCIO- CINQUE VIE 217 12.475 11.314 1.346.821,64
CASTELLO 1.233 61.767 60.447 1.743.280,64

Tabella 8 – I risultati della stima della Funzione di Frontiera

Come si vede i parametri stimati sono esattamente quelli che avevamo ottenuto con la
prima regressione.
A questo punto è estremamente semplice attivare costantemente, ogni volta che
arrivano dati aggiornati sulle UTB, la procedura di ottimizzazione che fornisce i parametri
aggiornati.

60
Statistics for Evaluation

2.2.2. La segmentazione a posteriori

Molte imprese nel tempo hanno adottato segmentazioni della clientela “a


posteriori” con basi molto semplici (ad es. nelle banche storicamente i
clienti con AUM – Asset Under Management, cioè patrimonio, superiore a X
euro vengono considerati “private”, clienti con AUM compreso tra Y ed X
euro fanno parte del segmento “affluent”, gli altri clienti rientrano fra i
“mass”). Questa impostazione è figlia di una concezione del modello di
servizio che può essere definita “reattiva”: si risponde alle esigenze del
cliente “a chiamata” e l’intensità e la specializzazione dei servizi proposti
saranno proporzionali all’importanza che il cliente stesso assume per
l’azienda e che gli viene attribuita sulla base delle relazioni che questi ha
deciso di instaurare con l’impresa (ad es. la logica descritta per le banche
non considera che dietro un cliente identificato come “mass” può
nascondersi in realtà un potenziale “affluent multibancarizzato” che
intrattiene rapporti anche con altri istituti: il profilo assegnato è nella
categoria “mass” ed il modello di servizio che si avrà nei suoi confronti sarà
sempre coerente a questo segmento, ignorando il potenziale che il rapporto
potrebbe esprimere se si riuscisse a far diventare la banca titolare del
rapporto unico o, almeno, principale). Negli anni, questa impostazione ha
prodotto vari effetti, alcuni dei quali negativi: non ha permesso di stimolare
la voglia di raccogliere su ogni cliente quel set di informazioni basilare per
andare oltre la semplice variabile “base” utilizzata per la definizione dei
gruppi secondo le logiche consolidate, con il risultato che, nei customer
database, la qualità dei dati relativi a “professione”, “titolo di studio”,
“residenza/domicilio”, “telefono”, “e-mail”, etc., è risultata spesso assai
scarsa.
SEGMENTAZIONE COMPORTAMENTALE. Metodologia che si basa sull’attuale
comportamento d’acquisto dei clienti nel mercato e che, ad esempio,
considera il tipo di utilizzatore (da non utenti a heavy user), il tasso di
utilizzo del prodotto, la fedeltà del cliente, la sensibilità agli elementi di
marketing. Le informazioni utilizzate possono provenire dal sistema
informativo interno dell’azienda o dall’osservazione di particolari fenomeni
di mercato. In quest’ambito rientrano, ad esempio, i fenomeni delle

61
Duccio Stefano Gazzei

comunità di marca (brand community) e più in generale la cosiddetta


“segmentazione tribale” con la quale si intende il raggruppamento
spontaneo per cui gli individui si riuniscono volontariamente sulla base di
caratteristiche di consumo comuni (hobby, marche, problemi, obiettivi). In
tali micro-comunità esistono dei forti legami e valori culturali condivisi fra gli
individui: in questo senso si parla di segmentazione comportamentale
perché le persone che formano i vari segmenti sono accomunate da uno
specifico comportamento nei confronti di un prodotto o servizio. Il concetto
alla base di tale metodologia di segmentazione è che la strategia di impresa
deve essere fedele al cliente e non viceversa: immagine, personalizzazione
e fidelizzazione sono i contributi apportati secondo questo approccio di
analisi, pertanto la segmentazione comportamentale è quella che sta alla
base delle attività di Customer Relationship Management (CRM) di
un’impresa.
SEGMENTAZIONE IN BASE ALL’ORDINAMENTO DELLO SCORE. All’interno del
customer marketing giocano un ruolo di rilievo le tecniche di scoring. Le più
importanti misure di scoring riguardano:
- Scoring per aiutare la vendita prodotti
- Scoring per aiutare lo sviluppo della clientela (upselling scoring)
- Scoring per combattere l’abbandono (anti-churn scoring)
- Scoring per la concessione di credito (credit scoring)
Scopo principale dello scoring è, quindi, quello di identificare segmenti di
clientela che:
- presentano minori rischi di rifiuto nell’ambito dell’offerta di nuovi prodotti;
- hanno maggiore propensione per aumentare il numero dei prodotti in
proprio possesso;
- hanno sviluppato un malessere nei confronti della banca che, se
quest’ultima non interviene in qualche forma, porterà alla chiusura del suo
rapporto;
- meritano la concessione del credito.

62
Statistics for Evaluation

Il cuore della procedura è costituita da un modello statistico che collega i


caratteri di una popolazione di clienti ad una variabile obiettivo. Quest’ultima
(la cosiddetta variabile “da spiegare”) è costituita dall’adesione o meno ad
una proposta commerciale ed è, in genere, di tipo dicotomico (ad esempio:
acquista/non acquista). Le variabili esplicative, riguardano, invece, le
caratteristiche anagrafiche dei soggetti ed il loro passato comportamento
verso iniziative simili a quelle in atto.
Un tipico sistema di scoring (ad es.: per il supporto alla vendita di un
prodotto) si sviluppa nei seguenti moduli:
a) Individuazione dei campioni (caso, controllo e validazione). Si
estraggono tre campioni casuali di clienti che:
- hanno nel passato comprato il prodotto o un prodotto simile (caso)
- non hanno comprato nel passato il prodotto o un prodotto simile (controllo)
- hanno o non hanno comprato il prodotto nel passato (campione misto di
validazione);
b) Associazione della variabile “da spiegare” con valore “1” ai clienti che
hanno comprato il prodotto o un prodotto simile, la variabile con valore “0”
agli altri clienti;
c) Selezione delle informazioni che costituiscono le cosiddette “variabili
esplicative”7. Sono queste le informazioni che il modello di scoring cercherà
di correlare alla variabile dicotomica 1-0 di cui al punto b);
d) Trattamento delle variabili esplicative. Ad esempio le variabili continue
possono essere trasformate in variabili categoriche suddividendole in classi.
Successivamente si consiglia di trasformare tutto il set di dati in matrice con
valori 0,1 (vedi esempio seguente)

7 Il modo migliore per selezionare da subito le variabili esplicative è la cosiddetta “Analisi delle Modalità
Caratterizzanti” di cui parleremo più avanti in queste dispense. In breve si tratta di confrontare e testare la
penetrazione delle variabili nel campione ”caso” rispetto al campione “controllo”, eliminando quelle la cui
distribuzione tra i due campioni è omogenea.

63
Duccio Stefano Gazzei

61 ANNI ED OLTRE
DISIMPEGNATO
SESSO (1="M")

BENESTANTE
IDENTIFICATIVO IDENTIFICATIVO
SESSO SEGMENTO ETA'

19-25 ANNI
26-45 ANNI
46-60 ANNI
0-18 ANNI
CLIENTE CLIENTE

TYCOON
Cliente 1 M Tycoon 67 Cliente 1 1 1 0 0 0 0 0 0 1
Cliente 2 F Benestante 70 Cliente 2 0 0 1 0 0 0 0 0 1
Cliente 3 M Benestante 70 Cliente 3 1 0 1 0 0 0 0 0 1
Cliente 4 M Disimpegnato 30 Cliente 4 1 0 0 1 0 0 1 0 0

e) Determinazione della metodologia per analizzare la relazione tra la


variabile dicotomica “output” e le variabili esplicative “input” ed utilizzarla
per calcolare lo score. Le metodologie da noi scelte sono quattro:
- La regressione logistica
- Le reti neurali
- Gli alberi di classificazione
- Le “foreste” casuali

f) Stima sui campioni di caso-controllo e valutazione dei risultati con la


cosiddetta “verifica delle ipotesi” sulle statistiche di stima;
g) Validazione del fitting modello sul campione di validazione con una
proceduta di previsione “ex post” della propensione all’acquisto di ogni
cliente;
h) Implementazione dell’algoritmo di scoring.

LA REGRESSIONE LOGISTICA
L’analisi di regressione logistica è una delle più rilevanti applicazioni del più
generale metodo di regressione statistica, che si applica quando si vuole
andare ad analizzare, rispetto ad un set di variabili indipendenti x, una
variabile dipendente Y, che risulta essere “dicotomica”.
Con tale termine, a volte sostituito con l’equivalente “binomiale” si
intendono quelle variabili che presentano solamente due modalità: esempi
banali di tale categoria sono il possesso di un determinato attributo, come il
sesso di un individuo (dove le modalità possibili sono, ovviamente, l’essere

64
Statistics for Evaluation

maschio o femmina) o l’appartenenza ad una categoria di unità, come il


superamento o meno di un esame.
Una variabile dicotomica soddisfa contemporaneamente le caratteristiche
per essere considerata su scala nominale, ordinale ed a intervalli, e
pertanto possono essere utilizzate in elaborazioni insieme a variabili
quantitative.
Infatti, è possibile definire su scala ad intervalli, o semplicemente ad
intervalli, o ancora intervallo, quella variabile quantitativa le cui modalità
sono valori per cui ha senso ragionare in termini di rapporto, oltre che di
differenza, mentre si dicono nominali ed ordinali quelle variabili qualitative
che soddisfano, rispettivamente, il criterio di possedere modalità
rappresentate da nomi e che possono essere messe in sequenza.
L’attributo al centro dell’analisi di regressione può essere dicotomico di
natura o dicotomizzato a fini di studio (ad esempio, suddividendo le possibili
modalità al di sopra o al di sotto di una certa soglia).
Tale tipo di regressione è quella che meglio riesce a collegare la probabilità
del possesso di un attributo dicotomico in base alle variabili x; questi ultimi
sono regressori che possono essere rappresentati da variabili anch’esse
dicotomiche, ma anche categoriali (es. la classe sociale) e continue (es.
l’età).
Quella logistica è quindi un tipo di stima della funzione di regressione che si
distanzia da quella semplice sia per la scala di misura della variabile
dipendente che per un altro aspetto: mentre quella lineare presuppone una
distribuzione normale di Y, quella della logistica risulta essere,
prevedibilmente, di tipo binomiale; inoltre, se nella prima la stima della
variabile dipendente varia da —∞ a +∞, se Y risulta essere dicotomica, la
stima è necessariamente compresa tra 0 e 1.
L’uso di tale modello risulta inoltre preferibile anche a quello dell’analisi
discriminante, poiché richiede meno ipotesi di base; in aggiunta a ciò,
quando le ipotesi richieste per quest’ultima sono soddisfatte, è possibile
applicare sugli stessi dati anche un’analisi di tipo logistico.

65
Duccio Stefano Gazzei

L’obiettivo dell’utilizzo di tale metodologia è quello di studiare le


determinanti del fenomeno rappresentato dalla variabile criterio Y; in altre
parole, si tratta di spiegarne il logit, ossia:
p
LOGIT ( p )  log( )  log( p )  log(1  p ) [3]
1 p

dove per p si intende la frequenza attesa dell’attributo Y, cioè la probabilità


di successo.
La stima di Y assume quindi il significato di probabilità che la variabile
stessa sia uguale a 1
p( y  1 / x)  p [4]

Il nucleo del modello è rapporto tra la probabilità p dell’evento e la


probabilità (1-p) dell’evento complementare, che si dice odds:
p
( )  odds [5]
1 p

Dalla [3] si ricava:

e log it
p [6]
1 e log it

A questo punto il modello può essere rappresentato come:


log it ( p)  b 0  b 1 x1  .....  b k x k  Xb [7]

essendo
p
log it ( p )  ln [8]
1 p

la stima della probabilità di p avviene effettuando la stima dei parametri di b


(massima verosimiglianza) e successivamente operando la trasformata
e xb
p [9]
1  e xb

66
Statistics for Evaluation

potremmo applicare direttamente una forma lineare tradizionale sulle


variabili indipendenti

y  a 0  a1 x1  .....  a k x k [10]

ma non sapremmo se le stime sono comprese tra [0,1] come richiede il


modello che stiamo utilizzando.
L’odds, ribadendo quanto già affermato, esplicita il rapporto tra la
probabilità di successo e quella di insuccesso. Connessa a tale definizione,
compare anche quella di odds ratio (OR) che, date due unità A e B con
probabilità di successo pA e pB, risulta pari alla misura:
pA
p 1 p A
odds  ( ) OR  [11]
1 p pB
1 pB

Da cui:
pA
1  pA pA pB
log OR  log  log  log  log it ( p A )  log it ( pB ) [12]
pB 1  pA 1  pB
1  pB

Sia l’analisi di regressione semplice che quella logistica fanno parte della
stessa classi di modelli, detti “lineari generalizzati” (altresì denominati GLIM,
dall’acronimo inglese di Generalized Linear Models), che si caratterizzano
per il fatto che vengono trattati indipendentemente dalla natura della
dipendente e dal tipo di funzione che lega quest’ultima alle esplicative.
Il processo di stima dei parametri ignoti β si basa sul metodo della massima
verosimiglianza, che prevede di massimizzare la probabilità di osservare
l’insieme di dati osservato in funzione di β; in particolare, considerando n
osservazioni indipendenti tra di loro, il modello relativo all’unità i = 1,….,n è
e b 0  b1x1 ... b k xk
y i  E[ y i / X ]    i  p i [13]
1  e b 0  b1x1 ... b k xk

67
Duccio Stefano Gazzei

Dato che Y è dicotomica, ha quindi una distribuzione binomiale, con media:

E [ yi / X ]  p [14]

La funzione di probabilità per l’i - esima unità sarà


f ( yi / xi ; b )  pxyii [1  pxi ]1 yi [15]

Data l’indipendenza delle osservazioni, la verosimiglianza del campione di n


unità è data dal prodotto delle verosimiglianze delle unità che lo
compongono
n
L( b )   f ( y i / x i ) [16]
i 1

per la stima di massima verosimiglianza è sufficiente determinare il vettore


b che massimizza il log L(b)
n n n
p ( x)
LogL( b )   [ yi log[ p( x)]  [1  yi ] log[1  p( x)]]   yi log   log[1  p( x)]
i 1 i 1 1  p ( x) i 1
[17]

si pongano a zero le derivate parziali rispetto ai p+1 parametri.


Infine, la verifica della significatività dei singoli parametri si effettua
ricorrendo al “test di Wald”, che presenta ancora una volta una distribuzione
chi-quadro. Quando una variabile ha un solo grado di libertà, la statistica
Wald consiste semplicemente nel quadrato del rapporto tra il valore del
coefficiente ed il suo “standard error”:
bi
W [18]
 b i 

Invece, per variabili categoriali con più di un grado di libertà (g.d.l.), è


necessario ricorrere alla “overall Wald statistic”, calcolata con tanti g.d.l
quante risultano essere le modalità della variabile meno una, ossia:
W = β’ V-1 β [19]

68
Statistics for Evaluation

Dove β è il vettore di massima verosimiglianza stimata per i coefficienti


delle variabili categoriali e V-1 è l’inverso della matrice della “varianza-
covarianza” calcolata per i coefficienti stessi.

LE RETI NEURALI
Come suggerisce il nome, dal momento che alla base del loro sviluppo vi è
proprio il tentativo di imitare la neurofisiologia del cervello umano, le reti
sono composte da una serie di unità computazionali elementari, dette
appunto neuroni, fortemente interconnesse tra di loro.
La proprietà che accomuna tutti i “neuroni” della rete neurale è la capacità
di acquisire conoscenza dall’ ambiente esterno appositamente elaborata
tramite un processo adattivo di apprendimento e rispecchiata nei pesi
associati alla connessione, ossia nei parametri della rete stessa .
Ogni neurone è autonomo e, analogamente a quelli reali che caratterizzano
il sistema nervoso, viene raggiunto simultaneamente da una serie di segnali
input che ne determinano l’attivazione o meno. Tale attivazione dipenderà
dall’importanza relativa associata ad ogni input e definita grazie ad un peso
di connessione che può assumere valori positivi, negativi o nulli. La
connessione potrà quindi essere rispettivamente eccitatoria, inibitoria o
assente.
L’elaborazione dei segnali di input avviene da parte di ogni neurone in
maniera autonoma in base ad una funzione chiamata potenziale (o input)
netto. Quest’ultima considererà sia l’importanza relativa degli input, sia il
così detto bias, un valore soglia che ha lo scopo di considerare le influenze
dell’ambiente esterno. In termini matematici, l’input netto corrisponde alla
sommatoria di tutti i valori di input ponderati con i pesi delle relative
connessione e confrontati con il valore soglia:
() ()
Zj = ∑ ( − ) [20]

Dove j identifica un neurone generico con il rispettivo valore soglia, n il


numero di segnali input che il neurone riceve e ( ) i rispettivi pesi associati

69
Duccio Stefano Gazzei

a ciascun input. Per rendere più intuitivo il ruolo del valore soglia,
specifichiamo che il neurone si attiva solo se viene superato, altrimenti
rimane inattivo. L’integrazione di θ all’interno dei valori di input è possibile
riconoscendo un particolare campione con = 1 al quale è associato un
peso = −
L’output dello stesso sarà poi ottenuto grazie all’applicazione di una
funzione di trasferimento al potenziale netto. Tale funzione in letteratura
assume anche altri identificativi quali funzione di attivazione e funzione di
output. Gli autori che preferiscono parlare di funzione di attivazione si
riferiscono al processo mediante il quale viene calcolato il nuovo livello di
attivazione del neurone ai vari passi del processo di elaborazione degli
input ricalcolando, da questi, la nuova soglia di attivazione sulla base di
quella individuata al passo precedente. Con funzione output, invece, si
considera il processo di calcolo dell’output del neurone in esame partendo
dallo stato di attivazione dello stesso. Per questi motivi, con il termine
funzione di trasferimento vogliamo indicare l’effetto combinato della
funzione di attivazione e quella di output .
Le più comuni funzioni di trasferimento che restituiranno l’output del
neurone sono di tre tipi: lineari, a gradino o passo unitario e sigmoidali. In
termini matematici la funzione di trasferimento lineare è espressa come
segue :

ϕ(z) = f =β +α [21]

Nel caso in cui i parametri siano rispettivamente β=1 e α=0 la funzione di


trasferimento è chiamata funzione identità dal momento che impone il livello
di output pari al livello di input.
La funzione a gradino, o di passo unitario, invece è definita:
α, ≥
ϕ(z) = [22]
β,
Tale funzione consente di risolvere classificazioni di tipo binario. Per avere
una scrittura più compatta si può assorbire θ riconoscendo un campione

70
Statistics for Evaluation

=1 e peso =− permettendo quindi alla funzione ϕ(z) di restituire il


valore α, se z≥0.
Per concludere definiamo ora la funzione sigmoidale la quale tende
asintoticamente ad un limite inferiore e uno superiore, è monotona
crescente, continua e differenziabile in ogni punto :

ϕ(z) = [23]

Tale funzione ha come output valori sempre positivi compresi nell’intervallo


[0,1] interpretati, nei problemi di classificazione statistica, come la
probabilità di appartenere ad un gruppo o ad un altro. Ad esempio, nei
problemi di classificazione binaria, ogni volta che un campione presenta un
valore ϕ(z)=0.5 o maggiore, significa che lo stesso apparterrà a quella
classe con probabilità ϕ(z), e all’altra con probabilità 1 - ϕ(z).
Le reti neurali possono presentare vari strati e livelli sui quali sono
organizzati i neuroni ed ognuno di essi può avere come output più di una
variabile risposta.

71
Duccio Stefano Gazzei

Figura 12 – Un esempio di Rete Neurale con n°1 strato nascosto

72
Statistics for Evaluation

GLI ALBERI DI CLASSIFICAZIONE


Gli alberi di classificazione (o di segmentazione) rappresentano una
metodologia che ha l’obiettivo di ottenere una segmentazione gerarchica di
un insieme di unità statistiche mediante l’individuazione di “regole”
(o“percorsi”) che sfruttano la relazione esistente tra una classe di
appartenenza e le variabili rilevate per ciascuna unità. Essi vengono
utilizzati per individuare l’appartenenza di unità statistiche alle classi di una
variabile dipendente conoscendo i valori o le modalità di una o più variabili
esplicative (albero esplorativo). La regola individuata viene
successivamente impiegata per classificare nuove unità statistiche di cui si
ignora la categoria di appartenenza (albero decisionale).
Per albero si intende un modello grafico costituito da un insieme finito di
elementi, detti nodi, che si dipartono da un nodo iniziale denominato nodo
radice.
Solitamente la costruzione dell’albero avviene attraverso un processo
ricorsivo che, ad ogni passo, taglia (o segmenta) un nodo interno (nodo
padre) in due nodi (nodi figli) a loro volta interni o terminali.
Per tale motivo spesso i metodi di classificazione supervisionata ad albero
sono anche detti di segmentazione binaria.

73
Duccio Stefano Gazzei

Figura 13 – Un esempio di albero di classificazione

L’idea di base dalla segmentazione binaria è quella di partizionare


ricorsivamente un insieme di unità statistiche in gruppi sempre più fini, cioè
di numerosità inferiore, e sempre più omogenei internamente (rispetto alla
distribuzione della variabile risposta).
Si determina in tal modo una partizione finale del gruppo iniziale presente al
nodo radice in sottogruppi disgiunti ed esaustivi rappresentati dai nodi
terminali dell’albero.
Per definizione infatti i nodi terminali rappresenteranno un grado di
omogeneità interna maggiore rispetto al gruppo di partenza.
Il ruolo di generatore delle possibili partizioni, o split, viene assunto dai
predittori, i quali caratterizzano il passaggio delle unità statistiche da un
nodo ai suoi discendenti.
Una struttura ad albero, output della procedura di segmentazione, a prima
vista sembra presentare numerosi elementi di contatto con il
dendrogramma di una cluster analysis gerarchica.
In realtà le due tecniche presentano differenze sostanziali sia negli obiettivi
che nelle modalità di analisi.

74
Statistics for Evaluation

La finalità della cluster è quella di accorpare le unità statistiche in gruppi o


classi che sono ignote all’analista. Tale raggruppamento avviene attraverso
la ricerca di gruppi in cui le osservazioni siano omogenee rispetto alle p
variabili X osservate.
Diversamente, in un albero di classificazione, i gruppi a cui le unità
appartengono sono già noti a priori in una variabile indicata con Y, e ciò che
la metodologia vuole individuare sono le relazioni tra le p variabili
esplicative X che spiegano il perché un osservazione appartenga ad una
classe della Y piuttosto che ad un’altra.
Tale struttura di relazioni, una volta definita, consente anche di predire, per
nuove unità statistiche, la classe di appartenenza quando questa non sia
nota a priori. Questi due differenti approcci sono noti in letteratura come:
classificazione supervisionata
Come nel caso degli alberi di classificazione in cui la ricerca della
partizione è guidata (supervisionata) dalla conoscenza a priori della Y
classificazione non supervisionata
Come nel caso della cluster analysis in cui la ricerca della partizione è
effettuata unicamente sulla base della somiglianza delle unità rispetto
alle caratteristiche osservate (le variabili X).
Le differenze tra metodi supervisionati e non supervisionati traggono
ragione dal differente ruolo giocato dalle p variabili osservate sugli n oggetti
da classificare.
Un ruolo simmetrico nel clustering, un ruolo asimmetrico nella
classificazione supervisionata.
Infatti in questo ultimo caso dei p caratteri misurati sugli oggetti, uno di essi
gioca il ruolo di variabile discriminate o dipendente sintesi della
classificazione degli oggetti nota a priori.
Obiettivo dell’analisi supervisionate è quindi spiegare come la conoscenza
delle modalità assunte dalle n unità sulle restanti p-1 variabili (dette variabili
esplicative) possa spiegare l’appartenenza ad uno o ad un altro dei gruppi.

75
Duccio Stefano Gazzei

Ogni procedura di segmentazione è caratterizzata da un certo numero di


fasi che guidano la costruzione dell’albero:

 Creazione dell’insieme degli split, cioè dell’insieme dei potenziali tagli


binari (ottenuti attraverso le variabili esplicative) che consentono di
dividere le unità contenute in un nodo padre in due insiemi che
formano i nodi figli;
 Il criterio di partizione, passaggio fondamentale consistente in un
algoritmo di partizione ricorsivo che genera, a partire dal nodo radice,
gruppi sempre più omogenei internamente ed eterogenei
esternamente;
 La regola di arresto della procedura, essenziale per il controllo della
dimensione dell’albero finale;
 L’assegnazione della risposta, che si esplica con l’assegnazione di
una classe o di un valore alle unità presenti in un nodo terminale;
 La potatura dell’albero, che consente di individuare, a partire
dall’albero finale, un sottoalbero ottimale che posa essere utilizzato a
fini decisionali.

Tra le numerose tecniche di classificazione ad albero note in letteratura, il


contributo statistico più rilevante è quello della metodologia CART
(Classification and Regression Trees) proposta da Brieman e al. nel 1984.
1) Il criterio di partizione
Questa fase rappresenta il punto chiave di ogni procedura di
segmentazione ad albero.
Essa consiste nella individuazione, tra l’insieme di tutti i possibili split
generati nella fase precedente, del taglio binario “migliore” rispetto ad un
dato criterio statistico.
Nella metodologia CART, il criterio statistico che guida la scelta del migliore
split si basa sul concetto di decremento di impurità.
Essendo l’obiettivo della segmentazione quello di ottenere via via nodi
sempre più puri, si individua tra tutti i possibili tagli, lo split ottimo come
quello che massimizza la riduzione di impurità che si ottiene tagliando un
nodo padre in due nodi figli.

76
Statistics for Evaluation

Il decremento di impurità ad un nodo t ottenuto con uno split s, si definisce


come:

 iY(t,s)= iY(t) –[ iY(tL) p(tL) + iY(tR) p(tR)] [24]


Dove iY(t) è il grado di impurità nel nodo padre t
iY(tL) è il grado di impurità nel nodo figlio di sinistra e p(tL) è la proporzione di
unità contenute nel nodo di sinistra.
iY(tR) è il grado di impurità nel nodo figlio di destra e p(tR) è la proporzione di
unità contenute nel nodo di destra.
Il migliore split s* è quello che massimizza il decremento di impurità

s*max iY(t,s) [25]


L’algoritmo CART quindi, ad ogni nodo e fino a che la costruzione
dell’albero non si conclude, genera l’insieme S di tutte le possibili partizioni
binarie (split), calcola il decremento di impurità e determina la miglior
partizione cui è associato il massimo decremento di impurità.
In sostanza, l’algoritmo CART si compone dei seguenti passi:
Passo 1. si genera l’insieme S di tutte le possibili partizioni binarie ottenute
dal set di predittori X;
Passo 2. per ogni split s dell’insieme S si calcola il decremento di impurità;
Passo 3. si determina la miglior partizione a cui é associato il massimo
decremento di impurità.

L’algoritmo é applicato ad ogni nodo fino a che la costruzione dell’albero


non si arresta.
Il costo computazionale di questa metodologia é molto elevato. Infatti basti
pensare al caso in cui i predittori impiegati sono in numero sostanzioso ed
inoltre parte di essi sono in scala numerica o nominale. In questo caso il
numero di split S che deve essere generato ad ogni nodo é considerevole
soprattutto se si pensa che ogni volta per ognuno di esso, l’algoritmo deve
calcolare il decremento di impurità per poi selezionare la migliore partizione.

77
Duccio Stefano Gazzei

2) Misure di impurità
La metodologia CART adotta quale misura d’impurità, per gli alberi di
classificazione, l’indice H di eterogeneità di Gini.
Esso si definisce in generale come:

=1−∑ [26]

Dove fj rappresenta la frequenza relativa di osservazioni la cui modalità


della variabile è pari a j.
Nell’ambito della segmentazione binaria, l’impurità in un nodo sarà quindi
pari a:

( )=1−∑ ( / = ) [27]

Dove iY(t) è la misura di impurità in un generico nodo t


e p(t /Y=j) è la proporzione di unità nel nodo t che appartengono alla j-esima
classe della variabile di risposta Y.
3) Regole d’arresto
Le regole d’arresto della procedura rappresentano l’insieme di criteri che
determinano quando un nodo debba essere dichiarato terminale e quindi
non più partizionabile in ulteriori nodi figli.
Esse consistono nelle seguenti condizioni: “Un nodo t diventa terminale se:”
a) La numerosità dello stesso è inferiore ad una certa soglia prefissata;
Si fissa una soglia minima per il numero di osservazioni contenute in
un nodo padre o eventualmente nei nodi figli generati da questo. La
regola serve ad ottenere alberi i cui nodi non siano espressione di
singole o pochissime unità fornendo così percorsi poco informativi;
b) Il grado di impurità del nodo t è al di sotto di una certa soglia prefissata;
Se il nodo ha un grado di purezza elevato allora sue ulteriori partizioni
non produrranno alcun miglioramento nell’accuratezza della struttura

78
Statistics for Evaluation

ma unicamente uno svantaggio misurato dalla crescita della


complessità dell’albero.
c) Il massimo decremento di impurità (ottenuto dal migliore split) è inferiore
ad una certa soglia prefissata;
Un nodo è dichiarato “terminale” se la riduzione dell’impurità
conseguibile mediante la suddivisione del nodo stesso risulta inferiore
ad una soglia prefissata. In questo modo si pone un freno alla crescita
di branche il cui contributo alla purezza dell’albero è praticamente
nullo;
d) La complessità dell’albero ha superato una certa soglia prefissata.
Un’ulteriore regola d’arresto definisce la dimensione massima della
taglia dell’albero al fine di limitarne l’espansione. La taglia può essere
definita in termini di numero di nodi terminali che è anche pari al
numero di suddivisioni (nodi interni) più uno, ma anche in riferimento
al numero di livelli dell’albero che danno una misura della profondità
della struttura.
Con i metodi di segmentazione si perviene ad una struttura ad albero i cui
nodi terminali costituiscono una partizione del campione iniziale in gruppi
“puri” al loro interno.
Nell’interpretazione dell’albero esplorativo, si seguiranno i diversi percorsi
della struttura gerarchica individuando le diverse interazioni tra predittori
che conducono le unità a cadere in un nodo terminale piuttosto che in un
altro.
Ciascun nodo terminale sarà etichettato attribuendo la classe modale di
risposta della Y tra le unità presenti nel nodo stesso.
In tal modo, si definiranno ad esempio i diversi percorsi che conducono alla
stessa classe di risposta.
La qualità di una regola o percorso che porta ad un nodo terminale è
valutata attraverso la misura del tasso di errata classificazione definito
come la proporzione di osservazioni mal classificate in un dato nodo t.

79
Duccio Stefano Gazzei

“Le osservazioni in un nodo terminale si considerano mal classificate


quando la loro classe di risposta è diversa da quella modale”.

Es. Si immagini che la Y assuma solo due modalità Y=A e Y=B.


Se in un nodo terminale vi sono 100 osservazioni (nt=100) di cui 80
assumono la modalità A della Y e le restanti 20 la modalità B, allora la
risposta modale è A, quindi il tasso di mal classificati sarà pari a: 20/100
cioè il 20%.
“La qualità di un nodo, e più in generale di un albero, sarà tanto più elevata
quanto minore sarà il tasso di osservazioni mal classificate”

Il tasso di mal classificati di una struttura ad albero T si definisce come la


proporzione di mal classificati dell’intero campione:
R(T)= numero di mal classificati / numero di osservazioni considerate
Ovvero sarà pari alla media ponderata dei tassi di mal classificati
dell’insieme TR di nodi terminali che compongono la struttura:
( )=∑ ∈ ( )∙ ( ) [28]

LE “FORESTE” CAUSALI (CENNI)


La metodologia detta “foresta casuale” (in inglese: random forest) è un
classificatore d'insieme che è composto da molti alberi di decisione e dà in
uscita la classe che corrisponde all'uscita delle classi degli alberi presi

80
Statistics for Evaluation

individualmente. L'algoritmo per indurre a una foresta casuale fu sviluppato


da Leo Breiman e Adele Cutler.
Ogni albero della collezione (foresta) esprime un solo voto per attribuire ad
una classe l’unità statistica sulla base del vettore di valori x: la scelta finale
è di attribuire l’unità statistica alla classe per la quale si è ottenuta la
maggioranza dei voti, cioè per la quale si è espressa la maggioranza degli
alberi della foresta casuale.
La classificazione basata su foreste stocastiche ha caratteristiche
statistiche molto interessanti:

 E’ relativamente robusta rispetto ad osservazioni estreme (outliers)


ed al rumore sperimentale.
 E’ più veloce di molte altre procedure di classificazione numerica.
 Consente stime interne dell’errore, della correlazione e
dell’importanza delle variabili utilizzate nel processo di
classificazione.
 E’ relativamente semplice e può essere implementata su calcolatori
paralleli in modo efficiente.
 E’ facilmente paralellelizzabile.

Uno dei punti fondamentali che caratterizzano le Foreste Casuali è che


l’errore di generalizzazione converge “quasi certamente” per un numero di
alberi della foresta che diverge ed è pertanto scongiurata l’eventualità di
operare una sovrastrutturazione (overfitting) della procedura complessiva di
classificazione a causa dell’aumento del numero di alberi

81
Duccio Stefano Gazzei

82
Statistics for Evaluation

IL CASO – LA CREAZIONE DI UN TARGET PER IL RINNOVO DI UN


ABBONAMENTO AL SERVIZIO DI INFORMAZIONI SPORTIVE ON-LINE
USANDO LO SCORE PRODOTTO DAL MODELLO LOGISTICO

L’esercizio è stato prodotto con un tool (XLSTAT) con cui è possibile


implementare la versione base di Excel.
La regressione logistica mira alla previsione di una probabilità di successo a
seconda dei valori delle variabili esplicative, che possono essere variabili
categoriali o numeriche. Il caso di marketing che vogliamo rilevare serve a
stabilire se i clienti siano o meno propensi a rinnovare il loro abbonamento
annuale per il servizio di informazioni sportive online. Un foglio di Excel con Sia
i dati ed i risultati possono essere scaricato cliccando qui vicino.
I dati mostrano un campione di 60 utenti, con la loro fascia d'età, il numero
medio di pagine visualizzate a settimana, e il numero di pagine viste durante la
settimana precedente. A questi utenti è stata offerta la possibilità di rinnovare il
loro abbonamento, in scadenza tra due settimane. Il nostro obiettivo è quello di
capire perché alcuni hanno rinnovato l'abbonamento ed altri non lo hanno fatto.
Vogliamo spiegare i risultati ottenuti sul campione analizzato, e quindi utilizzare
il modello su tutta la popolazione, al fine di identificare gli altri utenti che
saranno propensi a rinnovare l'abbonamento. Agli altri potrebbero essere offerti
incentivi o premi (un servizio aggiuntivo, per esempio) in modo mirato.
Per attivare la finestra di dialogo, avviare XLSTAT, selezionare il XLSTAT.
Poi dati / modellazione / Modelli per il comando dei dati risposta binaria, oppure
fare clic sul pulsante corrispondente della barra degli strumenti "Data Modeling"
(vedi sotto).

Quando si fa clic sul pulsante, appare la finestra di dialogo “regressione

83
Duccio Stefano Gazzei

logistica”. Selezionare i dati sul foglio di Excel. La "risposta" corrisponde alla


colonna in cui la variabile binaria o conti di casi positivi sono memorizzati (NB:
quando si utilizzano dati aggregati devono essere selezionati i "Pesi"). In
questo caso abbiamo tre variabili esplicative, una categorica - la fascia di età -
e due numeriche: i conteggi delle pagine.
Se abbiamo selezionato i titoli delle colonne di tutte le variabili, dobbiamo
“flaggare” l'opzione "Le etichette di colonna inclusi".

I calcoli cominciano una volta che-fatto clic sul pulsante "OK". La tabella
seguente riporta i dettagli sul modello. Questa tabella è utile per comprendere
l'effetto delle diverse variabili e gli effetti relativi delle categorie di età.

In questa tabella si può vedere che la variabile maggiormente con la maggior


influenza sulla probabilità di rinnovo è il “numero di pagine viste al mese
precedente” (Pages/Week). L'intercetta è significativa (test al 10%), ed il fatto
che la clientela abbia una età compresa tra 40-49 ha un forte impatto negativo
sul rinnovo dell'abbonamento. Questo ultimo elemento deve essere interpretato

84
Statistics for Evaluation

da parte delle persone di marketing in modo che le giuste azioni possono


essere intraprese per questa specifica popolazione.
La tabella successiva fornisce alcuni indicatori della qualità del modello (o
bontà di adattamento).
Il valore più significativo guardare è la probabilità di test di Chi-quadro sul
rapporto di log verosimiglianza. Cerchiamo di valutare, se le variabili portano
informazioni significative confrontando il modello come è definito con un
modello più semplice con una sola costante. In questo caso, la probabilità è
inferiore a 0.0001, possiamo concludere che le informazioni portate dalle
variabili sono significative.

L'ultimo passo è l'implementazione del modello su tutta la popolazione. In


questo caso il modello scrive:
Y = Exp (L (x)) / [1 + Exp (L (x)],
dove L (x) = -2,3567 + 0,0235.AvPage / Week +0,0893.Page/Week+…+
0,309.Age60+

85
Duccio Stefano Gazzei

IL CASO – L’ELABORAZIONE DI UNO SCORE DI PROPENSIONE PER


L’ACQUISTO DI CARTE DI CREDITO USANDO, SUGLI STESSI DATI,
UN MODELLO LOGISTICO, UNA RETE NEURALE ED UN ALBERO DI
CLASSIFICAZIONE (Software: SPSS8)

Una grande banca ha lanciato una campagna pilota di vendita di una nuova
carta di credito. Vengono inviate ad un campione casuale di circa 72k clienti
altrettante “plastiche”, cioè carte di credito non attivate.
Dopo un mese di tempo viene analizzato il campione: circa 18k clienti avevano,
nel frattempo, provveduto ad attivare la carta ricevuta. Ai 72k clienti viene
quindi associata una prima variabile (OUTPUT) con valore binario: “1” = cliente
che ha attivato la carta, “0” = clienti che non hanno attivato il servizio.
Viene condotta una “Analisi delle modalità caratterizzanti” che individua n°10
variabili correlate con la variabile OUTPUT:
- InnovGiov = Segmento Eurisko “Innovazione Giovane”
- Tycoon = Segmento Eurisko “Tycoon”
- Eliteculturale = Segmento Eurisko “Elite Culturale”
- ALTRO = Segmento Eurisko non attribuito
- Disimpegnati = Segmento Eurisko “Disimpegnati”
- Benestanti = Segmento Eurisko “Benestanti”
- Centrosudesard = Zona territoriale: Centro Sud e Sardegna
- Sud = Zona territoriale: Sud e Sardegna
- Family: Segmento bancario “Family”, ovvero clienti con Asset Under
Management (AUM) < 30.000 Euro
- SessoCod = “1” Maschio, “0” femmina.
Il database, come spiegato, deve avere questa forma:
IdentificativoCliente OUTPUT InnovGiov Tycoon Eliteculturale ALTRO Disimpegnati Centrosudesard Sud Benestanti Family SessoCod
10583740 0 0 0 0 0 0 0 0 1 0 0
304716840 0 0 0 0 0 1 0 0 0 1 1
304550503 0 0 0 0 0 1 1 0 0 1 0
970513 0 0 0 0 0 0 0 0 1 1 0

Il primo cliente, ad esempio, non ha attivato la carta, ha sesso femminile, ed è


una Benestante con più di 30.000 Euro di Asset. Il secondo è un Disimpegnato,

8 Il software SPSS è estremamente friendly e consente di essere utilizzato in doppia modalità: con i menu a
tendina che consentono in modo estremamente agevole e rapido di scegliere la strumentazione da utilizzare per
le analisi, selezionando variabili input ed output, opzioni di stima, vincoli, etc.; oppure è possibile procedere
scrivendo poche linee di programmazione, che possono essere poi trasformate in procedure a regime che
facilitano ed ottimizzano le attività più routinarie. In questo caso di studio abbiamo riportato, per ogni esempio, le
linee di programma relative.

86
Statistics for Evaluation

fa parte della clientela Family, è Maschio e non ha ancora attivato la carta


neanche lui.
Dopo aver importato il DB procediamo con le tre stime.

1. Stima del modello Logistico


LOGISTIC REGRESSION VARIABLES FlagCarteCredito /METHOD=ENTER
InnovGiov Tycoon Eliteculturale ALTRO Disimpegnati Centrosudesard
Sud Benestanti FAMY030000 SessoCod /SAVE=PRED PGROUP /CLASSPLOT
/PRINT=GOODFIT /CRITERIA=PIN(0.05) POUT(0.10) ITERATE(20)
CUT(0.5).

Classification Tablea

Predicted

FlagCarteCredito

Percentage
Observed 0 1 Correct

Step 1 FlagCarteCredito 0 50728 3705 93,2

1 436 17718 97,6

Overall Percentage 94,3

a. The cut value is ,500

Il modello stimato sembra classificare, in modo corretto, il 94,3% della clientela:


questo significa che nel 94,3% è riuscito a prevedere (ex post) quello che è
stato l’effettivo comportamento del cliente.
I coefficienti stimati sono tutti significativi (test di Wald).
I valori dell’Odds ratio (Exp(B)) mostrano quando siano importanti le variabili
InnovGiov, Tycoon ed Eliteculturale: se il cliente fa parte di questi segmenti
Eurisko, la probabilità che possa essere interessato a questa nuova carta
cresce considerevolmente.
Il massimo della propensity si ha per un cliente Tycoon, di sesso femminile, che
sta al nord e che non fa parte del segmento Family (quindi ha più di 30.000
euro di AUM).

87
Duccio Stefano Gazzei

Variables in the Equation

B S.E. Wald df Sig. Exp(B)

Step 1a InnovGiov 6,948 ,103 4579,249 1 ,000 1040,584

Tycoon 7,662 ,129 3520,006 1 ,000 2126,339

Eliteculturale 7,394 ,119 3850,150 1 ,000 1625,387

ALTRO 3,845 ,135 806,680 1 ,000 46,764

Disimpegnati ,631 ,127 24,767 1 ,000 1,879

Centrosudesard -,141 ,041 11,607 1 ,001 ,868

Sud -,579 ,042 186,973 1 ,000 ,561

Benestanti -,587 ,247 5,661 1 ,017 ,556

FAMY030000 -,702 ,060 138,016 1 ,000 ,496

SessoCod -,193 ,036 28,160 1 ,000 ,824

Constant -4,565 ,111 1683,967 1 ,000 ,010

a. Variable(s) entered on step 1: InnovGiov, Tycoon, Eliteculturale, ALTRO, Disimpegnati, Centrosudesard,


Sud, Benestanti, FAMY030000, SessoCod.

e xb
Usando la [9]: p  , è possibile calcolare, per ogni cliente, il valore
1  e xb
dello score. Più il valore è vicino ad 1, più la probabilità di acquisto è alta.

2. Stima della Rete Neurale


*Multilayer Perceptron Network. MLP FlagCarteCredito (MLEVEL=N) WITH
InnovGiov Tycoon Eliteculturale ALTRO Disimpegnati Centrosudesard
Sud Benestanti FAMY030000 Ses soCod /RESCALE
COVARIATE=STANDARDIZED /PARTITION TRAINING=7 TESTING=3
HOLDOUT=0 /ARCHITECTURE AUTOMATIC=YES (MINUNITS=1 MAXUNITS=50)
/CRITERIA TRAINING=BATCH OPTIMIZATION=SCALEDCONJUGATE
LAMBDAINITIAL=0.0000005 SIGMAINITIAL=0.00005 INTERVALCENTER=0
INTERVALOFFSET =0.5 MEMSIZE=1000 /PRINT CPS NETWORKINFO SUMMARY
CLASSIFICATION /PLOT NETWORK ROC /SAVE PREDVAL PSEUDOPROB
/STOPPINGRULES ERRORSTEPS= 1 (DATA=AUTO) TRAININGTIMER=ON
(MAXTIME=15) MAXEPOCHS=AUTO ERRORCHANGE=1.0E-4 ERRORRATIO=0.0010
/MISSING USERMISSING=EXCLUDE .

Abbiamo scelto una rete con n°1 strato nascosto, con una funzione di
combinazione di tipo “Hyperbolic tangent” ed una funzione di attivazione
“Softmax”.
Nella tabella abbiamo riportato I risultati della classificazione sul campione di
training e di classificazione (molto simili al valore ottenuto con la regressione
logistica). Come nel modello logistico, è migliore la classificazione dei “casi

88
Statistics for Evaluation

positivi” (corretti per il 97,6%).


Classification

Predicted

Sample Observed 0 1 Percent Correct

Training 0 35582 2611 93,2%

1 307 12445 97,6%

Overall Percent 70,4% 29,6% 94,3%

Testing 0 15146 1094 93,3%

1 129 5273 97,6%

Overall Percent 70,6% 29,4% 94,3%

Dependent Variable: FlagCarteCredito

La rete conferma l’importanza delle variabili Eurisko relative ai segmenti più


scolarizzati (Tycoon, Elite Culturale ed Innovazione Giovane)

89
Duccio Stefano Gazzei

90
Statistics for Evaluation

3. Stima dell’Albero di classificazione


* Decision Tree. TREE FlagCarteCredito [n] BY InnovGiov [n] Tycoon
[n] Eliteculturale [n] ALTRO [n] Disimpegnati [n] Centrosudesard [n]
Sud [n] Benes tanti [n] FAMY030000 [n] SessoCod [n] /TREE
DISPLAY=TOPDOWN NODES=STATISTICS BRANCHSTATISTICS=YES NODEDEFS=YES
SCALE=AUTO /DEPCATEGORIES USEVALUES=[VALID] /PRINT MODELSUMMARY
CLASSIFICATION RISK /SAVE PREDVAL /METHOD TYPE=CHAID
/GROWTHLIMIT MAXDEPTH=AUTO MINPARENTSIZE=100 MINCHILDSIZE=50
/VALIDATION TYPE=NONE OUTPUT=BOTHSAMPLES /CHAID ALPHASPLIT=0.05
ALPHAMERGE=0.05 SPLITMERGED=NO CHISQUARE=PEARSON CONVERGE=0.001
MAXITERATIONS=100 ADJUST=BONFERRONI /COSTS EQUAL /MISSING
NOMINALMISSING=MISSING.

L’albero fornisce davvero una vision interessante del fenomeno.


Innanzitutto la prima variabile discriminante è l’appartenenza o meno al
segmento “Innovazione Giovane”: nel primo caso la percentuale di coloro che
hanno attivato la carta è l’80,2%, nel secondo caso l’ 8,8%. Poi, proseguendo a
destra, se il cliente non risiede al sud, la percentuale cresce all’80,5%. Se poi il
cliente ha un AUM maggiore di 30k, allora la % cresce al 92,2%.
Analizzando la parte sinistra dell’albero, se il cliente non è neppure un Tycoon,
e non è un Elite Culturale, allora avrà una percentuale di penetrazione della
carta inferiore all’1%.
Alla fine l’Albero segmenta la popolazione in n°8 cluster (nodi 7-14), riepilogati
nella tabella che segue, dove, in giallo, sono state evidenziate le variabili
discriminanti per la classificazione.

91
Duccio Stefano Gazzei

CLUSTER 1 CLUSTER 2 CLUSTER 3 CLUSTER 4 CLUSTER 5 CLUSTER 6 CLUSTER 7 CLUSTER 8


Nodo 7 Nodo 8 Nodo 9 Nodo 10 Nodo 11 Nodo 12 Nodo 13 Nodo 14
Innovazione Giovane 0 0 0 0 1 1 1 1
Tycoon 0 0 1 1
Elite Culturale 0 1
Disimpegnati
Benestanti
Altro
Centro Sud e Sard
Sud 0 0 1 1
Family (AUM<30k) 0 1 0 1 0 1
Sesso ("1" = Maschio)

% prevista di penetrazione prodotto 1% 89% 95% 92% 92% 81% 87% 72%

Il cluster con la maggiore propensione all’acquisto è il n°3 (nodo 9). Si tratta dei
Tycoon con AUM >30k. Il 95% del cluster ha attivato la carta.

92
Statistics for Evaluation

IL CASO – DIMMI CHE CELLULARE HAI E TI DIRÒ CHI SEI?

Attraverso un campione di clientela di cui possediamo le informazioni


demografiche è stata compiuta un’analisi per poter comprendere se esistono
delle variabili che contraddistinguono i clienti che possiedono l’iPhone dal
resto dei telefoni con un sistema operativo Android.
È possibile osservare questa differenza attraverso l’analisi delle modalità
caratterizzanti. L’idea di base è quella di individuare delle variabili che non
sono omogeneamente distribuite nei due gruppi.
In primis individuiamo i due gruppi:
Gruppo: 1. (coloro che hanno possiedono un Android) e
Gruppo: 0. (coloro che possiedono un iPhone).
Le variabili che andremo ad utilizzare sono:

• Sesso
• Regione
• Professione
• Fascia di reddito
• Fascia di età
• Titolo di studio.

Attraverso l’analisi delle modalità caratterizzanti è possibile individuare quali


siano le variabili che caratterizzano la scelta di un dispositivo o dell’altro; i
risultati sono i seguenti:

93
Duccio Stefano Gazzei

Implementazione del K-Medie con Python

Dopo un’analisi esplorativa è utile capire se all’interno dei dati esistano dei
pattern che identificano gruppi di osservazioni simili tra loro. Per poterlo fare
utilizziamo un algoritmo di apprendimento non supervisionato di Clustering K-
Medie, implementato grazie al software Python.

Il K-medie ha come obiettivo la minimizzazione della varianza totale Intra-


cluster, e definisce l’appartenenza di una unità statistica ad un certo cluster in
base alla sua distanza rispetto al Centroide del cluster stesso.

La definizione del Centroide nello spazio vettoriale è una procedura “iterattiva”,


che parte da una prima fase in cui i Centroidi vengono posizionati all’interno
dello spazio in maniera casuale. Così facendo, vengono calcolate per il K-medie
le distanze intercorrenti tra i Centroidi e tutte le osservazioni, le quali sono
quindi attribuite al Cluster del Centroide a loro più vicino. A questo punto, il
Centroide viene spostato per minimizzare le distanze tra questo e le
osservazioni raggruppate all’interno dello stesso cluster; con questo
spostamento però, anche le altre osservazioni potrebbero risultare più vicine ad
un altro Centroide e riallocate quindi in un gruppo diverso da quello precedente.

La procedura si ripete fino a quando la distanza tra i Centroidi e le osservazioni


appartenenti ai cluster non è minimizzata, e non è quindi possibile un ulteriore
spostamento.

94
Statistics for Evaluation

Programmazione del K-Medie

Iniziamo con il caricamento delle librerie di base, necessarie ad importare file


Excel in Python, elaborare le matrici, addestrare il K-medie ed effettuare
rappresentazioni grafiche.

Per una visualizzazione migliore considereremo soltanto due variabili: l’Età e il


Reddito.

95
Duccio Stefano Gazzei

Considerando i 5 Cluster, l’algoritmo trova i Centroidi ed associa le osservazioni


ad essi più vicini. Per comprendere a pieno i gruppi che si sono formati,
esportiamo il File con i Cluster in Excel:

Con l’ausilio di una tabella Pivot comprendiamo l’età e il reddito medio di


ciascun cluster come anche se esiste una professione che caratterizza i 5
gruppi:
Etichette di riga Media di REDDITO Media di ETA
1 1.655,44 43,47
2 15.116,00 45,23
3 74.250,00 49,50
4 3.997,91 51,16
5 25.368,03 52,90
Totale complessivo 2.659,77 44,65

96
Statistics for Evaluation

Con le già citate “Modalità Caratterizzanti” possiamo quindi capire le tipologie di


persone appartenenti ai gruppi individuati.

97
Duccio Stefano Gazzei

CAPITOLO 3
LA VALUTAZIONE DELLA PRODUZIONE

Un processo produttivo è un procedimento tecnico per realizzare un determinato


prodotto. Consiste in una serie sequenziale di operazioni che permettono la
lavorazione e la trasformazione degli input di produzione al fine di ottenere un
prodotto finale. Le operazioni del processo produttivo possono essere compiute
dall'uomo (lavoro), da sistemi meccanici-automatici o da combinazioni di
entrambi (uomo+macchina). I processi produttivi sono fortemente legati alla
conoscenza tecnica di un'epoca e tendono ad evolvere con il progresso
scientifico. Il processo produttivo è, quindi, soltanto un modo tra tanti per
produrre un determinato prodotto. La scelta di un processo produttivo piuttosto
che un altro è legata sia ai vincoli economici che ai vincoli tecnici dell'impresa.

Vincolo tecnologico. Il vincolo tecnologico consiste nei processi produttivi


realizzabili sulla base delle conoscenze tecnologiche e scientifiche dell'impresa
o, più in generale, dell'uomo in una determinata epoca.

Vincolo economico. Alcuni processi produttivi possono essere tecnicamente


realizzabili ma economicamente poco convenienti. Un processo produttivo
economicamente non conveniente in un determinato momento temporale
potrebbe diventare conveniente nel tempo col progredire della conoscenza
scientifica o con il mutare delle condizioni economico-sociali.

Generalmente, il vincolo tecnologico delimita la frontiera dell'insieme dei processi


produttivi possibili mentre il vincolo economico determina il sottoinsieme dei
processi produttivi fattibili.

Ogni impresa sceglie il processo produttivo più conveniente sulla base delle
condizioni di ambiente (capitale, concorrenza, brevetti, domanda, ecc. ) e delle
informazioni a sua disposizione (know-how). In condizioni razionali l'imprenditore
opta per il processo produttivo che consente di minimizzare i costi di produzione
a parità di quantità e qualità del prodotto ottenuto o, in alternativa, di
massimizzare la produzione a parità di costi. La scelta dei processi produttivi non
è una decisione d'impresa di breve periodo in quanto gli investimenti per avviare

98
Statistics for Evaluation

un processo produttivo gli impianti (costi fissi) sono ammortizzati nel medio-lungo
periodo. Nel breve periodo l'impresa può soltanto modificare il regime di utilizzo
del processo produttivo (costi variabili) ossia la quantità di produzione ottenibile
in ogni ciclo produttivo (output).

99
Duccio Stefano Gazzei

3.1. La valutazione della performance produttiva

Per performance di un soggetto, sia esso economico oppure no, si intende,


in senso generale, la sua continua azione volta al raggiungimento degli
obiettivi da lui medesimo prefissati.
Le misure di performance indicano quale sia il grado di raggiungimento di
tali obiettivi: in altri termini il rapporto tra la misura del risultato ottenuto e
quella del risultato più elevato possibile.
Quando oggetto dell’analisi sono i processi produttivi attivati da un’impresa,
l’obiettivo più importante ed immediato che ci si propone di raggiungere è
costituito, per ogni processo, dalla massimizzazione dell’ “Indice di
produttività” [29]:
Yi
IPi  [29]
Xi

dove Y indica l’aggregato dei prodotti (output) ed X l’aggregato delle risorse


consumate (input - fattori produttivi).
Questo risultato può essere ottenuto aumentando la produzione (Y)
mantenendo costanti le risorse adoperate (X), oppure minimizzando
l’utilizzo delle risorse a parità di livello di prodotto ottenuto.
Queste considerazioni portano direttamente a definire la performance
produttiva complessiva di un’azienda come l’insieme delle azioni volte a
conseguire il maggior livello di efficienza tecnica o produttiva su tutti i
processi attivati, ognuno di essi “monitorato” da relazioni di tipo [29].
Le misure di performance produttiva hanno quindi il compito di indicare:
- la capacità di una unità economica di trasformare gli input in output
(misure di produttività)
- il grado di raggiungimento del potenziale massimo di produzione
possibile (misure di efficienza tecnica).

Tra le definizioni più efficaci di produttività e di efficienza si può citare quella


formulata da Nisticò-Prosperetti (1990); nella loro opinione, con produttività

100
Statistics for Evaluation

si deve considerare “il rapporto tra i risultati dell'attività produttiva ed i mezzi


impiegati per ottenerli”, cioè, tra gli output e gli input di un processo di
produzione, intendendo, invece, con efficienza “il grado di aderenza del
processo di produzione osservato ad uno standard di ottimalità”.
Tali standard sono determinati dalla funzione di produzione (teorica) che
sintetizza l’insieme di tutti i processi di produzione che l’impresa può attuare
ed esprime la massima quantità di output che è possibile ottenere per ogni
data combinazione di input; cioè, si considerano efficienti i processi
produttivi che si collocano sulla frontiera dell'insieme delle possibilità di
produzione.
Formalmente, se ipotizziamo, secondo quanto espresso in Fig.6, che per
ogni attività vi sia un insieme di coppie (x,y), chiamate “Piani di produzione”,
dove:

x  ( x1 , x 2 ,..., x n ) è il vettore delle quantità di input;

y  ( y1 , y 2 ,..., y n ) è il vettore delle quantità di output.

Tali “Piani” hanno la caratteristica di essere tecnicamente realizzabili


dall’azienda:

 
Y  x, y  / x  R I , y  R , x, y  è realizzabile [30]

L’utilità di questa definizione deriva dal fatto che si possono evidenziare


due ulteriori concetti:

 frontiera dell’insieme

 interno dell’insieme
Ciò, per ogni attività, permette la distinzione fra i piani di produzione che
appartengono alla frontiera, denominati “efficienti” e quelli che invece si
trovano all’interno, detti “inefficienti”.
Naturalmente definendo l’efficienza in questo modo è possibile anche
arrivare ad una sua misura in termini di distanza (per mezzo di un numero
reale) tra il piano di produzione preso in considerazione e la frontiera

101
Duccio Stefano Gazzei

dell’insieme stesso: di conseguenza, un piano efficiente ha una distanza


pari a zero ed uno inefficiente ha una distanza strettamente positiva.
Se l’indice [29], quindi, oltre che rappresentare la base concettuale di
riferimento, può essere ritenuto anche una misura di produttività dell’attività
considerata, un possibile indicatore del grado di efficienza tecnica (GET)
dell’attività stessa, può essere ricavato come rapporto tra l'output del
processo di produzione osservato e quello che si sarebbe potuto ottenere
impiegando le stesse quantità di fattori produttivi in modo efficiente
(standard).
Y0
GET  [31]
Y

dove:
Y0 è l'output osservato;
Y=f(x) è l'output della funzione di produzione standard di efficienza.
Se raffiguriamo quanto stiamo dicendo su un grafico (Fig.14), i processi di
produzione B e C possiedono lo stesso livello di produttività totale;
giacciono infatti entrambi sulla stessa semiretta caratterizzata, in ogni
punto, dallo stesso rapporto output-input. Tra le due unità di produzione
solo C risulta però efficiente.

Output R R'

A B

Input

Figura 14 – Il confronto tra i concetti di produttività e di efficienza

102
Statistics for Evaluation

Consideriamo adesso i processi A e C. Il grafico mostra A maggiormente


produttivo di C, collocandosi quest’ultimo sulla semiretta OR’, associata ad
un livello output-input più basso. Nonostante ciò C risulta efficiente mentre
A è inefficiente perché giace sotto la frontiera di produzione. In presenza di
rendimenti costanti di scala la funzione di produzione è rappresentata da
una semiretta; in questa circostanza i processi più produttivi sono anche i
più efficienti e viceversa.
A questo punto, quindi, è ulteriormente confermata, la differenza tra i
concetti di produttività ed efficienza.
Se si considera una situazione di lungo periodo o di un'impresa con
rendimenti di scala costanti, la cui funzione di produzione è rappresentata
da una retta, allora è chiaro che i concetti di produzione ed efficienza
coincidono.
In un’ottica di breve periodo, invece, quando si confrontano più processi di
produzione, un differenziale di produttività non comporta necessariamente
un differenziale di efficienza e viceversa.
Ecco che si delinea il rapporto funzionale che lega il grado di efficienza di
un’attività al suo livello di produttività: quest’ultimo indica quale rapporto vi
sia tra i risultati dell’attività produttiva e i mezzi impiegati per ottenerli. Il
risultato è una misura della capacità dell’organizzazione economica
studiata di trasformare risorse in prodotti.
Quando si verifica un incremento di produttività, significa che è cresciuto il
rapporto output/input, cioè che l’organizzazione economica è riuscita ad
ottenere un maggiore prodotto con le stesse risorse e lo stesso output con
minore utilizzo di fattori produttivi: in entrambi i casi questo si concretizza in
una diminuzione relativa di costo per unità di prodotto che avrà
ripercussioni benefiche sul suo prezzo di vendita.
E fino a che punto un’azienda può incrementare il rapporto output/input?
Fino a che questa raggiunge lo standard ottimale del suo processo
produttivo che, nella maggior parte dei casi, corrisponde alla situazione in
cui si riesce ad ottenere il volume e il livello qualitativo massimi di prodotto
con le risorse produttive disponibili. Ogni impresa, a fronte di un peculiare

103
Duccio Stefano Gazzei

processo produttivo, ha un suo standard ottimale teorico ed il rapporto di


quest’ultimo con il processo di produzione osservato è il suo grado di
efficienza tecnica.
L'efficienza del processo produttivo può essere analizzata, nell'ambito della
teoria microeconomica, attraverso l'impiego di modelli di ottimizzazione.
Dato un set di fattori produttivi ed i prezzi relativi, un'impresa è efficiente dal
punto di vista tecnico e allocativo, se ottiene il massimo prodotto potenziale,
impiegando gli input in un rapporto ottimale secondo le conoscenze
tecnologiche, in modo da minimizzare i costi.
In generale, l'efficienza è misurabile, confrontando le performance reali
dell'impresa con la migliore raggiungibile, espressa da una funzione che
rappresenta, perciò, una frontiera.
Per definizione, una funzione di produzione esprime il livello massimo di
output che può essere prodotto date le quantità di fattori produttivi. In modo
analogo una funzione di costo individua il costo minimo che si deve
sostenere per produrre un livello di output prestabilito, dati i prezzi degli
input.
Infine una funzione di profitto specifica il massimo profitto che può essere
ottenuto noti i prezzi dell'output e dei fattori produttivi.
E' evidente come il termine “frontiera” sia significativo per ognuna delle
precedenti specificazioni, dal momento che le funzioni pongono un limite
all'intervallo di variazione della variabile dipendente.
Note le risorse consumate e gli output prodotti dalle attività, la loro
rappresentazione rispetto alla funzione di produzione ci consente di
valutare i risultati dell'impresa: quanto più quelle sono posizionate sotto le
frontiere di produzione, tanto maggiore è il livello di inefficienza che
caratterizza le loro scelte di produzione.
Tornando alla [31], supponendo di osservare il comportamento di un'unità
economica che impiega la quantità di input espressa dal vettore x A , per
produrre la quantità di output y A , y=f(x) rappresenta la frontiera, il piano di
produzione del soggetto in questione sarà tecnicamente efficiente se, con

104
Statistics for Evaluation

la quantità di input, riesce ad ottenere il livello di output espresso dalla


frontiera, e tecnicamente inefficiente se y A  f ( x A ) .

Una misura della efficienza tecnica del processo di produzione in esame è


espresso dal rapporto:
0  y A f (x A )  1 [32]

L'efficienza tecnica è raggiunta quando l'output osservato è massimo in


relazione ai fattori impiegati (output efficiency), o, viceversa, quando, dato il
livello di produzione e della tecnologia, gli input sono impiegati nella minima
quantità possibile (input efficiency).
In una nota rassegna, Forsund, Lovell e Schmidt9 suggeriscono una
classificazione dei metodi di stima delle funzioni frontiera di produzione,
proponendo una prima generale suddivisione in funzioni parametriche e
funzioni non parametriche. Nella prima classe, si identificano i modelli
stocastici e deterministici, e questi ultimi a seconda della procedura di stima
adottata, si suddividono in matematici e statistici.
Al di là delle terminologie adottate nelle classificazioni, il problema che i vari
ricercatori che si sono occupati della questione si sono posti, è sempre
stato lo stesso: come fare a trasformare in una misura reale il concetto
teorico di funzione di produzione.
Rappresentando graficamente tale problematica, abbiamo riportato in un
grafico a dispersione (vedi figura 15) una serie di coppie di valori x
(“Applicati equivalenti”) ed y (“Output”) che corrispondono ad una serie di
processi produttivi (A, B,…,F) attivati da altrettante aziende.
Dal momento che, in generale, l'efficienza è misurabile, confrontando le
performance reali dell'azienda con la migliore raggiungibile, espressa da
una funzione che rappresenta, perciò, una frontiera, come fare per definire
una funzione di produzione che esprima il livello massimo di output che può
essere prodotto date le quantità di fattori produttivi?

9 F. R. Forsund, C. A. K. Lovell, P. Schmidt, A survey of frontier production functions and their relationship to

efficiency measurement. Journal of Econometrics, 1980.

105
Duccio Stefano Gazzei

Abbiamo riportato una serie degli esempi più rappresentativi di risposte a


questo quesito. Si tratta di una rassegna di quattro metodi che si
differenziano molto sia per le caratteristiche tecniche degli strumenti
matematico-statistici utilizzati, che per gli ambiti aziendali nei quali essi
sono stati pensati ed applicati.
Senza aver la pretesa di voler esaurire qui la tematica, vogliamo comunque
sottolineare come i modelli riportati negli esempi 1 e 2 si adattano bene alle
imprese della grande produzione, mentre i modelli degli esempi 3 e 4 sono
più adatti al mondo dei servizi, per esempio banche e pubblica
amministrazione.

35

30
E
25
D
20
Output

C
15
B F
10

5
A
0
0 5 10 15 20 25 30 35
Applicati Equivalenti

Figura 15 – Coppie di valori x (“Applicati equivalenti”) ed y (“Output”) che corrispondono ad


una serie di processi produttivi (A, B,…,F) attivati da altrettante aziende.

106
Statistics for Evaluation

ESEMPIO 1: Funzione parametrica – Modello deterministico -


matematico

35

30
E
25
D
20
Output

C
15
B F
10

5
A
0
0 5 10 15 20 25 30 35
Applicati Equivalenti

Figura 16 – AIGNER D.J., CHU S.F. (1968), "On Estimating the Industry Production Function",
The american Economic Review, n°4, pp.826-835

ESEMPIO 2: Funzione parametrica – Modello deterministico - statistico

35

30
E
25
D
20
Output

C
15
B F
10

5
A
0
0 5 10 15 20 25 30 35
Applicati Equivalenti

Figura 17 - Modified Ordinary Least Squares (MOLS) - Greene W.H. ed altri

107
Duccio Stefano Gazzei

ESEMPIO 3: Funzione non parametrica – Modello Data Envelopment


Analysis (DEA)

35

30
E
25
D
20
Output

C
15
B F
10

5
A
0
0 5 10 15 20 25 30 35
Applicati Equivalenti

Figura 18 - CHARNES A., COOPER W.W., RHODES E. (1978), “Measuring the efficiency of
decision making units”, European Journal Of Operational Research, 2 (6), 429-444

ESEMPIO 4: Funzione non parametrica – Modello Free Disposal Hull


(FDH)

35

30
E
25
D
20
Output

C
15
B F
10

5
A
0
0 5 10 15 20 25 30 35
Applicati Equivalenti

Figura 19 - DEPRINS D., SIMAR L., TULKENS H. (1984), "Measuring Labor-Efficiency in Post
Offices", The Performance of Public Enterprises: Concepts and Measurement, Amsterdam,
North-Holland, pp.243-267

108
Statistics for Evaluation

IL CASO – LA STIMA MOLS PER ANALIZZARE LA PERFORMANCE


DEGLI UFFICI DI STATO CIVILE DELLE FIANDRE
L’esercitazione, tutta sviluppata in ambiente Excel, si pone l’obiettivo di
stimare un modello di analisi della performance dell’efficienza negli uffici di
stato civile. In particolare, si prendono, come caso di studio, dati relativi ad
undici uffici di stato civile in Belgio (Fiandre).
Lo scopo è quello di determinare , per ogni singolo ufficio, il numero efficiente
di applicati equivalenti (input) sulla base di grandezze in qualche modo legate
alla produzione degli stessi (output).
Come primo approccio di studio fu proposto di misurare la performance degli
applicati equivalenti (input), sulla base del numero degli abitanti del comune
(output) .

Dati sugli 11 uffici di stato civile in Belgio (Fiandre)


CITTA INPUT ABITANTI

A 15,9 37.588
B 18,7 52.310
C 25,1 67.923
D 27,2 68.366
E 29 76.273
F 34,8 61.499
G 38,5 65.798
H 43,1 75.515
I 45 76.384
J 55,2 85.015
K 64,3 115.982

Le variabili rappresentano:
CITTA: Il codice che identifica le città
INPUT: Addetti-equivalenti
ABITANTI: Prima variabile di Output: rappresenta il n° di abitanti del Comune
Prima di procedere ad un’analisi particolareggiata della performance,
fondamentale quando si vogliano analizzare standard di produttività, si ritiene
sempre utile effettuare un’indagine preliminare, a scopi conoscitivi ed
esplorativi, finalizzata ad eliminare possibili cause di distorsione dei risultati,

109
Duccio Stefano Gazzei

ma anche, più in generale, ad approfondire la conoscenza “tecnica” della


realtà produttiva. A tal fine, l’indagine grafica è da considerarsi come una tra
le metodologie più utili per comprendere la natura della relazione che,
eventualmente, intercorre tra due variabili.
Nel caso in esame, si riporta il grafico costruito mettendo in relazione le due
variabili oggetto di studio: l’output (n° di abitanti del comune) nell’asse delle
ordinate e l’input (il numero degli applicati equivalenti) nelle ascisse.

Relazione esistente tra le variabili di input con quelle di output


140000

120000

100000

80000
Abitanti

60000

40000

20000

0
0,00 10,00 20,00 30,00 40,00 50,00 60,00 70,00
Addetti-equivalenti

Analizzando il grafico risulta evidente l’esistenza di una relazione lineare


crescente tra le due grandezze: infatti al crescere del numero dei minuti
lavorati aumenta l’output.
Una volta determinato che esiste relazione funzionale, nasce il problema di
stimarla, cioè di formulare un’equazione matematica che indichi quale debba
essere l’output al variare dell’input.
In questa accezione, in particolare, si vuole stimare un modello che dia
un’indicazione media dell’output: ovvero, siamo interessati a stimare una
funzione che sia indicatrice di quale debba essere l’output medio atteso al
variare dell’ input. Da un punto di vista grafico si pone il problema, quindi, di
dare un’interpretazione matematica alla seguente linea di tendenza:

110
Statistics for Evaluation

Linea di tendenza esistente tra la relazione delle variabili di input con


quelle di output
140000

120000

100000

80000
Abitanti

60000

40000

20000

0
0,00 10,00 20,00 30,00 40,00 50,00 60,00 70,00
Addetti-equivalenti

La linea di tendenza riportata è una retta di equazione

y a  b *x [24]
dove:
y = output
x = input
a = intercetta della funzione

b = coefficiente angolare della funzione

I coefficienti ignoti costanti, a e b , esprimono proprio gli standard produttivi


medi attesi. In particolare:
 b esprime lo standard produttivo medio atteso al variare dell’ input,
infatti interviene nella [A.1] moltiplicando il fattore x. Essendo sia a
che b due costanti, quando si incrementa di un valore unitario la
variabile x, si ha una variazione della stima di y proporzionale al
coefficiente b . Nel caso di studio ad esempio, b è la misura di quanto
aumenta il numero dell’output all’aumentare di un singolo applicato
equivalente;

111
Duccio Stefano Gazzei

 a , anch’esso costante, è la misura dello standard medio produttivo al


netto della variabile x. Infatti se poniamo x=0 otteniamo y  a . Tale
coefficiente è esprimibile come la misura della produttività quando non
c’è lavoro, quindi quando non c’è produzione. E’ quindi espressione
della produttività minima media attesa per ogni ufficio.

Le stime dei parametri a e b si ottengono tramite il metodo dei minimi


quadrati. Esso consiste, sostanzialmente, nel determinare i valori dei
parametri che rendono minima la somma dei quadrati delle differenze
(residui) tra i valori osservati e stimati di y. Sostanzialmente, si tratta di
minimizzare, nel caso di un unico input che produce un solo output (come
nell’ esempio), la funzione ausiliaria:

(y  yˆ i ) 2   ( yi  a  b * xi ) 2
i
[25]
dove,
yi sono i valori dell’ output (nell’esempio, il n° di abitanti) osservati
ŷ i sono i valori dell’ output (nel caso in esame, il il n° di abitanti) stimati

Sotto determinate ipotesi è possibile dimostrare che gli stimatori così ottenuti
sono BLUE (Best Linear Unbiased Estimator)10 ossia i migliori stimatori lineari
corretti.
La capacità di un modello teorico di interpretare la realtà può essere valutata
con un indice costruito rapportando la varianza spiegata dalla funzione di
regressione alla varianza totale di Y (coefficiente di determinazione) che,
variando in un intervallo compreso tra zero ed uno, esprime la dipendenza
della variabile Y dalle variabili indipendenti11.

Uno stimatore è lineare quando risulta da una combinazione lineare dei valori campionari, è corretto se la sua
10

media è pari al parametro da stimare ed è il migliore quando ha varianza minima.

11 Un valore di tale coefficiente pari ad uno indicherà l’esistenza di una correlazione perfetta nel campione, ossia
la precisa corrispondenza tra il valore previsto (stimato) e quello effettivo di Y; un valore pari a zero indica invece

112
Statistics for Evaluation

Di seguito si riporta l’output della procedura “regressione” del programma


Excel: Il programma Excel ha, all’interno delle sue funzioni, dei sotto
programmi per alcune elaborazioni statistiche, tra le quali la regressione
lineare. Per attivarle, basta cliccare prima sul menù “strumenti” poi sul
comando “analisi dati” e quindi sulla procedura regressione.

Apparirà la maschera di inserimento dati nello spazio relativo all’intervallo di


input y, il programma prevede che si inserisca la colonna della variabile
dipendente, mentre nello spazio relativo all’intervallo di input x il programma
prevede che si inseriscano una o più colonne delle variabili indipendenti.

la totale assenza di legame lineare tra le variabili e quindi l’equazione di regressione non fornisce alcun aiuto
nella stima di Y.

113
Duccio Stefano Gazzei

Il programma restituisce l’output seguente

Output della procedura regressione


OUTPUT RIEPILOGO

Statistica della regressione


R multiplo 0,89
R al quadrato 0,79
R al quadrato corretto 0,77
Errore standard 9.537,17
Osservazioni 11,00

ANALISI VARIANZA
gdl SQ MQ F Significatività F
Regressione 1 3.077.525.216,24 3.077.525.216,24 33,83 0,00
Residuo 9 818.617.675,95 90.957.519,55
Totale 10 3.896.142.892,18

Coefficienti Errore standard Stat t Valore di significatività


Intercetta 29.028,92 7.791,43 3,73 0,00
INPUT 1.167,68 200,74 5,82 0,00

Il coefficiente “R al quadrato” (coefficiente di determinazione) è pari a 0,79 il


che significa che il modello ha una ottima capacità di interpretare la realtà.
L’Intercetta è pari a 29.028,92, a cui corrisponde il numero di abitanti minimo
a cui ogni ufficio si deve riferire
Il coefficiente b (INPUT) è pari a 1.167,68 che significa che ad ogni applicato
equivalente mediamente corrispondono 1.168 circa abitanti.

114
Statistics for Evaluation

Alla luce dei risultati ottenuti la relazione iniziale è riscrivibile nel seguente
modo:
y = 29.028,92 + 1.167,68 * x
Sulla base dei risultati della funzione di regressione, si è ottenuto il
coefficiente b che esprime il rapporto intercorrente tra ogni applicato
equivalente ed il numero degli abitanti del comune. Osservando il grafico,
tuttavia, risulta evidente che non tutti gli uffici analizzati si trovano posizionati
lungo la retta di regressione. Infatti, alcuni di essi sono collocati al di sopra di
essa. In termini produttivi, questo significa che, se si ipotizza che lo lo
“standard produttivo medio” (il coefficiente b ) sia costante, gli applicati hanno
servito più abitanti rispetto alla media, cioè hanno la capacità di aumentare il
numero minimo di abitanti da servire per ogni ufficio.
Si può, quindi, ricavare una funzione di frontiera spostando la funzione media
ottenuta dalla regressione per farla passare sulla città che si trova ad essere
più elevata (E)

Funzione di frontiera data la relazione delle variabili di input con quelle di output

140000

120000

100000

80000
Abitanti

60000

40000

20000

0
0,00 10,00 20,00 30,00 40,00 50,00 60,00 70,00
Addetti-equivalenti

Sulla base della frontiera è possibile ottenere i Gradi di Efficienza delle varie
città :

115
Duccio Stefano Gazzei

Y reale
Grado di Efficienza (GET) 
Y frontiera [26]

GET degli 11 Uffici di stato civile in Belgio (Fiandre)

CITTA INPUT ABITANTI FRONTIERA GET


A 15,9 37.588 60.976,41 0,62
B 18,7 52.310 64.245,91 0,81
C 25,1 67.923 71.719,05 0,95
D 27,2 68.366 74.171,18 0,92
E 29 76.273 76.273 1
F 34,8 61.499 83.045,54 0,74
G 38,5 65.798 87.365,95 0,75
H 43,1 75.515 92.737,27 0,81
I 45 76.384 94.955,86 0,8
J 55,2 85.015 106.866,2 0,8
K 64,3 115.982 117.492,1 0,99

116
Statistics for Evaluation

IL CASO – LA STIMA DELLA FRONTIERA DI AIGNER & CHU PER


ANALIZZARE LA PERFORMANCE DEL SETTORE MANIFATTURIERO
TOSCANO A META’ DEGLI ANNI ‘90
L’esercitazione, tutta sviluppata in ambiente Excel, si pone l’obiettivo di
stimare un modello di analisi della performance dell’efficienza su un
campione di n°99 aziende toscane, tutte dello stesso settore del
manifatturiero.
L’analisi fu finanziata dall’UNIONCAMERE di Firenze all’Università di Siena.
Per circa due mesi un gruppi di ricercatori andarono nelle aziende del
campione, somministrando un questionario per ricavare tutte le informazioni,
dedotte in parte dai bilanci e parte dalle contabilità industriali, utili per
completare l’analisi.
Qui ci concentriamo su una parte dello studio: quello relativo alla stima di una
funzione di produzione di frontiera da utilizzare per misurare il GET (Grado di
Efficienza Tecnica) di ogni azienda, come proxy della relativa performance
produttiva.
La tabella 9 mostra una parte del database utilizzato per la stima.
Tabella 9 – Database utilizzato per le analisi
Y MP K L
1.143 594 8 900
5.576 837 43 17.600
2.797 445 23 13.220
32.045 15.177 927 96.800
66.530 31.712 2.189 121.440
15.573 8.922 304 59.200
347.955 228.644 10.242 508.640
… … … …

Le variabili rappresentano:
Y: Il fatturato dell’azienda (milioni di lire)
MP: Spesa per materie prime (milioni di lire)
K: Spese per gli ammortamenti (milioni di lire)
L: Numero delle giornate lavorate dai dipendenti delle varie aziende
La forma funzionale scelta per disegnare la funzione di frontiera è il celebre

117
Duccio Stefano Gazzei

modello proposto da Cobb-Douglas


b b2 b3
Yi  A * MPi 1 * K i * Li [33]
Come è noto si tratta di una forma funzionale flessibile che può rappresentare
rendimenti di scala crescenti (β1+ β2+ β3>1), decrescenti (β1+ β2+ β3<1), o
costanti (β1+ β2+ β3=1).
Inoltre è possibile stimare tale funzione con le metodologie tipiche per lo
studio dei fenomeni lineari, applicando una semplice trasformazione
logaritmica. La [33] diventa:
LogYi  LogA  b1 * LogMPi  b 2 * LogK i  b 3 * LogLi [34]
Se ipotizziamo che:
LogYi  yi

LogA  b 0

LogMPi  mpi

LogK i  k i

LogLi  li

Otteniamo:
yi  b 0  b1 * mpi  b 2 * k i  b 3 * li [35]
La procedura di Aigner & Chu prevede che si ottenga la funzione di frontiera
cercando quei coefficienti che minimizzano la funzione obiettivo:
 ( yˆ  yi ) 2   [(b 0  b1 * mpi  b 2 * k i  b 3 * li )  y i ]2
i
[36]
dove,
yi sono i valori dell’ output (nell’esempio, il fatturato) osservati
ŷ i sono i valori dell’ output (nel caso in esame, il fatturato) stimati
Con il vincolo, fondamentale, che
( yˆ i  yi )  u  0
[37]
Tornando al database, il primo passo è trasformare le variabili originali in

118
Statistics for Evaluation

logaritmi delle variabili originali.


Tabella 10 – Database utilizzato per le analisi, con trasformazioni logaritmiche
Y MP K L LnY LnMP LnK LnL
1.143 594 8 900 7,04 6,39 2,08 6,80
5.576 837 43 17.600 8,63 6,73 3,76 9,78
2.797 445 23 13.220 7,94 6,10 3,14 9,49
32.045 15.177 927 96.800 10,37 9,63 6,83 11,48
… … … … … … … …

Dopo aver ottenuto le variabili trasformate, è necessario creare una tabella


(vedi tab.11).
Tabella 11 – Database utilizzato per le analisi, con trasformazioni logaritmiche
LnY b0 b1 LnMP b2 LnK b3 LnL LnYfr u
7,04 1,00 1,00 6,39 1,00 2,08 1,00 6,80 645,10 638,05
8,63 6,73 3,76 9,78 647,84 639,21
7,94 6,10 3,14 9,49 642,78 634,85
10,37 9,63 6,83 11,48 671,02 660,65
11,11 10,36 7,69 11,71 676,92 665,81
… … … … … … … … … …

In essa:
- la prima colonna (LnY) rappresenta il valore originale del
fatturato in forma logaritmica;
- le colonne n° 2, 3, 5 e 6 rappresentano i coefficienti della
funziona di frontiera. All’inizio poniamo il valori “1”;
- le colonne 4, 6 e 8 contengono i valori logaritmici delle
variabili originali MP, K ed L
- la colonna 9 contiene il valore di Y calcolato (Yfr) come
risultato della formula 29 (vedi Tab.9)
Poi la colonna 10 che contiene il valore u come differenza tra LnYfr e LnY.
La colonna 11 contiene il valore di u elevato al quadrato.
In fondo ai dati in colonna 11 vi è la somma di tutti i valori, e questa somma è
la vera cella obiettivo, come indicato dalla funzione 30.

119
Duccio Stefano Gazzei

Tabella 9 – La formattazione della tabella in Excel per stimare la funzione di Aigner & Chu

Tabella 12 – La formattazione della tabella in Excel per stimare la funzione di Aigner & Chu

A questo punto attiviamo la funzione Dati->Risolutore

120
Statistics for Evaluation

Si inseriscono i parametri necessari:


- cella da minimizzare (somma dei valori di u al quadrato)
- l’obiettivo (minimizzazione)
- le celle variabili (le celle corrispondenti ai coefficienti della
funzione)
- vincolo (i valori di u >=0)
A questo punto è possibile attivare il risolutore che risolverà la procedura di
ottimizzazione cambiando i parametri.
Tabella 11 – I risultati del risolutore

121
Duccio Stefano Gazzei

La funzione stimata ha rendimenti leggermente decrescenti (b1+b2+b3=0,99.


A questo punto si torna al valore originale delle variabili Y e YFr ed è
possibile calcolare il GET
Tabella 13 – Il calcolo del GET

122
Statistics for Evaluation

IL CASO – LA STIMA DELLA FRONTIERA FDH PER VALUTARE LA


PERFORMANCE COMMERCIALE DELLE AREE TERRITORIALI DI UNA
GRANDE BANCA ITALIANA
L’esercitazione, tutta sviluppata in ambiente Excel, si pone l’obiettivo di
stimare un modello di analisi della performance commerciale delle Aree
Territoriali di una grande banca italiana.
L’idea è trattare il processo commerciale con le regole di analisi di un
processo produttivo, dove il livello di efficienza è misurato sulla base della
capacità di trasformare uno o più input in uno o più output. In questa
accezione l’area più efficiente è quella che, su una determinata campagna
commerciale, con una lista di clienti target fornita dal CRM (input) riesce a
fissare il maggior numero di appuntamenti in agenzia (output).
Il database di riferimento è composto da tre colonne, una parte del quale è
raffigurato nella Tab.14.
Tabella 14 – Funnel commerciale utilizzato per le analisi
AREE CLIENTI TARGET APPUNTAMENTI PRESI
AREA CALABRIA 6.117 2.415
AREA CAMPANIA E POTENZA 6.861 3.276
AREA EMILIA EST E ROMAGNA 6.543 3.164
AREA EMILIA OVEST 3.975 1.667
AREA FRIULI VENEZIA GIULIA 2.529 906
… … …

Dal punto di vista grafico (vedi figura 20), la combinazione tra input ed output
mostra una certa correlazione ma unita ad una grande variabilità.
E’ interessante verificare che su una stessa campagna commerciale, e con
gli stessi strumenti di lavoro, ci siano differenze di performance così evidenti.
La scelta dello strumento FDH, capace di identificare con massima
trasparenza delle aree benchmark che possano identificare degli standard di
riferimento anche per le altre non efficienti, ci sembra la scelta giusta.
L’elaborazione FDH passa attraverso una analisi per step:
Step 1: presa un’area X da analizzare, caratterizzata da un inputX e da un
outputX, si individuano tutte le aree che hanno, congiuntamente, un
output≥outputX e un input≤inputX

123
Duccio Stefano Gazzei

Figura 20 – Funnel commerciale utilizzato per le analisi

Step 2: si sceglie l’area (o le aree) che hanno il rapporto massimo tra i loro
output e l’outputX dell’area in analisi
Step 3: tra le aree selezionate dallo step 2, si sceglie quella che ha il rapporto
minimo tra il suo input e l’inputX dell’area in analisi. L’area che viene scelta è
l’area benchmark
Step 4: si calcolano il “GET_Output = outputX / output dell’area benchmark”
ed il “GET_input = input dell’area benchmark / input X”
Tabella 14 – Il foglio Excel formattato per le analisi FDH
NUMERO CLIENTI APPUNTAMENTI
AREA IN ANALISI
TARGET PRESI
AREA LAZIO SPORTELLI INTERNI 6.750 2.038
Input e Output obiettivo 6.543 3.164 Step 2 Step 3c
GET 97% 64% Max 1,55 Min 0,97
NUMERO CLIENTI APPUNTAMENTI
AREE
TARGET PRESI Step1a Step1b Step1c Step3a Step3b
AREA CALABRIA 6.117 2.415 6.117 2.415 1,18
AREA CAMPANIA E POTENZA 6.861 3.276
AREA EMILIA EST E ROMAGNA 6.543 3.164 6.543 3.164 1,55 6.543 0,97
AREA EMILIA OVEST 3.975 1.667 3.975 1.667 0,82
AREA FRIULI VENEZIA GIULIA 2.529 906 2.529 906 0,44
AREA LAZIO SPORTELLI INTERNI 6.750 2.038 6.750 2.038 1,00
AREA LIGURIA 6.285 2.549 6.285 2.549 1,25

In Tab.14 è riportato una parte del foglio Excel che abbiamo formattato per le
analisi.
In alto a sinistra viene riportata l’area (in questo caso l’area “Lazio sportelli
interni”) oggetto dell’analisi, con le informazioni relative ai clienti (inputLazio)

124
Statistics for Evaluation

e al numero di appuntamenti (outputLazio).


La tabella sotto, contiene il “motore” dell’analisi FDH. La prima colonna
contiene l’elenco delle aree. La seconda e la terza colonna contengono il
numero clienti target (input) ed il numero degli appuntamenti (output) relativo
ad ogni area.
La quarta e la quinta colonna servono ad identificare le aree che hanno,
congiuntamente, un output≥outputLazio e un input≤inputLazio (Step1).
In testa alla colonna “Step1c” si individua il rapporto massimo tra gli output
delle aree selezionate e l’outputLazio dell’area in analisi. In questo caso il
massimo è 1,55.
L’area che verifica questo rapporto massimo è l’ “Emilia Est e Romagna”,
evidenziata in giallo. In questo caso l’area è una sola, ma poteva capitare che
le aree con rapporto massimo fossero due o più di due. Le colonne sette ed
otto servono proprio a verificare quale delle aree abbia il rapporto minimo tra
il suo input (riportato nella colonna sette) e l’inputLazio.
Identificata l’area benchmark (Emilia Est e Romagna), vengono riportati sotto
gli inputLazio e outputLazio i corrispondenti valori di clienti ed appuntamenti.
A questo punto è possibile calcolare il GET_Output = 2.038 / 3.164 = 0,64.
Ed il GET_Input = 6.543 / 6.750 = 0,97.
Il significato dei due GET è molto importante: analizzando il Lazio Sportelli
Interni, risulta che c’è un’area (l’Emilia Est e Romagna) che con un numero di
clienti target inferiore del 3%, ha ottenuto il 36% di appuntamenti in più.
Ripetendo l’analisi per tutte le aree s ha il quadro completo dell’analisi.

125
Duccio Stefano Gazzei

3.2. La valutazione della qualità produttiva

Si pone l’obiettivo di utilizzare i concetti e gli studi probabilistici nell’indagine


della variabilità dei prodotti industriali, ma poi viene applicato ai più svariati
campi e settori.
Nasce con gli studi svolti nei “Bell Telephone Laboratories” negli anni ‘20 e
con i lavori di Shewart e di Pearson.
Si sviluppa subito e diventa uno strumento per assicurare in ogni fase del
processo produttivo (fase degli approvvigionamenti, fase della produzione e
della commercializzazione) stabilità e QUALITA’ delle materie prime, dei
semilavorati e del prodotto vero e proprio rientranti entro le specificazioni
ritenute necessarie al buon esito della performance d’impresa.
Nel campo del controllo statistico della qualità per QUALITA’ di un prodotto
s’intende una qualsiasi caratteristica del prodotto stesso, rilevabile
mediante misure degli attributi.
La produzione è VARIABILE (“Nessuna unità di prodotto è uguale ad
un’altra unità di prodotto”), quindi in questa ottica il controllo statistico della
qualità serve a predisporre, sul processo produttivo, un complesso di fattori
i quali forniscano un prodotto omogeneo, nel senso che le variazioni
(spesso ineliminabili) siano però contenute in un predeterminato intervallo
di tolleranza.

QUALITA’  ASPETTI TECNICI  STANDARD DA RISPETTARE

Alcuni esempi:
 Resistenza alla trazione di un campione di filo cotone
 Diametro delle sfere cuscinetti
 Volume liquido per iniezioni;
 etc.

Sulla QUALITA’ possono quindi incidere i seguenti fattori:


 naturale variabilità;

126
Statistics for Evaluation

 variazioni nella materia prima impiegata;


 logorio degli utensili;
 mutamenti tensione della corrente elettrica;
 etc.

... quindi il controllo statistico della qualità rappresenta un mezzo pronto,


sensibile, efficace per scoprire l’intervento dei mutamenti sistematici nella
qualità dei prodotti ed isolarli dalla naturale variabilità: in partica per tenere
la produzione “sotto controllo”.
Una produzione si dice “sotto controllo” quando sulla base dell’esperienza
passata si può prevedere, almeno approssimativamente, la probabilità che
le variazioni nella qualità dei prodotti fuoriescano da limiti prestabiliti e
quindi si può prevedere la percentuale di unità prodotte che, nel lungo
andare, non rientrerà nei limiti anzidetti.
PRODUZIONE SOTTO CONTROLLO → LA QUALITA’ VARIA
UNICAMENTE PER CAUSE ACCIDENTALI → QUALITA’ MEDIA E
SCARTI QUADRATICI MEDI RIMANGONO COSTANTI
Quindi se noi selezioniamo con criteri scientifici dei campioni di unità (di
materia prima, di semilavorati o di prodotto) ci dobbiamo aspettare che con
una produzione sotto controllo le qualità medie e gli scarti quadratici medi
siano costanti.
Quindi se noi selezioniamo con criteri scientifici dei campioni di unità (di
materia prima, di semilavorati o di prodotto) ci dobbiamo aspettare che con
una produzione sotto controllo le qualità medie e gli scarti quadratici medi
siano costanti.
Quando all’azione delle cause accidentali si aggiunge l’intervento di altre
cause con azione sistematica, allora il calcolo della media e dello scarto
quadratico medio, effettuato su ciascun distinto campione, non fornirà più
risultati sensibilmente uniformi per tutti i campioni.
Potremo avere allora (Fig.21)
a) Modifiche nelle medie
b) Modifiche nello scarto quadratico medio (dispersione)

127
Duccio Stefano Gazzei

c) Modifiche nella media e nella dispersione.

Figura 21 - Produzione sotto controllo e tipologie di modifiche nei processi produttivi

Quindi noi dobbiamo selezionare delle unità (di materia prima, di


semilavorati o di prodotto) da analizzare. In ogni caso la distribuzione delle
medie ottenuti su campioni di n elementi tratti a caso da una popolazione
normale è pure normale con valore medio uguale alla media della
popolazione e dispersione misurata da:

 x 
n [38]
ove  è lo scarto quadratico medio della popolazione.
Se sono noti la media e lo scarto quadratico medio della popolazione, con
le tabelle e’ facile determinare la probabilità che la differenza riscontrata tra
la media di un campione e la media della popolazione ecceda determinati
limiti unicamente in forza della variabilità naturale
Nel caso questo non capiti, è necessario procedere con metodi di stima sui
vari campioni. Tuttavia questi possono essere:
a) di elevata numerosità;
b) di esigua numerosità.
Nel caso (a) la distribuzione delle medie campionarie rilevate si distribuisce
come una normale e non ci si discosta da quanto già detto.

128
Statistics for Evaluation

Nel caso (b), le costanti statistiche calcolate su ciascun sottogruppo non


sono più sensibilmente uguali tra loro e alla rispettiva costante della
popolazione, neppure quando la produzione avviene sotto controllo.
Le costanti ottenute su campioni di pochi elementi possono differire da
quelle della popolazione da cui detti campioni derivano, in quanto pesano
molto gli errori accidentali o di campionamento.
In questo caso si deve ricorrere alla statistica per conoscere la distribuzione
di frequenza delle costanti calcolate.
Infatti la statistica offre un mezzo per discriminare le differenze (di media e
dispersione) riscontrate fra campioni e popolazione, che con grande
probabilità derivano dal caso da quelle che assai presumibilmente
discendono da motivi sistematici.
Per stimare il valor medio della popolazione, si può ipotizzare che
effettivamente la produzione si sia mantenuta sotto controllo e si può
ottenere una stima attendibile del valore medio della popolazione
calcolando la media generale delle medie campionarie:
n

x
j 1
j

x
n [39]
Anche per lo scarto quadratico medio si può ottenere una espressione
approssimata.


x  [40]
n

Il grafico di Shewart (o carta di Shewart) è un diagramma disegnato su


carta millimetrata che, nella sua forma più semplice, riporta tre linee, una
delle quali (quella al centro) è continua e le altre due (superiore ed inferiore)
tratteggiate.
La linea continua è tracciata all’altezza della stima del valor medio della
popolazione ottenuta prendendo la media delle medie dei primi campioni,
media che si usa indicare con

129
Duccio Stefano Gazzei

x
j 1
j [41]
x
n

Le linee tratteggiate segnano i limiti di controllo superiore (UCL = upper


control limit) e inferiore (LCL= lower control limit)
Il limite di controllo superiore viene fatto usualmente corrisponde al valore
[42]
UCLx  x  3 x

Quello inferiore al valore


[43]
LCLx  x  3 x

Nelle versioni successive della carta furono anche aggiunte altre due righe,
denominate “Warning Lines”, in corrispondenza del valore tabellare ±1,96,
che, come è noto, identifica i due livelli che contengono il 95% della
distribuzione normale standardizzata. In questo modo era possibile
controllare, ogni n osservazioni, se il numero delle misurazioni effettuate
comprese tra le “Warning lines” ed i limiti di controllo (UCL e LCL) non
superassero il valore pari a
n*0,5
Il caso di superamento, la produzione veniva fermata e le macchine
controllate, prima ancora di un superamento assoluto dei limiti di controllo.

130
Statistics for Evaluation

IL CASO – LA COSTRUZIONE DELLA CARTA PER MONITORARE LA


PRODUZIONE DI UN CAVO ELETTRICO DA INSERIRE IN GUAINA
Si tratta della produzione, ad alta qualità, di un cavo da inserire in una
guaina, molto resistente, per portare l’energia elettrica nelle isole, passando
sotto il mare.
E’ fondamentale, quindi, il rispetto di un diametro prefissato, che deve
rispettare rigorosamente i limiti di tolleranza consentiti dalla rigida guaina
esterna.
I dati utilizzati per la carta sono, quindi, n°20 rilevazioni orarie, effettuate a
distanza fissa di tre minuti, dei diametri del cavo prodotto, misurati in
millimetri.
Il tracciato ha la forma della tabella seguente: ogni colonna è afferente al
numero della misurazione oraria (Campione n°1, Campione n°2, etc.) mentre
le righe riportano l’indicatore delle ore.
La seconda riga - Camp.3, ad esempio, riporta il diametro rilevato nella terza
misurazione (dopo sei minuti) della seconda ora.
Camp 1 Camp 2 Camp 3 Camp 4 Camp 5 Camp 6 Camp 7 Camp 8 Camp 9 Camp 10 … Camp 20
1 150,24 150,96 150,94 150,76 150,46 151,80 150,86 151,14 151,67 150,83 … 151,73
2 151,75 151,60 150,44 151,01 150,68 150,40 150,97 150,93 151,45 150,70 … 151,12
3 151,71 151,12 150,58 150,23 151,71 151,01 150,82 150,34 151,07 150,65 … 151,64
4 150,90 150,10 151,53 150,33 150,95 150,82 150,19 151,50 151,55 151,15 … 151,49
5 151,64 151,68 151,05 151,06 151,27 151,23 151,04 151,87 151,14 150,26 … 151,90
6 151,23 151,07 150,79 150,59 151,93 151,57 150,64 151,14 151,91 150,80 … 152,00
7 150,36 150,09 151,78 151,31 151,38 150,71 151,87 150,38 151,94 151,63 … 150,70
8 151,06 151,53 150,07 151,05 150,56 151,78 150,57 150,96 150,51 150,22 … 150,77
9 151,25 151,43 151,64 150,71 150,96 151,76 151,94 150,86 151,31 151,49 … 151,72
10 150,96 150,88 150,20 151,48 151,89 151,80 150,88 151,75 150,74 150,04 … 151,15
11 150,89 150,78 150,75 151,74 151,30 151,31 150,21 151,58 150,68 151,98 … 150,14
12 151,97 151,57 150,44 151,26 150,14 151,95 151,73 151,93 151,16 151,79 … 150,50
13 150,86 151,93 151,04 151,24 151,16 150,55 151,00 151,42 151,85 150,35 … 151,10
14 151,29 151,67 151,26 151,43 150,86 150,16 151,73 151,55 151,37 150,30 … 151,07
15 150,88 151,73 150,27 151,72 150,36 150,96 150,65 150,40 151,99 151,99 … 150,48
16 151,10 151,48 150,02 151,24 151,08 151,14 150,49 150,43 151,55 150,74 … 150,23
17 151,15 150,14 151,30 151,68 151,44 151,14 150,79 150,75 150,25 151,50 … 151,32
18 151,45 151,79 150,61 150,41 151,53 151,05 151,44 150,69 151,42 150,32 … 151,22
19 150,56 151,02 151,53 151,37 150,55 151,53 151,64 150,66 151,89 151,56 … 150,96
20 151,41 150,69 151,42 151,56 151,14 151,82 151,23 150,13 151,71 150,61 … 150,71

Per calcolare la carta abbiamo bisogno di ricavare due misure fondamentali:


la media delle medie campionarie e la sua deviazione standard (scarto
quadratico medio).

131
Duccio Stefano Gazzei

Camp 1 … Camp 20 MEDIE ORARIE DEV.STA. MEDIA CARTA UCL LCL WUP WLL
1 150,24 … 151,73 151,09 0,61 151,07 151,44 150,70 151,31 150,83
2 151,75 … 151,12 151,00 0,58 151,07 151,44 150,70 151,31 150,83
3 151,71 … 151,64 150,91 0,56 151,07 151,44 150,70 151,31 150,83
4 150,90 … 151,49 151,07 0,56 151,07 151,44 150,70 151,31 150,83
5 151,64 … 151,90 151,14 0,52 151,07 151,44 150,70 151,31 150,83
6 151,23 … 152,00 151,03 0,56 151,07 151,44 150,70 151,31 150,83
7 150,36 … 150,70 151,18 0,51 151,07 151,44 150,70 151,31 150,83
8 151,06 … 150,77 151,00 0,56 151,07 151,44 150,70 151,31 150,83
9 151,25 … 151,72 151,06 0,59 151,07 151,44 150,70 151,31 150,83
10 150,96 … 151,15 150,93 0,60 151,07 151,44 150,70 151,31 150,83
11 150,89 … 150,14 151,08 0,52 151,07 151,44 150,70 151,31 150,83
12 151,97 … 150,50 151,09 0,69 151,07 151,44 150,70 151,31 150,83
13 150,86 … 151,10 151,04 0,47 151,07 151,44 150,70 151,31 150,83
14 151,29 … 151,07 151,14 0,58 151,07 151,44 150,70 151,31 150,83
15 150,88 … 150,48 151,16 0,60 151,07 151,44 150,70 151,31 150,83
16 151,10 … 150,23 151,00 0,56 151,07 151,44 150,70 151,31 150,83
17 151,15 … 151,32 151,05 0,46 151,07 151,44 150,70 151,31 150,83
18 151,45 … 151,22 151,09 0,50 151,07 151,44 150,70 151,31 150,83
19 150,56 … 150,96 151,23 0,50 151,07 151,44 150,70 151,31 150,83
20 151,41 … 150,71 151,08 0,52 151,07 151,44 150,70 151,31 150,83
media 151,07 0,55
dev st media 0,12

Per ogni riga della tabella calcoliamo la media oraria e, dopo 20 ore, la media
delle medie orarie, pari a 151,07.
Stessa cosa per la deviazione standard, calcolata per ogni riga e poi in media
(0,55). Ricordando che la formula della deviazione standard per le medie
campionarie prevede la divisione per radice quadrata di n, otteniamo la dev.st
delle medie campionarie pari a 0,12.
A questo punto è facile calcolare tutte le linee della carta di Shewart:
- Upper Control Limit UCL = 151,07+3*0,12 = 151,44
- Lower Control Limit LCL = 151,07-3*0,12 = 150,70
- Warning Upper Limit WUL = 151,07+1,96*0,12 = 151,31
- Warning Lower Limit WLL = 151,07-1,96*0,12 = 150,83

132
Statistics for Evaluation

151,40

151,20 MEDIA CARTA


UCL
151,00
LCL
150,80 DATI DA MONITORARE

150,60 WUP
WLL
150,40

150,20
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Costruita la carta abbiamo continuato a monitorare la produzione e, in


almeno tre casi, abbiamo assistito ad “uscite” controllate dei diametri medi dei
cavi dalle tolleranze fissate dalla carta.
Ma questa ci ha dato la possibilità di intervenire prontamente
155,00

154,00

153,00 MEDIA CARTA


UCL
152,00
LCL
151,00 DATI DA MONITORARE
WUL
150,00
WLL
149,00

148,00
1
7
13
19
25
31
37
43
49
55
61
67
73
79
85
91
97

133
Duccio Stefano Gazzei

CAPITOLO 4
LA VALUTAZIONE DELLA EFFICACIA DELLA
COMUNICAZIONE PUBBLICITARIA

La pubblicità è uno degli strumenti di marketing maggiormente utilizzati per


attirare l’attenzione di potenziali clienti su un’attività, i suoi prodotti e i suoi
servizi. Più una campagna pubblicitaria è efficace e più essa è in grado di
attirare i clienti.
Se si pensa alla pubblicità come ad un fenomeno moderno si rischia di
prendere un grosso abbaglio: infatti le prime forme di pubblicità erano
costituite, com’è facile immaginare, dal cosiddetto “passaparola”. Inoltre
diversi documenti storici ritrovati testimoniano che essa era già in auge
nell’Antico Egitto, in Grecia e a Roma.
Esempi di “pubblicità” di tipo commerciale o politico sono stati ritrovati
anche tra le rovine di Pompei, città distrutta, com’è risaputo, in seguito
all’eruzione del Vesuvio nel 79 d.C.
La grossa rivoluzione giunse però con l’introduzione della stampa, a partire
dal XV e XVI secolo. Inizialmente le merci più pubblicizzate erano farmaci e
libri, in seguito il fenomeno si estese anche ad altre tipologie di prodotti.
Sembra che la prima agenzia pubblicitaria sia nata negli Stati uniti, per la
precisione a Philadelphia, nel lontano 1843 e da allora di strada ne è stata
fatta molta. Con il tempo agli strumenti tradizionali se ne sono aggiunti di
nuovi e molto efficaci: a riviste, quotidiani, stampe e affissioni si sono
affiancati radio, televisione e internet. La rete, in particolare, ha aperto
nuove frontiere all’advertising: tramite strumenti nuovi quali banner, pop-
ups, siti di E-Commerce, e-mail advertising o advergaming (giochi per
computer usati per promuovere una società oppure un prodotto) si possono
comunicare i propri messaggi, mirati ad pubblico “giusto” e selezionato.

134
Statistics for Evaluation

Anche se il dibattito sull’efficacia della pubblicità è aperto da tempo ormai


immemorabile, e sembra destinato a rimanere perennemente irrisolto, una
cosa è certa: nel bene o nel male essa influenza profondamente le abitudini
di acquisto del pubblico.
Se una volta si tendeva a voler raggiungere la maggiore fetta di
popolazione possibile, oggi la tendenza sembra essersi invertita:
l’advertising si è sempre più specializzato ed è oggi in grado di raggiungere
nicchie di pubblico anche esigue, ottenendo risultati un tempo impensabili.
Identificando i diversi profili dei targets da raggiungere, il contenuto viene
comunicato a porzioni di pubblico numericamente meno rilevanti ma più
chiaramente definite.

4.1. Il modello D.A.G.M.A.R. (Determining Advertising Goals for


Measured Advertising Results) (1961) di R. Colley
Al fine di inquadrare le problematiche relative alla misurazione dell’efficacia
della pubblicità, uno schema di riferimento può essere rappresentato dal
modello D.A.G.M.A.R. (Determining Advertising Goals for Measured
Advertising Results) (1961) di R. Colley.
Esso distingue tre livelli di risposta del consumatore agli stimoli trasmessi
con l’azione pubblicitaria:
• La risposta cognitiva
• La risposta affettiva
• La risposta comportamentale
Per quanto riguarda la risposta cognitiva, essa si compone di due momenti
fondamentali: il “contatto” con la pubblicità e la “percezione” della pubblicità
stessa.
La misura del contatto (esposizione) è conseguente alla misura
dell’audience dei mezzi di comunicazione e può essere ottenuta in termini
sostanzialmente oggettivi. Al contrario, la misurazione della percezione dei
messaggi pubblicitari è legata alla risposta individuale. Per fare un semplice

135
Duccio Stefano Gazzei

esempio, siamo in presenza di contatto (o esposizione) con la pubblicità


quando stiamo guardando distrattamente la TV e non vediamo l’inserzione
pubblicitaria neanche quando ci passa sotto gli occhi. Si ha percezione
quando si ricordano il messaggio (magari anche solo qualcuna delle sue
parti) e l’azienda che produce il prodotto/servizio pubblicizzato.
Diventa fondamentale comprendere come funzionino i meccanismi che
regolano il processo percettivo , ovvero quanti contatti (esposizioni) sono
necessari affinché il messaggio sia percepito e ricordato e per quanto si
estende nel tempo il ricordo in funzione del numero delle esposizioni
ricevute.
La risposta affettiva riguarda la valutazione degli attributi e del valore d’uso
del prodotto e del servizio, l’atteggiamento del consumatore nei confronti
del prodotto o della marca ed il desiderio di compiere un’azione nei
confronti dello stesso .
Va tenuto presente però che la conoscenza del prodotto e delle sue
caratteristiche non si traducono in modo automatico in una modifica
dell’atteggiamento, che si riferisce piuttosto al gradimento complessivo nei
confronti del prodotto.
Lo stimolo all’azione (ovvero una forte motivazione o il desiderio di
intraprendere un’azione nei confronti del prodotto) rappresenta
presumibilmente la forma più incisiva di risposta affettiva, ma non
necessariamente dà luogo all’azione stessa, in quanto altri fattori possono
intervenire ad impedire che l’intenzione si trasformi in atto.
La risposta comportamentale fa riferimento ad ogni sorta di azione
osservabile dei consumatori stimolata dall’azione pubblicitaria , non solo
l’acquisto ma anche altri comportamenti intermedi che possono essere
desiderabili o necessari proma che l’acquisto si realizzi , come ad esempio
cercare ulteriori informazioni, visitare un negozio per esaminare il prodotto,
prenderlo in prestito o fare delle prove d’uso. E’ evidente che la risposta
comportamentale più importante è proprio l’acquisto, poiché misura proprio
l’effetto dell’azione pubblicitaria..

136
Statistics for Evaluation

4.2. Il modello di Russell Winer

Il modello di Winer si colloca sulla scia del modello D.A.G.M.A.R. .


Esso tiene conto sia del meccanismo di formazione delle preferenze sia
delle variabili esogene che condizionano il processo di acquisto.
Il modello è costruito sulla base dell’assunzione che la scelta del
consumatore sia descrivibile con un sistema di equazioni lineari. La prima
equazione mette in relazione la percezione dell’h-mo attributo del prodotto
con il livello dell’attributo stesso , con le variabili di marketing che forniscono
informazioni sulla marca e con la marca scelta nel periodo precedente. Vi
sono, in linea generale, tante equazioni di questo tipo quante sono le
caratteristiche rilevabili del prodotto.
La seconda equazione postula che le preferenze si determino a partire dalle
percezioni , mentre l’ultima mette in relazione il processo di scelta con le
preferenze del consumatore ed i vincoli che questi incontra nel processo
d’acquisto (reddito, ampiezza del nucleo familiare, prezzo di acquisto, etc.).
In termini formali:

p E ht  f 1  p X ht , M t , c t 1 
p Ft  f 2  p E ht  [44]
p c t  f 3  p Ft , Dt , pop t 

Dove

p E ht = la percezione dell’h-mo attributo fisico del p-mo prodotto al tempo t;


p X ht = il livello dell’h-mo attributo fisico del p-mo prodotto;
Mt = il livello delle variabili che formano il marketing-mix;
p c t = la marca del p-mo prodotto scelta al tempo t;

p Ft = la variabile che esprime la prefernza della marca;

popt =le variabili sociodemografiche;


Dt = la variabili collegate al punto di vendita.

137
Duccio Stefano Gazzei

4.3. La misurazione della risposta cognitiva: i modelli di Zielske,


Morgenzstern e Broadbent

Gli studi di Henry Zielske sulla pubblicità a mezzo stampa hanno avuto
come oggetto sia la velocità di apprendimento (ricordo della pubblicità) sia
la velocità del decadimento memoriale.
Premesso che è possibile individuare tre tipi di strategie di conduzione nel
tempo di una campagna pubblicitaria:

1. pressione regolare e continua per tutto il periodo della campagna


(steady);
2. alternarsi di periodi di forte pressione e periodi di silenzio pubblicitario
(flight);
3. fortissima pressione contenuta in un breve periodo di tempo (burnst).
I risultati hanno messo in luce che:
• L’azione intensiva porta, in un intervallo temporale di ampiezza limitata, ad
un tasso di ricordo più elevato dell’azione regolare;
• L’incremento del numero delle persone che ricorda la pubblicità è via via
più basso man mano che aumenta il numero delle esposizioni;
• La velocità del decadimento diminuisce progressivamente all’aumentare
del numero delle esposizioni;
• In un intervallo temporale più lungo, il tasso medio di memorizzazione
risulta più elevato in caso di campagna pubblicitaria regolare rispetto alla
campagna pubblicitaria intensiva.
Sulla base dell’esperienza empirica, Zielske ha proposto un modello che
mette in relazione la percentuale di persone che ricordano il messaggio (S)
con la percentuale corrispondente del tempo precedente e la pressione
pubblicitaria corrente (A), usualmente misurata in termini di Gross Rating
Point (GRP) .
Si ha quindi:

138
Statistics for Evaluation

S t  a1 S t 1  a 2 At [45]

Dove i parametri “a” sono da stimare con gli usuali metodi sulla base di
serie temporali di dati individuali.
Altre ricerche hanno mostrato come il ricordo medio durante l’anno può
essere massimizzato organizzando le campagne attraverso ondate (flights).
Secondo Armand Morgenzstern, la memorizzazione del messaggio
pubblicitario è funzione del fattore beta
Indicando con:
n = numero di esposizioni;
Sn = la percentuale di persone che ricordano dopo n esposizioni,
la funzione capace di descrivere la memorizzazione è la seguente:
S n  1  (1  b ) n [46]
con b minore o uguale ad uno.
Se vi è un valore residuo di memorizzazione, anche quando n è uguale a
zero, S 0 è diverso da zero. In questo caso la memorizzazione dopo n
esposizioni è data da:
 
S n  (1  S 0 ) 1  (1  b ) n  S 0 [47]
A sua volta il modello di Simon Broadbent si basa sull’assunzione che, in un
dato momento, il ricordo sia funzione non solo della pubblicità effettuata nel
periodo corrente, ma anche della pubblicità esercitata nel passato. Il ricordo
viene ad essere espresso come funzione lineare di una variabile latente,
denominata Advertising Stock (adstock), che indica lo stock di investimento
(o di pressione) pubblicitaria fino al periodo t:
S t  bAds t
[48]

Ads t  rAt  r 2 At 1  r 3 At  2  ...  r n At  n 1 
Dove:
r = parametro che esprime il decadimento dell’azione pubblicitaria;

139
Duccio Stefano Gazzei

A = variabile che rappresenta la pressione pubblicitaria (ad esempio il


GRP);
Ads = Adstock.

4.4. La misurazione delle risposte affettivo-comportamentali

Il modello principale e più immediato è quello che si riferisce alla funzione di


risposta delle vendite:
Qt  f  At , Et  [49]
Dove:
Qt = le vendite al tempo t;
At =le spese per la pubblicità al tempo t;
Et =i fattori ambientali che esercitano un effetto sulle vendite al tempo t, ma
che l’azienda non può controllare (esempio: il reddito delle famiglie).
La stima dei parametri contenuti nella funzione consente la determinazione
dei coefficienti di elasticità, che misurano, com’è noto, la variazione
percentuale delle vendite rispetto alle variazioni percentuali delle variabili
esplicative, permettendo di allocare su base razionale le risorse disponibili
presso l’azienda per raggiungere i risultati prefissati.
Includendo nei modelli di risposta anche i comportamenti dei concorrenti,
otteniamo i cosiddetti “modelli di risposta del mercato”.
Se si tiene conto che le vendite al tempo t di un prodotto o di una data
marca (che indichiamo con Qt ) sono esprimibili tramite il prodotto tra le
vendite totali del settore ( QTt ) e la quota del mercato della marca ( st ),
ovvero come
Qt  QTt s t [50]
L’impatto di una variazione di uno strumento di marketing, ad esempio la
pubblicità, è dato da:

140
Statistics for Evaluation

dQ dQT ds
s  QT [51]
dA dA dA

Le corrispondenti elasticità si esprimono mediante la relazione seguente:


 Q, A   QT , A   s , A [52]
da cui si deduce che l’elasticità delle vendite è uguale all’elasticità della
quota di mercato solo se l’elasticità delle vendite globali del settore è pari a
zero.
Considerando la risposta delle vendite alla pubblicità e indicando con:
Pc = il prezzo dei prodotti della concorrenza;
Ac = gli investimenti pubblicitari della concorrenza;
Q*= le vendite che derivano direttamente dalle azioni di marketing
dell’azienda;
La variazione delle vendite rispetto alla variazione dell’investimento
pubblicitario può essere scritta nel seguente modo:

dQ dQ * dQ * dPc dQ * dAc
   [53]
dA dA dPc dA dAc dA

L’elasticità delle vendite della marca può essere scritta allora nei termini
della propria elasticità diretta , dell’elasticità incrociata , e dell’elasticità di
reazione :
 Q , A   Q*, A   Q*, Pc  Pc , A   Q*, Ac  Ac , A [54]
dove
dQ * Ac
 Q*, Ac  [55]
dAc Q *

I modelli che permettono di misurare gli effetti di reazione sono per lo più di
tipo moltiplicativo, della forma:
Q  kA Ac [56]
in cui:

141
Duccio Stefano Gazzei

 ed  sono le elasticità diretta ed incrociata;

A e Ac sono gli investimenti pubblicitari della marca e della


concorrenza.

4.5. Cenni di Web Analysis

Il concetto di Web Analytics, fin dalla sua nascita, ha visto il susseguirsi di


una pluralità di definizioni che impedivano un’interpretazione univoca del
termine.
Tale situazione si protrae fino al 2008, anno in cui, viene creata una
definizione ufficiale del termine dalla Web Analytics Association (WAA):
“La Web Analytics è la misurazione, la collezione, l’analisi e il reporting di
dati internet allo scopo di capire e ottimizzare l’utilizzo del Web”.
Tale definizione rivela il vero obiettivo della Web Analytics, cioè quello di
riconsiderare l’importanza dei dati online per conoscere e migliorare
l’esperienza del cliente e, di conseguenza, ottenere un ritorno economico
maggiore.
Il primo passo per “entrare” nel mondo della Web Analysis è comprendere
le cosiddette “metriche” fondamentali.
Le metriche Web sono misurazioni statistiche quantitative che hanno il
compito di descrivere eventi o fenomeni in atto su un sito Web.
Quelle che seguono sono le definizioni più importanti con i rispettivi
procedimenti di rilevazione:
Sessioni (o Visite) - Ogni sessione rappresenta una raccolta di richieste
prodotte da qualcuno che si trova nel sito Web.
Per rilevare l’esatto numero di sessioni, viene utilizzato il seguente
procedimento:
Quando qualcuno richiede la prima pagina o il primo elemento del sito, lo
strumento di analisi avvia una sessione specifica per tale persona e tale
browser ed ogni ulteriore richiesta di questa persona viene attribuita a
questa sessione univoca.

142
Statistics for Evaluation

Quando la persona lascia il sito, il suo codice univoco di sessione viene


utilizzato per raggruppare le pagine visualizzate in un’unica visita.
Negli strumenti di Web Analytics più moderni, una sessione è definita come
il periodo che intercorre fra la prima e l’ultima richiesta. Se la persona lascia
semplicemente il browser aperto e se ne va via, tale sessione viene
comunque chiusa automaticamente dopo 29 minuti di inattività.
Utenti (o Visitatori Unici) – La metrica Utenti rappresenta
un’approssimazione (per eccesso) del numero di persone che visitano il sito
Web.
Occorre fare due importanti precisazioni riguardo la rilevazione di questa
metrica:
a) È molto probabile che ogni visitatore univoco rappresenti una
persona univoca, ma ciò non è sempre vero. Pertanto è importante
considerare che, sebbene la metrica Utenti sia una buona
approssimazione, non si tratta di una misura perfetta.
b) In secondo luogo, questa metrica può essere influenzata dai browser
che non accettano cookie o da quelli che rifiutano i cookie inviati da
terzi.
Per calcolare il numero degli utenti, viene utilizzato il seguente
procedimento:
Quando qualcuno richiede la prima pagina o il primo elemento del sito, lo
strumento di analisi imposta un cookie univoco sul browser di tale persona.
Questo cookie, che rimane sul browser anche dopo che la persona se ne
va dal sito, contiene una stringa univoca e anonima composta da numeri e
caratteri (all’interno di tale stringa non viene inclusa nessuna informazione
di identificazione personale).
Ogni volta che una persona visita il sito Web, questo cookie persistente
viene utilizzato per riconoscere che è tornato lo stesso browser (e dunque
lo stesso utente).
Tenendo conto del ruolo dei cookie, possiamo ridefinire la nostra metrica
Utenti come il numero di tutti i cookie persistenti univoci rilevati.
Tempo sulla Pagina – Questa metrica ha il compito di misurare il tempo
che i visitatori trascorrono in una singola pagina nel corso di una sessione;

143
Duccio Stefano Gazzei

per calcolare il Tempo sulla Pagina abbiamo utilizzato una media tra le
sessioni, poiché garantisce una migliore comprensione dei fenomeni in atto
sulla pagina.
Vediamo come viene effettivamente misurato il tempo trascorso in una
pagina:
Nel momento in cui un utente apre una qualsiasi pagina del nostro sito
Web, lo strumento di analisi registra l’esatto istante temporale (h: min: s) in
cui è stata richiesta tale pagina. Supponiamo che in un secondo momento
lo stesso utente apra una seconda pagina del nostro sito Web, anche in
questo caso lo strumento registrerà l’esatto istante temporale in cui è stata
richiesta la pagina.
Adesso il nostro programma di Web Analytics è in possesso di due
indicazioni orarie, una per la richiesta della prima pagina e una per la
richiesta della seconda pagina, perciò è in grado di calcolare il tempo
trascorso sulla prima pagina facendo la differenza tra il secondo istante
temporale e il primo.
Da notare che, per calcolare il tempo trascorso su una pagina lo strumento
analitico ha bisogno di due indicazioni temporali, dunque nel caso in cui il
visitatore esca dalla prima pagina senza visualizzarne una seconda, il
nostro strumento non riuscirà a calcolare questa metrica, poiché manca
un’indicazione oraria.
Frequenza di Rimbalzo - Essa rappresenta la percentuale delle sessioni
sul sito Web in cui è stata visualizzata una sola pagina. Alcuni strumenti
sfruttano il tempo per misurare la Frequenza di Rimbalzo, in tal caso essa
rappresenta la percentuale di sessioni in cui il tempo trascorso sulla pagina
è stato minore di cinque secondi.
Questa metrica è una tra le più importanti, poiché consente di stimare il
“grado di fallimento” del sito: misurare un’alta Frequenza di Rimbalzo in una
particolare pagina (o nell’ intero sito Web), infatti, è sintomo di scarso
interessamento da parte dei clienti.
Inoltre è utile per intraprendere una rapida azione correttiva sulla base dei
risultati ottenuti dall’analisi, poiché permette di identificare le pagine che
non suscitano particolare interesse nei clienti e provocano troppi rimbalzi.

144
Statistics for Evaluation

Pagine per Sessione - Questa semplice metrica conteggia il numero di


pagine visitate da un utente durante una sessione; come per il calcolo della
metrica Tempo sulla Pagina, anche in questo caso è stata utilizzata una
media tra le sessioni.
Come abbiamo già detto in precedenza, nel momento in cui qualcuno
richiede la prima pagina o il primo elemento del sito, lo strumento di analisi
avvia una sessione specifica per tale persona e tale browser ed ogni
ulteriore richiesta di questa persona viene attribuita a questa sessione
univoca; dunque la misurazione di questa metrica consiste nel conteggio
delle pagine che sono state precedentemente raggruppate utilizzando il
codice univoco di sessione.
Completamenti Obiettivo – Questa metrica misura i risultati ottenuti
dall’impresa. Ogni diversa tipologia d’impresa stabilisce i risultati in base ad
una specifica azione desiderata: per i siti e-commerce ad esempio, l’azione
desiderata è rappresentata dall’invio di un ordine al sito di commercio
elettronico, nel nostro caso invece tale azione è rappresentata dal
completamento del percorso per la richiesta del mutuo.
Tasso di Conversione – Essa rappresenta la metrica a cui bisogna
prestare più attenzione, poiché ci permette di valutare (in termini
percentuali) il successo dell’obiettivo che ci siamo prefissati.
Può essere ottenuta facendo il rapporto tra il numero di clienti che hanno
completato il percorso per la richiesta del mutuo (Completamenti Obiettivo)
ed il numero di individui che hanno visitato il nostro sito Web (Utenti). Per
calcolare il Tasso di Conversione possiamo utilizzare sia gli utenti che le
visite, la scelta tra queste due metriche dipende dalla mentalità aziendale:
a) si sceglie di porre a denominatore le visite, si presuppone che ogni
visita al sito sia di qualcuno che potrebbe effettuare un ordine.
b) si sceglie di porre a denominatore gli utenti, e si suppone che sia
perfettamente normale che qualcuno visiti più volte il nostro sito
prima di effettuare un acquisto.

145
Duccio Stefano Gazzei

IL CASO – Una applicazione di Web Analysis effettuata sulle sessioni


giornaliere nel sito web di una grande banca italiana
Il file messo a disposizione ha una struttura molto semplice, rappresentata in
Tab.15
Giorno Sessioni
30/09/2016 3.898
01/10/2016 4438
02/10/2016 4033
03/10/2016 13673
04/10/2016 6912
05/10/2016 16399
06/10/2016 13102
07/10/2016 10242
08/10/2016 5150
09/10/2016 4370
10/10/2016 6680
Tabella 15 – Numero di sessioni per giorno di un sito web di una grande banca italiana

I dati si riferiscono ad un intervallo di tempo che va dal 30/09/2016 al 31/12/2016.


Graficamente, la serie storica si presenta con una forma molto particolare (Vedi
Fig.22)

Figura 22 – Numero di sessioni per giorno di un sito web di una grande banca italiana

146
Statistics for Evaluation

La forma strana della serie storica, con un “picco” nei primi giorni della
rilevazione, è motivata dal fatto che proprio in quei giorni fu lanciata una
campagna pubblicitaria sui principali media nazionali, determinando una crescita
temporanea considerevole degli accessi al sito.
Il presupposto che sta alla base dello studio di una serie storica di questo tipo è il
fatto che quei fattori che hanno condizionato il numero degli utenti nel periodo che
va dal 30/09/2016 al 31/12/2016, possano essere identificati e utilizzati per:
- Studiare il comportamento dei clienti
- Prevedere l’andamento futuro della nostra variabile di interesse.
Per il raggiungimento del nostro obbiettivo utilizzeremo il “modello classico
moltiplicativo per le serie temporali ”:

Sessionii = μi * Ti * IMi * ISi * IGi * εi [57]


Dove:
1) μi rappresenta la media generale delle sessioni.
2) Ti rappresenta il trend, ovvero il persistente movimento (di medio/lungo periodo)
di una variabile nel corso del tempo.
3) Gli indici IMi, ISi e IGi rappresentano rispettivamente l’indice mensile, settimanale
e giornaliero. Mentre il trend è legato alla sollecitazione pubblicitaria (quindi non
rappresenta una componente stagionale), gli altri tre indici sono legati alle
abitudini comportamentali dei clienti. Nella formula:

= [58]

4) ε rappresenta l’errore, possiamo considerarlo come un fattore che causa


fluttuazioni irregolari o casuali che influenzano la serie temporale.
In pratica, si dimostra che i flussi, intesi come scostamenti rispetto alla media
generale (media generale dell’output), possono essere espressi come la
moltiplicazione di tre indici calcolati come la media delle osservazioni rilevata ogni
micro-componente-temporale analizzata, diviso la media generale di tutte le
osservazioni per categoria di microcomponente-temporale analizzata. Ad esempio,

147
Duccio Stefano Gazzei

l’indice orario alle ore 11 è calcolato come la media di tutte le osservazioni alle ore
11 diviso la media generale di tutti gli indici orari.
E’ possibile inoltre di stimare tale modello e testare la presenza delle varie
componenti, con il metodo dei minimi quadrati, applicando una trasformazione
logaritmica al seguente modello:
Sessionii = μi * Ti * IMi * ISi * IGi * εi
[59]
Come prima cosa abbiamo integrato la Tab.15 con informazioni relative al numero
di osservazione (da 0 a 92), il giorno della settimana (1=”Lunedì”), il numero della
settimana ed il numero del mese (Vedi Tab.16)

Giorno N OSS Sessioni GIORNO_SETT SETT MESE


30/09/2016 0 3.898 5 5 9
01/10/2016 1 4438 6 1 10
02/10/2016 2 4033 7 1 10
03/10/2016 3 13673 1 2 10
04/10/2016 4 6912 2 2 10
05/10/2016 5 16399 3 2 10
06/10/2016 6 13102 4 2 10
07/10/2016 7 10242 5 2 10

Tabella 16 – La tabella originale dopo l’arricchimento della serie storica

Come prima cosa abbiamo calcolato la media delle sessioni (pari a 2.961) ed
abbiamo effettuato la prima decomposizione della serie dividendo ogni valore per
la media.
Sessionii / μi = Ti * IMi * ISi * IGi * εi

La nuova colonna della tabella è ottenuta dividendo la colonna “Sessioni” per la


media (vedi Tab.17).

148
Statistics for Evaluation

Giorno N OSS Sessioni GIORNO_SETT SETT MESE y/m


30/09/2016 0 3.898 5 5 9 1,32
01/10/2016 1 4438 6 1 10 1,50
02/10/2016 2 4033 7 1 10 1,36
03/10/2016 3 13673 1 2 10 4,62
04/10/2016 4 6912 2 2 10 2,33
05/10/2016 5 16399 3 2 10 5,54
06/10/2016 6 13102 4 2 10 4,42
07/10/2016 7 10242 5 2 10 3,46

Tabella 17 – Il primo effetto della decomposizione (Sessioni / 2.961)

L’analisi della nuova serie (y/m) mostra un andamento molto particolare, dovuto al
fatto che i primi giorni si verifica un picco dovuto al grande “push” di pubblicità.
Per cogliere il particolare tipo di trend, abbiamo adottato un modello flessibile
ispirato alla Cobb Douglas, con una sola variabile indipendente (il numero delle
osservazioni N_OSS).

Figura 23 – Curva di trend sulla serie normalizzata (y/m)

A questo punto possiamo utilizzare i valori sulla curva stimata come indice di trend
(It).
La tabella ha due nuove colonne: a) l’indice di trend It; b) la nuova serie ottenuta

149
Duccio Stefano Gazzei

dividendo y/m per It .

Giorno N OSS Sessioni GIORNO_SETT SETT MESE y/m It y/(m*It)


30/09/2016 0 3.898 5 5 9 1,32
01/10/2016 1 4438 6 1 10 1,50 11,38 0,13
02/10/2016 2 4033 7 1 10 1,36 6,53 0,21
03/10/2016 3 13673 1 2 10 4,62 4,72 0,98
04/10/2016 4 6912 2 2 10 2,33 3,74 0,62
05/10/2016 5 16399 3 2 10 5,54 3,13 1,77
06/10/2016 6 13102 4 2 10 4,42 2,70 1,64
07/10/2016 7 10242 5 2 10 3,46 2,39 1,45

Tabella 18 – Il secondo effetto della decomposizione (y/(m*It)=y/m*1/It)

Il prossimo passo è basato sulla decomposizione dell’effetto giornaliero.


Questa analisi è molto semplice: basta impostare una tabella pivot che abbia per
riga i giorni della settimana e, come valori, le medie della ultima serie elaborata
[y/(m*It)].

Figura 24 – Il calcolo dell’Indice Giornaliero

Si procede con la decomposizione.


La nostra tabella ha ora due nuove colonne: a) l’indice Ig; b) la nuova serie ottenuta

150
Statistics for Evaluation

dividendo l’ultima colonna della tabella 4 per Ig.


Giorno N OSS Sessioni GIORNO_SETT SETT MESE y/m It y/(m*It) Ig y(m*It*Ig)
30/09/2016 0 3.898 5 5 9 1,32
01/10/2016 1 4438 6 1 10 1,50 11,38 0,13 0,76 0,17
02/10/2016 2 4033 7 1 10 1,36 6,53 0,21 0,65 0,32
03/10/2016 3 13673 1 2 10 4,62 4,72 0,98 1,31 0,75
04/10/2016 4 6912 2 2 10 2,33 3,74 0,62 1,19 0,52
05/10/2016 5 16399 3 2 10 5,54 3,13 1,77 1,34 1,32
06/10/2016 6 13102 4 2 10 4,42 2,70 1,64 1,34 1,23
07/10/2016 7 10242 5 2 10 3,46 2,39 1,45 1,25 1,16
08/10/2016 8 5150 6 2 10 1,74 2,15 0,81 0,76 1,06

Tabella 19 – Il terzo effetto della decomposizione (y/(m*It* Ig))

Si prosegue calcolando l’indice settimanale e l’indice mensile, sostituendo, nella


tabella pivot, rispettivamente, l’indicatore delle settimane e dei mesi all’indicatore
dei giorni. Il risultato finale è espresso nella tabella finale.
Giorno N OSS Sessioni GIORNO_SETT SETT MESE y/m It y/(m*It) Ig y(m*It*Ig) Is y/(m*It*Ig*Is) Im Errore
30/09/2016 0 3.898 5 5 9 1,32
01/10/2016 1 4438 6 1 10 1,50 11,38 0,13 0,76 0,17 0,95 0,18 1,03 0,18
02/10/2016 2 4033 7 1 10 1,36 6,53 0,21 0,65 0,32 0,95 0,34 1,03 0,33
03/10/2016 3 13673 1 2 10 4,62 4,72 0,98 1,31 0,75 1,01 0,74 1,03 0,72
04/10/2016 4 6912 2 2 10 2,33 3,74 0,62 1,19 0,52 1,01 0,52 1,03 0,50
05/10/2016 5 16399 3 2 10 5,54 3,13 1,77 1,34 1,32 1,01 1,31 1,03 1,28
06/10/2016 6 13102 4 2 10 4,42 2,70 1,64 1,34 1,23 1,01 1,21 1,03 1,18
07/10/2016 7 10242 5 2 10 3,46 2,39 1,45 1,25 1,16 1,01 1,15 1,03 1,12

Tabella 20 – La decomposizione totale. L’ultima colonna è l’errore casuale rimanente


Il risultato grafico finale è riportato nella Fig.25, dove sono illustrati i vari indici

Figura 25 – Le componenti della serie storica rappresentati in forma grafica

151
Duccio Stefano Gazzei

IL CASO – LA MESSA A PUNTO DI UNA CAMPAGNA PUBBLICITARIA


DIRETTA AD UN PUBBLICO GIOVANILE
La nostra azienda, diffusa a livello nazionale, decide di realizzare una
campagna radiofonica per proporre un nuovo prodotto ad un pubblico
giovanile evoluto. Il target, in sostanza, può essere individuato nel segmento
Eurisko noto come “Innovazione Giovani”.
Vengono realizzati, in collaborazione con una società specializzata, focus in
ogni provincia nel corso dei quali, a campioni corrispondenti al target,
vengono fatti ascoltare alcuni messaggi pubblicitari tra i quali quello di cui
vogliamo testare l’efficiacia.
Ci viene restituito un file, con dettaglio provinciale, con le informazioni
riepilogate nella tabella esemplificativa.
PROVINCIA POPOLAZIONE RESIDENTE INN_GIOV CONTATTI PERCEZIONI
MI 3.721.428 756.961 2400 227
RM 3.700.578 760.075 2400 308
NA 3.075.660 718.529 2000 261
TO 2.172.226 422.224 1400 188
BA 1.564.122 356.223 1000 121
PA 1.236.799 268.113 800 107
BS 1.126.249 244.729 800 62
SA 1.075.756 234.866 700 95
CT 1.058.162 232.772 700 102

Per ogni provincia, insieme alla popolazione residente ed al target


complessivo, viene riepilogato il totale del campione invitato al focus (contatti)
ed il numero dei partecipanti che ha dimostrato di aver percepito il messaggio
pubblicitario della nostra azienda (percezioni).
Vogliamo capire:
- Il valore del coefficiente beta
- Se il valore è omogeneo in tutte le province o vi sono
difformità tra le grandi province e le altre
- Quanta percentuale del target complessivo si ricorderà del
messaggio pubblicitario dopo n°10 passaggi (il massimo che
il budget ci può consentire)

152
Statistics for Evaluation

Il rapporto tra percezioni e contatti ci fornisce il valore dei coefficienti beta in


ogni provincia
PROVINCIA POPOLAZIONE RESIDENTE INN_GIOV CONTATTI PERCEZIONI GRANDI CITTA' COEFF.BETA
MI 3.721.428 756.961 2400 227 1 0,095
RM 3.700.578 760.075 2400 308 1 0,128
NA 3.075.660 718.529 2000 261 1 0,131
TO 2.172.226 422.224 1400 188 1 0,134
GE 873.604 143.393 600 46 0 0,077
PD 857.660 180.125 600 64 0 0,107
CE 854.956 199.049 600 77 0 0,128

La relazione tra contatti e percezioni sembra molto forte, anche analizzando il


grafico a dispersione

DIPENDENZA PERCEZIONE CONTATTI


350

300
y = 0,1162x
R² = 0,9381
250
PERCEZIONI

200

150

100

50

0
0 500 1000 1500 2000 2500 3000
CONTATTI

A questo punto costruiamo una tabella dove, per colonna sono identificate le
grandi province (Valore “1”) e le altre (Valore “0”) ed, in corrispondenza delle
righe, i valori dei beta provinciali. Vedi esempio sulle prime otto province in
ordine alfabetico:

153
Duccio Stefano Gazzei

PROVINCIA 0 1 Totale complessivo


BA 0,12 0,12
BG 0,11 0,11
BO 0,11 0,11
BS 0,08 0,08
CA 0,11 0,11
CE 0,13 0,13
CN 0,13 0,13
CS 0,15 0,15

Utilizzando il tool “Analisi dati” di Excel, selezionando l’opzione “Analisi della


varianza ad un fattore, è possibile verificare se le medie dei due gruppi di
province sono omegenee oppure no.
Le statistiche ottenute sono inequivocabili: il valore calcolato della F (0,587) è
abbondantemente al di sotto del limite critico (4,196) e, quindi, possiamo
accettare l’ipotesi nulla di omogeneità nelle medie.

Analisi varianza: ad un fattore

RIEPILOGO
Gruppi Conteggio Somma Media Varianza
0 18 2,03 0,11 0,00
1 12 1,43 0,12 0,00

ANALISI VARIANZA
Origine della variazione SQ gdl MQ F Valore di significatività F crit
Tra gruppi 0,000 1,000 0,000 0,587 0,450 4,196
In gruppi 0,014 28,000 0,000

Totale 0,014 29,000

Resta da calcolare la percentuale di cui alla formula [46].


S n  1  (1  b ) n [46]
Nel nostro caso, usando il coefficiente medio beta nazionale, con dieci
passaggi, diventa
S10  1  (1  0,116) 10 =0,70

154
Statistics for Evaluation

CAPITOLO 5
LA VALUTAZIONE DEL POTENZIALE DI
VENDITA

La pianificazione e programmazione dell’azione di vendita dell’impresa non può


prescindere dalla stima del potenziale di mercato (ammontare massimo in
volume o in valore di un bene/servizio che il mercato può assorbire in un futuro
prossimo) e di vendita (quota di mercato su cui l’impresa può ragionevolmente
puntare)

In questo conteso, la crescente importanza che assume l’analisi del territorio


impone oggi all’impresa la necessità di stimare il potenziale di vendita su aree
“amministrative”: province, comuni, zone di censimento, e “commerciali”: bacini,
distretti, quartieri e isolati urbani.

Tramite la stima in parola l’impresa può calibrare la sua azione di mercato e


fissare obiettivi produttivi e commerciali realistici nella sua attività di
pianificazione.

Inoltre, in questo contesto ha assunto grande importanza, all’interno delle


aziende, il Customer Relationship Management (CRM), il settore deputato a
costituire relazioni personalizzate e di lungo periodo con il cliente. Gli obiettivi di
un CRM, infatti, sono due: fidelizzare e trovare nuovi clienti.
Il CRM aiuta l’azienda a comprendere il cliente (dati comportamentali, la
conoscenza della navigazione sui diversi canali) e ad assumere un approccio
commerciale differenziato per obiettivo.
Lo scenario attuale ci pone dinanzi ad un consumatore sempre più informato, la
customer experience diviene centrale insieme all’importanza dell’ascolto, in
sostanza è il cliente a dettare le regole.
In questi ultimi tempi il CRM ha subito alcune importanti evoluzioni:
Il Social CRM, basato sull’uso dei Social Network, implica la comunicazione e
condivisione di informazioni, pareri e conoscenze; lo sviluppo di relazioni tra

155
Duccio Stefano Gazzei

venditori/agenti e clienti; l’aumento della capacità di ascolto rispetto alle esigenze


e ai bisogni della clientela.
L’E-CRM consiste nell’interazione tra e-commerce e CRM mediante la raccolta di
dati tramite Internet e posta elettronica, l’aggregazione di dati per analizzare
specifiche esigenze, l’interazione con cliente (feedback).
Il CRM Mobile, sottoinsieme di E-CRM, è una strategia multicanale: web mobile,
web chart, applicazioni, Social Network.
L’XCRM implica la concezione del CRM come sistema unificato: l’ottimizzazione
del processo aziendale e il vantaggio competitivo; il supporto al manager nel
creare, monitorare, archiviare documenti e contratti di lavoro.

156
Statistics for Evaluation

5.1.1 Introduzione al GeoMarketing Statistico

All’interno di un’impresa il Marketing rappresenta l’insieme delle attività


messe in atto per creare una propria immagine di qualità, attraverso
un’offerta di prodotti e servizi che soddisfano le esigenze e i bisogni della
clientela reale e potenziale, rendendola stabilmente fedele. Attraverso il
Marketing un’azienda cerca di dare una risposta precisa a tre domande
fondamentali per il successo del proprio business: “A chi vendere?”, “Che
cosa vendere?”, “Dove vendere?”. Le attività del Marketing possono essere
classificate in tre fasi o processi come illustrato nello schema seguente.

Figura 26 – Le tre fasi del Marketing di un’azienda

Il GeoMarketing statistico fa parte delle attività della fase analitica ed


applica strumenti statistici a dati territoriali georeferenziati a sostegno delle
decisioni aziendali, per rendere più efficaci ed efficienti le decisioni e le
attività relative alla Comunicazione, alla Vendita, alla Distribuzione ed al
Servizio ai clienti. Nel processo decisionale, quindi, il Geomarketing
statistico può essere considerato un Sistema di Supporto alle Decisioni -
DSS (Capitolo 1) facente parte di quell’insieme di strumenti analitici che
fungono da sostegno all’attività di formulazione delle scelte a livello
manageriale.
Il Geomarketing statistico può essere inteso come uno strumento che,
grazie all’ausilio di tecniche di rappresentazione cartografica, consente di
introdurre a tutti gli effetti la variabile “territorio” nel processo decisionale
delle imprese, prendendo in considerazione informazioni di vario genere e
provenienti da fonti interne ed esterne all’azienda. La geografia, unita al
marketing e alla statistica, introduce un modo diverso di vedere e analizzare

157
Duccio Stefano Gazzei

i dati e di confrontare informazioni di fonte diversa e a diverso livello di


dettaglio, al fine di spiegare lo stretto legame che esiste fra le variabili
demografiche, socio-economiche del territorio e della popolazione che lo
abita e l’esplicarsi dei fenomeni di consumo all’interno di esso.

Figura 27 – Il GeoMarketing e la possibilità di “osservare i dati”

È così che il territorio viene utilizzato come una sorta di leva strategica e le
informazioni su di esso permettono una maggiore conoscenza del mercato
da parte dell’azienda, rendendo il processo decisionale più veloce e
completo. Si sviluppa una visione del mercato da un punto di vista
geografico, che consente di avere un’idea di come esso si muova non solo
in termini numerici, ma avendo un riscontro grafico di come produzione,
commercializzazione, clienti, concorrenza e opportunità di business siano
posizionati sul territorio.
Con il Geomarketing statistico l’elemento geografico diventa la variabile
determinante per la lettura e l’interpretazione dei dati del mercato, consentendo
così all’azienda utilizzatrice di fornire risposte personalizzate ai bisogni dei clienti,
individuando e segmentando le specifiche esigenze proprio in relazione alla loro
collocazione geografica 12.

L’utilizzo congiunto di strategie di marketing, di modelli statistici, di concetti


di analisi spaziale, presi in prestito dalla geografia quantitativa e
implementati dai sistemi informatici, e la visualizzazione di mappe
computerizzate che offrono un supporto di immediato impatto visivo,

12 Ballocci (1997)

158
Statistics for Evaluation

consentono di avere informazioni dinamiche e complete che i tradizionali


strumenti di analisi non forniscono. Il GeoMarketing, però, risulta una
metodologia innovativa soprattutto in quanto evita che le informazioni
relative al mondo esterno all’impresa non possano essere interpretate
unitamente al patrimonio informativo aziendale: il GeoMarketing è dunque
la chiave di lettura che consente di cogliere le inevitabili interazioni tra le
performance aziendali e quelle generali di mercato, una chiave
rappresentata dal territorio, ovvero dal dove avvengono i fenomeni
economici.
Attraverso il GeoMarketing le zone di vuoto di offerta e le aree di
opportunità saltano all’occhio ed è facile individuare le relazioni tra
performance e conformazione del territorio. Per cui il suo utilizzo può
essere fondamentale per riorganizzare la rete di vendita o di assistenza
clienti, per pianificare la pubblicità locale, per delimitare la zona in cui
effettuare una ricerca di mercato, per organizzare le attività di consegna
delle merci. E gli stessi concetti applicati nel GeoMarketing possono essere
utilizzati per fissare i criteri di messa in opera di un sistema che consenta
agli operatori del servizio clienti di dare tempestive e dettagliate
informazioni sulla localizzazione di punti vendita e centri di assistenza e di
individuare il tecnico più vicino al luogo da cui proviene una richiesta di
intervento. Con il GeoMarketing statistico otteniamo la seguente sequenza
informativa:

Figura 28 – Sequenza informativa del GeoMarketing statistico

“Chi” e “Fa cosa” si legano al territorio in cui si producono e si trasformano


in un'informazione rilevante per assumere decisioni. D’altra parte “Dove”
può assumere molti significati differenti a seconda dei decisori: dove
risiedono i nostri clienti?, dove lavorano?, dove si recano per gli acquisti?,
dove vanno nel tempo libero?, dove sono localizzati i nostri concorrenti?,
quali sono le postazioni migliori per aprire nuovi negozi?, dove si trovano
sportelli bancari, uffici pubblici, luoghi di attrazione e di divertimento?

159
Duccio Stefano Gazzei

5.1.2. I concetti base e gli strumenti del GeoMarketing statistico

Gli oggetti delle analisi alla base degli strumenti di Geomarketing sono il
macroambiente, il microambiente, il comportamento del consumatore e la
definizione dei bacini di utenza.
Il MACROAMBIENTE riguarda l’individuazione delle tendenze che possono
apportare modificazioni alla domanda, in termini sia quantitativi che
qualitativi. In questo ambito vengono studiate le variabili:
- demografiche (ad es. la numerosità della popolazione, la struttura delle
famiglie, la distribuzione della popolazione per classi d’età, etc.)
- economiche (ad es. il livello di reddito, i consumi, i risparmi, etc.)
- sociali (ad es. gli stili di vita dei clienti, le leggi ambientali, la tutela del
consumatore, etc.)

Il MICROAMBIENTE riguarda invece l’individuazione delle informazioni sulle


caratteristiche del mercato. In modo particolare si cerca di pervenire alle
seguenti analisi:

Figura 29 – Il Micorambiente: informazioni sulle caratteristiche del mercato

160
Statistics for Evaluation

Perciò si effettua l’analisi della domanda per conoscere con anticipo,


rispetto alla concorrenza, il comportamento del consumatore, l’analisi
dell’offerta per la ricerca di informazioni sulla capacità competitiva delle
imprese rivali e l’analisi della struttura dei canali distributivi per
comprendere il meccanismo dell’organizzazione della rete di distribuzione
commerciale.

Infine, in merito al COMPORTAMENTO DEL CONSUMATORE, si tratta di dare una


risposta ad una serie di quesiti (anche noti come delle sei W):

Figura 30 – Il Comportamento del Consumatore: rispondere ai quesiti delle 6W

È chiaro, perciò, che il GeoMarketing consente di confrontare


congiuntamente l’offerta con la domanda, determinando quindi il rapporto
ottimale tra gli sforzi e le capacità messi in campo da chi offre, con la
localizzazione della clientela potenziale e le relative esigenze da
soddisfare. Difatti, la possibilità di dare una connotazione e una
rappresentazione spaziale a fenomeni economico-commerciali di diversa
natura consente, avendo una dimensione in comune individuata dal dove

161
Duccio Stefano Gazzei

questi eventi si verificano, di analizzare l’interazione e la correlazione di tali


variabili.
Alla base del GeoMarketing statistico esiste una relazione funzionale
territorio-azienda espressa e regolata da un insieme di leggi armoniche
sulla base delle quali è possibile definire che la dinamica della domanda
che caratterizza i flussi commerciali di ogni punto vendita è funzione del mix
di beni e servizi venduti (paniere di produzione) che, a sua volta, dipende
dalla tipologia di clientela che si serve del punto vendita la quale è legata al
contesto territoriale nel quale l’azienda si trova ad operare.

Figura 31 – Il GeoMarketing: la relazione fra territorio e azienda

Sulla base di questo modello interpretativo della domanda potenziale,


risulta quindi evidente che l’analisi approfondita dei BACINI DI UTENZA è il
primo indispensabile passo del percorso che porta alla conoscenza. Di
seguito illustreremo alcune tipologie di bacini che si differenziano in base al
metodo utilizzato per la loro definizione.

BACINI NATURALI. Tra i diversi approcci sicuramente il più “naturale” e più


semplice è quello di considerare il bacino come il contesto geo-politico nel
quale l’azienda si trova ad operare, la Regione, la Provincia, il Comune o il
CAP. Più semplice per due motivi: il primo perché già costruiti e delimitati e

162
Statistics for Evaluation

spesso i limiti e le aree di “competenza” aziendali si riferiscono proprio ad


essi, il secondo perché di solito si hanno tutti i dati a disposizione.

Figura 32 – Il GeoMarketing: bacini naturali

Un’analisi più dettagliata, potrebbe portare a considerare bacini naturali


delimitati in zone geografiche ristrette (quartieri, rioni): spesso si riscontra
che individui o gruppi di individui con caratteristiche demografiche, stili di
vita e comportamenti simili tendono ad aggregarsi, creando delle porzioni di
territorio omogenee non solo sotto l’aspetto economico e sociale ma anche
in termini di clientela prevalente e possibilità di business. È facilmente
comprensibile, dunque, quanto sia importante identificare le peculiarità che
meglio descrivono le caratteristiche dei residenti in ciascuna area ì, in modo
tale da aggregare geograficamente le zone con profili simili e confrontare
aree omogenee. Lavorare in questo senso significa muoversi nel campo
della segmentazione geodemografica (geoclustering). La conoscenza del
territorio porta alla conoscenza della potenziale clientela, non solo in termini
quantitativi ma anche e soprattutto qualitativi, consentendo di pianificare
azioni di marketing mirate su segmenti target individuati anche in base alle
caratteristiche del territorio nel quale risiedono.

163
Duccio Stefano Gazzei

I POLIGONI DI THIESSEN. Se è possibile supporre due ipotesi, ovvero che la


superficie in analisi sia completamente coperta dai punti vendita della
propria impresa e che il cliente si rechi nel punto vendita a lui più vicino,
allora il bacino sarà costituito da tutti i punti per cui la distanza tra di essi il
punto vendita in analisi è inferiore alla distanza tra essi e gli altri punti
vendita. Tale area è definita come il poligono di Thiessen, in formule:

polc  pi : dist ( pi , pc )  dist ( pi , ph ) h  c [60]

Da un punto di vista tecnico la loro individuazione è molto semplice: si


tracciano le linee congiungenti i punti vendita, si individuano le mediane e si
tracciano le perpendicolari.

Figura 33 – Il GeoMarketing: bacini definiti con i Poligoni di Thiessen

IL RAGGIO ESPLORATORE. Se, invece, non si ha nessuna informazione


strategica relativa alla nostra clientela ed il bacino è costituito da un limite
logistico definito a priori (ad es. si pensi ad un’azienda che effettua
consegne e stabilisce che i suoi dipendenti non possono percorrere più di
un certo numero di chilometri) l’unico modo per individuare il bacino è

164
Statistics for Evaluation

l’utilizzo del raggio esploratore che può essere radiale o come “tempo di
guida” cioè stradale.

Figura 34 – Il GeoMarketing: bacini definiti con il raggio esploratore

LE CURVE DI LORENZ. La metodologia più utilizzata e forse più logica per


determinare i bacini trae il suo fondamento dall’osservazione della
distribuzione della clientela (o di un qualsiasi elemento economico oggetto
di studio) lungo il territorio e dalla possibilità di verificare l’esistenza di una
particolare legge che le lega la prima al secondo. Il mezzo più diffuso sono
le curve di Lorenz che indicano il grado di concentrazione del fenomeno in
analisi al variare della distanza dal punto vendita. Per costruirle dobbiamo,
tuttavia, prima aver georeferenziato la clientela (o l’elemento economico
oggetto di studio). Con il termine “georeferenziazione” si intende il processo
d’inserimento dei clienti acquisiti all’interno di una mappa: ogni record del
database all’interno all’azienda viene collegato ad un codice (che può
essere un CAP, un codice di sezione di censimento ISTAT o il numero
civico di una via, a seconda del grado di definizione della carta). Tale
codice viene riconosciuto dal sistema cartografico GIS (Geograpihic
Information Systems) o SIT (Sistemi Informativi Territoriali) che produce un
punto sulla mappa che identifica territorialmente il cliente. Per costruire la
curva si tracciano i raggi esploratori o radiali o stradali (a seconda delle
necessità) a vari step e, per ognuno di essi, si calcola il volume della
grandezza in analisi in relazione all’ammontare globale del fenomeno (ad
es. per un’azienda con 432 clienti, se nel raggio di 200 metri da essa
risiedono 50 clienti, l’indice di concentrazione di Lorenz a 200 metri vale
50/432).

165
Duccio Stefano Gazzei

Figura 35 – Il GeoMarketing: bacini definiti con la curva di Lorenz

Se tale operazione viene replicata per n aziende si avranno n curve di


Lorenz dalle quali (qualora fossero correlate) poter ricavare una legge
generale che diventerà la regola con la quale creare nuovi bacini o
verificare le potenzialità di quelli esistenti.

Figura 36 – Il GeoMarketing: l’analisi di fattibilità e di potenziale con la curva di Lorenz

166
Statistics for Evaluation

Riassumendo quanto finora illustrato, si può dire che con il GeoMarketing


statistico è possibile ottenere in maniera precisa e dinamica una serie di
informazioni che permettono di intraprendere varie azioni strategiche:

Informazioni Azioni

- individuare aree di sovrapposizione tra punti


vendita o di zone di vuoto d’offerta
- stimare per ciascun punto vendita i relativi
obiettivi di budget, commisurati all’ampiezza
e tipologia di zona attribuita
individuazione dei bacini di utenza di
ciascun punto di vendita e relativa - ottimizzare la rete esistente (allocare più
connotazione territoriale risorse in zone non completamente sfruttate
o valutare chiusure o riposizionamenti di
punti vendita in posizioni sfavorevoli)
- ottimizzare il numero di dipendenti per punto
vendita, con criteri di assegnazione fondati
anche sulla base del tipo di potenziale di
clientela attesa nel bacino di riferimento

- stimare i bacini d’utenza a maggior


potenziale per la localizzazione di nuovi
caratterizzazione del profilo socio- punti vendita
demografico della popolazione residente - segmentare la domanda secondo gli stili di
in relazione al target di clientela vita e in base al territorio d’insediamento
d’interesse
- personalizzare le strategie di marketing e di
offerta prodotti a seconda del bacino
d’utenza considerato

- effettuare comunicazioni di direct marketing


differenziate e mirate al target di clientela
prospect e clientela già acquisita rilevabile
sul territorio
determinazione dei profili di consumo, - calcolare la domanda potenziale per
segmentati in differenti categorie ciascuna categoria di prodotto e per zona
merceologiche per ogni contesto d’interesse in funzione della localizzazione
territoriale omogeneo del target di clientela
- fidelizzare maggiormente la propria clientela
di bacino offrendo maggiore qualità del
servizio personalizzato sulle necessità
primarie del target in questione (riducendo
rischio di attrition a favore dei competitors)

167
Duccio Stefano Gazzei

Infine, oltre alla determinazione del market share del proprio brand e di
quello dei competitors, nelle diverse realtà territoriali, è possibile analizzare
le direttrici dei flussi di acquisto, tramite il monitoraggio della distanza e
delle traiettorie percorse dal luogo di residenza del cliente al luogo in cui è
presente il punto vendita presso il quale il cliente si reca (ad es. nei casi di
realtà come quelle bancarie o di tutti quei punti vendita con fidelity-card che
consentono di avere informazioni relativamente al domicilio dell’acquirente).

168
Statistics for Evaluation

IL CASO – TERRITORIO, CLIENTI, POTENZIALE: EFFICIENTARE LA


RETE ED I SERVIZI

Introduzione

La banca NOMEBANCA vanta una rete di qualche centinaio di agenzie


dislocate su tutto il territorio nazionale ma certo non può competere, in termini
di numerosità e copertura del territorio, con i principali gruppi bancari italiani.
Da qui nasce l’esigenza di presidiare il mercato fornendo un servizio sempre
più specializzato alla clientela tramite l’offerta di prodotti “modellata” sui
differenti bisogni della clientela, in modo da diventare la banca di riferimento
per la qualità delle prestazioni offerte.

In virtù di questo, la strategia di sviluppo e consolidamento della rete delle


agenzie adottata da NOMEBANCA si basa su un approccio nuovo, di tipo
bottom-up che ribalta la metodologia top-down utilizzata finora. L’assunto
base da cui partire, e sul quale è centrata l’attività dell’intera banca, è la
conoscenza del Cliente, ovvero la conoscenza delle sue caratteristiche
distintive che si tramutano in esigenze e come tali debbono essere sviluppate
in un modello di servizio altamente qualificato, che sia facilmente adattabile e
modulabile ad ogni situazione.

È quindi evidente che l’analisi approfondita della clientela non possa


prescindere dalla conoscenza del territorio dove opera ogni sportello: la
conoscenza del territorio porta alla conoscenza dei clienti (1° legge armonica
della domanda).

Individuazione dei bacini di utenza delle Agenzie

A seguito di questo, il primo step di analisi è stato quello di individuare il


bacino di utenza di ogni agenzia NOMEBANCA utilizzando la logica dei raggi
esploratori ed ottenendo così la porzione di territorio che “gravita” attorno allo
sportello. La dimensione di questi raggi è stata determinata analizzando
congiuntamente sia la densità di sportelli NOMEBANCA presenti nel territorio
(tasso di copertura territoriale), sia il grado di dispersione dei clienti intorno

169
Duccio Stefano Gazzei

all’agenzia all’aumentare della distanza.

Da questo studio preliminare sono emerse 6 differenti classi di raggio che


sono inevitabilmente caratterizzate dalla tipologia di territorio presidiato:
NOMEBANCA infatti è presente soprattutto nelle principali città e come tale la
caratterizzazione urbana dei bacini risulta essere determinante e dominante.
Nel dettaglio, sono stati applicati modelli differenti per le agenzie
metropolitane in base alla zona d’insediamento (centro città, quartieri
semicentrali oppure zone periferiche sia storiche che di nuova
urbanizzazione), e per quelle posizionate negli altri comuni capoluoghi di
provincia in base al numero di agenzie attive (comuni a minor presidio oppure
Agenzie uniche del comune)

La tabella che segue riepiloga, per ogni classe di territorio, la dimensione del
raggio utilizzata per determinare il bacino d’utenza di ogni agenzia. È stata
ricavata considerando la curva di Lorenz per ogni agenzia e pervenendo alla
determinazione di sei gruppi analizzando i dati con la metodologia nota come
delle k-medie:

Raggio N. Agenzie
Tipologia di bacino
esploratore NOMEBANCA
1. CENTRO CITTÀ 300 m 95
2. SEMICENTRO 600 m 46
3.PERIFERIA 850 m 102
4. NUOVA PERIFERIA 1.250 m 13
5. COMUNI A MINOR PRESIDIO 600 m 169
6. AG. UNICHE NEL COMUNE 850 m 286

Tabella 20 – Raggio esploratore per caratteristica del territorio

Le ipotesi teoriche che stanno alla base dell’identificazione del bacino,


muovono dal presupposto della raggiungibilità e della vicinanza dell’agenzia
rispetto al luogo di residenza o di lavoro della clientela. Il bacino finale è dato
dall’unione delle sezioni di censimento che ricadono all’interno della distanza
espressa dal raggio esploratore. Tali suddivisioni territoriali sono però delle
mere aggregazioni geometriche e quindi non necessariamente
“rappresentative” della complessità del territorio in analisi (soprattutto nel
caso di grandi Centri Urbani) ed individuano, quindi, le zone di competenza
naturale di ogni sportello.

170
Statistics for Evaluation

È necessario quindi analizzare l’area di influenza tenendo conto della


conformazione del territorio oggetto di studio, valutandone il grafo stradale e
la presenza di impedimenti fisici (come, ad esempio, la presenza di un fiume
senza un ponte oppure di una stazione ferroviaria o di una grande arteria
stradale-autostrada, etc.), ottenendo infine la definizione della zona su cui
insiste realmente l’agenzia: ovvero il bacino d’influenza reale è ottenuto
adattando il bacino naturale (definito dal raggio esploratore) alla reale
complessità del territorio in esame.

Questo ulteriore step di analisi ha consentito uno studio del territorio più
accurato, dando l’opportunità di caratterizzare ulteriormente l’area di
competenza di ciascuna agenzia quantificandone dettagliatamente la
domanda potenziale (espressa sia in termini quantitativi che qualitativi
profilando i possibili clienti secondo i target di mercato – Affluent, Family,
Business) congiuntamente con la pressione concorrenziale dovuta alla
presenza di sportelli di altri istituti di credito.

Segmentazione territoriale secondo la logica dell’infocubo

Combinando le differenti specifiche di mercato è possibile perciò classificare i


bacini ottenuti in cluster omogenei di potenziale, individuando le principali
determinanti sociali, demografiche ed economiche peculiari della zona che
caratterizzano la potenziale clientela dell’agenzia e i relativi comportamenti
economico-finanziari.

Alla luce di questo, sono stati individuati 3 indicatori, ottenuti come


combinazione delle principali variabili di territoriali che meglio discriminano le
diverse tipologie di mercato, che sono risultati essere molto correlati con le
caratteristiche della clientela NOMEBANCA. Nel dettaglio, i bacini delle
agenzie sono stati classificati in base ai seguenti indici:

- Indice di scolarizzazione: che esprime la quota di abitanti in possesso di


diploma di scuola superiore o laurea rispetto al totale della popolazione
del bacino analizzato
- Indice di Consumo per famiglia: utilizzato come proxy del livello di
reddito dei residenti della zona, esprime il consumo medio per nucleo
familiare

171
Duccio Stefano Gazzei

- Indice di presenza/assenza delle Unità Locali ottenuto dal rapporto tra le


Unità Locali e la popolazione residente del bacino il quale esprime in
che misura attività commerciali e unità locali sono presenti all’interno del
micro-mercato dell’agenzia.

Confrontando i valori dei singoli indici rispetto al dato medio della Provincia di
riferimento, è possibile raggruppare ogni mercato come “A” se il valore
dell’indice a livello di bacino è superiore alla media provinciale e “B” in caso
contrario. La combinazione di queste 3 variabili permette la costruzione
dell’infocubo territoriale che determina 8 differenti tipologie di mercato:

Figura 37 –Rappresentazione grafica infocubo

Ad esempio, il cluster “AAB” individua le aree caratterizzate da un elevato


tasso di scolarizzazione dei residenti, un livello di reddito-consumi superiore
alla media della provincia e una scarsa presenza di negozi, esercizi pubblici e
altre attività commerciali. Si tratta di un bacino ubicato in una zona pregiata,
spesso fuori dai perimetri del centro storico ma comunque collocato in un
quartiere “bene”, caratterizzato dalla presenza di abitazioni di pregio e da una
quasi totale assenza di attività commerciali e di servizio alla persona. Territori
di questo tipo sono, nella maggior parte dei casi, delle zone residenziali: le
persone vi abitano ma, in modo del tutto naturale, tendono a spostarsi
secondo alcune dinamiche quotidiane di flusso come il pendolarismo o
secondo alcune logiche commerciali collegate allo shopping trip.

172
Statistics for Evaluation

Un bacino “AAB” è caratterizzato da un mercato bancario particolare, definito


dalla presenza di clienti di alto livello (professionisti, dirigenti, imprenditori),
con una buona conoscenza dei prodotti finanziari, in età matura e
probabilmente già in pensione. Si tratta di clientela di tipo Affluent, ovvero
appartenente a quel target di mercato che garantisce una maggiore redditività
alla banca e come tale sarebbe opportuno definire un modello di servizio in
grado di soddisfarne le esigenze. Da qui nasce l’opportunità di personalizzare
l’agenzia sul cliente ed i suoi bisogni, che in un territorio di questo tipo diviene
più accogliente, con meno casse e più salotti consulenza, e con una marcata
impronta specialistica nella gestione commerciale: tutto questo a conferma
che la conoscenza del territorio porta alla conoscenza del cliente e quindi al
raggiungimento degli obiettivi commerciali e di redditività della banca.

Nella tabella sono riepilogati gli 8 cluster derivanti dalla composizione


dell’infocubo territoriale con una breve descrizione delle caratteristiche
principali del mercato di riferimento. Tale segmentazione ha permesso
l’identificazione di differenti modelli di servizio idonei a ogni tipo di territorio
individuato e, di conseguenza, a ogni tipo di cliente.

Tipologia di bacino Descrizione della zona Elementi caratterizzanti dell’Agenzia

Alta Scolarizzazione Zona residenziale, pregiata. Agenzia specializzata di tipo Affluent/Affari


Alto Reddito Centro città, centro storico di grande Clienti: Professionisti, Imprenditori, Dirigenti, Pensionati,
Alta presenza UULL città Commercianti (Residenti), Impiegati(Pendolari)
Alta Scolarizzazione Agenzia specializzata di tipo Affluent
Zona residenziale, pregiata, spesso
Alto Reddito Clienti: Professionisti, Imprenditori, Dirigenti, Pensionati
sono villette singole
Bassa presenza UULL Età: medio alta
Agenzia Family/Affari
Alta Scolarizzazione Zona residenziale sviluppata dal punto
Clienti: Pensionati, Commercianti (Residenti), Impiegati, dipendenti
Basso Reddito di vista commerciale, semicentrale o
(Pendolari)
Alta presenza UULL periferica
Età: media

Zona residenziale di nuova edificazione, Agenzia non specializzata. Se la zona è di buona qualità può
Alta Scolarizzazione
non ancora sviluppata dal punto di vista diventare una Agenzia Specializzata Affluent
Basso Reddito
commerciale, semicentrale o periferica. Clienti: Giovani coppie laureate
Bassa presenza UULL
Può essere una zona dormitorio Età: bassa
Bassa Scolarizzazione Zona residenziale, pregiata. Centro Agenzia specializzata di tipo Affluent/Affari
Alto Reddito città, centro storico di Clienti: Imprenditori, Artigiani, Pensionati, Commercianti
Alta presenza UULL grande città (Residenti), Impiegati (Pendolari)
Bassa Scolarizzazione Agenzia specializzata di tipo Affluent
Zona residenziale, pregiata. Spesso
Alto Reddito Clienti: Imprenditori, Artigiani, Pensionati
sono villette singole.
Bassa presenza UULL Età: media
Bassa Scolarizzazione Agenzia Family/Affari
Zona periferica, suburbana, sviluppata
Basso Reddito Clienti: Pensionati, Casalinghe, Commercianti (Residenti), Impiegati
dal punto di vista commerciale
Alta presenza UULL ed Operai (Pendolari)
Bassa Scolarizzazione Agenzia non specializzata.
Basso Reddito Zona degradata, dormitorio Clienti: Pensionati, Casalinghe
Bassa presenza UULL Età media: medio alta

Tabella 21 – Segmentazione territoriale dei bacini gravitazionali

173
Duccio Stefano Gazzei

Attraverso lo studio approfondito del territorio dove opera l’agenzia, sono


emerse relazioni molto forti tra le caratteristiche della clientela dello sportello
NOMEBANCA e le principali determinanti del mercato, a conferma del fatto
che lo stile di vita di ciascun individuo è ben spiegato dall’area in cui vive. In
virtù questo e seguendo la logica dell’infocubo è stato possibile segmentare la
clientela di NOMEBANCA in modo da renderla confrontabile e comparabile
con il dato di mercato.

Ottimizzazione della rete ed efficientamento dei servizi

La caratterizzazione del bacino d’utenza e della tipologia di cliente attesa dato


il territorio, permette di poter individuare con maggior precisione quali siano le
zone d’interesse per effettuare nuove aperture e quale sia il miglior modello di
layout di agenzia e il numero di risorse da assegnare affinché le nuove filiali
della banca possano andare a break even nel minor tempo possibile. Infatti,
una volta individuati i target di clientela di maggior interesse, si potrà
tematizzare il territorio sulla base delle caratteristiche distintive della clientela
scelta, andando a rilevare quali siano le zone con maggior probabilità di
individuare i segmenti obiettivo. L’immagine mostra un esempio di come sia
possibile tematizzare il territorio sulla base di una o più caratteristiche
d’interesse: in essa è possibile individuare a colpo d’occhio le porzioni di
territorio maggiormente interessanti (colorate in blu), a scapito di quelle con
un indicatore di potenziale più basso (colorate in giallo).

Figura 38 – Nuova apertura: tematizzazione del potenziale territoriale

174
Statistics for Evaluation

Tutte le principali informazioni sul potenziale esterno del micromercato,


unitamente alle caratteristiche della clientela interna già “portafogliata”, sono
state riepilogate nella scheda commerciale di agenzia. Questa scheda
consente quindi di valutare le principali opportunità di business di ogni
sportello, confrontando la distribuzione dei clienti interni con quella potenziale
del bacino evidenziando i segmenti target verso i quali pianificare le
campagne di marketing. Di ogni mercato si conoscono infatti dati relativi alla
ricchezza media, all’età dei residenti e alla condizione professionale, nonché
alla densità di popolazione e alla presenza di esercizi commerciali suddivisi
per settore di attività economica. Infine, nella scheda è presente anche una
sezione dove si confrontano le caratteristiche del micromercato dell’agenzia
con quelle del comune e della provincia di riferimento, in modo da avere una
panoramica completa sulle potenzialità di ogni sportello NOMEBANCA.

Tornando alla relazione mostrata nella Figura di questo capitolo, conoscendo


le variabili caratterizzanti i bacini di gravitazione di ogni agenzia e i clienti che
l’agenzia stessa ha acquisito negli anni, è possibile studiare (utilizzando ad
esempio strumenti di conjoint analysis), la prima relazione fondamentale:
Numero e tipologia clienti = f (Localizzazione)

Classificando i clienti in tipologie comportamentali e studiando le loro


caratteristiche (quali prodotti possiede in media ogni tipologia di cliente, il
relativo indice di cross selling nel tempo, etc.) è possibile pervenire alla stima
della seconda relazione fondamentale:
Composizione Paniere di Produzione = f (Numero e tipologia clienti)

Infine si tratta di definire l’ultima relazione fondamentale che lega la


performance dell’agenzia ai clienti e al loro portafoglio prodotti. In
NOMEBANCA, conoscendo le tipologie di clienti di ogni agenzia, è possibile
stimare un Margine di Intermediazione atteso per l’anno successivo
(MARGINE potenziale) usando la seguente formula:
MARGINE potenziale = b1Segmento1 + b2Segmento2 + … + b7Segmento7 + ei

dove i coefficienti b rappresentano i margini medi per 7 segmenti di clienti


individuati in NOMEBANCA.

175
Duccio Stefano Gazzei

Il confronto tra il Margine di Intermediazione atteso (“MARGINE potenziale”


sull’asse orizzontale) e il Margine di Intermediazione reale (“MARGINE reale”
sull’asse verticale) è riportato nel grafico seguente:

Figura 39 – Confronti fra “Margine Potenziale” e “Margine Reale”

Il livello di correlazione tra le due variabili, espresso graficamente dalla vicinanza


dei punti (ognuno dei quali rappresenta una Agenzia) alla retta di regressione,
mostra quanto sia importante la localizzazione di ogni punto vendita: è il bacino
di gravitazione che determina il tipo dei clienti che frequenteranno il punto
vendita, il paniere di prodotti e servizi che questi compreranno e, quindi, la
performance di vendita della Banca.

Conclusioni

Nel breve caso illustrato si osservano solo alcune delle occorrenze per le quali il
GeoMarketing statistico è ritenuto un utile strumento di supporto: individuare
territorialmente i segmenti di clientela migliore, concentrare le aperture in zone
ad alta attrattività, potenziare la presenza sul territorio al fine di avvicinarsi o
raggiungere una “massa critica” competitiva, garantire un miglior servizio alla
clientela attraverso il perfezionamento della contiguità geografica delle filiali e
dell’adeguamento dei prodotti alla tipologia di clienti che si trovano in un
territorio.

176
Statistics for Evaluation

IL CASO – L’INDIVIDUAZIONE DELLE ZONE A BASSA ED ALTA


SCOLARITA’ UTILIZZANDO LA REGRESSIONE LINEARE
Definiamo “Indice di Scolarità (IND_SCOL)” la seguente misura :
IND_SCOL = Numero di laureati / Popolazione Residente
Supponiamo di avere un file, con dettaglio provinciale, contente le
informazioni relative alla “Popolazione residente” ed al “Numero dei laureati”
di ogni popolazione relativa.
N PROVINCIA POPOLAZIONE RESIDENTE LAUREATI
1 AG 450.034 98.011
2 AL 418.203 73.348
3 AN 446.106 91.062
4 AO 120.909 24.214
5 AP 372.407 73.387
6 AQ 298.082 61.339
7 AR 326.172 63.754
8 AT 207.386 38.300
9 AV 432.115 91.810
10 BA 1.564.122 356.223

E’ possibile individuare le Province ad alta scolarità e separarle dalle altre


utilizzando la regressione lineare, ipotizzando un modello
y i  b 0  b1 xi   i [52]
Dove
y = Numero Laureati
x = Popolazione residente
Utilizzando il tool di Excel “Analisi dati”, selezionando “Regressione lineare”,
è possibile ottenere le seguenti statistiche di stima:

177
Duccio Stefano Gazzei

OUTPUT RIEPILOGO

Statistica della regressione


R multiplo 0,9960
R al quadrato 0,9921
R al quadrato corretto 0,9920
Errore standard 11.604,70
Osservazioni 103,00

ANALISI VARIANZA
gdl SQ MQ F Significatività F
Regressione 1 1,7002E+12 1,7002E+12 12625,00674 6,787E-108
Residuo 101 13601576966 134669078,9
Totale 102 1,7138E+12

Coefficienti Errore standard Stat t Valore di significatività


Intercetta - 2.594,63 1.551,86 - 1,67 0,10
POPOLAZIONE RESIDENTE 0,21 0,00 112,36 0,00

Sono tutti valori buoni, tranne che per l’intercetta, che il test t ci identifica
come non significativa (accettazione H0: intercetta = 0).
Ripetiamo la stima imponendo il passaggio dall’origine degli assi:

OUTPUT RIEPILOGO

Statistica della regressione


R multiplo 0,9977
R al quadrato 0,9955
R al quadrato corretto 0,9857
Errore standard 11.706,39
Osservazioni 103,00

ANALISI VARIANZA
gdl SQ MQ F Significatività F
Regressione 1 3,06898E+12 3,06898E+12 22394,83035 2,1714E-120
Residuo 102 13978029956 137039509,4
Totale 103 3,08295E+12

Coefficienti Errore standard Stat t Valore di significatività


Intercetta
POPOLAZIONE RESIDENTE 0,21 0,00 149,65 0,00

A questo punto è possibile tracciare la nostra retta di regressione:


y i  0,21x i

Gli eventuali scostamenti positivi di alcune province ci forniranno l’indicazione


cercata sulla loro più alta scolarità: anzi il rapporto tra i laureati effettivi ed il
valore stimato della y ci fornirà anche una misura puntuale del più alto livello
di scolarità.

178
Statistics for Evaluation

900.000
800.000
700.000
Numero laureati 600.000
500.000
400.000
300.000
200.000
100.000
-
- 1.000.000 2.000.000 3.000.000 4.000.000
Popolazione residente

5.2.1 Le attività e le metriche del CRM

In economia aziendale il concetto di Customer Relationship Management


(termine inglese spesso abbreviato in CRM) o gestione delle relazioni con i
clienti è legato al concetto di fidelizzazione dei clienti.
In un'impresa "market-oriented" il mercato non è più rappresentato solo dal
cliente, ma dall'ambiente circostante, con il quale l'impresa deve stabilire
relazioni durevoli di breve e lungo periodo, tenendo conto dei valori
dell'individuo/cliente, della società e dell'ambiente. Quindi l'attenzione verso
il cliente è cruciale e determinante. Per questo motivo il marketing
management deve pianificare e implementare opportune strategie per
gestire una risorsa così importante.
Il CRM si spinge sostanzialmente secondo quattro direzioni differenti e
separate:
 Il mantenimento dei propri clienti
 l'aumento delle relazioni con i clienti più importanti (o "clienti
coltivabili")
 la fidelizzazione più longeva possibile dei clienti che hanno maggiori
rapporti con l'impresa (definiti "clienti primo piano")

179
Duccio Stefano Gazzei

 la trasformazione degli attuali clienti in procuratori, ossia consumatori


che lodano l’azienda incoraggiando altre persone a rivolgersi alla
stessa per i loro acquisti
Esistono due strutture che compongono il CRM:
1. CRM operativo: dove si studiano:
a. soluzioni metodologiche e tecnologiche per automatizzare i
processi di business che prevedono il contatto diretto con il
cliente.
b. metodologie e tecnologie integrate con gli strumenti di
comunicazione (telefono, fax, e-mail, ecc.) per gestire il
contatto con il cliente.
2. CRM analitico: procedure e strumenti per migliorare la conoscenza
del cliente attraverso l'estrazione di dati dal CRM operativo, la loro
analisi e lo studio revisionale sui comportamenti dei clienti stessi.
L'errore più comune in cui ci si imbatte quando si parla di customer
relationship management è quello di equiparare tale concetto a quello di un
software. Il CRM non è una semplice questione di marketing né di sistemi
informatici bensì si avvale, in maniera sempre più massiccia, di strumenti
informatici o comunque automatizzati, per implementare il management. Il
CRM è un concetto strettamente legato alla strategia, alla comunicazione,
all'integrazione tra i processi aziendali, alle persone ed alla cultura, che
pone il cliente al centro dell'attenzione sia nel caso del business-to-
business sia in quello del business-to-consumer.
Le applicazioni CRM servono a tenersi in contatto con la clientela, a inserire
le loro informazioni nel database e a fornire loro modalità per interagire in
modo che tali interazioni possano essere registrate e analizzate.
Prima di seguire la strada del CRM ogni azienda deve essere consapevole
che:
 bisogna investire prima in strategia, organizzazione e
comunicazione, solo dopo nella tecnologia. La scelta del software
non ha alcun effetto sulla probabilità di successo. Ciò non implica

180
Statistics for Evaluation

che i software siano tutti uguali, ma significa solo che nessun


software porterà al successo un progetto sbagliato.
 il CRM è adatto sia a quelle aziende che cercano un Return on
investment (ROI) veloce sia a quelle che curano il processo di
fidelizzazione e l'aumento del Lifetime value (LTV) dei clienti che
richiede del tempo.

5.2.2 La realizzazione di una campagna commerciale

Una “campagna commerciale” è una iniziativa volta ad indirizzare una


operazione massiccia di vendita ad un determinato target di clientela
utilizzando i propri canali id vendita. Tale iniziativa è gestita
prevalentemente dal CRM operativo che, oggi, sfrutta al massimo la
multicanalità.
In pratica, per scegliere quale prodotto vendere, a quale cliente, utilizzando
un determinato canale, si utilizza una matrice tridimensionale che esprime,
per cliente, l’atteggiamento verso i canali (sportello, gestore, telefono,
internet, atm.) e, contemporaneamente, verso le varie categorie di prodotti
da vendere attraverso i canali stessi.
La matrice tridimensionale si presenta come il “cubo” in Fig.27, che
contiene le seguenti relazioni:
- Relazione tra ogni segmento di clientela ed ogni canale;
- Relazione tra ogni segmento di clientela ed ogni prodotto;
- Relazioni tra ogni canale ed ogni prodotto.
Ogni cella del cubo contiene dei coefficienti che esprimono la propensione
di ogni segmento a comprare un certo tipo di prodotto attraverso un canale.
Esempio: b 2,1,1 è il coefficiente che rappresenta l’incrocio tra il segmento
n°2, il canale n°1 ed il prodotto n°1. Se ad esempio il Segmento n°2 è il
Tycoon , il canale n°1 è il negozio, ed il prodotto n°1 è il prodotto “alfa”,
b 2,1,1 indicherà la propensione del Tycoon a comprare in negozio il prodotto
“alfa”. Se tale propensione è espressa in forma percentuale, essa esprime

181
Duccio Stefano Gazzei

la percentuale dei Tycoon che è probabile possa presentarsi nel negozio


per comprare una prodotto “alfa”.

Segmenti di clientela

ti
ot
od
Pr
Canali

Figura 40 – Il “cubo” della multicanalità

Da quanto detto è evidente che ogni “fetta” orizzontale del cubo


rappresenta una matrice che esprime il legame canale-prodotto per uno
specifico segmento.
Insieme alle regole “cubo”, esistono, per azienda dei “parametri” che
caratterizzano l’utilizzo dei canali.
Prendiamo ad esempio, per una Banca, il canale “Consulenti”. Per
realizzare un contatto di vendita quest’ultimo dovrà stabilire una relazione
(appuntamento) con il cliente utilizzando il telefono.
Supponiamo di conoscere, per ogni segmento, i parametri che definiscono
le regole di attivazione del canale :
 Regola n°1 Il numero delle telefonate con risposta = 50% * Numero
tentativi di telefonata
 Regola n°2 Numero di appuntamenti = 85% * Numero telefonate
con risposta
 Regola n°3 Numero di vendite = 55% * Numero di appuntamenti

182
Statistics for Evaluation

Se vogliamo ottenere n°10 vendite, dovremo effettuare n°18 appuntamenti


(=10 / 0,55); per ottenere n° 18 appuntamenti dovremo effettuare n°21
telefonate valide (= 18 / 0,85); infine per effettuare n°21 telefonate sarà
necessario fare n°42 tentativi (= 21 / 0,50).
Stessa cosa per altri canali.
Ad esempio se vogliamo stimolare l’acquisto di un prodotto via Internet con
invio di messaggi e-mail e sappiamo che esistono le seguenti regole:
 Regola n°1 Numero di vendite = 2% * Numero di e-mail inviate

Se vogliamo ottenere n°10 vendite, dovremo inviare n°500 messaggi e-mail


(=10 / 0,02)
Mentre le informazioni contenute nel “cubo” caratterizzano lo stile di vita del
cliente e del rispettivo segmento, i parametri di ogni canale sono legati
all’organizzazione tecnologica e logistica dell’Azienda.
Quindi il CRM utilizza, in modo integrato:
a) il database sui clienti
b) le tecniche di scoring
c) gli strumenti di comunicazione (basati su una profonda conoscenza
del cliente)

Il database sui clienti: il cosiddetto CIF (Customer Information File)


La nuova attenzione rivolta al cliente, e la necessità di sviluppare un
marketing relazionale, si traducono operativamente nella messa a punto del
CIF, nel quale vengono memorizzate, in sistema ad infocubo
(datawarehouse), tutte le informazioni relative al cliente-cittadino-
consumatore-ascoltatore-lettore-internauta.
Il CIF contiene:
 INFORMAZIONI DI RICONOSCIMENTO: reperite dall’archivio clienti
e depurate, tramite apposite procedure edp, dai casi di

183
Duccio Stefano Gazzei

omonimia/doppione di clienti. A ciascun nominativo del database


viene assegnato un codice numerico di riferimento (NDG)
 INFORMAZIONI DESCRITTIVE:
o Di natura socio-demografica. Attraverso i moderni GIS
(Sistemi di Geomarketing) è possibile associare al cliente le
informazioni relative alla zona censuaria/area geografica di
appartenenza (es.: livello di reddito, consumi, grado di
scolarizzazione, grado di rischio, valori catastali, etc.);
o Di natura economico-patrimoniale: reddito, patrimonio (AUM),
eredità o lasciti del cliente;
o Provenienti da ricerche di mercato: “vissuto” dei prodotti e
della banca presso la clientela (es.: penetrazione del brand
nella zona di residenza), intenzioni e comportamento
d’acquisto, etc.
o Dati acquisiti da banche dati esterne: grado di istruzione del
cliente, stato civile, età, numero dei figli, titolo di possesso e
valore dell’abitazione, possesso e valore dell’automobile;
 INFORMAZIONI GESTIONALI
o Variabili di rapporto bancario: eventi che interessano il cliente,
suoi comportamenti finanziari (prodotti bancari e parabancari
posseduti e data della loro acquisizione o cessazione, credito
richiesto/accordato, importo rate e debito residuo,
contestazioni, consistenze medie e alla data, sconfinamenti,
reclami, redditività del cliente, protesti, etc.)
o Informazioni elaborate: indicatori sui prodotti posseduti,
rapporto tra numero di adesioni e numero di proposte di servizi
inviate dalla banca (il rapporto fornisce un indice di
propensione al direct marketing);
 IL SISTEMA DI SEGMENTAZIONE
o Il segmento “a priori” di appartenenza (spesso basate su
variabili psicografiche come cultura, valori, stili di vita, tratti

184
Statistics for Evaluation

della personalità, predisposizione all’autonomia decisionale o


alla delega, al risparmio o al consumo)
o Il segmento “a posteriori” di appartenenza
o Il segmento comportamentale (frequenza degli acquisti, data
di ultimo acquisto, valore monetario medio degli acquisti,
numero operazioni e transato medio carte, etc.)
o Informazioni provenienti da modelli di scoring

5.2.3 La valutazione dell’efficacia di una campagna commerciale

Tassi di Redemption
“Tasso di Redemption” è un termine che nel marketing indica il risultato in
termini assoluti o percentuali di una operazione promozionale o di vendita.
In termini percentuali, è il rapporto tra il numero di risposte ottenute ed il
numero totale di contatti presi in considerazione per una determinata
iniziativa di marketing.
In un'azione di direct marketing è, ad esempio, il rapporto fra il numero di
risposte ed il numero dei messaggi inviati.
Abbiamo riportato, di seguito, alcuni “Tassi di Redemption” associati ai
principali strumenti utilizzati sono i seguenti:
 Redemption Direct E-Mail Marketing: 1-3%; (con liste preparate in
Azienda si arriva fino a 10%);
 Redemption Telemarketing: 5-20%;
 Redemption Personal Selling: 30%.

185
Duccio Stefano Gazzei

IL CASO – ESEMPIO CAMPAGNA “PRESA APPUNTAMENTI


COMMERCIALI”:
Facciamo un esempio sulla presa appuntamenti commerciali
Sfruttando le caratteristiche del Marketing Diretto è possibile verificare la
bontà degli Strumenti Direct Marketing, beneficiando un’ipotesi di
“redemption” a preventivo
Partendo da una lista di 400 clienti da contattare, possiamo organizzare la
Campagna di Marketing Diretto con le seguenti modalità:

1.invio 100 lettere cartacee;

2.invio 100 e-mail;

3.Esecuzione 100 telefonate;

4.Esecuzione 100 visite “a freddo”.

L’ipotesi di redemption associata a questa Campagna è la seguente:

 invio 100 lettere cartacee: 3 clienti su 100 fisseranno appuntamento


(3% Redemption minimo);

 invio 100 e-mail: 5 clienti su 100 fisseranno appuntamento (5%


Redemption minimo);

 Esecuzione 100 telefonate: 15 clienti su 100 fisseranno appuntamento


(15% Redemption minimo);

 Esecuzione 100 visite commerciali: 30 clienti su 100 fisseranno 2°


appuntamento (30% Redemption minimo).

Analisi delle modalità caratterizzanti


Per individuare le caratteristiche distintive tra case e control viene effettuata
un’analisi che abbiamo chiamato «delle modalità caratterizzanti» : l’idea è
individuare quelle variabili che non sono omogeneamente distribuite nei due
gruppi «1» (coloro che hanno acquistato il prodotto) e «0» (coloro che non
hanno acquistato il prodotto). Anzi la particolare concentrazione di una

186
Statistics for Evaluation

variabile in un gruppo può far pensare che la variabile stessa «caratterizzi»


il gruppo.
Supponiamo di essere interessati ad analizzare la presenza della variabile
«Benestanti» (segmento Eurisko che evidenzia clienti con reddito ed età più
alti della media, con basso livello di scolarità) in due gruppi di clienti che
hanno o non hanno comprato un prodotto X. Le percentuali di Benestanti
sui due gruppi sono le seguenti:
 Gruppo 1 (clienti che hanno acquistato il prodotto): 43,10%
 Gruppo 0 (clienti che non hanno acquistato il prodotto) 12,32%
Ad una prima analisi sembra che la variabile «Benestanti» sia
particolarmente «penetrata» nel primo gruppo, composto per quasi la metà
da clienti di età e reddito più alti della media e basso livello di scolarità.
Quindi a prima vista, la variabile sembra caratterizzare il gruppo degli
acquirenti
Per sottoporre a test statistico la significatività della differenza tra le due
percentuali potremmo condurre un test «F» sulla omogeneità delle due
percentuali medie, confrontando le varianze dei due gruppi. Se tale
differenza viene considerata staticamente significativa allora la variabile
relativa viene considerata discriminate per il CASE. In pratica il test
permette di scegliere con un certo livello di significatività (ad esempio 5%)
tra l’ipotesi nulla di eguaglianza delle medie dei due gruppi a confronto e
l’ipotesi alternativa di diseguaglianza delle medie.
E’ possibile anche utilizzare una metodologia alternativa che sfrutta l’analisi
discriminante proposta da R.A.Fisher nel 1936 (The use of multiple
measurements in taxonomic problems). Questa prevede, nel primo step
procedurale, la selezione delle variabili capaci di meglio operare nella
discriminazione di due o più gruppi di individui.
In questo caso il test non si basa sulla omogeneità delle distribuzioni e delle
medie delle variabili nei due gruppi, ma dalla capacità della variabile di
separare la popolazione in due o più cluster
Nel caso preso in esempio, analizzeremo la capacità che ha la variabile
«Benestanti» di separare la popolazione presa in esame in due cluster che

187
Duccio Stefano Gazzei

corrispondono esattamente ai due gruppi «1» e «0» che hanno o non


hanno acquistato il prodotto. Quindi il test «F» verrà effettuato considerando
il rapporto tra la «varianza beetween» e la «varianza within».
Il test prevede come ipotesi nulla l’omogeneità delle due varianze ed un
rapporto che si distribuisce come una «F»
Generalmente i vari tool statistici forniscono un risultato come quello sotto.

Il primo valore (Total Standard Deviation=TSD) misura la Devianza Totale,


ovvero la somma in valore assoluto della differenza delle osservazioni dalla
media generale della popolazione presa in considerazione
Il secondo valore (Pooled Standard Deviation=PSD) rappresenta una
particolare versione della Varianza Within: si ottiene calcolando la somma
degli scostamenti, in valore assoluto, delle osservazioni all’interno di ogni
cluster rispetto alla media relativa al cluster. Ma la sommatoria prevede la
ponderazione per il numero delle osservazioni del cluster
Il terzo valore (Beetween Standard Deviation=BSD) rappresenta la varianza
Beetween.
Il quarto valore (R-Square) è dato dalla formula
R-Square = [(TSD^2) – (PSD^2) ]/(TSD^2) = [(0,3353^2) – (0,3326^2)
]/(0,3353) = [(0,112426) – (0,110623) ]/(0,1124260 = 0,0159.
Ci dice quanta parte della varianza totale è spiegata dalla varianza
beetween
Il quarto valore serve a calcolare il valore osservato della «F». Si utilizza la
formula proposta come «pseudo F” da Calinski and Harabasz (1974):
Pseudo F = [R-Square/(1-R Square)]x[(n-c)/(c-1)] = 0,0162 x (1752460 / 1)
= 28386,5 . Nella formula n = numero osservazioni = 1752462; c = numero
dei gruppi = 2.
L’ultimo valore rappresenta il p-value

188
Statistics for Evaluation

Il test rigetta l’ipotesi nulla. La variabile Benestanti risulta essere


significativamente discriminante.

189
Duccio Stefano Gazzei

IL CASO – ANALISI DELLE MODALITA’ CARATTERIZZANTI SU UNA


CAMPAGNA DI VENDITA DI BANCOMAT
La nostra banca decide di fare una campagna di vendita di bancomat ad un
campione di clienti che non ne hanno ancora fatto richiesta.
Viene inviata a domicilio la carta con le istruzioni per attivarla.
Solo una parte delle “plastiche” viene attivata. Il file che ci viene consegnato
ha la forma di cui alla tabella seguente:

TARGET
NDG (1=ATTIVATO_ ETA_MINORE_27 ETA_28_45 ETA_46_64 ETA_MAGGIORE_65 MASCHI
BANCOMAT)
3865 0 0 0 1 0 1
4787 1 0 0 1 0 1
20477 1 0 0 0 1 0
20726 0 0 0 0 1 0

Per ogni cliente, identificato dal codice NDG (Numero di Gestione), sono
riepilogate circa 50 variabili binarie (nella tabella sono riepilogate 5 variabili
input e la variabile output) che identificano le classi interessate. Per
esempio il primo cliente non ha attivato il bancomat, ha una età compresa
tra i 46 ed i 64 anni ed è un maschio. In totale stiamo analizzando n°4.000
clienti, n° 2.000 che hanno attivato la carta e n°2.000 no.
Se sommiamo per colonna i valori “1” di ogni variabile e rapportiamo il
totale sul numero dei clienti, abbiamo una misura delle penetrazione della
variabile sulle due popolazioni (clienti che hanno attivato la carta Vs clienti
che non hanno attivato)
Per esempio sulla prima variabile “Età_minore_27”, ho n°44 clienti (su 102)
che hanno meno di 27 anni che non hanno attivato la carta, mentre ne ho
160 che hanno accettato ed attivato il bancomat.
0 1 TOTALE %_0 %_1
Somma di ETA_MINORE_27 44 160 204 0,22 0,78

Se il carattere descritto dalla variabile fosse equidistribuito, dovrei avere


50% di penetrazione in entrambi i gruppi. Invece sembra che ci sia una
maggiore frequenza di clienti con una età inferiore a 27 anni nel gruppo che

190
Statistics for Evaluation

ha attivato la carta bancomat.


Proviamo stesso esperimento con la variabile che indica il Sesso. In questo
caso il valore “1” indica clienti di sesso maschile.
0 1 TOTALE %_0 %_1

Somma di MASCHI 892 1113 2005 0,44 0,56

Anche in questo caso sembra esserci una maggiore frequenza di “Maschi”


sul gruppo che ha attivato la carta.
Quindi le due variabili “Età minore di 27 anni” e “Maschi” sembrano essere
modalità caratterizzanti il gruppo che ha attivato la carta bancomat.
Supponiamo di replicare l’analisi per le variabili mostrate nell’esempio.
0 1 TOTALE %_0 %_1
Somma di ETA_MINORE_27 44 160 204 0,22 0,78
Somma di ETA_28_45 392 657 1049 0,37 0,63
Somma di ETA_46_64 699 792 1491 0,47 0,53
Somma di ETA_MAGGIORE_65 865 391 1256 0,69 0,31
Somma di MASCHI 892 1113 2005 0,44 0,56

E’ evidente che il gruppo dei clienti che ha attivato il bancomat ha una età
minore di 65 anni ed è prevalentemente maschile.
Se vogliamo essere sicuri che la diversa frequenza evidenzi effettivamente
una differenza tra i due campioni, possiamo utilizzare il test “Analisi della
Varianza (ANOVA), anche nella sua forma più semplice, e non nella
modalità spiegata nelle pagine precedenti. In questo modo è possibile
sfruttare il tool “Analisi dati” di Excel.
Ad esempio sulla variabile “Maschi”, confrontando i singoli valori dei due
campioni, si sottopone a test l’ipotesi nulla
H0 : “La percentuale dei Maschi nel Gruppo 0” = “La percentuale dei
Maschi nel Gruppo 1
Verso ipotesi alternativa
HA : “La percentuale dei Maschi nel Gruppo 0” ≠ “La percentuale dei
Maschi nel Gruppo 1

191
Duccio Stefano Gazzei

Analisi varianza: ad un fattore

RIEPILOGO
Gruppi Conteggio Somma Media Varianza
0 2000 892 0,45 0,25
1 2000 1113 0,56 0,25

ANALISI VARIANZA
Origine della variazione SQ gdl MQ F Valore di significatività F crit
Tra gruppi 12,21 1,00 12,21 49,42 0,00 3,84
In gruppi 987,78 3.998,00 0,25

Totale 999,99 3.999,00

L’analisi della varianza ci consente di rifiutare l’ipotesi nulla ed accettare


l’ipotesi alternativa.
La variabile “Maschi” è una modalità caratterizzante.

192
Statistics for Evaluation

CAPITOLO 6
LA VALUTAZIONE DELLE RISORSE UMANE

La valutazione del personale, in economia aziendale, indica il sistema operativo


dell'azienda avente lo scopo di far sì che per ciascun lavoratore venga espresso,
periodicamente e in base a criteri omogenei, un giudizio sul rendimento e le
caratteristiche professionali che si estrinsecano nell'esecuzione del lavoro.

Normalmente si fa rientrare questo sistema operativo nel più ampio sistema di


gestione e sviluppo delle risorse umane.

La valutazione del personale ha molteplici finalità, tra le quali si possono


ricordare:

- migliorare le prestazioni delle risorse umane orientandole verso il


conseguimento degli obiettivi aziendali;

- censire le competenze (ossia le conoscenze, i comportamenti e le capacità,


sintetizzabili nella formula "sapere, saper essere e saper fare") ed il potenziale
delle risorse umane in funzione dell'ottimale impiego delle stesse e del loro
futuro sviluppo;

- individuare la consistenza ottimale delle risorse umane ed eventuali necessità


di incremento attraverso la formazione del personale esistente o il
reclutamento di nuovo personale;

- fornire un input oggettivo e meritocratico al sistema incentivante dell'azienda, in


base al quale decidere gli incentivi (aumenti retributivi, premi una tantum,
progressioni di carriera ecc.) e le sanzioni al personale.

La valutazione può incentrarsi su diversi aspetti, in funzione dei quali si


identificano tre metodologie comunemente note come le "3 P":

- valutazione delle posizioni (non approfondita in queste pagine);

- valutazione delle prestazioni;

- valutazione del potenziale.

193
Duccio Stefano Gazzei

La valutazione è aperta anche al contributo delle organizzazioni sindacali, sia in


sede di definizione dei criteri di valutazione e del quantum degli incentivi, sia del
merito della valutazione del singola lavoratore.

La valutazione ha la funzione di garantire il diritto del lavoratore ad una equa


retribuzione, proporzionale a qualità e quantità del lavoro svolto, e alla
partecipazione al valore economico aggiunto creato per il lungo periodo in
azienda.

194
Statistics for Evaluation

6.1 La valutazione delle prestazioni

Questa attività è, di solito, strutturata in 4 fasi (Pianificazione degli Obiettivi,


Valutazione, Colloquio di Feedback e Piano di Sviluppo) e si svolge con
una ciclicità annuale: ha avvio nella parte finale di ogni anno per l’anno a
venire e termina entro il primo quadrimestre dell’anno successivo a quello
cui si riferisce. E’, inoltre, previsto un ciclo intermedio per condividere la
performance semestrale, in particolare, per cluster specifici (es. in caso di
mobilità, rientro dopo una lunga assenza, ecc.). I protagonisti sono sempre
due: il Manager (che rappresenta l’Azienda) ed il Collaboratore, in un
rapporto continuo di interscambio relazionale.
La prima fase detta di “Pianificazione degli Obiettivi” serve a fissare
target attuabili e correlati all’esperienza professionale e alle capacità del
Collaboratore oltre che coerenti con gli obiettivi aziendali. Si tratta di un
vero e proprio gentleman agreement tra Manager e Collaboratore, che,
insieme, fissano gli obiettivi annuali. Per il Manager, la somma degli obiettivi
assegnati ai propri “riporti”, costituisce il proprio obiettivo condiviso con il
proprio responsabile. E così a salire fino al numero uno dell’Azienda, il
Chief Executive Officer (CEO).
La “Valutazione” è il momento in cui il Manager, terminato il periodo (di
solito un anno), assegna un punteggio (di solito in una scala da 1 a 5) che
indica il grado di raggiungimento degli obiettivi:
1. Chiaramente al di sotto del target
2. Parzialmente in linea con il target
3. In linea con il target
4. Superiore al target
5. Ampiamente superiore al target

E’ fondamentale che si imponga al Manager di ottenere una distribuzione


per punteggio dei propri collaboratori che segua una gaussiana (vedi Fig.41
nel caso di n°9 collaboratori).

195
Duccio Stefano Gazzei

6
3 5 8
1 2 4 7 9
1 2 3 4 5
PUNTEGGIO

Figura 41 – Esempio di distribuzione di un team di 9 persone per punteggio sulle


valutazioni della prestazione

Questa modalità, che all’apparenza sembra risentire di una certa


meccanicità, ci fa però ottenere il risultato prezioso di imporre al Manager
una certa concentrazione per discriminare al meglio le performance dei
propri collaboratori. Altrimenti, è forte il rischio di una valutazione simile per
tutti i collaboratori, come fossero tutti uguali, magari per evitare le parti più
spigolose dei colloqui di feedback. Nell’esempio riportato in figura, se il
Manager sa di poter dare solo un “5”, ci pensa molto a lungo per individuare
il migliore dei Collaboratori. E nel fare questa attività di analisi, impara
sempre di più il suo mestiere di responsabile: dover decidere le graduatorie
di merito ed essere chiamato a spiegare i “perché” delle attribuzioni dei voti
“1” e “2”, comporta una totale presa in carico della responsabilità di
monitoraggio di ogni singola attività che i collaboratori hanno condotto nel
corso del periodo di riferimento della valutazione.
Quest’ultima si conclude, infatti, con un colloquio “faccia a faccia” tra
Manager e Collaboratore che rappresenta un momento formale per
riassumere il Colloquio di Feedback sull’andamento della prestazione. E’
comunque indispensabile che i Manager forniscano feedback con cadenza
regolare durante tutto l’anno.
Il Piano di Sviluppo rappresenta il momento in cui il Collaboratore, dopo il
colloquio di feedback, insieme al Manager, formalizza i bisogni formativi e le
azioni di miglioramento per accrescere competenze e abilità.

6.2 La valutazione del potenziale

Questa parte della valutazione è, quasi sempre, di competenza del


Manager ed è svolta da quest’ultimo senza un dialogo con il collaboratore.

196
Statistics for Evaluation

Anche in questo caso la valutazione viene fornita attribuendo un punteggio


(con adeguate motivazioni) che segue una scala da 1 a 5, come questa che
segue:
1. Chiaramente al di sotto delle potenzialità richieste dal ruolo rivestito
2. Parzialmente in linea con le potenzialità richieste dal ruolo rivestito
3. In linea con le potenzialità richieste dal ruolo rivestito
4. Ha potenzialità superiori a quelle richieste dal ruolo rivestito
5. Ha potenzialità ampiamente superiori a quelle richieste dal ruolo rivestito

La doppia attribuzione di punteggio ad ogni collaboratore consente la


costruzione della matrice raffigurata in Fig. 42, dove si evidenziano quattro
aree, che rappresentano altrettante linee ipotetiche di azione per “chiudere”
le quattro fasi del processo di valutazione.

Figura 42 – Matrice di combinazione delle due valutazioni di prestazione e potenzialità

Ad esempio:

- Settore A: Il Collaboratore merita una promozione a ruolo di maggiore


responsabilità;
- Settore B: Il Collaboratore deve essere rivitalizzato: nonostante venga
riconosciuto un alto potenziale, la performance non ha raggiunto un
livello accettabile. Le motivazioni possono essere molte (cattiva
relazione personale con il Manager, obiettivi assegnati con scarsa
attenzione alle caratteristiche del Collaboratore, etc.). Per questi motivi

197
Duccio Stefano Gazzei

una ipotesi di soluzione può essere quella di operare uno spostamento


del Collaboratore stesso in altri settori di (almeno) pari livello;
- Settore C: Pessima performance, scarso potenziale. E’ necessario,
quindi, valutare la possibilità di spostamento del Collaboratore in altri
settori dove magari sono richieste minori potenzialità, con la
contemporanea definizione di un piano di riqualificazione professionale
del Collaboratore;
- Settore D: Ottima performance, potenzialità in linea con il ruolo
ricoperto. Quindi è importante attribuire un premio “Una Tantum” per
riconoscere ed evidenziare l’ottima performance annuale.

198
Statistics for Evaluation

CAPITOLO 7
LA VALUTAZIONE DEGLI EFFETTI DELLE
POLITICHE PUBBLICHE

Intendiamo qui per “valutazione” l’attività analitica che utilizza i metodi delle
scienze sociali per giudicare gli effetti prodotti da un’azione pubblica.

Quando si applica la valutazione alla azione pubblica, questa, di solito, viene


impiegata per soddisfare cinque grandi tipologie di bisogni conoscitivi. Essa
viene infatti utilizzata:

a) Come strumento per allocare le risorse agli usi più meritevoli;

b) Come strumento di controllo della performance nell’ambito di


organizzazioni;

c) Come veicolo per rendere conto delle realizzazioni effettuate in un certo


ambito di azione pubblica;

d) Come strumento di analisi critica dei processi di attuazione di una politica;

e) Come stima degli effetti prodotti da una politica.

In tutti i casi dobbiamo adottare il cosiddetto “approccio controfattuale”: per


stabilire che effetto ha avuto una politica pubblica, occorre in qualche modo
ricostruire ciò che sarebbe successo in assenza di intervento. In sostanza questo
tipo di impostazione interpreta ciascuna politica pubblica come una “terapia”, cioè
come un trattamento somministrato a certi soggetti per curare (o in alcuni casi
prevenire) un determinato problema.

Una politica pubblica può ovviamente servirsi di una molteplicità di strumenti


“terapeutici”: può, ad esempio, utilizzare un trasferimento mirato di risorse,
un’imposizione di obblighi o divieti, un’erogazione di servizi a determinati utenti,
un incentivo che vuole favorire o inibire un particolare comportamento, una
campagna di comunicazione che tenta di modificare un certo atteggiamento. E
naturalmente può essere anche un mix più o meno complesso di questi diversi
strumenti. Ci si propone di valutare una politica pubblica deve essere in grado di

199
Duccio Stefano Gazzei

decifrare tale complessità e di riconoscere la particolare terapia che sta alla base
della politica nei suoi contenuti essenziali, in modo da stabilire che tipo di
trattamento è stato effettivamente somministrato, secondo quale logica quel
trattamento dovrebbe indurre un certo tipo dì cambiamento, chi tra i potenziali
beneficiari lo ha ricevuto ed eventualmente con quale intensità.

A questo punto ci si chiede: gli strumenti adottati hanno funzionato? La terapia è


stata efficace, nel senso che ha prodotto gli effetti desiderati?

Le risposte a queste domande non sono semplici, né univoche. La prima cosa da


definire è la “variabile-risultato” (outcome variables), che rappresenti, nel modo
migliore possibile, il problema che la politica intende affrontare. Può anche
capitare che un singolo problema possa essere rappresentato da più variabili
risultato.

Una volta stabilito su quale (o quali) variabile-risultato vanno ricercati gli effetti
della politica, è necessario individuare operativamente il “trattamento” in cui
concretamente consiste l’intervento pubblico che si intende valutare: occorre cioè
stabilire esattamente di cosa si stia cercando l’effetto.

Conviene semplificare le cose ed individuare una “variabile-trattamento”, che,


nella sua forma più semplice, sarà una variabile dicotomica (Si/No) e
rappresenterà l’assenza-presenza del trattamento. Fondamentale è il fatto che la
politica, per essere valutata, deve essere rappresentabile mediante una variabile
che, appunto, presenti delle variazione osservabili nel tempo oppure nello spazio,
cioè tra soggetti. Con la possibilità di distinguere tra un “prima” e un “dopo” il
trattamento.

Una volta messo in evidenza su cosa si ricercano glie effetti e di cosa si


ricercano gli effetti, resta da spiegare cosa precisamente si intenda per effetto di
una politica: “l’effetto di una politica si identifica nel cambiamento nella variabile-
risultato attribuibile in senso causale alla variabile-trattamento”.

Secondo l’approccio controfattuale, definiamo “effetto di una politica” la


differenza tra il valore osservato nella variabile-risultato dopo l’attuazione della
politica e il valore che si sarebbe osservato senza la politica.

Quindi l’effetto di una politica è definito come differenza tra due valori della
variabile-risultato. Ma di questi due valori:

200
Statistics for Evaluation

- Uno è osservabile, tra i soggetti esposti alla politica, dopo l’esposizione


(valore fattuale)

- L’altro è un valore ipotetico e si riferisce a ciò che si sarebbe osservato


tra gli stessi soggetti, nello stesso momento, se costoro non fossero
esposti alla politica (valore controfattuale).

Sappiamo che tale differenza non è calcolabile con assoluto rigore: mentre il
primo termine è direttamente osservabile, il secondo non lo è mai, in quanto è
l’attuazione stessa della politica a renderne impossibile l’attuazione. Sono
possibili solo due eventi: o un insieme di soggetti è esposto alla politica (e quindi
non possiamo osservare il controfattuale); oppure non vi è esposto (e quindi non
possiamo osservare alcun valore dopo l’esposizione alla politica, dato che tale
esposizione non c’è stata).

Questo è un dilemma che non riguarda solo la valutazione delle politiche ma in


genere tutta quella parte delle scienze sociali che tenta di inferire rapporti di
causalità dall’osservazione dei fenomeni.

Le strategie per la valutazione degli effetti di una politica sono, quindi, nella loro
essenza, strategie per approssimare il controfattuale con qualche valore
credibile, utilizzando le informazioni disponibili Una valutazione degli effetti sarà
tanto più plausibile quanto più sarà credibile la strategia che abbiamo adottato
per approssimare il controfattuale.

201
Duccio Stefano Gazzei

7.1.1 l’Efficienza Interna della Pubblica Amministrazione

Molte realtà aziendali stanno affrontando un periodo caratterizzato dalla


necessità di dover operare forti riduzioni strutturali al costo del lavoro,
dettate dalle esigenze urgenti di risanamento del conto economico. D’altra
parte l’incertezza che caratterizza i mercati, l’aumentata competitività a
livello globale, i profondi mutamenti sociali ed il crescente sviluppo
tecnologico, inducono necessariamente un cambiamento nella cultura e
nell’organizzazioni delle realtà aziendali. Alla luce di tali considerazioni,
assumono un’importanza particolare analisi e studi finalizzati alla
determinazione di indicatori, metriche e sistemi per il monitoraggio della
performance realizzata nei vari settori di attività, a supporto del
management nel gestire e migliorare i processi e per la valutazione
dell’efficacia dei meccanismi di governo aziendale.
Lo scopo del management di un’organizzazione può essere definito come
l’integrazione delle strategie con la misurazione dei processi. Il controllo
dell’andamento aziendale diventa un supporto decisionale efficace solo se
le scelte direzionali possono essere focalizzate correttamente e pianificate
sotto forma di obiettivi misurabili. Per gestire meglio un’azienda è
necessario conoscere “ciò che si fa”, ovvero quei processi che vengono
svolti per progettare, realizzare, promuovere, vendere ed erogare i prodotti
e servizi al cliente finale. Particolare cura deve essere rivolta soprattutto a
quei processi core che rappresentano “ciò che si fa meglio di tutti gli altri”.
Di conseguenza, i progetti volti al miglioramento dei risultati della gestione
aziendale devono interessare quelle attività e quei processi che creano
valore per il cliente: diviene, quindi, essenziale spostare l’attenzione del
management sulle attività e sui processi gestionali. L’individuazione dei
processi, ovvero delle sequenze di attività che erogano prodotti, servizi,
informazioni o procedure, coerenti con gli obiettivi strategici di un’azienda
per la soddisfazione di un bisogno specifico del cliente, costituisce un primo
passo verso il miglioramento delle transazioni cliente-fornitore interno.
Comprendere le modalità di svolgimento di questi scambi consente di
intervenire, in modo continuo e sistematico, affinché ogni unità
organizzativa agisca per il soddisfacimento dei bisogni dei clienti, interni e

202
Statistics for Evaluation

esterni, a beneficio dell’azienda nel suo insieme. Quest’approccio alla


gestione aziendale, che si basa sul concetto di attività e di processo
gestionale, prende il nome di Activity Based Management.

7.1.2 L’ Activity Based Management: lo strumento per la pianificazione


strategica delle risorse umane

L’ Activity Based Management (ABM) si propone come un forte stimolo


all’adeguamento dei meccanismi di governo delle aziende. Affinché tale
stimolo possa essere raccolto concretamente nell’ambito di un’organiz-
zazione è necessario dare inizio ad un processo di maturazione che porti
ad evidenziare una reale necessità di cambiamento. Il primo passo da
compiere è prendere coscienza di come le aziende debbano operare in
contesti nuovi, caratterizzati dai cambiamenti avvenuti nei mercati, nelle
tecnologie e nelle organizzazioni. La condizione necessaria per innescare il
processo di cambiamento dei meccanismi di governo dell’azienda sta nel
riconoscere che nessuna organizzazione può ignorare gli effetti positivi e
negativi dell’evoluzione degli scenari competitivi: ciò non è materia di facile
implementazione nella pratica perché, mentre può risultare semplice
condividere concetti e teorizzare modelli, lo è molto meno riconoscere la
validità e l’applicabilità degli stessi al contesto in cui si intende operare. Per
dare un’idea degli obiettivi e dell’operabilità dell’ABM, lo schema seguente
riporta nove punti che ne sintetizzano gli step e le finalità operative:

203
Duccio Stefano Gazzei

Figura 43 – ABM: obiettivi e operabilità

Tale strumento consente non solo di guardare l’interno dell’organizzazione


(procedure interne e costi) ma anche lo scenario che costituisce l’ambiente
esterno (clienti, azionisti, competitori, evoluzione del mercato), dando
all’azienda il massimo dell’informazione. Il presupposto concettuale per fare
ciò è dato dal fatto che una gestione orientata al valore non può che
misurare la dimensione lungo la quale il valore è generato, e cioè il
processo. La scelta del processo come struttura di riferimento caratterizza i
sistemi avanzati di misurazione dell’azienda rispetto a quelli tradizionali,
insufficienti per governare un contesto multievolutivo. Dal punto di vista
metodologico, la forza dell’ABM è data dalla sua universalità nella “visione
frattale” dei processi la quale mette in evidenza anche un altro aspetto alla
base di questa logica di analisi:

tra un processo di livello superiore e quello di livello a esso inferiore


esiste un rapporto cliente-fornitore, concettualmente lo stesso che
lega due attività attraverso il meccanismo input-output.

204
Statistics for Evaluation

L’ABM può pertanto essere visto come uno specchio che, a differenza delle
misurazioni tradizionali focalizzate su indicatori di costo, fornisce ai
manager una nuova immagine delle attività che consumano risorse per
generare prodotti.
L’approccio per attività nasce come risposta alle crescente esigenza di un
sistema avanzato di governo delle aziende. Storicamente le prime
applicazioni dell’approccio activity-based sono la risposta a necessità di
ridefinizione dei sistemi di calcolo dei costi, conseguenti ai profondi
cambiamenti avvenuti. Sostanzialmente il bisogno di informazioni accurate
sui processi produttivi, sulle risorse impiegate e sulle relazioni tra questi
elementi ed i prodotti ottenuti non hanno trovato risposte soddisfacenti nei
sistemi tradizionali: infatti tali modelli, focalizzati su indicatori
prevalentemente contabili, scaturiscono da tecniche che non tengono conto
dell’aumentata complessità dell’aziende e non recepiscono i cambiamenti
nella tecnologia e nell’organizzazione dei processi. Mentre la comprensione
dei costi aziendali attraverso la comprensione delle attività presenta una
serie di vantaggi e di opportunità.
L’approccio per attività non è una tecnica di gestione dei costi. In
realtà le attività sono gli elementi su cui basare la gestione dell’intera
azienda e non solo dei suoi costi. Il costo di un’attività è un’informazione
importante, ma la sua determinazione non è l’obiettivo principale di un
progetto ABM. Esso rappresenta uno degli indicatori di performance di ogni
singola attività; consente di misurare l’assorbimento di risorse da parte delle
attività al fine di ottenere un determinato output. Per affrontare e risolvere il
problema dell’ottimizzazione delle risorse impiegate, bisogna stabilire
precise relazioni tra i fattori produttivi impiegati, le attività svolte e gli output
ottenuti. La valutazione dell’efficienza delle risorse impiegate non può
essere fatta basandosi esclusivamente sui dati di costo poiché dipende dal
valore generato da ciascuna attività.
Il concetto di valore legato alla singola attività è molto importante, in
quanto ci permette di considerare un’attività come una microimpresa
monoprodotto, in cui l’output prodotto rappresenta l’oggetto di scambio
economico. In particolare, uno scambio è da considerarsi economico se

205
Duccio Stefano Gazzei

esiste un cliente che attribuisce valore ad un bene ed è disposto a pagare


un prezzo per ottenerlo: se tale condizione non è verificata, significa che
l’attività può essere eliminata o migliorata attraverso il ridisegno del
processo in cui è inserita.
Questo controllo dell’efficacia delle attività e dei processi ha una valenza
economica prevalente nei confronti del controllo orientato all’efficienza dei
sistemi tradizionali. Occorre, pertanto, rendere espliciti i legami di tipo logico
tra tutte le attività aziendali e impiegare meccanismi operativi in grado di
gestire tali legami in modo efficace ed efficiente.

7.1.3 L’analisi per attività e la costruzione del modello ABM

La prima fase di un progetto ABM, come visto, è l’analisi delle attività


aziendali e la mappatura dei processi gestionali (Process mapping). In essa
si cerca di pervenire alla identificazione degli output principali (prodotti,
servizi, informazioni, regole, procedure, principi, norme) dell’impresa al fine
di ricostruire i processi che li hanno generati.
Si tratta, in genere, di scomporre un’organizzazione complessa in attività
elementari più facili da gestire, per poter definire un modello di riferimento
per i processi gestionali e infine ricostruire una mappa dei legami di tipo
logico tra le attività lungo i processi gestionali.
Gli obiettivi che stanno alla base della mappatura dei processi gestionali
possono essere così riassunti:
- comprendere in che modo le risorse aziendali (umane, tecnologiche
e di struttura) vengono impiegate
- rendere esplicite le interdipendenze che esistono tra le differenti
attività anche se svolte da funzioni aziendali distinte
- imputare i costi delle attività aziendali, soprattutto di quelle legate a
processi di natura manageriale e di supporto, agli output, oggetti
ultimi di calcolo, quali i prodotti, i servizi, le tipologie di clienti, i canali
distributivi, le aree geografiche

206
Statistics for Evaluation

- determinare il mix ed il livello appropriati di risorse da assegnare ai


processi (budgeting di processo)
- semplificare i processi gestionali identificando le attività che non
aggiungono valore al processo di costruzione dell’output, ovvero le
attività ridondanti e non necessarie che assorbono risorse,
aumentando i costi aziendali, senza però generare benefici
significativi in termini di posizione competitiva dall’azienda.

La costruzione di un modello di gestione delle attività e dei processi


aziendali risponde a finalità molteplici. La revisione del sistema di
contabilità direzionale (Activity Based Costing) è solo uno dei risultati più
immediati. Si tratta di giungere: 1) alla riprogettazione dei flussi di
processo sulla base dell’analisi del valore dei processi (Process Value
Analysis) e delle relative procedure informativo-informatiche (Business
Process Reengineering); 2) al ridisegno dei ruoli organizzativi
(identificazione di Business Process Owner e di team interfunzionali
permanenti di processo) e delle professionalità (Skill Inventory and
Planning).

7.1.4 La costruzione della mappa dei processi di azienda

Per effettuare la mappatura dei processi, che porterà, poi, alla definizione di
un “Dizionario delle attività”, si deve scegliere tra due diverse strategie:
a) Approccio per funzioni aziendali: parte dall’analisi organizzativa e
porta a migliorare l’efficienza dei processi seguendo la suddivisione dei
compiti proposta dalla struttura e prendendo in esame le attività realizzate
all’interno di ciascuna funzione aziendale. Le attività si rilevano attraverso il
ricorso ad interviste dirette o con la somministrazione di questionari al fine
di comprendere come i diversi operatori occupino il loro tempo, piuttosto
che come dovrebbero impiegarlo secondo quanto riportato nei mansionari.
L’identificazione delle attività risponde alla esigenza di avviare
un’approfondita analisi circa le modalità di impiego delle risorse per la

207
Duccio Stefano Gazzei

successiva applicazione di metodi di imputazione dei costi di struttura


basati sull’assorbimento delle attività da parte dei prodotti e servizi offerti.
Legando le risorse alle attività con i “driver di risorsa” e individuando per
ogni attività output e fattori di complessità, è possibile operare un primo
grande riequilibrio dei costi attraverso strumenti, ad esempio, di Controllo
Statistico di Processo.
b) Approccio per obiettivi di processo: parte dal cliente e porta a
migliorare l’efficacia dei processi. Questi vengono individuati a partire dalle
aspettative dei clienti che si desidera soddisfare e, di conseguenza, da
quelle variabili, interne d’azienda o esterne d’ambiente, dalle quali dipende
il successo (i cosiddetti Fattori Critici di Successo – FCS), inteso come la
capacità dell’azienda di produrre un adeguato livello di redditività.
Attraverso questo approccio, si dà maggiore enfasi, sin dagli inizi
dell’analisi, alla dimensione trasfunzionale di processo, piuttosto che
rimanere legati ai raggruppamenti stabiliti dalla struttura organizzativa,
consentendo di evidenziare le interdipendenze tra le differenti unità in
relazione agli obiettivi di carattere strategico dell’azienda. L’approccio di cui
si parla cerca, in sostanza, l’efficacia del processo, la cui esistenza è
motivata dalla sua capacità di offrire prodotti, servizi, metodologie o
procedure in grado di contribuire alla piena soddisfazione del cliente.
In sintesi, i due approcci si differenziano per:

Punto di partenza Oggetto di analisi Finalità perseguita

Nell’approccio per funzioni Alla stessa stregua, nell’approccio per


aziendali si considerano i funzioni aziendali vengono prese in
Che nell’approccio per
confini delineati dalla considerazione le attività svolte dalla
funzioni aziendali è la
struttura organizzativa singola sotto-unità organizzativa:
verifica dell’efficienza,
mentre in quello per nell’altro, l’attenzione è posta sul
mentre in quello per
obiettivi di processo si processo interfunzionale predisposto
obiettivi di processo è
considerano gli obiettivi di per consentire il raggiungimento degli
la ricerca dell’efficacia
carattere strategico e i obiettivi d’impresa e sulla
fabbisogni dei clienti soddisfazione dei bisogni dei clienti

Tabella 22 – Differenze fra l’Approccio per funzioni aziendali e l’Approccio per obiettivi di
processo come strategie per la mappatura dei processi aziendali

208
Statistics for Evaluation

Nella pratica, si tende a combinare i due approcci, nelle diverse fasi del
progetto.
La “mappatura” porterà alla realizzazione di un “Dizionario delle attività” ove
saranno identificate tre tipologie di processi:
- Processi strategici: sono i processi in cui si intende superare la
concorrenza e che forniscono le capacità dell’organizzazione
richieste per il futuro
- Processi operativi: sono i processi che realizzano i prodotti/servizi
dell’organizzazione
- Processi di supporto: sono i processi che aggiungono efficienza ed
efficacia ai processi operativi

In un sistema ABM le due principali dimensioni di riferimento sono


rappresentate dai processi di azienda e dalle attività che da essi
scaturiscono. Esse rappresentano due chiavi di lettura di informazioni
distinte ma interdipendenti. La comprensione della struttura dei processi è
legata alla comprensione delle caratteristiche dei prodotti e servizi, che ne
costituiscono l’output finale.

7.1.5 Lo schema base della metodologia ABM

La costruzione di un modello di gestione delle attività e dei processi


aziendali ABM si basa sulla considerazione generale che sono le attività e
non i prodotti a generare i costi. I prodotti, invece, consumano attività in
modo differenziato e la maggior parte dei costi è imputata ai prodotti
attraverso le attività necessarie per realizzarli. È pertanto possibile
migliorare i livelli di efficienza gestionale tramite azioni che intervenendo
sulle attività producono effetti sui costi il cui calcolo è legato proprio alla
struttura delle attività.

209
Duccio Stefano Gazzei

È bene specificare che non tutte le attività producono valore aggiunto, ma


ciò avviene solo se sono:
- conformi alle richieste del cliente
- non ridondanti
- non duplicate
- non eliminabili attraverso un ridisegno dei processi
- efficienti (la differenza tra il valore riconosciuto dal mercato e il costo
dell’output ne consente il miglioramento continuo)

Come illustrato nello schema che segue, la comprensione dei rapporti


causa/effetto tra attività e processi consente di isolare quelle leve (driver)
agendo sulle quali è possibile influenzare le attività e il loro svolgimento e di
identificare quegli indicatori di performance la cui misura guida la direzione
e l’intensità delle azioni a tutti i livelli.
Le attività contribuiscono alla realizzazione dei q prodotti secondo le logiche
individuate dai cosiddetti “Driver di Attività”. Le attività consumano risorse
secondo le logiche individuate dai cosiddetti “Driver di Risorsa”.

Figura 44 – ABM: la logica activity based

Lo schema alla base della logica ABM, si differenzia dalle tecniche


tradizionali di contabilità che non considerano la parte centrale del modello.

210
Statistics for Evaluation

7.1.6. Le attività di una logica ABM

Le decisioni di intervento e gli obiettivi strategici di un’impresa passano


attraverso le attività per la loro attuazione. Calare le strategie sulle attività
vuol dire passare dalle politiche di azienda alle azioni sui processi e ciò
permette di fornire supporto alle decisioni e di evidenziare le opportunità di
miglioramento. Se, per esempio, si decide di aumentare il livello di servizio
ai clienti da parte del front-office di una banca, sarà sempre possibile
analizzare i processi e le attività per capire quali siano quelle critiche per il
raggiungimento dell’obiettivo e quindi quali target fissare per quelle attività e
per chi le svolge, oppure come ridisegnare l’intero processo, eliminando o
modificando più attività, nel caso in cui la prestazione richiesta sia al di fuori
del processo esistente. Ogni singola attività non rappresenta una semplice
operazione elementare più o meno ripetitiva caratterizzata da un
determinato meccanismo e da un output standardizzato, ma è, invece, un
processo produttivo multi-output che trasforma input (L, M, K) in output
(Prodotto 1,…,q) in modo diretto se si tratta di attività operative o in modo
indiretto se si tratta di attività strategiche o di supporto.
L’approccio per attività è un approccio quantitativo in quanto ogni attività è
contraddistinta da un output che deve poter essere misurato. Le modalità di
funzionamento delle n attività possono essere “catturate” attraverso n
relazioni Y = f(X) dove Y indica l’aggregato dei prodotti (output) ed X
l’aggregato delle risorse consumate (input - fattori produttivi). Per misurare
la performance di un’attività i è necessario tenere sotto controllo l’indice di
produttività, che aumenta al crescere di Y o al diminuire di X:

Yi
IPi 
Xi [60]

211
Duccio Stefano Gazzei

7.2. Valutare gli effetti della politica usando il metodo sperimentale

L’ispirazione del metodo sperimentale per valutare gli effetti delle politiche
deriva dall’ambito medico-farmaceutico, dove è applicato per testare
l’efficacia dei nuovi farmaci, mediante i cosiddetti “clinical trials”. Un gruppo
di pazienti affetti da una certa patologia viene suddiviso in due gruppi
mediante randomizzazione, cioè sorteggio: ai membri di uno dei due gruppi
viene somministrato il farmaco da sperimentare (gruppo dei “trattati” o
“gruppo sperimentale”), mentre ai membri dell’altro viene somministrato un
“placebo”, cioè una sostanza inerte, che ha le stesse caratteristiche
organolettiche del farmaco, ma non può avere alcun effetto diretto sulla
patologia. Questo secondo gruppo viene definito “gruppo di controllo”.
Perché è necessario un “gruppo di controllo”? Quest’ultimo serve, per
riprendere il linguaggio dell’introduzione a questo capitolo, ad approssimare
la situazione controfattuale. Più precisamente, grazie alla randomizzazione,
il decorso della patologia che si osserva tra i membri del gruppo di controllo,
sarà presumibilmente simile al decorso che la patologia avrebbe avuto tra i
membri del gruppo dei “trattati”, qualora essi non avessero ricevuto il
farmaco. Questa espressione è equivalente alla definizione di
controfattuale. Una differenza significativa (nella direzione desiderata) tra il
decorso osservato nella patologia per il gruppo sperimentale ed il decorso
osservato per il gruppo di controllo rivela che i farmaco è efficace, cioè
ottiene un effetto nella direzione desiderata.
Ovviamente, i membri del gruppo di controllo non sono identici ai membri
del gruppo sperimentale. L’esperimento “ideale” dovrebbe prendere due
gruppi di pazienti assolutamente identici e sottoporne uno al trattamento e
l’altro no. Quando si opera con esseri viventi o organismi complessi che si
differenziano lungo moltissime dimensioni, creare due gruppi perfettamente
identici è virtualmente impossibile.
Tuttavia la perfetta identità non è un requisito indispensabile: è sufficiente
che i due gruppi siano “statisticamente equivalenti”, cioè abbiano la stessa
distribuzione di tutte le caratteristiche (ad esempio la stessa media, la
stessa varianza, gli stessi decili), eccezion fatta per l’inevitabile errore
campionario, che però tende ad essere “piccolo”, quando il campione

212
Statistics for Evaluation

utilizzato per generare i due gruppi è sufficientemente “grande”. Per


ottenere questa equivalenza in senso statistico è comunque necessario che
la selezione dei due gruppi sia operata in modo assolutamente casuale,
mediante quella randomizzazione (dal termine “random”: casuale) o
assegnazione casuale (random assignment).
La completa equivalenza pre-trattamento tra i due gruppi rende plausibile
attribuire in senso causale al trattamento le differenze nella variabile-
risultato che si osservano tra i due gruppi dopo il trattamento. In altre parole
se trattati e non-trattati sono simili “in tutto e per tutto” prima del
trattamento, resta solo il trattamento, ricevuto dagli uni e non dagli altri, a
spiegare le differenze che (eventualmente) si osservino dopo il trattamento.
Quindi le differenze post-trattamento nella variabile-risultato “rivelano” in
modo credibile l’effetto che il trattamento ha avuto in media sui soggetti
trattati. E questo perché l’esperienza avuta dopo la randomizzazione del
gruppo di controllo rappresenta un’approssimazione plausibile
dell’esperienza che il gruppo sperimentale avrebbe avuto se non fosse
stato sottoposto al trattamento.

213
Duccio Stefano Gazzei

IL CASO – DISEGNO E RISULTATI DELLA NATIONAL SUPPORTED


WORK DEMONSTRATION (NSWD)
Lo scopo della NSWD (National Supported Work Demonstration) è quello di
valutare l’efficacia del supported work, un approccio nuovo per inserire o
reinserire al lavoro i soggetti che soffrono di forme severe di emarginazione
sociale. Il supported work consiste nel fornire a tali soggetti un’esperienza
lavorativa “vera”, ma in un ambiente protetto, con un aumento molto graduale
dell’intensità dello sforzo del lavoro, sotto supervisione di personale
specializzato e con un inserimento in squadre di lavoro composte di individui
con simili problemi con una retribuzione garantita pari almeno al salario
minimo stabilito per legge. L’esperienza di supported work è destinata a
durare all’incirca un anno, dopodiché si tenta l’inserimento nel mercato del
lavoro regolare.
Qui analizziamo uno dei gruppi scelti come target per testare l’efficacia di
questa politica attiva del lavoro: le madri single che da più di due anni
ricevono il sussidio della povertà.
Il NSWD è, infatti molto costoso, e, per verificare se l’intervento sia
opportuno, il governo federale americano decide di valutarne l’efficacia
mediante uno studio pilota per verificare se l’alto costo sia giustificabile
quando rapportato ai benefici che produce.
La finalità dello studio è, quindi, capire quale sia l’efficacia del supported work
nell’aumentare la partecipazione al lavoro di persone ai margini del mercato
del lavoro e nel ridurre la loro dipendenza dai sussidi pubblici.
Circa 6.600 individui sono stati coinvolti nello studio, e di essi 3.200 sono
assegnati al gruppo di trattamento (partecipazione al supported work) e
3.400 al gruppo di controllo. La figura 45 presenta uno dei principali risultati
della valutazione per il gruppo delle madri non sposate che ricevono il
sussidio. La variabile-risultato rispetto a cui si intende misurare l’effetto della
politica è rappresentata dal tasso di occupazione, definito come percentuale
di individui con un lavoro in un certo mese. Questo tasso è riportato sull’asse
verticale, mentre sull’asse orizzontale troviamo il numero di mesi trascorsi dal
momento della randomizzazione (inizio esperimento).

214
Statistics for Evaluation

Figura 45 – Tasso di occupazione delle madri single con sussidio di povertà da più di 3 anni

La linea continua in alto rappresenta sinteticamente l’esperienza lavorativa


delle madri single che hanno partecipato al laboratorio del supported work. Il
loro tasso di occupazione precedente all’esperienza di lavoro protetto è di
circa il 20%, che sottolinea lo stato di emarginazione del lavoro di questo
gruppo. La partecipazione al supported work si manifesta immediatamente
con un salto verso l’alto del tasso di occupazione, ce dopo tre mesi sfiora il
100%. A queste donne è stato offerto un lavoro, per giunta in un contesto
relativamente facile e poco stressante e quasi tutte lo hanno accettato.
Questa percentuale di occupate decresce rapidamente con il passare dei
mesi (la durata media della permanenza nel laboratorio delle madri single è di
9 mesi e mezzo): scende al 75% dopo 12 mesi e al 40% diopo 18 mesi,
quando praticamente nessuna di queste donne è più coinvolta in attività di
lavoro protetto. Quindi quel 40% di occupate, che cresce ancora leggermente
nei nove mesi successivi, rappresenta l’occupazione regolare, al di fuori della
struttura protetta, il che rappresenta l’obiettivo di fondo dell’esperimento:
facilitare l’inserimento di queste persone in una situazione lavorativa
“normale”.
La valutazione potrebbe concludersi con questo risultato, che fa registrare più
di un raddoppio del tasso di occupazione di questo gruppo, dal 20% prima

215
Duccio Stefano Gazzei

dell’esperienza di lavoro protetto al 42% all’ultima rilevazione a 27 mesi


dall’inizio dell’esperimento. Quindi un netto successo dell’intervento pubblico,
che è riuscito, con pochi mesi di occupazione sussidiata a raddoppiare la
partecipazione al mercato del lavoro di questo gruppo socialmente
emarginato.
Una tale conclusione tuttavia non sarebbe coerente con la definizione di
“effetto” di una politica secondo l’approccio “controfattuale”. Quest’ultimo
definisce “effetto” come la differenza tra il valore della variabile-risultato (la
percentuale di occupati, in questo caso) osservato dopo l’attuazione della
politica pubblica e il valore che si sarebbe osservato in sua assenza.
Proprio per questo possiamo utilizzare il gruppo di controllo, cioè il numero di
madri single, con caratteristiche in tutto e per tutto simili alle partecipanti al
lavoro protetto, che però, dopo essere state inviate dai servizi sociali al
laboratorio del supported work con la prospettiva di ottenere un lavoro, se lo
sono visto rifiutare a causa del sorteggio sfavorevole.
Tornando alla figura 30, la linea tratteggiata rappresenta il tasso di
occupazione dei “controlli” registrato nel periodo dell’esperimento. Come si
può facilmente vedere, pur in assenza di lavoro protetto, il tasso di
occupazione dei controlli è aumentato progressivamente durante i 27 mesi
del periodo di osservazione, fino ad arrivare al 35%. La differenza tra trattati e
controlli al 27° mese dalla randomizzazione è di soli 7 punti percentuali (42-
35%).
In altre parole, di quei 22 punti percentuali di incremento nel tasso di
occupazione, si sarebbero osservati comunque, come suggerisce
l’esperienza del gruppo di controllo, mentre soli i 7 punti addizionali sono
plausibilmente da attribuirsi alla politica pubblica che abbiamo valutato.

216
Statistics for Evaluation

7.3. I confronti spazio-temporali con dati non sperimentali

Quello sperimentale è ritenuto il metodo in grado di produrre le stime più


valide e credibili degli effetti di una politica pubblica, almeno dal punto di
vista della validità interna. Per ottenere tale risultato conoscitivo è
necessario però che sia soddisfatta una condizione non semplice: che il
valutatore abbia la possibilità di manipolare il processo di selezione, e
quindi di determinare mediante la randomizzazione chi è ammesso al
gruppo di trattamento e chi resta nel gruppo di controllo.
La possibilità di operare tale manipolazione è spesso limitata per ragioni
pratiche, legali o politiche.
Quando il metodo sperimentale non è praticabile e quindi il processo di
selezione non è manipolabile dal valutatore, a quest’ultimo non resta che
utilizzare gli esiti dei processi che avvengono “naturalmente” nel corso
dell’attuazione di una politica pubblica, frutto delle decisioni dei potenziali
beneficiari della politica pubblica oppure di coloro che la disegnano e la
gestiscono. In altre parole, il valutatore deve utilizzare uno dei metodi di
valutazione definiti collettivamente come “non sperimentali”.
Va sottolineato come, anche in una situazione non sperimentale, l’effetto di
una politica è definito come differenza tra una situazione fattuale e una
controfattuale. Ma ora la situazione controfattuale non è più approssimabile
mediante un gruppo di controllo scelto con una procedura di
randomizzazione. Ora il valutatore non può manipolare nulla, si limita ad
osservare quello che succede: il controfattuale andrà approssimato
osservando cosa succede ad altri soggetti e/o in altri periodi di tempo. I dati
generati nel corso dell’attuazione di una politica sono detti “dati
osservazionali”.
In buona sostanza le metodologie più utilizzate, in questi casi, fanno
riferimento a tre filoni principali:
- a) Il metodo “differenza nelle differenze” con la valutazione della
“distorsione da trend divergenti”
- b) La regressione
- c) Il “matching” statistico

217
Duccio Stefano Gazzei

L’illustrazione di questi metodi sarà esemplificata utilizzando un caso


stilizzato: consideriamo una ipotetica politica che distribuisca finanziamenti
per rivitalizzare quartieri urbani degradati, realizzando un complesso di
interventi mirati a far diventare i quartieri più vivibili e sicuri.
Chiameremo questa politica pubblica Urban Renewal Policy, che
abbrevieremo con URP. Supponiamo che i finanziamenti URP non siano
disponibili per tutte le città e per tutti i quartieri degradati, bensì vengano
concessi ad un numero massimo di quartieri scelti in quelle città che
abbiano fatto domanda e che abbiano certi requisiti.
Supponiamo che l’URP sia stato realizzato tra il 2001 ed il 2004 in 50
quartieri di altrettante città, vincitrici di un bando di gara.
Supponiamo, inoltre, di disporre dei dati su altri 250 quartieri degradati di
altrettante città: questi saranno i quartieri non esposti alla politica, o “non
trattati”, o semplicemente “quartieri NonURP”.
La variabile-risultato scelta per questo esercizio sarà il “tasso di
vandalismo”, misurato come “numero di atti di vandalismo contro edifici
pubblici e privati commessi e denunciati in un anno, per 10.000 abitanti”,
cioè il numero degli atti di vandalismo diviso il numero dei residenti del
quartiere e moltiplicato per 10.000.

Il metodo “differenza nelle differenze” con la valutazione della


“distorsione da trend divergenti”
Il successo di questa metodologia dipende dalla quantità di dati a nostra
disposizione.
Supponiamo, ad esempio, di disporre solo delle informazioni dei quartieri
URP, prima e dopo il trattamento
Tabella 23 – Confronto prima-dopo nei quartieri URP
NUMERO DI MEDIA DEL TASSO
ANNO
QUARTIERI DI VANDALISMO
2004 50 66,37
2000 50 62,90
Differenza 3,47

218
Statistics for Evaluation

Questo risultato paradossale indurrebbe chiunque a mettere in discussione


l’equiparazione di “effetto” con “differenza prima-dopo”: e si tenderebbe a
pensare che, addirittura, URP ha peggiorato le cose.
Tabella 24 – Confronto tra quartieri URP e quartieri Non URP nel 2004
NUMERO DI MEDIA DEL TASSO
ANNO
QUARTIERI DI VANDALISMO
URP 2004 50 66,37
NonURP 2004 250 57,50
Differenza 8,87

Anche se confrontiamo la media del tasso di vandalismo dei due gruppi di


quartieri alla fine del trattamento, non si ha la possibilità di capire bene cosa
sia successo nell’applicazione della politica URP, che anche in questo
caso, sembra abbia effetto negativo sul tasso di vandalismo.
Supponiamo di disporre di informazioni maggiori, sui due gruppi, e per tre
anni diversi, anche prima quattro anni prima dell’inizio dell’URP.
Tabella 25 – Il tasso di vandalismo in tre anni diversi nei due gruppi di quartiere
Media del tasso di vandalismo osservato nel
Numero di
Tipo di quartiere 1996 2000 2004
quartieri
URP 50 54,96 62,90 66,37
NonURP 250 39,96 46,37 57,50
Differenze 15,00 16,53 8,87

Figura 46 – Il tasso di vandalismo in tre anni diversi nei due gruppi di quartieri

219
Duccio Stefano Gazzei

Ben diverso è il quadro che appare valutando queste informazioni.


Si vede bene che dal 1996 al 2000 vi era un andamento di crescita simile
tra i due gruppi, anche se i quartieri URP avevano una media del tasso di
vandalismo più alto. Poi una inversione di tendenza: nei quartieri URP il
trend è visibilmente in decrescita, a differenza dei quartieri NonURP.
Il metodo che stiamo analizzando considera i quartieri NonURP come il
gruppo di controllo per valutare l’effetto URP sugli altri. In pratica possiamo
considerare l’effetto della politica URP il risultato della seguente formula:

Effetto=(differenza post nei livelli)-(differenza pre nei livelli)-(differenza pre


nei trend)
Effetto=(U2004-N2004)-(U2000-N2000)-[(U2000-U1996)-(N2000-N1996)]
-9,19 = 8,87 – (+16,53) – (+1,53)

Questo vuol dire che siccome dal 1996 al 2000 l’andamento di crescita del
vandalismo era stato simile, è da ritenersi molto probabile che anche nei
quartieri URP, senza intervento della politica, avremmo assistito ad una
crescita del trend. Quindi, oltre alla differenza tra le differenza, è opportuno
valutare anche la differenza nella dinamica del trend.

La regressione
Per capire come agisca questa metodologia, conviene, prima, chiarire
concettualmente quali siano le ipotesi di base su cui possiamo fondare la
nostra analisi.
Riprendiamo il caso del confronto tra trattati e non trattati osservati solo
dopo il trattamento. La differenza osservata tra le due medie può essere
scritta come la somma di due componenti:

1) differenza osservata tra trattati e non trattati nella variabile-risultato =


effetto della politica + differenze di partenza

220
Statistics for Evaluation

Questa relazione evidenzia come la differenza osservata tra trattati e non-


trattati “riveli” l’effetto della politica se e solo se le differenze di partenza
sono nulle. Questo sarebbe possibile se la selezione dei due gruppi fosse
effettivamente casuale (ottica sperimentale). Invece, nella maggioranza dei
casi le differenze di partenza non sono nulle e la loro presenza fa si che la
differenza osservata tra trattati e non trattati sia una stima distorta
dell’effetto della politica. Quindi, se i due gruppi sono diversi già prima del
trattamento, questa diversità si tradurrà in diversità nelle loro caratteristiche
demografiche, economiche, sociali, osservabili prima del trattamento: in
particolare, ci interessano le caratteristiche che a loro volta influenza la
variabile-risultato.
Nello studio che stiamo facendo, per come sono stati selezionati, i quartieri
URP potrebbero essere sistematicamente diversi dai quartieri NonURP in
termini di una serie di caratteristiche socio-economiche, che a loro volta
possono favorire il fenomeno del vandalismo: ad esempio, i primi
potrebbero avere una popolazione più svantaggiata economicamente e
socialmente, in termini di reddito, accesso al lavoro, disgregazione
familiare, livello di istruzione, scarsità di reti sociali, e così via.
Riscriviamo l’espressione 1) mettendo in evidenza il fatto che le differenze
di partenza si traducono in diversità nelle caratteristiche che influenzano la
variabile-risultato:
2) differenza osservata tra trattati e non-trattati nella variabile risultato =
effetto della politica + differenze di partenza nelle caratteristiche che
influenzano la variabile risultato
Se le caratteristiche che influenzano la variabile-risultato fossero davvero
tutte osservabili, si aprirebbe una strada nuova per valutare gli effetti della
politica: l’utilizzo di quei metodi statistici, quali l’analisi di regressione, che
consentono di stimare l’effetto della variabile-trattamento sulla variabile-
risultato a parità di altre condizioni, cioè a parità di caratteristiche
osservabili. Tali metodi possono essere pensati come modi per depurare la
differenza osservata tra trattati e non-trattati della componente imputabile
alle differenze di partenza nelle caratteristiche osservabili.

221
Duccio Stefano Gazzei

L’applicazione di questi metodi, a condizione che le caratteristiche che


influenzano la variabile-risultato siano tutte osservabili, consente di
riscrivere l’espressione 2) come:
3) differenza trattati non-trattati depurata delle differenze nelle
caratteristiche osservabili = effetto della politica
Se il metodo statistico adottato è davvero in grado di depurare il confronto
tra trattati e non trattati dalle loro differenze nelle caratteristiche osservabili,
la differenza depurata rappresenterà plausibilmente l’effetto della politica.
Fino a qui abbiamo supposto che tutte le caratteristiche che influenzano la
variabile-risultato siano osservabili dal valutatore. Più realistica è la
situazione in cui alcune delle caratteristiche siano osservabili e altre non lo
siano. Un modo più realistico di scrivere l’espressione 2) è separare le
differenze di partenza in due componenti, una dovuta alle caratteristiche
osservabili e una dovuta alle caratteristiche non osservabili dei soggetti a
cui la politica si rivolge:
4) differenza osservata tra trattati e non-trattati nella variabile risultato =
effetto della politica + differenze di partenza nelle caratteristiche
osservabili + differenze di partenza nelle caratteristiche non
osservabili
L’applicabilità dei metodi statistici dipende dall’assunto che le differenze di
partenza dovute a caratteristiche non osservabili, una volta tenuto conto di
quelle osservabili, siano nulle o quasi nulle: in questo caso i metodi statistici
sono in grado di produrre stime corrette dell’effetto di una politica pubblica.
Il primo modello che presentiamo è capace di replicare la differenza nel
tasso di vandalismo tra quartieri URP e NonURP nel 2004: ricordiamo che
abbiamo già giudicato quest’ultima una stima poco plausibile dll’effetto di
URP in quanto ignora completamente l’esistenza di differenze di partenza
tra i due gruppi di quartieri: infatti utilizza implicitamente come controfattuale
la media del tasso di vandalismo osservata nei quartieri NonURP nel 2004.
In termini formali consideriamo il seguente modello di regressione lineare:
Yi  a  bTi   i [61]
Dove:

222
Statistics for Evaluation

Yi = rappresenta il tasso di vandalismo osservato nel quartiere i-esimo nel


2004;
Ti = rappresenta la variabile-trattamento, =1 per i quartieri URP, =0 per i
quartieri NonURP;
i = è il termine di errore (con media zero), che rappresenta l’influenza di
tutte le variabili non osservabili.
Tabella 26 – Stima della regressione 54
Variabile Simbolo Coefficiente p-value
Costante a 57,50 0,00
T=trattamento b 8,87 0,00

Ritroviamo, come stima del coefficiente β lo stesso valore che abbiamo


ottenuto con il metodo precedente calcolando la differenza tra medie, cioè
+8,87. Parimenti, la stima dell’intercetta è uguale alla media del tasso di
vandalismo nei quartieri NonURP nel 2004, che è appunto 57,5 atti
vandalici ogni 10.000 residenti.
L’analisi di regressione presenta però un notevole vantaggio rispetto alla
differenza tra medie: allungare la lista delle variabili esplicative, non
fermandosi cioè alla sola variabile-trattamento, rappresenta un modo per
eliminare la distorsione dovuta dalle differenze di partenza nelle
caratteristiche osservabili.
Ipotizziamo, ad esempio, che i due gruppi di quartieri differiscano in termini
di caratteristiche socio-economiche osservabili, che a loro volta possono
influire sulla frequenza degli atti di vandalismo. Consideriamo due
caratteristiche, o variabili, che supponiamo siano state misurate per
ciascuno dei 300 quartieri nel 2000: il tasso di disoccupazione e il tasso di
immigrazione. Ipotizziamo, inoltre, che queste due variabili influenzino
(positivamente) il tasso di vandalismo e che siano distribuite diversamente
tra i quartieri URP e NonURP. Più precisamente, facciamo le seguenti due
ipotesi. La prima è che alta disoccupazione e alta immigrazione
contribuiscano a peggiorare il clima di convivenza sociale in un quartiere e
con questo ad aumentare gli atti di vandalismo. La seconda è che, nel
selezionare i quartieri a cui assegnare i finanziamenti di URP, sia stata data

223
Duccio Stefano Gazzei

priorità a quelli con più alta disoccupazione e immigrazione (oltre ad altri


criteri di preferenza). Queste due ipotesi creano la classica situazione di
“correlazione spuria”: vandalismo e finanziamenti URP sono positivamente
correlati non perché URP causi un aumento nel tasso di vandalismo, ma
perché i quartieri selezionati per URP tendono ad avere in partenza più alta
disoccupazione e immigrazione. Quindi una parte delle differenze nel tasso
di vandalismo osservate nel 2004 tra i due gruppi di quartieri è spiegata
dalle differenze di partenza nelle condizioni socio-economiche,
rappresentate dalla disoccupazione e dall’immigrazione. Ignorare queste
differenze di partenza rende la semplice differenza tra i tassi di vandalismo
una stima distorta dell’effetto di URP. In questo caso distorta verso i valori
positivi.
La regressione multipla è un modo per rimediare a questa situazione: ad
ottenere cioè stime dell’effetto di una variabile di interesse (in questo caso,
la variabile-trattamento) al netto dell’influenza delle altre variabili (dette
collettivamente variabili di controllo). Nel nostro caso, questa stima “netta”
di β si ottiene aggiungendo all’equazione (61) le due variabili di controllo a
disposizione, il tasso di disoccupazione e quello di immigrazione,
ottenendo:
Yi  a  bTi  IMMIGRAZi  DISOCCUPI   i [62]
Va notato come i valori di immigrazione e disoccupazione devono essere
osservati nel 2000, cioè al momento della selezione dei quartieri e
comunque prima dell’implementazione della politica, perché quest’ultima
potrebbe influenzarne il valore: se fossero osservate nel 2004, le differenze
di immigrazione e disoccupazione non rappresenterebbero più differenze di
partenza. Quello che vogliamo fare è depurare la stima dell’effetto di URP
dalle differenze di partenza, per cui le variabili di controllo vanno misurate
prima dell’intervento. Un modo più intuitivo per interpretare il modello (62) è
quello di riscriverlo nel modo seguente, portando le variabili di controllo sul
lato sinistro dell’equazione, moltiplicate per il corrispettivo coefficiente:
Yi - θ IMMIGRAZ i - λ DISOCCUPi = α + βTi + εi [63]
Si può pensare ciò che sta sul lato sinistro della (56) come al tasso di
vandalismo “depurato” dell’influenza che su di esso hanno l’immigrazione e

224
Statistics for Evaluation

la disoccupazione: il modello (63) è infatti l’applicazione al contesto della


regressione dell’espressione (3), che qui riproduciamo:
differenza trattati non-trattati depurata delle differenze nelle
caratteristiche osservabili = effetto della politica
Il modello (63) mette in evidenza come il coefficiente β sia ancora
interpretabile come differenza tra trattati e non-trattati, come avveniva nel
modello (62): ora, però, è una differenza nei tassi di vandalismo al netto
delle differenze di partenza in termini di immigrazione e disoccupazione. Le
stime del modello (63) sono le seguenti:
Tabella 26 – Stima della regressione 56
Variabile Simbolo Coefficiente p-value
Costante a -23,00 0,00
T=trattamento b -0,16 0,88
IMMIGRAZ θ 2,71 0,00
DISOCCUP λ 3,68 0,00

La stima di β (cioè l’effetto stimato di URP sul vandalismo) è diventata ora


negativa, ma non è statisticamente significativa (infatti il suo p-value è 0,88,
cioè la probabilità che l’ipotesi β=0 sia vera è quasi il 90 percento). Gli
effetti della immigrazione e della disoccupazione sul vandalismo sono
invece positivi (come ci si attendeva) e statisticamente diversi da zero. La
nostra aspettativa ne esce quindi confermata: eliminare con un metodo
statistico appropriato le differenze di partenza fra i quartieri ha fatto
cambiare drasticamente la stima dell’effetto di URP sul vandalismo. Invece
che una stima di + 8,87 abbiamo ora una stima (non significativa) di – 0,164
(cioè praticamente uguale a zero). Le stime del modello (56) implicano che
URP non fa diminuire il tasso di vandalismo, ma non lo fa neppure
aumentare. È questa la stima vera dell’effetto di URP sul tasso di
vandalismo? Non lo sappiamo. La plausibilità di questa stima è
condizionata alla plausibilità dell’assunto che le differenze di partenza tra i
due gruppi di quartieri siano dovute solamente alle differenze in termini di
disoccupazione e immigrazione.
È tuttavia possibile, anzi probabile, che permangano differenze di partenza
tra i due gruppi di quartieri che non sono catturate dalle due variabili di
controllo utilizzate: è possibile cioè che con questo modello non si sia

225
Duccio Stefano Gazzei

eliminata del tutto la distorsione da selezione. Questo problema può essere


affrontato allungando la lista delle variabili incluse che possono
rappresentare differenze di partenza rilevanti: ma per quanto sia lunga
questa lista, non saremo mai completamente sicuri di avere catturato tutte
le differenze causate dal processo di selezione.
Nonostante la sua apparenza di scientificità, neppure l’analisi di regressione
può fornire risposte certe e inconfutabili sugli effetti di una politica. Il
vantaggio della regressione è quello di eliminare parte della distorsione
dovuta a differenze di partenza, ma il suo (ovvio) limite è quello di limitarsi
alle caratteristiche osservabili.
La stima differenza-nelle-differenze “rivela” l’effetto della politica solo se non
ci sono, tra trattati e non-trattati, differenze di partenza negli andamenti
temporali della variabile-risultato. Se queste differenze invece esistono (e
non possono essere eliminate con “altri dati”), quella ottenuta con la
differenza-nelle-differenze sarà una stima ancora distorta dell’effetto della
politica. Il metodo differenza-nelle-differenze elimina le differenze di
partenza nei livelli della variabile-risultato, ma resta vulnerabile alle
differenze di partenza nei trend della stessa variabile. Tuttavia, è possibile
anche in questo caso utilizzare la regressione multipla per tenere conto
(almeno in parte) delle differenze di partenza nei trend. Vediamo però prima
come la stima differenza-nelle-differenze ottenuta nel caso del metodo
precedente può essere replicata mediante una regressione semplice.
A questo fine, occorre specificare un modello in cui la variabile dipendente
sia espressa come differenza, per l’i-esimo quartiere, tra il valore del tasso
di vandalismo osservato nel 2004 e quello osservato nel 2000. Indicheremo
questa versione “differenziata” della variabile-risultato come ∆Yi . Ogni
valore di ∆Yi incorpora quindi due valori della variabile-risultato, uno pre e
uno post.
Questo modello può essere scritto come segue.
∆Yi = α + βTi + εi [64]
in cui la variabile-trattamento T è l’unica variabile esplicativa. Essendo la
variabile dipendente espressa come differenza tra due anni e non più come
livello, il significato dei coefficienti α e β cambierà radicalmente.

226
Statistics for Evaluation

Tabella 26 – Stima della regressione 57


Variabile Simbolo Coefficiente p-value
Costante a 11,13 0,00
T=trattamento b -7,66 0,00

Otteniamo nuovamente la stima di un effetto di URP pari a 7,66 atti di


vandalismo in meno. L’unico altro coefficiente stimato è l’intercetta, che in
questo modello non rappresenta un livello iniziale, bensì la “dinamica
spontanea” del fenomeno (cioè la crescita del tasso di vandalismo
osservata tra il 2000 e il 2004 nei quartieri NonURP).
La stima dell’effetto di URP ottenuta con questo modello dipende però
sempre dall’assunto di “parallelismo”, cioè di assenza di differenze nei trend
tra i due gruppi di quartieri. L’aggiunta di variabili esplicative al modello (57)
serve a “catturare” possibili differenze nei trend correlate con le
caratteristiche osservabili: nel nostro caso, la speranza è che le differenze
tra i quartieri nel tasso di disoccupazione e di immigrazione nel 2000
servano a depurare la stima dell’effetto di URP dalle distorsioni dovute alle
differenze nei trend. Il modello di regressione che serve a questo scopo è il
seguente:
∆Yi = α + βTi + θ IMMIGRAZi + λ DISOCCUPi + εi [65]
La Tabella 26 contiene le stime del modello (65). Il tasso di immigrazione
osservato nel 2000 non sembra influenzare il trend di crescita del tasso di
vandalismo tra il 2000 e il 2004: infatti il coefficiente di questa variabile ha
un p-value molto elevato.
Conclusione diversa si raggiunge per il tasso di disoccupazione, il cui
coefficiente è positivo e significativamente diverso da zero: questo significa
che i quartieri con più alta disoccupazione tendono ad essere quelli che
presentano un maggiore trend di crescita nel tasso di vandalismo. Poiché i
quartieri URP tendono ad avere un livello di disoccupazione più elevato,
parte della crescita del vandalismo in questi quartieri è spiegato dal loro alto
tasso di disoccupazione.
La stima dell’effetto di URP generata da questo modello risulta essere
leggermente superiore (8,10 atti vandalici in meno) a quella prodotta dal
modello differenza-nelle differenze senza variabili di controllo (- 7,66).

227
Duccio Stefano Gazzei

Tabella 26 – Stima della regressione 58


Variabile Simbolo Coefficiente p-value
Costante a 8,72 0,00
T=trattamento b -8,10 0,00
IMMIGRAZ θ 0,77 0,46
DISOCCUP λ 0,16 0,00

Aver incluso il tasso di disoccupazione come variabile di controllo ha


“depurato” la stima dell’effetto di URP da una (piccola) distorsione verso
valori positivi.

Il matching statistico
Torniamo ora alla situazione descritta all’inizio del capitolo, quella in cui
abbiamo accesso ai dati sulla variabile-risultato solamente per il periodo
post-intervento, cioè per il 2004. Invece per il 2000 supponiamo come prima
di avere informazioni sulle caratteristiche di ciascun quartiere (più
precisamente i tassi di disoccupazione e di immigrazione) ma non sulla
variabile-risultato.
Esploriamo ora un metodo alternativo a quello della regressione multipla, il
matching (o abbinamento) statistico. La differenza tra i due metodi è nel
modo in cui essi utilizzano i dati a disposizione, non nei dati a cui fanno
ricorso, che sono (in buona parte) gli stessi; con la regressione, imponiamo
sui dati un modello parametrico, cioè supponiamo di sapere quale forma
abbia la relazione tra la variabile dipendente e le variabili di controllo: nel
caso esaminato, abbiamo supposto una relazione lineare.
Potremmo rendere il modello meno lineare (mediante l’aggiunta di
interazioni o di funzioni polinomiali delle variabili di controllo), ma comunque
faremmo sempre qualche assunto arbitrario sulla forma della relazione tra
le variabili.
Il metodo del matching statistico si basa su un’idea diversa, che trae
ispirazione dal metodo sperimentale: l’idea è quella di creare un gruppo di
controllo ex post, scegliendo tra i non-trattati quel sottogruppo che sia il più
simile possibile al gruppo dei trattati in termini di caratteristiche osservabili.
La procedura adottata per scegliere il gruppo di controllo ex post tenta

228
Statistics for Evaluation

nuovamente di eliminare le differenze di partenza che il processo di


selezione ha generato tra i due gruppi, cioè lo stesso obiettivo perseguito
dall’analisi di regressione.
Una volta scelto il gruppo di controllo ex post, la stima dell’effetto si otterrà
semplicemente calcolando la differenza tra la media della variabile-risultato
nel gruppo dei trattati e nel gruppo dei controlli abbinati. Questo è quindi un
approccio “non parametrico”, nel senso che non richiede di imporre una
precisa forma alla relazione tra variabile-risultato e variabili di controllo.
Notiamo come questa strategia si colleghi immediatamente all’idea di
controfattuale: potremmo dire che la media della variabile-risultato delle
unità non-trattate abbinate rappresenta la nostra migliore stima del
controfattuale.
Come prevediamo si sarebbero comportate le unità trattate in assenza di
trattamento? Come le unità non-trattate che sono più simili alle trattate.
Va tuttavia sottolineato come anche questo metodo si basi sullo stesso
assunto della regressione, cioè che le differenze di partenza tra le
caratteristiche non osservabili di trattati e non-trattati siano nulle o
“ignorabili”, una volta che si sia tenuto conto delle caratteristiche
osservabili.
Le procedure di matching sono più d’una: prima di esaminarne alcune in
dettaglio, soffermiamoci su un’altra differenza tra il matching e la
regressione, una differenza che motiva ulteriormente l’utilizzo del primo
rispetto alla seconda.
La differenza consiste in questo: la regressione utilizza tutte le osservazioni
disponibili, e quindi anche le osservazioni di soggetti non-trattati che siano
molto diversi dai soggetti trattati: queste differenze sono oscurate dalla
procedura di stima utilizzata dalla regressione, che è una sorta di “scatola
nera”. Viceversa, il matching mette in evidenza se vi sono unità non trattate
molto diverse dalle unità trattate e tende a non usarle per l’abbinamento e
quindi per la stima dell’effetto. In altre parole, il matching per sua natura
utilizza solo i soggetti più confrontabili.
Facciamo un esempio per sviluppare questo punto. Poniamo che i 50
quartieri URP siano caratterizzati da tassi di disoccupazione medio-alti,

229
Duccio Stefano Gazzei

mentre tutti i 250 quartieri NonURP abbiano al contrario tassi medio-bassi.


Ciò non costituisce un problema per la regressione. È comunque possibile
stimare il modello (55) e la retta cercherà di interpolare al meglio i dati
disponibili: la relazione tra vandalismo e disoccupazione sarà stimata con i
dati NonURP dove la disoccupazione è molto bassa (e non ci sono dati
URP) e con i dati URP dove la disoccupazione è molto alta (e non ci sono
dati NonURP).
Il matching funziona diversamente: avendo necessità di confrontare unità
simili, esso semplicemente non può essere utilizzato a meno che unità
trattate e unità non-trattate abbiano un supporto comune, cioè esistano
unità trattate e unità non-trattate con valori simili nelle variabili di controllo.
Nel nostro esempio, nel gruppo di controllo ex post finiranno solo i quartieri
NonURP che tendono ad avere un tasso di disoccupazione medio (e, a
seconda della procedura adottata, solo i quartieri URP con disoccupazione
media saranno utilizzati).
In sintesi: il metodo del matching non richiede un assunto (spesso difficile
da giustificare) sulla forma della relazione tra variabile-risultato e variabili di
controllo, perché si basa proprio sull’abbinamento tra i valori delle variabili
di controllo stesse. In questo senso il matching è meno restrittivo della
regressione. D’altro canto, esso impone che esistano unità trattate e non-
trattate che abbiano caratteristiche simili, pena l’impossibilità di abbinarle
adeguatamente. Quindi da questo punto di vista il matching è più restrittivo
della regressione rispetto ai dati che si possono utilizzare.
La particolare procedura di matching dipende da due scelte:
(a) la scelta della misura di distanza tra unità (per definire la somiglianza o
la diversità delle unità tra loro);
(b) la scelta della tipologia di abbinamento (il criterio per scegliere quante
unità abbinare e come, sulla base della distanza).
La misura di distanza oggi più comunemente usata si basa sul cosiddetto
propensity score (indice di propensione). Il propensity score di una unità
(trattata o non-trattata) è la probabilità che l’unità venga assegnata al
trattamento date le sue caratteristiche osservabili prima del trattamento
(ignorando quindi il fatto che sia stata realmente trattata o non-trattata). Il

230
Statistics for Evaluation

vantaggio principale nell’utilizzo del propensity score sta nella possibilità di


ridurre a una il numero delle variabili da utilizzare per calcolare le differenze
tra unità, riducendo sensibilmente la mole e il tempo di lavoro, e
semplificando la lettura dei risultati.
Come si ottiene questo propensity score? Il primo passo è quello di stimare,
utilizzando tutte le unità trattate e non-trattate disponibili, un modello
probabilistico detto regressione logistica, che mette in relazione il
trattamento T (che qui diventa la variabile dipendente) con le caratteristiche
osservabili dei soggetti. La relazione funzionale tra la probabilità di
trattamento e le variabili esplicative è data dalla funzione logistica, che
garantisce che la probabilità stimata cada nell’intervallo tra zero e uno:
( ⋯ )
( = 1) = ⋯
[66]
( )

Una volta stimato, tale modello permetterà, per ogni unità, di predire la
probabilità di trattamento in funzione del valore delle sue variabili
esplicative: cioè produrrà, per ogni unità, il suo propensity score (che non
sarà altro che un numero tra zero e uno). Quelle unità le cui caratteristiche
implicano un’alta probabilità di trattamento (nel nostro caso, un’alta
probabilità di ricevere i finanziamenti URP) avranno un propensity score più
vicino a 1 di quelle unità che hanno una bassa probabilità di trattamento. Va
ribadito che il propensity score si calcola per tutte le unità (trattate e non-
trattate), usando esclusivamente informazioni pre-trattamento.
Una volta che disponiamo del propensity score per tutte le unità, possiamo
utilizzare come distanza tra due unità la differenza tra i loro propensity
score (che indichiamo con pi nel caso dell’unità trattata e pj nel caso della
non-trattata):
dij = | pi – pj | [66]
Una volta definita la distanza tra le unità, è possibile procedere
all’abbinamento di unità trattate e non-trattate quindi alla costruzione del
gruppo di controllo ex post.
Esistono diverse metodologie per eseguire l’abbinamento. Noi utilizzeremo
l’abbinamento sull’unità più vicina (Nearest neighbour matching), che
rappresenta il metodo più semplice e intuitivo. Consiste semplicemente

231
Duccio Stefano Gazzei

nell’abbinare ad ogni unità trattata quella particolare unità non-trattata che


ha il propensity score più vicino numericamente.
Quindi il “gruppo dei controlli” (così chiameremo per semplicità l’insieme
della unità non-trattate che sono abbinate ad una singola unità trattata) è
rappresentato da una sola unità non-trattata.
La selezione delle unità di controllo viene solitamente effettuata con
ripetizione (o reimmissione): quindi è possibile assegnare la stessa unità
non-trattata ripetutamente a più unità trattate. Il numero di unità non-trattate
inserite nel gruppo di controllo ex post può essere inferiore a quello delle
unità trattate.
Una volta effettuato l’abbinamento, la stima dell’effetto della politica è
semplicemente ricavata tra la media della variabile-risultato tra i trattati e la
media calcolata tra i controlli abbinati.
Cominciamo stimando sui dati URP una regressione logistica, che mette in
relazione la partecipazione al programma URP con i tassi di immigrazione e
di disoccupazione. Il modello stimato con due sole variabili esplicative avrà
la seguente forma:
( )
( = 1) = ( )) [67]
(

La tabella seguente contiene le stime dei coefficienti della regressione


logistica rappresentata dall’equazione 67:
Tabella 27 – Stima della regressione 61
Variabile Simbolo Coefficiente p-value
Costante a -7,53 0,00
IMMIGRAZ θ 0,11 0,07
DISOCCUP λ 0,33 0,00

Le stime dei coefficienti possono essere utilizzate per calcolare il propensity


score per ciascuna unità (trattata e non-trattata).
È chiaro dalla formula (67) come per valori alti di immigrazione e
disoccupazione il propensity score tenda a uno, mentre per valori bassi
tenda a zero, in quanto entrambi i coefficienti sono positivi.
L’intensità della relazione tra la probabilità di ottenere i finanziamenti e la
caratteristica del quartiere dipende dal valore del coefficiente stimato, che è

232
Statistics for Evaluation

più grande per il tasso di disoccupazione che per il tasso di immigrazione.


La Tabella seguente mostra, a scopo puramente esemplificativo, il
propensity score stimato per alcuni quartieri URP e NonURP.
Tabella 27 – Propensity score stimato per alcuni quartieri

È evidente come quartieri con tassi di immigrazione e (soprattutto)


disoccupazione simili tendano ad avere propensity score simili.
È altrettanto evidente (si osservino le prime quattro righe) come unità con
tassi simili ma “scambiati” (uno con immigrazione alta e disoccupazione
bassa, l’altro con immigrazione bassa e disoccupazione alta) non abbiano
propensity score simili e non siano dunque facilmente abbinabili per il
confronto (al contrario di quanto si sarebbe fatto, in pratica, utilizzando il
modello di regressione lineare). Una volta stimato il propensity score, è
possibile procedere alla stima dell’effetto con le procedure di matching
descritte più sopra.
Tabella 28 – Stime dell’effetto di URP ottenute con matching statistico

233
Duccio Stefano Gazzei

CONCLUSIONI

Il materiale presentato in queste dispense non vuole essere assolutamente


esaustivo di quello che la Statistica può fare per le valutazioni.

La letteratura disponibile è enorme ed ogni giorno nuove idee metodologiche si


aggiungono: raccogliere il tutto è impresa impossibile.

Ci siamo limitati a scegliere alcuni argomenti di particolare interesse, attuali e che


si presentano frequentemente a chi lavora in una azienda.

Ognuno di essi è una ottima chiave per aprire le porte di una disciplina
affascinante, moderna, forse una delle più veloci a correre la fantastica corsa
della modernità e dello sviluppo tecnologico.

234
Statistics for Evaluation

BIBLIOGRAFIA

AA.VV. (2016), Net Promoter Score (NPS): Use, Application and Pittfalls, in
www.checkmarket.com
AIGNER D.J., CHU S.F. (1968), "On Estimating the Industry Production
Function", The American Economic Review, n°4
ALVARO G. (1999), Economia e statistica aziendale, Cedam
AMADIO G., LIVERANI A. ZANNI S. (2002), “Analisi dell’Efficienza delle
Aziende che erogano dei servizi al pubblico. Il Costo degli Sportelli
Bancari”, Budget n°16
AMAGLIO A., ZANEGA P. (2000), Activity Based Management: come
realizzare un sistema avanzato dell’impresa. Franco Angeli Editore
AMENDOLA M. (1976): “Macchine, produttività, progresso tecnico”, Milano
ANGIOLINI A. (1995), Come sviluppare un buon sistema di reporting,
Franco Angeli Editore
ARBIA G., ESPA G. (1996), Statistica e Economica e territoriale, Cedam
ARIA M., (2018), Gli alberi di classificazione, Federica Web Learning,
Università degli Studi di Napoli Federico II
BALLOCCI G. (1997), “Marketing e Geografia: un matrimonio d’interesse”,
Largo Consumo n°5
BIZZI N. (2017), statistica, pubblicità e web analytics: un caso di studio in
BNL, Tesi di Laurea
BREIMAN L, FRIEDMAN JH, OLSHEN RA, STONE CJ (1984).
Classification and Regression Trees. The Wadsworth & Brooks/Cole
Statistics/Probability Series.
BRASINI S., FREO M., TASSINARI F., TASSINARI G. (2010), Marketing e
pubblicità, Il Mulino
BRUNI G., DI LAZZARO F., GATTI G. (2001), Il reporting della performance
aziendale. Un’applicazione al settore delle aziende di pubblici servizi in

235
Duccio Stefano Gazzei

Italia, Francia e Gran Bretagna, Economia – Ricerche n°120, F. Angeli


Editore
CHARNES A., COOPER W.W., RHODES E. (1978), “Measuring the
efficiency of decision making units”, European Journal Of Operational
Research, 2
DE LUCA A. (2002), Le Applicazioni dei Metodi Statistici alle Analisi di
Mercato, Franco Angeli
DEPRINS D., SIMAR L., TULKENS H. (1984), "Measuring Labor-Efficiency
in Post Offices", The Performance of Public Enterprises: Concepts and
Measurement, Amsterdam, North-Holland
DIPARTIMENTO DELLA FUNZIONE PUBBLICA (2002), Proposte per il
cambiamento nelle amministrazioni pubbliche, Rubbettino
FARNETI G., MAZZARA L., RAVIOLI G., (1998), Il sistema degli indicatori
negli Enti Locali, G.Giappichelli Editore, Torino
FORSUND R., LOVELL C.A.K., SCHMIDT P. (1980), A survey of frontier
production functions and their relationship to efficiency measurement.
Journal of Econometrics
GAZZEI D.S., BETTI G., CERVELLERA G. (2012), Dal dato
all’informazione gestionale. Strumenti statistici per supportare sistemi di
controllo di gestione e di comunicazione integrata, Dispense ad uso
Università di Siena
GAZZEI D.S., BORRELLI F. (2016), Net Promoter Score: Solo un indicatore
di soddisfazione e raccomandabilità? No molto di più!, MK n°6, Abi
Editore
GAZZEI D.S., GUARRACINO P., LEMMI A., QUINTI A., RUSTICI C.
(1995), La misura statistica della produttività e dell’efficienza nelle
aziende di credito: tre casi di studio nell’Italia centrale, Serie Rapporti
Tecnici, Dipartimento di Metodi Quantitativi, Università degli Studi di
Siena, n.1
GAZZEI D.S., LEMMI A., VIVIANI A., (1997) Misure statistiche di
performance produttiva. Un percorso di metodi e di evidenze empiriche,
CLEUP, Padova

236
Statistics for Evaluation

GIUSTI F. (1994), Modelli Neoclassici di Produzione, Università “La


Sapienza”, Roma IORI A. (1994), Il servizio trasparente, F. Angeli Editore
KAPLAN S.R., NORTON D.P. (1992), “The Balanced Scorecard. Measures
That Driver Performance”, Harvard Business Review, Gennaio-Febbraio
KAPLAN S.R., NORTON D.P. (2000), Balanced Scorecard – Tradurre la
strategia in azione, Isedi
KAUSHICK A. (2010), Web Analytics 2.0, Hoepli
MARELLI A. (2000), Il sistema di reporting interno. Logiche di strutturazione
delle informazioni aziendali per le decisioni dell’alta direzione, Giuffré
MARIANI P. (2002), La statistica in azienda, F Angeli Editore
MARTINI M. (1992), I Numeri Indice in un approccio assiomatico, Giuffré
Editore.
MARTINI A., MO COSTABELLA L., SISTI M. (2005), Valutare gli effetti
delle politiche pubbliche: metodi e applicazioni al caso italiano, Formez
NISTICÒ A., PROSPERETTI L. (1996), “Produzione e produttività”,
Previsioni e Misure di Efficienza Aziendale, NIS, Roma
OSTRENGA M.R., OZAN T.R., HARWOOD M.D. E MCILHATTAN
R.D.(1992), The Ernst & Young Guide to Total Cost Management,
J.Wiley & Sons
PARASURAMAN, ZEITHAML, BERRY, "A Conceptual Model of Service
Quality and Its Implications for Future Research," Journal of Marketing,
Fall 1985
POZZOLI S. (2001), Il controllo direzionale negli Enti Locali: dall’analisi dei
costi al Balanced Scorecard, F.Angeli Editore
Reichheld F.F. (2003), The One Number You Need to Grow, Harvard
Business Review
SAITA M. (1988), Il sistema amministrativo evoluto, Mc Graw Hill, Milano
SOLIANI L. (2003), Manuale di statistica per la ricerca e la professione.
Edizione Cap.15
Volpato E. (2011), Ambasciatori o assassini?, Il Dirigente, Manageritalia

237
Duccio Stefano Gazzei

SITOGRAFIA

www.andreapilotti.com/centralita-cliente-marketing.html
www.digitalanalyticsassociation.org/
www.okpedia.it/processo_produttivo
www.saverioweb.com
www.begcomunicazione.it
www.webanalytics.it/
www.federica.unina.it/economia/analisi-statistica-sociologica/alberi-
classificazione/

238

Potrebbero piacerti anche