Sei sulla pagina 1di 27

DOMANE I SETTIMANA

1) I modelli di Zielske e Broadbent per l'analisi del ricordo della pubblicità..

Gli studi di Henry Zielske sulla pubblicità a mezzo stampa hanno avuto come oggetto sia la
velocità di apprendimento (ricordo della pubblicità) sia la velocità del decadimento memoriale e
hanno messo in luce che:

a) l'azione intensiva porta, in un intervallo temporale di ampiezza limitata, ad un tasso di


ricordo più elevato dell'azione regolare;

b) l'incremento del numero di persone che ricorda la pubblicità è via via più basso man mano
che aumenta il numero di esposizioni;

c) anche la velocità di decadimento diminuisce progressivamente all'aumentare del numero


di esposizioni. Ciò sembra dimostrare che la ripetizione dell'annuncio non solo incrementi la
percentuale di persone che lo ricordano, ma ne consolida anche l'azione nel corso del tempo,
diminuendo la velocità con cui si manifesta la perdita della memoria del messaggio
pubblicitario;

d) durante tutto il periodo della campagna il tasso medio di memorizzazione risultò più
elevato per il campione sottoposto alla campagna regolare (29 per cento) rispetto al
campione sottoposto alla campagna intensiva (21 per cento).

Dalla ricerca di Zielske si deduce quindi che per rendere massimo il numero di coloro in grado di
ricordare l'annuncio durante tutto l'anno una pressione pubblicitaria regolare è preferibile ad
un'azione intensiva, che si raccomanda invece quando si è nella fase di lancio di un nuovo prodotto
o di riposizionamento di una marca già in commercio. Risultati simili sono stati ottenuti anche per
quanto riguarda la pubblicità televisiva.

Sulla base dell’evidenza empirica Zielske ha proposto un modello che mette in relazione la
percentuale di persone che ricordano il messaggio (denotata dal simbolo S) con la percentuale di
ricordanti al tempo precedente e la pressione pubblicitaria corrente, indicata con il simbolo A e
usualmente misurata in termini di GRP:

St = a1 St-1 + a2 At

con a1 e a2 che sono parametri da stimare con gli usuali metodi sulla base di serie storiche di dati
individuali.

A sua volta, il modello di memorizzazione di Simon Broadbent si basa sull'assunzione che, in un dato
momento, il ricordo sia funzione non solo della pubblicità effettuata nel periodo corrente, ma anche
della pressione pubblicitaria esercitata nel passato. Il ricordo viene ad essere espresso come funzione
lineare di una variabile latente, denominata adstock, che indica lo stock di investimento (o di
pressione) pubblicitario fino al periodo t:

Snt = bAdst 7

Adst =(rAt + r2At-1 + r3At-2 + ... + rnAt-n+1) 8


dove:
r è il parametro che esprime il decadimento dell'azione pubblicitaria, più è alto maggiore è l
'inerzia con cui la pubblicità effettuata al tempo t esplica il suo effetto nei tempi successivi;

A è la variabile che rappresenta la pressione pubblicitaria, espressa in termini di contatti ottenuti


in ogni periodo (ad esempio in GRP);

Ads è la variabile adstock.


L'impiego di questo modello richiede quindi che si conosca a priori il parametro r, oppure che il
termine a destra della [8] venga sostituito nella [7] al posto della variabile adstock. Un modello che
esprime la relazione fra pubblicità e vendite mediante la variabile adstock, e in cui si introducono
anche gli effetti esercitati dal prezzo e dalle eventuali promozioni, è il seguente:

Qt = (b0 + b1 Adst) (b2Pt) + (b0b3 Dt) (9)

nel quale

Qt indica le vendite della marca al tempo t;


Pt indica il prezzo al tempo t;
Dt l'eventuale presenza di promozioni di vendita al tempo t.

Nel modello il parametro b0 rappresenta le vendite che la marca realizza indipendentemente dalle
politiche di marketing (ma non dal prezzo), e le promozioni di vendita esercitano il loro effetto
allargando la base di mercato del prodotto. Trattandosi di un modello di tipo non lineare, la stima
dei parametri deve essere effettuata ricorrendo ai metodi della massima verosimiglianza o dei minimi
quadrati non lineari.

Recentemente, è stato proposto un modello con adstock a base mobile (floating base), in cui le
vendite della marca oscillano intorno ad un livello base, a sua volta soggetto a modificazioni in
ragione dell’azione di forze contrastanti, il cui effetto congiunto dà luogo a variazioni abbastanza
contenute. Le prime, negative, derivano dalle azioni di marketing dei concorrenti, mentre le seconde,
positive, esprimono l’effetto dell’adstock a lungo termine.
Un’applicazione con finalità comparative dei modelli di Zielske e di Broadbent al mercato italiano
della birra, caratterizzato da una forte segmentazione e da investimenti pubblicitari piuttosto
ingenti, ha condotto ai risultati riporati nella tabella 8.1.

I dati utilizzati sono di fonte Auditel per quanto riguarda la pressione pubblicitaria televisiva
espressa dai GRP, mentre i dati sul numero di persone che ricordano spontaneamente la
pubblicità di una marca di birra sono rilevati con un’indagine telefonica giornaliera da una società
milanese di ricerche di mercato. Il periodo a cui si riferisce l’analisi va dal 1993 al 1995 per un
complesso di 156 osservazioni settimanali.

Con riferimento ad una marca che nel periodo considerato ha effettuato consistenti investimenti
pubblicitari e occupa una posizione preminente in termini di quota di mercato, si è proceduto
alla stima sia del modello (4) che di quello (8) al fine di misurare la relazione tra pressione
pubblicitaria e ricordo spontaneo di marca. Il modello (8) è stato stimato con il metodo dei minimi
quadrati non lineari considerando un numero di termini ritardati della variabile GRP pari a 16.

I risultati mostrano come per la marca in esame il modello di Zielske sia preferibile a causa della
maggiore capacità esplicativa, espressa dal coefficiente di determinazione lineare corretto, e per
il fatto che il valore della statistica di Durbin-Watson per il modello di Broabent indica la presenza
di errori positivamente autocorrelati Il risultato può essere interpretato come un’indicazione di
scarsa efficacia della pressione pubblicitaria corrente alla sedimentazione del ricordo, che
dipende invece in maniera molto più accentuata dal ricordo al tempo precedente.

Questa interpretazione trova due riscontri, seppur indiretti:

a) nel modello di Zielske il valore della t di Student relativa al ricordo ritardato di un periodo
è quasi cinque volte più elevato del corrispondente valore per la variabile GRP;

b) la marca in esame è presente nel mercato italiano da molti anni, e quindi ha un’immagine
consolidata. Infatti, la segmentazione di coloro che ricordano la marca, effettuata con la
tecnica dell’Automatic Interaction Detection (si veda a questo riguardo il quinto capitolo),
mostra come questi si concentrino soprattutto nelle classi di età più elevate.

2) La rilevazione Auditel.
In Italia la rilevazione dell’audience televisiva è effettuata dall’Auditel. Auditel utilizza un campione
continuativo di 5.200 famiglie (panel chiuso) selezionato attraverso un campione probabilistico
riferito a tutta la popolazione italiana con quattro anni e piú che possiedono almeno un televisore.
Indagine di base e campione a due stadi (comuni e famiglie) con stratificazione delle unità di primo
stadio).Rilevazione dell’ascolto tramite meter/push button. Ascolto pari almeno a 31 secondi.
Metriche usuali. Segmentazione dell’audience con variabili socio-demografiche e schemi psicografici
(Sinottica GFK-Eurisko).

I dati forniti riguardano l’audience, lo share e la penetrazione. Auditel produce oltre alle reti nazionali,
dati riguardanti le televisioni locali, con periodicità mensile.

3) Le misure della notorietà di marca e del ricordo della pubblicità

Il livello più semplice della risposta cognitiva è quello della consapevolezza dell'esistenza di un
prodotto o di una marca. L'informazione si può ottenere abbastanza facilmente, poichè è sufficiente
interrogare i consumatori sulle marche che riconoscono all'interno della classe di prodotti
considerati. Al riguardo si distingue fra:

- Notorietà spontanea, quando il quesito è posto senza far riferimento ad alcuna marca. La prima
marca citata quando si misura la notorietà spontanea viene chiamata anche come top of the
mind.
- Notorietà assistita, quando l'intervistato è invitato a indicare le marche che conosce nella lista
che gli viene sottoposta.

Un tasso elevato di notorietà costituisce per l'azienda un capitale assai importante, che richiede, per
essere costruito, anni e anni di investimenti pubblicitari. Fra notorietà di marca e ricordo della
campagna pubblicitaria è stata osservata un'alta correlazione, come pure fra notorietà e volume delle
vendite. Sono proprio queste due circostanze che determinano l'interesse alla misurazione della
notorietà delle marche. L'impiego delle misure di notorietà come indicatori di efficacia della
pubblicità richiede che le misurazioni vengano fatte prima e dopo la campagna.

Le analisi che possono essere effettuate a partire dalle misure di notorietà sono semplici, ma di
notevole portata conoscitiva.

Esse riguardano:

a) se si ricorre alla notorietà spontanea, la determinazione della frequenza relativa con cui una marca
è citata al primo posto, al secondo posto, al terzo e così via;

b) il confronto della notorietà spontanea di una marca con la notorietà assistita: la frequenza assoluta
delle marche ricordate spontaneamente è di solito inferiore a quella delle marche riconosciute in una
lista;

c) il confronto fra la notorietà della marca (espressa in termini relativi) e la corrispondente quota di
mercato;

d) la comparazione del tasso di notorietà della marca fra diversi gruppi di acquirenti, per stabilire se
i segmenti di consumatori caratterizzati dai tassi di notorietà più elevati corrispondono a quelli a cui
era stata indirizzata la comunicazione pubblicitaria.

Se le misure di notorietà colgono solo un aspetto dell'efficacia della pubblicità, quelle del
riconoscimento e del ricordo si riferiscono al messaggio pubblicitario vero e proprio. Per poter
esplicare il proprio effetto, la pubblicità deve stabilire in primo luogo un contatto con il pubblico a
cui è destinata. In questa fase vengono ad assumere un ruolo di grande importanza le funzioni della
memoria, la più elementare delle quali è basata sul riconoscimento: l'intervistato deve limitarsi ad
identificare una esperienza già fatta, e ciò può essere ottenuto semplicemente presentandogli
l'annuncio e chiedendogli se lo ha già visto o notato.

Una variante del metodo del riconoscimento è nota come misura dell'impatto, e consiste nel
mostrare un annuncio o nel far vedere/sentire uno spot mascherando o eliminando il nome della
marca e chiedendone l'identificazione.

Per quanto riguarda il ricordo dell'annuncio si distingue fra:

a) ricordo spontaneo, quando le persone ricordano l'annuncio allorchè si parla del prodotto in
questione o del veicolo editoriale in cui era inserito;

b) ricordo verbalmente stimolato, se avviene mediante la presentazione di una lista di prodotti;


c) ricordo attinente, quando il rispondente è in grado anche di descrivere correttamente il contenuto
(tutto o in parte) del messaggio in oggetto.

Le funzioni psicologiche a cui si richiamano le misure del riconoscimento e del ricordo sono in parte
diverse, per cui le due tecniche di misurazione sono tra loro complementari più che sostitutive. La
ricerca empirica mette in luce che la correlazione fra ricordo spontaneo e ricordo stimolato risulta
debole.

Sebbene siano utilizzate non di rado come indicatori dell'efficacia della pubblicità, occorre tener
presente che le misure appena descritte sono fortemente influenzate dal grado di coinvolgimento
dell'intervistato nei confronti della classe di prodotto e della marca in oggetto, dal suo livello di
istruzione, dall'età, e da altri caratteri di tipo demografico e sociale.

Grande attenzione deve essere posta alle procedure di rilevazione, in quanto la possibilità di errori
non campionari è particolarmente elevata quando l'oggetto dell'indagine consiste di argomenti non
fattuali, quali opinioni, preferenze, ecc.

Nei casi in cui la misurazione è effettuata in un contesto prima/dopo rispetto alla campagna
pubblicitaria, è cruciale la scelta del momento in cui effettuare l'intervista, ovvero se durante lo
svolgimento della campagna o al suo termine, e in questo caso quanto tempo dopo la sua fine.

L’intervallo di tempo fra stimolo pubblicitario e misurazione dell'eventuale risposta è assai


importante nei casi in cui la ricerca mira ad accertare specificamente non l'efficacia del singolo spot
o annuncio, ma quale sia la strategia temporale più efficace con cui condurre la campagna. Si
distingue a questo riguardo fra:

a) pressione regolare e continua per tutto il periodo di campagna (steady);


b) alternarsi di periodi di forte pressione e di periodi di silenzio pubblicitario (fligth);
c) fortissima pressione contenuta in un breve periodo di tempo (burst).
Per depurare la misura del ricordo dall'effetto di più esposizioni si utilizza la percentuale di persone
che, esposte per la prima volta ad un nuovo messaggio, memorizzano la marca ed almeno uno degli
elementi visivi o testuali dell'annuncio (tale percentuale viene chiamata fattore beta). Molto spesso,
nel caso della pubblicità televisiva, il fattore beta viene stimato intervistando l'audience potenziale
del messaggio il giorno dopo che questo è stato trasmesso.

DOMANDE II SETTIMANA

1) Le caratteristiche delle funzioni di risposta delle vendite


Funzioni concave
Le vendite generalmente aumentano con l’aumento dello sforzo di marketing, ma mostrano
ritorni decrescenti di scala.
Funzioni a forma di S
Qualche volta la funzione di risposta delle vendite ha la forma di S rispetto allo sforzo di
marketing. Inizialmente le vendite possono mostrare ritorni crescenti di scala, e
successivamente rendimenti decrescenti rispetto a più intensi livelli dell’attività di marketing.
Effetto soglia
Questo si manifesta quando la risposta delle vendite occorre solo se lo sforzo di marketing
(ad esempio l’investimento pubblicitario) è superiore ad un certo ammontare. L’esistenza
dell’effetto soglia fa sì che la pubblicità sia uno strumento per costruire barriere all’entrata e
quindi potere di mercato.
Saturazione
L’esistenza di un livello di saturazione è accettata universalmente, tuttavia il livello di
saturazione raramente viene modellato e stimato. La procedura usuale è di rappresentare la
risposta per mezzo di una funzione che mostra rendimenti decrescenti di scala.
Questo approccio è probabilmente adeguato per le analisi a breve termine, ma quando
l’oggetto dello studio riguarda la strategia a lungo termine, i livelli di saturazione dovrebbero
essere stimati.

Asimmetria nella risposta


L’asimmetria della risposta si verifica quando la dimensione della risposta ad un cambiamento
nell’intensità degli effetti di marketing si manifesta in modo differente a seconda che si tratti
di una variazione positiva o negativa. Questo è da tenere distinto dall’asimmetria degli effetti
competitivi, ovvero che i cambiamenti nelle attività di marketing influenzi i concorrenti in
modo differente.

3) I modelli di risposta delle quote di mercato: lineamenti generali

I modelli di risposta delle vendite descrivono in modo formale la relazione esistente tra un’impresa
e il suo mercato.

Essi sono progettati per superare quanta più incertezza delle vendite, e, in aggiunta, per fornire un
meccanismo comportamentale in un modello decisionale che permetta al management di esplorare
le politiche migliori.

L’uso delle quote di mercato per misurare la performance degli strumenti di marketing utilizzati
dall’impresa è adeguata quando non vi è effetto sulla domanda primaria e il mercato è stazionario.
Nella loro specificazione devono essere rispettate alcune regole di consistenza logica, ovvero:
• ogni quota stimata deve essere compresa nell’intervallo 0,1;
• in ogni tempo la somma delle quote stimate deve essere uguale ad 1.

Modelli di attrazione
In questi modelli, la quota di mercato è data dal rapporto tra l’attrazione esercitata dalla marca e la
somma delle attrazioni di tutte le marche:

Ai
MS i = m

A
j =1
j

Fino a che le attrazioni sono non negative, ogni quota di mercato è compresa nell’intervallo 0,1.
L’attrazione di ogni marca è concettualizzata come funzione delle azioni di marketing.
Perchè sia valida l’espressione delle quote di mercato in termini di rapporto tra le attrazioni devono
essere rispettati i seguenti assiomi:
• le attrazioni sono tutte non negative;
• se l’attrazione di una marca è zero, la corrispondente quota di mercato è zero;
• se due marche hanno la stessa attrazione, le loro quote di mercato sono uguali;
• quando l’attrazione della marca j, Aj, cambia di una quantità , il cambiamento
corrispondente della quota di mercato della marca i, MSi (per i differente da j), è indipendente
da j.

I modelli di attrazione si differenziano tra loro per quanto riguarda due aspetti:
1. la forma funzionale che collega A alle variabili che rappresentano le azioni di marketing;
2. L’inclusione degli effetti differenziali e competitivi.

La scelta della forma funzionale. Partiamo dalla relazione generica:

Ai = f(X1i, X2i,..., XKi) .

Assumendo una funzione moltiplicativa, e senza nessuna trasformazione delle variabili, abbiamo il
modello Multiplicative Competitive Interaction (MCI):

Ai = exp (ai +ei )∑ 𝑿𝒃𝒌𝒊𝒌 Xki bk2

Dove:

exp(ai) è l’intercetta della funzione per la marca i;

bk è l’elasticità del k-mo strumento di marketing per la marca i-ma;

exp(ei) è il termine stocastico.

Una formulazione differente delle variabili di marketing è nota come modello Multinomial Logit:

Ai = exp (ai + ∑ 𝑏𝑘 𝑋𝑘𝑖 +e i) .

Le elasticità corrispondenti sono le seguenti:

MCI:

bk (1-MSi)
MNL:

bk (1-MSi) Xki

Pertanto, l’elasticità diminuisce man mano che la quota di mercato aumenta.

Per quanto riguarda l’inclusione nel modello degli effetti differenziali e competitivi, ci limitiamo
all’esame del modello MCI.

a) Modello semplice. Tutti i coefficienti della funzione di risposta sono uguali per tutte le marche e
non sussistono effetti competitivi:
Ai = exp(ai+ei) Xki bk

b) Modello differenziale. I coefficienti di ciascuna variabile di marketing variano da marca a marca


e gli effetti competitive sorgono dalla normalizzazione:

Ai = exp(ai+ei) (Xki)bki

c) Modello completo, dove le vendite della marca sono influenzate anche dalla competizione:

Ai = exp(ai+ei) (Xkj)bkij

dove bkij è il parametro dell’effetto incrociato della variabile Xkj sull’attrazione della marca i.

Il modello complete è il più realistico, poichè tiene conto:


• della variabilità degli strumenti di marketing;
• della differente vulnerabilità delle marche alla competizione.

Se abbiamo un numero di osservazioni sufficienti, il primo passo è di stimare i modelli completi sia
nella forma MCI che nella forma MNL. Si sceglie la forma funzionale migliore (R2, criterio di Schwartz,
etc.) e poi si eliminano mano a mano I coefficienti non significativi, cominciando da quelli con il p-
value più grande.

Stima dei parametri


L’operazione fondamentale è nota come log-centratura.
Poniamo:

MSg è la media geometrica delle quote di mercato in ciascun tempo;


a., bk.j, e. sono rispettivamente le medie aritmetiche di ait, bkij and eit

La quota di mercato log-centrata è data, in ogni tempo, dal logaritmo del rapporto tra la quota di
mercato della marca i e la media geometrica:

𝑀𝑆
𝑀𝑆𝑖𝑡∗ = log⁡(𝑀𝑆 𝑖𝑡 )
𝑔𝑡

I parametri diventano:
𝑎𝑖∗ = (𝑎𝑖 − 𝑎. )

𝑏𝑘𝑖𝑗 = (𝑏𝑘𝑖𝑗 − 𝑏𝑘.𝑗 )
Il termine di errore assume la forma

𝑒𝑖𝑡 = (𝑒𝑖𝑡 − 𝑒.𝑡 )

La log-centratura produce la linearizzazione del termine a destra dell’equazione. Otteniamo così delle
funzioni lineari stimabili. Per il modello MNL l’equazione stimabile è la seguente:
K m
MS = a +  bkij
*
it
*
X kjt + e*jt
*
i
k =1 j =1

Mentre per il modello MCI l’equazione stimabile è data da:

K m
MS it =a + bkij
*
log X kjt + eit*
*
i
k =1 j =1

e 
eit* = log  it 
 e.i 
dove

Dopo la stima possiamo calcolare le elasticità, che equivalgono a quelle originarie anche se abbiamo
stimato non i parametri originali ma le loro deviazioni rispetto alla media aritmetica.

Per il modello MNL

m
 MS ; X = (b −  MS h bkhj
i kj
* *
) X kjt
kij
h =1

Mentre per il modello MCI abbiamo:

m
 MS ; X = (b −  bkhj
i
*
kj
) *
kij
h =1
E’ abbastanza facile rendersi conto che le equazioni sono collegate, perchè per ogni tempo la somma
delle quote di mercato deve essere pari a uno e pertanto esiste un vincolo tra le equazioni.
La stima deve essere quindi eseguita con il metodo SUR (Seemingly Unrelated Regression) proposto
da Zellner.
Tuttavia, se le variabili indipendenti sono le stesse in ogni equazione, il metodo SUR si reduce a
quello dei minimi quadrati.
Quindi la stima del modello completo può essere condotta con il metodo OLS. Successivamente si
eliminano via via le variabili i cui coefficienti non sono significativi stimando le risultanti equazioni
con il metodo SUR.

2) Il modello di Koyck:
Uno dei modelli dinamici della pubblicità è il modello di Koyck, il quale è stato stipulato per descrivere
l’andamento degli investimenti pubblicitari. La formula di tale modello è:

𝑄𝑡 = 𝑏0(1 − 𝜆) + 𝜆𝑄𝑡−1 + 𝑏1𝐴𝑡 + 𝑢𝑡


Dove 𝑢𝑡 = 𝑒𝑡 + 𝜆𝑒𝑡−1 e segue un processo a media mobile del primo tipo, mentre 𝑒𝑡 è white noise.

Guardando⁡alle⁡vendite,⁡questo⁡modello⁡è⁡molto⁡utile⁡per⁡determinare⁡l’effetto⁡che⁡la⁡pubblicità⁡ha⁡su⁡
di⁡esse,⁡procedendo⁡esponenzialmente⁡decrescente⁡nel⁡tempo.⁡Il⁡termine⁡b1⁡è⁡un⁡effetto⁡di⁡breve⁡
termine⁡mentre⁡gli⁡effetti⁡dei⁡periodi⁡successivi⁡sono:⁡𝜆𝑏1…⁡𝜆𝑛𝑏1, dove lamba è l’effetto di carry over, ossia
l’effetto della pubblicità che si trasferisce da un periodo a quello successivo.
Questo modello appartiene alla tipologia dei modelli “a ritardi distribuiti” la cui formula è:

𝑏[𝜛0𝑥𝑡 + 𝜛1𝑥𝑡−1 + ⋯] + 𝑒𝑡

Esso descrive il modo in cui la risposta delle vendite alla pubblicità segue uno schema di tipo geometrico.
Questo modello assume che i dati siano stazionari ma autocorrelati, e differiscono tra loro sul ruolo
che viene attribuito alla pubblicità nel dare luogo a tale autocorrelazione, ovvero se esiste o meno
un effetto carry-over.

Questo modello descrive il processo in cui la risposta delle vendite alla pubblicità segue uno schema
geometrico in cui 𝜛𝑖 = 𝜆𝑖. Sostituendo abbiamo 𝑄𝑡 = 𝑏0 + 𝑏1[𝑋𝑡 + 𝜆1𝑋𝑡−1 + 𝜆2𝑋𝑡−2 + ⋯ ] + 𝑒𝑡 e
applicando il limite della serie geometrica4 otteniamo 𝑄𝑡 = 𝑏0 +( 𝑏1 /(1−𝜆𝐿) )𝑋𝑡 + 𝑒𝑡; moltiplicando tutti i termini
per (1 − 𝜆𝐿) si ottiene la prima formula.

4) I metodi di cluster di tipo gerarchico: aspetti generali

La cluster analysis è uno strumento per classificare e cercare di suddividere una realtà formata da diverse
osservazioni in tipologie ben definite. Essa è molto utile quando è necessario fare una segmentazione del
mercato e un’analisi della concorrenza.
All’inizio della cluster analysis è presente un collettivo di n elementi, ognuno dei quali è rappresentato da p
variabili e si forma la matrice dei dati, dove le righe corrispondono agli individui e le colonne alle variabili.
Parlando della CA di tipo gerarchico, sono delle tecniche che possono coinvolgere delle variabili di tipo
quantitativo, qualitativo oppure miste. All’interno di questo strumento sono presenti due tecniche:
- Tecniche di tipo aggregativo: ogni individuo rappresenta un gruppo a sé e ognuno di loro viene
aggregato in gruppi in base a una misura di somiglianza, tenendo conto di tutti i caratteri inclusi
nell’analisi.
- Tecniche di tipo divisivo: si considerano tutti gli individui inizialmente in un solo gruppo e via via si
vengono fatte delle suddivisioni binarie e il processo termina quando ogni individuo forma un
gruppo singolo. Dunque viene definito divisivo finché non si ottengono tanti gruppi quante sono le
unità.
Gli algoritmi gerarchici: metodo di legame singolo, metodo di legame completo, metodo di legame
medio, metodo del centroide, metodo di Ward, si differenziano unicamente per il diverso criterio che
regola la valutazione della distanze tra i gruppi ai fini delle successive aggregazioni.

-Metodo del legame singolo: tale distanza è posta pari alla più piccola delle distanze tra i gruppi
ai fini della aggregazioni.

-Metodo del legame completo: alla maggiore di tali distanze.

-Metodo del legame medio: al valor medio aritmetico di tutte le distanze tra gli elementi.
-Metodo del centroide: vanno determinati i vettori (centroidi) contenenti i valori medi delle p
varibili, gruppo per gruppo, e la distanza tra i gruppi viene assunta pari alla distanza tra i rispettivi
centroidi.

5) Metodo di WARD
Il metodo di Ward differisce in parte dei precedenti perché suggerisce di riunire, ad ogni tappa del
processo, i due gruppi dalle cui fusione deriva il minimo incremento possibile della devianza entro.

Questo metodo minimizza, nella scelta dei gruppi da aggregare, una funzione obiettivo che parte
dal presupposto che una classificazione ha l’obiettivo di creare gruppi che rispettino la massima
coesione interna e la massima separazione esterna.

La Devianza totale (T) delle p variabili, corrispondente a n volte la traccia della matrice di varianze-
covarianze dei dati, viene scomposta in due parti: la Devianza nei gruppi W e la Devianza tra i gruppi
B

T= W+B

Si noti che la precedente espressione è in analogia con la scomposizione della varianza che vedremo
per ricavare un criterio della bontà della regressione lineare. In quel caso B è la varianza spiegata
dalla regressione e W la varianza non spiegata o residua.

In termini formali, data una partizione in g gruppi:

- la devianza totale T delle p variabili corrisponde alla somma delle devianze delle singole
variabili rispetto alla corrispondente media generale 𝑥̅𝑠

𝑝 𝑛

𝑇 = ∑ ∑(𝑥𝑖𝑠 − 𝑥̅𝑠 )2
𝑠=1 𝑖=1

- la devianza nei gruppi (W) è data dalla somma delle devianze di gruppo
𝑔

𝑊 = ∑ 𝑆𝑘
𝑘=1

dove Sk rappresenta la devianza delle p variabili nel gruppo k-esimo:


𝑝 𝑛𝑘

𝑥𝑠𝑘 2
𝑆𝑘 = ∑ ∑(𝑥𝑖𝑠 − ̅̅̅̅⁡)
𝑆=1 𝑖=1

Infine la devianza tra i gruppi, B, è data dalla somma (calcolata su tutte le variabili) delle devianze
(ponderate) delle medie di gruppo rispetto alla corrispondente media generale:
𝐵 = ∑𝑝𝑠=1 ∑𝑔𝑘=1 𝑛𝑘 (𝑥
̅̅̅̅
𝑠𝑘 − 𝑥̅𝑠 )
2

Avendo introdotto la scomposizione della devianza, possiamo affermare che, nel metodo di Ward, a
ogni passo della procedura gerarchica si aggregano tra loro i gruppi che comportano il minor
incremento della devianza tra i gruppi, W, e quindi il minor decremento della devianza tra i gruppi.

1) Le regole per individuare il numero di gruppi in una cluster analysis gerarchica.


Regole da utilizzare decidere a quale distanza di fusione tagliare il dendrogramma → obiettivo:
scegliere un livello di aggregazione tale per cui la disomogeneità dentro i gruppi sia abbastanza
contenuta → si cerca il passaggio tale che la disomogeneità diventa tanto forte e ci fermiamo prima.

a. Metodo dell’albero a gomito


Si tratta di un metodo di carattere grafico. Che ha in ordinata il numero dei gruppi via via formati
(tra 1 e n) ed in ascissa i corrispondenti valori della distanza di fusione1 (= misura di dissomiglianza
o dell’incremento della devianza entro) relativa ai due gruppi che si fondono per generare la
partizione in quel numero di gruppi.
Si prende quindi in esame la spezzata che si ottiene unendo i punti così individuati osservandone
l’andamento dall’alto in basso e da sinistra verso destra. Il numero di gruppi in corrispondenza del
quale si evidenzia un forte appiattimento della spezzata (il “gomito”) identifica la ripartizione ottimale
perché è il punto in corrispondenza del quale si verifica un brusco aumento della distanza di fusione

b. Metodo delle differenze


In alternativa possiamo considerare le distanze di fusione, che crescono in maniera monotona
𝑑1 ≤ 𝑑2 ≤ ⋯ ≤ 𝑑𝑛−1

Si possono determinare allora le differenze


𝛿𝑔 = 𝑑𝑔 − 𝑑𝑔−1

Il numero g per cui è massima la differenza g identifica il numero ottimo dei gruppi in quanto questi
risultano più nettamente separati.

c. Metodo della devianza

Funziona solo con caratteri tutti quantitativi. Può essere utile anche esaminare i valori assunti
dall’indicatore ottenuto rapportando ad ogni passo la devianza tra i gruppi e la devianza totale. Si
conviene di individuare quel numero di gruppi in corrispondenza del quale il rapporto considerato
subisce la diminuzione relativa più consistente (= c’è un forte incremento della devianza dentro i
gruppi)..
d. Metodo della F di Fisher

Un ragionamento del tutto analogo può essere fatto prendendo in esame la serie di valori
dell’indicatore
𝑡𝑟(𝐵)/(𝑔 − 1)
𝐹=
𝑡𝑟(𝑊)/(𝑛 − 𝑔)

per ogni valore di g.

Rappresentando graficamente F in funzione di g si può verificare che.

- F cresce continuamente al crescere di g. Questo indica ragionevolmente che i dati in esame


non presentano una struttura favorevole alla suddivisione in gruppi, per cui sarebbe una
forzatura classificare le n unità in un qualsiasi numero di gruppi;
- F diminuisce progressivamente all’aumentare di g. Ciò conferma che tra le unità esiste una
struttura gerarchica,
- F aumenta fino ad un livello massimo e poi la tendenza si inverte. In questo caso si può
pensare che l’insieme di unità considerato sia ripartibile nel numero di gruppi per il quale F
raggiunge tale massimo.
2) Il metodo delle k-medie di McQueen
Il metodo di segmentazione non gerarchica più utilizzato è il metodo delle k-medie, con k che indica
il numero stabilito di gruppi (coincide con g).

L’algoritmo delle k-medie attua una classificazione degli n elementi di partenza in g gruppi, con g
fissato a priori:

1) Scelta dei semi iniziali: dopo aver determinato il numero dei gruppi, vengono definiti g punti
che costituiscono i centroidi (vettori delle medie aritmetiche) dei clusters nella partizione
iniziale.
I centroidi dovrebbero essere sufficientemente distanti tra di loro, affinché migliorino le
proprietà di convergenza degli algoritmi. Una volta definiti i centroidi si costruisce una
partizione iniziale delle unità statistiche, alloccando ciascuna unità al gruppo il cui centroide
risulta più vicino.
2) Calcolo dei centroidi dei gruppi così formati: calcolo della distanza di ogni unità statistica dei
centroidi dei g gruppi: la distanza tra una generica unità statistica e il centroide del gruppo a
cui è stata assegnata deve essere minima, e nel caso in cui non lo fosse, l’elemento
corrispondente viene riassegnato al cluster il cui centroide è più vicino. Quando avviene tale
spostamento vengono ricalcolati i centroidi del vecchio e del nuovo gruppo.
3) Ripetizione del passo precedente fino al raggiungimento della convergenza dell’algoritmo:
in altri termini, il punto precedente viene ripetuto fino a raggiungere un’adeguata
stabilizzazione dei gruppi.

Per calcolare la distanza tra le unità statistiche e i centroidi dei gruppi viene utilizzata la distanza
euclidea; all’iterazione t abbiamo:

𝑑(𝑥𝑖 , ̅̅̅
𝑥𝑙𝑡 ) = √∑(𝑥𝑖𝑠 , ̅̅̅̅
𝑡 )2
𝑥𝑠,𝑙
𝑠=1

il metodo delle k-medie deve rispettare un criterio di partizione basato sulla minimizzazione della
devianza interna ai gruppi, W. Pertanto la bontà della soluzione può essere controllata attraverso il
calcolo dell’indice 𝑅2 o della statistica pseudo-F.

Uno svantaggio del k-medie consiste nella distorsione dei risultati in presenza dei valori anomali. In
questo caso l’utilizzo di un numero di gruppi elevato costituisce un buon esercizio per verificare
l’esistenza di questi valori, poiché le unità anomale tenderanno a concentrarsi in pochi gruppi,
mentre gli altri rimarranno isolati nella classificazione, formando dei gruppi contenenti anche un solo
elemento.

3) Il metodo AID lineamenti generali


L’AID è una procedura gerarchica di segmentazione binaria. Secondo l’AID si assume che il collettivo
in osservazione rappresenti un insieme eterogeneo rispetto ad una specifica variabile criterio,
continua (ad esempio la spesa mensile sostenuta per l’acquisto di giornali e riviste) oppure
dicotomica (ad esempio l’essere o meno cliente di una data azienda).

In quest’ultimo caso si associa convenzionalmente la codifica 0 all’assenza della caratteristica oggetto


di rilevazione (l’essere cliente) e la codifica 1 alla presenza di tale caratteristica.

Ad ogni passo la suddivisione migliore viene ricercata valutando tutte le segmentazioni binarie
possibili in base alle modalità di ciascuna variabile esplicativa e scegliendo la variabile che origina la
segmentazione migliore in assoluto, dato uno specifico criterio di valutazione.
Se un predittore ammette m modalità, l’insieme delle possibili segmentazioni sarà costituito da 2 m-
1
- 1 o da m-1 possibili suddivisioni diverse, a seconda che tali modalità siano libere di combinarsi
tra loro senza vincoli di contiguità (predittori di tipo nominale) oppure non lo siano (predittori di tipo
ordinale in relazione monotona con la variabile dipendente).

Per valutare l’efficacia della segmentazione di un gruppo originario formato da n unità va definit,
come si è già osservato, una misura della diversità rispetto alla variabile dipendente Y derivanti dalla
suddivisione, rispettivamente di numerosità n1 e n2 ( con n1 + n2 = n).

La massimizzazione di tale diversità nell’insieme di tutte le possibili segmentazioni binarie, vale a dire
la suddivisione che genera i due sottoinsiemi più diversi tra loro e, contestualmente, più omogenei
al loro interno, consente di individuare il predittore con il maggiore valore esplicativo.

Quale misura di diversità l’AID considera la devianza. Se si indica con Y i1 il valore assunto dalla
variabile dipendente nella i-ma unità del gruppo 1, con Yi2 quello nella i-ma unità del gruppo 2 e con
̅ ⁡
𝑌, 𝑌̅1 ⁡𝑌̅2

i valori medi di tale variabile rispettivamente nel gruppo originario e nei due gruppi generati, ciò
significa che ad ogni passo del processo di segmentazione binaria si va alla ricerca della suddivisione
in due gruppi alla quale corrisponde il valore più elevato di devianza tra, dato dall’espressione
𝑛1 (𝑌̅1 − ⁡ 𝑌̅ )2 +⁡ 𝑛2 (𝑌̅2 − ⁡ 𝑌⁡
̅ ⁡)2

ovvero il valore più ridotto di devianza entro, data da


∑𝑛𝑖=1
1 𝑛2
(𝑌𝑖1 − 𝑌̅1 ⁡)2 + ⁡∑𝑖=1 (𝑌𝑖2 − 𝑌̅2 )2

a parità di devianza totale, in virtù delle note proprietà di scomponibilità e di additività di cui gode
tale grandezza.

L’esame dei risultati consente di evidenziare attraverso la gerarchia delle suddivisioni le variabili
esplicative maggiormente connesse a quella dipendente e di identificare i gruppi di unità
contraddistinti da valori in media più elevati per la variabile criterio.

4) Il fattore di Bonferroni
Normaliza la significatività statica a = Pr (X^2 >= Xc^2) in modo di rendere confrontabili le situazione
in cui le tabelle di contingenza corrispondenti ai vari predittori hanno numeri di celle differenti.
Il fattore o il moltiplicatore di bonferroni, viene utilizzato per poter confrontare le significatività
statistiche ottenute dopo il calcolo delle statistiche chi-quadro di tabelle di contingenza aventi un
differente numero di righe e colonne. Quando viene effettuata una serie di test basati sul chi-quadro
per valutare quale sia la migliore suddivisione delle modalità di una variable esplicativa, è necessario
aggiustare il livello di significatività alfa, modificando quindi l'ampiezza dell'area di rifiuto nell'ipotesi
nulla di indipendenza tra variabile dipendente e predittore.

Se ad esempio vi sono m modalità di suddivisione delle modalità della variabile A è opportuno


eseguirem test chi-quadro per valutare quale sia la suddivisione ottimale tra le m suddivisioni.
Supponendo l'indipendenza dei test, la probabilità di commettere errori di prima specie, ossia la
probabilità di rifiutare un'ipotesi quando questa è vera, è pari a:
a = significatività
Dove m è pari al fattore di bonferroni.
Per calcolare questo fattore bisogna considerare i Predittori B e A e la variabile dipendente R, con Alfa che
rappresenta l’errore di primo tipo del test di indipendenza in una tabella con B e R.
Nel metodo Chaid si mette a confronto il valore di alfa associato al test di indipendenza per la variabile A con
il valore di alfa per la variabile B che però viene corretta dal fattore di Bonferroni.

3) Le regole di stop nella segmentazione a priori


Quando si parla di segmentazione a priori ci si riferisce ai metodi AID e CHAID. In quest’ultimo metodo si
parla delle regole dello stopping, ossia dopo che sono state fatte le fasi di Merging, ossia data una
determinata variabile si fondono assieme le sue modalità, e di splitting, dove il gruppo viene suddiviso, si
procede con le fasi precedenti finchè tutti i possibili sottogruppi non sono stati analizzati: i gruppi non
raggiungono la numerosità minima oppure è stato raggiunto il numero di passi definito a priori.
Per quanto riguarda il metodo AID, la sequenza delle replicazioni termina quando:
- Almeno uno dei due gruppi è di dimensione minore rispetto alla soglia prefissata per garantire
l’attendibilità delle stime.
- Le ripartizioni non sono significative, dunque il gruppo è molto omogeneo.
- Viene raggiunto il numero di passi stabilito a priori.
- Non si riesce a individuare una nuova suddivisione binaria che provochi un incremento superiore a
una soglia minima prefissata dalla devianza tra tutti i gruppi che si sono formati fino a quel
momento.

- numerosità di ciascun segmento è inferiore a quella di un numero prefissato non si procede


con ulteriori partizioni. Più è alto n più l’albero è compatto.
-profundità dell’albero-->si stabilisce un numero di nodi nell’albero di segmentazione e
raggiunto quel numero ci si ferma.
-significatività della F-> andando a spezzare i gruppi ci si ferma quando si raggiunge un F
non significativo, ovvero i gruppi che abbiamo trovato sono già sufficientemente omogenei
al loro interno.

4) Le fasi della comjoint analysis


Fasi della COA:

a) individuazione degli attributi rilevanti del prodotto/servizio e della loro più opportuna
articolazione in modalità o livelli distinti;

b) definizione dei profili di prodotto/servizio da sottoporre a giudizio diretto dei


consumatori dopo aver fatto ricorso ad un piano degli esperimenti;

c) selezione di un campione di consumatori ai quali chiedere valutazioni di preferenza su


ciascun profilo;

d) stima dei valori delle utilità parziali associate ad ogni modalità o livello degli attributi, nel
rispetto del contenuto informativo presente nei giudizi degli intervistati;

e) determinazione dell’importanza relativa di ciascun attributo;

valutazione dell’utilità totale corrispondente ai profili di prodotto/servizio non compresi nel piano
della rilevazione
7) La simulazione delle quote di preferenza
La simulazione può fare riferimento a varie strategie decisionali dei consumatori e
presuppone due distinte procedure. La più semplice afferma che ogni consumatore
preferirà, e quindi sceglierà, se presente sul mercato, proprio l’alternativa alla quale
corrisponde il punteggio più elevato di preferenza/utilità totale (criterio first-choice).
La seconda procedura suggerisce di valutare vere e proprie probabilità di scelta per le
diverse alternative, a partire dalle differenze riscontrate nei punteggi di
preferenza/utilità totale.
se indichiamo con uij la preferenza/utilità totale che il consumatore i-mo attribuisce
all’alternativa j-ma e con pij la probabilità di scelta corrispondente:
che è noto come criterio di Bratford, Terry e Luce o BTL, oppure si applica una
trasformazione esponenziale:
𝑢𝑖𝑗
𝑝𝑖𝑗 = 𝐽
∑𝑗=1 𝑢𝑗𝑙

oppure si applica una trasformazione esponenziale:


exp⁡(𝑢𝑖𝑗 )
𝑝𝑖𝑗 = 𝐽 𝐷𝑖𝑔𝑖𝑡𝑎𝑟𝑒⁡𝑙′𝑒𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒⁡𝑞𝑢𝑖.
∑𝑙=1 exp⁡(𝑢𝑖𝑗 )

che è noto come criterio logit.

La quota di preferenza attribuibile a ciascuna alternativa j-ma viene abitualmente determinata in


entrambi i casi come media aritmetica estesa a tutti gli intervistati del campione, della probabilità
di scelta ad essa associata:
𝑛
1
𝑄𝑃𝑗 = ∑ 𝑝𝑖𝑗
𝑛
𝑖=1

La quota di preferenza, a sua volta, è un buon predittore della quota di mercato. Abbiamo
uguaglianza tra le due grandezze se tutti i consumatori acquistano nell’unità di tempo la stessa
quantità del prodotto/servizio.

1) Le fasi di un'indagine statistica


1. Definizione delle unità statistiche → ASTRAZIONE CLASSIFICATORIA: contraddistingue il nostro
processo di analisi perché si costituisce un insieme che ha delle caratteristiche non naturali
L’insieme delle unità statistiche a cui facciamo riferimento forma il collettivo.
ci sono tante unità tra cui si devono individuare caratteristiche comuni → il possesso di caratteristiche
comuni fa sì che le
unità siano analoghe tra loro → considerare un insieme o un altro non incide sulla stima
(questo solo con un campione probabilistico).
In caso di campione non probabilistico, non si può fare un’operazione di estrapolazione del
campione alla popolazione.
Famiglia: (1) persone che vivono insieme (2) e che condividono le risorse economiche per
soddisfare i propri bisogni
2. Scelta delle nomenclature e degli schemi di classificazione
Si analizzano i risultati dell’indagine classificando le unità (es. famiglie) sulla base di diversi
parametri o caratteri (es. zona di residenza, reddito, età o caratteristiche della persona di
riferimento1) → la combinazione di questi parametri dà luogo ad uno schema di classificazione.
Le variabili che si osservano possono essere articolate secondo diverse nomenclature → es.
indagine sui consumi delle famiglie: caratteristiche demografiche della famiglia, posizione
dei componenti rispetto al mercato del lavoro (occupati, disoccupati, non appartenenti alla
forza lavoro, ecc…) → classificazione compiuta sulla base di definizioni, ciascuna delle
quale ha un certo grado di convenzionalità
Le nomenclature sono anche usate per classificare le variabili che si osservano e si utilizzano
(es. consumi classificati in 480 voci secondo la classificazione ufficiale dei prodotti).
3. Definizione delle variabili da osservare
la scelta dipende sempre dalla rilevazione che si sta facendo. Si preferiscono
variabili che possono essere definite in modo oggettivo perché sono più facili da
osservare e hanno un grado di accettazione interpersonale più elevato.
4. Progettazione del campione
Consiste nella definizione della modalità di selezione delle unità di rilevazione (campionaria/
esaustiva). Di solito:
• selezione esaustiva (ormai nessuno)
• selezione campionaria → problematica legata alla progettazione del campione
5. Scelta del metodo di osservazione
L’indagine presuppone sempre un’interazione tra l’analista e i soggetti su cui viene effettuata
l’indagine. Esistono diversi metodi, ciascuno dei quali ha specifiche caratteristiche:
• Interviste dirette (o personali)
Sono le interviste più efficaci perché l’interazione tra intervistatore e intervistato
permette di chiarire passaggi del questionario difficili da comprendere e sono anche
quelle più lunghe perché, tramite l’interazione, l’intervistato è in grado di sostenere
un colloquio più lungo.
• Interviste telefoniche
Sono utili per effettuare indagini su fenomeni più semplici, in quanto l’intervista è
più fredda e macchinosa. Non devono essere troppo lunghe.
• Interviste postali
Rappresentano la scelta più economica. A causa del basso tasso di risposta, però,
non forniscono informazioni molto attendibili. la loro organizzazione è poco complessa.
Si eliminano le interferenze legate alla presenza dell’intervistatore. L’intervistato
è libero di scegliere quando rispondere al sondaggio (questionario autoamministrato).
È un metodo ideale per trattare argomenti riservati. Se la domanda è
molto delicata, si attua un comportamento strategico: la domanda viene posta in
modo neutro oppure in modo diretto. L’intervistato fornisce sceglie la domanda a
cui rispondere in modo casuale. Rischio: le domande delicate vengono saltate perché
non ci si fida dell’anonimità dell’indagine.
• Interviste tramite Web
Rappresentano un’evoluzione delle interviste postali, il concetto di base è lo stesso.
I costi sono variabili: le interviste personali hanno costi maggiori di quelle telefoniche, le
quali sono molto utilizzate → comporta un impoverimento del processo di rilevazione
perché domande e risposte sono più schematiche.
6. Valutazione dei costi
Di due tipi:
• Fissi → riguardano gli aspetti organizzativi
• Diretti (o variabili) → dipendono dal metodo di indagine e dalla numerosità del
campione
Se il costo totale stimato è troppo elevato rispetto al budget a disposizione, si deve intervenire
su qualche elemento (es. ridurre la numerosità campionaria che comporta un peggioramento
della precisione delle stime

3) La determinazione della numerosità campionaria nel campione casuale semplice


estrazione (con o senza ripetizione) delle unità del campione dalla popolazione
garantendo a ciascuna unità del collettivo la stessa probabilità di entrare a far parte del
campione
Se il parametro oggetto di inferenza è la media campionaria, per determinare la dimensione del
campione, dovremo fare riferimento alla sua distribuzione:

Sulla base di questa distribuzione è stato possibile definire gli intervalli di confidenza

X ± za /2 V ( X )
L’errore che si commette nella stima e che si vuole non superi una certa soglia è quindi dato da:

e
za /2 V ( X ) = e Þ za /2 =
V (X )
e2
Þ V (X ) =
za2 /2

Date le relazioni:

s2 e2
V (X ) = = campionamento con ripetizione
n za2 /2
s2 N -n e2
V (X ) = = campionamento senza ripetizione
n N -1 za2 / 2
s2
n = za2 /2 campionamento con ripetizione
e2

za2 /2s 2 N
n= campionamento senza ripetizione
( N - 1)e 2 + za2 / 2s 2
3) Gli stimatori della media e della proporzione nel campionamento stratificato e le relative varianze

Se siamo interessati alla stima della media del carattere nella popolazione,

Lo stimatore

1 H H
yst = å N h yh = åWh yh
N h =1 h =1

dove Wh=Nh/N rappresenta la quota di popolazione appartenente allo strato h, costituisce uno
stimatore corretto della media della popolazione. Questo risultato consegue dal fatto che le medie
campionarie di strato sono stimatori corretti delle medie di strato

La varianza dello stimatore sarà:

s h2 H 2 s h2 s h2
2
H
æ Nh ö 1 H
V ( yst ) = å ç ÷ (1 - f h ) = åWh (1 - f h ) = 2 åN (N h h - nh )
h =1 è N ø nh h =1 nh N h =1 nh
Nel caso di allocazione proporzionale (f = fh) l'espressione della varianza si semplifica:

1- f H
s h2
V ( yst ) =
n
å
h =1
W h
nh
2

Stima di una proporzione della popolazione

Come già sottolineato, la stima di una proporzione può essere trattata in maniera del tutto analoga
alla stima della media, per cui avremo che:

Nh
H H
pˆ st = yst = å pˆ h = åWh pˆ h
h =1 N h =1

con varianza:

H
1 - fh pˆ h (1 - pˆ h )
V ( pˆ st ) = åWh nh
h =1 nh ( nh - 1)
che nel caso di allocazione proporziona e assumendo che Nh/(Nh-1) = 1 diventa:
1- f H
V ( pˆ st ) =
n
åW P (1 - P )
h =1
h h h

4) L'allocazione del campione tra gli strati

Una caratteristica fondamentale della stratificazione è che il campione può essere organizzato in
maniera del tutto indipendente da uno strato all’altro. Questo può consentire di avere strati di
numerosità diversa, in particolare è possibile distinguere tre principali metodologie di allocazione
delle unità negli strati:
• allocazione di tipo proporzionale:
- Metodo più semplice e seguito.
- Il peso dello strato nel campione è uguale al peso dello stato nella popolazione.
- Ogni unità ha probabilità di inclusione nel campione uguale, infatti, fh=nh/Nh=n/N per ogni
Strato
- La numerosità del campione negli strati si calcola considerando 𝑛ℎ = 𝑛𝑊ℎ dove 𝑊ℎ = 𝑁ℎ

- Vantaggi: semplicità di esecuzione, richiede poche informazioni a priori, campione


autoponderante (= i pesi nel campione sono uguali ai pesi nella popolazione). Quest’ultima
caratteristica fa sì che le procedure di stima dei parametri possano prescindere dalla
procedura di selezione del campione utilizzata.

• allocazione di tipo ottimale:


- È un’allocazione “da libro di testo”, difficile da individuare nella realtà.
- Il presupposto logico della stratificazione è che le medie siano diverse strato per strato. Se
ci sono informazioni che dicono che anche la variabilità tra gli strati è diversa, conviene dare
maggiore n agli strati con variabilità maggiore; questo richiede buone stime a priori della
variabilità dentro ciascuno strato.
- La determinazione di Nh viene fatta ripartendo la numerosità complessiva sulla base del peso
dello strato nella popolazione, ponderato con il valore dello scarto quadratico medio dello
strato rispetto agli altri scarti quadratici medi → per mettere più numerosità negli strati con
più variabilità

• Problemi: campione non autoponderante, si deve calcolare la probabilità di inclusione; c’è


- bisogno di buone stime a priori della varianza dentro la popolazione

Privilegia gli strati che presentano una maggior variabilità per il fenomeno di interesse → gli
assegna il peso maggiore (il presupposto della stratificazione è la presenza di medie diverse
tra gli strati)
• Sono necessarie per la determinazione dell’allocazione ottimale le informazioni relative alla
variabilità delle osservazioni negli strati della popolazione
• La frazione di campionamento è in questo caso variabile e dipende direttamente dalla variabilità
𝑛ℎ = 𝑛 ∗ (𝑊ℎ𝑆ℎ /Σ 𝑊ℎ𝑆ℎ) dove 𝑊ℎ = 𝑁ℎ/ 𝑁 e 𝑆ℎ è la deviazione standard del fenomeno nello
strato → le stime a priori di 𝑆ℎ devono essere buone, altrimenti l’operazione è controproducente
• In caso di proporzione campionaria, la numerosità dello strato è data da 𝑛ℎ = 𝑛 ∗(
𝑁ℎ√𝑝ℎ(1−𝑝ℎ)/
Σℎ𝑁ℎ√𝑝ℎ(1−𝑝ℎ)).
• Non essendo il campione autoponderante la stima dei parametri di interesse deve essere
- basata su uno schema di ponderazione

• allocazione non proporzionale


Si usa quando si decide di sovrarappresentare alcuni strati (e quindi di sottorappresentarne
altri).
Ad alcuni strati si dà una numerosità anche se la loro varianza non è nota. Tipicamente, gli
strati
sovrarappresentati sono quelli meno numerosi. Il campione, quindi, non riproduce la
composizione
della popolazione, e, nelle analisi andrà dunque effettuata una operazione di riponderazione.

Conclusioni
• In generale il campionamento stratificato con allocazione proporzionale è più efficiente del
campionamento semplice e il campionamento stratificato con allocazione ottima è più efficiente
di quello con allocazione proporzionale.
• Se le varianze di strato sono uguali il campionamento stratificato con allocazione ottima è
del tutto simile al campionamento stratificato con allocazione proporzionale
• Se le medie di strato sono tutte uguali il campionamento stratificato con allocazione proporzionale
è del tutto simile al campionamento semplice

1) L'indagine Istat sui consumi delle famiglie

Eseguita dal 1968, completamente rinnovata nel 2014.


La sua esecuzione ha diversi obiettivi:
• avere i pesi per costruire gli indici dei prezzi al consumo2
• stimare i valori dei consumi di contabilità nazionale
• dà con dettaglio la variazione dei consumi nel corso del tempo
Tecnica: cross-section ripetuto → il campione è ripetuto nel corso del tempo, l’indagine ha cadenze
regolari e il campione è completamente rinnovata da una tornata all’altra →
2 Media ponderata delle variazioni dei prezzi fra il tempo corrente e il tempo base di un insieme di
beni rappresentatividella comunità a cui facciamo riferimento.

perché questa tecnica?


Più facile da gestire rispetto al campione panel, organizzazione meno articolata 2. Sempre allineato
alla popolazione, trattandosi di un campione casuale,e quindi non ci sono distorsioni nella stima (le
stime sono sempre corrette).
Svantaggi: 1.Non è possibile costruire modelli di tipo dinamico (modelli longitudinali)
2. Quando si stimano le differenze fra valori ottenuti in tempi diversi, l’intervallo di confidenza è
maggiore rispetto a quello dei dati panel.

Si tratta di un’indagine annuale (rilevazione trimestrale) su circa 28.000 famiglie (ca. 7.000a trimestre).
Oggetto principale della rilevazione: tutte le spese sostenute dalle famiglie residenti per acquistare
beni e servizi destinati al consumo familiare o per regali. Sono compresi gli autoconsumi di prodotti
agricoli, i fitti figurativi, i beni e servizi forniti dal datore di lavoro ai dipendenti a titolo di salario.
Sono esclusi gli acquisti che non sono finalizzati al consumo:imposte, spese connesse all’attività
professionale, acquisto di immobili, etc.
La popolazione di riferimento è costituita dalle famiglie di fatto3 residenti in Italia. Per individuare le
famiglie si utilizzano le liste anagrafiche che si trovano presso ciascun Comune
(consultabili solo da chi fa indagini statistiche pubbliche4).

Piano di campionamento: stratificato a due stadi (comuni, famiglie).

1. Primo stadio: si estraggono i Comuni → unità di primo stadio


I comuni vengono stratificati → vengono raggruppati in sottoinsiemi che prendono
il nome di strati → si dividono i comuni grandi (che hanno più di 50.000 abitanti ed
entrano a far parte del campione con probabilità pari a 1; si chiamano AR) dai comuni
più piccoli (che hanno meno di 50.000 abitanti e vengono raggruppati con
quelli contigui e appartenenti alla stessa provincia fino a raggiungere una popolazione
di ca. 50.000 abitanti). I comuni stratificati (NAR = non autorappresentativi)
vengono estratti con una probabilità pari al peso demografico di quel comune.

2. Secondo stadio: si estraggono le famiglie → unità di secondo stadio


Nei sistemi in cui non è presente l’anagrafe (Paesi Anglosassoni) → secondo stadio
formato dalle abitazioni
Tecnica di raccolta delle informazioni differenziata in ragione della frequenza d’acquisto:
1. intervista preliminare → si accertano le caratteristiche della famiglia e dell’abitazione,
la dotazione di beni, ecc…
2. diario di spesa → per 10 gg le famiglie registrano tutti gli acquisti effettuati da tutti i
componenti (periodo di registrazione intensiva dei consumi)
3. intervista finale (retrospettiva) → domande relative all’acquisto dei beni durevoli
(orizzonte retrospettivo di 3 mesi) e semi-durevoli (orizzonte retrospettivo di 1
mese)
→l’orizzonte temporale di rilevazione è di circa un mese

2) La classificazione dei beni secondo il valore dell'elasticità

L’elasticità misura, dunque, la sensibilità (o reattività) della domanda a variazioni del prezzo.
in base all’elasticità si individuano: beni inferiori (elasticità <1), beni normali (elasticità = 1) e beni
di lusso (elasticità >1). Per misurare questa elasticità si utilizzano funzioni di Engel.

Beni a domanda rigida, una variazione percentuale del prezzo provoca una variazione
percentuale inferiore della quantità domandata. Questi beni sono considerati poco sensibili alle
variazioni di prezzo e, quindi, le imprese che li producono possono aumentare i prezzi senza
perdere molti clienti. Esempi di beni con bassa elasticità della domanda includono beni di prima
necessità come pane e latte, farmaci e prodotti medici, e carburanti.
Beni a domanda elastica una variazione percentuale del prezzo provoca una variazione
percentuale maggiore della quantità domandata. Questi beni sono considerati molto sensibili
alle variazioni di prezzo e, quindi, le imprese che li producono devono fare attenzione a non
aumentare troppo i prezzi se non vogliono perdere clienti. Esempi di beni con alta elasticità della
domanda beni di lusso e beni che hanno sostituti facilmente disponibili.

3) Sia data una popolazione di 100.000 unità. Determinate la numerosità campionaria per la
stima di una proporzione con una precisione del 2% e un livello di confidenza del 95%

N= 100.000
Livello confidenza= 95%
=0,02
• Z è il valore critico corrispondente al livello di confidenza del 95%, che è 1,96
• p è la proporzione stimata (non conosciuta a priori, assumiamo 0,5 per ottenere la massima
numerosità campionaria)
• q è la proporzione complementare a p, ovvero 1 - p

(𝑧𝑎/2 )2 𝜎 2
𝑛=
𝜀2
(1,96)20,25𝑥0,25
𝑛= = 2401
(0,02)^2

4) Sia data una popolazione di 100.00 unità. Determinate la numerosità campionaria per la stima di
una proporzione per un campione stratificato. Gli strati sono tre con pesi 0,35, 0,25 e 0,40. Le stime
a priori delle proporzioni negli strati sono 0,20; 0,30 e 0,60. Determinate inoltre l'allocazione
proporzionale e l'allocazione ottimale del campione.
a) Determinazione numerosità campionaria per il campionamento stratificato

Formula da usare:

𝜀 2
𝑁 (𝑧 )
𝛼/2 1 −1
𝑛=( + )
∑𝐻 2
ℎ=1 𝑁ℎ 𝑠ℎ 𝑁

Numeratore: 100.000 x (0,03/1,96)2 = 23,43

Denominatore:((35000(0,2x0,8))+(25000(0,3x0,7))+(40000(0,6x0,4))) =
= 20450
23,43 1
𝑛=( + ) ^ − 1 = ⁡865,26
20450 100000

n = 865

b) Allocazione ottimale
Formula da usare

N h ph (1 − ph )
nh = n
Nh
h ph (1 − ph )

Strato Nh (ph(1-ph)1/2 Nh(ph(1-ph)1/2 nh


1 35000 0,4=(0,2x0,8)^1/2 14000 269
2 25000 0,458 11450 220

3 40000 0,489 19560 376


45010 865

Nh1: 865x(14000/45010)

c) Allocazione proporzionale

Formula da usare

nh /n = Wh n1 = 865x0,35 n2 = 865x0,25 n3 = 865x0,4


APARTE, NO ESTE EJERCICIO

c) Stimiamo p0, la percentuale media “a priori” in tutta la popolazione, p0 =0,675.


Formula da usare:
2
z p (1 − p )
n =
2

 2

n = (0,675x0,325) x (1,96)2/(0,03)2 = 937

la riduzione di numerosità campionaria a pesso pero non e gigante. s2h varianza.


5) Caratteristiche del campionamento a grappoli.

Viene utilizzato a condizione che la popolazione sia suddivisa o suddivisibile in sottoinsieme o


segmenti di elemnti legati da vincoli di contiguità spaziale o di altro tipo.

Campionamento a grappoli → si utilizza in modo obbligatorio quando non c’è una lista di unità
campionarie disponibile.

Le unità statistiche sono raggruppate in modo naturale (es. contiguità fisica o territoriale) in
insiemi che prendono il nome di grappoli. Ci sono due opzioni e modalità di svolgimento:

o Se è presente la lista dei grappoli


Si estrae da essa un campione casuale (semplice o stratificato) di grappoli e poi si osservano
tutte le unità che fanno parte dei grappoli estratti → rilevazione totale dentro al grappolo.
o Se è presente una lista che fa riferimento ad uno specifico grappolo.
Si fa un campione casuale semplice di unità estratte da quel grappolo ed osservare solo
queste.

I grappoli sono disomogenei fra di loro (e al loro interno?) → la precisione del


campionamento è sempre inferiore alla precisione del campionamento casuale semplice = la
varianza del campionamento a grappoli è maggiore della varianza del campionamento
casuale semplice → per rendere più preciso il campione a grappoli, si fa una stratificazione
delle unità di primo stadio

Potrebbero piacerti anche