Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Gli studi di Henry Zielske sulla pubblicità a mezzo stampa hanno avuto come oggetto sia la
velocità di apprendimento (ricordo della pubblicità) sia la velocità del decadimento memoriale e
hanno messo in luce che:
b) l'incremento del numero di persone che ricorda la pubblicità è via via più basso man mano
che aumenta il numero di esposizioni;
d) durante tutto il periodo della campagna il tasso medio di memorizzazione risultò più
elevato per il campione sottoposto alla campagna regolare (29 per cento) rispetto al
campione sottoposto alla campagna intensiva (21 per cento).
Dalla ricerca di Zielske si deduce quindi che per rendere massimo il numero di coloro in grado di
ricordare l'annuncio durante tutto l'anno una pressione pubblicitaria regolare è preferibile ad
un'azione intensiva, che si raccomanda invece quando si è nella fase di lancio di un nuovo prodotto
o di riposizionamento di una marca già in commercio. Risultati simili sono stati ottenuti anche per
quanto riguarda la pubblicità televisiva.
Sulla base dell’evidenza empirica Zielske ha proposto un modello che mette in relazione la
percentuale di persone che ricordano il messaggio (denotata dal simbolo S) con la percentuale di
ricordanti al tempo precedente e la pressione pubblicitaria corrente, indicata con il simbolo A e
usualmente misurata in termini di GRP:
St = a1 St-1 + a2 At
con a1 e a2 che sono parametri da stimare con gli usuali metodi sulla base di serie storiche di dati
individuali.
A sua volta, il modello di memorizzazione di Simon Broadbent si basa sull'assunzione che, in un dato
momento, il ricordo sia funzione non solo della pubblicità effettuata nel periodo corrente, ma anche
della pressione pubblicitaria esercitata nel passato. Il ricordo viene ad essere espresso come funzione
lineare di una variabile latente, denominata adstock, che indica lo stock di investimento (o di
pressione) pubblicitario fino al periodo t:
Snt = bAdst 7
nel quale
Nel modello il parametro b0 rappresenta le vendite che la marca realizza indipendentemente dalle
politiche di marketing (ma non dal prezzo), e le promozioni di vendita esercitano il loro effetto
allargando la base di mercato del prodotto. Trattandosi di un modello di tipo non lineare, la stima
dei parametri deve essere effettuata ricorrendo ai metodi della massima verosimiglianza o dei minimi
quadrati non lineari.
Recentemente, è stato proposto un modello con adstock a base mobile (floating base), in cui le
vendite della marca oscillano intorno ad un livello base, a sua volta soggetto a modificazioni in
ragione dell’azione di forze contrastanti, il cui effetto congiunto dà luogo a variazioni abbastanza
contenute. Le prime, negative, derivano dalle azioni di marketing dei concorrenti, mentre le seconde,
positive, esprimono l’effetto dell’adstock a lungo termine.
Un’applicazione con finalità comparative dei modelli di Zielske e di Broadbent al mercato italiano
della birra, caratterizzato da una forte segmentazione e da investimenti pubblicitari piuttosto
ingenti, ha condotto ai risultati riporati nella tabella 8.1.
I dati utilizzati sono di fonte Auditel per quanto riguarda la pressione pubblicitaria televisiva
espressa dai GRP, mentre i dati sul numero di persone che ricordano spontaneamente la
pubblicità di una marca di birra sono rilevati con un’indagine telefonica giornaliera da una società
milanese di ricerche di mercato. Il periodo a cui si riferisce l’analisi va dal 1993 al 1995 per un
complesso di 156 osservazioni settimanali.
Con riferimento ad una marca che nel periodo considerato ha effettuato consistenti investimenti
pubblicitari e occupa una posizione preminente in termini di quota di mercato, si è proceduto
alla stima sia del modello (4) che di quello (8) al fine di misurare la relazione tra pressione
pubblicitaria e ricordo spontaneo di marca. Il modello (8) è stato stimato con il metodo dei minimi
quadrati non lineari considerando un numero di termini ritardati della variabile GRP pari a 16.
I risultati mostrano come per la marca in esame il modello di Zielske sia preferibile a causa della
maggiore capacità esplicativa, espressa dal coefficiente di determinazione lineare corretto, e per
il fatto che il valore della statistica di Durbin-Watson per il modello di Broabent indica la presenza
di errori positivamente autocorrelati Il risultato può essere interpretato come un’indicazione di
scarsa efficacia della pressione pubblicitaria corrente alla sedimentazione del ricordo, che
dipende invece in maniera molto più accentuata dal ricordo al tempo precedente.
a) nel modello di Zielske il valore della t di Student relativa al ricordo ritardato di un periodo
è quasi cinque volte più elevato del corrispondente valore per la variabile GRP;
b) la marca in esame è presente nel mercato italiano da molti anni, e quindi ha un’immagine
consolidata. Infatti, la segmentazione di coloro che ricordano la marca, effettuata con la
tecnica dell’Automatic Interaction Detection (si veda a questo riguardo il quinto capitolo),
mostra come questi si concentrino soprattutto nelle classi di età più elevate.
2) La rilevazione Auditel.
In Italia la rilevazione dell’audience televisiva è effettuata dall’Auditel. Auditel utilizza un campione
continuativo di 5.200 famiglie (panel chiuso) selezionato attraverso un campione probabilistico
riferito a tutta la popolazione italiana con quattro anni e piú che possiedono almeno un televisore.
Indagine di base e campione a due stadi (comuni e famiglie) con stratificazione delle unità di primo
stadio).Rilevazione dell’ascolto tramite meter/push button. Ascolto pari almeno a 31 secondi.
Metriche usuali. Segmentazione dell’audience con variabili socio-demografiche e schemi psicografici
(Sinottica GFK-Eurisko).
I dati forniti riguardano l’audience, lo share e la penetrazione. Auditel produce oltre alle reti nazionali,
dati riguardanti le televisioni locali, con periodicità mensile.
Il livello più semplice della risposta cognitiva è quello della consapevolezza dell'esistenza di un
prodotto o di una marca. L'informazione si può ottenere abbastanza facilmente, poichè è sufficiente
interrogare i consumatori sulle marche che riconoscono all'interno della classe di prodotti
considerati. Al riguardo si distingue fra:
- Notorietà spontanea, quando il quesito è posto senza far riferimento ad alcuna marca. La prima
marca citata quando si misura la notorietà spontanea viene chiamata anche come top of the
mind.
- Notorietà assistita, quando l'intervistato è invitato a indicare le marche che conosce nella lista
che gli viene sottoposta.
Un tasso elevato di notorietà costituisce per l'azienda un capitale assai importante, che richiede, per
essere costruito, anni e anni di investimenti pubblicitari. Fra notorietà di marca e ricordo della
campagna pubblicitaria è stata osservata un'alta correlazione, come pure fra notorietà e volume delle
vendite. Sono proprio queste due circostanze che determinano l'interesse alla misurazione della
notorietà delle marche. L'impiego delle misure di notorietà come indicatori di efficacia della
pubblicità richiede che le misurazioni vengano fatte prima e dopo la campagna.
Le analisi che possono essere effettuate a partire dalle misure di notorietà sono semplici, ma di
notevole portata conoscitiva.
Esse riguardano:
a) se si ricorre alla notorietà spontanea, la determinazione della frequenza relativa con cui una marca
è citata al primo posto, al secondo posto, al terzo e così via;
b) il confronto della notorietà spontanea di una marca con la notorietà assistita: la frequenza assoluta
delle marche ricordate spontaneamente è di solito inferiore a quella delle marche riconosciute in una
lista;
c) il confronto fra la notorietà della marca (espressa in termini relativi) e la corrispondente quota di
mercato;
d) la comparazione del tasso di notorietà della marca fra diversi gruppi di acquirenti, per stabilire se
i segmenti di consumatori caratterizzati dai tassi di notorietà più elevati corrispondono a quelli a cui
era stata indirizzata la comunicazione pubblicitaria.
Se le misure di notorietà colgono solo un aspetto dell'efficacia della pubblicità, quelle del
riconoscimento e del ricordo si riferiscono al messaggio pubblicitario vero e proprio. Per poter
esplicare il proprio effetto, la pubblicità deve stabilire in primo luogo un contatto con il pubblico a
cui è destinata. In questa fase vengono ad assumere un ruolo di grande importanza le funzioni della
memoria, la più elementare delle quali è basata sul riconoscimento: l'intervistato deve limitarsi ad
identificare una esperienza già fatta, e ciò può essere ottenuto semplicemente presentandogli
l'annuncio e chiedendogli se lo ha già visto o notato.
Una variante del metodo del riconoscimento è nota come misura dell'impatto, e consiste nel
mostrare un annuncio o nel far vedere/sentire uno spot mascherando o eliminando il nome della
marca e chiedendone l'identificazione.
a) ricordo spontaneo, quando le persone ricordano l'annuncio allorchè si parla del prodotto in
questione o del veicolo editoriale in cui era inserito;
Le funzioni psicologiche a cui si richiamano le misure del riconoscimento e del ricordo sono in parte
diverse, per cui le due tecniche di misurazione sono tra loro complementari più che sostitutive. La
ricerca empirica mette in luce che la correlazione fra ricordo spontaneo e ricordo stimolato risulta
debole.
Sebbene siano utilizzate non di rado come indicatori dell'efficacia della pubblicità, occorre tener
presente che le misure appena descritte sono fortemente influenzate dal grado di coinvolgimento
dell'intervistato nei confronti della classe di prodotto e della marca in oggetto, dal suo livello di
istruzione, dall'età, e da altri caratteri di tipo demografico e sociale.
Grande attenzione deve essere posta alle procedure di rilevazione, in quanto la possibilità di errori
non campionari è particolarmente elevata quando l'oggetto dell'indagine consiste di argomenti non
fattuali, quali opinioni, preferenze, ecc.
Nei casi in cui la misurazione è effettuata in un contesto prima/dopo rispetto alla campagna
pubblicitaria, è cruciale la scelta del momento in cui effettuare l'intervista, ovvero se durante lo
svolgimento della campagna o al suo termine, e in questo caso quanto tempo dopo la sua fine.
DOMANDE II SETTIMANA
I modelli di risposta delle vendite descrivono in modo formale la relazione esistente tra un’impresa
e il suo mercato.
Essi sono progettati per superare quanta più incertezza delle vendite, e, in aggiunta, per fornire un
meccanismo comportamentale in un modello decisionale che permetta al management di esplorare
le politiche migliori.
L’uso delle quote di mercato per misurare la performance degli strumenti di marketing utilizzati
dall’impresa è adeguata quando non vi è effetto sulla domanda primaria e il mercato è stazionario.
Nella loro specificazione devono essere rispettate alcune regole di consistenza logica, ovvero:
• ogni quota stimata deve essere compresa nell’intervallo 0,1;
• in ogni tempo la somma delle quote stimate deve essere uguale ad 1.
Modelli di attrazione
In questi modelli, la quota di mercato è data dal rapporto tra l’attrazione esercitata dalla marca e la
somma delle attrazioni di tutte le marche:
Ai
MS i = m
A
j =1
j
Fino a che le attrazioni sono non negative, ogni quota di mercato è compresa nell’intervallo 0,1.
L’attrazione di ogni marca è concettualizzata come funzione delle azioni di marketing.
Perchè sia valida l’espressione delle quote di mercato in termini di rapporto tra le attrazioni devono
essere rispettati i seguenti assiomi:
• le attrazioni sono tutte non negative;
• se l’attrazione di una marca è zero, la corrispondente quota di mercato è zero;
• se due marche hanno la stessa attrazione, le loro quote di mercato sono uguali;
• quando l’attrazione della marca j, Aj, cambia di una quantità , il cambiamento
corrispondente della quota di mercato della marca i, MSi (per i differente da j), è indipendente
da j.
I modelli di attrazione si differenziano tra loro per quanto riguarda due aspetti:
1. la forma funzionale che collega A alle variabili che rappresentano le azioni di marketing;
2. L’inclusione degli effetti differenziali e competitivi.
Assumendo una funzione moltiplicativa, e senza nessuna trasformazione delle variabili, abbiamo il
modello Multiplicative Competitive Interaction (MCI):
Dove:
Una formulazione differente delle variabili di marketing è nota come modello Multinomial Logit:
MCI:
bk (1-MSi)
MNL:
bk (1-MSi) Xki
Per quanto riguarda l’inclusione nel modello degli effetti differenziali e competitivi, ci limitiamo
all’esame del modello MCI.
a) Modello semplice. Tutti i coefficienti della funzione di risposta sono uguali per tutte le marche e
non sussistono effetti competitivi:
Ai = exp(ai+ei) Xki bk
Ai = exp(ai+ei) (Xki)bki
c) Modello completo, dove le vendite della marca sono influenzate anche dalla competizione:
Ai = exp(ai+ei) (Xkj)bkij
dove bkij è il parametro dell’effetto incrociato della variabile Xkj sull’attrazione della marca i.
Se abbiamo un numero di osservazioni sufficienti, il primo passo è di stimare i modelli completi sia
nella forma MCI che nella forma MNL. Si sceglie la forma funzionale migliore (R2, criterio di Schwartz,
etc.) e poi si eliminano mano a mano I coefficienti non significativi, cominciando da quelli con il p-
value più grande.
La quota di mercato log-centrata è data, in ogni tempo, dal logaritmo del rapporto tra la quota di
mercato della marca i e la media geometrica:
𝑀𝑆
𝑀𝑆𝑖𝑡∗ = log(𝑀𝑆 𝑖𝑡 )
𝑔𝑡
I parametri diventano:
𝑎𝑖∗ = (𝑎𝑖 − 𝑎. )
∗
𝑏𝑘𝑖𝑗 = (𝑏𝑘𝑖𝑗 − 𝑏𝑘.𝑗 )
Il termine di errore assume la forma
∗
𝑒𝑖𝑡 = (𝑒𝑖𝑡 − 𝑒.𝑡 )
La log-centratura produce la linearizzazione del termine a destra dell’equazione. Otteniamo così delle
funzioni lineari stimabili. Per il modello MNL l’equazione stimabile è la seguente:
K m
MS = a + bkij
*
it
*
X kjt + e*jt
*
i
k =1 j =1
K m
MS it =a + bkij
*
log X kjt + eit*
*
i
k =1 j =1
e
eit* = log it
e.i
dove
Dopo la stima possiamo calcolare le elasticità, che equivalgono a quelle originarie anche se abbiamo
stimato non i parametri originali ma le loro deviazioni rispetto alla media aritmetica.
m
MS ; X = (b − MS h bkhj
i kj
* *
) X kjt
kij
h =1
m
MS ; X = (b − bkhj
i
*
kj
) *
kij
h =1
E’ abbastanza facile rendersi conto che le equazioni sono collegate, perchè per ogni tempo la somma
delle quote di mercato deve essere pari a uno e pertanto esiste un vincolo tra le equazioni.
La stima deve essere quindi eseguita con il metodo SUR (Seemingly Unrelated Regression) proposto
da Zellner.
Tuttavia, se le variabili indipendenti sono le stesse in ogni equazione, il metodo SUR si reduce a
quello dei minimi quadrati.
Quindi la stima del modello completo può essere condotta con il metodo OLS. Successivamente si
eliminano via via le variabili i cui coefficienti non sono significativi stimando le risultanti equazioni
con il metodo SUR.
2) Il modello di Koyck:
Uno dei modelli dinamici della pubblicità è il modello di Koyck, il quale è stato stipulato per descrivere
l’andamento degli investimenti pubblicitari. La formula di tale modello è:
Guardandoallevendite,questomodelloèmoltoutileperdeterminarel’effettochelapubblicitàhasu
diesse,procedendoesponenzialmentedecrescenteneltempo.Iltermineb1èuneffettodibreve
terminementreglieffettideiperiodisuccessivisono:𝜆𝑏1…𝜆𝑛𝑏1, dove lamba è l’effetto di carry over, ossia
l’effetto della pubblicità che si trasferisce da un periodo a quello successivo.
Questo modello appartiene alla tipologia dei modelli “a ritardi distribuiti” la cui formula è:
𝑏[𝜛0𝑥𝑡 + 𝜛1𝑥𝑡−1 + ⋯] + 𝑒𝑡
Esso descrive il modo in cui la risposta delle vendite alla pubblicità segue uno schema di tipo geometrico.
Questo modello assume che i dati siano stazionari ma autocorrelati, e differiscono tra loro sul ruolo
che viene attribuito alla pubblicità nel dare luogo a tale autocorrelazione, ovvero se esiste o meno
un effetto carry-over.
Questo modello descrive il processo in cui la risposta delle vendite alla pubblicità segue uno schema
geometrico in cui 𝜛𝑖 = 𝜆𝑖. Sostituendo abbiamo 𝑄𝑡 = 𝑏0 + 𝑏1[𝑋𝑡 + 𝜆1𝑋𝑡−1 + 𝜆2𝑋𝑡−2 + ⋯ ] + 𝑒𝑡 e
applicando il limite della serie geometrica4 otteniamo 𝑄𝑡 = 𝑏0 +( 𝑏1 /(1−𝜆𝐿) )𝑋𝑡 + 𝑒𝑡; moltiplicando tutti i termini
per (1 − 𝜆𝐿) si ottiene la prima formula.
La cluster analysis è uno strumento per classificare e cercare di suddividere una realtà formata da diverse
osservazioni in tipologie ben definite. Essa è molto utile quando è necessario fare una segmentazione del
mercato e un’analisi della concorrenza.
All’inizio della cluster analysis è presente un collettivo di n elementi, ognuno dei quali è rappresentato da p
variabili e si forma la matrice dei dati, dove le righe corrispondono agli individui e le colonne alle variabili.
Parlando della CA di tipo gerarchico, sono delle tecniche che possono coinvolgere delle variabili di tipo
quantitativo, qualitativo oppure miste. All’interno di questo strumento sono presenti due tecniche:
- Tecniche di tipo aggregativo: ogni individuo rappresenta un gruppo a sé e ognuno di loro viene
aggregato in gruppi in base a una misura di somiglianza, tenendo conto di tutti i caratteri inclusi
nell’analisi.
- Tecniche di tipo divisivo: si considerano tutti gli individui inizialmente in un solo gruppo e via via si
vengono fatte delle suddivisioni binarie e il processo termina quando ogni individuo forma un
gruppo singolo. Dunque viene definito divisivo finché non si ottengono tanti gruppi quante sono le
unità.
Gli algoritmi gerarchici: metodo di legame singolo, metodo di legame completo, metodo di legame
medio, metodo del centroide, metodo di Ward, si differenziano unicamente per il diverso criterio che
regola la valutazione della distanze tra i gruppi ai fini delle successive aggregazioni.
-Metodo del legame singolo: tale distanza è posta pari alla più piccola delle distanze tra i gruppi
ai fini della aggregazioni.
-Metodo del legame medio: al valor medio aritmetico di tutte le distanze tra gli elementi.
-Metodo del centroide: vanno determinati i vettori (centroidi) contenenti i valori medi delle p
varibili, gruppo per gruppo, e la distanza tra i gruppi viene assunta pari alla distanza tra i rispettivi
centroidi.
5) Metodo di WARD
Il metodo di Ward differisce in parte dei precedenti perché suggerisce di riunire, ad ogni tappa del
processo, i due gruppi dalle cui fusione deriva il minimo incremento possibile della devianza entro.
Questo metodo minimizza, nella scelta dei gruppi da aggregare, una funzione obiettivo che parte
dal presupposto che una classificazione ha l’obiettivo di creare gruppi che rispettino la massima
coesione interna e la massima separazione esterna.
La Devianza totale (T) delle p variabili, corrispondente a n volte la traccia della matrice di varianze-
covarianze dei dati, viene scomposta in due parti: la Devianza nei gruppi W e la Devianza tra i gruppi
B
T= W+B
Si noti che la precedente espressione è in analogia con la scomposizione della varianza che vedremo
per ricavare un criterio della bontà della regressione lineare. In quel caso B è la varianza spiegata
dalla regressione e W la varianza non spiegata o residua.
- la devianza totale T delle p variabili corrisponde alla somma delle devianze delle singole
variabili rispetto alla corrispondente media generale 𝑥̅𝑠
𝑝 𝑛
𝑇 = ∑ ∑(𝑥𝑖𝑠 − 𝑥̅𝑠 )2
𝑠=1 𝑖=1
- la devianza nei gruppi (W) è data dalla somma delle devianze di gruppo
𝑔
𝑊 = ∑ 𝑆𝑘
𝑘=1
𝑥𝑠𝑘 2
𝑆𝑘 = ∑ ∑(𝑥𝑖𝑠 − ̅̅̅̅)
𝑆=1 𝑖=1
Infine la devianza tra i gruppi, B, è data dalla somma (calcolata su tutte le variabili) delle devianze
(ponderate) delle medie di gruppo rispetto alla corrispondente media generale:
𝐵 = ∑𝑝𝑠=1 ∑𝑔𝑘=1 𝑛𝑘 (𝑥
̅̅̅̅
𝑠𝑘 − 𝑥̅𝑠 )
2
Avendo introdotto la scomposizione della devianza, possiamo affermare che, nel metodo di Ward, a
ogni passo della procedura gerarchica si aggregano tra loro i gruppi che comportano il minor
incremento della devianza tra i gruppi, W, e quindi il minor decremento della devianza tra i gruppi.
Il numero g per cui è massima la differenza g identifica il numero ottimo dei gruppi in quanto questi
risultano più nettamente separati.
Funziona solo con caratteri tutti quantitativi. Può essere utile anche esaminare i valori assunti
dall’indicatore ottenuto rapportando ad ogni passo la devianza tra i gruppi e la devianza totale. Si
conviene di individuare quel numero di gruppi in corrispondenza del quale il rapporto considerato
subisce la diminuzione relativa più consistente (= c’è un forte incremento della devianza dentro i
gruppi)..
d. Metodo della F di Fisher
Un ragionamento del tutto analogo può essere fatto prendendo in esame la serie di valori
dell’indicatore
𝑡𝑟(𝐵)/(𝑔 − 1)
𝐹=
𝑡𝑟(𝑊)/(𝑛 − 𝑔)
L’algoritmo delle k-medie attua una classificazione degli n elementi di partenza in g gruppi, con g
fissato a priori:
1) Scelta dei semi iniziali: dopo aver determinato il numero dei gruppi, vengono definiti g punti
che costituiscono i centroidi (vettori delle medie aritmetiche) dei clusters nella partizione
iniziale.
I centroidi dovrebbero essere sufficientemente distanti tra di loro, affinché migliorino le
proprietà di convergenza degli algoritmi. Una volta definiti i centroidi si costruisce una
partizione iniziale delle unità statistiche, alloccando ciascuna unità al gruppo il cui centroide
risulta più vicino.
2) Calcolo dei centroidi dei gruppi così formati: calcolo della distanza di ogni unità statistica dei
centroidi dei g gruppi: la distanza tra una generica unità statistica e il centroide del gruppo a
cui è stata assegnata deve essere minima, e nel caso in cui non lo fosse, l’elemento
corrispondente viene riassegnato al cluster il cui centroide è più vicino. Quando avviene tale
spostamento vengono ricalcolati i centroidi del vecchio e del nuovo gruppo.
3) Ripetizione del passo precedente fino al raggiungimento della convergenza dell’algoritmo:
in altri termini, il punto precedente viene ripetuto fino a raggiungere un’adeguata
stabilizzazione dei gruppi.
Per calcolare la distanza tra le unità statistiche e i centroidi dei gruppi viene utilizzata la distanza
euclidea; all’iterazione t abbiamo:
𝑑(𝑥𝑖 , ̅̅̅
𝑥𝑙𝑡 ) = √∑(𝑥𝑖𝑠 , ̅̅̅̅
𝑡 )2
𝑥𝑠,𝑙
𝑠=1
il metodo delle k-medie deve rispettare un criterio di partizione basato sulla minimizzazione della
devianza interna ai gruppi, W. Pertanto la bontà della soluzione può essere controllata attraverso il
calcolo dell’indice 𝑅2 o della statistica pseudo-F.
Uno svantaggio del k-medie consiste nella distorsione dei risultati in presenza dei valori anomali. In
questo caso l’utilizzo di un numero di gruppi elevato costituisce un buon esercizio per verificare
l’esistenza di questi valori, poiché le unità anomale tenderanno a concentrarsi in pochi gruppi,
mentre gli altri rimarranno isolati nella classificazione, formando dei gruppi contenenti anche un solo
elemento.
Ad ogni passo la suddivisione migliore viene ricercata valutando tutte le segmentazioni binarie
possibili in base alle modalità di ciascuna variabile esplicativa e scegliendo la variabile che origina la
segmentazione migliore in assoluto, dato uno specifico criterio di valutazione.
Se un predittore ammette m modalità, l’insieme delle possibili segmentazioni sarà costituito da 2 m-
1
- 1 o da m-1 possibili suddivisioni diverse, a seconda che tali modalità siano libere di combinarsi
tra loro senza vincoli di contiguità (predittori di tipo nominale) oppure non lo siano (predittori di tipo
ordinale in relazione monotona con la variabile dipendente).
Per valutare l’efficacia della segmentazione di un gruppo originario formato da n unità va definit,
come si è già osservato, una misura della diversità rispetto alla variabile dipendente Y derivanti dalla
suddivisione, rispettivamente di numerosità n1 e n2 ( con n1 + n2 = n).
La massimizzazione di tale diversità nell’insieme di tutte le possibili segmentazioni binarie, vale a dire
la suddivisione che genera i due sottoinsiemi più diversi tra loro e, contestualmente, più omogenei
al loro interno, consente di individuare il predittore con il maggiore valore esplicativo.
Quale misura di diversità l’AID considera la devianza. Se si indica con Y i1 il valore assunto dalla
variabile dipendente nella i-ma unità del gruppo 1, con Yi2 quello nella i-ma unità del gruppo 2 e con
̅
𝑌, 𝑌̅1 𝑌̅2
i valori medi di tale variabile rispettivamente nel gruppo originario e nei due gruppi generati, ciò
significa che ad ogni passo del processo di segmentazione binaria si va alla ricerca della suddivisione
in due gruppi alla quale corrisponde il valore più elevato di devianza tra, dato dall’espressione
𝑛1 (𝑌̅1 − 𝑌̅ )2 + 𝑛2 (𝑌̅2 − 𝑌
̅ )2
a parità di devianza totale, in virtù delle note proprietà di scomponibilità e di additività di cui gode
tale grandezza.
L’esame dei risultati consente di evidenziare attraverso la gerarchia delle suddivisioni le variabili
esplicative maggiormente connesse a quella dipendente e di identificare i gruppi di unità
contraddistinti da valori in media più elevati per la variabile criterio.
4) Il fattore di Bonferroni
Normaliza la significatività statica a = Pr (X^2 >= Xc^2) in modo di rendere confrontabili le situazione
in cui le tabelle di contingenza corrispondenti ai vari predittori hanno numeri di celle differenti.
Il fattore o il moltiplicatore di bonferroni, viene utilizzato per poter confrontare le significatività
statistiche ottenute dopo il calcolo delle statistiche chi-quadro di tabelle di contingenza aventi un
differente numero di righe e colonne. Quando viene effettuata una serie di test basati sul chi-quadro
per valutare quale sia la migliore suddivisione delle modalità di una variable esplicativa, è necessario
aggiustare il livello di significatività alfa, modificando quindi l'ampiezza dell'area di rifiuto nell'ipotesi
nulla di indipendenza tra variabile dipendente e predittore.
a) individuazione degli attributi rilevanti del prodotto/servizio e della loro più opportuna
articolazione in modalità o livelli distinti;
d) stima dei valori delle utilità parziali associate ad ogni modalità o livello degli attributi, nel
rispetto del contenuto informativo presente nei giudizi degli intervistati;
valutazione dell’utilità totale corrispondente ai profili di prodotto/servizio non compresi nel piano
della rilevazione
7) La simulazione delle quote di preferenza
La simulazione può fare riferimento a varie strategie decisionali dei consumatori e
presuppone due distinte procedure. La più semplice afferma che ogni consumatore
preferirà, e quindi sceglierà, se presente sul mercato, proprio l’alternativa alla quale
corrisponde il punteggio più elevato di preferenza/utilità totale (criterio first-choice).
La seconda procedura suggerisce di valutare vere e proprie probabilità di scelta per le
diverse alternative, a partire dalle differenze riscontrate nei punteggi di
preferenza/utilità totale.
se indichiamo con uij la preferenza/utilità totale che il consumatore i-mo attribuisce
all’alternativa j-ma e con pij la probabilità di scelta corrispondente:
che è noto come criterio di Bratford, Terry e Luce o BTL, oppure si applica una
trasformazione esponenziale:
𝑢𝑖𝑗
𝑝𝑖𝑗 = 𝐽
∑𝑗=1 𝑢𝑗𝑙
La quota di preferenza, a sua volta, è un buon predittore della quota di mercato. Abbiamo
uguaglianza tra le due grandezze se tutti i consumatori acquistano nell’unità di tempo la stessa
quantità del prodotto/servizio.
Sulla base di questa distribuzione è stato possibile definire gli intervalli di confidenza
X ± za /2 V ( X )
L’errore che si commette nella stima e che si vuole non superi una certa soglia è quindi dato da:
e
za /2 V ( X ) = e Þ za /2 =
V (X )
e2
Þ V (X ) =
za2 /2
Date le relazioni:
s2 e2
V (X ) = = campionamento con ripetizione
n za2 /2
s2 N -n e2
V (X ) = = campionamento senza ripetizione
n N -1 za2 / 2
s2
n = za2 /2 campionamento con ripetizione
e2
za2 /2s 2 N
n= campionamento senza ripetizione
( N - 1)e 2 + za2 / 2s 2
3) Gli stimatori della media e della proporzione nel campionamento stratificato e le relative varianze
Se siamo interessati alla stima della media del carattere nella popolazione,
Lo stimatore
1 H H
yst = å N h yh = åWh yh
N h =1 h =1
dove Wh=Nh/N rappresenta la quota di popolazione appartenente allo strato h, costituisce uno
stimatore corretto della media della popolazione. Questo risultato consegue dal fatto che le medie
campionarie di strato sono stimatori corretti delle medie di strato
s h2 H 2 s h2 s h2
2
H
æ Nh ö 1 H
V ( yst ) = å ç ÷ (1 - f h ) = åWh (1 - f h ) = 2 åN (N h h - nh )
h =1 è N ø nh h =1 nh N h =1 nh
Nel caso di allocazione proporzionale (f = fh) l'espressione della varianza si semplifica:
1- f H
s h2
V ( yst ) =
n
å
h =1
W h
nh
2
Come già sottolineato, la stima di una proporzione può essere trattata in maniera del tutto analoga
alla stima della media, per cui avremo che:
Nh
H H
pˆ st = yst = å pˆ h = åWh pˆ h
h =1 N h =1
con varianza:
H
1 - fh pˆ h (1 - pˆ h )
V ( pˆ st ) = åWh nh
h =1 nh ( nh - 1)
che nel caso di allocazione proporziona e assumendo che Nh/(Nh-1) = 1 diventa:
1- f H
V ( pˆ st ) =
n
åW P (1 - P )
h =1
h h h
Una caratteristica fondamentale della stratificazione è che il campione può essere organizzato in
maniera del tutto indipendente da uno strato all’altro. Questo può consentire di avere strati di
numerosità diversa, in particolare è possibile distinguere tre principali metodologie di allocazione
delle unità negli strati:
• allocazione di tipo proporzionale:
- Metodo più semplice e seguito.
- Il peso dello strato nel campione è uguale al peso dello stato nella popolazione.
- Ogni unità ha probabilità di inclusione nel campione uguale, infatti, fh=nh/Nh=n/N per ogni
Strato
- La numerosità del campione negli strati si calcola considerando 𝑛ℎ = 𝑛𝑊ℎ dove 𝑊ℎ = 𝑁ℎ
Privilegia gli strati che presentano una maggior variabilità per il fenomeno di interesse → gli
assegna il peso maggiore (il presupposto della stratificazione è la presenza di medie diverse
tra gli strati)
• Sono necessarie per la determinazione dell’allocazione ottimale le informazioni relative alla
variabilità delle osservazioni negli strati della popolazione
• La frazione di campionamento è in questo caso variabile e dipende direttamente dalla variabilità
𝑛ℎ = 𝑛 ∗ (𝑊ℎ𝑆ℎ /Σ 𝑊ℎ𝑆ℎ) dove 𝑊ℎ = 𝑁ℎ/ 𝑁 e 𝑆ℎ è la deviazione standard del fenomeno nello
strato → le stime a priori di 𝑆ℎ devono essere buone, altrimenti l’operazione è controproducente
• In caso di proporzione campionaria, la numerosità dello strato è data da 𝑛ℎ = 𝑛 ∗(
𝑁ℎ√𝑝ℎ(1−𝑝ℎ)/
Σℎ𝑁ℎ√𝑝ℎ(1−𝑝ℎ)).
• Non essendo il campione autoponderante la stima dei parametri di interesse deve essere
- basata su uno schema di ponderazione
Conclusioni
• In generale il campionamento stratificato con allocazione proporzionale è più efficiente del
campionamento semplice e il campionamento stratificato con allocazione ottima è più efficiente
di quello con allocazione proporzionale.
• Se le varianze di strato sono uguali il campionamento stratificato con allocazione ottima è
del tutto simile al campionamento stratificato con allocazione proporzionale
• Se le medie di strato sono tutte uguali il campionamento stratificato con allocazione proporzionale
è del tutto simile al campionamento semplice
Si tratta di un’indagine annuale (rilevazione trimestrale) su circa 28.000 famiglie (ca. 7.000a trimestre).
Oggetto principale della rilevazione: tutte le spese sostenute dalle famiglie residenti per acquistare
beni e servizi destinati al consumo familiare o per regali. Sono compresi gli autoconsumi di prodotti
agricoli, i fitti figurativi, i beni e servizi forniti dal datore di lavoro ai dipendenti a titolo di salario.
Sono esclusi gli acquisti che non sono finalizzati al consumo:imposte, spese connesse all’attività
professionale, acquisto di immobili, etc.
La popolazione di riferimento è costituita dalle famiglie di fatto3 residenti in Italia. Per individuare le
famiglie si utilizzano le liste anagrafiche che si trovano presso ciascun Comune
(consultabili solo da chi fa indagini statistiche pubbliche4).
L’elasticità misura, dunque, la sensibilità (o reattività) della domanda a variazioni del prezzo.
in base all’elasticità si individuano: beni inferiori (elasticità <1), beni normali (elasticità = 1) e beni
di lusso (elasticità >1). Per misurare questa elasticità si utilizzano funzioni di Engel.
Beni a domanda rigida, una variazione percentuale del prezzo provoca una variazione
percentuale inferiore della quantità domandata. Questi beni sono considerati poco sensibili alle
variazioni di prezzo e, quindi, le imprese che li producono possono aumentare i prezzi senza
perdere molti clienti. Esempi di beni con bassa elasticità della domanda includono beni di prima
necessità come pane e latte, farmaci e prodotti medici, e carburanti.
Beni a domanda elastica una variazione percentuale del prezzo provoca una variazione
percentuale maggiore della quantità domandata. Questi beni sono considerati molto sensibili
alle variazioni di prezzo e, quindi, le imprese che li producono devono fare attenzione a non
aumentare troppo i prezzi se non vogliono perdere clienti. Esempi di beni con alta elasticità della
domanda beni di lusso e beni che hanno sostituti facilmente disponibili.
3) Sia data una popolazione di 100.000 unità. Determinate la numerosità campionaria per la
stima di una proporzione con una precisione del 2% e un livello di confidenza del 95%
N= 100.000
Livello confidenza= 95%
=0,02
• Z è il valore critico corrispondente al livello di confidenza del 95%, che è 1,96
• p è la proporzione stimata (non conosciuta a priori, assumiamo 0,5 per ottenere la massima
numerosità campionaria)
• q è la proporzione complementare a p, ovvero 1 - p
(𝑧𝑎/2 )2 𝜎 2
𝑛=
𝜀2
(1,96)20,25𝑥0,25
𝑛= = 2401
(0,02)^2
4) Sia data una popolazione di 100.00 unità. Determinate la numerosità campionaria per la stima di
una proporzione per un campione stratificato. Gli strati sono tre con pesi 0,35, 0,25 e 0,40. Le stime
a priori delle proporzioni negli strati sono 0,20; 0,30 e 0,60. Determinate inoltre l'allocazione
proporzionale e l'allocazione ottimale del campione.
a) Determinazione numerosità campionaria per il campionamento stratificato
Formula da usare:
𝜀 2
𝑁 (𝑧 )
𝛼/2 1 −1
𝑛=( + )
∑𝐻 2
ℎ=1 𝑁ℎ 𝑠ℎ 𝑁
Denominatore:((35000(0,2x0,8))+(25000(0,3x0,7))+(40000(0,6x0,4))) =
= 20450
23,43 1
𝑛=( + ) ^ − 1 = 865,26
20450 100000
n = 865
b) Allocazione ottimale
Formula da usare
N h ph (1 − ph )
nh = n
Nh
h ph (1 − ph )
Nh1: 865x(14000/45010)
c) Allocazione proporzionale
Formula da usare
2
Campionamento a grappoli → si utilizza in modo obbligatorio quando non c’è una lista di unità
campionarie disponibile.
Le unità statistiche sono raggruppate in modo naturale (es. contiguità fisica o territoriale) in
insiemi che prendono il nome di grappoli. Ci sono due opzioni e modalità di svolgimento: