Sei sulla pagina 1di 30

RICERCA DI MARKETING

04/03
Capitolo 1: Progettare la ricerca di marketing

Perché fare ricerca di marketing?


Si va a esplorare un problema o bisogno così com’è percepito dal potenziale cliente (cliente finale, cliente intermedio, come intermediari e
distributori sia con negozi fisici che online). Nell’ottica di una nuova impresa l’idea è che i clienti sono fatti di categorie diverse.

Il valore della ricerca di marketing


Fare ricerca di marketing significa aumentare la propria conoscenza rispetto a un determinato fenomeno/situazione. Raccogliere nuove
informazioni per aumentare il livello di conoscenza di un fenomeno o situazione
Ci serve anche per esplorare il mercato, per capire se quel bisogno davvero esiste e nessuno lo soddisfa. Inoltre, ci permette di capire quanto
quel problema è condiviso da un numero più alto possibile di potenziali clienti per valutarne il potenziale.
Infine, occorre quantificarlo in termini di quantità stimata per capire quanti sono i potenziali clienti e quanto possono valere.
Quindi prima occorre capire il bisogno in sé, poi quantificarne la magnitudo (quanto è importante), quanto è condiviso e poi bisognerà
determinare in termini quantitativi quanti sono i potenziali clienti e quanto valgono in valore monetario.
La prima analisi viene fatta con interviste in profondità, la seconda con un questionario e survey e infine utilizzando dati secondari.
Prendere decisioni relative alle scelte di interazione con il mercato

Definizione di ricerca di marketing - P. Kotler (1993)


Raccolta sistematica, registrazione, analisi e presentazione dei dati rilevati per una specifica situazione di marketing a cui l’impresa deve far
fronte.
Questa definizione enfatizza molto la parte di raccolta dei dati che si trova alla base della ricerca. Tuttavia, manca la parte
dell’interpretazione del dato per capire cosa emerge dall’analisi del dato.
Un altro tema fondamentale di questa definizione è la situazione di marketing, ossia definire il fenomeno che vogliamo veramente analizzare.

Cosa intendiamo per situazione di marketing?


Il concetto di situazione è molto lasco.

Cerchiamo di collocare la situazione all’interno


del viaggio del cliente, collochiamo diverse
situazioni che possono essere oggetto d’indagine
di una ricerca di marketing
Per esempio, noi ci troviamo nella fase
preacquisto in cui bisogna identificare il
problema (freccia rossa). Siamo nella situazione
in cui dobbiamo capire se c’è il problema.
Nella fase preacquisto abbiamo già una serie di
ipotesi verificate e analizzate. In questo esempio
il focus è sui punti di contatto: direttamente
controllati dal brand, con un partner, punti di
contatto che riguardano il cliente o i social
media
L’assunzione di questa idea di punti di contatto è
come ne veniamo a conoscenza, quant’è il nostro
livello di conoscenza del determinato
prodotto/servizio che stiamo valutando.
Customer journey map (grocery shop)

1
Quindi prima dell’effettivo acquisto siamo nella fase chiamata awareness. Veniamo a conoscenza di qualcosa attraverso diverse tipologie di
canali e punti di contatto. In questo caso il classico obiettivo di ricerca, ossia il fenomeno sotto indagine è capire se c’è interesse (quantificare
l’interesse) e tra gli interessati capire chi sono per capire se rispecchiano il profilo del segmento di cliente a cui vogliamo arrivare. Ci
interessa capire una dimensione sia qualitativa che quantitativa. Per capire il livello di consapevolezza e conoscenza del cliente possiamo
utilizzare delle surveys. Fare ciò ha dei costi di ricerca e raccolta dati.
Se ci spostiamo in avanti lungo questa mappa con cui analizziamo il processo decisionale di acquisto e post acquisto di un potenziale cliente
vediamo che possono cambiare gli obiettivi di ricerca e le situazioni di mercato.
Ora abbiamo già individuato il livello di awareness dei potenziali clienti, il secondo step è quello che viene definito fase di considerazione.
Questo significa capire il vero interesse che va oltre la conoscenza, vogliamo capire se c’è un qualche tipo di comportamento proattivo (se i
clienti vengono verso di noi). Per fare ciò possiamo guardare le visite sul sito web (dal punto di vista quantitativo), raccogliere informazioni
sui clienti invitandoli a iscriversi sul sito o sulla newsletter; questo mi permette di avere informazioni su di loro.
Se vogliamo andare ad analizzare la soddisfazione dei clienti siamo alla fine del viaggio. Quando pensiamo ai vari strumenti di analisi e di
ricerca dobbiamo capire a che punto siamo del viaggio.
Si tratta quindi di tanti momenti diversi con tante tipologie di situazioni diverse e anche di qualità delle informazioni diverse che
presuppongono anche strumenti di analisi e di raccolta dei dati che possono essere molto diversi nelle varie fasi.

Le fasi della ricerca di marketing


Per prima cosa occorre individuare la
situazione e definire il problema di
partenza. In un primo momento
pensiamo che ci sia un problema e
abbiamo iniziato a progettare un
prototipo di soluzione.
Bisogna capire qual è l’esperienza del
cliente potenziale con prodotti che ci
possono far capire se il nostro cliente
potenziale ha un problema.
Primo punto: definire la situazione di
marketing e il problema di ricerca
Successivamente bisogna definire il
progetto di ricerca, l’approccio di
ricerca. Noi utilizzeremo un approccio
esplorativo perché non abbiamo delle
ipotesi di partenza molto forti già
predefinite. L’unica ipotesi che
abbiamo è che il problema
probabilmente esiste.
In questa parte esplorativa
utilizzeremo una metodologia di
raccolta dati non standard (non segue
regole predefinite in termini di sequenza delle domande e contenuto delle domande), definita intervista destrutturata o non strutturata. Si
cerca di far parlare la controparte senza cercare mai di interferire e influenzare.
Dopodiché bisogna definire il campione, ossia la popolazione potenziale di risposta.
L’ultima fase è l’analisi dei dati e l’interpretazione. Si tratta di momenti fondamentali. Noi utilizzeremo uno strumento di interpretazione
chiamato buyer personas, ossia avere una struttura di analisi dell’intervistato classica di un identikit investigativo in cui i campi di analisi
saranno diversi.
Come è fatto un buyer persona? Da un lato c’è la storia, ossia cosa ha studiato, la famiglia, quanti figli ha; guardare gli interessi e cosa gli
piace fare. Poi cercare di capirlo nella situazione specifica di analisi, specificare di esplicitare alcuni elementi che riguardano lui/lei in un
determinato contesto.
L’idea è di costruire e interpretare la persona in un’ottica allargata, non ci interessano solo le variabili sociodemografiche ma ci interessa
capirlo nella situazione specifica.
L’ultimo step è quello del report di ricerca, ossia quello dell’elaborato finale
07/03
Che tipo di problema
affronteremo?
Nella prima fase analizziamo il
problema/bisogno del cliente e
validiamo l’ipotesi rispetto alla
soluzione proposta. Siamo in
una fase che possiamo
definire esplorativa perché si
vuole esplorare e capire al
meglio il problema dei
clienti

Che tipo di
approccio/progetto di
ricerca utilizzeremo?

2
Avere un approccio alla ricerca esplorativo significa che non si hanno delle ipotesi molto chiare. Bisogna qualificare al meglio il fenomeno
di indagine, ossia l’analisi del bisogno. Infatti, la ricerca esplorativa si basa sulla scoperta di idee e intuizioni.
Si hanno delle idee, ma non sono ancora ipotesi vere e proprie. Un approccio alla ricerca di tipo esplorativo può avere dei metodi di raccolta
delle informazioni e dei dati che possono seguire più percorsi, il più classico è quello di raccogliere dati con un approccio non standardizzato.
Questo perché dà la possibilità di avere più risposte e non ci vincoliamo su un’unica domanda o un gruppo di domanda, ci permette di non
fissare in modo predefinito i concetti e la sequenza delle domande. È molto più facile avere un approccio non strutturato, come l’intervista o
raccolta dati tramite fonti secondari. Questo non vuol dire che non ci possono essere metodologie di raccolta dei dati più strutturate che
cercano di tenere molto aperto i concetti o il numero di concetti.
Le varie metodologie di raccolta dati possono essere:
• interviste
• focus group --> il focus è il fenomeno sotto indagine. L’idea del focus group è condividere le proprie esperienze dentro questo gruppo
ristretto di consumatori oppure professionisti in modo tale da avere visioni che possono essere più o meno contrapposte. È un modo per
fare emergere le singole identità all’interno di un gruppo. Solitamente sono gestiti da un facilitatore e hanno un numero predefinito di
persone per permettere anche di fare approfondimenti su alcune singole esperienze. Si tratta di una metodologia di raccolta dati non
standard
Esempio: in Barilla c’è un team che si occupa di focus group tutto l’anno
• etnografia --> l’idea è di osservare comportamenti d’interesse nel momento in cui si manifestano, si osserva sul campo. La ricerca
etnografica ha questa dimensione osservazionale sul campo, quindi su un numero molto limitato di soggetti.
• survey esperienziali --> vengono fatti sull’esperienza, quindi bisogna avere uno strumento di raccolta dati più definito e strutturato
Questo è l’approccio esplorativo
Seguire un approccio di tipo descrittivo significa capire il livello di conoscenza che hanno le persone rispetto alla nostra idea, soluzione o
prodotto; quale è stata la fonte attraverso cui sono venuti a conoscenza del nostro prodotto, servizio o idea e infine capire quale sarebbe
l’intenzione eventuale a comprare sulla base della conoscenza che hanno fino a quel momento. Lo studio di ricerca descrittiva è in genere
interessato a determinare la
frequenza con cui si verifica qualcosa o la relazione tra due variabili.
Si vuole descrivere quanto è conosciuta dando per scontato che ci sia un livello eterogeneo di conoscenza del prodotto. Descrivere vuol dire
mappare le nostre ipotesi o cercare di verificare che le ipotesi siano validate o non falsificate.
Karl Popper dice che nella ricerca sociale le scoperte non rappresentano delle verità, ma delle non falsità perché la ricerca accumula
conoscenza. Quindi quello che scopri è non falsa fino al momento in cui qualcun altro la scopre in maniera più precisa rendendola più
definita, ma sempre aperta a un processo sperimentale di analisi e falsificazione di quella teoria. La base è quella di dire che le ipotesi non
sono mai vere, ma sono non false.
L’approccio descrittivo ha questa idea di base: ci sono delle ipotesi di partenza in quanto pensiamo che ci siano determinati bisogni condivisi
da un certo gruppo o tipologia di potenziali clienti e stiamo già iniziando a lavorare su quello.
Quando c’è un approccio più descrittivo la metodologia di raccolta dati a cui si fa riferimento è quella più standardizzata, si utilizzano degli
approcci più quantitativi perché l’idea è di raccogliere dati che siano comparabili e che ci permettano di verificare l’eterogeneità delle
risposte. Si tratta di risposte che sono facilmente comparabili perché c’è già una serie di esperienze e conoscenze pregresse che permettono ai
rispondenti di rispondere in maniera consapevole.
Le metodologie di raccolta dati sono:
• sondaggi --> survey o sample survey, quindi sondaggi basate su un campione rappresentativo della popolazione,
• studi di tipo longitudinale --> il concetto di longitudinale fa riferimento al tempo, alla dimensione temporale. Io ripeto lo stesso studio
in due momenti diversi cercando di mantenere intatto il campione degli intervistati. Questo ci interessa per capire come cambia nel
tempo quello che si sta studiando e a volte ci interessa anche capire gli effetti di qualcosa che è avvenuto in mezzo.
Al momento t0 faccio un’analisi descrittiva su un campione della popolazione, dopodiché riprovo e rifaccio il test. Questo studio ci
permette di capire cosa è successo dal momento t0 al momento t1, soprattutto se in quel momento ci sono stati dei cambiamenti, delle
attività da parte dell’impresa che portano a una modificazione dei vantaggi percepiti e esperiti dai clienti
Esempio: ipotizziamo che in 6 mesi ho modificato il prodotto fisico. Al momento s0 (soddisfazione al tempo 0) sappiamo che l’utente 1
ha dato valutazione 8 (soddisfazione su una scala da 1 a 10) , l’utente 2 ha dato 6 e infine l’utente 3 ha dato 4. Il valore medio è 6. Al
tempo t1 invece il valore medio è 7
Può essere utile rifarlo sullo stesso campione per poter confrontare il valore medio del grado di soddisfazione, posso guardare la
varianza e posso comparare il grado di soddisfazione tra i singoli utenti.
L’analisi longitudinale fondamentalmente mi definisce i delta a livello di singolo utente, mi permette di capire cosa succede al singolo.
Mi permette di analizzare come cambiano i valori dei singoli partecipanti al gruppo oltre che avere una misura di valutazione media del
gruppo e di confronto delle due valutazioni medie tra i due gruppo al tempo t0 e al tempo t1.
Quando facciamo l’analisi longitudinale sullo stesso sample posso fare una analisi di quanto a livello singolare è cambiata la percezione,
la valutazione e il valore, ci permette di capire quindi le differenze che si vengono a creare tra i singoli partecipanti all’interno del
campione.
Molte volte questa analisi si fa su campione diversi perché è costoso dover riandare sullo stesso gruppo di persone e richiedere la stessa
cosa. Rischio di avere un grado di risposta molto basso nella seconda parte e quindi perdo molta capacità di rappresentatività della
popolazione nel complesso, perdo molte informazioni.
Per questo motivo molte volte questa analisi si fa su campioni indipendenti
L’ultimo approccio è di tipo causativo o correlazionale si occupa di mettere in relazione elementi di causa-effetto. Abbiamo già sviluppato
delle ipotesi tale per cui individuiamo una serie di potenziali elementi che spiegano la soddisfazione complessiva del cliente. Stiamo facendo
una serie di ipotesi e vogliamo verificare quali sono quelle che hanno un effetto più elevato sulla soddisfazione complessiva. Noi ipotizziamo
al tempo t0 che la soddisfazione dipenda da una serie di elementi e facciamo una verifica; vogliamo vedere se la nostra ipotesi sul fatto che
per esempio l’ambiente ha un effetto sulla soddisfazione del cliente nel momento dell’erogazione del servizio è vera. Si tratta di ipotesi già
precostruite e noi dobbiamo cercare di validarle.

3
Utilizzare un approccio causativo significa che ho già tutta una serie di ipotesi molto definite; questo significa che sto cercando di capire non
solo lo stato delle cose ma sto cercando anche di esplicitare tutta una serie di ipotesi che riguardano le correlazioni e la causa e gli effetti di
un determinato fenomeno.
Per capire le eventuali cause bisogna mappare sia gli elementi che hanno un effetto di modificazione sul cliente e poi devo descrivere la
variabile di output, ossia il fenomeno che voglio analizzare in profondità (soddisfazione, intenzione di acquisto, frequenza di acquisto,
passaparola).
Facciamo un’analisi di correlazione/causazione con la regressione che spiega il coefficiente angolare della retta. Il coefficiente angolare è il
grado con cui la variabile x (atmosfera nel punto vendita) influenza la variabile y (soddisfazione finale). In questo modo vedo come al variare
dell’input variano gli output
L’analisi di correlazione è un’analisi uni variata, ossia guardo l’effetto della singola variabile sul fenomeno finale che voglio osservare
(output). Il limite è che sto isolando un solo elemento, mentre nella nostra testa gli elementi interagiscono. Quello che è più utile fare,
anziché guardare il rapporto tra un input e un output, è guardare il rapporto tra più input e l’output. Questo permette di guardare
contemporaneamente tutti gli input in funzione dell’output e capire l’importanza dell’input cercando di compararlo a tutti gli altri rispetto
all’output.
Statisticamente è possibile fare questo con un modello di regressione in cui stiamo dicendo che y1 = αx1+ βx2 + …
In questo modo trovo i coefficienti angolari che spiegano la y. Se io statisticamente lancio un modello di regressione lineare, io alla fine avrò
i coefficienti angolari dei singoli input, ossia la loro magnitudo sul fenomeno osservato guardandoli contemporaneamente . Quanto più la
magnitudo di qualcuno è alta, tanto più significa che quello ha l’effetto più forte.

È importante notare che i tre tipi di progettazione della ricerca sono correlati come fasi in un processo continuo. Gli studi esplorativi sono di
solito la fase iniziale. Quando i ricercatori cominciano un'indagine, naturalmente difettano di moltissima conoscenza circa il problema. La
domanda "Perché la nostra quota di marchio sta scivolando?" è molto ampia, ma la ricerca esplorativa aiuterà a restringere e a risolvere la
questione. Le possibili spiegazioni, o ipotesi, per la diminuzione delle vendite servono quindi come guide specifiche per i successivi studi
descrittivi o causali.
Supponiamo che sia emersa la spiegazione provvisoria che "Brand X ha un prezzo economico, originariamente progettato per competere con
i marchi di negozi a basso costo. Le famiglie hanno più soldi oggi rispetto a quando il marchio è stato introdotto e sono disposti a pagare di
più per prodotti di qualità superiore." Le ipotesi secondo cui le famiglie hanno un reddito reale maggiore da spendere e che una parte
maggiore di quel denaro è destinata a prodotti di questa categoria potrebbero essere esaminate in uno studio descrittivo delle tendenze del
settore.
Supponiamo che lo studio descrittivo abbia sostenuto le ipotesi. L'azienda potrebbe voler determinare se i genitori erano, disposti a pagare di
più per prodotti di qualità superiore e, in tal caso, quali caratteristiche erano più importanti per loro. Questo potrebbe essere realizzato
parzialmente attraverso uno studio di test-marketing, un approccio causale.

11/03
Capitolo 2:
Needfinding &
Personas
“At its core, all business is about making bets on human behavior.” The power of ‘Thick data’, WSJ

Problemi vs. Soluzioni


I problemi sono spesso così aperti e grandi che anche le soluzioni generano esse stesse tanti altri piccoli
problemi che possono essere sempre innovate e migliorate
A noi interessano i bisogni perché le soluzioni si evolvono in quanto si evolve la tecnologia, il contesto, il gusto.
Però i bisogni rimangono
Di che cosa ha bisogno questa persona nella foto?
Problema: andare a prendere il prodotto più in alto
Soluzione: ha bisogno di una scala...

La scala è un bisogno... o una soluzione? La scala è una soluzione. Noi siamo abituati a individuare la soluzione
ancora prima del bisogno, perché siamo abituati subito a riempire il vuoto

4
Proviamo ora a capire bene il vuoto. Lei non ci arriva, ma perché vuole proprio prendere quella scatola?
Ora facciamo l’identikit di questa persona. Si tratta di una madre o qualcuna che si occupa di bambini di età tra 0 e 18 mesi, ha un reddito
medio-basso, attenta a quello che spende in quanto il supermercato ci sembra un discount
Questa signora cerca convenienza ed ha più di un bambino. Non ha voglia di ritornare al supermercato a prendere i pannolini in quanto
quando si ha bambini il tempo è un elemento fondamentale.
Occorre cercare di sforzarci, di non confondere i problemi con le soluzioni. Bisogna cercare di andare in profondità delle cose. Il problema di
questa signora è trovare il tempo per gestire al meglio la sua vita famigliare. Per trovare il tempo deve cercare di minimizzare l’esperienza di
acquisto nel punto vendita

Problemi vs. soluzioni


Bisogna non confondere problemi con soluzioni. Per farlo si può distinguere:
 Bisogni/problemi – sono verbi (legati ai sensi, alle emozioni, alle percezioni)
 Soluzioni – sono sostantivi (oggetti, nomi)

Perché è importante guardare i problemi, e non solo le soluzioni? Se noi chiediamo alle persone di spiegarci un problema partendo dalle
soluzioni tendenzialmente ci racconteranno come la vedono loro rispetto alla soluzione, ma non ci racconteranno niente del problema. È
molto più interessante lavorare sul problema e poi progettare soluzioni. Se vogliamo dare ascolto alle soluzioni dei potenziali clienti il rischio
è di incappare in soluzioni che vanno bene solo per loro.
“If I had asked people what they wanted, they would have said faster horses” Henry Ford
Se avessimo chiesto cosa volevano avremmo ricevuto questo tipo di risposta. Quindi non bisogna chiedere cosa le persone vogliono, ma cosa
sentono.
Il focus è il problema.

Le soluzioni diventano vecchie in fretta, diventato obsolete. Mentre i bisogni durano a lungo, soprattutto quelli più potenti. Tanto più le
imprese sono in grado di lavorare su problemi persistenti, tanto più sono in grado di durare e crescere
Inoltre i bisogni/problemi possono aprire possibilità di sviluppo inaspettate e completamente nuove. La dimensione tecnologica ha una
influenza molto forte, anche su coloro che hanno già sviluppato soluzioni. È sempre fondamentale ascoltare il problema dal lato del cliente
per capire come si può innovare a partire da soluzioni già esistenti.

Come possiamo scoprire i problemi/bisogni?


Lo possiamo fare tendenzialmente attraverso 4 modalità fondamentali:
0. Ricerca da fonti secondarie (analisi Desk)  informarsi con fonti già esistenti, questo permette di avere una idea del contesto.
1. Osservazione diretta
2. Ricerca/esperienza sul campo
3. Interviste in profondità
Il focus di questa fase è cercare di avere un contatto diretto con il cliente perché vogliamo costruire soluzioni a partire da problemi veri delle
persone. Per capire i problemi veri bisogna starci in contatto, parlarci e uscire dal campo della soluzione. Noi interagiamo con le persone per
farci raccontare le esperienze vissute. Noi non vogliamo ragionare in senso ipotetico e parlare di proiezioni future per non influenzarli. Il core
è il contatto diretto con il cliente

Come intervistare?
Bisogna cercare di essere il più neutri possibili chiedendo alla
persona di raccontare la storia rispetto a un determinato tema che ci
interessa analizzare. È importante capire anche lo stato emotivo
della persona.
L’idea è di avere un approccio informale e farsi raccontare delle
storie vere ed effettive.
Non bisogna raccontare mai della soluzione in quanto potrebbero
essere ancora in una fase di sviluppo, ma l’idea è di farsi raccontare
delle storie su quello che sta accadendo ora.
Bisogna anche chiedere il perché di determinati comportamenti,
determinate reazioni o determinate sensazioni espresse.

Intervista
- Conversazione amicale
- Racconto di aneddoti e storie vere. Quando ci si fa raccontare
storie avvenute si possono cogliere elementi molto importanti (inside)
- Evocare sentimenti ed emozioni legate alle storie
- Prendere note, fare foto, osservare chi parla e il contesto. Osservando si può trovare qualcosa di
inaspettato che può dare delle indicazioni in più rispetto ai problemi. Molte volte ci sono delle
cose non dette nelle persone che risultano interessanti e sono evidenti da una immagine e non dal
parlato.
Questo è un approccio etnografico, ossia osservare in modo molto partecipante per capire il
contesto nel quale la persona con cui interagiamo vive.
Tanto più c’è informalità, tanto più questa cosa può avvenire.
14/03

5
Chi intervistare? Estremi vs. Mainstream
A noi interessa andare a parlare con persone che non stanno tanto nella parte centrale
della distribuzione, ma ci interessa capire le code. L’idea è di uscire da una logica del
potenziale cliente o utente medio che si trova nella parte centrale della distribuzione
(mainstream), ma cercare di capire le particolarità (le code).
La logica del primo step di lavoro in profondità è: non vogliamo raccogliere tanti dati
perché non abbiamo le ipotesi descrittive e causative per farlo, ma vogliamo cercare
di capire meglio i problemi capendo come sono vissuti attraverso delle storie
esemplari.

Engage and interact


Persona(s)

Analisi dei clienti:


2 clienti nello stesso segmento-obiettivo
➔ Nati nel 1948
➔ Cresciuti in Inghilterra
➔ 2 matrimoni (il primo problematico)
➔ Due figli
➔ Hanno avuto successo a livello economico
➔ Trascorrono le vacanze invernali sulle Alpi francesi
➔ Amano i cani
Questo è l’approccio classico della segmentazione, ossia usare delle caratteristiche legate a dati che sono più facili da raccogliere rispetto ad
una intervista diretta. Si tratta di caratteristiche che accomunano le persone.
Quando segmentiamo stiamo stratificando il mercato obiettivo per capirne i vari gruppi e le varie composizioni. Tuttavia nel fare questo
abbiamo già una ipotesi: ipotizziamo che le variabili socio-demo-eco-psicografiche determino una azione, un comportamento, un giudizio,
un livello di conoscenza. Pensiamo che quelle dimensioni implichino un comportamento. Viene fuori quindi che noi troviamo dei segmenti e
diciamo che sono i segmenti obiettivi su cui vogliamo puntare, segmenti target su cui definiamo e sviluppiamo la nostra offerta.
Questo segmento è molto omogeneo al suo interno; tale omogeneità si riflette anche sui comportamenti e sulle scelte. Quindi progettiamo la
comunicazione, i punti di contatto, l’interazione con il cliente in modo coerente con questo gruppo che secondo noi si comporta in modo
molto simile
Nella grande maggioranza dei casi succede che dentro segmenti così definiti troviamo persone reali molto diverse, che si comportano in
modo diverso, che hanno giudizi rispetto a un determinato prodotto/servizio diversi. Quindi raggrupparle e metterle insieme è un esercizio
molto rischioso.
Questo non significa che bisogna cancellare la segmentazione, ma prima occorre capire più in profondità i problemi e poi prenderla in
considerazione. Ancor prima di pensare che persone che hanno caratteristiche simili si comportano in modo uguale bisogna capire il
problema. Quindi ci si deve spostare verso la segmentazione in base ai benefici ricercati. Solo se andiamo a ricercare i benefici e quindi i
problemi che stanno dietro, allora possiamo segmentare le persone
Quindi proviamo ad andare in profondità con un numero ridotto di analisi di potenziali utenti, e cerchiamo di costruire attorno a questi clienti
degli identikit. Lo facciamo costruendolo su persone reali. L’idea è di spostarci dalla segmentazione alla costruzione degli identikit partendo
dalla singola intervista. Questa cosa qui si chiama definizione della buyer persona.
Le buyer persona sono rappresentazioni dei clienti ideali. Dovrebbero comprendere sia informazioni reali, come le informazioni personali e
demografiche, sia riferimenti qualitativi immaginari, come le
ambizioni, le sfide, le motivazioni e i modelli di comportamento
condivisi da tutti i membri di un particolare cluster di riferimento.
In questo esempio di Sharon è stata costruito una buyer persona
nell’ambito della b2b (fai degli identikit di potenziali clienti che
sono un piccolo negozio di servizi, in questo caso una parrucchiera).
Questa buyer persona è stata costruita da una banca per capire lo

sbattimento e il comportamento rispetto


all’attività e ai servizi bancari.
L’idea è di capire il cliente nella sua attività
vera e propria.

6
In questo esempio viene fatta una intervista su una persona per capire la sua storia di odontoiatra.
Quello che vogliamo capire è cosa le piace fare o non fare nella sua vita sia privata che professionale, in senso generale
Poi bisogna cercare di capire le problematiche principali legate ad una attività specifica, ossia le operazione in cui era necessaria
l’otturazione.
Da lì bisogna individuare i principali bisogni e evidenziare alcune scoperte che riguardavano sia l’attività lavorativa, che la persona stessa.
Le citazioni sono pensieri veri e quindi sono molto utili.

Personas
Una struttura di identikit

La mappa del valore (per fare sintesi)

La
Value

Proposition, per esteso Customer Value Proposition (CVP), rappresenta la promessa di valore che l’azienda fa ai propri consumatori. La
Value Proposition rappresenta il vantaggio competitivo, il motivo per cui il consumatore sceglie di comprare te piuttosto che il prodotto dei
competitors.
Questo schema è un’esplosione del Business Model Canvas (schema in alto formato da 9 blocchi per descrivere in modo visivo la logica di
creazione, distribuzione e appropriazione del valore da parte di una impresa). Questo strumento deriva dall’esplosione che deriva dall’analisi
dei due blocchi iniziali: clienti e proposta di valore, ossia problema e soluzione. A noi di questi due blocchi interessa soprattutto il problema,
cioè lato cliente (cerchio).
Il Value Proposition Canvas è quindi un framework che si compone mettendo a confronto il Customer Profile, che rappresenta in sostanza il
problema che il cliente intende risolvere, con la Value Map, che rappresenta la soluzione che l’azienda propone al cliente.

Mappa del valore


Questa parte della Value Proposition Canvas si focalizza sul cliente, ed è formato da tre aree: Customer Jobs, Customer Gains e Customer
Pains. Il profilo cliente descrive un segmento di clientela specifico nel modello di business in modo più strutturato e dettagliato.

7
Ci interessa raccogliere i problemi sulla
base di tre dimensioni principali:
1. Attività da svolgere, definito in
inglese customer jobs. Fa
riferimento all’insieme di attività
svolte adesso dalla persona per
riuscire a risolvere o vivere al
meglio quella determinata
situazione in quel determinato
contesto più o meno problematico.
Fa quindi riferimento all’insieme
di attività effettive da fare oggi.
2. Sacrifici descrivono tutto ciò che
infastidisce i clienti prima,
durante, e dopo aver cercato di
ottenere un lavoro fatto o
semplicemente impedisce loro di
ottenere un lavoro fatto. I sacrifici
descrivono anche i rischi, cioè,
potenziali risultati negativi, relativi ad ottenere un lavoro fatto male o per niente. Qui guardiamo tutto quanto di negativo possa essere
connesso ai jobs.
Quali problemi determinano dei jobs insoddisfatti? Quali risultati non desiderati potrebbe ottenere il cliente nel cercare di usare un
prodotto per soddisfare i jobs? Quali ostacoli si frappongono alla soddisfazione? Ci sono rischi o imprevisti dei quali tenere conto?
Solitamente quelle attività hanno una doppia faccia, da un lato vengono fatte per ridurre problemi effettivi, ostacoli, situazioni
complesse (pain). Altre attività invece costituiscono esse stesse dei problemi
3. Vantaggi. Il punto tre è il vantaggio che si vorrebbe veramente raggiungere, quindi i vantaggi ricercati o benefici ricercati. Qui andiamo
a esaminare, sempre dal punto di vista del cliente, tutti i gains (guadagni, letteralmente) ovvero gli aspetti positivi connessi ai jobs, nel
caso in cui venissero realizzati.
Quali sono i benefici che richiede il cliente? Quali risultati si attende? Ci sono addirittura dei gains (guadagni) che potrebbero eccedere
le sue aspettative? Ci sono vantaggi secondari e non immediatamente evidenti che potrebbero essere generati?
Questo schema aiuta moltissimo a costruire la correlazione: dall’attività, al problema, al vantaggio
Questa è la sintesi degli identikit in quanto la mappa del valore si raccolgono su macro categorie di clienti

Esempio: mappa del valore di un lettore di libri di business

17/03
Capitolo 3: Le metodologie di raccolta dati: Le tecniche di ricerca non standard

Tecniche di ricerca
Ricerca standard (o quantitativa)
Nelle tecniche di ricerca standard stiamo standardizzando le risposte in quanto le predefiniamo e quindi sono tutte omogenee l’una con
l’altra, ma uniformiamo anche la sequenza e il contenuto delle domande. Il fine ultimo della tecnica di ricerca standard è rendere comparabile
in modo molto più semplificato in quanto posso fare una trasformazione numerica delle risposte. Attraverso una funzione numerica posso
individuare omogeneità o disomogeneità
Codificazione e standardizzazione di dati misurabili
• Intervista strutturata

8
• Questionario  le domande sono strutturate con risposte predefinite e con una scala quantitativa associata alle risposte
• Osservazione strutturata
• Analisi di documenti sollecitati dal ricercatore
• Analisi secondaria di documenti
• Esperimenti e quasi-esperimenti

Ricerca non standard (o qualitativa)


Tecniche non standardizzate mirate ad esplorare in profondità un fenomeno.
Ricerca non standard significa che le domande non sono standardizzate, quindi sia le domande che le risposte non hanno degli schemi
predefiniti ma è fondamentale guardarle in combinazione. Questa eterogeneità delle domande e delle risposte si riflette sulla difficoltà
dell’analisi e dell’interpretazione del dato; ci deve essere una presenza molto forte di coloro che fanno l’analisi che cercano di rendere
comparabili le interviste. Occorre cercare di capire se ci sono dei punti di contatto, isolare dei concetti e capire se questi possono essere vicini
anche da persone diverse
Nell’intervista in profondità, non standard o qualitativa il ruolo dell’intervistatore e di colui che analizza i dati è molto importante e molte
forte perché la dimensione soggettiva dell’analisi è molto pesante
• Intervista qualitativa (non strutturata o semi-strutturata)
• Focus group
• Osservazione naturalistica (analizziamo qualcosa che già esiste), partecipante (prendiamo parte al fenomeno) e shadowing (non
entriamo dentro al fenomeno ma stiamo fuori)
• Analisi di documenti (naturali vs. sollecitati dal ricercatore)
• Tecniche proiettive

Interviste qualitative
Elevata flessibilità delle domande e libertà delle risposte.
Flessibilità perché siamo liberi di costruire le domande anche a seconda delle risposte dell’intervistato, quindi anche di definirle sul
momento. Dal lato dell’intervistato c’è una piena libertà delle risposte. Quando pensiamo al concetto di standardizzazione non dobbiamo
pensare solo alle domande, ma ancora di più alle risposte. In questo caso noi non stiamo standardizzando i campi di risposta dell’intervistato
Si distinguono in funzione:
– Delle modalità utilizzate per raccogliere le informazioni
Le domande sono caratterizzate da un diverso livello di flessibilità (elevato per le interviste non strutturate; maggior grado di
standardizzazione per le interviste semi strutturate). Le risposte hanno piena libertà.
– Delle modalità di interazione tra intervistato ed intervistatore
Relazione diretta tra intervistatore e intervistato. Solitamente la classica intervista ha un rapporto 1 (intervistatore) a 1 (intervistato). In
alcuni casi l’intervista non strutturata può avere anche rapporto 1 (intervistatore) a 2 (o a tanti intervistati). Si possono avere anche in
altri casi più intervistatori e un solo o più intervistati.

Interviste qualitative: raccolta informazioni


Le principali tipologie di interviste non strutturate sono:
• Intervista discorsiva (definizione tema/i)  si parte da un tema e si chiede all’intervistato di raccontare la sua conoscenza rispetto a quel
tema. Classica intervista che si fa ad esperti
• Intervista libera (singola domanda)  si parte da una unica domanda macro a cui poi possono essere aggiunti altri punti o elementi da
affrontare, in questo caso non è completamente libera ma diventa più guidata
• Intervista guidata (traccia di domande aperte)  l’intervistatore propone una traccia di domande, ma a ogni domanda lascia il racconto
al libero sviluppo dell’intervistato
• Intervista focalizzata (tema molto circoscritto)  si parte da un tema molto definito e predefinito all’inizio
• Storytelling (costruzione di storie)  farsi raccontare una storia e partire da una esperienza vissuta recente o una esperienza classica da
cui estrarre poi delle esperienze vere
• Intervista biografica (narrazione vita)  farsi raccontare una storia molto lunga, che può essere la vita di una persona
Queste sei categorie rappresentano dei punti di partenza di una intervista che rimane sempre libera, non strutturata
L’intervista non strutturata solitamente si utilizza nell’approccio esplorativo in quanto non si hanno ipotesi chiare e le vogliamo vedere con la
controparte.

Intervista semi-strutturata
Le domande aperte hanno un maggior grado di standardizzazione (ordine fisso di domande) e a ogni intervistato viene sottoposta la stessa
batterie di domande
L’intervista semi-strutturata ha più obiettivi di analisi (ossia ci sono più ipotesi) e quindi sono già definiti più temi da porre all’intervistato.
Si utilizza sempre nell’approccio esplorativo ma ci sono più ipotesi che stanno emergendo e si vuole affrontare più temi con domande già
definite all’intervistato.
Si ha comunque sempre flessibilità nelle domande e libertà nelle risposte.

Interviste qualitative: interazione intervistatore-intervistato


Classicamente si ha un rapporto 1 (intervistatore) a 1 (intervistato)  Focus sull’intervistato e sulle sue esperienze, credenze, comportamenti
individuali
Rapporto 1 (intervistatore) a 2 (o a molti intervistati)  Intervista a più voci per capire le interazione di un gruppo

Interviste qualitative: il ruolo dell’intervistatore


È colui che guida e indirizza l’intervista, sceglie i modi e i momenti con cui intervenire e porge le domande
Deve essere in grado di instaurare una relazione positiva con l’intervistato

9
Deve essere in grado di non influenzare le risposte e gli stati emotivi dell’intervistato
La qualità dell’intervista molte volte dipende dalla qualità dell’intervistatore, dalla capacità di andare in profondità

Alcune tecniche di intervista


 Eco: ripetere le ultime parole dette dall’intervistato, per avere conferme e/o continuare la linea di ragionamento. Questo serve per capire
se ci sono dei punti non chiari
 Costruire delle domande di contrasto: “Perché avete deciso di non fare così?” Questo permette di capire meglio perché ha fatto quella
determinata scelta in quel momento
 Laddering: entrare dentro lo schema mentale dell'intervistato chiedendo il perché di determinate posizioni, valutazioni, scelte. Quando la
persona racconta una storia recente bisogna chiedere il perché di determinate scelte, giudizi o determinati eventi.
Capire quali sono le basi che spiegano quella valutazione cognitiva, quel tipo di atteggiamento, scelta o comportamento.
Cercare di andare in profondità sulle singole valutazioni o comportamenti delle persone che intervistiamo

Interviste qualitative: il ruolo dell’intervistato


Bisogna avere un approccio il più informale e amichevole possibile perché quando c’è molta formalità solitamente l’intervistato non dice la
verità o tende a celarla il più possibile. Tanto più si è artefatti, tanto più lo è la risposta.
È il fulcro della ricerca il cui scopo è quello di esplorare e comprendere il suo universo cognitivo ed emotivo.
Non si vuole ottenere dal soggetto una semplice risposta (si/no), ma una informazione/dichiarazione. Bisogna cercare di farsi raccontare delle
storie vere, non bisogna stare nel campo del possibile, ossia un campo basato sul futuro, su opzioni, su scenari che sono provabili. Dobbiamo
farci proiettare indietro ma molto vicino, in quanto è una storia vera che permette di capire meglio come hanno reagito, come si sono sentiti
in quel momento, come si sono comportati. Occorre cercare di minimizzare le proiezioni in avanti nel tempo.
Si vuole ottenere la narrazione di sé

Interviste qualitative: interazione e traccia


Tra intervistatore e intervistato si crea un sistema reciproco di influenze. Non è possibile azzerare le influenze dell’ambiente e del ricercatore
(come nella ricerca quantitativa) ma l’intervistatore deve cercare di minimizzare la sua influenza in quanto l’intervistatore pesa molto.
La traccia dell’intervista è lo strumento che guida la dinamica dell’interazione
Non è una semplice lista di domande, ma deve essere collocata all’interno dell’interazione. La traccia quindi può essere integrata in
qualunque momento da nuove domande

Interviste qualitative: traccia


Basata su domande aperte che possono essere di tipo:
– Domande descrittive: domande che hanno l’intento di descrivere il fenomeno; possono avere caratteri generali (inquadramento del
tema) o più specifici (focalizzate su alcune variabili o sull’esperienza dell’intervistato)
– Domande strutturali: indagano la conoscenza del soggetto e come questa è organizzata (in modo da mettere in relazione temi, eventi,
situazioni, oggetti). Sono le più difficili e rischiano di creare anche molta confusione in quanto cercare dei punti di contatto tra un
momento A e un momento B significa lavorare su delle ipotesi.
– Domande contrasto: focalizzate sulla percezione del soggetto, mirano a chiarire gli elementi che determinano scelte e giudizi (‘se non
fosse disponibile … cosa comprerebbe come sostituto? Perché?)

I focus group
Il focus group è la costruzione di una raccolta di dati non strutturati cercando di raccogliere dati attraverso un gruppo di persone che
discutono su un argomento (focus)
Tecnica di rilevazione per la ricerca sociale basata sulla discussione all’interno di un piccolo gruppo di persone, alla presenza di uno o più
moderatori, focalizzata su un argomento di indagine.
L’idea è cercare di capire le scelte e le ragioni delle scelte di questo gruppo di persone
Focus = argomento centrale su cui si sviluppa la ricerca per comprendere idee, atteggiamenti, significati ad esso associati (fa riferimento al
tema di analisi e non al gruppo indagata).
Esempio di focus: la colazione al mattino. L’idea è di farsi raccontare quel momento della colazione e cercare di capire le scelte e le ragioni
delle scelte
Group = gruppo di individui selezionati in modo accurato, tendenzialmente omogeneo in termini di conoscenza e familiarità rispetto ad un
dato argomento (esperienze confrontabili) sia a livello di potenziale di verbalizzazione.
Si ha un gruppo abbastanza eterogeneo rispetto alle categorie e al cluster rappresentativo di potenziali clienti per favorire anche discussioni
sulle varie scelte  eterogeneità non totale in quanto le persone devono essere idealmente abbastanza simili
È una tecnica di analisi molto usata tra gli anni ’70 e 2000, ora è andata un po' in disuso.

I focus group hanno tendenzialmente una metodologia abbastanza predefinita.


Viene solitamente sviluppato su almeno 3 gruppi che lavorano sullo stesso tema di discussione, perché è necessario avere 2 gruppi di
controllo per poter comparare gli elementi emersi tra gruppi di intervistati.
Il numero di componenti è abbastanza ampio da includere opinioni eterogenee; ma non troppo elevato al fine di impedire a qualcuno di
trovare lo spazio e il tempo per esprimersi (6-10/13).
Tendenzialmente il focus group ha una durata tra 1.30 h/ 2.30 h, avere una numerosità non troppo elevata permette a tutti di esprimersi e di
entrare dentro a una discussione per avere più punti di vista. Più persone vuol dire avere meno tempo per esplicitarsi a livello singolo e
individuale.

10
In alcuni contesti nei focus group ci sono degli esperti da focus group che tendono ad essere molto presenti all’interno del gruppo e tendendo
a sovrastare gli altri e rendono meno facile la capacità di raccontarsi da parte degli altri. Per questo motivo la numerosità viene mantenuta su
un numero relativamente governabile da parte di un facilitatore.
La discussione si sviluppa su una traccia, un modello che definisce l’ordine e gli argomenti da trattare, le domande chiave, l’utilizzo di
strumenti non verbali (video, foto, giochi, etc.)
Fasi del focus group solitamente governate da un facilitatore:
 Introduzione: autopresentazione dei ricercatori/moderatori, introduzione dei temi di ricerca, presentazione dei
partecipanti
 Discussione: nasce a partire da stimoli verbali e non che introducono gli argomenti generali; successive domande di dettaglio per
approfondire (ruolo fondamentale del moderatore)
 Conclusione: ricapitolazione affidata ai partecipanti di quanto emerso e richiesta di esplicitare dubbi
La raccolta dati è basata su registrazione video/audio che permette di raccogliere per intero l’interazione tra i partecipanti, permette di vedere
anche il linguaggio non verbale.
Le persone tendono a raccontarsi in modo diverso del reale all’interno dei focus group in quanto si è in confronto con altri; questo
rappresenta un grande rischio dei focus group. Il rischio quindi è di trovare persone che non riescono a contrapporsi ad altri

L’osservazione (di tipo qualitativo)


Osservazione che si concentra sul comportamento degli individui/gruppi. Particolarmente utilizzata quando si è alla ricerca di idee e/o ipotesi
per inquadrare un contesto (e l’interazione degli individui/gruppi in quel contesto)
 Osservazione naturalistica: consiste nell’osservare l’oggetto di studio nel suo ambiente naturale/sociale (deriva
dall’etologia e etnologia) senza influenzarlo. Essere solo ed esclusivamente osservatore senza alcun tipo di influenza.
 Osservazione partecipante: forma più nota di osservazione in campo sociale che nasce dagli studi di antropologia (l’antropologia non
riguarda solo lo studio sull’uomo, ma anche sul lavoro e l’economia).
Consiste nell’immersione, da parte del ricercatore, nel contesto e nella cultura dei soggetti osservati. L’intervistatore quindi partecipa
all’evento e lo può anche influenzare in minima parte. Nel caso dell’action research il ricercatore diventa l’oggetto stesso della sua
analisi.
L’osservazione va condotta nel luogo di vita naturale delle persone oggetto di studio, e il ricercatore deve imparare a vivere in contatto
con la realtà osservata.

Shadowing - Osservatore/ricercatore ombra


Osservare nell’ambiente della persona cercando di non avere una partecipazione attiva per investigarlo in modo tale da avere una analisi più
approfondita tra il raccontato e il comportamento effettivo
Il ricercatore segue come un’ombra il soggetto per un tempo determinato osservando e annotando il comportamento, le interazioni, il
contesto. Permette di indagare nell’ambiente naturale comportamenti complessi di vita quotidiana
Si discosta dall’osservazione partecipante perché l’osservatore non ha alcuna partecipazione attiva.
Si discosta dall’osservazione naturalistica dove l’osservatore è palese e può produrre una perturbazione

Analisi dei documenti (analisi desk)


Ai fini della ricerca di marketing possono essere analizzati vari tipi di documenti
- Documenti grafici (libri, articoli, giornali, siti internet, sentenze, lettere, manoscritti etc.)
- Documenti visivi (foto, film, disegni, trasmissioni televisive, etc.)
- Documenti audio (registrazioni, dischi, etc.)
- Documenti materiali (monete, prodotti, oggetti, etc.)
- Documenti naturali: preesistono alla ricerca e ne sono totalmente indipendenti (prodotti per finalità altre rispetto la ricerca)
- Documenti sollecitati: documenti frutto della ricerca, nati in funzione di essa (possibili distorsioni)

Tecniche proiettive
Tecniche di tipo psicologico che si basano sul sottoporre ai soggetti stimoli indefiniti, ambigui, mascherati in modo da lasciare ampia libertà
delle risposte e associazioni
L’obiettivo è entrare nella dimensione inconscia degli individui, legate alle loro percezioni, in modo da trarne la ricchezza delle loro
interpretazioni e dei loro significati
Tecniche utilizzate nella ricerca di marketing con estrema prudenza
24/03
Capitolo 4: Le metodologie di raccolta dati - Le tecniche di ricerca standard

Il questionario e le interviste quantitative

Metodologie di raccolta dati standard  standardizziamo la struttura dell’intervista, il tipo di domande è uguale per tutti e con la stessa
sequenza logica e poi si confrontano le risposte. L’idea di standardizzazione fa riferimento al contenuto delle domande, alla sequenza delle
domande e alla struttura delle risposte. Si standardizzano sia le domande che le risposte. L’obiettivo di standardizzare domande e risposte è
quello di confrontare le risposte riuscendo a tradurre quelle risposte con funzioni numeriche. Questa trasformazione numerica ci permette un
confronto più semplice e un utilizzo di tecniche di analisi più semplificate, standardizzate statisticamente.

Tecniche di ricerca standard (o quantitative)


Tecniche codificate e standardizzate per la raccolta di dati misurabili
• Intervista strutturata/Questionario. Sono le due tecniche principali. La differenza tra i due è molto sottile. L’intervista strutturata è orale
attraverso l’interazione tra persone; si caratterizza per la presenza di un intervistatore di fronte o in contatto diretto che sottopone le
domande ad un intervistato. L’idea è che ci sia sempre una controparte che sottopone l’intervista e si occupa poi della codificazione. Lo

11
strumento di indagine nell’intervista strutturata è il questionario, ma in più c’è la presenza dell’intervistatore che dà supporto
all’intervistato nel definire le domande e nel proporre le risposte.
• Osservazione strutturata  vengono già predefinite dei campi di raccolta dato e delle funzioni numeriche, codici attraverso i quali
raccogliere le informazioni. Le risposte non sono aperte, ma pre codificate con campi, categorie e numeri predefiniti
• Analisi di documenti sollecitati dal ricercatore
• Analisi secondaria di documenti
• Esperimenti e quasi-esperimenti  abbiamo come punti di partenza dei questionari. Si caratterizzano perché c’è una scelta e la
definizione di campioni selezionati e predefiniti su cui somministrare questionari che possono essere strutturati in modo identico per
gran parte del questionario e poi ci possono essere domande specifiche per ciascuno dei campioni. L’obiettivo è verificare su campioni
diversi con caratteristiche diverse alcuni obiettivi di ricerca specifici
Si basano su una struttura predefinita di classi/campi codificati per la raccolta di dati.
Noi ci concentriamo su intervista strutturata e questionario.

Questionario
Strumento di rilevazione e misurazione attraverso la raccolta di informazioni che sono riconducibili a funzioni numeriche su temi di indagine
stabiliti a priori e definiti operativamente (si parla anche di operativizzazione o operazionalizzazione). Questo vuol dire che traduco la
domanda in una funzione numerica di risposta, sto definendo per quella domanda qual è la funzione numerica per la risposta. Lo posso
definire attraverso scale, valori espressi in valore assoluto o percentuale, etc. Posso avere logiche di operativizzazione attraverso domande
che possono essere espresse con funzioni numeriche anche diverse.
La domanda si sviluppa attraverso risposte che possono essere esplicitate attraverso una funzione numerica, questo perché a noi interessa
confrontare le risposte di intervistati diversi. Ci permette di interpretare anche meglio un numero di rispondenti elevato.
Tecnica di ricerca tre le più utilizzate che si caratterizza per:
- Costi ridotti: fare un questionario non costa poco, quello che costa poco è il costo unitario, ossia il costo per la singola intervista.
- Possibilità di estensione su campioni vasti e rappresentativi che permettono di generalizzare sull’universo di riferimento: maggiore
rappresentatività del campione dei rispondenti rispetto ad una popolazione di partenza, la popolazione target. Il campione rappresenta
una parte della popolazione di partenza.
- Natura dell’indagine duplice: descrittiva e/o causale (o correlazionale). Il questionario è uno strumento coerente con gli approcci di
ricerca di tipo descrittivo o causativo.
Possiamo utilizzare un questionario per fare una ricerca anche di tipo esplorativo? È sicuramente meno usato, ma non è completamente
incoerente. Lo posso usare ad esempio, quando ho tante ipotesi e voglio fare una selezione. L’esplorazione, in questo caso, è quella di
selezionare delle ipotesi (es. cercare di capire i driver del valore). Questo tipo di ricerca quantitativa che ha un approccio esplorativo (non ho
ipotesi precostituite, ma ho un grande paniere di ipotesi), in questo caso anche questo tipo di tecnica di raccolta dati standardizzata può essere
coerente con una finalità più esplorativa.
Solitamente è più coerente con un’ottica descrittiva e causale, es. descrivere lo stato di soddisfazione dei clienti attuali. L’ipotesi di base è
che gli intervistati abbiamo già utilizzato e che conoscano il prodotto e capire il fenomeno (grado di soddisfazione) adesso.
Il questionario è basato su un elenco di domande strutturate standardizzate, in modo che tutti gli intervistati ricevano lo stesso stimolo,
permettendo il confronto tra le risposte e l’analisi statistica.

Lati negativi del questionario


L’intervistato ha poca libertà di risposta, le domande sono incomplete o mancano domande o le risposte previste non prendono in
considerazione tutte le opzioni.
Essere così standardizzato porta a fare delle scelte sia sulle domande che sulle classi di risposta. Quando l’intervistato non trova la risposta,
significa che la domanda è sbagliata o le classi di risposta sono incomplete. Questo vuol dire che si sta perdendo un’occasione di fare una
rilevazione più completa. Il fatto che questo strumento sia chiuso ha una serie di elementi di svantaggio, ad esempio quello di porre domande
non corrette o incomplete. Ci può essere una domanda che prevede risposte che non sono complete (mancano delle opzioni possibili) o
mancano delle domande. In questo caso, l’intervistatore se ha sbagliato, deve rifarlo. I tempi e i costi aumentano. Inoltre devi buttare delle
risposte date da alcuni rispondenti.
Quindi l’essere così chiuso ha dei vincoli importanti.

Analizziamo il questionario sulla base di queste quattro dimensioni principali:


1. Modalità di somministrazione
2. Ripetizione delle misure/somministrazione
3. Struttura del questionario e costruzione delle domande
4. Scale di risposta

1. Modalità di somministrazione
Intervista strutturata e questionario sono quasi la stessa cosa (intervista strutturata si basa sul questionario). Si distinguono per la modalità di
somministrazione

Intervista strutturata
 Intervista somministrata faccia-a-faccia (intervistatore presente)
 L’intervistatore assiste i rispondenti (es. spiegare i possibili campi di risposta). Il fatto di avere l’intervistatore permette di avere
un’assisteva, quindi se le domande non sono chiare l’intervistatore può spiegarle
 Tassi di risposta più elevati (la presenza dell’intervistatore tende a far aumentare i tassi di risposta sul campione individuato)
 Costi più elevati (avere qualcuno che deve gestire l’intervista è costoso anche se l’intervistatore non è in presenza, ma in remoto o al
telefono)
 Possibile influenza dell’intervistatore (influenza che può essere a volte più bassa o più elevata, dipende da come si pone l’intervistatore
e dall’intervistato)

12
Questionario
 Autosomministrazione (non c’è presenza dell’intervistatore, chi risponde è da solo)
 Tecnica meno costosa (vantaggio principale)
 No influenza dell’intervistatore, l’intervistato ha completa libertà di risposta
 Aumenta la garanzia di anonimato per l’intervistato
 Può avere restituzione differita
 Tassi di risposta bassi
Il problema più grande di un questionario senza intervistatore sono i tassi di risposta, ossia le mancate risposte. Il rischio di non ottenere
risposte è elevato oppure anche ottenere poche risposte e ottenere un campione poco rappresentativo. Avere un supporto umano nel
somministrare un questionario può essere utile

2. Ripetizione della somministrazione


La ricerca di norma indaga una situazione definita nel tempo. È tuttavia possibile sviluppare una indagine diacronica, per analizzare i
cambiamenti che avvengono in un determinato periodo di tempo.
A seconda della pluralità e ripetitività delle somministrazioni possiamo individuare l’indagine a misura unica oppure l’indagine longitudinale

Indagine/questionario a misura unica


Quando facciamo un questionario autosomministrato la logica classica è quella di descrivere un fenomeno così come è adesso. La logica di
questi strumenti di raccolta strutturati è quella di fare la fotografia della situazione in un dato momento, si vuole ottenere un dato descrittivo
qui e ora. Questo significa che in termini di confrontabilità si analizza l’eterogeneità delle risposte dei vari intervistati, cioè di tutte le persone
che hanno risposto al questionario
 Viene effettuata un’unica somministrazione e misurazione
 Fotografia della situazione in un dato momento
 Confronto le risposte all’interno ai gruppi di rispondenti della medesima rilevazione (e non tra gruppi appartenenti a rilevazioni distinte)
 Tempi brevi di raccolta dati
 Poco costosi

Indagine/questionario longitudinale
L’indagine longitudinale fa riferimento al fatto che ci sono più somministrazioni nel tempo, tendenzialmente allo stesso gruppo di
rispondenti. Questo strumento permette di capire come evolve il pensiero dell’intervistato. Facendo più somministrazioni ho la possibilità di
capire l’evoluzione dell’atteggiamento, delle opinioni, della percezione dei rispondenti nel tempo.
 Un panel, gruppo di soggetti selezionati, si rende disponibile per una pluralità di somministrazioni. Si effettuano più somministrazioni
per capire se nel tempo l’opinione di quel gruppo di consumatori è cambiata in positivo o negativo.
Mi interessa cercare di intervistare la stessa persona per valutare l’evoluzione su quella stessa persona perché si vuole vedere se si
modifica la valutazione su quello stesso cliente. Questa è la logica per cui si cerca di chiedere la stessa cosa alla stessa persona.
 Durata e l’ampiezza dell’intervallo di rilevazione variabili (solitamente intervalli regolari per un periodo prefissato inizialmente).
 In grado di monitorare l’evoluzione di un fenomeno
 Costi elevati e tempi lunghi
 Rischi di distorsione (effetto memoria sulle domande) e possibile mortalità del campione. Il problema principale di questa indagine
plurima sugli stessi intervistati è quello che le stesse persone debbano rispondere una seconda volta, questo potrebbe essere uno
sbattimento lato intervistato. Magari c’è bisogno di dare degli incentivi. Per ritornare sugli stessi intervistati i costi sono alti e anche il
potenziale di non risposta sulle seconde o terze somministrazioni è molto alto.
È interessante fare questo tipo di analisi longitudinale, ossia sulle stesse persone, quando si verificano dei fenomeni esogeni (evento esterno
che può cambiare la percezione, come pandemia) oppure fenomeni endogeni (es. se il servizio viene modificato: vado in banca e faccio un
prelievo. Torno tra 3 mesi, rifaccio l’operazione il cassiere è cambiato. Quello può essere un elemento endogeno e la logica è cercare di
capire come ci si è trovati al momento t0 con il vecchio cassiere e al tempo t1 con il nuovo. Questo permette di capire se c’è una variazione
di giudizio, opinione, atteggiamento, percezione, .. da parte dei clienti)

3. Domande e struttura del questionario


Il questionario si articola secondo uno schema (con varianti) basato su 4 blocchi principali:
A. Introduzione  titolo e breve presentazione dell’indagine e dell’organizzazione proponente, sul perché fare questo questionario
B. Domande  oggetto dell’indagine e scopo del questionario
C. Profilo anagrafico (domande socio-demografiche)  età, genere, stato civile, istruzione, residenza, etc.
Solitamente viene chiesto all’inizio, prima delle domande, perché mettere questo alla fine c’è il rischio che gli intervistati possano
saltare questi campi.
D. Commenti finali  osservazione finali. Saluti finali e ringraziamento

3. Domande
Quando pensiamo alle domande del questionario il primo elemento da prendere in considerazione sono gli obiettivi di indagine
 Il problema preliminare è legato al numero di domande. Quando c’è un questionario lungo solitamente è rischioso, in quanto a metà del
questionario una persona solitamente non risponde più. È importante darsi fin da subito un obiettivo in termini di numerosità di
domande da porre.
 La scelta successiva è legata al tipo di domande
Categorie principali di domande:

13
– Domande filtro: selezionare i rispondenti e/o evitare risposte su argomenti che non hanno relazione. Domande che creano delle
diramazioni del questionario.
– Domande buffer: spezzano la continuità del questionario (es. tutte le domande prima sono su scala 1-10 e poi mettiamo una domanda
si/no in modo da non ancorare un solo tipo di risposta in quanto solitamente nelle risposte con scala il rispondente dopo tante domande
tende a posizionarsi nel mezzo e a non prendere posizione)
– Domande interattive: creano relazione ed un clima di partecipazione. Sono domande che solitamente si fanno all’inizio per rendere tutto
più simpatico e facile.
– Domande sostanziali: centrate sugli obiettivi della ricerca
L’ultimo step è definire il formato delle domande: chiuse vs aperte.
L’intervista strutturata si basa su domande chiuse. Le domande aperte possono essere utilizzati per rispondere a ‘altro’, oppure spiegare un
motivo o un giudizio di qualcosa. Possono essere utili per fare emergere qualcosa che non c’era, però poi trattarle in un’ottica comparative è
molto difficile

3. Domande chiuse
Le domande chiuse sono domande rispetto alle quali bisogna definire dei campi di risposta predefiniti

Domande chiuse dicotomiche

I campi di risposte sono due, in cui si chiede di esprimere ‘si


o no’, ‘1 o 0’, ‘favorevole o contrario’.

Domande chiuse a scelta unica

Domande in cui si definiscono più categoria di risposta ma con un’unica possibile scelta.
Si tratta delle classiche domande anagrafiche legate alle classi d’età, tipologia di lavoro svolta, domande legate al profilo socio-demografico,
come il numero di componenti della famiglia

Domande chiuse a scelta multipla

Domande in cui si dà la possibilità di esprimere più risposte.


il problema di queste domande è come compararle e
analizzarle. Queste sono essere trasformate in domande con scale
La domanda nell’esempio potrebbe diventare ‘Può indicare per ognuno di questi giochi una valutazione da 1 a 5 in base a quello che ti piace
di più?’. Questo permette di rendere confrontabili le domande e soprattutto le risposte

4. Domande con scale di risposta


Proponiamo dei possibili gradimenti all’intervistato rispetto alla domanda che proponiamo, quindi delle scale di gradimento

Domande con scala ordinale


(scala Likert 1-5/ 1-7/ 1-9/ 1-11)

Sono tutte dispari perché c’è un punto centrale e questo ci


permette di definire il sopra e il sotto rispetto al punto centrale. Nelle scale di risposta apri non abbiamo un punto centrale, quindi a livello
cognitivo è difficile posizionarsi sopra o sotto. Il problema però di questo tipo di scala è proprio la tendenza di mettersi in mezzo, in quanto
le persone hanno paura a prendere posizione. Il livello minimo è quasi sempre l’1, mai lo zero.

Domande con scala ad intervallo


(poli semantici opposti,

Sono quelle scale in cui si mettono due estremi, con due poli semantici
opposti: favorevole- disaccordo, bello – brutto, molto costoso – economico. L’idea è di mettere due estremi di una scala con due poli.
Queste scale con i poli sono sconsigliate perché i poli semantici devono essere interpretati da qualcuno allo stesso modo in cui lo interpreta
che effettua il questionario; questo può generare complessità.

Domande con scala a rapporto


(scala a termometro)

14
Si fa esprimere una valutazione rispetto ad un termometro predefinito. Bisogna maneggiarla con cura in quanto è rischiosa, soprattutto
quando si dà un termometro molto ampio, come 0-100

Si è passati a questo tipo di scale per rendere le risposte simili confrontabili tra loro. Ancorarsi ad un riferimento che rimane uguale nelle
risposte è molto utile per chi risponde, rispondere avendo questo tipo di ancoraggio. Inoltre, avere delle domande strutturate in modo simile
permette di dare una risposta molto più veloce perché si ha questo effetto di ancoraggio rispetto alla domanda e rispetto alla scala di risposta
Uno dei principali problemi del questionario è il fatto che ci possano essere molte risposte non vere. Per poter evitare ciò si potrebbero usare
scale di risposta negative, cioè virare la domanda in negativo per fare in modo che la legga non in modo superficiale e capire se il polo gira.
Si tratta di un piccolo trucco che non riesce davvero a rispondere al problema. Sono le cosiddette domande di controllo

Tecniche codificate e standardizzate per la raccolta di dati misurabili


• Intervista strutturata/Questionario
• Osservazione strutturata
• Analisi di documenti sollecitati dal ricercatore
• Analisi secondaria di documenti
• Esperimenti e quasi-esperimenti
28/03
Capitolo 5: From customer value canvas to the questionnaire

Ci spostiamo dalla dimensione qualitativa, cioè di interviste in profondità, verso un’analisi quantitativa. Quindi passiamo da una metodologia
di raccolta dati non standardizzata ad una metodologia raccolta dati standardizzata, come ad esempio sviluppando un questionario strutturato
cercando di farci ispirare, nel suo sviluppo, da un’analisi esplorativa che abbiamo sviluppato fin ora con le interviste in profondità.
Verranno spiegati step con cui passare dalla canvas, quella utilizzata per mappare la percezione del valore per il cliente, fino a costruire un
questionario.

Pains & gains


Design the customer value canvas by defining customer tasks, pains, and gains

Supponiamo di essere arrivati al livello dove


viene costruita la canvas e averla anche
riempita con le varie attività, con i vari pain e
Supponiamo di averne costruita una per il
cliente finale e una per il cliente professionale.

Ranking dei Pains & Gains


Ranking pains, and gains is essential to
understand things customers really care about.

15
Prima di tutto bisogna definire un livello di priorità, ossia costruire un ranking rispetto all’intensità
delle attività, dolori e benefici che abbiamo individuato. È importante definire gli elementi più
intensi e rilevanti sulla base delle interviste effettuate. Quindi costruire tre ranking relativi alle tre
dimensioni in cui definire le attività in termini di importanza, i pain in termini di grado di
percezione e i benefici tra essenziali e ‘belli da avere’.

Poi c’è il passaggio dagli elementi che abbiamo classificato al questionario. Prima di effettuare
questo passaggio dobbiamo porci una domanda: Le attività/ pain/ gain che avete individuato
riflettono i principali vantaggi generati dalla soluzione che state analizzando? Pensate sia necessario
introdurre alcuni elementi di bisogno/beneficio che non sono emersi nella fase esplorativa? Secondo
voi nelle interviste non sono emersi degli elementi specifici della soluzione del prodotto che stiamo
analizzando?
Potrebbe essere che non ci sia nulla, che tutto sia emerso, che gran parte degli elementi siano emersi
o che ci siano delle specificità proprie della soluzione che magari non sono venute fuori.
Bisogna individuare se ci sono elementi che debbano essere considerati e analizzati anche in questa
fase di raccolta dati strutturata, quindi standardizzata.

Lo sviluppo del questionario: Domande Importance vs. Performance


Il questionario viene strutturata con una logica di strutturazione delle domande sulla base
dell’importanza e della performance percepita. Questo tipo di approccio vuol dire che per ognuno
degli elementi considerati importanti nel ranking, ognuno dei pain & gain, dovete strutturare la
domanda sulla base di:
• Quanto è importante per te nella scelta/esperienza/acquisto/occasione …
ridurre il problema del … / ottenere il beneficio di …
Lo step successivo
• Attualmente, come giudichi la tua esperienza/l’attuale soluzione/il prodotto nel …
ridurre il problema del … / ottenere il beneficio di …

La prima domanda riguarda l’importanza in termini assoluti, non è ancorata ad un prodotto o


servizio utilizzato, ma serve per chiedere quanto è importante per te quel determinato elemento in questo determinato specifico contesto di
uso, acquisto, scelta, utilizzo. Facciamo questa domanda perché vogliamo capire quali sono gli elementi più importanti, dal punto di vista di
chi risponde, in quel determinato contesto di acquisto, uso, utilizzo, etc. sulla base di quelli che sono gli elementi che noi abbiamo fatto
emergere nell’intervista in profondità.

Questa domanda è sviluppata con una scala Likert 1-5 o 1-7: da molto poco a moltissimo, da per nulla a del tutto o da poco a molto. Quanto è
importante per te, nella scelta della tua alimentazione, l’ecosostenibilità dei tuoi alimenti? 1= per nulla e 5 = del tutto; oppure 1= per nulla e 7
= del tutto. Il consiglio è di mantenere la scala omogenea durante tutto il questionario. La seconda domanda è legata al grado di
soddisfazione percepito rispetto ad un prodotto o servizio già in uso. Quindi lo step successivo è chiedere qual è il principale prodotto in uso
e poi ripetere lo stesso concetto per individuare e capire come giudichi quel determinato prodotto o servizio che stai utilizzando ora in
termini di quello specifico mal di pancia (problema).
Es. sulla base della tua scelta abituale dell’ultimo servizio utilizzato, come giudichi quel determinato servizio o prodotto rispetto
all’ecosostenibilità?
Si mettono tutti gli item di importance nella prima domanda, dopodiché si ripetono gli stessi item (elementi, domande) di performance che
riflettono gli stessi concetti. Il rischio di confondere le domande è alto, ma l’idea è quella di essere abbastanza precisi nel distinguerle.

Perché utilizzare questo tipo di logica di importance/performance?


Questa logica è importante perché permette di fare l’analisi che si vede nel
grafico, ossia permette di utilizzare le due dimensioni (importanza e
performance) per capire da un alto qual è attualmente il principale driver del
valore per il cliente in termini di importanza (qual è il mal di pancia o
l’elemento che pesa di più) e rispetto a questo elemento capire attualmente
quanto quel mal di pancia è attenuato dalla soluzione che sta utilizzando. Il
nostro obiettivo è trovare un gruppo di clienti per cui i vantaggi che
sviluppiamo noi sono ancora scoperti, ossia trovare quel gruppo di clienti che
danno importanza a degli elementi che fanno parte della nostra soluzione che
però ancora non trovano soddisfazione rispetto a quello che c’è al momento
sul mercato.
Quindi la logica che utilizziamo è cercare quel gruppo di clienti tale per cui il
grado di importanza è alto e hanno soddisfazione bassa rispetto a elementi,
vantaggi, benefici che sono quelli che apporta la soluzione che stiamo
analizzando.
Se non li troviamo significa che gli elementi importanti sono già coperti da
quello che c’è sul mercato.

16
Nel riquadro A c’è aria di opportunità, dove l’elemento è molto importante e la performance è tendenzialmente bassa. Il grafico è fatto su un
unico item che viene analizzati in base all’importanza e alla performance. È consigliabile utilizzare più item possibili.
Quest’analisi permette di trovare delle dimensioni latenti tra più domande, cioè cercare di capire se ci sono delle dimensioni che le
raggruppano. L’analisi ci permette di fare una sintesi sulle domande di importanza e poi la sintesi la si analizza nelle domande di
performance.

Domande di Importanza
Come fare le domande di importanza? Dovete definire il contesto del problema/uso/scelta/esperienza/acquisto del cliente e selezionare gli
elementi (items) più rilevanti in termini di pains/gains sulla base della vostra prioritizzazione. Sulla base della selezione che abbiamo fatto
degli elementi più importanti, bisogna definire le domande in questo modo:
• Quanto è importante per te ridurre il problema del … nella scelta/esperienza/acquisto di …
• Quanto è importante per te ottenere il beneficio di … nella scelta/esperienza/acquisto …
o Nella scelta/esperienza/acquisto di X quanto è importante per te (tutti gli item), es ridurre l’impatto ambientale, aumentare la
qualità della vita delle persone …?
Questa è una lista di items utilizzando verbi e azioni che per noi sono le più importanti.

Domande di Performance
Inizialmente, prima delle domande di performance, bisogna definire il set di soluzioni/esperienze attualmente usate/vissute dal rispondente.
Potrebbe essere utile utilizzare una domanda con cui ancorare le domande di performance all’attuale soluzione utilizzata (es. uno specifico
servizio di stampa 3D) o a quella maggiormente acquistata (es.: probiotico/integratore). Ancorare le domande a questo tipo di prodotto,
servizio, esperienza in modo tale che tutte le domande di performance riflettano quel determinato prodotto, servizio o esperienza
E selezionare gli elementi (items) più rilevanti in termini di pains/gains sulla base della vostra prioritizzazione
Le domande di performance sono strutturate in questo modo:
• In che modo ritieni che la soluzione/esperienza attuale sia in grado di ridurre il problema …?
• In che modo ritieni che la soluzione/esperienza attuale sia in grado di generare il beneficio …?
Le domande di importance e di performance sono il cuore del questionario.

La struttura del questionario


1. Introduzione: titolo e presentazione dell’indagine e del team proponente (tono informale)
2. Profilo anagrafico: età, genere, stato civile, istruzione, etc. Domanda/e che permette/ono di categorizzare il rispondente. Es.: attività
sportiva principalmente svolta; n. di stampe 3d effettuate ultimo anno; utilizzo e/o assunzione di integratori,
3a. Domande Importance: in funzione degli items emersi nella fase quantitativa legati alla specificità del vostro caso (non emersi in fase
esplorativa)
3b. Domande utilizzo/scelta: domanda sulla soluzione attualmente in uso
3c. Domande Performance: in funzione degli items utilizzati per l’importance
4. Domanda sul futuro utilizzo: domanda ancorata a qualcosa che non c’è. Proiezione sugli items di importanza (se pensate abbia senso).
5. Commenti finali: ringraziamento finale
31/03
Capitolo 6: La definizione del campione

Le fasi di progettazione del campionamento

Il punto di partenza è definire la


popolazione obiettivo, ossia
la scelta della tipologia di cliente a svolgere il nostro questionario. In alcuni casi la popolazione obiettivo si può predeterminare a priori, ma
non è il nostro caso.
La popolazione obiettivo è quella che fin ora abbiamo definito sulla base dei vari step di analisi (persona, mappa del valore del cliente,
definizione degli elementi prioritari analizzati attraverso la mappa del valore) e poi da qui si decide a quale cliente potenziale sottoporre il
questionario.
Una volta identificata la popolazione (es. popolazione dei votanti), bisogna identificare la fonte di dati da cui ricavare informazioni affidabili
sulla popolazione di partenza per il campionamento.
Il terzo step è quello di definire come campionare, ossia come prelevare dalla popolazione intera una quota parte della popolazione, quindi un
campione che deve essere il più possibile rappresentativo della popolazione iniziale di partenza.

17
Una volta definita la tecnica bisogna fare delle scelte legate alla dimensione del campione tenendo in considerazione due principali
indicatori.
Dopodiché viene fatta l’effettiva estrazione del campione fino ad arrivare all’ultima fase che è quella di somministrazione del questionario.
Tutto ciò per rispondere alla nostra domanda di base: “A chi sottomettiamo la nostra indagine?”.
3. Le tecniche di campionamento
Se si volesse giungere a una descrizione esaustiva delle caratteristiche che un fenomeno assume nella popolazione oggetto di studio, la
soluzione ideale sarebbe quella di raccogliere le informazioni di cui si necessita sull'intera popolazione. Un'indagine di questo tipo, ovvero
condotta rilevando le manifestazioni del fenomeno su tutte le unità elementari che compongono la popolazione, viene definita indagine
censuaria (o esaustiva). Tuttavia, nella grande maggioranza dei casi, esistono dei vincoli (di natura economica, geografica o strutturale) che
impediscono l'accesso a tutta l'informazione disponibile. Il ricercatore si trova, pertanto, di fronte alla necessità di intraprendere una strada
diversa per poter soddisfare le sue esigenze conoscitive. Tale strada è rappresentata dall'osservazione del fenomeno - e dalla raccolta delle
informazioni - su un numero più ristretto di unità elementari, che rispecchino le caratteristiche della popolazione di riferimento. Si parla, in
questo caso, di indagine statistica realizzata in forma parziale o campionaria e il processo che consente di estrarre un sottoinsieme di soggetti
(il campione) dal totale delle unità oggetto di studio (la popolazione) è il processo di campionamento. Oltre ai vincoli di natura oggettiva (in
alcuni casi, per esempio, la popolazione di riferimento è sconosciuta in termini di composizione e numerosità), esistono diverse ragioni per
cui, nella ricerca sociale, si ricorre al campionamento:
• risparmio sui costi di rilevazione;
• riduzione dei tempi di raccolta dati e di elaborazione:
• vantaggi organizzativi (per esempio, nella gestione e nella numerosità dei rilevatori);
• vantaggi di approfondimento e di accuratezza, poiché la minore complessità organizzativa permette di concentrare risorse sul controllo
della qualità della rilevazione
D'altro canto, il principale problema connesso alla rilevazione dei dati su una porzione limitata dell'informazione disponibile è quello
dell'attendibilità e della generalizzabilità dei risultati, ovvero dell'estensione degli stessi all'intera popolazione. Per questa ragione, appare
fondamentale riuscire a intercettare un campione che sia il più possibile rappresentativo della popolazione e che consenta di generalizzare i
risultati ottenuti con un certo livello di affidabilità.

La scelta della popolazione iniziale e della tecnica di campionamento è molto legata ad una logica che ci dia la possibilità di sottomettere un
campione in modo semplice, con costi bassi e con costi di analisi ridotti.
Noi ci affideremo ad una tecnica di campionamento non probabilistica, che è il campione di convenienza.
Nel campione non probabilistico la scelta delle unità del campione è effettuata in funzione di esigenze conoscitive specifiche o di alcune
caratteristiche peculiari della popolazione.
È un modo semplice di fare campionamento, ma comunque valido perché l’analisi verrà fatta dopo aver raccolto e analizzato i dati
Ci sono invece tecniche di campionamento probabilistiche che sono quelle utilizzate per avere un campione rappresentativo di una
popolazione di partenza molto chiaramente definita (es. coloro che hanno il diritto di voto in Italia). Un campione si dice probabilistico
quando le unità della popolazione di riferimento hanno tutte la stessa probabilità, nota e diversa da zero, di essere incluse nel campione.
Le tecniche di campionamento probabilistico si suddividono in 3 categorie: la prima è una tecnica casuale, cioè ho una popolazione definita e
estraggo dalla popolazione un numero x di persone in modo completamente casuale e quello rappresenta il campione rappresentativo. In
questo caso la rappresentatività non è certa e molto spesso si utilizzano degli aggiustamenti. Si utilizzano quindi delle tecniche definite di
campionamento casuale stratificato, questo significa che prima di effettuare l’estrazione definisco degli strati all’interno della popolazione di
partenza sulla base di una serie di variabili indicative che penso siano importanti (es. localizzazione geografica, classe d’età, collegio, etc.).
Supponiamo che la popolazione venga suddivisa sulla base del collegio e sulla base della classe d’età; quindi, se abbiamo 20 collegi e 5
classi d’età avremo 100 strati (20 x 5). Da questi strati poi inizio ad estrarre. Io ho una dimensione obiettivo e sulla base di questa poi
proporzionalmente estraggo il campione da questi strati e l’estrazione è casuale.
A volte la stratificazione della popolazione può essere fatto a grappoli.

Campioni non probabilistici


• Campione di convenienza
• Campione tramite testimoni privilegiati
• Campione per quote
Campioni probabilistici
• Campione casuale
o Campione casuale semplice (simple random)
o Campione casuale sistematico (con un passo di campionamento)
• Campione casuale stratificato
o Proporzionale
o Non proporzionale
• Campionamento a grappoli (cluster)
o Sistematico
o Geografico

Il campionamento non probabilistico


 Campione di convenienza: si basa su un processo di selezione non casuale, effettuata sulla base delle caratteristiche che le unità
campionarie posseggono rispetto al fenomeno di studio.
Immaginiamo che tutte le unità campionarie a cui vogliamo sottoporre il questionario siano rappresentative del fenomeno di studio e
quindi conoscano il fenomeno. Noi utilizziamo questa logica.
 Campione di testimoni privilegiati fa riferimento ad individui che rivestono competenze maturate sul tema (esperti rispetto al
fenomeno).
Si fa riferimento a persone che sicuramente hanno avuto conoscenza del fenomeno e che siano esperti del fenomeno.

18
 Campione per quota in cui il disegno campionario prevede la suddivisione della popolazione in gruppi di unità (strati) sulla base della
variabile di interesse che vengono arbitrariamente selezionati dal ricercatore.
Si stratifica il gruppo della popolazione per strati anche se fondamentalmente poi non si va a quantificare gli strati sulla base dall’analisi
delle variabili ma ci va bene tutto.

Come facciamo a scegliere il campione di convenienza?


- Clienti/consumatori finali: Reti/cerchie di conoscenza (family/friends/folks)
- Professionisti/specialisti: Gruppi pubblici Facebook/Telegram (se entrate in gruppi privati rispettate netiquette/regole del gruppo)
- Aziende: Analisi del codice Ateco (codice dell’attività economica di una organizzazione aziendale) e ricerca con la banca dati Aida
BvD (banca dati che accoglie i bilanci delle società di capitale e personale)

Il campionamento probabilistico
L'elemento che li accomuna è il fatto che, a partire da una popolazione di numerosità N, l'operazione di scelta delle n unità che costituiscono
il campione avviene in maniera casuale.
 Campione casuale semplice (simple random) consiste nell’estrarre con sorteggio (in modo completamente randomico) dalla lista della
popolazione gli n elementi del campione. Si tratta del disegno di campionamento probabilistico più elementare e più diffuso.
A volte si può decidere di fare un campione casuale sistematico (con un passo di campionamento,) quando non c’è sorteggio ma viene
definito un intervallo costante (passo) con cui scorrere la lista e scegliere le unità del campione.
Nel campionamento casuale sistematico l'estrazione delle unità campionarie non avviene mediante sorteggio, come nel caso del
campionamento casuale semplice, ma scorrendo la lista dei soggetti e selezionandone sistematicamente uno ogni dato intervallo. La
procedura prevede la scelta casuale della prima unità campionaria e la selezione di quelle successive rispettando un criterio prefissato.
Tale criterio viene definito passo di campionamento e identifica l'intervallo costante in base al quale scorrere la lista delle unità e
individuare, di volta in volta, quelle che entreranno a far parte del campione.
Ad esempio, parto da 3 e faccio un passo di 10, quindi poi prendo il 13° e poi il 23°, etc. Quindi in questo caso il campionamento sarà
1/10 della popolazione di partenza.
 Campione casuale stratificato si basa sulla conoscenza degli strati omogenei della popolazione rispetto ad una variabile di interesse. Si
procede poi ad un campionamento casuale all’interno di ciascuno strato che può essere proporzionale o non proporzionale rispetto allo
strato. Gli strati sono formati in base a variabili che conosciamo della popolazione di partenza (es. classi di età, luogo geografico).
All’interno di ciascun strato il campionamento può essere proporzionale o non proporzionale rispetto alla dimensione dello strato stesso.
 Campionamento a grappoli (cluster) in cui le unità campionarie sono selezionate all’interno di un certo numero di raggruppamenti
naturali (provincie, aziende, famiglie) che entrano a far parte, per intero, del campione.
Il campione viene estratto partendo da dei gruppi definiti in base a riferimenti naturali come le province, le regioni, all’interno di
azienda (estrazione di dipendenti a livello dei dipartimenti, selezione rappresentativa di tutte le funzioni dei dipartimenti aziendali)

3. Il campione casuale semplice


È fondamentale non confondere la media della popolazione con la media del campione che è data da:
La comparazione tra le due statistiche deve tener conto della distribuzione all’interno del campione
e della popolazione di partenza (varianze)
Tendenzialmente vuol dire che nelle due comparazioni c’è sempre un errore, che viene definito errore casuale: quando andiamo a confrontare
la media di un campione con la media di una popolazione.

3. L’errore casuale
La somma di tutti le imprevedibili variazioni nell’esecuzione delle operazioni di misura generano uno scostamento attorno al valore medio.
Se si vuole misurare la possibilità di infarto di una certa popolazione, si estrae un campione casuale di n=900 soggetti, nel quale si verifica il
20% di infarto
L’errore casuale è dato da:

4. La dimensione del campione


La dimensione del campione è fondamentale perché determina la precisione delle misure
La dimensione del campione dipende da:
 dalla precisione della misura, margine di errore (errore standard) --> precisione delle misure finali del campione rispetto alla
popolazione finale
 dalla precisione del campione, intervallo di confidenza --> precisione del campione nella sua rappresentatività

4. L’errore standard (margine di errore) nel campione casuale semplice


Quanto devi essere sicuro che le risposte riflettono le opinioni della tua popolazione nel suo complesso?
Questo è il margine di errore (o standard error).
L’errore standard è definito come la stima della deviazione standard dello stimatore. Solitamente viene definito in termini percentuali, 1%,
5%, 10%.
Ad esempio, 5% vuol dire che dobbiamo sempre aggiungere un +/- 5% agli stimatori che raccogliamo attraverso l’analisi sul campione. Vuol
dire che quella stima potrebbe essere sbagliata per il 5% in più o in meno.
Se il 23% della popolazione esprime un intenzione di voto di votare il partito democratico, se l’errore standard predefinito nella definizione
della dimensione del campione è pari al 5%, potrebbe essere che quella stima potrebbe essere sbagliata per il 5% in più o in meno. Quindi la
stima è dentro a una forbice che è il +5% o il -5%.
Se al 90% del campione piace la gomma da masticare al gusto di uva, un margine di errore del 5% aggiungerebbe il 5% di errore su entrambi
i lati (+ e – 5%).

19
Questo significa che in realtà all’85-95% del tuo campione piace la gomma da masticare al gusto di uva. Il 5% è il margine di errore più
comunemente utilizzato, però è consigliato di avere un margine di errore dal 1 al 10% a seconda dell’indagine.

4. L’intervallo di confidenza nel campione casuale semplice


Quanto devi essere sicuro che il campione rispecchi fedelmente la tua popolazione target?
Questo è il tuo intervallo di confidenza.
L’intervallo di confidenza ci dice quanto siamo sicuri che il campione rispecchi fedelmente la popolazione di riferimento. L’intervallo di
confidenza esprima la probabilità che il campione scelto sia rilevante per i risultati ottenuti. Solitamente il calcolo viene eseguito nel modo
seguente. Se hai scelto altri 30 campioni casuali dalla tua popolazione, con quale frequenza i risultati ottenuti con un campione differiscono
in modo significativo da questi altri 30 campioni?
Un livello di confidenza del 95% significa che si dovrebbero ottenere gli stessi risultati estrapolando campioni diversi nel 95% dei casi (95%
è il livello di confidenza più comunemente utilizzato).
Possiamo definire sulla base del margine di confidenza che vogliamo avere la numerosità del campione. Quindi sia il margine che l’errore
sono due elementi che predefiniamo a priori e attraverso i quali poi si definisce la dimensione del campione.

4. La dimensione del campione

Questi sono i due parametri che si possono predefinire a priori


quando si sceglie un campione da una popolazione di partenza.
Con un margine di errore al 5% e un livello di confidenza al 95%,
c’è una corrispondenza della dimensione del campione sia per popolazioni di 1.000, 10.000 e 100.000. Come vediamo per una popolazione
di 100.000, il campione estratto non è necessariamente un campione molto grande dal punto di vista dimensionale.

6. Gli errori di somministrazione (non sampling errors)


Gli errori di somministrazione sono quelli che non sono strettamente legati al disegno di campionamento.
Possono essere errori legati:
• Alla mancata osservazione (non-observation error)
o Mancata copertura (il nostro campione non include alcuni elementi della popolazione target)
o Mancata risposta (non-response error) che generano l’effettivo tasso di risposta (n. di interviste complete ottenute / n. di potenziali
rispondenti del campione)
- Rifiuti a rispondere
- Non presenza del rispondente
• Alla effettiva osservazione
o Raccolta dati
o Errori di processo
04/04
Per costruire un questionario: Drive -->Moduli Google

Duplico la domanda
Vai alla sezione sulla base della risposta --> creo delle sezioni separate a seconda del rispondente. In base ad una determinata risposta ti porta
direttamente alla sezione 2. Bisogna fare in modo di non andare dopo anche nella sezione 3, ma direttamente alla sezione 4.

Griglia a scelta multipla:


1. domande anagrafiche
2. domande di importance (es. le cose importanti quando consigli uno snack. Tra i 3 e i 10 item (es. l’apporto di energia, la salubrità, etc.)
con risposte molto poco, poco, né poco né abbastanza, abbastanza, molto.)
Prima della performance devo ancorare alla soluzione preferita, più utilizzata e più consigliata.
3. domande di performance (es. Qual è lo snack sano che tendi a consigliare più spesso ai tuoi clienti? Risposte: barretta proteica, yoghurt
probiotico, yoghurt tradizionale, frutta, barretta energetica)
Poi si ripete questa domanda in termini di valutazione e giudizio (es. Rispetto allo snack che tendi a consigliare di più, qual è il suo giudizio
rispetto a … à item: apporto di energie, salubrità, freschezza, etc. La scala di risposta può andare da molto negativo e molto positivo)
4. domande per capire il livello di esperienza del consumatore finale (es. Ha mai provato il Miele di Manuca? Risposte: mai, una sola volta,
alcune volte, lo uso periodicamente, lo uso spesso).
Un'altra domanda che si potrebbe fare è “anche se non l’ha mai provato qual è il suo grado di conoscenza del miele di Manuca?”, “Quanto
ritiene di conoscere il miele di Manuca?”. Risposte: per nulla, poco, mediamente, abbastanza, molto.
Dopodiché un’altra domanda potrebbe essere “sulla base del miele di Manuca, qual è il suo giudizio rispetto a … à item (stessi item della
domanda 3 che permettono una comparazione anche rispetto al prodotto più utilizzato o conosciuto).
Si utilizzano sempre le stesse etichette. Proiettare un’intenzione sul futuro rispetto a qualcosa che non c’è rispetto ad item già analizzati e su
cui abbiamo già una serie id informazioni in termini di importanza che saranno utili per fare una comparazione.

Altro strumento per fare un questionario: survio.


All’inizio si può inserire una parte di testo per fare la descrizione.
Poi si aggiunge una domanda single choice, es. “che lavoro fai?”.

20
Domanda a griglia: matrix multiple choice. Gli item nelle righe e le risposte con scala nelle colonne
07/04
Capitolo 7: l’analisi dei dati

Il presupposto è quello di aver già raccolto i dati attraverso il questionario. Ora ci troviamo di fronte alla fase successiva di analisi dei dati.
Partiamo dal file delle risposte che ci restituisce il modulo di Google. All’interno del file Excel possiamo trovare tutte le risposte ottenute dal
nostro campione
Il modulo di Google restituisce tale file su un foglio di lavoro.

Il contesto di analisi dell’esempio è B2B e hanno risposto i direttori tecnici o referenti del commerciale o della direzione. È sempre molto
utile fare una domanda sul ruolo del rispondente per capire chi risponde in nome e per conto dell’impresa.
Nell’esempio sono state fatte sei domande di importanza, una domanda relativa alla soluzione più utilizzata e sei domande di performance
costruite con la stessa metrica e scala delle domande di importanza.

Ora bisogna fare in modo che i dati riescano a dirci delle cose che non conosciamo
Ancora non sappiamo che cosa ci dicono i dati
Per far parlare i dati dobbiamo seguire un processo, attraverso il quale permette ai dati di raccontarci cose che fino a questo momento non
sappiamo

L’analisi dei dati

Editing dei dati


Adesso costruiamo un sondaggio basato su una piattaforma web in grado di fare la raccolta
dati e restituirci il file con i dati codificati. Il file di raccolta quindi è già strutturato e si
alimenta ogni volta che il questionario viene completato.
Se invece si utilizzano interviste strutturate, quindi con questionari somministrati attraverso questionario cartaceo oppure con la presenza
dell’intervistatore; in questo caso l’editing deve essere sviluppato dall’analista. Questo vuol dire che un lavoro strutturato sarà quello di fare
l’inserimento dati del questionario. Bisogna prima costruire tutti i campi di risposta, dopodiché bisogna inserire i dati del questionario
cartaceo traducendo le varie risposte all’interno del file Excel. Si tratta di un lavoro più lungo, ma potrebbe permettere di codificare già i dati
in un modo furbo, costruendo e inserendo le scale numeriche invece che scale sotto forma di dato alfabetico o alfanumerico come fa il
Modulo di Google.
Se supponiamo di utilizzare il Modulo di Google quindi consiste nel controllo preliminare del dataset delle risposte al fine di identificare:
• Omissis e risposte non date (può riguardare intere sezioni del questionario e/o singole domande). Per evitare ciò si potrebbe
minimizzare il numero di domande non obbligatorie. Se si hanno alcune risposte con pochi campi nulli si può tenere la riga e sostituire
il campo nulla con il valore centrale della scala. Invece quando le righe sono molto vuote è meglio cancellarla.
• Non accuratezza dei dati (risposte che sono evidentemente non corrette o risposte tutte uguali). In questo caso ci si riferisce a persone
che hanno risposto a tutte le domande con la stessa scala (per esempio hanno dato tre in tutto), si tratta di persone che hanno risposto in
modo molto poco accurato. Quando abbiamo righe in cui vediamo valori ripetuti in modo molto frequente il consiglio è di non
considerare la risposta perché rappresenterebbe un outlier del cluster, ossia il rispondente che è fuori da tutti i cluster
Una volta individuati gli errori è necessario definire una strategia di trattamento dei dati con cui correggerli

Coding
Coding è la procedura che permette di trasformare i dati grezzi di risposta nelle variabili che possono essere oggetto di analisi. Questa fase di
ricodifica consiste nella trasformazione delle scale ordinali o categoriali in scale numeriche.
Per le domande che non hanno una scala ordinale e/o categoriale di risposta (es.: domande aperte) è necessario definire per le variabili
categoriali il numero di classi (o categorie) che devono essere oggetto di analisi (esaustive ed
esclusive)
Alcuni suggerimenti che è utile applicare in questa fase
- Usare solo codici numerici (non alfanumerici) nel dataset definitivo
- Ad ogni rispondente deve essere associato un numero identificativo

Come si fanno a ricodificare le domande di importanza e di performance?


Il consiglio è di farlo su Excel. Per poter ricodificare bisogna sostituire per esempio il ‘per nulla’ con il valore 1, ‘poco’ con il valore 2,
‘parzialmente’ con il 3, etc..
Alla fine ci si ritroverà su dataset formato dalle variabili di importanza e numerica ricodificate sulla scala Likert

Tabulazione e analisi descrittiva


La tabulazione rappresenta il primo livello di analisi descrittiva, che permette di analizzare:
• Il livello di missing values per ogni variabile/items (domanda)

21
• La distribuzione di frequenza e gli outliers. Gli outliers sono valori anomali rispetto alla distribuzione normale, sono quindi valori che
stanno nelle code della distribuzione normale
• Eventuali errori (blunder) rimasti dopo il coding

Ora quindi si entra nel programma SPSS


Il programma ha due schermate con cui lavora: file dati in cui si ha il dataset e la lista delle variabili.
Per poter importare il file Excel sul programma bisogna fare: dati --> apri --> dati --> selezionare file
I campi vuoti sul file Excel venivano mostrati come NULL, sul file SPSS viene la casella vuota.
Nel foglio lista variabili invece si vedono le variabili con le relative specifiche
Il prossimo passo è iniziare con l’analisi descrittiva, quindi lanciare le prime statistiche descrittive in termini di frequenza
Per esempio facciamo l’analisi descrittiva socio-demografica: analizza --> statistiche descrittive --> frequenze
Iniziamo con le variabili comune, provincia, numero di dipendenti. Possiamo calcolare la media, mediana, moda e una misura di dispersione
(deviazione standard --> radice della varianza).
La moda rappresenta la categoria che si presenta con più frequenza per ognuna delle variabili
Il foglio di output ci restituisce le statistiche che abbiamo lanciato. Possiamo vedere una tabella che rappresenta i vari comuni in ordine
crescente rispetto all’ordine alfabetico. La tabella di frequenza restituisce la numerosità, la percentuale sul totale del campione, percentuale
valida e cumulata.
Avendo categorie alfabetiche non possiamo trovarci né la media né la mediana. L’analisi dei punti centrali può essere fatta solo su valori
numerici.
La dispersione di una varabile è una misura della sua variabilità, mi dice quanto si allontana rispetto alla sua tendenza centrale.
Queste misure descrittive ci permette di capire come è distribuito il campione rispetto alle variabili analizzate.

Outliers

In questo caso
l’outlier è 9 in quanto è una categoria che si distacca molto dalle altre. Rappresenta un valore che è fuori da una distribuzione ipotetica,
attesa.
In economia gli otliers sono casi di studio fondamentali, in statistica invece sono difficili da maneggiare perché vanificano molte delle
assunzioni di base delle statistiche utilizzate. In statistica quindi si cancellano gli outliers, non si considerano all’interno dell’analisi statistica.
Mentre nell’analisi economica e di marketing vengono approfonditi

Alcune statistiche descrittive


Una volta fatta la prima tabulazione, si possono fare delle analisi descrittive più dettagliate, ossia delle analisi di variabili numeriche
• Test del Chi-quadrato
• Statistiche descrittive (medie, dev. standard, min., max) --> statistiche che forniscono alcuni elementi rispetto alla tendenza centrale
(media, moda e mediana) e alla dispersione delle variabili
• Analisi fattoriale
• Cluster Analysis
• T-test
• Correlazioni

Test del Chi-quadrato


Il test del chi-quadrato permette di analizzare la rappresentatività del nostro campione, soprattutto quando è stato effettuato un
campionamento stratificato.
Si basa sull’analisi della frequenza osservata (observed) e quella attesa (expected) per ognuno delle categorie analizzate (r)
Si tratta di un test che permette di confrontare i valori osservati da quelli attesi e poi ci permette di fare un’analisi delle diverse distribuzioni
di frequenza tra due variabili. Ci può dire se le distribuzioni sono effettivamente distinte, ci permette di dire che due distribuzioni sono
significativamente diverse l’una dall’altra.
Ci permette di confrontare come le distribuzioni siano o non siano distinte rispetto a una determinata variabile tra due sottogruppi dello
stesso campione

Test del Chi- quadrato

22
Statistiche Descrittive (Spss 28)
Media --> è quel valore che corrisponde alla somma di tutti i valori diviso il numero dei
valori stessi. Rappresenta il valore che sostituito a ciascun xi lascia invariata la intensità
totale (somma)
Mediana --> è quel valore al di sotto del quale cadono la metà dei valori campionari. Sopra
questo valore abbiamo il 50% dei rispondenti e sotto il 50%. È il valore in prossimità del
secondo quartile (il quartile è il 25% della distribuzione, quindi il secondo quartile è il
50%)
Modalità (o Moda) --> è definita come il valore che ha la frequenza più alta
Deviazione Standard --> misura di dispersione data dalla radice della somma degli scarti
dalla media aritmetica al quadrato. È il quadrato della varianza

08/04
Come facciamo a misurare tali elementi su SPSS?
Analizza -->statistiche descrittive --> descrittive
Per esempio possiamo analizzare le variabili di
importanza.
Lanciando la statistica il programma restituisce la tabelle
delle descrittive con la numerosità, il minimo, il massimo,
la media e la deviazione standard.
La deviazione standard tanto più è alta, tanto più c’è una
dispersione elevata all’interno delle risposte rispetto alla
variabile di importanza. Vuol dire che le domande
tendendo a spostarsi verso gli estremi della scala
Quando si definisce un range si fa il valore medio +/- la
deviazione standard.
Se per esempio faccio il range della variabile
d’importanza 6, la cui deviazione standard è 2,1; il range va tra i 5,8 e i 1,66. Ha un range abbastanza ampio
Alcune volte può accadere che la deviazione standard sia più elevata del valore medio, in questo caso significa che la variabilità è
estremamente elevata all’interno delle risposte di quella variabile
Una volta fatta la statistica descrittiva il passaggio successivo è iniziare a sviluppare l’analisi fattoriale

Analisi fattoriale (Spss 28)


L'analisi fattoriale è una tecnica che permette di evidenziare l'esistenza di una struttura fattori o dimensioni non misurabili direttamente,
all'interno di un insieme di variabili direttamente osservabili.
Quindi l'analisi fattoriale viene utilizzata per identificare un piccolo numero di fattori che spiegano la maggior parte della varianza osservata
in un numero molto maggiore di variabili osservate.
Serve ad individuare dei fattori latenti che sono dei fattori di sintesi che rappresentano il fattore rispetto al quale si riflettono una serie di
variabili osservate. Quindi ci permette di sintetizzare, attraverso l’individuazione del fattore latente, una serie di variabili utilizzate all’interno
della ricerca di marketing. Ci permette di fare una sintesi senza perdere il significato di tutte le variabili. quello che fa l’analisi fattoriali è
mettere insieme una serie di variabili che si muovono in modo molto simile, rispetto al quale le risposte del campione dei rispondenti tende
ad associare delle distanze che sono molto simili all’interno delle loro risposte
Ha la capacità quindi di osservare una serie di variabili osservate che abbiamo utilizzato all’intero del questionario di ricerca.
Questo viene fatto perché è difficile fare sintesi dell’analisi quando si ha un numero di item elevato. Attraverso questa analisi possiamo
sintetizzare gli item in una serie di dimensioni di sintesi (due/tre).
Questo lo facciamo, non dal punto di vista teorico (non cercando di sintetizzare item che ci sembrano correlate dal punto di vista del
significato della domanda), ma lo facciamo sulla base della variabilità delle risposte del campione di rispondenti.
Come lavora questa analisi fattoriale? A partire dalla matrice di correlazione (o di varianza e covarianza) si procede all'estrazione di fattori di
sintesi attraverso varie tecniche (la più comunemente utilizzate è il metodo dei fattori principali con il criterio di Kaiser). Il risultato può
venire poi sottoposto a rotazione con vari metodi (il più usato è il Varimax). Questo serve per arrivare ad una matrice di componenti rotata in
cui si vedono gli item che saranno associati a un fattore di sintesi (fattore latente) sulla base di una fattore di saturazione
Ai fini dell'interpretazione del risultato, i parametri più importanti da valutare all’interno dell’analisi fattoriale sono:
1. la quantità di varianza "spiegata" dal complesso di fattori considerati e da ciascun fattore singolarmente;
2. la saturazione (factor loading), che descrive la forza della relazione tra il fattore e la variabile misurata. Saturazioni molto basse (con
valori inferiori a 0,30 o 0,40) vengono in genere utilizzate per escludere la relazione tra una variabile e un fattore, semplificando quindi
la struttura.

All’interno del foglio di output possiamo continuare a fare l’analisi.


Funzione per fare analisi fattoriale: analizza --> riduzione delle dimensioni --> fattore
Selezioniamo per esempio le sei variabili di importanza e lanciamo l’analisi fattoriale.
Il primo output che fornisce l’analisi fattoriale è la comunalità, ossia un’altra misura di come ogni singola variabile
osservata caricano sui fattori

23
Successivamente fornisce una tabella della varianza totale spiegata dall’analisi fattoriale che ha estratto due fattori di sintesi che spiegano la
variabilità dei sei item in una misura cumulata pari a quasi il 70%.

La matrice dei componenti ruotata ci dice che abbiamo due fattori di sintesi estratti dalle sei variabili iniziali; questi
fattori di sintesi sono il riflesso di tre variabili (3,4,1) (il primo fattore) e altre tre variabili (2,6,5) (il secondo fattore)
Il factor loading rispetto al primo fattore è molto alto per tutti e tre le variabili osservate, in quanto siamo sempre sotto
a 0,7. La barriera minima è 0,4; mentre il factor loading inizia ad essere buono quando è sopra a 0,6
Rispetto al fattore 2 abbiamo che la variabile 2 e 6 ha un ottimo factor loading; mentre la variabile 5 carica su
entrambi i fattori. Carica sul fattore 2 con un fattore di caricamento .656; mentre sul fattore 1 con un fattore di
caricamento .489
Questa cosa può accadere spesso e le due opzioni di scelta che si possono perseguire sono:
1. quell’item tendenzialmente sta su due dimensioni, ma non sta in nessuna delle due in modo significativamente
differente. Quindi possiamo decidere di non considerarlo all’interno di una delle due dimensioni di sintesi.
2. in questo caso dato che in una delle due dimensioni carica con un factor loading più alto, è meglio considerare
l’item 5 come un item del fattore di sintesi 2.
L’analisi fattoriale ci ha restituito due fattori con cui possiamo sintetizzare le variabili osservate.
Facciamo questo per cercare di mantenere tutte le variabili di analisi sintetizzate all’interno di due macro dimensioni
che le sintetizzano tutte. L’idea è di non perdere i pezzi dell’analisi ma di utilizzare la fattoriale per fare sintesi delle variabili osservate.
Il passaggio successivo è cercare di capire che cosa riflettono le domande 1,3,4 e le domande 2,5,6. Dobbiamo cercare di capire se anche a
livello teorico i tre attributi hanno qualche grado di correlazione, perché quello che ci restituisce la fattoriale è un’analisi basata sui dati, ma
non sulla teoria che c’è dietro le domande.
Ora dobbiamo cercare di capire e vedere se le domande hanno un qualche tipo di grado di correlazione tra di loro. Tanto più elevato, tanto
più vuol dire che il fattore di sintesi è in grado di riflettere in modo pieno e completo le tre domande
Quindi dopo l’analisi fattoriale dobbiamo capire se quelle tre domande possono stare davvero insieme anche a un livello teorico e non solo al
livello statistico e numerico.
Sulla base della fattoriale dobbiamo costruire i fattori, cioè delle variabili di sintesi che sono strutturate così come sono strutturati i
componenti principali sulla base dei risultati ottenuti nell’analisi fattoriale.
I fattori di sintesi sono delle variabili chiamati vettori media che comprendono, nel caso del fattore 1, l’item 1,3,4 e nel fattore 2 l’item 2,5,6
Per poter costruire i fattori di sintesi su SPSS: trasforma --> calcola variabile --> fatt_1_imp (imp 1 + imp 3 + imp 4)/3
Questo permette di calcolare una nuova variabile che è la variabile sul vettore media del fattore di sintesi 1.
All’interno del database avremmo il fattore 1 calcolato sulla base dei risultati dell’analisi fattoriali. Lo stesso viene fatto per il fattore 2.
Quindi avremmo i due fattori di sintesi che rappresentano la sintesi delle variabili di importanza, quindi i pain, gain e job utilizzati all’interno
del questionario
Lo step successivo è entrare nella cluster analysis che permette di segmentare una base di clienti attuali o potenziali.

Cluster analysis (Spss 28)


La cluster analysis è una tecnica di analisi multivariata attraverso la quale è possibile raggruppare i casi osservati all’interno di un campione
in modo da minimizzare la “lontananza logica” interna a ciascun gruppo e di massimizzare quella tra i gruppi.
La “lontananza logica” viene quantificata individuando della variabili che diventano delle misure di dissimilarità definite tra i casi osservati.
Noi vogliamo cercare di mappare il campione di rispondenti in tanti gruppi internamenti omogeni tra di loro ma diversi l’uno dall’altro, sulla
base delle variabili d’importanza di sintesi (due fattori latenti sviluppati con l’analisi fattoriale).
Questo permette di individuare gruppi omogenei al loro intero e diversi l’uno dall’altro, quindi permette di segmentarlo sulla base delle
variabili d’importanza rispetto ai fattori principali individuati (sintesi degli item)
Le tecniche di clustering si possono basare principalmente su due "filosofie":
 Metodi aggregativi o bottom-up --> approccio che parte dal basso per poi aggregare le osservazioni
Si parte da un numero di cluster che è pari al numero di osservazioni, poi l’algoritmo di osservazione va ad aggregare le osservazioni in
un numero di cluster via via più ridotto. Questa filosofia prevede che inizialmente tutti gli elementi siano considerati cluster a sé, e poi
l'algoritmo provvede ad unire i cluster più vicini. L'algoritmo continua ad unire elementi al cluster fino ad ottenere un numero prefissato
di cluster
 Dall'alto verso il basso (metodi divisivi o top-down) --> unico cluster che poi viene spezzettato in tanti gruppi
All'inizio tutti gli elementi sono un unico cluster, e poi l'algoritmo inizia a dividere il cluster in tanti cluster di dimensioni inferiori. Il
criterio che guida la divisione è naturalmente quello di ottenere gruppi sempre più omogenei
Quindi con la cluster analisysis individuiamo dei gruppi di rispondenti che si muovono in modo simile, quindi che sono omogenei al loro
interno (per esempio considerano il fattore di importanza 1 poco rilevante) e sono diversi dagli altri gruppi

Come si sviluppa statisticamente la cluster analysis su SPSS?


Analizza --> classifica --> cluster gerarchico (bottom-up) --> fatt_1_imp e fatt_2_imp
La cluster ci può dare un range di cluster con cui spacchettare il campione. Siamo noi poi a dover scegliere la cluster più interessante in
termini di omogeneità e differenza tra i gruppi
All’interno dei foglio dati possiamo vedere 4 nuove variabili che rappresentano 4 diverse tipologie di clusterizzazione
Per esempio CLU6_1 è una clusterizzazione 6; le osservazioni sono state raggruppate in 6 gruppi. In questo caso abbiam le nostre
osservazioni che sono state raggruppate in sei gruppi; quindi, i numeri che vediamo rappresentano il numero che è stato assegnato ad ogni
singola riga, ad ogni singolo rispondente, ad ogni singola osservazione.
Nella cluster 6 alla riga 1 è stato assegnato il gruppo 1, nella riga 2 il gruppo 2 e così via. Nella cluster a 5 vediamo che non abbiamo più il
valore 6, ma il valore 5. Nel cluster 4 abbiamo 4 categorie assegnati e nel cluster 3 abbiamo 3 categorie assegnate.
Adesso bisogna fare delle scelte e capire come sono fatti i cluster in termini di omogeneità interna e differenze tra i gruppi.
Quindi cosa significano queste colonne e queste item? Sono il risultato della cluster analysis gerarchica (dal basso verso l’alto). Le variabili
di clusterizzazione, ossia di spacchettamento del gruppo, sono i due fattori latenti.

24
L’obiettivo è individuare delle aree di opportunità date da gruppi per cui alcuni fattori sono estremamente importanti rispetto ai quali
persistono delle insoddisfazioni rispetto alla soluzione, esperienza, servizio attualmente in uso. Le valutazioni in termini di performance non
sono così soddisfacenti. I fattori importanti sono quelli che rispecchiano i vantaggi della soluzione che stiamo analizzando.
Cerchiamo cluster che hanno dei valori elevati rispetto ai fattori di importanza e che sono pochi soddisfatti rispetto alle
performance/soluzioni attualmente in uso. Vogliamo capire se c’è potenziale rispetto alla soluzione che stiamo analizzando, e se c’è
potenziale vuol dire che c’è un gruppo o sottogruppo del campione di analisi tale per cui alcuni items sono importanti e al contempo non
sono soddisfatti delle soluzioni attualmente in uso.
A noi interessa trovare dei cluster in cui gli elementi di importanza sono considerati molto importanti, hanno valori elevati.
Ora quindi dobbiamo cercare dei cluster che ci dicono per esempio che il fattore 2 è considerato importante
Adesso quindi occorre capire meglio come sono fatti i cluster: confronta medie --> ANOVA a una via (statistica che permette di fare un
confronto tra le medie dei vari gruppi quando i gruppi sono più di due) / T-test (quando i gruppi sono due) --> fatt_1_imp e fatt_2_imp
Questa statistica permette di fare un confronto della media dei cluster rispetto ai due fattori di sintesi d’importanza
La descrittiva restituisce i valori medi per
i tre gruppi rispetto al fattore di sintesi 1
e 2. Possiamo vedere che per il cluster 1
il fattore 1 e 2 sono entrambi poco
importanti
Per i rispondenti nel cluster 2 (18) il
fattore d’importanza 1 è considerato
abbastanza importante e lo stesso vale
anche per i fattore 2
Per il cluster 3 composto da 19
rispondenti il fattore d’importanza 1 è
considerato relativamente poco
importante e invece è considerato
importante il fattore 2. Quindi il cluster 3
è quel cluster che differenzia di più le variabili d’importanza.
L’obiettivo era trovare gruppi di clienti tali per cui sono importanti elementi posseduti dalla nostra soluzione. La nostra soluzione possiede
benefici legati al fattore d’importanza 2; quindi a noi interessa il cluster 2 e 3.
Dopo dobbiamo capire se questi due cluster sono soddisfatti, perché dove c’è insoddisfazione, c’è area di opportunità.
Il passo successivo è lanciare un’Anova con il CLU4_1, mi ritrovo 4
gruppi. Il gruppo 1 sia per il fattore 1 che per il fattore 2 è rimasto
uguale. Per il cluster 4 risulta poco importante per il fattore 1 e molto
importante per il fattore 2. Il gruppo 2 (9 rispondenti) il fattore 1 è
importante con un valore medio del 5.2 ed è estremamente importante
il fattore 2 perché abbiamo un valore medio del 6.18.
Per il gruppo 3 sia il fattore 1 che il fattore 2 sono mediamente
importanti.
Per decidere se tenere la Cluster 3 o 4 è una scelta nostra,
probabilmente terremmo la cluster 4 che permette di
spacchettare meglio quel gruppo che prima ci sembrava
molto omogeneo rispetto a entrambi i fattori che erano
entrambi considerati importanti. Mentre ora il gruppo due ci
dice che il fattore 2 è estremamente importate, il fattore 1 è
ancora importante, ma il focus è soprattutto sul 2.
Il cluster importante per la nostra analisi è quel cluster
attraverso il quale riusciamo ad analizzare al meglio quei
gruppi tali per cui ci sono alcuni fattori importanti e altri
fattori meno importanti.
11/04
T-test per la differenze tra due medie (Spss 28)
Il test t (o, dall'inglese, t-test) è un test statistico di tipo
parametrico con lo scopo di verificare se il valore medio di una distribuzione di un gruppo di osservazioni (cluster 1) si discosta
significativamente da un certo valore di riferimento.
Questo test viene utilizzato per analizzare la differenza tra due medie. Questo significa che il valore di riferimento di confronto è dato dal
valore medio della distribuzione di un altro gruppo di osservazioni (cluster 2). L’ipotesi è che la differenza delle medie dei due gruppi sia
nulla (X1 − X2 = 0)
Gli assunti del T-test sono:
1) Le misure della variabile dipendente di ciascun gruppo
a. sono indipendenti tra di loro
b. sono indipendenti dall’altro gruppo
2 La variabile dipendente si distribuisce normalmente
3 Le varianze dei due gruppi sono uguali

Il secondo passaggio ora è di entrare nell’analisi degli elementi di performance. Con l’analisi fattoriale e cluster sviluppata sui fattori di
importanza abbiamo fondamentalmente spacchettato il campione in 4 sottogruppi. Adesso si tratta di analizzare le valutazioni dei 4
sottogruppi in termini di performance.

25
Il dataset è costruito su 6 domande di importanza (es. quanto è importante per te che nella scelta dello snack naturale esso sia a, b, c, …), su
una domanda soluzione (es. qual è lo snack naturale che maggiormente utilizzi?), e poi su domande di performance (es. rispetto allo snack
che utilizzi maggiormente, quanto ritieni efficace rispetto a, b, c, … (stessi item utilizzati nelle domande di importance)). Noi abbiamo
individuati i cluster rispetto a quelli che sono gli elementi per loro più importanti nella scelta di snack naturali e ora vogliamo capire quanto
sono soddisfatti degli snack naturali che attualmente stanno utilizzando e quanto li ritengono efficaci rispetto alle stesse dimensioni che erano
state utilizzate nella domanda di importance.
Per fare questo non rilanciamo un’analisi fattoriale e cluster, ma raggruppiamo gli item di performance nello stesso modo in cui sono state
raggruppati gli item di importance perché quello che vogliamo costruire è un analisi differenziale tra gli elementi di importanza e gli elementi
di performance rispetto al giudizio espresso nell’analisi di importanza.
Trasforma --> calcola variabile --> Variabile obiettivo: Perf_1 --> (Perf1 + Perf3 + Perf4) / 3 (media degli item di performance). Sono gli
stessi item con cui avevamo costruito il fattore di importance 1.
Trasforma --> calcola variabile --> Variabile obiettivo: Perf_2 --> (Perf 2 + Perf5 + Perf6) /3.
Ora quindi abbiamo anche le variabili Perf_1 e Perf_2
Ora vado ad analizzare le due dimensioni di performance all’interno dei quattro cluster dell’analisi a cluster a quattro gruppi.
Analizza --> confronta media --> Anova a una via --> aggiungo Perf_1 e Perf_2 --
> Fattore: CLU_4
Andando a vedere Perf_1 succede che i cluster 2 e 3 sono quelli abbastanza
soddisfatti rispetto al fattore di performance 1, mentre i cluster 4 e 1 sono poco
soddisfatti.

Andando a vedere Perf 2 vediamo che le valutazioni di performance


sono abbastanza elevate per il gruppo 2 che dice che rispetto al fattore 2
la performance è elevata. Per il gruppo 4, che era quello che diceva che
gli elementi di importanza del fattore 2 erano elevati, il giudizio di
performance è elevate ma non elevatissimo. Il gruppo 4 ci dice che il
fattore 2 è importante, la performance è positiva, ma non estremamente
alta. Lo stesso vale anche per il gruppo 3 per il quale il fattore 2 era
mediamente importante e invece il giudizio di performance è basso. Da
questa analisi si desume che il gruppo 4 è molto interessante per noi
soprattutto per il fattore di importanza 2, c’è uno spazio di
miglioramento e di opportunità rispetto a questo gruppo di rispondenti
(alta importanza, performance non troppo alta). Il gruppo 4 è tanto più
interessante quanto più i fattori di importanza che sono racchiusi nel fattore 2 di importance sono coerenti con la soluzione che stiamo
analizzando.

Una volta sviluppata l’analisi su questo doppio livello, prima di importanza e poi di performance, una cosa utile è quella di capire all’interno
di ogni gruppo individuato quali sono le soluzioni attualmente in suo e che attualmente valutano in un modo poco soddisfacente. Sappiamo
che non sono soddisfatti, ma bisogna capire di che cosa non sono soddisfatti. Per fare questo bsiogna fare un’analisi della frequenza tra i vari
gruppi. Dobbiamo suddividere il file in 4 gruppi
Dati --> suddividi file --> confronta gruppi --> Ward method CLU4. In questo modo ogni comando che si lanca d’ora in avanti è un comando
che lancio non sull’intero campione ma sui 4 gruppi del cluster.
Ad esempio: statistiche descrittive --> frequenza --> soluzione
La soluzione maggiormente utilizzata nei 4 sottogruppi è la 3.

Misure di correlazione (Spss 28)


In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un
valore della seconda, seguendo una certa regolarità.
L’indice di correlazione di Pearson (anche detto coefficiente di correlazione lineare) tra due variabili statistiche è un indice che esprime
un'eventuale relazione di linearità tra esse.
Ha un valore compreso tra +1 e -1 dove +1 corrisponde alla perfetta correlazione lineare positiva, 0 corrisponde a
un'assenza di correlazione lineare e -1 corrisponde alla perfetta correlazione lineare negativa
28/04
Capitolo 8: Market Potential Estimation and other stories

Ora vogliamo cercare di stimare il potenziale di mercato della soluzione futura/ipotesi di prodotto o soluzione su cui stiamo lavorando
Stimare il potenziale di mercato significa identificare i potenziali consumatori, quindi quantificare il numero dei potenziali clienti. Poi ci
interessa capire quanto vale in valore economico e monetario. Vogliamo provare a dare una misura e una stima del valore economico e
monetario del mercato che stiamo cercando di analizzare.

Agenda
0. Where you are
1. TAM, SAM, SOM --> total available market (vedere complessivamente il mercato aggregato nel suo valore totale), serviceable
available market (mercato obiettivo su cui pensiamo di entrare, ossia i segmento di mercato sui cui davvero vogliamo focalizzare la
nostra prima attività e i nostri sforzi), serviceable obtainable market (stima della nostra capacità di penetrare il mercato obiettivo sulla
base della nostra struttura organizzativa. Cercare di capire quanto riusciamo a azionare il mercato obiettivo sulla base della nostra
capacità e conoscenza del mercato).
2. TAM estimation
3. From TAM to SAM

26
4. SOM estimation

Come puoi approssimare il potenziale di mercato dei tuoi problemi/soluzioni?


Analisi di mercato

Market Size estimation (a double perspective)


Abbiamo due approcci di base: metodo a catena che parte
dal dato disponibile o rintrecciato sul totale mercato
disponibile (TAM) e via via va a stringere sul mercato
obiettivo e sul mercato ottenibile sulla base della propria
attività e risorse. Questo significa che troviamo dati
interessanti rispetto al totale del mercato e riusciamo a
fare una stima del mercato obiettivo. Dopodiché
dobbiamo riuscire a capire chi riusciamo a raggiungere in
termini di distributori o clienti finali.
Solitamente questo è il metodo più utilizzato quando
abbiamo dati disponibili sul totale di mercato disponibile.
Questi dati li abbiamo quando il nostro mercato è B2C,
quindi abbiamo il dato sul consumo che riusciamo a
rintracciare su banche dati o a stimare se non avessimo il
dato preciso tramite esercizi di stima o approssimazione
L’approccio inverso, ossia quello che parte dal mercato obiettivo per poi quantificare il mercato totale, viene definito approccio bottom up
che parte dal basso per poi salire.
Si utilizza quando il mercato è business, ossia fatto da clienti che sono imprese. In questo modo riusciamo a individuare chi possono essere i
singoli clienti, in quanto si ha un numero di clienti potenziali più ridotto. Questi dati possono essere acquisiti o attraverso banche dati,
piuttosto che per esempio cercando l’associazione industriale dei produttori di macchine per la produzione di scarpe.
Dopodiché dobbiamo cercare di capire quali sono i più grandi e quanto producono. Poi fare delle stime successive
Via via saliamo cercando di quantificare il valore del mercato obiettivo, fino a capirne il valore totale del mercato potenziale.

1. TAM, SAM, and SOM


Questa è una stima delle tre metriche fatta da Airbnb nel 2009.
Questa stima è stata fatta sul loro mercato potenziale. Loro sono partiti dal valore
delle prenotazioni dei viaggi, di quelli prenotati online e da lì avevamo fatto una
stima della loro capacità di penetrazione su quel tipo di segmento.

1. TAM
TAM dovrebbe identificare:
- L'ambito (iniziale) del tuo mercato (locale vs. regionale vs. globale).
Dobbiamo cercare di identificare il mercato disponibile rispetto al raggio
d’azione geografico.
Ad esempio il TAM del miele di manuca è globale, europeo o italiano? Italiano
oppure europeo, non possiamo partire globali quando ancora non esistiamo. La
prima analisi in termini di valore è capire il potenziale del mercato italiano. In ottica futura il mercato europeo è il mercato totale
disponibile a cui si potrebbe puntare
Per le stampanti 3D il focus è italiano.
- Il tipo di mercato/BM: product based vs. solution/treatment based (Hardware-as-a-Service)
- Il numero di utenti/pazienti/clienti
- Il valore medio di un singolo prodotto/servizio/trattamento
- Il valore complessivo del tuo mercato indirizzabile
Si può quindi partire dal dato valoriale già quantificato in termini monetari oppure andando a guardare il valore dell’import di un determinato
prodotto. Tuttavia il dato dell’importazione ad esempio del miele è al prezzo di costo, poi io lo rivendo due volte quel valore. Quindi dovrò
moltiplicare quel valore tra il 2,5/3.
Con la stampa 3D la stima è più difficile perché a noi interesserebbe capire il valore di mercato dei servizi di stampa 3D, piuttosto che delle
vendite di stampanti 3D in Italia.
Per definire il TAM della stampante 3D bisognerebbe quantificare il totale del valore dei servizi di stampa 3D su base annuale fatti in Italia.
Tuttavia questo è un pezzo difficilissimo. Si potrebbero usare come ipotesi di base: approccio bottom up andando a guardare i business,
quanto fatturato e cerchiamo di fare una stima dei service più grandi. Oppure si potrebbe usare un approccio top down approach andando a
stimare gli utilizzatori di stampa 3D, guardare quante stampe fanno all’anno. Terza ipotesi è cercare dati già quantificati da una terza parte
(fornitore di dati statistici)
Top-down Approach (chain-ratio method)
Top-down Approach è adatto per/quando:
- Mercato B2C
- Ampio ambito di mercato (nazionale, europeo, globale)
- Disponibilità limitata di dati secondari affidabili focalizzati sul valore complessivo del
TAM
Sono necessarie diverse ipotesi interconnesse.

27
1. Sources of TAM estimation
Il punto di partenza è cercare dati che siano legittimi. A noi interessa il TAM perché ci da una misura del valore potenziale su scala ampia del
prodotto che stiamo analizzando. Ci da un dato di adesso, quel che manca è capire il trend perché a noi interessa capire anche come si evolve
quel business. Il trend del passato ci interessa per poter fare delle stime future
Source: https://www.statista.com/statistics/387867/value-of-worldwide-digital-health-market-forecast-by-segment.
Statistics published in US$ converted to Euros with an exchange rate of 0.84 Euros per US$

How can we move from “How many end-users?” to “Show me the money”?
Del TAM non abbiamo il dato monetario, ma abbiamo ad esempio il dato delle persone celiache. Ora dobbiamo capire in termini economici
quanto può valere quel mercato.

1. TAM estimation
Dal numero di utenti finali dovresti fare alcune ipotesi per cercare di dare un valore monetario a quel mercato potenziale:
- Determinare quanto vale il reddito annuo di un utente finale (in media) (quanto spendono i tuoi clienti oggi per realizzare ciò che fa la
tua soluzione?)
- Moltiplicare il ricavo medio per utente finale per il numero di utenti finali
Bisogna provare a rendere esplicite le assunzioni

1. TAM estimation
Questo esempio mostra come quantificare la spesa media
annua per l’acquisto di software per la progettazione 3D
Questo è un approccio bottom up: hanno guardato il numero
di produttori negli stati uniti e in asia partendo dal numero
delle imprese più importanti di produzione. Hanno fatto una
stima di quanti potessero essere il numero di designer che si
occupavano di progettazione all’interno delle
organizzazioni.
Dopodiché hanno fatto una stima per arrivare a quantificare
e qualificare un valore medio del software su base annuale:
hanno guardato il tasso di obsolescenza dei prodotti e hanno
individuato un valore medio su base annuale
Hanno quindi cercato di stimare il riacquisto di quella
particolare tecnologia.

Bottom-up Approach (Build-up method)


La logica dell’approccio bottom up è quella di partire dai
clienti. Bottom up approach è adatto per/quando:
- Mercato B2B in quanto possiamo trovare e identificare
i potenziali clienti
- Ambito di mercato ristretto
- Disponibilità di dati secondari focalizzati sui clienti industriali (bilanci, conti P/L)
La stima del TAM si basa sulla conoscenza delle esigenze/domande del mercato di ciascun cliente industriale
Il primo step è capire quanti sono i clienti: più sono pochi, più è facile. Poi bisogna capire quanto valgono

1. TAM estimation
In questo caso la stima è stata fatta a valore, non in termini di numero
di prodotti acquistati. Fare l’analisi del TAM bottom up a valore ha
una serie di problematicità da considerare, come il grado di
diversificazione del cliente potenziale: tanto più è diversificata, vuol
dire che il dato effettivo dei suoi ricavi o costi totali di produzione
sono costi che riguardano più tipologie di prodotti, non riguardano
solo il mio prodotto finale. Se il cliente è molto verticalmente
specializzato allora il dato in valore monetario può essere una stima
interessante e utile. Se invece è molto diversificato devo cercare di
capire quanto è la quota parte della tecnologia che mi interessa sul
totale del suo valore di produzione.

What should your TAM be? Come deve essere il valore del mercato
totale disponibile?
Un mercato totale eccessivamente vasto potrebbe avere un grande
potenziale di essere scalato. Allo stesso tempo potrebbe anche attirare un grande numero di aziende che offriranno il prodotto o servizio in
questione.
Viceversa, se il mercato totale risulta avere delle dimensioni più contenute, ci sarà meno concorrenza. Ma questo potrebbe essere un
indicatore di un mercato meno appetibile.

Actual TAM and future TAM growth


Il punto di partenza è l’ultimo anno disponibile. Tanto più il mercato iniziale è ampio in
termini del potenziale, tanto è meglio

28
Una cosa fondamentale è capire il trend futuro utilizzando il tasso di crescita degli ultimi anni (1-2 anni).

From TAM to SAM


il TAM è la stima del totale del valore del mercato. Il SAM fa riferimento alla stima
del mercato obiettivo specifico, quindi al segmento di mercato obiettivo che vogliamo
considerare
Per passare dal TAM al SAM si possono usare più variabili di segmentazione
(variabile geografica, socio-demografica, ..)
Il mercato obiettivo può essere un mercato ristretto geograficamente: partiamo dal
TAM europeo e ci focalizziamo sul SAM Italia.
Il mercato obiettivo può essere invece legato a una specificità in termini di prodotto: il
mercato di nicchia delle birre artigianali organiche
L’ipotesi che ci porta a definire il mercato obiettivo dobbiamo essere in grado di
esplicitarla: quanto pesa il mercato della birra artigianale biologica sul totale del
mercato della birra artigianale?
La valorizzazione e l’incidenza sul totale del mercato di una nicchia non è specificato da un report, da Istat, ma è un approssimazione che
dobbiamo fare noi attraverso un’analisi del sistema distributivo, sul sistema produttivo.
29/04
SAM estimation
La stima SAM riflette:
1. Variabili geografiche
2. Variabili socio-demografiche (come l’età)
3. Variabili del segmento di prodotto (come premium, super premium)
4. La cluster analysis che hai sviluppato (e il segmento che ritieni più interessante).

SAM requisiti
A noi interessa arrivare a definire un valore della popolazione che rispetti il requisito di:
• Misurabilità: il segmento può essere misurato in termini dimensionali e delle sue principali caratteristiche
• Praticità: il segmento può essere raggiunto e servito in modo efficace. Significa che si cercano cose e non si è soddisfatti di quello che si
ha. Il segmento cerca attributi che ancora non trovano in quello che stanno utilizzando
• Rilevanza: il segmento ha un reale potenziale di vendita e di crescita. Capire quanto è interessante dal punto di vista dimensionale

From TAM to SAM


Il passaggio è di fare questa approssimazione che può essere unica
(come nell’esempio) oppure possono essere due (prima prendo una
quota parte del totale mercato facendo un focus geografico, dopo
faccio un’altra proxy che deriva dall’analisi dei cluster)

SOM estimation
Il SOM, ovvero il Serviceable and Obtainable Market è il mercato che
realisticamente dovrebbe raggiungere la tua startup o azienda una
volta lanciata. Il SOM quindi corrisponde alla capacità di sfruttare al
massimo le competenze e gli strumenti che hai a disposizione.
L’ultimo passaggio è quello di definire il potenziale di mercato ottenibile, ossia fare una previsione effettiva delle vendita quindi della
capacità di riuscire ad aggredire quel segmento.
Tale capacità di aggressione è molto bassa all’inizio perché il progetto imprenditoriale è allo stato iniziale, i fondi sono limitati, la capacità di
avere contatti con i clienti può essere difficile.
La stima SOM riflette:
1. Il canale di distribuzione che la tua azienda sarà in grado di sviluppare
2. Le relazioni con i clienti che possono essere approssimate per quota di portafoglio che sarai in grado di raggiungere (per ogni
cliente/distributore)
3. Il modello di reddito dell'impresa con cui il progetto imprenditoriale pensa di vendere il prodotto o darlo in affitto

SOM estimation

29
Quota di portafoglio --> la quota aggregata del portafoglio indica il grado in cui il tuo cliente soddisferà le sue esigenze, in media, con il tuo
prodotto/servizio sulla base dell'importo totale degli acquisti della tua specifica categoria di prodotto/servizio.
Rete di distribuzione: capillarità cliente/distribuzione --> numero di clienti/distributori all'interno del mercato
Quota di mercato clienti/distribuzione: quota di mercato clienti/distributori all'interno del mercato (importo totale)
Aree di distribuzione: popolazione coperta dalla distribuzione dell'impresa / popolazione Paese

From TAM to SAM to SOM


Una volta che ho definito il mercato obiettivo penso a quanti clienti
riuscirò a raggiungere in termini valoriali e poi devo capire quanto
riuscirò ad entrare negli acquisti dei singoli clienti.

183054

183054 / 0,15 = 1.220.360

(19008 / 1.220.360) * 100 = 1,58%


0
1.220.360 * 1,58% = 19.008
(10709 / 19008) * 100 = 56,34%

19008 * 56,34% = 10.709


10709 * 4 = 42.836
42836 * 75 = 3.212.700

30

Potrebbero piacerti anche