Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
04/03
Capitolo 1: Progettare la ricerca di marketing
1
Quindi prima dell’effettivo acquisto siamo nella fase chiamata awareness. Veniamo a conoscenza di qualcosa attraverso diverse tipologie di
canali e punti di contatto. In questo caso il classico obiettivo di ricerca, ossia il fenomeno sotto indagine è capire se c’è interesse (quantificare
l’interesse) e tra gli interessati capire chi sono per capire se rispecchiano il profilo del segmento di cliente a cui vogliamo arrivare. Ci
interessa capire una dimensione sia qualitativa che quantitativa. Per capire il livello di consapevolezza e conoscenza del cliente possiamo
utilizzare delle surveys. Fare ciò ha dei costi di ricerca e raccolta dati.
Se ci spostiamo in avanti lungo questa mappa con cui analizziamo il processo decisionale di acquisto e post acquisto di un potenziale cliente
vediamo che possono cambiare gli obiettivi di ricerca e le situazioni di mercato.
Ora abbiamo già individuato il livello di awareness dei potenziali clienti, il secondo step è quello che viene definito fase di considerazione.
Questo significa capire il vero interesse che va oltre la conoscenza, vogliamo capire se c’è un qualche tipo di comportamento proattivo (se i
clienti vengono verso di noi). Per fare ciò possiamo guardare le visite sul sito web (dal punto di vista quantitativo), raccogliere informazioni
sui clienti invitandoli a iscriversi sul sito o sulla newsletter; questo mi permette di avere informazioni su di loro.
Se vogliamo andare ad analizzare la soddisfazione dei clienti siamo alla fine del viaggio. Quando pensiamo ai vari strumenti di analisi e di
ricerca dobbiamo capire a che punto siamo del viaggio.
Si tratta quindi di tanti momenti diversi con tante tipologie di situazioni diverse e anche di qualità delle informazioni diverse che
presuppongono anche strumenti di analisi e di raccolta dei dati che possono essere molto diversi nelle varie fasi.
Che tipo di
approccio/progetto di
ricerca utilizzeremo?
2
Avere un approccio alla ricerca esplorativo significa che non si hanno delle ipotesi molto chiare. Bisogna qualificare al meglio il fenomeno
di indagine, ossia l’analisi del bisogno. Infatti, la ricerca esplorativa si basa sulla scoperta di idee e intuizioni.
Si hanno delle idee, ma non sono ancora ipotesi vere e proprie. Un approccio alla ricerca di tipo esplorativo può avere dei metodi di raccolta
delle informazioni e dei dati che possono seguire più percorsi, il più classico è quello di raccogliere dati con un approccio non standardizzato.
Questo perché dà la possibilità di avere più risposte e non ci vincoliamo su un’unica domanda o un gruppo di domanda, ci permette di non
fissare in modo predefinito i concetti e la sequenza delle domande. È molto più facile avere un approccio non strutturato, come l’intervista o
raccolta dati tramite fonti secondari. Questo non vuol dire che non ci possono essere metodologie di raccolta dei dati più strutturate che
cercano di tenere molto aperto i concetti o il numero di concetti.
Le varie metodologie di raccolta dati possono essere:
• interviste
• focus group --> il focus è il fenomeno sotto indagine. L’idea del focus group è condividere le proprie esperienze dentro questo gruppo
ristretto di consumatori oppure professionisti in modo tale da avere visioni che possono essere più o meno contrapposte. È un modo per
fare emergere le singole identità all’interno di un gruppo. Solitamente sono gestiti da un facilitatore e hanno un numero predefinito di
persone per permettere anche di fare approfondimenti su alcune singole esperienze. Si tratta di una metodologia di raccolta dati non
standard
Esempio: in Barilla c’è un team che si occupa di focus group tutto l’anno
• etnografia --> l’idea è di osservare comportamenti d’interesse nel momento in cui si manifestano, si osserva sul campo. La ricerca
etnografica ha questa dimensione osservazionale sul campo, quindi su un numero molto limitato di soggetti.
• survey esperienziali --> vengono fatti sull’esperienza, quindi bisogna avere uno strumento di raccolta dati più definito e strutturato
Questo è l’approccio esplorativo
Seguire un approccio di tipo descrittivo significa capire il livello di conoscenza che hanno le persone rispetto alla nostra idea, soluzione o
prodotto; quale è stata la fonte attraverso cui sono venuti a conoscenza del nostro prodotto, servizio o idea e infine capire quale sarebbe
l’intenzione eventuale a comprare sulla base della conoscenza che hanno fino a quel momento. Lo studio di ricerca descrittiva è in genere
interessato a determinare la
frequenza con cui si verifica qualcosa o la relazione tra due variabili.
Si vuole descrivere quanto è conosciuta dando per scontato che ci sia un livello eterogeneo di conoscenza del prodotto. Descrivere vuol dire
mappare le nostre ipotesi o cercare di verificare che le ipotesi siano validate o non falsificate.
Karl Popper dice che nella ricerca sociale le scoperte non rappresentano delle verità, ma delle non falsità perché la ricerca accumula
conoscenza. Quindi quello che scopri è non falsa fino al momento in cui qualcun altro la scopre in maniera più precisa rendendola più
definita, ma sempre aperta a un processo sperimentale di analisi e falsificazione di quella teoria. La base è quella di dire che le ipotesi non
sono mai vere, ma sono non false.
L’approccio descrittivo ha questa idea di base: ci sono delle ipotesi di partenza in quanto pensiamo che ci siano determinati bisogni condivisi
da un certo gruppo o tipologia di potenziali clienti e stiamo già iniziando a lavorare su quello.
Quando c’è un approccio più descrittivo la metodologia di raccolta dati a cui si fa riferimento è quella più standardizzata, si utilizzano degli
approcci più quantitativi perché l’idea è di raccogliere dati che siano comparabili e che ci permettano di verificare l’eterogeneità delle
risposte. Si tratta di risposte che sono facilmente comparabili perché c’è già una serie di esperienze e conoscenze pregresse che permettono ai
rispondenti di rispondere in maniera consapevole.
Le metodologie di raccolta dati sono:
• sondaggi --> survey o sample survey, quindi sondaggi basate su un campione rappresentativo della popolazione,
• studi di tipo longitudinale --> il concetto di longitudinale fa riferimento al tempo, alla dimensione temporale. Io ripeto lo stesso studio
in due momenti diversi cercando di mantenere intatto il campione degli intervistati. Questo ci interessa per capire come cambia nel
tempo quello che si sta studiando e a volte ci interessa anche capire gli effetti di qualcosa che è avvenuto in mezzo.
Al momento t0 faccio un’analisi descrittiva su un campione della popolazione, dopodiché riprovo e rifaccio il test. Questo studio ci
permette di capire cosa è successo dal momento t0 al momento t1, soprattutto se in quel momento ci sono stati dei cambiamenti, delle
attività da parte dell’impresa che portano a una modificazione dei vantaggi percepiti e esperiti dai clienti
Esempio: ipotizziamo che in 6 mesi ho modificato il prodotto fisico. Al momento s0 (soddisfazione al tempo 0) sappiamo che l’utente 1
ha dato valutazione 8 (soddisfazione su una scala da 1 a 10) , l’utente 2 ha dato 6 e infine l’utente 3 ha dato 4. Il valore medio è 6. Al
tempo t1 invece il valore medio è 7
Può essere utile rifarlo sullo stesso campione per poter confrontare il valore medio del grado di soddisfazione, posso guardare la
varianza e posso comparare il grado di soddisfazione tra i singoli utenti.
L’analisi longitudinale fondamentalmente mi definisce i delta a livello di singolo utente, mi permette di capire cosa succede al singolo.
Mi permette di analizzare come cambiano i valori dei singoli partecipanti al gruppo oltre che avere una misura di valutazione media del
gruppo e di confronto delle due valutazioni medie tra i due gruppo al tempo t0 e al tempo t1.
Quando facciamo l’analisi longitudinale sullo stesso sample posso fare una analisi di quanto a livello singolare è cambiata la percezione,
la valutazione e il valore, ci permette di capire quindi le differenze che si vengono a creare tra i singoli partecipanti all’interno del
campione.
Molte volte questa analisi si fa su campione diversi perché è costoso dover riandare sullo stesso gruppo di persone e richiedere la stessa
cosa. Rischio di avere un grado di risposta molto basso nella seconda parte e quindi perdo molta capacità di rappresentatività della
popolazione nel complesso, perdo molte informazioni.
Per questo motivo molte volte questa analisi si fa su campioni indipendenti
L’ultimo approccio è di tipo causativo o correlazionale si occupa di mettere in relazione elementi di causa-effetto. Abbiamo già sviluppato
delle ipotesi tale per cui individuiamo una serie di potenziali elementi che spiegano la soddisfazione complessiva del cliente. Stiamo facendo
una serie di ipotesi e vogliamo verificare quali sono quelle che hanno un effetto più elevato sulla soddisfazione complessiva. Noi ipotizziamo
al tempo t0 che la soddisfazione dipenda da una serie di elementi e facciamo una verifica; vogliamo vedere se la nostra ipotesi sul fatto che
per esempio l’ambiente ha un effetto sulla soddisfazione del cliente nel momento dell’erogazione del servizio è vera. Si tratta di ipotesi già
precostruite e noi dobbiamo cercare di validarle.
3
Utilizzare un approccio causativo significa che ho già tutta una serie di ipotesi molto definite; questo significa che sto cercando di capire non
solo lo stato delle cose ma sto cercando anche di esplicitare tutta una serie di ipotesi che riguardano le correlazioni e la causa e gli effetti di
un determinato fenomeno.
Per capire le eventuali cause bisogna mappare sia gli elementi che hanno un effetto di modificazione sul cliente e poi devo descrivere la
variabile di output, ossia il fenomeno che voglio analizzare in profondità (soddisfazione, intenzione di acquisto, frequenza di acquisto,
passaparola).
Facciamo un’analisi di correlazione/causazione con la regressione che spiega il coefficiente angolare della retta. Il coefficiente angolare è il
grado con cui la variabile x (atmosfera nel punto vendita) influenza la variabile y (soddisfazione finale). In questo modo vedo come al variare
dell’input variano gli output
L’analisi di correlazione è un’analisi uni variata, ossia guardo l’effetto della singola variabile sul fenomeno finale che voglio osservare
(output). Il limite è che sto isolando un solo elemento, mentre nella nostra testa gli elementi interagiscono. Quello che è più utile fare,
anziché guardare il rapporto tra un input e un output, è guardare il rapporto tra più input e l’output. Questo permette di guardare
contemporaneamente tutti gli input in funzione dell’output e capire l’importanza dell’input cercando di compararlo a tutti gli altri rispetto
all’output.
Statisticamente è possibile fare questo con un modello di regressione in cui stiamo dicendo che y1 = αx1+ βx2 + …
In questo modo trovo i coefficienti angolari che spiegano la y. Se io statisticamente lancio un modello di regressione lineare, io alla fine avrò
i coefficienti angolari dei singoli input, ossia la loro magnitudo sul fenomeno osservato guardandoli contemporaneamente . Quanto più la
magnitudo di qualcuno è alta, tanto più significa che quello ha l’effetto più forte.
È importante notare che i tre tipi di progettazione della ricerca sono correlati come fasi in un processo continuo. Gli studi esplorativi sono di
solito la fase iniziale. Quando i ricercatori cominciano un'indagine, naturalmente difettano di moltissima conoscenza circa il problema. La
domanda "Perché la nostra quota di marchio sta scivolando?" è molto ampia, ma la ricerca esplorativa aiuterà a restringere e a risolvere la
questione. Le possibili spiegazioni, o ipotesi, per la diminuzione delle vendite servono quindi come guide specifiche per i successivi studi
descrittivi o causali.
Supponiamo che sia emersa la spiegazione provvisoria che "Brand X ha un prezzo economico, originariamente progettato per competere con
i marchi di negozi a basso costo. Le famiglie hanno più soldi oggi rispetto a quando il marchio è stato introdotto e sono disposti a pagare di
più per prodotti di qualità superiore." Le ipotesi secondo cui le famiglie hanno un reddito reale maggiore da spendere e che una parte
maggiore di quel denaro è destinata a prodotti di questa categoria potrebbero essere esaminate in uno studio descrittivo delle tendenze del
settore.
Supponiamo che lo studio descrittivo abbia sostenuto le ipotesi. L'azienda potrebbe voler determinare se i genitori erano, disposti a pagare di
più per prodotti di qualità superiore e, in tal caso, quali caratteristiche erano più importanti per loro. Questo potrebbe essere realizzato
parzialmente attraverso uno studio di test-marketing, un approccio causale.
11/03
Capitolo 2:
Needfinding &
Personas
“At its core, all business is about making bets on human behavior.” The power of ‘Thick data’, WSJ
La scala è un bisogno... o una soluzione? La scala è una soluzione. Noi siamo abituati a individuare la soluzione
ancora prima del bisogno, perché siamo abituati subito a riempire il vuoto
4
Proviamo ora a capire bene il vuoto. Lei non ci arriva, ma perché vuole proprio prendere quella scatola?
Ora facciamo l’identikit di questa persona. Si tratta di una madre o qualcuna che si occupa di bambini di età tra 0 e 18 mesi, ha un reddito
medio-basso, attenta a quello che spende in quanto il supermercato ci sembra un discount
Questa signora cerca convenienza ed ha più di un bambino. Non ha voglia di ritornare al supermercato a prendere i pannolini in quanto
quando si ha bambini il tempo è un elemento fondamentale.
Occorre cercare di sforzarci, di non confondere i problemi con le soluzioni. Bisogna cercare di andare in profondità delle cose. Il problema di
questa signora è trovare il tempo per gestire al meglio la sua vita famigliare. Per trovare il tempo deve cercare di minimizzare l’esperienza di
acquisto nel punto vendita
Perché è importante guardare i problemi, e non solo le soluzioni? Se noi chiediamo alle persone di spiegarci un problema partendo dalle
soluzioni tendenzialmente ci racconteranno come la vedono loro rispetto alla soluzione, ma non ci racconteranno niente del problema. È
molto più interessante lavorare sul problema e poi progettare soluzioni. Se vogliamo dare ascolto alle soluzioni dei potenziali clienti il rischio
è di incappare in soluzioni che vanno bene solo per loro.
“If I had asked people what they wanted, they would have said faster horses” Henry Ford
Se avessimo chiesto cosa volevano avremmo ricevuto questo tipo di risposta. Quindi non bisogna chiedere cosa le persone vogliono, ma cosa
sentono.
Il focus è il problema.
Le soluzioni diventano vecchie in fretta, diventato obsolete. Mentre i bisogni durano a lungo, soprattutto quelli più potenti. Tanto più le
imprese sono in grado di lavorare su problemi persistenti, tanto più sono in grado di durare e crescere
Inoltre i bisogni/problemi possono aprire possibilità di sviluppo inaspettate e completamente nuove. La dimensione tecnologica ha una
influenza molto forte, anche su coloro che hanno già sviluppato soluzioni. È sempre fondamentale ascoltare il problema dal lato del cliente
per capire come si può innovare a partire da soluzioni già esistenti.
Come intervistare?
Bisogna cercare di essere il più neutri possibili chiedendo alla
persona di raccontare la storia rispetto a un determinato tema che ci
interessa analizzare. È importante capire anche lo stato emotivo
della persona.
L’idea è di avere un approccio informale e farsi raccontare delle
storie vere ed effettive.
Non bisogna raccontare mai della soluzione in quanto potrebbero
essere ancora in una fase di sviluppo, ma l’idea è di farsi raccontare
delle storie su quello che sta accadendo ora.
Bisogna anche chiedere il perché di determinati comportamenti,
determinate reazioni o determinate sensazioni espresse.
Intervista
- Conversazione amicale
- Racconto di aneddoti e storie vere. Quando ci si fa raccontare
storie avvenute si possono cogliere elementi molto importanti (inside)
- Evocare sentimenti ed emozioni legate alle storie
- Prendere note, fare foto, osservare chi parla e il contesto. Osservando si può trovare qualcosa di
inaspettato che può dare delle indicazioni in più rispetto ai problemi. Molte volte ci sono delle
cose non dette nelle persone che risultano interessanti e sono evidenti da una immagine e non dal
parlato.
Questo è un approccio etnografico, ossia osservare in modo molto partecipante per capire il
contesto nel quale la persona con cui interagiamo vive.
Tanto più c’è informalità, tanto più questa cosa può avvenire.
14/03
5
Chi intervistare? Estremi vs. Mainstream
A noi interessa andare a parlare con persone che non stanno tanto nella parte centrale
della distribuzione, ma ci interessa capire le code. L’idea è di uscire da una logica del
potenziale cliente o utente medio che si trova nella parte centrale della distribuzione
(mainstream), ma cercare di capire le particolarità (le code).
La logica del primo step di lavoro in profondità è: non vogliamo raccogliere tanti dati
perché non abbiamo le ipotesi descrittive e causative per farlo, ma vogliamo cercare
di capire meglio i problemi capendo come sono vissuti attraverso delle storie
esemplari.
6
In questo esempio viene fatta una intervista su una persona per capire la sua storia di odontoiatra.
Quello che vogliamo capire è cosa le piace fare o non fare nella sua vita sia privata che professionale, in senso generale
Poi bisogna cercare di capire le problematiche principali legate ad una attività specifica, ossia le operazione in cui era necessaria
l’otturazione.
Da lì bisogna individuare i principali bisogni e evidenziare alcune scoperte che riguardavano sia l’attività lavorativa, che la persona stessa.
Le citazioni sono pensieri veri e quindi sono molto utili.
Personas
Una struttura di identikit
La
Value
Proposition, per esteso Customer Value Proposition (CVP), rappresenta la promessa di valore che l’azienda fa ai propri consumatori. La
Value Proposition rappresenta il vantaggio competitivo, il motivo per cui il consumatore sceglie di comprare te piuttosto che il prodotto dei
competitors.
Questo schema è un’esplosione del Business Model Canvas (schema in alto formato da 9 blocchi per descrivere in modo visivo la logica di
creazione, distribuzione e appropriazione del valore da parte di una impresa). Questo strumento deriva dall’esplosione che deriva dall’analisi
dei due blocchi iniziali: clienti e proposta di valore, ossia problema e soluzione. A noi di questi due blocchi interessa soprattutto il problema,
cioè lato cliente (cerchio).
Il Value Proposition Canvas è quindi un framework che si compone mettendo a confronto il Customer Profile, che rappresenta in sostanza il
problema che il cliente intende risolvere, con la Value Map, che rappresenta la soluzione che l’azienda propone al cliente.
7
Ci interessa raccogliere i problemi sulla
base di tre dimensioni principali:
1. Attività da svolgere, definito in
inglese customer jobs. Fa
riferimento all’insieme di attività
svolte adesso dalla persona per
riuscire a risolvere o vivere al
meglio quella determinata
situazione in quel determinato
contesto più o meno problematico.
Fa quindi riferimento all’insieme
di attività effettive da fare oggi.
2. Sacrifici descrivono tutto ciò che
infastidisce i clienti prima,
durante, e dopo aver cercato di
ottenere un lavoro fatto o
semplicemente impedisce loro di
ottenere un lavoro fatto. I sacrifici
descrivono anche i rischi, cioè,
potenziali risultati negativi, relativi ad ottenere un lavoro fatto male o per niente. Qui guardiamo tutto quanto di negativo possa essere
connesso ai jobs.
Quali problemi determinano dei jobs insoddisfatti? Quali risultati non desiderati potrebbe ottenere il cliente nel cercare di usare un
prodotto per soddisfare i jobs? Quali ostacoli si frappongono alla soddisfazione? Ci sono rischi o imprevisti dei quali tenere conto?
Solitamente quelle attività hanno una doppia faccia, da un lato vengono fatte per ridurre problemi effettivi, ostacoli, situazioni
complesse (pain). Altre attività invece costituiscono esse stesse dei problemi
3. Vantaggi. Il punto tre è il vantaggio che si vorrebbe veramente raggiungere, quindi i vantaggi ricercati o benefici ricercati. Qui andiamo
a esaminare, sempre dal punto di vista del cliente, tutti i gains (guadagni, letteralmente) ovvero gli aspetti positivi connessi ai jobs, nel
caso in cui venissero realizzati.
Quali sono i benefici che richiede il cliente? Quali risultati si attende? Ci sono addirittura dei gains (guadagni) che potrebbero eccedere
le sue aspettative? Ci sono vantaggi secondari e non immediatamente evidenti che potrebbero essere generati?
Questo schema aiuta moltissimo a costruire la correlazione: dall’attività, al problema, al vantaggio
Questa è la sintesi degli identikit in quanto la mappa del valore si raccolgono su macro categorie di clienti
17/03
Capitolo 3: Le metodologie di raccolta dati: Le tecniche di ricerca non standard
Tecniche di ricerca
Ricerca standard (o quantitativa)
Nelle tecniche di ricerca standard stiamo standardizzando le risposte in quanto le predefiniamo e quindi sono tutte omogenee l’una con
l’altra, ma uniformiamo anche la sequenza e il contenuto delle domande. Il fine ultimo della tecnica di ricerca standard è rendere comparabile
in modo molto più semplificato in quanto posso fare una trasformazione numerica delle risposte. Attraverso una funzione numerica posso
individuare omogeneità o disomogeneità
Codificazione e standardizzazione di dati misurabili
• Intervista strutturata
8
• Questionario le domande sono strutturate con risposte predefinite e con una scala quantitativa associata alle risposte
• Osservazione strutturata
• Analisi di documenti sollecitati dal ricercatore
• Analisi secondaria di documenti
• Esperimenti e quasi-esperimenti
Interviste qualitative
Elevata flessibilità delle domande e libertà delle risposte.
Flessibilità perché siamo liberi di costruire le domande anche a seconda delle risposte dell’intervistato, quindi anche di definirle sul
momento. Dal lato dell’intervistato c’è una piena libertà delle risposte. Quando pensiamo al concetto di standardizzazione non dobbiamo
pensare solo alle domande, ma ancora di più alle risposte. In questo caso noi non stiamo standardizzando i campi di risposta dell’intervistato
Si distinguono in funzione:
– Delle modalità utilizzate per raccogliere le informazioni
Le domande sono caratterizzate da un diverso livello di flessibilità (elevato per le interviste non strutturate; maggior grado di
standardizzazione per le interviste semi strutturate). Le risposte hanno piena libertà.
– Delle modalità di interazione tra intervistato ed intervistatore
Relazione diretta tra intervistatore e intervistato. Solitamente la classica intervista ha un rapporto 1 (intervistatore) a 1 (intervistato). In
alcuni casi l’intervista non strutturata può avere anche rapporto 1 (intervistatore) a 2 (o a tanti intervistati). Si possono avere anche in
altri casi più intervistatori e un solo o più intervistati.
Intervista semi-strutturata
Le domande aperte hanno un maggior grado di standardizzazione (ordine fisso di domande) e a ogni intervistato viene sottoposta la stessa
batterie di domande
L’intervista semi-strutturata ha più obiettivi di analisi (ossia ci sono più ipotesi) e quindi sono già definiti più temi da porre all’intervistato.
Si utilizza sempre nell’approccio esplorativo ma ci sono più ipotesi che stanno emergendo e si vuole affrontare più temi con domande già
definite all’intervistato.
Si ha comunque sempre flessibilità nelle domande e libertà nelle risposte.
9
Deve essere in grado di non influenzare le risposte e gli stati emotivi dell’intervistato
La qualità dell’intervista molte volte dipende dalla qualità dell’intervistatore, dalla capacità di andare in profondità
I focus group
Il focus group è la costruzione di una raccolta di dati non strutturati cercando di raccogliere dati attraverso un gruppo di persone che
discutono su un argomento (focus)
Tecnica di rilevazione per la ricerca sociale basata sulla discussione all’interno di un piccolo gruppo di persone, alla presenza di uno o più
moderatori, focalizzata su un argomento di indagine.
L’idea è cercare di capire le scelte e le ragioni delle scelte di questo gruppo di persone
Focus = argomento centrale su cui si sviluppa la ricerca per comprendere idee, atteggiamenti, significati ad esso associati (fa riferimento al
tema di analisi e non al gruppo indagata).
Esempio di focus: la colazione al mattino. L’idea è di farsi raccontare quel momento della colazione e cercare di capire le scelte e le ragioni
delle scelte
Group = gruppo di individui selezionati in modo accurato, tendenzialmente omogeneo in termini di conoscenza e familiarità rispetto ad un
dato argomento (esperienze confrontabili) sia a livello di potenziale di verbalizzazione.
Si ha un gruppo abbastanza eterogeneo rispetto alle categorie e al cluster rappresentativo di potenziali clienti per favorire anche discussioni
sulle varie scelte eterogeneità non totale in quanto le persone devono essere idealmente abbastanza simili
È una tecnica di analisi molto usata tra gli anni ’70 e 2000, ora è andata un po' in disuso.
10
In alcuni contesti nei focus group ci sono degli esperti da focus group che tendono ad essere molto presenti all’interno del gruppo e tendendo
a sovrastare gli altri e rendono meno facile la capacità di raccontarsi da parte degli altri. Per questo motivo la numerosità viene mantenuta su
un numero relativamente governabile da parte di un facilitatore.
La discussione si sviluppa su una traccia, un modello che definisce l’ordine e gli argomenti da trattare, le domande chiave, l’utilizzo di
strumenti non verbali (video, foto, giochi, etc.)
Fasi del focus group solitamente governate da un facilitatore:
Introduzione: autopresentazione dei ricercatori/moderatori, introduzione dei temi di ricerca, presentazione dei
partecipanti
Discussione: nasce a partire da stimoli verbali e non che introducono gli argomenti generali; successive domande di dettaglio per
approfondire (ruolo fondamentale del moderatore)
Conclusione: ricapitolazione affidata ai partecipanti di quanto emerso e richiesta di esplicitare dubbi
La raccolta dati è basata su registrazione video/audio che permette di raccogliere per intero l’interazione tra i partecipanti, permette di vedere
anche il linguaggio non verbale.
Le persone tendono a raccontarsi in modo diverso del reale all’interno dei focus group in quanto si è in confronto con altri; questo
rappresenta un grande rischio dei focus group. Il rischio quindi è di trovare persone che non riescono a contrapporsi ad altri
Tecniche proiettive
Tecniche di tipo psicologico che si basano sul sottoporre ai soggetti stimoli indefiniti, ambigui, mascherati in modo da lasciare ampia libertà
delle risposte e associazioni
L’obiettivo è entrare nella dimensione inconscia degli individui, legate alle loro percezioni, in modo da trarne la ricchezza delle loro
interpretazioni e dei loro significati
Tecniche utilizzate nella ricerca di marketing con estrema prudenza
24/03
Capitolo 4: Le metodologie di raccolta dati - Le tecniche di ricerca standard
Metodologie di raccolta dati standard standardizziamo la struttura dell’intervista, il tipo di domande è uguale per tutti e con la stessa
sequenza logica e poi si confrontano le risposte. L’idea di standardizzazione fa riferimento al contenuto delle domande, alla sequenza delle
domande e alla struttura delle risposte. Si standardizzano sia le domande che le risposte. L’obiettivo di standardizzare domande e risposte è
quello di confrontare le risposte riuscendo a tradurre quelle risposte con funzioni numeriche. Questa trasformazione numerica ci permette un
confronto più semplice e un utilizzo di tecniche di analisi più semplificate, standardizzate statisticamente.
11
strumento di indagine nell’intervista strutturata è il questionario, ma in più c’è la presenza dell’intervistatore che dà supporto
all’intervistato nel definire le domande e nel proporre le risposte.
• Osservazione strutturata vengono già predefinite dei campi di raccolta dato e delle funzioni numeriche, codici attraverso i quali
raccogliere le informazioni. Le risposte non sono aperte, ma pre codificate con campi, categorie e numeri predefiniti
• Analisi di documenti sollecitati dal ricercatore
• Analisi secondaria di documenti
• Esperimenti e quasi-esperimenti abbiamo come punti di partenza dei questionari. Si caratterizzano perché c’è una scelta e la
definizione di campioni selezionati e predefiniti su cui somministrare questionari che possono essere strutturati in modo identico per
gran parte del questionario e poi ci possono essere domande specifiche per ciascuno dei campioni. L’obiettivo è verificare su campioni
diversi con caratteristiche diverse alcuni obiettivi di ricerca specifici
Si basano su una struttura predefinita di classi/campi codificati per la raccolta di dati.
Noi ci concentriamo su intervista strutturata e questionario.
Questionario
Strumento di rilevazione e misurazione attraverso la raccolta di informazioni che sono riconducibili a funzioni numeriche su temi di indagine
stabiliti a priori e definiti operativamente (si parla anche di operativizzazione o operazionalizzazione). Questo vuol dire che traduco la
domanda in una funzione numerica di risposta, sto definendo per quella domanda qual è la funzione numerica per la risposta. Lo posso
definire attraverso scale, valori espressi in valore assoluto o percentuale, etc. Posso avere logiche di operativizzazione attraverso domande
che possono essere espresse con funzioni numeriche anche diverse.
La domanda si sviluppa attraverso risposte che possono essere esplicitate attraverso una funzione numerica, questo perché a noi interessa
confrontare le risposte di intervistati diversi. Ci permette di interpretare anche meglio un numero di rispondenti elevato.
Tecnica di ricerca tre le più utilizzate che si caratterizza per:
- Costi ridotti: fare un questionario non costa poco, quello che costa poco è il costo unitario, ossia il costo per la singola intervista.
- Possibilità di estensione su campioni vasti e rappresentativi che permettono di generalizzare sull’universo di riferimento: maggiore
rappresentatività del campione dei rispondenti rispetto ad una popolazione di partenza, la popolazione target. Il campione rappresenta
una parte della popolazione di partenza.
- Natura dell’indagine duplice: descrittiva e/o causale (o correlazionale). Il questionario è uno strumento coerente con gli approcci di
ricerca di tipo descrittivo o causativo.
Possiamo utilizzare un questionario per fare una ricerca anche di tipo esplorativo? È sicuramente meno usato, ma non è completamente
incoerente. Lo posso usare ad esempio, quando ho tante ipotesi e voglio fare una selezione. L’esplorazione, in questo caso, è quella di
selezionare delle ipotesi (es. cercare di capire i driver del valore). Questo tipo di ricerca quantitativa che ha un approccio esplorativo (non ho
ipotesi precostituite, ma ho un grande paniere di ipotesi), in questo caso anche questo tipo di tecnica di raccolta dati standardizzata può essere
coerente con una finalità più esplorativa.
Solitamente è più coerente con un’ottica descrittiva e causale, es. descrivere lo stato di soddisfazione dei clienti attuali. L’ipotesi di base è
che gli intervistati abbiamo già utilizzato e che conoscano il prodotto e capire il fenomeno (grado di soddisfazione) adesso.
Il questionario è basato su un elenco di domande strutturate standardizzate, in modo che tutti gli intervistati ricevano lo stesso stimolo,
permettendo il confronto tra le risposte e l’analisi statistica.
1. Modalità di somministrazione
Intervista strutturata e questionario sono quasi la stessa cosa (intervista strutturata si basa sul questionario). Si distinguono per la modalità di
somministrazione
Intervista strutturata
Intervista somministrata faccia-a-faccia (intervistatore presente)
L’intervistatore assiste i rispondenti (es. spiegare i possibili campi di risposta). Il fatto di avere l’intervistatore permette di avere
un’assisteva, quindi se le domande non sono chiare l’intervistatore può spiegarle
Tassi di risposta più elevati (la presenza dell’intervistatore tende a far aumentare i tassi di risposta sul campione individuato)
Costi più elevati (avere qualcuno che deve gestire l’intervista è costoso anche se l’intervistatore non è in presenza, ma in remoto o al
telefono)
Possibile influenza dell’intervistatore (influenza che può essere a volte più bassa o più elevata, dipende da come si pone l’intervistatore
e dall’intervistato)
12
Questionario
Autosomministrazione (non c’è presenza dell’intervistatore, chi risponde è da solo)
Tecnica meno costosa (vantaggio principale)
No influenza dell’intervistatore, l’intervistato ha completa libertà di risposta
Aumenta la garanzia di anonimato per l’intervistato
Può avere restituzione differita
Tassi di risposta bassi
Il problema più grande di un questionario senza intervistatore sono i tassi di risposta, ossia le mancate risposte. Il rischio di non ottenere
risposte è elevato oppure anche ottenere poche risposte e ottenere un campione poco rappresentativo. Avere un supporto umano nel
somministrare un questionario può essere utile
Indagine/questionario longitudinale
L’indagine longitudinale fa riferimento al fatto che ci sono più somministrazioni nel tempo, tendenzialmente allo stesso gruppo di
rispondenti. Questo strumento permette di capire come evolve il pensiero dell’intervistato. Facendo più somministrazioni ho la possibilità di
capire l’evoluzione dell’atteggiamento, delle opinioni, della percezione dei rispondenti nel tempo.
Un panel, gruppo di soggetti selezionati, si rende disponibile per una pluralità di somministrazioni. Si effettuano più somministrazioni
per capire se nel tempo l’opinione di quel gruppo di consumatori è cambiata in positivo o negativo.
Mi interessa cercare di intervistare la stessa persona per valutare l’evoluzione su quella stessa persona perché si vuole vedere se si
modifica la valutazione su quello stesso cliente. Questa è la logica per cui si cerca di chiedere la stessa cosa alla stessa persona.
Durata e l’ampiezza dell’intervallo di rilevazione variabili (solitamente intervalli regolari per un periodo prefissato inizialmente).
In grado di monitorare l’evoluzione di un fenomeno
Costi elevati e tempi lunghi
Rischi di distorsione (effetto memoria sulle domande) e possibile mortalità del campione. Il problema principale di questa indagine
plurima sugli stessi intervistati è quello che le stesse persone debbano rispondere una seconda volta, questo potrebbe essere uno
sbattimento lato intervistato. Magari c’è bisogno di dare degli incentivi. Per ritornare sugli stessi intervistati i costi sono alti e anche il
potenziale di non risposta sulle seconde o terze somministrazioni è molto alto.
È interessante fare questo tipo di analisi longitudinale, ossia sulle stesse persone, quando si verificano dei fenomeni esogeni (evento esterno
che può cambiare la percezione, come pandemia) oppure fenomeni endogeni (es. se il servizio viene modificato: vado in banca e faccio un
prelievo. Torno tra 3 mesi, rifaccio l’operazione il cassiere è cambiato. Quello può essere un elemento endogeno e la logica è cercare di
capire come ci si è trovati al momento t0 con il vecchio cassiere e al tempo t1 con il nuovo. Questo permette di capire se c’è una variazione
di giudizio, opinione, atteggiamento, percezione, .. da parte dei clienti)
3. Domande
Quando pensiamo alle domande del questionario il primo elemento da prendere in considerazione sono gli obiettivi di indagine
Il problema preliminare è legato al numero di domande. Quando c’è un questionario lungo solitamente è rischioso, in quanto a metà del
questionario una persona solitamente non risponde più. È importante darsi fin da subito un obiettivo in termini di numerosità di
domande da porre.
La scelta successiva è legata al tipo di domande
Categorie principali di domande:
13
– Domande filtro: selezionare i rispondenti e/o evitare risposte su argomenti che non hanno relazione. Domande che creano delle
diramazioni del questionario.
– Domande buffer: spezzano la continuità del questionario (es. tutte le domande prima sono su scala 1-10 e poi mettiamo una domanda
si/no in modo da non ancorare un solo tipo di risposta in quanto solitamente nelle risposte con scala il rispondente dopo tante domande
tende a posizionarsi nel mezzo e a non prendere posizione)
– Domande interattive: creano relazione ed un clima di partecipazione. Sono domande che solitamente si fanno all’inizio per rendere tutto
più simpatico e facile.
– Domande sostanziali: centrate sugli obiettivi della ricerca
L’ultimo step è definire il formato delle domande: chiuse vs aperte.
L’intervista strutturata si basa su domande chiuse. Le domande aperte possono essere utilizzati per rispondere a ‘altro’, oppure spiegare un
motivo o un giudizio di qualcosa. Possono essere utili per fare emergere qualcosa che non c’era, però poi trattarle in un’ottica comparative è
molto difficile
3. Domande chiuse
Le domande chiuse sono domande rispetto alle quali bisogna definire dei campi di risposta predefiniti
Domande in cui si definiscono più categoria di risposta ma con un’unica possibile scelta.
Si tratta delle classiche domande anagrafiche legate alle classi d’età, tipologia di lavoro svolta, domande legate al profilo socio-demografico,
come il numero di componenti della famiglia
Sono quelle scale in cui si mettono due estremi, con due poli semantici
opposti: favorevole- disaccordo, bello – brutto, molto costoso – economico. L’idea è di mettere due estremi di una scala con due poli.
Queste scale con i poli sono sconsigliate perché i poli semantici devono essere interpretati da qualcuno allo stesso modo in cui lo interpreta
che effettua il questionario; questo può generare complessità.
14
Si fa esprimere una valutazione rispetto ad un termometro predefinito. Bisogna maneggiarla con cura in quanto è rischiosa, soprattutto
quando si dà un termometro molto ampio, come 0-100
Si è passati a questo tipo di scale per rendere le risposte simili confrontabili tra loro. Ancorarsi ad un riferimento che rimane uguale nelle
risposte è molto utile per chi risponde, rispondere avendo questo tipo di ancoraggio. Inoltre, avere delle domande strutturate in modo simile
permette di dare una risposta molto più veloce perché si ha questo effetto di ancoraggio rispetto alla domanda e rispetto alla scala di risposta
Uno dei principali problemi del questionario è il fatto che ci possano essere molte risposte non vere. Per poter evitare ciò si potrebbero usare
scale di risposta negative, cioè virare la domanda in negativo per fare in modo che la legga non in modo superficiale e capire se il polo gira.
Si tratta di un piccolo trucco che non riesce davvero a rispondere al problema. Sono le cosiddette domande di controllo
Ci spostiamo dalla dimensione qualitativa, cioè di interviste in profondità, verso un’analisi quantitativa. Quindi passiamo da una metodologia
di raccolta dati non standardizzata ad una metodologia raccolta dati standardizzata, come ad esempio sviluppando un questionario strutturato
cercando di farci ispirare, nel suo sviluppo, da un’analisi esplorativa che abbiamo sviluppato fin ora con le interviste in profondità.
Verranno spiegati step con cui passare dalla canvas, quella utilizzata per mappare la percezione del valore per il cliente, fino a costruire un
questionario.
15
Prima di tutto bisogna definire un livello di priorità, ossia costruire un ranking rispetto all’intensità
delle attività, dolori e benefici che abbiamo individuato. È importante definire gli elementi più
intensi e rilevanti sulla base delle interviste effettuate. Quindi costruire tre ranking relativi alle tre
dimensioni in cui definire le attività in termini di importanza, i pain in termini di grado di
percezione e i benefici tra essenziali e ‘belli da avere’.
Poi c’è il passaggio dagli elementi che abbiamo classificato al questionario. Prima di effettuare
questo passaggio dobbiamo porci una domanda: Le attività/ pain/ gain che avete individuato
riflettono i principali vantaggi generati dalla soluzione che state analizzando? Pensate sia necessario
introdurre alcuni elementi di bisogno/beneficio che non sono emersi nella fase esplorativa? Secondo
voi nelle interviste non sono emersi degli elementi specifici della soluzione del prodotto che stiamo
analizzando?
Potrebbe essere che non ci sia nulla, che tutto sia emerso, che gran parte degli elementi siano emersi
o che ci siano delle specificità proprie della soluzione che magari non sono venute fuori.
Bisogna individuare se ci sono elementi che debbano essere considerati e analizzati anche in questa
fase di raccolta dati strutturata, quindi standardizzata.
Questa domanda è sviluppata con una scala Likert 1-5 o 1-7: da molto poco a moltissimo, da per nulla a del tutto o da poco a molto. Quanto è
importante per te, nella scelta della tua alimentazione, l’ecosostenibilità dei tuoi alimenti? 1= per nulla e 5 = del tutto; oppure 1= per nulla e 7
= del tutto. Il consiglio è di mantenere la scala omogenea durante tutto il questionario. La seconda domanda è legata al grado di
soddisfazione percepito rispetto ad un prodotto o servizio già in uso. Quindi lo step successivo è chiedere qual è il principale prodotto in uso
e poi ripetere lo stesso concetto per individuare e capire come giudichi quel determinato prodotto o servizio che stai utilizzando ora in
termini di quello specifico mal di pancia (problema).
Es. sulla base della tua scelta abituale dell’ultimo servizio utilizzato, come giudichi quel determinato servizio o prodotto rispetto
all’ecosostenibilità?
Si mettono tutti gli item di importance nella prima domanda, dopodiché si ripetono gli stessi item (elementi, domande) di performance che
riflettono gli stessi concetti. Il rischio di confondere le domande è alto, ma l’idea è quella di essere abbastanza precisi nel distinguerle.
16
Nel riquadro A c’è aria di opportunità, dove l’elemento è molto importante e la performance è tendenzialmente bassa. Il grafico è fatto su un
unico item che viene analizzati in base all’importanza e alla performance. È consigliabile utilizzare più item possibili.
Quest’analisi permette di trovare delle dimensioni latenti tra più domande, cioè cercare di capire se ci sono delle dimensioni che le
raggruppano. L’analisi ci permette di fare una sintesi sulle domande di importanza e poi la sintesi la si analizza nelle domande di
performance.
Domande di Importanza
Come fare le domande di importanza? Dovete definire il contesto del problema/uso/scelta/esperienza/acquisto del cliente e selezionare gli
elementi (items) più rilevanti in termini di pains/gains sulla base della vostra prioritizzazione. Sulla base della selezione che abbiamo fatto
degli elementi più importanti, bisogna definire le domande in questo modo:
• Quanto è importante per te ridurre il problema del … nella scelta/esperienza/acquisto di …
• Quanto è importante per te ottenere il beneficio di … nella scelta/esperienza/acquisto …
o Nella scelta/esperienza/acquisto di X quanto è importante per te (tutti gli item), es ridurre l’impatto ambientale, aumentare la
qualità della vita delle persone …?
Questa è una lista di items utilizzando verbi e azioni che per noi sono le più importanti.
Domande di Performance
Inizialmente, prima delle domande di performance, bisogna definire il set di soluzioni/esperienze attualmente usate/vissute dal rispondente.
Potrebbe essere utile utilizzare una domanda con cui ancorare le domande di performance all’attuale soluzione utilizzata (es. uno specifico
servizio di stampa 3D) o a quella maggiormente acquistata (es.: probiotico/integratore). Ancorare le domande a questo tipo di prodotto,
servizio, esperienza in modo tale che tutte le domande di performance riflettano quel determinato prodotto, servizio o esperienza
E selezionare gli elementi (items) più rilevanti in termini di pains/gains sulla base della vostra prioritizzazione
Le domande di performance sono strutturate in questo modo:
• In che modo ritieni che la soluzione/esperienza attuale sia in grado di ridurre il problema …?
• In che modo ritieni che la soluzione/esperienza attuale sia in grado di generare il beneficio …?
Le domande di importance e di performance sono il cuore del questionario.
17
Una volta definita la tecnica bisogna fare delle scelte legate alla dimensione del campione tenendo in considerazione due principali
indicatori.
Dopodiché viene fatta l’effettiva estrazione del campione fino ad arrivare all’ultima fase che è quella di somministrazione del questionario.
Tutto ciò per rispondere alla nostra domanda di base: “A chi sottomettiamo la nostra indagine?”.
3. Le tecniche di campionamento
Se si volesse giungere a una descrizione esaustiva delle caratteristiche che un fenomeno assume nella popolazione oggetto di studio, la
soluzione ideale sarebbe quella di raccogliere le informazioni di cui si necessita sull'intera popolazione. Un'indagine di questo tipo, ovvero
condotta rilevando le manifestazioni del fenomeno su tutte le unità elementari che compongono la popolazione, viene definita indagine
censuaria (o esaustiva). Tuttavia, nella grande maggioranza dei casi, esistono dei vincoli (di natura economica, geografica o strutturale) che
impediscono l'accesso a tutta l'informazione disponibile. Il ricercatore si trova, pertanto, di fronte alla necessità di intraprendere una strada
diversa per poter soddisfare le sue esigenze conoscitive. Tale strada è rappresentata dall'osservazione del fenomeno - e dalla raccolta delle
informazioni - su un numero più ristretto di unità elementari, che rispecchino le caratteristiche della popolazione di riferimento. Si parla, in
questo caso, di indagine statistica realizzata in forma parziale o campionaria e il processo che consente di estrarre un sottoinsieme di soggetti
(il campione) dal totale delle unità oggetto di studio (la popolazione) è il processo di campionamento. Oltre ai vincoli di natura oggettiva (in
alcuni casi, per esempio, la popolazione di riferimento è sconosciuta in termini di composizione e numerosità), esistono diverse ragioni per
cui, nella ricerca sociale, si ricorre al campionamento:
• risparmio sui costi di rilevazione;
• riduzione dei tempi di raccolta dati e di elaborazione:
• vantaggi organizzativi (per esempio, nella gestione e nella numerosità dei rilevatori);
• vantaggi di approfondimento e di accuratezza, poiché la minore complessità organizzativa permette di concentrare risorse sul controllo
della qualità della rilevazione
D'altro canto, il principale problema connesso alla rilevazione dei dati su una porzione limitata dell'informazione disponibile è quello
dell'attendibilità e della generalizzabilità dei risultati, ovvero dell'estensione degli stessi all'intera popolazione. Per questa ragione, appare
fondamentale riuscire a intercettare un campione che sia il più possibile rappresentativo della popolazione e che consenta di generalizzare i
risultati ottenuti con un certo livello di affidabilità.
La scelta della popolazione iniziale e della tecnica di campionamento è molto legata ad una logica che ci dia la possibilità di sottomettere un
campione in modo semplice, con costi bassi e con costi di analisi ridotti.
Noi ci affideremo ad una tecnica di campionamento non probabilistica, che è il campione di convenienza.
Nel campione non probabilistico la scelta delle unità del campione è effettuata in funzione di esigenze conoscitive specifiche o di alcune
caratteristiche peculiari della popolazione.
È un modo semplice di fare campionamento, ma comunque valido perché l’analisi verrà fatta dopo aver raccolto e analizzato i dati
Ci sono invece tecniche di campionamento probabilistiche che sono quelle utilizzate per avere un campione rappresentativo di una
popolazione di partenza molto chiaramente definita (es. coloro che hanno il diritto di voto in Italia). Un campione si dice probabilistico
quando le unità della popolazione di riferimento hanno tutte la stessa probabilità, nota e diversa da zero, di essere incluse nel campione.
Le tecniche di campionamento probabilistico si suddividono in 3 categorie: la prima è una tecnica casuale, cioè ho una popolazione definita e
estraggo dalla popolazione un numero x di persone in modo completamente casuale e quello rappresenta il campione rappresentativo. In
questo caso la rappresentatività non è certa e molto spesso si utilizzano degli aggiustamenti. Si utilizzano quindi delle tecniche definite di
campionamento casuale stratificato, questo significa che prima di effettuare l’estrazione definisco degli strati all’interno della popolazione di
partenza sulla base di una serie di variabili indicative che penso siano importanti (es. localizzazione geografica, classe d’età, collegio, etc.).
Supponiamo che la popolazione venga suddivisa sulla base del collegio e sulla base della classe d’età; quindi, se abbiamo 20 collegi e 5
classi d’età avremo 100 strati (20 x 5). Da questi strati poi inizio ad estrarre. Io ho una dimensione obiettivo e sulla base di questa poi
proporzionalmente estraggo il campione da questi strati e l’estrazione è casuale.
A volte la stratificazione della popolazione può essere fatto a grappoli.
18
Campione per quota in cui il disegno campionario prevede la suddivisione della popolazione in gruppi di unità (strati) sulla base della
variabile di interesse che vengono arbitrariamente selezionati dal ricercatore.
Si stratifica il gruppo della popolazione per strati anche se fondamentalmente poi non si va a quantificare gli strati sulla base dall’analisi
delle variabili ma ci va bene tutto.
Il campionamento probabilistico
L'elemento che li accomuna è il fatto che, a partire da una popolazione di numerosità N, l'operazione di scelta delle n unità che costituiscono
il campione avviene in maniera casuale.
Campione casuale semplice (simple random) consiste nell’estrarre con sorteggio (in modo completamente randomico) dalla lista della
popolazione gli n elementi del campione. Si tratta del disegno di campionamento probabilistico più elementare e più diffuso.
A volte si può decidere di fare un campione casuale sistematico (con un passo di campionamento,) quando non c’è sorteggio ma viene
definito un intervallo costante (passo) con cui scorrere la lista e scegliere le unità del campione.
Nel campionamento casuale sistematico l'estrazione delle unità campionarie non avviene mediante sorteggio, come nel caso del
campionamento casuale semplice, ma scorrendo la lista dei soggetti e selezionandone sistematicamente uno ogni dato intervallo. La
procedura prevede la scelta casuale della prima unità campionaria e la selezione di quelle successive rispettando un criterio prefissato.
Tale criterio viene definito passo di campionamento e identifica l'intervallo costante in base al quale scorrere la lista delle unità e
individuare, di volta in volta, quelle che entreranno a far parte del campione.
Ad esempio, parto da 3 e faccio un passo di 10, quindi poi prendo il 13° e poi il 23°, etc. Quindi in questo caso il campionamento sarà
1/10 della popolazione di partenza.
Campione casuale stratificato si basa sulla conoscenza degli strati omogenei della popolazione rispetto ad una variabile di interesse. Si
procede poi ad un campionamento casuale all’interno di ciascuno strato che può essere proporzionale o non proporzionale rispetto allo
strato. Gli strati sono formati in base a variabili che conosciamo della popolazione di partenza (es. classi di età, luogo geografico).
All’interno di ciascun strato il campionamento può essere proporzionale o non proporzionale rispetto alla dimensione dello strato stesso.
Campionamento a grappoli (cluster) in cui le unità campionarie sono selezionate all’interno di un certo numero di raggruppamenti
naturali (provincie, aziende, famiglie) che entrano a far parte, per intero, del campione.
Il campione viene estratto partendo da dei gruppi definiti in base a riferimenti naturali come le province, le regioni, all’interno di
azienda (estrazione di dipendenti a livello dei dipartimenti, selezione rappresentativa di tutte le funzioni dei dipartimenti aziendali)
3. L’errore casuale
La somma di tutti le imprevedibili variazioni nell’esecuzione delle operazioni di misura generano uno scostamento attorno al valore medio.
Se si vuole misurare la possibilità di infarto di una certa popolazione, si estrae un campione casuale di n=900 soggetti, nel quale si verifica il
20% di infarto
L’errore casuale è dato da:
19
Questo significa che in realtà all’85-95% del tuo campione piace la gomma da masticare al gusto di uva. Il 5% è il margine di errore più
comunemente utilizzato, però è consigliato di avere un margine di errore dal 1 al 10% a seconda dell’indagine.
Duplico la domanda
Vai alla sezione sulla base della risposta --> creo delle sezioni separate a seconda del rispondente. In base ad una determinata risposta ti porta
direttamente alla sezione 2. Bisogna fare in modo di non andare dopo anche nella sezione 3, ma direttamente alla sezione 4.
20
Domanda a griglia: matrix multiple choice. Gli item nelle righe e le risposte con scala nelle colonne
07/04
Capitolo 7: l’analisi dei dati
Il presupposto è quello di aver già raccolto i dati attraverso il questionario. Ora ci troviamo di fronte alla fase successiva di analisi dei dati.
Partiamo dal file delle risposte che ci restituisce il modulo di Google. All’interno del file Excel possiamo trovare tutte le risposte ottenute dal
nostro campione
Il modulo di Google restituisce tale file su un foglio di lavoro.
Il contesto di analisi dell’esempio è B2B e hanno risposto i direttori tecnici o referenti del commerciale o della direzione. È sempre molto
utile fare una domanda sul ruolo del rispondente per capire chi risponde in nome e per conto dell’impresa.
Nell’esempio sono state fatte sei domande di importanza, una domanda relativa alla soluzione più utilizzata e sei domande di performance
costruite con la stessa metrica e scala delle domande di importanza.
Ora bisogna fare in modo che i dati riescano a dirci delle cose che non conosciamo
Ancora non sappiamo che cosa ci dicono i dati
Per far parlare i dati dobbiamo seguire un processo, attraverso il quale permette ai dati di raccontarci cose che fino a questo momento non
sappiamo
Coding
Coding è la procedura che permette di trasformare i dati grezzi di risposta nelle variabili che possono essere oggetto di analisi. Questa fase di
ricodifica consiste nella trasformazione delle scale ordinali o categoriali in scale numeriche.
Per le domande che non hanno una scala ordinale e/o categoriale di risposta (es.: domande aperte) è necessario definire per le variabili
categoriali il numero di classi (o categorie) che devono essere oggetto di analisi (esaustive ed
esclusive)
Alcuni suggerimenti che è utile applicare in questa fase
- Usare solo codici numerici (non alfanumerici) nel dataset definitivo
- Ad ogni rispondente deve essere associato un numero identificativo
21
• La distribuzione di frequenza e gli outliers. Gli outliers sono valori anomali rispetto alla distribuzione normale, sono quindi valori che
stanno nelle code della distribuzione normale
• Eventuali errori (blunder) rimasti dopo il coding
Outliers
In questo caso
l’outlier è 9 in quanto è una categoria che si distacca molto dalle altre. Rappresenta un valore che è fuori da una distribuzione ipotetica,
attesa.
In economia gli otliers sono casi di studio fondamentali, in statistica invece sono difficili da maneggiare perché vanificano molte delle
assunzioni di base delle statistiche utilizzate. In statistica quindi si cancellano gli outliers, non si considerano all’interno dell’analisi statistica.
Mentre nell’analisi economica e di marketing vengono approfonditi
22
Statistiche Descrittive (Spss 28)
Media --> è quel valore che corrisponde alla somma di tutti i valori diviso il numero dei
valori stessi. Rappresenta il valore che sostituito a ciascun xi lascia invariata la intensità
totale (somma)
Mediana --> è quel valore al di sotto del quale cadono la metà dei valori campionari. Sopra
questo valore abbiamo il 50% dei rispondenti e sotto il 50%. È il valore in prossimità del
secondo quartile (il quartile è il 25% della distribuzione, quindi il secondo quartile è il
50%)
Modalità (o Moda) --> è definita come il valore che ha la frequenza più alta
Deviazione Standard --> misura di dispersione data dalla radice della somma degli scarti
dalla media aritmetica al quadrato. È il quadrato della varianza
08/04
Come facciamo a misurare tali elementi su SPSS?
Analizza -->statistiche descrittive --> descrittive
Per esempio possiamo analizzare le variabili di
importanza.
Lanciando la statistica il programma restituisce la tabelle
delle descrittive con la numerosità, il minimo, il massimo,
la media e la deviazione standard.
La deviazione standard tanto più è alta, tanto più c’è una
dispersione elevata all’interno delle risposte rispetto alla
variabile di importanza. Vuol dire che le domande
tendendo a spostarsi verso gli estremi della scala
Quando si definisce un range si fa il valore medio +/- la
deviazione standard.
Se per esempio faccio il range della variabile
d’importanza 6, la cui deviazione standard è 2,1; il range va tra i 5,8 e i 1,66. Ha un range abbastanza ampio
Alcune volte può accadere che la deviazione standard sia più elevata del valore medio, in questo caso significa che la variabilità è
estremamente elevata all’interno delle risposte di quella variabile
Una volta fatta la statistica descrittiva il passaggio successivo è iniziare a sviluppare l’analisi fattoriale
23
Successivamente fornisce una tabella della varianza totale spiegata dall’analisi fattoriale che ha estratto due fattori di sintesi che spiegano la
variabilità dei sei item in una misura cumulata pari a quasi il 70%.
La matrice dei componenti ruotata ci dice che abbiamo due fattori di sintesi estratti dalle sei variabili iniziali; questi
fattori di sintesi sono il riflesso di tre variabili (3,4,1) (il primo fattore) e altre tre variabili (2,6,5) (il secondo fattore)
Il factor loading rispetto al primo fattore è molto alto per tutti e tre le variabili osservate, in quanto siamo sempre sotto
a 0,7. La barriera minima è 0,4; mentre il factor loading inizia ad essere buono quando è sopra a 0,6
Rispetto al fattore 2 abbiamo che la variabile 2 e 6 ha un ottimo factor loading; mentre la variabile 5 carica su
entrambi i fattori. Carica sul fattore 2 con un fattore di caricamento .656; mentre sul fattore 1 con un fattore di
caricamento .489
Questa cosa può accadere spesso e le due opzioni di scelta che si possono perseguire sono:
1. quell’item tendenzialmente sta su due dimensioni, ma non sta in nessuna delle due in modo significativamente
differente. Quindi possiamo decidere di non considerarlo all’interno di una delle due dimensioni di sintesi.
2. in questo caso dato che in una delle due dimensioni carica con un factor loading più alto, è meglio considerare
l’item 5 come un item del fattore di sintesi 2.
L’analisi fattoriale ci ha restituito due fattori con cui possiamo sintetizzare le variabili osservate.
Facciamo questo per cercare di mantenere tutte le variabili di analisi sintetizzate all’interno di due macro dimensioni
che le sintetizzano tutte. L’idea è di non perdere i pezzi dell’analisi ma di utilizzare la fattoriale per fare sintesi delle variabili osservate.
Il passaggio successivo è cercare di capire che cosa riflettono le domande 1,3,4 e le domande 2,5,6. Dobbiamo cercare di capire se anche a
livello teorico i tre attributi hanno qualche grado di correlazione, perché quello che ci restituisce la fattoriale è un’analisi basata sui dati, ma
non sulla teoria che c’è dietro le domande.
Ora dobbiamo cercare di capire e vedere se le domande hanno un qualche tipo di grado di correlazione tra di loro. Tanto più elevato, tanto
più vuol dire che il fattore di sintesi è in grado di riflettere in modo pieno e completo le tre domande
Quindi dopo l’analisi fattoriale dobbiamo capire se quelle tre domande possono stare davvero insieme anche a un livello teorico e non solo al
livello statistico e numerico.
Sulla base della fattoriale dobbiamo costruire i fattori, cioè delle variabili di sintesi che sono strutturate così come sono strutturati i
componenti principali sulla base dei risultati ottenuti nell’analisi fattoriale.
I fattori di sintesi sono delle variabili chiamati vettori media che comprendono, nel caso del fattore 1, l’item 1,3,4 e nel fattore 2 l’item 2,5,6
Per poter costruire i fattori di sintesi su SPSS: trasforma --> calcola variabile --> fatt_1_imp (imp 1 + imp 3 + imp 4)/3
Questo permette di calcolare una nuova variabile che è la variabile sul vettore media del fattore di sintesi 1.
All’interno del database avremmo il fattore 1 calcolato sulla base dei risultati dell’analisi fattoriali. Lo stesso viene fatto per il fattore 2.
Quindi avremmo i due fattori di sintesi che rappresentano la sintesi delle variabili di importanza, quindi i pain, gain e job utilizzati all’interno
del questionario
Lo step successivo è entrare nella cluster analysis che permette di segmentare una base di clienti attuali o potenziali.
24
L’obiettivo è individuare delle aree di opportunità date da gruppi per cui alcuni fattori sono estremamente importanti rispetto ai quali
persistono delle insoddisfazioni rispetto alla soluzione, esperienza, servizio attualmente in uso. Le valutazioni in termini di performance non
sono così soddisfacenti. I fattori importanti sono quelli che rispecchiano i vantaggi della soluzione che stiamo analizzando.
Cerchiamo cluster che hanno dei valori elevati rispetto ai fattori di importanza e che sono pochi soddisfatti rispetto alle
performance/soluzioni attualmente in uso. Vogliamo capire se c’è potenziale rispetto alla soluzione che stiamo analizzando, e se c’è
potenziale vuol dire che c’è un gruppo o sottogruppo del campione di analisi tale per cui alcuni items sono importanti e al contempo non
sono soddisfatti delle soluzioni attualmente in uso.
A noi interessa trovare dei cluster in cui gli elementi di importanza sono considerati molto importanti, hanno valori elevati.
Ora quindi dobbiamo cercare dei cluster che ci dicono per esempio che il fattore 2 è considerato importante
Adesso quindi occorre capire meglio come sono fatti i cluster: confronta medie --> ANOVA a una via (statistica che permette di fare un
confronto tra le medie dei vari gruppi quando i gruppi sono più di due) / T-test (quando i gruppi sono due) --> fatt_1_imp e fatt_2_imp
Questa statistica permette di fare un confronto della media dei cluster rispetto ai due fattori di sintesi d’importanza
La descrittiva restituisce i valori medi per
i tre gruppi rispetto al fattore di sintesi 1
e 2. Possiamo vedere che per il cluster 1
il fattore 1 e 2 sono entrambi poco
importanti
Per i rispondenti nel cluster 2 (18) il
fattore d’importanza 1 è considerato
abbastanza importante e lo stesso vale
anche per i fattore 2
Per il cluster 3 composto da 19
rispondenti il fattore d’importanza 1 è
considerato relativamente poco
importante e invece è considerato
importante il fattore 2. Quindi il cluster 3
è quel cluster che differenzia di più le variabili d’importanza.
L’obiettivo era trovare gruppi di clienti tali per cui sono importanti elementi posseduti dalla nostra soluzione. La nostra soluzione possiede
benefici legati al fattore d’importanza 2; quindi a noi interessa il cluster 2 e 3.
Dopo dobbiamo capire se questi due cluster sono soddisfatti, perché dove c’è insoddisfazione, c’è area di opportunità.
Il passo successivo è lanciare un’Anova con il CLU4_1, mi ritrovo 4
gruppi. Il gruppo 1 sia per il fattore 1 che per il fattore 2 è rimasto
uguale. Per il cluster 4 risulta poco importante per il fattore 1 e molto
importante per il fattore 2. Il gruppo 2 (9 rispondenti) il fattore 1 è
importante con un valore medio del 5.2 ed è estremamente importante
il fattore 2 perché abbiamo un valore medio del 6.18.
Per il gruppo 3 sia il fattore 1 che il fattore 2 sono mediamente
importanti.
Per decidere se tenere la Cluster 3 o 4 è una scelta nostra,
probabilmente terremmo la cluster 4 che permette di
spacchettare meglio quel gruppo che prima ci sembrava
molto omogeneo rispetto a entrambi i fattori che erano
entrambi considerati importanti. Mentre ora il gruppo due ci
dice che il fattore 2 è estremamente importate, il fattore 1 è
ancora importante, ma il focus è soprattutto sul 2.
Il cluster importante per la nostra analisi è quel cluster
attraverso il quale riusciamo ad analizzare al meglio quei
gruppi tali per cui ci sono alcuni fattori importanti e altri
fattori meno importanti.
11/04
T-test per la differenze tra due medie (Spss 28)
Il test t (o, dall'inglese, t-test) è un test statistico di tipo
parametrico con lo scopo di verificare se il valore medio di una distribuzione di un gruppo di osservazioni (cluster 1) si discosta
significativamente da un certo valore di riferimento.
Questo test viene utilizzato per analizzare la differenza tra due medie. Questo significa che il valore di riferimento di confronto è dato dal
valore medio della distribuzione di un altro gruppo di osservazioni (cluster 2). L’ipotesi è che la differenza delle medie dei due gruppi sia
nulla (X1 − X2 = 0)
Gli assunti del T-test sono:
1) Le misure della variabile dipendente di ciascun gruppo
a. sono indipendenti tra di loro
b. sono indipendenti dall’altro gruppo
2 La variabile dipendente si distribuisce normalmente
3 Le varianze dei due gruppi sono uguali
Il secondo passaggio ora è di entrare nell’analisi degli elementi di performance. Con l’analisi fattoriale e cluster sviluppata sui fattori di
importanza abbiamo fondamentalmente spacchettato il campione in 4 sottogruppi. Adesso si tratta di analizzare le valutazioni dei 4
sottogruppi in termini di performance.
25
Il dataset è costruito su 6 domande di importanza (es. quanto è importante per te che nella scelta dello snack naturale esso sia a, b, c, …), su
una domanda soluzione (es. qual è lo snack naturale che maggiormente utilizzi?), e poi su domande di performance (es. rispetto allo snack
che utilizzi maggiormente, quanto ritieni efficace rispetto a, b, c, … (stessi item utilizzati nelle domande di importance)). Noi abbiamo
individuati i cluster rispetto a quelli che sono gli elementi per loro più importanti nella scelta di snack naturali e ora vogliamo capire quanto
sono soddisfatti degli snack naturali che attualmente stanno utilizzando e quanto li ritengono efficaci rispetto alle stesse dimensioni che erano
state utilizzate nella domanda di importance.
Per fare questo non rilanciamo un’analisi fattoriale e cluster, ma raggruppiamo gli item di performance nello stesso modo in cui sono state
raggruppati gli item di importance perché quello che vogliamo costruire è un analisi differenziale tra gli elementi di importanza e gli elementi
di performance rispetto al giudizio espresso nell’analisi di importanza.
Trasforma --> calcola variabile --> Variabile obiettivo: Perf_1 --> (Perf1 + Perf3 + Perf4) / 3 (media degli item di performance). Sono gli
stessi item con cui avevamo costruito il fattore di importance 1.
Trasforma --> calcola variabile --> Variabile obiettivo: Perf_2 --> (Perf 2 + Perf5 + Perf6) /3.
Ora quindi abbiamo anche le variabili Perf_1 e Perf_2
Ora vado ad analizzare le due dimensioni di performance all’interno dei quattro cluster dell’analisi a cluster a quattro gruppi.
Analizza --> confronta media --> Anova a una via --> aggiungo Perf_1 e Perf_2 --
> Fattore: CLU_4
Andando a vedere Perf_1 succede che i cluster 2 e 3 sono quelli abbastanza
soddisfatti rispetto al fattore di performance 1, mentre i cluster 4 e 1 sono poco
soddisfatti.
Una volta sviluppata l’analisi su questo doppio livello, prima di importanza e poi di performance, una cosa utile è quella di capire all’interno
di ogni gruppo individuato quali sono le soluzioni attualmente in suo e che attualmente valutano in un modo poco soddisfacente. Sappiamo
che non sono soddisfatti, ma bisogna capire di che cosa non sono soddisfatti. Per fare questo bsiogna fare un’analisi della frequenza tra i vari
gruppi. Dobbiamo suddividere il file in 4 gruppi
Dati --> suddividi file --> confronta gruppi --> Ward method CLU4. In questo modo ogni comando che si lanca d’ora in avanti è un comando
che lancio non sull’intero campione ma sui 4 gruppi del cluster.
Ad esempio: statistiche descrittive --> frequenza --> soluzione
La soluzione maggiormente utilizzata nei 4 sottogruppi è la 3.
Ora vogliamo cercare di stimare il potenziale di mercato della soluzione futura/ipotesi di prodotto o soluzione su cui stiamo lavorando
Stimare il potenziale di mercato significa identificare i potenziali consumatori, quindi quantificare il numero dei potenziali clienti. Poi ci
interessa capire quanto vale in valore economico e monetario. Vogliamo provare a dare una misura e una stima del valore economico e
monetario del mercato che stiamo cercando di analizzare.
Agenda
0. Where you are
1. TAM, SAM, SOM --> total available market (vedere complessivamente il mercato aggregato nel suo valore totale), serviceable
available market (mercato obiettivo su cui pensiamo di entrare, ossia i segmento di mercato sui cui davvero vogliamo focalizzare la
nostra prima attività e i nostri sforzi), serviceable obtainable market (stima della nostra capacità di penetrare il mercato obiettivo sulla
base della nostra struttura organizzativa. Cercare di capire quanto riusciamo a azionare il mercato obiettivo sulla base della nostra
capacità e conoscenza del mercato).
2. TAM estimation
3. From TAM to SAM
26
4. SOM estimation
1. TAM
TAM dovrebbe identificare:
- L'ambito (iniziale) del tuo mercato (locale vs. regionale vs. globale).
Dobbiamo cercare di identificare il mercato disponibile rispetto al raggio
d’azione geografico.
Ad esempio il TAM del miele di manuca è globale, europeo o italiano? Italiano
oppure europeo, non possiamo partire globali quando ancora non esistiamo. La
prima analisi in termini di valore è capire il potenziale del mercato italiano. In ottica futura il mercato europeo è il mercato totale
disponibile a cui si potrebbe puntare
Per le stampanti 3D il focus è italiano.
- Il tipo di mercato/BM: product based vs. solution/treatment based (Hardware-as-a-Service)
- Il numero di utenti/pazienti/clienti
- Il valore medio di un singolo prodotto/servizio/trattamento
- Il valore complessivo del tuo mercato indirizzabile
Si può quindi partire dal dato valoriale già quantificato in termini monetari oppure andando a guardare il valore dell’import di un determinato
prodotto. Tuttavia il dato dell’importazione ad esempio del miele è al prezzo di costo, poi io lo rivendo due volte quel valore. Quindi dovrò
moltiplicare quel valore tra il 2,5/3.
Con la stampa 3D la stima è più difficile perché a noi interesserebbe capire il valore di mercato dei servizi di stampa 3D, piuttosto che delle
vendite di stampanti 3D in Italia.
Per definire il TAM della stampante 3D bisognerebbe quantificare il totale del valore dei servizi di stampa 3D su base annuale fatti in Italia.
Tuttavia questo è un pezzo difficilissimo. Si potrebbero usare come ipotesi di base: approccio bottom up andando a guardare i business,
quanto fatturato e cerchiamo di fare una stima dei service più grandi. Oppure si potrebbe usare un approccio top down approach andando a
stimare gli utilizzatori di stampa 3D, guardare quante stampe fanno all’anno. Terza ipotesi è cercare dati già quantificati da una terza parte
(fornitore di dati statistici)
Top-down Approach (chain-ratio method)
Top-down Approach è adatto per/quando:
- Mercato B2C
- Ampio ambito di mercato (nazionale, europeo, globale)
- Disponibilità limitata di dati secondari affidabili focalizzati sul valore complessivo del
TAM
Sono necessarie diverse ipotesi interconnesse.
27
1. Sources of TAM estimation
Il punto di partenza è cercare dati che siano legittimi. A noi interessa il TAM perché ci da una misura del valore potenziale su scala ampia del
prodotto che stiamo analizzando. Ci da un dato di adesso, quel che manca è capire il trend perché a noi interessa capire anche come si evolve
quel business. Il trend del passato ci interessa per poter fare delle stime future
Source: https://www.statista.com/statistics/387867/value-of-worldwide-digital-health-market-forecast-by-segment.
Statistics published in US$ converted to Euros with an exchange rate of 0.84 Euros per US$
How can we move from “How many end-users?” to “Show me the money”?
Del TAM non abbiamo il dato monetario, ma abbiamo ad esempio il dato delle persone celiache. Ora dobbiamo capire in termini economici
quanto può valere quel mercato.
1. TAM estimation
Dal numero di utenti finali dovresti fare alcune ipotesi per cercare di dare un valore monetario a quel mercato potenziale:
- Determinare quanto vale il reddito annuo di un utente finale (in media) (quanto spendono i tuoi clienti oggi per realizzare ciò che fa la
tua soluzione?)
- Moltiplicare il ricavo medio per utente finale per il numero di utenti finali
Bisogna provare a rendere esplicite le assunzioni
1. TAM estimation
Questo esempio mostra come quantificare la spesa media
annua per l’acquisto di software per la progettazione 3D
Questo è un approccio bottom up: hanno guardato il numero
di produttori negli stati uniti e in asia partendo dal numero
delle imprese più importanti di produzione. Hanno fatto una
stima di quanti potessero essere il numero di designer che si
occupavano di progettazione all’interno delle
organizzazioni.
Dopodiché hanno fatto una stima per arrivare a quantificare
e qualificare un valore medio del software su base annuale:
hanno guardato il tasso di obsolescenza dei prodotti e hanno
individuato un valore medio su base annuale
Hanno quindi cercato di stimare il riacquisto di quella
particolare tecnologia.
1. TAM estimation
In questo caso la stima è stata fatta a valore, non in termini di numero
di prodotti acquistati. Fare l’analisi del TAM bottom up a valore ha
una serie di problematicità da considerare, come il grado di
diversificazione del cliente potenziale: tanto più è diversificata, vuol
dire che il dato effettivo dei suoi ricavi o costi totali di produzione
sono costi che riguardano più tipologie di prodotti, non riguardano
solo il mio prodotto finale. Se il cliente è molto verticalmente
specializzato allora il dato in valore monetario può essere una stima
interessante e utile. Se invece è molto diversificato devo cercare di
capire quanto è la quota parte della tecnologia che mi interessa sul
totale del suo valore di produzione.
What should your TAM be? Come deve essere il valore del mercato
totale disponibile?
Un mercato totale eccessivamente vasto potrebbe avere un grande
potenziale di essere scalato. Allo stesso tempo potrebbe anche attirare un grande numero di aziende che offriranno il prodotto o servizio in
questione.
Viceversa, se il mercato totale risulta avere delle dimensioni più contenute, ci sarà meno concorrenza. Ma questo potrebbe essere un
indicatore di un mercato meno appetibile.
28
Una cosa fondamentale è capire il trend futuro utilizzando il tasso di crescita degli ultimi anni (1-2 anni).
SAM requisiti
A noi interessa arrivare a definire un valore della popolazione che rispetti il requisito di:
• Misurabilità: il segmento può essere misurato in termini dimensionali e delle sue principali caratteristiche
• Praticità: il segmento può essere raggiunto e servito in modo efficace. Significa che si cercano cose e non si è soddisfatti di quello che si
ha. Il segmento cerca attributi che ancora non trovano in quello che stanno utilizzando
• Rilevanza: il segmento ha un reale potenziale di vendita e di crescita. Capire quanto è interessante dal punto di vista dimensionale
SOM estimation
Il SOM, ovvero il Serviceable and Obtainable Market è il mercato che
realisticamente dovrebbe raggiungere la tua startup o azienda una
volta lanciata. Il SOM quindi corrisponde alla capacità di sfruttare al
massimo le competenze e gli strumenti che hai a disposizione.
L’ultimo passaggio è quello di definire il potenziale di mercato ottenibile, ossia fare una previsione effettiva delle vendita quindi della
capacità di riuscire ad aggredire quel segmento.
Tale capacità di aggressione è molto bassa all’inizio perché il progetto imprenditoriale è allo stato iniziale, i fondi sono limitati, la capacità di
avere contatti con i clienti può essere difficile.
La stima SOM riflette:
1. Il canale di distribuzione che la tua azienda sarà in grado di sviluppare
2. Le relazioni con i clienti che possono essere approssimate per quota di portafoglio che sarai in grado di raggiungere (per ogni
cliente/distributore)
3. Il modello di reddito dell'impresa con cui il progetto imprenditoriale pensa di vendere il prodotto o darlo in affitto
SOM estimation
29
Quota di portafoglio --> la quota aggregata del portafoglio indica il grado in cui il tuo cliente soddisferà le sue esigenze, in media, con il tuo
prodotto/servizio sulla base dell'importo totale degli acquisti della tua specifica categoria di prodotto/servizio.
Rete di distribuzione: capillarità cliente/distribuzione --> numero di clienti/distributori all'interno del mercato
Quota di mercato clienti/distribuzione: quota di mercato clienti/distributori all'interno del mercato (importo totale)
Aree di distribuzione: popolazione coperta dalla distribuzione dell'impresa / popolazione Paese
183054
30