Sei sulla pagina 1di 149

CAPITOLO 1 – LE RICERCHE DI MARKETING ALL’INTERNO DEL SISTEMA INFORMATIVO DI

MARKETING

CONOSCENZA DI MARKETING E VANTAGGIO COMPETITIVO


Un’impresa dovrebbe investire per ampliare il proprio patrimonio informativo piuttosto che investire le proprie
risorse in altri ambiti perché oggi le fonti del vantaggio competitivo risiedono nel suo patrimonio di risorse e
competenze.

Non tutte le risorse e le competenze possono essere fonti di vantaggio competitivo, ma solo quelle che
godono di alcuni attributi che le rendono distintive rispetto a quelle dei concorrenti:

• Scarsità: le risorse e le competenze devono essere scarse, ovvero non diffuse tra i concorrenti del
settore o del gruppo strategico, altrimenti tutti coloro che le detenessero risulterebbero simili e, quindi,
non ci sarebbe distintività
• Difendibilità: affinché i vantaggi competitivi siano durevoli nel tempo, l’impresa deve riuscire a limitare
l’accesso alle stesse risorse e competenze da parte dei concorrenti, ovvero deve riuscire a creare
delle barriere (es. brevetti) che rendano possibile la difesa delle risorse e delle competenze critiche
• Appropriabilità dei risultati economici che ne derivano: affinché il vantaggio competitivo si traduca
in risultati economici positivi, i concorrenti dovrebbero essere costretti a sostenere costi talmente
elevati per l’appropriazione e l’utilizzo delle risorse da renderle economicamente non convenienti
• Economicità: si intende la capacità di queste risorse di contribuire al miglioramento dell’efficacia e
dell’efficienza dell’impresa stessa, ovvero alla sua capacità di generare valore

Una risorsa particolarmente predisposta a detenere tutti questi attributi è la conoscenza dell’impresa.
Questa, infatti:

- È scarsa, nel senso che è stata generata nel tempo dall’impresa stessa, cioè appresa durante lo
svolgimento delle proprie attività, e quindi non è disponibile allo stesso modo ai concorrenti

- È difendibile, perché essendo costituita da informazioni, schemi mentali, interazioni fra specifici
soggetti all’interno dell’impresa e fra questi e soggetti esterni risulta particolarmente difendibile dai
concorrenti

- I risultati economici che ne derivano sono appropriabili perché tale conoscenza risulta idiosincratica

- Genera economicità, perché permette, tramite l’apprendimento, di migliorare l’efficienza e l’efficacia


dei processi operativi dell’impresa

In particolare, la conoscenza di marketing, ovvero la conoscenza dei mercati, dei clienti che li compongono,
dei concorrenti che vi operano, dei meccanismi concorrenziali che li caratterizzano, delle modalità di
interazione con questi soggetti consente all’impresa, tramite le ricerche effettuate, di aumentare il proprio
patrimonio di conoscenza, contribuendo indirettamente alla generazione di vantaggi competitivi difendibili, se
adeguatamente utilizzata.

CONOSCENZA DI MARKETING E ORIENTAMENTO AL MERCATO DELL’IMPRESA

La conoscenza di marketing svolge un ruolo fondamentale non solo nella creazione delle fonti di vantaggio
competitivo, ma anche nel qualificare l’orientamento al mercato dell’impresa (market orientation).

In generale, un’impresa si dice orientata al mercato quando definisce come obiettivo fondamentale delle sue
attività la soddisfazione dei propri clienti a l’elevata soddisfazione dei clienti produce un’elevata redditività,
permettendo all’impresa di garantirsi una sopravvivenza nel lungo periodo.

1
Un’impresa orientata al mercato (market oriented) è
caratterizzata da una serie di caratteristiche:

▪ La sua cultura

▪ Le risorse e le competenze di cui dispone

▪ I sistemi operativi che ne permettono il


funzionamento

▪ I comportamenti tipici del suo personale

La cultura
La cultura dell’impresa orientata al mercato è
fondata su una forte fiducia verso il mercato come
sistema di regolazione degli scambi economici e su
un forte senso di responsabilità verso i soggetti,
principalmente i clienti e i concorrenti, che lo compongono.

Ciò significa che tra i valori fondamentali diffusi e condivisi all’interno dell’impresa ci sono il riconoscimento e
l’accettazione delle capacità dei clienti di esprimere le proprie esigenze, della capacità dei propri dipendenti
di soddisfarle, dei diritti dei clienti ad ambire a un’offerta di valore coerente con le loro aspettative, delle
possibilità offerte dal gioco concorrenziale di apprendere e innovare e dei diritti dei concorrenti di ambire alla
generazione di un valore per il cliente superiore a quello dell’impresa.

In questo modo, l’impresa confida che il mercato sia un buon sistema di regolazione degli scambi e, di
conseguenza, mette sempre in pratica comportamenti che non siano né opportunistici nei confronti dei clienti
né lesivi dei loro diritti e di quelli dei concorrenti.

Nella cultura di orientamento al mercato si riscontra la ferma convinzione che per soddisfare efficacemente le
esigenze dei clienti siano necessari processi che garantiscano la sistematica generazione di informazioni di
mercato, di accesso a tali informazioni da parte di tutta la struttura organizzativa e di risposta competente a
tali esigenze. Quindi, ne deriva una notevole apertura verso l’ambiente esterno e una considerevole
trasparenza all’interno dell’organizzazione stessa.

Inoltre, la fiducia e la responsabilità devono tradursi in un ulteriore valore: l’imprenditorialità, ovvero la


capacità di rinnovarsi e assumersi le responsabilità connesse. Essa diventa un valore quando si riconosce
che il mercato non fornisce necessariamente indicazioni chiare e definitive, ma è un generatore di stimoli che
l’impresa deve interpretare in modo creativo e tradurre in innovazione.

Le risorse e le competenze
L’impresa orientata al mercato è caratterizzata da uno specifico set di risorse di competenze. In particolare,
l’impresa è dotata di una conoscenza approfondita del mercato stesso e di fiducia da parte sia dei clienti sia
di quei soggetti che contribuiscono alla generazione di valore per i clienti, come fornitori, distributori e partner
di vario genere.

Per quanto riguarda la conoscenza del mercato, l’impresa orientata al mercato dispone di notevoli
informazioni sui fenomeni di mercato e sui numerosi modelli che permettono di descrivere e interpretare tali
informazioni e di assumere decisioni di conseguenza. Questo permette all’impresa di monitorare
sistematicamente l’evoluzione delle esigenze di clienti del mercato e delle offerte dei concorrenti, in modo da
essere sempre in grado di proporre sistemi di offerta differenziati e atti a competere per acquisire le
preferenze dei clienti stessi.

Per quanto riguarda le risorse di fiducia, invece, l’impresa orientata al mercato dispone della fiducia dei propri
clienti e dei propri partner di mercato. Solo riponendo nell’azienda tale fiducia, i clienti e i partner saranno
disposti a condividere la propria conoscenza. Allo stesso modo dell’impresa, infatti, anche essi dispongono
di un patrimonio di conoscenze che impiegano nello svolgimento delle proprie attività di produzione e utilizzo/
2
consumo dei beni e servizi. La possibilità di condividere tale patrimonio di conoscenze permette all’impresa
di aumentare la sua capacità di generare nuove idee di beni e servizi, ma anche di entrare in nuovi ambiti di
mercato e in nuove arene competitive. È chiaro che la fiducia deve essere controbilanciata dalla fiducia
dell’impresa verso i clienti partner di mercato.

La conoscenza e la fiducia di cui l’impresa dispone si concretizzano in risorse, quali l’immagine di marca, la
fedeltà dei clienti, la stabilità delle relazioni con i distributori, la reputazione presso i distributori e i partner
ecc., in grado di contribuire all’acquisizione e al mantenimento di vantaggi competitivi sostenibili.

Il patrimonio di conoscenza e di fiducia deve essere caratterizzato da una serie di competenze distintive, tra
cui la capacità di generazione, diffusione e utilizzo di informazioni sul mercato. Questa capacità si
concretizza in un processo multi-fase di sistematica acquisizione, distribuzione, interpretazione e utilizzo delle
informazioni di mercato e di valutazione dei risultati delle decisioni poste in essere nel mercato stesso. Tale
processo ha come effetto fondamentale quello di alimentare il patrimonio di conoscenze di marketing
dell’impresa ed è definibile come marketing knowledge management.

In secondo luogo, è fondamentale la capacità di creazione e gestione di relazioni con i clienti. Questa
capacità implica la volontà di cooperare con altri soggetti e quindi l’accettazione da parte dell’impresa che in
alcuni casi è necessario il contributo da parte di soggetti esterni per l’assunzione di alcune decisioni
aziendali. L’effetto fondamentale di tale capacità è quello di alimentare, da una parte, il patrimonio di
conoscenze di marketing, in quanto facilita l’ottenimento di informazioni del mercato e la condivisione delle
conoscenze dei clienti e, dall’altra, la fiducia che i clienti ripongono nell’impresa. Tale capacità è chiamata
customer relationship management.

Un’ulteriore competenza distintiva dell’impresa market oriented è la capacità di creare e gestire


efficacemente le relazioni con i clienti interni da parte della funzione Marketing o di una equivalente (es.
funzione commerciale). Affinché l’impresa sia in grado di rispondere adeguatamente alle richieste del mercato
e di sfruttare la conoscenza degli altri soggetti, è importante che vi sia una cooperazione interna e che la
disponibilità e l’utilizzo delle informazioni di mercato non siano ostacolati dalle cattive relazioni che la
funzione marketing ha con le altre funzioni critiche. La capacità di mantenere relazioni solide con le altre
funzioni permette anche di selezionare i processi aziendali che generano valore per il cliente e di condividerne
la gestione con le altre funzioni interessate, in modo da garantirne l’efficacia e l’efficienza. Questa capacità è
definibile come internal customer relationship management.

Infine, un’ultima competenza distintiva è la capacità di rinnovarsi sistematicamente nelle relazioni con il
mercato. L’impresa market oriented è in grado di indirizzare in modo creativo il mercato affinché questo riveli
esigenze attualmente ancora inespresse, perché non esiste un bene o un servizio che riesce a farle
materializzare. Questa capacità è chiamata marketing innovation management.

I sistemi operativi
I sistemi operativi che l’impresa apprende dal mercato incidono sull’organizzazione del lavoro a tutti i livelli
dell’impresa e consentono, da un lato, il radicamento di una cultura di orientamento al mercato e, dall’altro,
l’accumulo del patrimonio di risorse e il manifestarsi delle competenze distintive.

Tra i sistemi operativi, risultano particolarmente significativi la selezione, la formazione, l’incentivazione e


la remunerazione del personale, la gestione delle informazioni e della comunicazione e la misurazione
e il controllo.

I sistemi di gestione delle risorse umane possono influenzare la capacità dell’impresa di adottare
efficacemente l’orientamento al mercato. Infatti, quanto più terrà conto, nei processi di selezione del
personale, di atteggiamenti e competenze individuali connessi all’orientamento alla soddisfazione del cliente,
quanto più i percorsi formativi interni saranno volti ad aumentare la sensibilità del personale verso le esigenze
dei clienti e quanto più i sistemi di incentivazione e di remunerazione terranno conto di indicatori customer-
based (grado di soddisfazione della clientela, numero di reclami, numero di resi, ecc…), tanto più l’impresa
sarà in grado di acquisire in profondità un orientamento al mercato.

3
Allo stesso modo, risultano importanti i sistemi di gestione delle informazioni e della comunicazione
interna ed esterna. Infatti, la progettazione di adeguati sistemi di raccolta, trattamento e interpretazione dei
dati di mercato, e di comunicazione delle informazioni conseguenti a tutti coloro che ne devono fare uso, è
una precondizione necessaria per la creazione di un adeguato patrimonio informativo di marketing.

La raccolta e il trattamento dei dati richiedono la conoscenza di tecniche diverse e la capacità di codificare i
dati in formati differenti; l’interpretazione dei dati, invece, richiede la disponibilità di modelli in grado di fornire
non solo una lettura corretta dei fenomeni di mercato, ma anche la possibilità di immaginarne in modo
creativo l’evoluzione. Infine, la comunicazione delle informazioni conseguenti all’interpretazione necessita
della presenza di canali efficaci ed efficienti, in modo da veicolare i messaggi a tutti coloro che dovranno
prendere delle decisioni di pertinenza.

L’ultima tipologia di sistemi operativi rilevanti riguarda la misurazione e il controllo direzionale. Tali sistemi
prevedono al loro interno un set di indicatori che evidenzino la capacità dell’impresa di generare valore per il
cliente. Un sistema di questo tipo deve permettere all’azienda di percepire le differenze fra le proprie attese
sulla capacità di soddisfare le esigenze dei clienti e la stessa capacità percepita dai clienti. Inoltre, deve
permettere di disaggregare questo parametro sintetico in ulteriori indicatori in grado di ricondurre le eventuali
differenze alle specifiche attività aziendali.

I comportamenti tipici
Per un’impresa orientata al mercato vi sono 3 tipologie di comportamenti tipici che i dipendenti devono porre
in essere: l’ascolto, la cura e l’educazione del cliente.

L’ascolto comporta il monitoraggio costante delle aspettative, delle percezioni, delle preferenze, dei
comportamenti e dell’effettiva soddisfazione dei clienti attuali e potenziali. Tutti coloro che nell’impresa hanno
la possibilità di entrare in contatto con i clienti devono recepire i segnali che questi inviano all’impresa.

Prendersi cura del cliente (customer care) significa avere un gran rispetto del cliente, pur in presenza di una
sua incompetenza, della sua scarsa capacità di comunicazione e degli errori commessi nel processo di
acquisto e di utilizzo. Il rispetto presume 2 elementi: innanzitutto che il cliente, qualunque sia il mercato e il
prodotto, è da considerarsi come una persona che, oltre a esprimere esigenze specifiche connesse al bene o
servizio, ha bisogni legati al suo essere persona. Prendersi cura del cliente significa quindi soddisfare le sue
richieste specifiche, ma, allo stesso tempo, prestare attenzione alle sue esigenze psicologiche e relazionali. Il
secondo elemento, dunque, è costituito dalla volontà di apprendere dal cliente, di ascoltarlo, di fare domande
per poterlo capire meglio, di sperimentare soluzioni nuove ai suoi problemi.

L’ultimo comportamento riguarda l’educazione del cliente. L’impresa si assume l’onere di educare il cliente,
ovvero di svolgere una serie di attività e, quindi sia di sforzi sia di investimenti, volte a incrementare il
patrimonio di conoscenze del cliente o del mercato in generale.

IL SISTEMA INFORMATIVO DI MARKETING (SIM)


L’approfondita conoscenza del mercato è una delle risorse a disposizione dell’impresa market oriented per
costruire e sostenere i propri vantaggi competitivi. Inoltre, il marketing knowledge management, ovvero la
capacità di generare, diffondere e utilizzare le informazioni sui fenomeni di mercato, costituisce una delle
competenze distintive delle imprese market oriented. Per poter assicurare un’efficace evoluzione di tale
capacità l’impresa si caratterizza per la corretta impostazione e l’efficace utilizzo dei sistemi di gestione delle
informazioni e della comunicazione, tra cui il sistema informativo di marketing.

Le ricerche di marketing si inseriscono all’interno di un sistema più ampio, denominato Sistema Informativo di
Marketing (SIM).

Il sistema informativo di marketing (SIM) è un sistema integrato di persone, attività, procedure


organizzative, tecnologie e metodologie, finalizzato alla raccolta, trattamento, archiviazione, distribuzione
e interpretazione dei dati per generare informazioni rilevanti ai fini delle scelte razionali di marketing
dell’impresa.

4
Generalmente la sequenza prevede che la fase di raccolta dei dati sia seguita da una di trattamento, in cui i
dati vengono organizzati impiegando modelli di analisi o di interpretazione. Alla fase di trattamento segue poi
quella di conservazione dei dati in supporti di vario genere (file elettronici, video, ecc…) e di distribuzione ai
soggetti interessati; questi li interpretano in funzione delle loro esigenze e, a loro volta, conservano le
informazioni ottenute e possono anche decidere di distribuirle ad altri soggetti all’interno dell’impresa.

I principali elementi che compongono il sistema informativo di marketing sono:

▪ Attività
▪ Tecnologie
▪ Procedure organizzative
▪ Modelli e metodologie
▪ Persone
Il SIM è formato da una serie di attività che danno vita alle varie fasi del processo di trasformazione dei dati
in informazioni. All’interno di ognuna di esse viene svolta una serie di attività che permette il passaggio alla
fase successiva.

La tecnologia è una componente fondamentale del SIM. Essa risulta determinante per l’efficace e l’efficiente
gestione del sistema. La digitalizzazione dei dati e dei processi ha permesso di aumentare sia la velocità di
svolgimento delle varie fasi sia la precisione nell’assolvimento dei compiti. Ad esempio, grazie alla tecnologia
risulta essere più veloce la raccolta dei dati permesso dal supporto di computer nello svolgimento delle
interviste telefoniche e personali. Ad ogni modo, in assenza di adeguate competenze, le potenzialità del
sistema non possono essere sfruttate e producono di conseguenza solo sfiducia e frustrazione.

Una modalità per indirizzare l’alimentazione e l’utilizzo del sistema verso i fini per cui è stato realizzato
consiste nel definire, per ogni attività e fase, delle procedure organizzative per lo svolgimento delle diverse
attività. Le procedure, quindi, descrivono le modalità ritenute più efficienti ed efficaci tramite cui svolgere le
singole attività. Esse spesso sono descritte in documenti formali aziendali e le eventuali eccezioni devono
essere giustificate ed approvate da un organo superiore.

I modelli e le metodologie permettono, invece, di raccogliere, trattare e interpretare i dati, in modo da


trasformarli efficacemente in informazioni utili, e di assumere decisioni conseguenti. Essi sono numerosi e
dipendono dall’ambito di analisi e di decisione per cui i dati vengono raccolti.

Infine, una componente critica del SIM è costituita dalle persone coinvolte nelle diverse fasi del processo.
Queste ultime devono essere adeguatamente formate, coinvolte rispetto allo scopo da raggiungere e
incentivate.

Le principali carenze relative alle informazioni di mercato sono:

- Non corrispondono alle informazioni di cui si ha bisogno: ci sono informazioni ma non quelle che
occorrono per supportare il processo decisionale dell’impresa in termini di brand extension, di
ripensamento dei canali distributivi, di rinnovamento di prodotto

- Eccesso di informazioni che ne impedisce un uso efficace: non ci sono le giuste informazioni per i
giusti decisori

- Le informazioni sono disperse all’interno dell’impresa e quindi sono difficili da rintracciare

- Le informazioni arrivano troppo tardi per essere utilizzate nelle decisioni strategiche

- Alcuni manager tengono per sé le informazioni senza passarle ad altri (questo perché chi detiene le
informazioni ha potere)

5
- È difficile verificare l’attendibilità e la precisione delle informazioni, soprattutto quando si raccolgono
dati secondari in quanto non si conosce il metodo di raccolta

A volte vi è un team dedicato (Team data room) che si occupa di raccogliere e gestire le informazioni,
rielaborarle e distribuirle alle diverse linee decisionali.

Le principali tipologie di dati


È possibile suddividere i dati in due famiglie in base allo scopo (esigenza informativa):

1. I dati primari sono dati prodotti ad hoc, ovvero vengono appositamente raccolti in risposta a una
specifica esigenza di ricerca definita puntualmente in tutti i suoi aspetti, attraverso un’apposita
rilevazione sul campo (telefonicamente, online, face-to-face) dette on the field o la raccolta presso il
personale interno

2. I dati secondari sono tutti i dati che sono già raccolti (o solitamente già pubblicati)
dall’organizzazione stessa o da qualsiasi altro soggetto, in risposta a obiettivi conoscitivi diversi e
indipendenti. Tali dati possono essere gratuiti o a pagamento

Un’ulteriore classificazione è la suddivisione dei dati in base all’origine:

a. Fonti interne: sono riconducibili a specifiche funzioni o al personale appartenente all’impresa stessa

b. Fonti esterne: sono costituite da istituzioni, persone, altre aziende indipendenti dall’impresa stessa
che risolvono il fabbisogno informativo

Dati interni al DB aziendale


All’interno di un data base aziendale ci sono:

1. Dati anagrafici: l’anagrafica interna di solito comprende nome, cognome, sesso, CF, indirizzo di
residenza, data di nascita

2. Dati attitudinali: difficilmente questo tipo di informazioni è presente, a meno che all’atto di una
registrazione vengano chiesti hobby, stile di vita, opinioni

3. Dati comportamentali: sono centrali nel DB aziendale transazioni economiche, utilizzo dei servizi, i
prodotti acquistati, i metodi di pagamento, il comportamento di navigazione

Le tipologie di informazioni sui soggetti relazionati all’impresa sono:

Dati anagrafici

- Età

- Genere

- Professione

- Titolo di studio

- Stato civile

- Composizione del nucleo familiare

- Nazione di residenza

- Tipologie/area di residenza

Queste variabili influenzano il comportamento di acquisto; inoltre essendo dati oggettivi permettono di
segmentare il pubblico in maniera oggettiva. I dati anagrafici però non sono sufficienti per profilare il
pubblico, per questo si raccolgono anche dati meno oggettivi.

Dati attitudinali

6
- Bisogni

- Opinioni

- Stile di vita

- Benefici ricercati da prodotti/servizi

- Valori

- Interessi

- Gradi di fedeltà

- Recommendation

- Propensione all’acquisto

Dati comportamentali

- Prodotti acquistati

- Frequenza di visita al punto vendita

- Importi spesi e numero di transazioni

- Tipologia di pagamento

- Contatti, lamentele, reclami

- Dettagli sull’utilizzo di un servizio

- Comportamento di navigazione

Diverse tipologie di SISTEMI INFORMATIVI DI MARKETING


Esistono diversi sistemi informativi di marketing che possono essere distinti sulla base di:

1. Dati (primari e secondari)

2. Fonti informative (interne ed esterne)

Dati provenienti da attività di


marketing intelligence Dati provenienti da ricerche ad
hoc
Es. soddisfazione dei clienti,
azioni della concorrenza, Es. opinioni e atteggiamenti
previsioni di vendita dei consumatori, brand
awareness, efficacia della
pubblicità

Dati provenienti dai sistemi di Dati provenienti da fonti


rilevazione interna aziendale istituzionali o esterne
all’impresa
Es. risultati di vendita,
analisi
scostamenti budget

Dati provenienti dai sistemi di rilevazione interna aziendale


Sono dati secondari interni prodotti dalle diverse funzioni aziendali per le finalità a cui ciascuna è
preposta e che possono essere utili per le decisioni di marketing.

7
I dati più importanti sono:

- i dati economico-finanziari: tali dati, solitamente prodotti dagli uffici amministrativi e finanziari
dell’impresa oppure dalle funzioni tecniche di progettazione, di produzione e di gestione della
logistica, sono riferiti allo svolgimento degli ordinari processi di produzione e di distribuzione dei
prodotti e dei servizi e all’economicità delle attività dell’impresa. Tali dati risultano particolarmente utili
per l’assunzione di alcune decisioni di marketing, quali fissazione del prezzo di vendita di un prodotto
o di un servizio, la progettazione di iniziative promozionali che prevedono un vantaggio economico per
i clienti, lo sviluppo di prodotti e servizi innovativi o il miglioramento incrementale degli attuali, la
pianificazione di campagne di comunicazione. Per tutte queste attività il decisore avrà bisogno dei
dati di costo per poter effettuare le valutazioni economiche del caso, prevedendo i margini e il
rendimento dell’investimento attesi

- i tempi di produzione e i dati sulle scorte disponibili: questi dati, prodotti dalle funzioni tecnico-
produttive e di gestione della logistica, sono rilevanti quando si intende pianificare la distribuzione dei
prodotti presso i propri canali distributivi e gli specifici clienti che li compongono, oppure negoziare
con questi le condizioni contrattuali connesse alla loro fornitura, quando si devono progettare
iniziative promozionali

Tali dati, che provengono da altre funzionali aziendali, sono molto utili e il compito del personale di marketing
è di identificare le fonti interne più adatte e di attivarle all’occorrenza, i dati vengono forniti in formato
cartaceo oppure elettronico.

Dati provenienti da fonti istituzionali o esterne all’impresa


Il patrimonio informativo aziendale è arricchito anche da dati secondari prodotti da soggetti esterni
all’impresa. Tali soggetti svolgono, per loro fini istituzionali o per loro esigenze specifiche, attività di raccolta,
trattamento e interpretazione di dati riguardanti fenomeni di mercato.

Le principali fonti esterne di dati secondari sono:

o A livello internazionale: OCSE, WTO, FMI, UNCTAD, EUROSTAT, SOCIETA’ DI RICERCA E


CONSULENZA, CENTRI STUDI, IMPRESE

o A livello nazionale: ISTAT, BANCA D’ITALIA, MINISTERI, ASSOCIAZIONI DI CATEGORIA, DI


SETTORE E DEI CONSUMATORI (Confindustria, Confcommercio, IAB, FERPI), SOCIETA’ DI RICERCA
E CONSULENZA, CENTRI STUDI, IMPRESE

o A livello locale: REGIONI, COMUNI, CAMERE DI COMMERCIO, ASSOCIAZIONI DI CATEGORIA E DI


SETTORE, CENTRI STUDI

In generale i centri studi pubblicano i cosiddetti white paper dove sono presenti dati circa particolari
fenomeni (accessibili in maniera gratuita) come Metaverso, NFT. Essi per le società rappresentano un modo
per comunicare il valore innovativo dell’organizzazione e per l’utente rappresenta una grande utilità.

Dati provenienti da attività di marketing intelligence


Si basa su dati primari di fonte interna, derivanti da attività di marketing intelligence. Una volta identificata
l’esigenza informativa connessa a un’analisi da effettuare o a una decisione da maturare, alcuni componenti
del personale dell’impresa vengono coinvolti nella fase di raccolta dei dati. Solitamente partecipano coloro
che, per loro mansione, hanno la possibilità di osservare determinati fenomeni di mercato o di entrare in
contatto con i clienti, come il personale appartenente alla funzione vendite o commerciale (area manager, key
account manager, i merchandisers).

La raccolta avviene secondo procedure strutturate e l’utilizzo di strumenti standardizzati, come le schede
clienti e le schede concorrenti. Oggi la maggior parte delle imprese ha informatizzato la propria rete di
vendita, dotando i venditori di personal computer portatili e/o tablet/smartphone attraverso cui i dati vengono
raccolti e trasferiti direttamente in forma elettronica.

8
Se svolta in modo continuativo, questa attività consente di tenere sotto controllo i clienti e concorrenti,
tenendo quindi sotto controllo la posizione competitiva dell’impresa.

Per quanto riguarda i clienti solitamente vengono richiesti dati riguardanti:

▪ L’esistenza nel mercato di clienti nuovi oppure potenziali (cioè che già acquistano la categoria di
prodotto o servizio, ma dai concorrenti): in questo caso si richiedono dati descrittivi delle
caratteristiche anagrafiche dei clienti e del loro grado di interesse per l’impresa

▪ L’evoluzione dei clienti attuali: in questo caso si richiede di segnalare qualunque cambiamento nelle
caratteristiche, nelle strategie e nei comportamenti dei clienti attuali

▪ L’emergere di bisogni o comportamenti nuovi: è importante per l’impresa conoscere, con anticipo sui
concorrenti, l’esistenza di benefici nuovi ricercati dai clienti oppure di comportamenti innovativi
d’acquisto e di utilizzo o consumo dei prodotti

Per quanto riguarda i concorrenti, i dati sono in gran parte corrispondenti a quelli riferiti ai clienti:

▪ L’entrata di nuovi concorrenti nel mercato o la minaccia di entrata da parte di concorrenti potenziali: in
questo caso si richiedono dati descrittivi delle loro caratteristiche anagrafiche, delle loro competenze
chiave, delle loro strategie, dei loro portafogli prodotti e clienti e dei loro risultati economici e
competitivi

▪ L’evoluzione dei concorrenti attuali: il monitoraggio sistematico delle attività dei concorrenti riguarda
qualunque variazione nella loro organizzazione, nelle strategie, nelle decisioni, nei comportamenti e
nei risultati che possono avere un impatto sulle relazioni con il mercato di riferimento

Le attività di market intelligence possono essere svolte in modo continuativo oppure progettate per la
soddisfazione di esigenze specifiche:

- Per le attività di marketing intelligence continuative, il personale coinvolto è solitamente quello


delle funzioni vendite o commerciale. Sulla base delle informazioni necessarie si definiscono delle
procedure di rilevazione che descrivano la tipologia di dati da raccogliere, il formato con cui trasferirli
e i periodi di raccolta. È buona norma corredare la richiesta con l’inserimento di tale attività nella
definizione delle mansioni (job description) del personale della rete di vendita, con la condivisione
delle motivazioni alla base dell’attività e dell’utilità che ne deriva, e con il collegamento di un adeguato
sistema di incentivi che motivi e crei consenso verso lo svolgimento di tale attività

- Per le attività di market intelligence sporadiche, possono essere coinvolti anche altri ruoli aziendali,
selezionati sulla base della possibilità di entrare in contatto con i soggetti o i fenomeni da osservare o
analizzare

In questa area di realizzano le attività di benchmarking, confrontando il brand con i concorrenti rilevanti in
termini strategici sulla base delle variabili importanti per l’impresa come, ad esempio, distribuzione, prodotto,
prezzo, forza vendita, R&S.

Dati provenienti da ricerche ad hoc


Quando non si riescono a reperire né i dati primari da fonti interne né dati secondari di alcun genere, l’analista
progetta un processo di raccolta di dati ad hoc, processo che dà vita a una ricerca di marketing. Si parla di
dati raccolti tramite una ricerca di marketing quando viene innescato un processo di rilevazione
specificatamente progettato per l’effettuazione di una particolare analisi o per l’assunzione di una precisa
decisione di marketing.

Le ricerche di marketing sono formate da dati primari provenienti da fonti esterne. Esse servono per:

- Capire e magari accorgersi di verità che le nostre convinzioni ci nascondono

- Controllare gli esiti delle attività di mercato dell’impresa

- Riuscire a vedere bene dove gli altri guardano

9
Dunque, l’attività di ricerche di marketing serve a supportare la comprensione dei problemi e quindi le
decisioni e il controllo dei risultati.

L’utilizzo del SIM e delle ricerche di marketing


Un’impresa, che dispone di informazioni e investe in ricerche di marketing, per definizione utilizza tali dati per
le proprie analisi e decisioni. Nonostante questo, numerose imprese, pur disponendo di informazioni, non le
utilizzano per gli scopi per cui sono state generate. Le cause di questo comportamento possono essere
molteplici, tra cui:

o La scarsa fiducia che i potenziali utilizzatori dei dati hanno verso il fornitore dei dati stessi, la qualità
dei dati e le infrastrutture tecnologiche del sistema. Spesso, infatti, i dati non vengono utilizzati a
causa delle cattive relazioni esistenti tra il personale del Marketing e quello delle funzioni che produce
i dati (come le Vendite).

o La struttura organizzativa e i meccanismi operativi potrebbero non favorire l’uso dei dati
disponibili. Senza la presenza di meccanismi di relazione inter-funzionali, se i sistemi di decisione
prevedono un forte accentramento, se i sistemi di comunicazione interna contemplano un controllo
forte sui contenuti e sulle procedure, si potrebbe avere una scarsa motivazione da parte dei potenziali
utilizzatori dei dati

Per ovviare a tali problemi, le imprese devono investire nel miglioramento delle relazioni al proprio interno,
volte allo sviluppo di fiducia inter-funzionale e dell’efficacia dei loro sistemi di gestione dell’informazione e
della comunicazione, in modo che i dati generati siano quelli ritenuti adeguati dai potenziali utilizzatori e
vengano distribuiti nei tempi e nelle modalità ritenuti coerenti con le esigenze degli utilizzatori stessi.

CAPITOLO 2 – LE RICERCHE DI MARKETING: VEDERE, ASCOLTARE, MISURARE

RIFLESSIONI PRELIMINARI
Le ricerche costituiscono un grande supporto per le scelte di marketing dell’impresa. Nell’attuale visione del
marketing management le ricerche andrebbero condotte, all’interno dell’organizzazione d’impresa, in
un’ottica integrata con le altre attività informative, così da designare il sistema informativo di marketing.

ESOMAR, l’associazione internazionale di riferimento della professione, inizia a proporre la sostituzione


dell’espressione market research con una parola: insight. L’insight starebbe a significare il mestiere del
cogliere ciò che i consumatori pensano, sentono, credono e desiderano, facendo ricorso a ogni strumento,
tecnologico e non, a disposizione, integrando l’uno con l’altro se utile e necessario.

Conviene sottolineare il sussistere di 3 aspetti basilari delle ricerche:

1. La necessaria multidisciplinarietà delle conoscenze del ricercatore di marketing, il quale deve saper
attingere a diversi bacini conoscitivi per costruire le domande più efficaci e gli itinerari più efficienti ai
fini del perseguimento degli obiettivi di indagine

2. Il ruolo strumentale che le ricerche assumono all’interno dell’attività di marketing management, che
impone una definizione del piano di ricerca che sia direttamente connesso a un obiettivo o a un
sistema di obiettivi conoscitivi legati alla gestione delle relazioni di scambio dell’impresa

3. L’intersoggettività dell’azione di ricerca, dovuta a problemi tecnici di realizzazione e alla necessaria


divisione e specializzazione del lavoro, per cui l’attività di ricerca viene a configurarsi una duplice
veste, tecnica e relazionale

Risulta, quindi, che la ricerca di marketing emerge come il risultato finale di una complessa rete di
conoscenze, relazioni e specializzazioni funzionali.

10
La ricerca e il management di mercato
Le ricerche forniscono la conoscenza necessaria ad assumere tutte le scelte del “fare mercato”, agevolando
l’esecuzione dei necessari processi manageriali. Esse consentono di fornire dati, e quindi informazioni,
derivanti da un’attività di raccolta progettata e realizzata ad hoc, ovvero con un preciso obiettivo conoscitivo.

Un tipico output di ricerca, per esempio, è la mappa di posizionamento di marca, oppure l’individuazione di
segmenti di domanda o l’analisi comparata fra diverse opzioni di nuovi packaging. Si tratta, pertanto, di dati
primari che si raccolgono in diversi modi: attraverso un’apposita rilevazione sul campo (fieldwork); mediante
la raccolta dei dati relativi alle digital property aziendali (si riferiscono all’insieme di siti, piattaforme, dati,
account e diritti controllate da un’organizzazione o un singolo nello spazio digitale) – per esempio statistiche
sulla visualizzazione delle pagine del website - con richieste interne (per esempio, consultazione del database
clienti interno).

Le digital analytics, però, non rientrano nelle ricerche di marketing per due motivi:

1. La contaminazione metodologica dell’offerta degli Istituti

2. La concorrenza delle informazioni offerte sui medesimi problemi

Tutti gli istituti di ricerca offrono ormai anche servizi di analisi dati, sia per soddisfare una crescente richiesta
da parte dei loro clienti sia per arricchire il proprio portafoglio d’offerta e differenziarsi dai competitor. Una
prassi cui si ricorre spesso, poi, è quella di integrare i dati del database con quelli da ricerca, cercando di
arricchire l’informazione di marketing. Per questo motivo, i confini fra le due fonti di conoscenza saranno
sempre più sfumati e annullati.

La seconda ragione per la quale occorre segnare il confine fra conoscenza di marketing proveniente dalla
ricerca e dai dati digitali, è il fatto che sempre più spesso sono considerati alternativi. Ad esempio, c’è chi
ritiene che una buona analisi dei dati relativi ai follower Instagram di un dato brand, possa fornire informazioni
sui clienti, attuali e potenziali, molto più accurate e più economiche di quelle che una ricerca ad hoc sia in
grado di offrire.

I PLAYER
I player dal lato dell’offerta nell’ambito delle ricerche di marketing sono le società di consulenza che hanno
come core business le ricerche di marketing. Il principale global player è Esomar, ma vi sono anche altre
come IRI, Oracle, Accenture.

L’associazione italiana che unisce le principali società di consulenza è ASSIMR, che riunisce società di
consulenza come Doxa, Gfk, Toluna…

Tali player offrono una gran varietà di servizi che possono essere suddivise in 3 grandi categorie:

1. Market research: sono ricerche di mercato che riguardano ricerche descrittive dell’economia dei
mercati da un punto di vista settoriale, geografico, canali distributivi, studio della domanda potenziale
ed eventuale identificazione del target. Un esempio sono studi di settore di Datamonitor, Economic
outlook interni. Tali ricerche producono dati primari e informazioni utili a delineare lo spazio specifico
di competizione all’interno di un più ampio mercato aggregato. Rientrano in questa fattispecie
l’elaborazione delle previsioni quantitative (forecast) sulle vendite, sulla penetrazione dei mercati,
ecc…

2. Le ricerche di marketing sul consumer insight: supportano il management nella comprensione


profonda del target; valutano le percezioni, le motivazioni più profonde e le relazioni del target a
ipotesi di strutturazione dell’offerta (product offering); valutano le reazioni del target a ipotesi di
formulazioni degli strumenti operativi di marketing, comunicazione in primis. Un esempio è
Usage&Attitudes (sono ricerche che studiano il comportamento di utilizzo del consumatore che
studiano gli usage e le attitude, ovvero le opinioni radicate con riferimento al prodotto/brand/servizio
11
del consumatore), Concept test (test per il concetto di prodotto prima di lanciare un nuovo prodotto),
Brand image

3. Marketing measurement: monitorano il progresso delle marche nel mercato (quote di mercato,
prezzo, brand awareness, copertura distributiva, comportamenti di consumo, concorrenti, GRP’s
sviluppati) con continuità spazio-temporale; misurano e stimano, e in questo caso si parla di forecast,
le dimensioni del mercato di riferimento e la loro evoluzione. Esempi sono analisi di panel di IRI,
Nielsen, Auditel. Sono utili al fine di supportare le scelte d’investimento sulle attività operative (market
operations): product placement, spot pubblicitari, … è compito del marketing measurement generare
le informazioni atte a governare in modo corretto questa attività, indirizzando gli investimenti dove e
quando necessario, nonché misurarne l’efficacia nei termini degli obiettivi stabiliti

I player dal lato della domanda, ovvero i clienti, sono i big player poiché sono coloro che hanno le risorse
finanziarie per poter effettuare le rilevazioni, oltre il fatto che sono soggetti che operano in contesti non
tradizionali, ma evolutivi, avendo una maggiore sensibilità e riscontrando una maggiore utilità nelle ricerche di
marketing. Tale attività viene realizzata sia internamente alle imprese sia rivolgendosi a soggetti esterni. I
clienti acquistano soprattutto ricerche continuative su panel o su retail, su famiglie, ecc… ma anche ricerche
quantitative ad hoc (es. Usage&Attitude) e qualitative ad hoc, fondamentali per supportare le decisioni
manageriali. Poi vi sono anche le Mistery Shopping (quando il ricercatore si finge cliente per verificare come
reagisce l’impresa alle istanze del cliente). I settori che spendono maggiormente sono i settori farmaceutici,
grocery (beni di consumo, prodotti per la bellezza e per la casa, ecc…), settore media, libri, entertainment, e
settore dei beni durevoli per la casa. Le imprese hanno bisogno sempre di più di informazioni di mercato e di
insight sul consumatore, accelerato dalla pandemia che ha determinato una necessità maggiore di investire in
ricerche da parte delle imprese.

Le sfide quotidiane per i responsabili Marketing, Sales, Prodotto, Brand, Category manager, Comunicazione
sono:

• Rivoluzione digitale e innovazione tecnologica continua

• Saturazione della domanda

• Intensificazione della concorrenza

• Cicli di vita sempre più breve dei prodotti

• Pressione sul pricing

• Consumatori sempre più empowered e omnichannel

Il contesto e il consumatore sono sempre più difficili da comprendere e il mercato richiede tempi di reazione
sempre più stretti. Per questo le imprese hanno bisogno di strumenti di comprensione innovativi, che
consentono di accedere in maniera immediata alle informazioni cruciali per il loro business. Il futuro delle
imprese è legato alla disponibilità di dati e insight che possano efficacemente orientare le decisioni
strategiche ed operative.

Si afferma un nuovo modo di fare marketing, detto data driven marketing, basata su una continuativa
raccolta di dati che sono analizzati e trasformati sistematicamente in “actionable insight” (ovvero sei consigli
utili per realizzare azioni).

Per questo le imprese utilizzano in modo sistematico:

- Ricerche qualitative e quantitative

- Ricerche tradizionali e technology enabled (es. digital data analytics, social listening)

- Ricerche attive e passive (prevede l’osservazione)

Le principali prospettive professionali sono:

▪ Ricercatori e account istituti di ricerca

12
▪ Ricercatori di centri studi indipendenti

▪ Analisi società di consulenza di marketing

▪ Analisti grandi imprese industriali e di servizi

▪ Analisti di uffici studi di grandi imprese

▪ Competenza chiave del marketing manager

Le competenze e le skill richieste in area Marketing e comunicazione sono:

- Competenze di base, come capacità di team working e capacità di gestione efficiente del tempo

- Competenze, come capacità di analisi e gestione di database, capacità di condurre analisi statistiche
di dati primari e secondari e relativa interpretazione dei risultati

- Competenze informatiche, come conoscenza del pacchetto Office e di Outlook

- Competenze preferenziali, come precisione e autonomia

- Capacità di problem solving

- Resistenza allo stress

- Flessibilità

- Comunicazione verbale e abilità nelle presentazioni

- Capacità di sintesi

- Pensiero critico e creativo

I riferimenti culturali del ricercatore


Il marketing è un corpo di conoscenza multidisciplinare. Il profilo professionale del ricercatore di marketing si
è andato man mano strutturando e codificando a partire da 4 grandi ambiti scientifici, pertinenti al campo
delle scienze sociali:

- L’economia: in molte organizzazioni l’ufficio Ricerche è nato come naturale evoluzione organizzativa
dell’ufficio studi economici, cui erano affidate mansioni tecniche in ordine alla stima, alla misura e alla
definizione del mercato, dei settori e degli ambienti competitivi. In altri casi, centri studi economici
indipendenti hanno visto nel marketing un utile sbocco applicativo ulteriore per il proprio know how
specifico

- La sociologia: all’interno dei centri studi sociali i flussi e le strutture dei comportamenti collettivi, le
tematiche di ricerca legate al comportamento d’acquisto e consumo delle famiglie sono sempre stati
oggetto di studio

- La psicologia: le grandi aziende pubblicitarie americane hanno saputo intravedere nella psicoanalisi
un bacino dal quale attingere idee, concetti, teorie e strumenti di raccolta di informazioni su gusti e
desideri dei consumatori, utili ad adattare al meglio i messaggi pubblicitari e alcune componenti della
product offering

- L’antropologia: negli Stati Uniti la consapevolezza e la conoscenza delle differenze culturali fra le
persone di una stessa comunità, del valore simbolico dei comportamenti e degli oggetti, del senso
dell’individuo all’interno della collettività, si sono sempre imposte all’attenzione dei marketer

Naturalmente, oggi che le condizioni di complessità dei mercati sono più evidenti, il ricercatore di marketing
deve saper adeguare la propria professionalità alle nuove forme dell’espressione esistenziale ed economica
delle persone e delle imprese. Egli deve ampliare i propri orizzonti culturali secondo due dimensioni: una
orizzontale e una verticale: la prima riguarda l’interessamento che egli avrebbe verso altri campi del sapere,
direttamente e indirettamente precursori di contributi utili al marketing management (come la semiotica per le

13
scelte di comunicazione); la seconda concerne, invece, il necessario approfondimento delle conoscenze nelle
singole materie interessate dalle ricerche, come i software di analisi testuale in statistica.

Possiamo quindi affermare che, oltre a una formazione di base nelle scienze sociali, al ricercatore è richiesta
una cultura in:

- Scienze statistiche e matematiche: la capacità degli algoritmi di supportare il management non solo
nella rappresentazione quantitativa dei fenomeni, ma soprattutto nella loro analisi critica è sempre più
importante per sostenere i processi di marketing delle imprese. Gli studi di matematica applicata
apportano anche nuove prospettive d’analisi e impostazione dei problemi di marketing, configurando
linee di lavoro estranee alla tradizionale disciplina e comunque capaci di supportare i processi
decisionali del management

- Scienze umane: un consumo che si sposta verso i significati, trainato dagli universi simbolici dei
brand e dalla progettazione di esperienze che prendono forma in un ambiente di consumo rigenerato
dalla digitalizzazione, un consumo dove ognuno è influencer di rete di persone; un consumo intriso di
umanità richiede, quindi, nuove chiavi interpretative e analitiche. Per questo assumono rilevanza
l’antropologia culturale ed economica, la semiotica che aiuta nella comprensione delle strutture di
senso dell’agire di consumo

- Scienze della mente: le neuroscienze, in particolare cognitive, hanno sviluppato metodi per
analizzare e capire aspetti del comportamento umano. Si basano su tecniche di rilevazione e analisi di
dati elementari che consentono di studiare le risposte dell’uomo agli stimoli esterni (come uno spot
pubblicitario)

Le basi epistemologiche
Nessuna ricerca, per quanto ben progettata e realizzata, potrà condurre a una rappresentazione oggettiva,
asettica e veritiera della realtà oggetto di studio. Il compito del ricercatore di marketing è quello di
immaginare come rappresentare, nella maniera più veritiera possibile, la parte di realtà che interessa,
servendosi del metodo scientifico e del bagaglio di tecniche che ha a disposizione. Di conseguenza, nella
ricerca non si parla mai di verità, ma di veridicità e verosimiglianza. Questo perché molte scelte che il
ricercatore dovrà prendere sono influenzate dalla soggettività, conferendo ai risultati della ricerca una validità
parziale, limitata nel tempo e nello spazio.

Quindi, le ricerche forniscono una conoscenza verosimile della realtà osservata, condizionata dai limiti della
metodologia prescelta.

I metodi sui quali si fonda la ricerca possono essere ricondotti alle 2 grandi categorie di approccio alla
conoscenza razionale, quello induttivo e quello deduttivo:

• La razionalità induttiva è definibile come un cammino di approssimazione a una conoscenza


generale attraverso la disamina di un caso particolare

• La razionalità deduttiva è un cammino di qualificazione di una conoscenza generale già acquisita,


attraverso la disamina di un caso particolare

L’induzione costituisce il modo naturale del pensiero umano, consente il formarsi di concetti mediante
l’astrazione, ovvero l’estensione intellettuale dei risultati di un’osservazione parziale a regola generale. I
ragionamenti di astrazione, la determinazione delle scale di misura, la selezione delle domande sono scelte
soggettive del ricercatore e quindi limitate e criticabili. La natura induttiva del pensiero umano ha dei limiti che
condizionano la forza scientifica della conoscenza prodotta: affinché questa possa essere ritenuta valida,
deve offrire precisione, imparzialità e misurabilità oggettiva dei fenomeni scelti.

I metodi deduttivi sono utilizzati dalle ricerche esplorative, ovvero quelle ricerche che si pongono l’obiettivo di
studiare un fenomeno che appare piuttosto vario ed eterogeneo nelle sue manifestazioni (es. le determinanti
della soddisfazione degli utilizzatori di elettrostimolatori per lo sport oppure il concetto di benessere fisico e il
ruolo del consumo di acqua).

14
La deduzione costituisce il percorso di ricerca mediante il quale si parte da una formulazione generale che il
ricercatore ha in mente e condivide con il committente, e si arriva a una sua verifica empirica. Anche in
questo caso il ricercatore deve prendere delle decisioni, che saranno soggettive e parziali. Infatti, la
formulazione del problema cui si intende dare una risposta è di per sé un’operazione soggettiva, in quanto
riguarda l’individuazione dei fattori potenzialmente rilevanti rispetto al problema stesso e la formulazione di
ipotesi circa gli effetti del loro manifestarsi.

L’aspetto più delicato di questo metodo è nell’effettiva scelta delle ipotesi di lavoro che devono collegare i
fatti osservati alla teoria di riferimento. Un’ipotesi è un’affermazione che esprime in modo netto una relazione,
che può essere casuale o meno, dalla cui verifica con l’osservazione dipende la validazione o meno della
teoria. L’ipotesi ci sposta subito sul piano operativo della ricerca, in quanto per esprimerla non si devono
utilizzare le variabili concettuali delle quali si compone la teoria medesima, bensì le loro definizioni operative,
ovvero ciò che si deve fare per misurare attraverso manifestazioni osservabili quella determinata variabile
concettuale, in uno specifico caso concreto. Anche nella formulazione delle ipotesi i gradi di libertà del
ricercatore sono numerosi e perciò potrebbero essere soggettivi e parziali.

Nella ricerca di marketing l’approccio deduttivo è utilizzato dalle ricerche descrittive e causali.

L’approccio descrittivo di ricerca è volto a rappresentare una situazione, un fenomeno o un comportamento


in un determinato contesto spazio-temporale. In questo caso è possibile effettuare, ad esempio, una sorta di
fotografia del mercato, delle performance di un prodotto, dei comportamenti di uno dei partner coinvolti nello
scambio. La ricerca descrittiva presuppone però una conoscenza profonda dell’oggetto: nella ricerca
descrittiva, infatti, il ricercatore tenta di confermare o confutare le ipotesi attraverso una verifica sul campo, a
differenza della ricerca esplorativa dove si cerca di accumulare il maggior numero possibile di fatti e dati per
sviluppare delle ipotesi.

Nella ricerca descrittiva le osservazioni possono essere condotte secondo due prospettive distinte:

- Longitudinali: hanno l’obiettivo di rappresentare l’evoluzione nel tempo di un determinato fenomeno,


attraverso la rilevazione ripetuta, più volte ma con le medesime modalità tecnico-metodologiche, delle
variabili che lo caratterizzano. Tali tecniche vengono utilizzate attraverso due modalità diverse di
campionamento: il panel, che rappresenta un campione fisso di elementi sul quale vengono condotte
rilevazioni a intervalli di tempo predefiniti, e il campione indipendente, ovvero un campione variabile
per ogni ciclo di misurazione

- Trasversali: descrivono un fenomeno fotografandolo in un dato momento, in un’ottica statica, ma in


comparazione con altri eventi; si utilizzano quando si vogliono definire le variabili che descrivono un
dato comportamento di diversi sottogruppi della popolazione, per esempio il possesso e l’utilizzo del
telefono cellulare per fascia d’età

Le ricerche descrittive sono quelle più utilizzate in quanto si fondano su tecniche statistiche di analisi e
procedimenti deduttivi relativamente semplici. Tali ricerche, però, non consentono al management di
individuare gli effetti che ciascuna variabile, che caratterizza il determinato problema, produce su di esso.

A questo particolare tipo di problema manageriale risponde la ricerca causale, che può considerarsi
l’esempio più evoluto di ricerca. Non tutti i temi di marketing sono affrontabili con un approccio di questa
natura; vi sono infatti precise condizioni che occorre soddisfare perché si possa impostare una ricerca
causale:

• La covariazione tra le variabili, cioè il fatto che ogni cambiamento di una variabile X dovrebbe
corrispondere una modifica nella variabile Y

• L’ordine cronologico degli interventi

• L’assenza di altri fattori esterni che possono influenzare la covariante

15
La ricerca causale si avvale della sperimentazione quale forma di indagine scientifica: in essa il ricercatore
controlla e manipola, attraverso il trattamento o l’azione sperimentale, uno o più variabili d’azione, definite
“unità sperimentali”, e osserva in che modo si modificano le variabili di risposta a esse collegate.

Inoltre, l’interazione tra intervistato e intervistatore conferisce ulteriori caratteri di soggettività al lavoro di
ricerca. Gli effetti di disturbo sono sostanzialmente riconducibili a cinque tipologie:

In conclusione, le ricerche non consentono di pervenire a una verità, ma possono aiutare il manager a
diminuire l’ignoranza di un certo fenomeno, sul suo verificarsi e sulle sue possibili modalità di manifestazione.

I PRINCIPALI APPROCCI DI METODO – spiegazione aula


Gli approcci di ricerca qualitativa e quantitativa sono conseguenza di due scelte metodologiche di fondo:

1. La prima possibile scelta è quella dell’approccio esplorativo, il quale prevede che si parta
dall’osservazione del caso specifico e a partire da questa osservazione si sviluppa un processo di
astrazione che arriva a delle conclusioni di tipo generale.

Si basa sul procedimento induttivo:

▪ Si parte dal conoscere una realtà specifica per indurre delle conclusioni generali. Miro alla conoscenza
generale attraverso la conoscenza di n casi particolari. Avviene quando conosciamo poco i fenomeni
da esplorare, e quindi non potendo dedurre, possiamo solo indurre, esplorare, partire quindi dal dato
specifico esplorandolo in profondità

▪ Soggettività: scelta dei casi particolari; scelta del metodo d’osservazione in tutte le sue componenti;
processo di astrazione

▪ Applicazioni: conoscenza degli atteggiamenti verso un prodotto completamente nuovo

2. La seconda possibile scelta è quella dell’approccio deduttivo, il quale enuncia una teoria generale
verosimile e ne cerca dimostrazione attraverso l’esame di situazioni particolari

o i fenomeni sono maggiormente conosciuti, infatti esiste una ricerca che precedentemente ha
fatto chiarezza su alcuni aspetti di questi fenomeni e quindi abbiamo uno storico di fondo che
dà la possibilità di conoscere in parte questi fenomeni, abbiamo delle teorie che ci spiegano
come funzionano questi fenomeni e, alla luce di questa conoscenza sedimentata/pregressa è
16
possibile rilevare la realtà e verificare se effettivamente la teoria si realizza così come era stata
formulata. Possiamo quindi testare delle ipotesi.

o Soggettività: formulazione della teoria e selezione delle fonti a sostegno; definizione delle
ipotesi da verificare; scelta dei casi di osservazione; scelta del metodo di osservazione

o Applicazioni: misura delle customer satisfaction; previsioni di vendita; elasticità della


domanda al prezzo; brand awareness

Le ricerche di marketing che si basano su questo approccio sono di due tipi:

I. Le ricerche descrittive sono le più banali e più spesso vengono realizzati dagli studi di ricerca
privati per i clienti che molto spesso chiedono appunto l’andamento della quota di mercato, la
posizione competitiva rispetto i clienti. Sono dunque fotografie di uno scenario sia in termini statici
(tempo t0) sia dinamici

II. Le ricerche causali sono più rare e più costose. L’approccio consente di stabilire l’effettivo
legame di causa-effetto tra alcune variabili. Ma questo legame bisogna ipotizzarlo, considerando
esperienze pregresse che consentano di ipotizzare qual è la conseguenza al variare di una determina
variabile.

IL PROCESSO DI RICERCA

Dal problema di mercato al tema di ricerca


Un progetto di ricerca deve poggiare su una chiara e diretta relazione con uno specifico quesito, riflesso, a
propria volta, di un preciso problema di mercato.

Il processo di ricerca è “la sequenza organizzata di attività, concomitanti e successive, attraverso la quale
si perviene alla definizione ed alla realizzazione operativa della formula di ricerca deputata a colmare la
carenza informativa dell’impresa”.

La finalità è quella di rispondere alle domande del cliente o a quelle del reparto marketing. La relazione fra il
problema di mercato e l’obiettivo conoscitivo della ricerca non è lineare: occorre che si passi attraverso un
passaggio di riflessione e analisi, che spesso coinvolge più persone, che serve a definire in che modo la
ricerca possa soddisfare il fabbisogno conoscitivo di marketing. La realtà delle cose mostra che a ogni dato
problema di mercato espresso dal committente corrispondono alcune soluzioni di ricerca e mai una sola
strada obbligata. Il lavoro del ricercatore consiste infatti nell’individuazione del percorso metodologico
relativamente ottimale rispetto al problema indicato dal committente.

Ciò implica la coesistenza di uno spettro definito di alternative tecnico-metodologiche fra le quali il
committente saprà puoi scegliere. Detta scelta si verifica in ragione di una serie di elementi, fra i quali:

▪ Il budget stanziato per la ricerca

▪ I tempi che si è disposti ad attendere per i risultati

▪ Le capacità manageriali del committente, ovvero il suo


grado di conoscenza delle tecniche di ricerca e di
dimestichezza con le varie modalità di presentazione
dei risultati

▪ La stima soggettiva dei trade off insiti in ciascuna delle


alternative metodologiche

17
Possiamo infine affermare che il progetto di ricerca è il frutto di un’elaborazione negoziale fra i soggetti della
ricerca, che pondera gli obiettivi conoscitivi di marketing con elementi ad essi estranei.

La tabella seguente mostra degli esempi circa la relazione logica fra il problema di marketing e il tema di
ricerca. La tabella mostra nella prima colonna l’area del marketing management cui fa riferimento il problema
che ha prodotto nel committente l’esigenza di effettuare una ricerca.

Solitamente accade che il committente percepisca il problema di marketing in forma generica e indefinita e
che lo presenti al ricercatore in modo informale (con una semplice telefonata) oppure in modo formale,
mediante uno specifico documento chiamato brief. Naturalmente accade anche che il committente indichi
con precisione il problema di marketing.

Questo dipende da una serie di circostanze, che sono:

a. L’esperienza del committente

b. La presenza in azienda di prassi consolidate di lavoro

c. Il grado di fiducia del committente nell’istituto

18
d. La necessità di ridurre i tempi di ricerca

e. Il desiderio del committente di mettere alla prova le capacità dell’istituto o del ricercatore

A questo punto è possibile individuare un primo confronto tra committente-ricercatore: ovvero la


formalizzazione del problema di marketing in uno statement condiviso. Nel corso di una conversazione con il
committente, il ricercatore cerca di giungere a una definizione chiara e non ambigua del problema di
marketing.

Alcune domande che aiuteranno il ricercatore in questo compito possono essere:

o Di che prodotto/mercato stiamo parlando? Qual è la visione aziendale del mercato?


o Come è impostato il marketing dell’azienda?
o Qual è in azienda lo stato delle conoscenze sul tema della ricerca?
o Sono state fatte di recente altre ricerche sullo stesso tema o su temi similari?
o Quali sono le idee e le convinzioni del committente sul problema di marketing in esame?
o Quali scelte di marketing si intendono assumere sulla base dei risultati della ricerca?
o Il tema di ricerca riveste per l’azienda una natura strategica o operativa?
o Chi saranno gli utilizzatori della ricerca? Qual è il loro ruolo aziendale e che competenza di ricerca
possono vantare? Che atteggiamento hanno verso le ricerche?
Il primo atto di relazione si chiude con una definizione completa del problema di marketing percepito dal
committente, che porta al secondo atto: la traduzione del problema di marketing in una tema di ricerca
contenente espliciti obiettivi conoscitivi.

Gli obiettivi conoscitivi costituiscono la versione operativa della formulazione del problema di ricerca e
costituiscono il punto di partenza del processo di ricerca vero e proprio. La regola empirica generale vuole
che a un dato problema di marketing possano corrispondere diversi temi (o problemi) di ricerca, ciascuno
legato un certo modo di vedere il problema medesimo.

Il ricercatore deve:

a. Raccogliere informazioni firm specific che sono utili per contestualizzare il problema di marketing

b. Esporre la propria comprensione del problema in termini diversi da quelli usati dal committente, per
essere certo di aver colto bene lo spirito della richiesta

c. Accingersi a presentare una serie di possibili esiti di ricerca fra i quali scegliere, sapendo che ciascuno
di essi risulta dalla combinazione di vari approcci alternativi

A questo punto si chiude anche il secondo atto, in cui il ricercatore avrà ottenuto ciò che gli serve per iniziare
a progettare la ricerca e cioè:

a. La focalizzazione del problema di mercato rispetto alla traccia iniziale

b. Una traduzione del problema di mercato nel linguaggio della ricerca

19
c. L’allineamento delle aspettative di risposta del committente con le risultanze di ricerca

In sostanza, il percorso che va dalla percezione del fabbisogno formativo del committente alla definizione del
progetto di ricerca e al suo successivo esperimento, richiede alle persone coinvolte: l’assunzione di scelte
continue, nelle quali si esaltano le capacità tecniche, nonché la capacità di far tendere un’organizzazione
temporanea verso un obiettivo predefinito, in cui emergono le capacità relazionali.

I passi del processo di ricerca sono:

a. Nel processo di ricerca si parte con il problema di marketing, il quale rappresenta il primo
fabbisogno conoscitivo che viene avvertito dal management che si occupa di gestire il marketing
dell’impresa (può essere il direttore marketing, il brand manager, il responsabile della comunicazione
di marketing)

b. Il problema si trasforma nella definizione esatta degli obiettivi di ricerca (2°fase)

c. La definizione della formula di ricerca (proposal) rappresenta il progetto, ovvero la proposta del
progetto che incamera il disegno di tutta la ricerca in termini di target, di dati, delle cuciture operative
dei data collection, il disegno campionario (statisticamente significativo o non statisticamente non
significativo) e poi prevede quali saranno le tecniche da utilizzare per l’analisi, infine si definiscono le
tecniche di presentazione

d. La quarta fase, una volta definito come si svolgere tutto il progetto attraverso la proposal, prevede
l’esecuzione vera e propria: raccolta dati, trattamento dati, analisi dei dati e redazione report finale

e. L’ultima fase è rappresentata dalla presentazione dei risultati finali

I soggetti della ricerca


In passato, diverse imprese internazionali di grandi dimensioni propesero per l’internalizzazione dell’attività di
ricerca. Queste realtà costituirono, formarono e avviarono al mestiere le prime generazioni di ricercatori.

Con gli anni, questa scelta perse d’importanza a causa delle condizioni di sostenibilità economico-finanziaria
e dal fatto che aumentava all’esterno l’offerta sempre più specializzate e più efficiente in servizi di ricerca alle
imprese. Questa si caratterizzò da subito per l’elevato livello di professionalità, competenza e flessibilità di
risposta alle esigenze delle imprese industriali.

Tale circostanza, unita alla considerazione dei vantaggi dell’esternalizzazione sulla struttura dei costi
aziendali, produsse progressivamente la situazione attuale, nella quale si può parlare di un vero e proprio
mercato delle ricerche di marketing, caratterizzato da un’offerta e da una domanda specifiche.

I soggetti si dividono in committente (impresa, clienti, brand) che commissionano la ricerca, e dall’altra parte
l’istituto di ricerca (BVA Doxa, Ipsos, Nielsen). La percezione del bisogno informativo è in capo al
committente. Successivamente, il committente e l’istituto di ricerca devono condividere il briefing e discutere
per definire l’obiettivo specifico di ricerca. Una volta approvato il briefing, bisogna progettare la ricerca da
parte del committente nei confronti dell’istituto di ricerca, il quale elabora la formula di ricerca (proposal). Il
progetto incorpora anche la quotazione, la quale diventa oggetto di una negoziazione all’ultimo centesimo. In
seguito, il progetto viene presentato dall’istituto di ricerca, dove avviene in seguito l’accettazione formale del
progetto e della formula di ricerca da parte del committente. Una volta avvenuta l’accettazione da parte del
committente, l’istituto inizia l’esecuzione fino ad arrivare all’elaborazione del report finale.

Sia lato committente sia lato istituto intervengono diverse figure professionali eterogenee che devono essere
coordinate.

I soggetti della ricerca dal lato del committente sono:

20
• L’iniziatore si tratta del marketer, che percepisce l’insorgere del fabbisogno informativo e quindi si
rivolge al ruolo interno deputato a gestire le relazioni con i fornitori di ricerca (lo specialista) perché si
attivi nel selezionare il fornitore esterno più idoneo e avvii l’intera procedura di lavoro

• Lo specialista si tratta del manager che, all’interno dell’impresa, ricopre quel ruolo organizzativo
fra le cui mansioni rientra anche quello di gestire operativamente le relazioni con i fornitori di ricerca,
dalla loro selezione e individuazione alla fissazione della data per la presentazione finale dei risultati.
Spesso si relaziona internamente anche con la direzione acquisti, cui spettano talvolta meri compiti di
firma, ovvero di autorizzazione formale, o di scelta effettiva del fornitore, ovvero di autorizzazione
sostanziale, quando gli importi della commessa superino certe soglie dimensionali oppure quando si
acquisti la ricerca mediante procedure di gara orientate al ribasso di prezzo. Esistono anche casi in
cui le imprese predispongono degli Albi Fornitori, richiedendo particolari requisiti per ammettervi gli
istituti che poi saranno consultati dallo specialista quando saranno necessarie delle ricerche

I soggetti della ricerca dal lato dell’istituto vi sono figure come:

• L’account è il ruolo commerciale che generalmente cura le relazioni con i clienti, siano essi
prospect o fidelizzati; ha la responsabilità commerciale di trovare sempre nuove commesse di ricerca
e quella “diplomatica” di mediare fra il committente e il ricercatore, durante tutto il lavoro. Deve avere
grandi capacità organizzative, di gestione del tempo e delle risorse e grande sensibilità e propensione
all’ascolto per essere in grado di capire al meglio le richieste del committente

• Il ricercatore È il ruolo tecnico all’interno dell’istituto di ricerca la cui responsabilità primaria è


quella di tradurre il problema di marketing indicato dallo specialista in un progetto di ricerca
formalizzato, contenente diversi offerte alternative indirizzate al medesimo obiettivo. Solitamente
questa figura prevede una bipartizione gerarchica in junior e senior, a seconda del grado di esperienza
professionale specifica che si richiede alla persona che ricoprirà il ruolo. Talvolta accade che il
ricercatore senior sia di tali esperienze capacità da rendere inutile la presenza dell’analista, facendosi
carico direttamente anche delle sue attività

• L’analista si tratta del ruolo tecnico, solitamente statistico, ma può essere anche un semiologo o
uno psicologo, che lavora a stretto contatto con il ricercatore e lo assiste in tutte le fasi del suo lavoro,
dall’ideazione del progetto di ricerca alla redazione del rapporto finale. All’inizio gli pone in evidenza i
vincoli e le opportunità che caratterizzano le tecniche di analisi potenzialmente applicabili e fornisce
una generica consulenza in merito alla determinazione della formula di ricerca; spesso poi, concorda
con il ricercatore le forme di presentazione dei risultati d’analisi (output) sui quali quest’ultimo si
baserà per la stesura del report finale

• Il responsabile di rilevazione (field) è un ruolo tecnico all’interno dell’istituto di ricerca che si


occupa di gestire le operazioni della fase di rilevazione (tecnicamente detta field), ma interviene
spesso anche nella predisposizione del progetto di ricerca, facendo presente i vincoli economico-
temporali posti dalla struttura di raccolta dati dall’istituto. Lavora a stretto contatto con il ricercatore e
l’analista, ai quali fornisce la materia prima del suo lavoro, ovvero i file contenenti i dati grezzi o le loro
prime elaborazioni standard

• L’intervistatore è il ruolo tecnico di front-line all’interno dell’istituto di ricerca. È una figura cruciale
perché è dalla qualità dell’esecuzione dell’intervista che dipende la veridicità dei risultati di ricerca. E li
intervistatore, secondo degli approcci metodologici utilizzati, può essere un moderatore o un
osservatore

L’offerta: gli istituti di ricerca


L’istituto di ricerca è un’impresa privata specializzata nella fornitura di servizi di marketing. Al pari di qualsiasi
altra categoria imprenditoriale l’impresa di ricerche può assumere varie dimensioni e configurazioni.

In generale, si può asserire che quanto più un istituto sia di grandi dimensioni e quanto più sia poco
specializzato per settori di attività, tanto maggiore sarà il ricorso che farà internamente alla specializzazione e
21
divisione del lavoro. In questo caso si è in presenza di un istituto a servizio completo: il committente può
affidare l’intero espletamento del processo di ricerca all’istituto, preoccupandosi soltanto di definire con
chiarezza, precisione e senza ambiguità il proprio fabbisogno informativo, in quanto l’istituto dispone di tutte
le strutture, materiali e non, per condurre con successo il compito affidatogli.

Laddove invece l’istituto sia di piccole dimensioni e faccio una scelta di focalizzazione solo su una o poche
fasi del processo di ricerca, si può configurare:

a. L’istituto di rilevazione (field insitute), che mantiene una struttura di rilevazione in home (postazioni
telefoniche, strutture web, sale attrezzate per focus) e/o sul territorio (intervistatori e supervisor
territoriali nelle principali città del paese), ma non dispone generalmente di una struttura di ricercatori
e analisti

b. L’istituto per l’analisi dei dati (statistical analysis e data processing services), che possiede tutte le
risorse, materiali e non, idonee a implementare analisi complesse, attivare simulazioni su dati
campionari, costruire modelli analitici e previsionali. Manca invece la struttura di rilevazione dati e
anche il ricercatore

c. L’istituto di analisi a tavolino (desk research business) che non effettua rilevazioni dirette di dati,
ma elaborare report di ricerca a partire da collezioni di materiali informativi di varia natura. È
generalmente formato da ricercatori e analisti

Esistono comunque forme imprenditoriali ibride. L’industry, infatti, è in continua evoluzione e assume una
configurazione diversa e discontinua per effetto del combinarsi di 3 dinamiche:

• La concentrazione dei player. Il fenomeno avviene mediante operazioni di acquisizione e fusione


oppure accordi strategici e spesso cerca di rispondere a una domanda di coordinamento multicountry
della ricerca a sostegno delle strategie globalizzate delle imprese

• L’ingresso dei grandi player della consulenza direzionale (per esempio Accenture e McKinsey). Il
fenomeno segue le strategie espansive di queste imprese, che possono contare su asset competitivi
di straordinaria efficacia grazie ai quali diviene semplice penetrare mercati limitrofi a quello dei servizi
di consulenza

• La contaminazione digitale dell’attività di reperimento dei dati elementari

Considerando la struttura organizzativa dell’istituto a servizio completo, è possibile identificare 2 distinti


modelli.

Il modello funzionale raggruppa in aree le risorse interne secondo la specializzazione operativa e organizza i
flussi di lavoro secondo procedure formalizzate, diverse da istituto a istituto. L’area Produzione generalmente
gestisce gli intervistatori, i supervisori (deputati al controllo e al
reclutamento degli intervistatori), i capi area (che gestiscono la
rete di intervistatori sul territorio); quest’area si occupa anche di
effettuare il reclutamento degli intervistati, secondo il profilo
decisione nel progetto e di effettuare tutti i controlli di qualità sui
questionari compilati nonché le trascrizioni e le codifiche delle
domande aperte (il cosiddetto verbatim). L’area Servizi
Informativi raggruppa gli informatici e i tecnici che gestiscono le
apparecchiature informatiche come, per esempio, le prestazioni telefoniche per le interviste in sede, i pc
portatili e il server. L’area Commerciale si occupa di tutta l’attività di contatto, promozione e vendita dei
servizi, sia ai potenziali clienti (i prospect) sia a quelli già acquisiti da fidelizzare. L’account partecipa alle
presentazioni dei risultati finali, per rilanciare nuove ricerche a partire dai risultati emersi.

Il modello a focalizzazione si distingue dal modello precedente


per la focalizzazione della funzione ricerche e delle procedure di
lavoro. I ricercatori, infatti, non sono più raggruppati sotto un

22
Direttore Ricerche, ma vi è una prima linea di ricercatori senior, ciascuno dei quali si assume la responsabilità
di gestire le ricerche su un dato mercato (telecomunicazioni, food and beverage) con un cliente chiave, di
gestire un prodotto speciale e di punta o di portare avanti un progetto importante.

L’offerta di un istituto è formalizzabile in modi diversi. In generale distinguiamo:

a. Ricerche ad hoc, ovvero realizzate una tantum per rispondere a un dato problema di marketing
espresso da un committente

b. Fieldwork, ovvero raccolta dati elementari su un questionario fornito dal committente

c. Ricerche consumer e business, ovvero indirizzate a entrambi i target

d. Ricerche mono e multiclient, tanto ad hoc quanto su progetto standardizzato

e. Prodotti di ricerca, ossia formalizzazione di un certo mix metodologico in uno schema d’offerta
compiuto

Ad ogni modo, l’offerta degli istituti si differenzia da caso a caso: alcuni offrono ogni tipo di ricerca, basandosi
su un network internazionale di appartenenza; altri offrono anche ricerche dei cui risultati possono beneficiare
molte imprese (le cosiddette multiclient); altri cercano di costruire la propria offerta per specializzazione di
mercato.

La domanda: il committente di ricerca


Il committente è la persona fisica che si relaziona effettivamente con l’istituto portando il problema di
marketing all’attenzione del ricercatore. Da un punto di vista strutturale, tutto dipende dalla dimensione
dell’organizzazione: il ruolo del committente viene, infatti, svolto a livelli gerarchici differenti e con diversi
gradi di specializzazione, in base alla complessità dell’impresa. In generale, quanto meno articolata si
presenta la struttura di marketing tanto minore sarà il ricorso a ricerche di marketing.

Viceversa, imprese committenti marketing-oriented tenderanno ad avere una complessa tecnostruttura di


marketing che talvolta può svolgere all’interno anche alcune attività solitamente appannaggio degli istituti di
ricerca, come quelle dell’analista e del ricercatore. In quest’ultimo caso le imprese si rivolgeranno all’esterno
solo per l’attività di field.

Il principale ostacolo che il committente deve affrontare è quello di individuare l’istituto di volta in volta più
adatto alle esigenze di ricerca. Data la complessità dell’offerta, nessun singolo istituto sarà il più adatto per
ogni tipo di problema di ricerca e questo spiega il perché, spesso, le imprese si rivolgono a più istituti di
ricerca contemporaneamente.

In linea generale converrebbe a entrambe le parti che la relazione committente-istituto non fosse di breve
durata. Una relazione continuativa, infatti, può condurre a una maggiore comprensione reciproca e
confidenza: il committente potrà apprezzare al meglio le particolari capacità strutturali dell’istituto e le abilità
dei suoi ricercatori; di contro, l’istituto perverrà a una comprensione più profonda del mercato e dei prodotti
del cliente, acquisirà consapevolezza delle problematiche con le quali questo si interfaccia ogni giorno e del
suo modo di lavorare, per cui saprà offrire i risultati facilmente fruibili dal management.

La continuità della relazione committente-istituto consente di attuare in maniera più efficiente ed efficace
l’intero iter che parte dal problema di marketing e giunge al tema di ricerca, in quanto le parti tenderanno a
condividere un linguaggio comune e le modalità di rappresentazione della realtà oggetto di interesse.

23

Il primo passo del percorso decisionale per il committente è quello di capire se sia semplicemente alla ricerca
di un partner cui commissionare un’indagine, oppure gli serva una più ampia consulenza di ricerca. Questa
presa di consapevolezza consente al committente di focalizzare la ricerca, escludendo un gran numero di
soggetti. In generale, l’ESOMAR suggerisce che una buona check list di supporto al committente
nell’individuazione dell’istituto migliore possa essere la seguente:

a. Informazioni di base sull’istituto

▪ Da quanto tempo opera come istituto? La ricerca è il suo solo business oppure è un’attività di
un paniere più ampio di servizi di marketing?

▪ È una società indipendente o appartiene a un network internazionale? Se sì, con che tipo di
legami?
▪ Con che imprese ha lavorato in passato e su che tipo di progetti?
▪ Vi sono potenziali conflitti d’interesse con i loro clienti attuali o passati?

▪ Che esperienza pratica può vantare l’istituto in un determinato tipo di ricerche/mercati/


prodotti?

▪ Offre sufficienti garanzie di segretezza e confidenzialità dei risultati delle ricerche?

b. Informazioni sullo staff dell’istituto

▪ Che tipo di preparazione può vantare lo staff dell’istituto? Che esperienza ha nel settore?

▪ Che esperienza ha nel marketing in generale e in eventuali altri campi d’interesse per l’attività
del committente?

▪ Di quali competenze specialistiche l’istituto può garantire di dotarsi?

▪ Chi sarà il responsabile del lavoro? È possibile incontrarlo?

▪ Si ravvisano particolari problemi di comunicazione con il responsabile del lavoro? C’è


condivisione di linguaggio?

c. Informazioni sulle strutture e sulle procedure operative dell’istituto

▪ Quali sono le procedure di lavoro utilizzate?

▪ Che organizzazione di rilevazione dati normalmente usa l’istituto: interna o esterna? Che
garanzie offre?

▪ Che dimensioni e copertura del territorio possiede?

▪ Se necessario, sono disponibili intervistatori specializzati?

▪ Come sono reclutati e formati gli intervistatori?

▪ Che briefing è fornito loro?

▪ Quali sono le procedure e modalità di supervisione del loro lavoro?

24
▪ Chi sono i supervisori?

▪ Quali procedure e controlli di qualità sono applicati al fieldwork?

▪ Che tipo di procedure di campionamento sono utilizzate solitamente?

▪ Quali modalità di trattamento dati sono utilizzate solitamente?

▪ Quali procedure di editing, codifica, tabulazione e trattamento sono usate?

▪ Quale staff è dedicato a ciò e che profilo possiede?

▪ Quali controlli di qualità e accuratezza sono applicati?

▪ L’istituto è in grado di applicare particolari forme e tecniche di analisi se richiesto?

▪ I controlli di significatività statistica sono applicati di routine?

▪ Che forma di report viene usata normalmente?

▪ La presentazione formale dei risultati fa parte dell’offerta? In quali forme?

▪ L’istituto offre particolari strutture di ricerca?

▪ Quali procedure di fatturazione sono seguite?

Un principio fondamentale regola l’acquisto di una ricerca: la ricerca non dovrebbe mai essere acquistata
sulla sola base del prezzo. Ricerche di bassa qualità posso portare a risultati fuorvianti e a decisioni di
marketing errate e dannose per l’impresa. Di conseguenza, il committente dovrebbe fondare la propria
decisione anche sulla qualità del progetto, sull’affidabilità che il ricercatore è in grado di offrire e sulla qualità
della relazione che si instaura con l’istituto.

I documenti di ricerca
L’intero processo di ricerca si avvale del contributo di alcuni documenti tipici:

a. Il brief

b. Il progetto

c. Il report finale

All’inizio del processo vi è la definizione del problema che deve essere trasformato in un obiettivo, e quindi il
problema informativo si deve trasformare in un brief con un obiettivo preciso. Poi vi è il progetto di ricerca, il
quale rappresenta il piano del lavoro dal punto di vista dell’obiettivo, target, modalità di raccolta/
elaborazione/presentazione dei dati. Infine, l’ultimo documento è il report finale.

1° e 2°: Il problema di marketing e la definizione degli obiettivi specifici


È la fase iniziale, durante la quale il management perviene a una formalizzazione del problema di marketing
sul quale necessita il supporto informativo della ricerca. Molto spesso però non sussiste identità perfetta fra
problema di marketing e tema di ricerca, in quanto:

1. Il problema viene espresso in forma indefinita (piacerà questo concept?)

2. Il linguaggio tecnico con il quale si esprime il problema non sarebbe comprensibile dall’intervistato, e
quindi deve essere tradotto in modo tale che diventi comprensibile (es. “l prodotto è sufficientemente
basico?”)

3. Sussiste un’asimmetria fra l’ampiezza del problema e il budget disponibile, è un caso molto frequente
(Es. “vorrei conoscere il mercato cinese; eccole 10mila euro”)

Questo problema va risolto trasformandolo in un obiettivo di ricerca:

25
Segmentare la domanda significa suddividere il mercato di riferimento in cluster omogenei sulla base di
determinati criteri. Questi criteri possono essere hard (socio-demo, età o genere) o possono essere soft (stili
di vita, comportamenti). Modalità: prima si definiscono le variabili che rendono disomogenee, in termini di
risposta, i diversi segmenti; poi si stima la numerosità e la dimensione dei segmenti di domanda in modo tale
da poter prendere delle decisioni di targeting.

Quando ci poniamo un obiettivo di ricerca dobbiamo scegliere delle variabili specifiche da rilevare che non
esistono nel problema di ricerca.

Il brief è un documento sintetico all’interno del quale viene presentato il fabbisogno informativo (background)
rilevato dall’iniziatore ed esplicitato all’account, perché l’istituto definisca la proposta di una o più formule di
ricerca. Esso può avere diverse modalità in termini di strutturazione.

Solitamente le informazioni contenute in un brief dovrebbero essere:

- Nome del committente di ricerca (l’iniziatore) e sua posizione organizzativa; eventuali contatti

- Prodotto/brand interessato dalla ricerca

- Oggetto della ricerca

- Background, ovvero le condizioni di marketing che hanno fatto emergere il fabbisogno informativo

- Obiettivo di marketing

- Target della ricerca

- Tempi a disposizione per l’intero processo, ovvero timeout di presentazione dei risultati definitivi

- Costi della ricerca stimati dal committente o budget indicativo

- Supporti forniti dal committente all’istituto

- Risorse professionali interne al committente coinvolte nel progetto e relativi ruoli

- Prima traccia metodologica proposta dal committente sulla base di esperienze passate o per standard
di lavoro interno

- Particolari obiettivi e sub-obiettivi conoscitivi della ricerca

- Modalità di selezione per l’assegnazione dell’incarico

La ricezione del brief avvia l’intero processo interno all’istituto, al termine del quale si propone al committente
un primo progetto. Non sempre questo risulterà quello definitivo, accettato e successivamente messo in
opera. Accade, anzi, che il primo progetto dia il via a un processo negoziale durante il quale i principali
soggetti della ricerca limano e rivedono le scelte metodologiche fatte, fino a stilare la formula definitiva.

Il piano o progetto o porposal costituisce la formalizzazione delle scelte di metodo operate a monte in una
sequenza di operation. Ogni capitolo del piano assolve una specifica funzione comunicativa fra ricercatore
e utilizzatore dell’informazione.

Solitamente un buon progetto di ricerca dovrebbe comporsi di:

• Background, si richiama esplicitamente il brief per dimostrare che si sono ben comprese le condizioni
di marketing che hanno fatto emergere il fabbisogno informativo

• Obiettivo dello studio: è possibile declinarli in sub-obiettivi

• Metodologia, indicazione formalizzata della formula di ricerca, esprime nel dettaglio operativo come si
intendono raggiungere gli obiettivi. È esplicitata in:

26
- Disegno metodologico e relative motivazioni

- Tecniche d’indagine prescelte

- Campione

- Timing del field e dell’analisi

- Struttura del questionario/scaletta intervista

• Modalità tecniche di analisi dei risultati

• Output previsti e modalità di rappresentazione dei risultati

• Tempi di consegna e investimento necessario per il committente

• Appendici tecniche

Un’altra possibile di struttura tipica di un progetto:

▪ Background

▪ Obiettivi di ricerca

▪ Metodologia proposta

▪ Disegno campionario

▪ Materiali di ricerca

▪ Timing

▪ Controlli

▪ Quotazione

Ultimo documento che lega i soggetti della ricerca nella realizzazione del lavoro è il report. Si tratta di un
documento che assolve una funzione informativa circa i risultati e i percorsi dello studio, a beneficio di tutti
coloro che vi siano interessati presso l’impresa committente. Il report si compone di:

o Background e obiettivi dello studio, al fine di allineare sul tema di studio tutti gli eventuali lettori che
non hanno partecipato ad alcuna fase del lavoro

o Executive summary, breve sintesi commentata dei risultati salienti della ricerca, onde consentire al
lettore con poco tempo a disposizione di cogliere immediatamente il senso dei risultati

o Marketing implications, riflessioni del ricercatore in merito alle possibili applicazioni /strategiche e/o
operative) di marketing legate alle risultanze dello studio

o Descrizione dei risultati, dettaglio dei risultati con letture incrociate e qualche commento

o Appendici tecniche, sempre necessarie perché il lettore deve poter esperire un giudizio circa
l’affidabilità dei risultati e la loro veridicità

Dalla formula di ricerca alla presentazione dei risultati


Il processo di ricerca vero e proprio può essere definito come la sequenza organizzata di attività,
concomitanti e successive, attraverso la quale si perviene alla definizione e alla realizzazione operativa della
formula di ricerca deputata a colmare la carenza informativa dell’impresa.

27
La formula di ricerca è la specifica combinazione originale di metodologie,
tecniche di rilevazione, elaborazione e interpretazione dei risultati,
impostata dal ricercatore per risolvere uno specifico problema di marketing.

È necessario ricordare che:

- Ogni specifico problema di marketing può essere risolto facendo


riferimento a un diverso mix di elementi tecnici di ricerca (leggi
dell’alternatività e della non obbligatorietà)

- Ciascuno di questi mix prende il nome di formula di ricerca e trova cittadinanza in uno specifico
documento che è il progetto

- Il committente può porre in competizione diversi istituti tra loro e scegliere in base alla formula di
ricerca proposta (legge del valore)

- Accettando la formula, il committente ha una precisa misura dei benefit informativi che può attendersi
dalla ricerca (legge della misura), mentre l’istituto acquisisce certezza in merito alle modalità di
funzionamento da imporre all’organizzazione e alle eventuali modifiche necessarie per far fronte al
progetto

Le attività fondamentali del processo di ricerca ruotano intorno la formula e riguardano essenzialmente la sua
definizione ed esecuzione.

La definizione della formula di ricerca (o proposal o progetto di ricerca)


1) La determinazione del metodo e delle fonti dei dati (esterni/interni, primari/secondari). I dati interni
possono essere le rilevazioni delle opinioni dei clienti all’interno dei punti vendita, oppure servizi
touchpoint proprietari

2) Sviluppo procedure operative di collezione dei dati (ricerche qualitative, quantitative, integrate)

3) Definizione del target della ricerca (campionamento)

4) Scelte tecniche d’analisi e presentazione (es. la tematic content anayisis)

A valle della determinazione del tema di ricerca, dunque, il primo passo è quello di costruirvi intorno
un’intelaiatura tecnico-metodologica pertinente. In sostanza, ciò implica il disegno formale del progetto e
l’identificazione delle più appropriate fonti da cui trarre tutti i dati necessari alla produzione dell’informazione
di marketing. Il disegno formale di ricerca è perciò il piano base, che guida la raccolta dati e le varie analisi,
specificando il tipo di informazione che deve essere raccolto, la relativa fonte dati e le procedure analitiche.
Le opzioni che realmente si aprono di fronte a ricercatori sono quattro:

a. Una raccolta dati elementari suscettibili di analisi non algoritmica (indagini qualitative)

b. Una raccolta di dati elementari suscettibili di trattamento statistico (indagini quantitative)

c. Una raccolta di dati mediante osservazioni dirette (indagini sperimentali)

d. Una raccolta di dati elementari che integri le prime due (indagini integrate)

Le quattro opzioni sono accomunate dal fatto di essere tutte modalità di raccolta di dati che andranno poi
lavorate cognitivamente al fine di generare un’informazione utile in termini di marketing management e
accrescere in seguito la conoscenza dell’impresa. A distinguerle sono sia la modalità di raccolta (fieldwork)
sia le tecniche di elaborazione cognitiva (data analysis).

28
Il successo dello studio si fonda sull’effettiva capacità del ricercatore di condurre in porto il compito di
concettualizzare esattamente le domande da porre (o le osservazioni da condurre) in relazione al tema di
ricerca con efficacia e pertinenza. Le sue conoscenze in materia riguardano:

a. Le tecniche di redazione del questionario (nelle indagini quantitative)

b. Le tecniche di somministrazione del questionario (nelle indagini quantitative)

c. Le tecniche di redazione della scaletta (nelle indagini qualitative)

d. Le tecniche di utilizzo della scaletta (nelle indagini qualitative)

e. Gli strumenti informatici hardware di supporto al field e software di supporto alla somministrazione e
all’elaborazione (nelle indagini quantitative)

f. Gli strumenti tecnici di osservazione (nelle indagini sperimentali)

Vi è poi la fase della definizione del target dell’indagine, definito nell’uso pratico campionamento. Il campione
è un insieme di elementi estratti da una popolazione statistica che ne rappresenta l’universo. Ogni singolo
elemento del campione è detta unità elementari o statistica o campionaria. Le informazioni prodotte
dall’analisi del comportamento del campione sono ritenute relativamente valide per l’intera popolazione di
riferimento (cosiddetta inferenza statistica).

Il principio fondamentale vuole che la validità di un’indagine campionaria dipende in gran parte dalla qualità
del processo di campionamento, vale a dire che le informazioni prodotte avranno significato e un’affidabilità-
intesa come probabilità di non indurre in errore il committente - tanto maggiori quanto migliore sarà il
campionamento effettuato.

Gli step fondamentali nella fase di disegno campionario


sono:

a) L’identificazione chiara e non ambigua della


popolazione di riferimento in tutti i suoi caratteri
strutturali rilevanti ai fini della ricerca

b) la scelta della metodologia di campionamento


relativamente migliore, rispetto alle condizioni
dello studio e alla reperibilità di eventuali liste

c) la determinazione della numerosità campionaria

A questo punto al ricercatore, prima di inviare il progetto


al committente, resta solo da quotare la formula
medesima, ovvero stimarne i costi, per poi inserire nel progetto la voce di investimento necessario per
l’esecuzione. La quotazione si colloca all’incirca a metà dell’intero processo relazionale committente-istituto.

I passaggi standard per pervenire a una quotazione sono diversi da azienda ad azienda, ma possono essere
generalizzati in:

I. identificazione puntuale delle attività previste dalla formula di ricerca

II. individuazione delle voci di costo diretto connesse:

- Identificazione delle risorse umane coinvolte

- Stima delle giornate-uomo per ciascuna categoria di risorsa

- Pricing della giornata-uomo e calcolo dei totali

- Imputazione quota costi diretti di struttura

- Imputazione dei costi generali di ricerca (carta, telefono, …)

29
- Imputazione dei costi speciali di ricerca (consulenti, viaggi, …)

- Stima dei costi complessivi per attività

III. Totale costi di ricerca

IV. Bilanciamento dei costi di ricerca fra le varie attività

V. Calcolo totale

VI. Verifica congruità dei margini

L’esecuzione della formula di ricerca


L’esecuzione della formula di ricerca attiene alla realizzazione operativa della formula di ricerca
precedentemente progettata. Volendo puntualizzare gli step più rilevanti, essi sono:

1) La raccolta dei dati elementari (fieldwork)

2) Il trattamento elementare dei dati raccolti

3) L’analisi dei dati

4) La redazione del report e la presentazione dei risultati

Il fieldwork è un’attività critica della ricerca, tanto per la sua influenza sulla qualità del risultato finale quanto
per la sua incidenza sul costo complessivo di ricerca, che è la più elevata fra tutte le attività.
Indipendentemente dal tipo di raccolta dati che si implementa, la collezione di dati elementari richiede che si
realizzino una serie di microattività:

a. Briefing del ricercatore con il responsabile Produzione, per allinearlo sulla formula di ricerca
concordata con il committente

b. Programmazione temporale del fieldwork da parte del responsabile Produzione, verificati i carichi di
lavoro già pendenti sulla struttura

c. Eventuale decisione di subappaltare parte del fieldwork in caso di saturazione della struttura esistente
e, nel caso, briefing con i partner di rilevazione

d. Reclutamento degli intervistatori e loro formazione: spiegazione del problema di marketing,


illustrazione della formula di ricerca, spiegazione dettagliata del questionario, raccomandazioni
speciali

e. Test del questionario con interviste pilota

f. Solo nel caso di interviste condotte con l’ausilio di strumenti informatici (CATI, CAWI, WEB):
programmazione del questionario sull’apposito supporto software

g. Segnalazione al ricercatore di eventuali piccole correzioni tecniche necessarie a ottimizzare il


questionario e redazione definitiva

h. Operativizzazione del disegno campionario reclutamento degli intervistati

i. Inizio del fieldwork

Il field costituisce la concreta realizzazione delle operation indicate nel piano secondo le modalità ivi previste.
Il field viene da:

- Intervistatori quantitativi, che operano attraverso questionari pre-editi

- Intervistatori qualitativi, che operano attraverso scalette destrutturate. Devono avere capacità
comunicative, non può non avere competenze forti, altrimenti la ricerca sarà un fallimento

- Tecnici informatici, che operano attraverso questionari web-aided

30
- Personale di supporto, con varie missioni (verbatim e
codifica, screening, programmatori, pulizia e controllo,
recalling, ecc….)

Le tipologie del fieldwork sono diverse e variano a seconda


della specifica modalità di collezione dati. In generale,
possiamo distinguere fra:

1. Metodi di raccolta basati su questionari

2. Metodi di raccolta basati su scalette di rilevazione o osservazione

Il questionario è uno strumento di rilevazione dati dall’apparenza semplice. Si presenta come una
successione logicamente organizzata di domande di varia natura finalizzata alla raccolta di informazioni sulle
variabili quantitative o qualitative oggetto dell’indagine.

In prima istanza il questionario è uno strumento di misura, ma ha anche una valenza comunicativa; il
questionario, infatti, ha la funzione di trasmettere all’intervistato l’esatto significato dell’informazione richiesta.
Pertanto, se ne possono individuare due requisiti essenziali:

1. Le domande, che costituiscono operativamente il veicolo delle misurazioni, devono essere rivolte a
tutti nella stessa forma

2. Le domande devono avere lo stesso significato per tutti coloro che rispondono, senza lasciare alcuna
possibilità di interpretazione soggettiva

Queste due condizioni, se non soddisfatte, non garantiscono sulla confrontabilità delle informazioni ricevute,
in quanto viene meno la standardizzazione delle misure.

Le fasi salienti nella redazione del questionario sono tre:

a. La costruzione dello schema concettuale del questionario. In questo caso bisogna esplicitare il tema
dell’indagine in una scaletta logica strutturata, chiusa e disegnata in linea con i processi mentali di chi
risponde

b. La redazione del questionario comporta la scelta delle specifiche categorie di domanda di cui servirsi
per raccogliere l’informazione. Il ricercatore deve scegliere congiuntamente anche le scale di
rilevazione che più gli appaiono adatte alla ricerca. Questa scelta è influenzata dalla formula di ricerca
prescelta nonché dalla natura dell’intervistato target

c. La verifica del questionario

I possibili metodi di raccolta basati sul questionario si distinguono in base alla tecnologia di supporto alla
formulazione delle domande.

Le ricerche si avvalgono del telefono, quasi sempre supportato da un sistema computerizzato di intervista
(Computer Aided Telephone Interview), che non solo consente maggiore rapidità ed economicità rispetto ad
altre forme, ma apre al ricercatore numerose vie per disegnare questionari più complessi e quindi più consoni
a rilevare i fenomeni maggiormente rispondenti alla realtà delle cose.

L’informatica interviene anche a supporto delle interviste dirette (o face-to-face), grazie a device portatili
(Computer Aided Personal Interview), apportando non solo vantaggi della fattispecie precedente, ma
consentendo anche la conduzione di interviste complesse con supporto multimediale (video, suono,
immagini). L’informatica è anche alla base delle interviste attraverso la rete (Computer Aided Web Interview).

31
Vi sono oggi software di ricerca che aiutano il ricercatore a comporre un questionario e a diffonderlo al target
di interesse, riferiti a:

- Modelli di questionari (es. customer satisfaction)

- Serbatoio di domande-tipo (es. a risposta-multipla, scale di valutazione)

- Informazioni generali sulla ricerca

L’offerta di questi software spazia da una configurazione base e free (es. Google Moduli) a una più completa
e articolata a pagamento (es. Surveymonkey).

L’attività di trattamento elementare i dati raccolti occupa un ruolo importante nel lavoro di ricerca e se ne
possono individuare tre sub-attività:

1. Il controllo

2. Il trattamento pre-analisi

3. Le prime elaborazioni di base

Il controllo del fieldwork può essere concomitante e successivo e fornisce ulteriori garanzie in merito alla
qualità del lavoro di rilevazione sul campo. Il primo tipo di controllo, effettuato generalmente dai supervisori,
ha lo scopo di tenere sotto osservazione dei parametri tecnici di rilevanza economica per la profittabilità del
lavoro per l’istituto, come per esempio la durata media dell’intervista e l’effettiva somministrazione dell’intero
questionario.

Il secondo controllo tende invece a:

- Verificare che gli intervistatori abbiano effettivamente realizzato le interviste, esaurendo ogni parte del
questionario

- Verificare che il tasso di risposta realizzato (rapporto percentuale fra il numero dei contatti utili, ovvero
interviste complete, e il totale dei contatti effettuati) sia mediamente allineato fra tutti gli intervistatori e
pari all’ipotesi sulle quali è stata fondata la quotazione del progetto

- Misurare la durata media dell’intervista, perché sia pari a quanto progettato e quotato nel progetto

Il trattamento pre-analisi consiste nel verificare che le risposte siano state registrate in modo corretto e nelle
operazioni di:

• Editing, ovvero nel revisionare i moduli di raccolta dati per verificarne la leggibilità, la completezza e
l’effettiva rispondenza delle risposte alle domande

32
• Verbatim, ovvero la separata registrazione di tutte le risposte alle domande aperte per prepararle alla
codifica

• Coding, ovvero nel definire categorie virtuali sotto le quali raggruppare le risposte alle domande
aperte e poterle così trattare poi quantitativamente

A questo punto del processo i dati possono essere elaborati. Una buona sequenza tipo di analisi prevede in
genere:

o La costruzione delle distribuzioni di frequenza e delle tavole di contingenza

o Il calcolo degli indici di tendenza centrale e delle associate misure di dispersione

o La determinazione di prima risultanze statistiche

o L’approfondimento della lettura e interpretazione dei dati attraverso specifici approcci


multidimensionali

L’ultima fase è quella del report con la presentazione dei risultati:

1. Obiettivi di ricerca

2. Executive summary

3. Marketing implications (o conclusioni)

4. Risultati dettagliati

5. Aree specifiche di approfondimento

6. Appendici metodologiche

7. Tavole statistiche, verbatim, records

TASSONOMIE DI RICERCHE DI MARKETING


È possibile suddividere le ricerche di marketing in base:

1. Tema/oggetto studiato

2. La stabilità del campione

3. Fruitore della ricerca

4. Lo spessore intellettuale dell’informazione

5. Il soggetto/fenomeno dello scambio oggetto di studio

6. I particolari prodotti di ricerca

Tassonomia in base al tema/oggetto di studio


I temi di ricerca sono i contesti rilevanti in termini di marketing management, per la gestione di quali utile
implementare i processi informativi. A tal proposito esistono differenti ricerche che possono essere svolte.

LE RICERCHE SUL CONSUMER INSIGHT


Le ricerche sul consumer insight sono indagini che hanno un ruolo decisivo nella definizione della product
offering. Esse svolgono 3 compiti fondamentali:

a. Supportano il management nella comprensione profonda del target

b. Valutano le percezioni, le motivazioni più profonde e le reazioni del target a ipotesi di strutturazione
dell’offerta

33
c. Valutano le reazioni del target a ipotesi di formulazioni degli strumenti operativi di marketing,
comunicazione in primis

Il consumer insight è il problema che è alla base della soluzione promessa dall’impresa. È necessario
capire “Qual è il bisogno del consumatore? Cosa vuole per migliorare la propria vita nella categoria in
questione?”

L’insight del consumatore è una scoperta dei consumatori. Le ricerche consumer insight sono diverse:

- Usage&attitudes

- Corporate/brand image

- Advertising research (pre-test e post-test)

- Test (concept test, packaging test, price test, market test, promotion test)

- Customer satisfaction

CONCEPT TEST
Ogni ricerca parte dalla ricerca del consumer insight. Gli elementi fondamentali del concept test sono:

I concept test possono essere realizzati anche per:

- Design

- Packaging

- Qualità

- Prezzo per formato

- Caratteristiche del servizio post-vendita (es. assistenza clienti)

Advertising research
Riguardano tutto ciò che è pubblicità, sia in quanto singoli temi specifici rilevanti ai fini della gestione di
questo strumento sia in quanto processi gestionali. A loro volta le advertising research perciò possono essere
ulteriormente suddivise in:

a. Processi

- pre-testing e post testing pubblicitario (studiano rispettivamente l’efficacia di singoli elementi o


dell’insieme della formula pubblicitaria prescelta, prima o dopo la sua azione sul mercato)

- Media vehicle audience (misura del numero di persone esposte veicolo pubblicitario)

- Advertising exposure (misura del numero di persone esposte un determinato spot in uno specifico
veicolo pubblicitario)

- Advertising perception (il numero di persone che hanno percepito un determinato sport in uno
specifico veicolo pubblicitario)

34
- Advertising communication (È la frazione delle persone dell’indice precedente che hanno compreso
specifici elementi del comunicato pubblicitario)

- Sales response (frazione dell’indice precedente, espressiva del numero di persone che hanno dato
vita a un acquisto quale risultato dell’esposizione precedente)

b. Oggetti

- Copy test (verifica dell’efficacia dei singoli componenti del messaggio e del loro insieme integrato
come colori, grafica, fotografie, azioni)

- Media test (verifica dell’efficacia dei potenziali veicoli pubblicitari in termini di costo contatto, ecc…)

Product research
Hanno come oggetto il prodotto, nuovo o esistente che sia. Possono essere suddivise in:

- Concept test: viene utilizzato per testare la migliore formulazione di un nuovo prodotto in un set
definito di alternative. Il prodotto viene valutato in versione blind, ovvero senza le distorsioni percettive
indotte dalla confezione, dalla marca, ecc… Questi test vengono usati, quindi, per la scrematura di n
idee di un nuovo concept all’interno di una data ennupla, per verificare l’effettivo utilizzo del prodotto
(usage test)

- As marketed test (o as-to-market): le varianti di prodotto vengono testate una per volta o in
comparazione, introducendo distorsioni percettive che si trovano nella realtà

Packaging research
Vengono testati sia aspetti funzionali come praticità d’uso, ingombro, sia comunicativi simili ai copy test.

Promotion research
Servono per testare le migliori soluzioni promozionali e i loro esiti di mercato. Una classe particolare di
interesse è costituita dalle ricerche sulle carte fedeltà, che configurano una fattispecie di confine con il
cosiddetto database marketing.

Pricing research
Le ricerche di prezzo possono essere condotte in diverse fasi della vita di mercato di un prodotto e con
diversa finalità. Si suddividono in:

- Price measurement (applicazione dei modelli di regressione tramite l’utilizzo di intelligenze artificiali):
si tratta di verifiche dei prezzi effettivi di sell-out condotte una tantum o su base continuativa,
utilizzando un campione stabile

- Price sensitivity: ovvero le misure dell’elasticità della domanda al variare del prezzo e, più in
generale, sul valore percepito

Distribution research
Gli studi sulla distribuzione che il produttore può essere interessato a condurre sono riconducibili a due
categorie:

- Performance test, con i quali si misurano attraverso numerosi indicatori i risultati assoluti e
differenziali dei vari canali distributivi dei quali si serve l’impresa

- Channel test, con i quali si verifica, attraverso test condotti determinate città, l’attitudine potenziale
relativa di diverse opzioni distributive a veicolare il prodotto sul mercato

35
Tassonomia in base ai fruitori della ricerca
I fruitori della ricerca non sono sempre coincidenti con un’impresa specifica, interessata a focalizzare la
ricerca su un tema determinato. Le ricerche, quindi, possono essere classificate in:

Multiclient ricerche nelle quali gli istituti si trovano a organizzare vere e proprie cordate
imprenditoriali per supportare un progetto di ricerca che risolve un problema comune, di cui risultati
ciascun supporter beneficerà, in maniera più o meno ampia. I dati restano di proprietà dell’istituto che
replica il field a intervalli di tempo regolari e aggiorna e implementa le metodologie. Ne sono un
esempio Sinottica, Auditel. Un tipo particolare di multicliente sono gli Omnibus, che consistono in
round di ricerca che vengono condotti a intervalli regolari su panel, ai quali tutti possono partecipare
comprando una o più domande

Ad hoc monoclient ricerca commissionata e progettata da una singola impresa per le proprie
personali e non condivisibili esigenze informative di marketing management; i risultati sono di
proprietà unica ed esclusiva del committente e provengono da un piano di ricerca ritagliato su misura
e perciò non fruibile da altri

Tassonomia in base al campione

Ricerche su panel
Sono ricerche condotte utilizzando un campione continuativo e permanente, idoneo a stimare
comportamenti, atteggiamenti, caratteristiche di un dato target per un intervallo di tempo definito. Il panel
può essere costituito da persone, famiglie, organizzazioni, imprese ed è adatto a implementare studi di natura
longitudinale, atti a fornire informazioni comparabili nel tempo e continue. Esempio: Ricerca “Total single
source Panel di GFK” (pannello con 12.000 interviste l’anno, campionamento stratificato della popolazione da
14 anni in su).

Ricerche su campione variabile


Costituiscono le tipiche ricerche ad hoc e si basano su un campione determinato di volta in volta nei suoi
aspetti quali-quantitativi per rilevanti ai fini dell’indagine. Di norma, questi campioni non consentono la
comparazione longitudinale.

Tassonomia in base allo spessore intellettuale dell’informazione


Lo spessore intellettuale dell’informazione prodotto della ricerca porta a distinguere:

“Datifici”: I sistemi di controllo manageriale di marketing basano molti processi di verifica di efficacia
e di efficienza su indicatori (KPI) prodotti attraverso le tecniche e i metodi della ricerca. Ne sono
esempi i dati sulla customer satisfaction per i quali si usano espressioni come parametri, cruscotti e
similari, quelli di brand awareness, di sell-out e via dicendo. I dati sono utili laddove si basino su un
processo generativo metodologicamente robusto

Ricerche vere e proprie: costituiscono il frutto di un percorso intellettuale complesso, caratterizzato


dalla presenza dell’incertezza, del dubbio, della scelta iterativa fra alternative di metodo
36
Tassonomia in base al soggetto/fenomeno dello scambio oggetto di studio
È possibile suddividere tali ricerche in:

o Consumer understanding: È finalizzata a studiare le strutture descrittive socio-demografiche, gli


atteggiamenti, i profili di valori, di preferenza e via dicendo dei consumatori. In questo ambito
assumono rilevanza gli Usage&Attitudes, ovvero studi focalizzati a monitorare gli utilizzi del prodotto,
attuali e attesi, e gli atteggiamenti del consumatore verso la market offering

o Market measurement: le ricerche sono finalizzati a misurare gli esiti dello sforzo di marketing
complessivo, attraverso un set di particolari indicatori quantitativi, ricavati su tutti i soggetti rilevanti
per lo scambio come consumatori, clienti e concorrenti

Tassonomia in base a particolari prodotti di ricerca


Essi sono:

• Segmentation and positiong research: modelli di ricerca che producono informazioni di processo
indispensabile al marketing management

• Customer satisfaction measurement: modelli di ricerca descrittivo-correlazionale finalizzati a


studiare le determinanti della soddisfazione e gli impatti sulla fidelizzazione

• Child research

• Web research: si studia il target, i processi cognitivi che sottendono i comportamenti d’uso adozione
di Internet

• Stili di vita

• Tracking pubblicitari: l’entità degli stanziamenti pubblicitari dell’impresa giustificano sforzi progettuali
ad hoc da parte degli istituti per elaborare formalizzare modelli specifici di studio

LA NATURA DELL’INFORMAZIONE DI MARKETING


L’informazione utile ad assumere le decisioni di marketing viene prodotta attraverso numerosi strumenti e
procedimenti tecnici, ciascuno dei quali inquadrabile in uno specifico approccio metodologico.
L’informazione conseguentemente prodotta si presenta in modo radicalmente diverso a seconda
dell’approccio di produzione seguito.

Possiamo affermare che l’informazione di marketing deriva da un’elaborazione intellettuale del dato primario,
che è influenzata dalla natura del metodo seguito.

Possiamo distinguere l’informazione qualitativa e quella quantitativa.

37
L’informazione qualitativa
L’informazione qualitativa sorregge due processi decisionali:

a) Situazioni caratterizzate da un’elevata indeterminatezza, ovvero problemi ancora non chiaramente


definiti nella mente del marketer

b) Elementi del marketing per loro natura soggetti a valutazioni di natura verbale e/o figurativa, che non
avrebbe senso rappresentare attraverso numeri

Il campione solitamente utilizzati non ha natura probabilistica e quindi il suo grado di rappresentatività è
limitato e circoscritto; per questo l’informazione qualitativa produce per sua natura delle indicazioni. Esse,
benchè prodotte in condizioni tecniche sensibili, godono di punti di forza riassumibili in:

a. La non intuitività esprime il fatto che le indicazioni portano all’attenzione del committente alcuni
aspetti del problema di marketing da lui non percepiti, vuoi perché non immediatamente intuitivi, vuoi
perché perché egli, avendo una visione dei problemi distorta dal ruolo che occupa, non riesce mai a
calarsi realmente nei panni del consumatore

b. L’ampiezza riguarda il fatto che l’indicazione possiede una natura esplorativa potenzialmente a
360 gradi, capace di specificare un fenomeno di marketing in tutti i suoi aspetti salienti e non

c. L’unicità della competenza riguarda il fatto che alcuni temi di marketing per loro natura non sono
suscettibili di trattamento numerico, ma possono solo essere affrontati in chiave qualitativa. Tali sono,
per esempio, i test di gradimento condotti sui concept di nuovo prodotto o i test di efficacia di una
campagna pubblicitaria prima del lancio. Le scelte di marketing relative a questo genere di problema,
infatti, godono tendenzialmente di benefici maggiori appoggiandosi alle indicazioni qualitative
piuttosto che a dati numerici

d. La subliminarietà è la capacità dell’informazione qualitativa di andare oltre il semplice dichiarato


dell’intervistato, cogliendone aspetti motivazionali, di desiderio, ecc.. che sono ancora allo stato
latente o di non completa percezione consapevole

L’informazione quantitativa
L’informazione quantitativa sorregge processi decisionali di 2 tipi:

a) Situazioni caratterizzate da un’elevata determinatezza e focalizzazione, delle quali interessa conoscere


la rappresentazione dimensionale di aspetti specifici

b) Elementi del marketing per loro natura quantitativi e soggetti a valutazioni di natura numerica, che non
avrebbe senso rappresentare attraverso parole

Il campione utilizzato nel field quantitativo deve avere una natura probabilistica, in quanto se fosse
diversamente ne verrebbe meno la precisione dei numeri, e pertanto l’informazione finirebbe per assumere
quel valore indicativo proprio dell’informazione qualitativa. Si può affermare, quindi, che l’informazione
quantitativa produce per sua natura dei dati.

I tratti distintivi del contributo dell’informazione quantitativa sono riassumibili in 4 attributi:

a. La dimensionalità riguarda il fatto che il dato quantitativo rappresenta i fenomeni nel loro aspetto
dimensionale, definendo lo spessore che alcune loro manifestazioni possiedono, stabilendo ordini
gerarchici precisi fra le stesse, definendo il set di manifestazioni del fenomeno rilevanti e irrilevanti.
Questo attributo ne limita il potere di produzione di idee e ne lega la veridicità alla qualità del processo
di definizione e realizzazione del campione

b. La rapidità dipende strettamente dalla tecnica di rilevazione adottata. Oggi la produzione dei dati
è rapidissima, in senso assoluto, grazie alle nuove tecnologie digitali; sono rapidi anche i tempi di
produzione dell’informazione
38
c. L’immediatezza consente di presentare una sottospecie delle informazioni quantitative, ovvero i
dati finalizzati a sorvegliare lo svolgimento effettivo di una precisa azione di marketing. Questi dati
solitamente vengono prodotti da sistemi CATI e trasferiti in modelli interpretativi predeterminati. In
questo caso, l’attività di ricerca si configura come un vero e proprio “datificio”, dove il peso del
pensiero di marketing è spostato a monte (nella predefinizione dei modelli) e ciascuna sessione di
ricerca costituisce il modello stesso nella sua produzione di informazione. Sono esempi di questa
natura i monitoraggi e grandezze numeriche quali la customer satisfaction, la brand awareness, il sell-
in e il sell-out

d. La comparabilità costituisce un attributo importante in quanto è alla base del monitoraggio, nel
senso che non avrebbe senso mettere in sequenza dati prodotti nel tempo con una metodologia
disomogenea; consente di istituire relazioni incrociate fra misure diverse, prodotte nel rispetto di
analoghi canoni metodologici; consente di effettuare controlli di performance rispetto a standard di
riferimento

Dalla comparazione all’integrazione


La ricerca costituisce una corrispondenza mobile e variabile fra un dato problema di marketing e la formula di
ricerca specificamente impostata per risolverlo. A ogni natura dell'informazione non corrisponde un problema
di marketing univoco, ma un tipo di risposta che a detto problema, si fornisce, un percorso di avvicinamento
a una realtà che ci si è costruiti con precise delimitazioni ontologiche.

Generalmente la predisposizione della formula di ricerca tende a scegliere a monte se sia più conveniente per
il committente, in linea con le disponibilità di budget, avvalersi delle informazioni prodotte da uno studio
qualitativo o quantitativo. In questo caso il ricercatore prospetta al committente alcuni percorsi di ricerca
diversi e alternativi, istituendo una comparazione fra le informazioni ottenibile e il profilo relativo di ottimalità.
Il committente sceglierà in relazione al funzionamento dei processi decisionali interni di marketing.

Molto spesso la formula di ricerca prescelta deriva da una rappresentazione complessa del problema di
marketing, tale da richiedere l'integrazione di indicazioni e dati, vale a dire di informazioni qualitative e
quantitative da trarre da un campione avente le medesime caratteristiche descrittive. L'approccio
metodologico che supporta questo tipo di scelta prende il nome di integrato e solitamente prevede la
seguente scaletta:

1. Indagine qualitativa esplorativa, finalizzata a disegnare il fenomeno nella sua complessità

2. Redazione del questionario di rilevazione, avvalendosi del contributo informativo prodotto


dall’indagine qualitativa

3. Indagine quantitativa estensiva, attesa a misurare le dimensioni del fenomeno emerse dalla qualitativa

4. Eventuale altra indagine qualitativa di approfondimento su aspetti o temi, l'interesse per i quali
discende dalle risultanze degli step precedenti

Nel primo caso possiamo quindi parlare di formula di ricerca univoca, nel secondo caso, invece, di forma
di ricerca integrata.

Un tipo di integrazione diverso è quello costituito dalle ricerche denominate single source. Esse integrano
dati di natura differente, pur insistendo sulle medesime unità campionarie, solitamente riunite in un panel
consumatori. Le informazioni riguardano:

• Gli acquisti di beni e servizi (Rilevati mediante diario e scanner, codice Ean)

• I consumi televisivi (Rilevati tramite meter)

• I consumi mediatici, come cinema, riviste

• Le abitudini di uso della rete (Tramite meter)

• Il sistema di valori, opinioni, atteggiamenti dichiarati in questionari una tantum.

Il trade off della ricerca di marketing


I trade off sono ricorrenti a ogni progettazione di un nuovo lavoro e non si presentano mai da soli. I piani di
trade off della ricerca sono quattro:

39
1. Economico: riguarda il bilanciamento tra risorse spendibili e l'ampiezza/profondità dell’informazione
ottenibile. Dato che non si può investigare ogni aspetto di un fenomeno, bisogna rinunciare a
qualcosa, in termini di informazione e conoscenza, e questo quid può essere: l'ampiezza del campo
d'indagine; la profondità dell'introspezione del fenomeno; una miscela dei precedenti.

In sostanza, ricercatore e committente sono chiamati ogni volta definire l'entità del ‘vuoto informativo’
del quale appare meno dannoso soffrire, date le risorse impiegabili nella ricerca. Un modo efficiente
per sciogliere il nodo può consistere nell'iniziare il percorso di budgeting di un progetto dalla
definizione delle caratteristiche delle risposte desiderate dal marketer, tenendo presente che vale la
regola per cui tanto più si può spendere, tanto più accurata sarà l'informativa che ne verrà

2. Informativo: concerne il percorso di formulazione delle ipotesi di ricerca. Richiama il principio di


parsimonia delle ipotesi: il team di ricerca deve costantemente ridurre il numero delle variabili
operative di rilevazione, rispetto all'ideale teorico che esprimerebbe al meglio la tesi, in quanto di
solito non sussistono le condizioni per una sostenibilità economica e di tempo.

3. Metrico: il problema generale è quello di definire le metriche precise, capaci di cogliere appieno, e nel
modo più corretto possibile, ogni fenomeno nella sua specificità fenomenica. Non è corretto infatti
considerare un metodo di misurazione valido erga omnes; bisogna infatti ragionare sull’effettiva
adeguatezza della specifica strumentazione di misura prescelta in relazione al tema di conoscenza. Il
nodo sta nel riuscire a dosare gli opportuni sforzi di scelta e definizione dei criteri di misura più adatti
e della loro miscela, con i tempi a disposizione e i relativi costi da sostenere

4. Etico: vale il principio che l'adozione di comportamenti corretti sia la conditio sine qua non perché si
abbia un'informazione utile e di qualità. Pertanto, regole di comportamento onesto riguardano tutti i
soggetti della ricerca:

• il ricercatore ad esempio, si deve impegnare a non manipolare i risultati per compiacere il


committente; ha il dovere di rappresentare compiutamente il percorso metodologico seguito e il
dovere di non estrarre dai dati più conclusioni di quante essi consentano

• il committente si deve impegnare a non forzare la mano al ricercatore perché modifichi i risultati; ha
il dovere di non passare un progetto di ricerca redatto da un istituto a un altro perché lo metta in
esecuzione

• l'istituto si deve impegnare a non condurre ricerche fittizie; deve mantenere la riservatezza del
rispondente e ha il dovere di effettuare tutte le interviste e le analisi progettate

• il rispondente si deve impegnare a fornire risposte veritiere e ha l’impegno a seguire le istruzioni di


risposta

• l'intervistatore ha il dovere di correttezza nel rapporto interpersonale e di non usare in alcun modo
le risposte ricevute a proprio vantaggio

La professione della ricerca di marketing ha cercato da sempre di rispondere alle sfide dell'etica con
uno strumento volontaristico formale, che il codice deontologico (es. ESOMAR e, per il nostro paese,
ASSIRM)

I canali conoscitivi

Con il termine canale conoscitivo intendiamo il modo in cui può organizzarsi l’acquisizione del flusso di dati
elementari di mercato da parte del marketer e dei partner tecnici di cui si avvale.

Distinguiamo 6 classi di canale:

• l’interazione: fa riferimento alla rilevazione dati condotta mediante interviste dirette, condotte da
persone reali o virtuali. Il dato in uscita può essere sia qualitativo che quantitativo

• l’osservazione/ascolto: fa riferimento alla rilevazione di dati qualitativi, in contesti reali (punti vendita) o
virtuali (tramite il visore VR) nei quali le persone si muovono e conversano liberamente e i loro
movimenti e discorsi sono rilevati secondo protocolli rigidi

• la misurazione: concerne l’acquisizione di dati elementari qualitativi e alla loro elaborazione ai fini della
rappresentazione delle performance

40
• la partecipazione: concerne l’acquisizione di dati elementari qualitativi in contesti che si dicono
Immersivi, ovvero con il rilevatore che partecipa attivamente a una situazione seguendo un protocollo
mediamente strutturato

• la registrazione: conduce alla rilevazione delle risposte biometriche del corpo umano a stimoli esterni,
effettuata attraverso la registrazione dei flussi elettrici e/o sanguigni all’interno del cervello

• l’acquisizione: concerne il dato informatico, assunto mediante la rilevazione, la raccolta e la


registrazione delle tracce del passaggio di ogni individuo attraverso i luoghi del nuovo panorama
fisico/digitale dell’esistenza

CAPITOLO 3 - LE RICERCHE QUALITATIVE


La ricerca qualitativa è una tipologia di ricerca di marketing, che si basa su dati quasi esclusivamente
qualitativi e produce informazioni qualitative (ovvero tutte quelle informazioni che non sono numeriche, ma
sono testi, immagini, voce), che, in quanto tali, non posso essere generalizzate su una quantità di soggetti più
ampia di quella da cui sono stati raccolti i dati stessi, poiché la raccolta non è stata effettuata secondo una
procedura di campionamento che assicuri significatività e rappresentatività statistiche.

Generalizzare, quindi, vuol dire che a partire da alcune informazioni raccolte su un campione della
popolazione complessiva statisticamente significativo è possibile generalizzare i risultati.

In questo caso, i risultati non possono essere generalizzati per diversi motivi:

I. La numerosità dei soggetti o dei fenomeni analizzati è estremamente ridotta, poiché solo in questo
modo si riesce a raggiungere il livello di approfondimento tipico della qualitativa con un costo
ragionevole

II. Di solito una ricerca qualitativa rileva dati qualitativi, quindi non numeri, ma testi, immagini,
composizioni grafiche, disegni, ovvero dati insostituibili se si vuole avere una conoscenza
profonda dei fenomeni di mercato, ma su cui sono effettuabili solo analisi che non si basano su
procedure in grado di assicurare la generalizzabilità dei risultati e quindi un valore quantitativo

L’obiettivo generico è quello di approfondire e ampliare la conoscenza di un fenomeno di mercato,


cogliendone tutta la complessità. Di conseguenza, alcuni fenomeni di mercato, come la quota di mercato o il
livello di awareness di un brand, non possono essere indagate con le ricerche qualitative.

I metodi qualitativi derivano da diverse discipline (sono MULTIDISCIPLINARI): sociologia, antropologia


culturale, psicologia e semiotica.

Vi è un chiaro trade off tra l’obiettivo di approfondimento della conoscenza e quello della generalizzabilità di
risultati: il primo rimane appannaggio delle ricerche qualitative, il secondo delle quantitative.

Le due tipologie di ricerca non sono intercambiabili, ovvero non è mai possibile ottenere con le une gli stessi
risultati conseguibili con le altre. Inoltre, alcune ricerche quantitative producono informazioni solo qualitative.
Questo succede ogni qualvolta una ricerca quantitativa, progettata secondo un certo disegno campionario,
non ottiene il successo sperato, perché il campione effettivo che risponde alle ricerche diverso da quello
atteso, perdendo i requisiti di significatività e rappresentatività che consentono di generalizzare i risultati.
Infine, vi è una rilevante complementarietà fra ricerche qualitative e quantitative. Poiché gli obiettivi che si
possono raggiungere sono di tipo differente, e le informazioni che ci si può attendere sono di natura diversa,
la combinazione delle due ricerche permette di ottenere una visione sia ampia sia profonda del fenomeno di
mercato che si vuole studiare.

La ricerca qualitativa può raggiungere in modo indipendente la totalità degli obiettivi di una ricerca o essere
integrata a metodologie di tipo quantitativo (la quale consente di avere una visione quantitativa delle
variabili che sono state indagate nelle interviste qualitative e dare loro un peso). In genere si parte dalla
qualitativa, si chiariscono le idee e si realizza successivamente una ricerca quantitativa (ma a volte si segue il
percorso inverso, quando ad esempio raccogliendo sistematicamente dati quantitativi, l’impresa si trovi nella
41
necessità di comprendere cosa ci sia dietro i numeri, ovvero quali siano le possibili cause, spiegazioni e
fattori che potenzialmente provocato certi risultati).

Studiare la complessità di un fenomeno vuol dire:

- Approfondire la conoscenza ricostruire la concatenazione di variabili che vanno dalla sfera più
manifesta (come il risultato di un’azione di marketing che si evidenzia con un’attività di mera
osservazione o con una ricerca quantitativa – ES. osservazione di uno scontrino di un’e-commerce) a
quella più profonda, ovvero meno apparenti e consapevoli (come, ad esempio, la motivazione)

- Ampliare la conoscenza far emergere tutte le variabili contestualmente presenti e interagenti nella
costituzione di un fenomeno (v. competitive, relazionali, culturali, sociali, ecc…) per comprendere le
relazioni e le reciproche influenze

Le ricerche quantitative non permettono di arrivare a tali livelli di approfondimento. Infatti, la necessità di
pervenire a un elevato livello di aggregabilità di dati comporta due conseguenze significative: da un lato, la
necessità di ottenere dati il più possibile standardizzati, limitando di conseguenza la libertà di espressione dei
partecipanti alla ricerca; dall’altra, la necessità di utilizzare strumenti di raccolta dei dati con un elevato grado
di strutturazione e che richiedono tempi di interazione ridotti, impedendo l’utilizzo di dispositivi grafici, verbali,
immaginative e tecnologici.

Tipicamente le ricerche qualitative esplorano fenomeni nuovi per i quali non si dispone di una conoscenza
minimale (es. entrare in un segmento di mercato nuovo o la scoperta di nuovi bisogni o bisogni latenti) o per i
quali si ha una conoscenza parziale (per questo si usa il termine esplorare) in modo da far emergere variabili
latenti costitutive di un fenomeno (es. conoscere le variabili attraverso le quali i clienti categorizzano i vari
prodotti presenti nel mercato). Infine, le ricerche qualitative possono essere utilizzate anche per acquisire
nuove conoscenze e competenze dei clienti; si tratta di un caso specifico, perché rappresenta una situazione
in cui i clienti dispongono di conoscenze e competenze che l’impresa non ha, ma di cui può avere necessità
per lo sviluppo o il miglioramento del proprio sistema di offerta.

Hanno lo scopo di andare oltre i fatti concreti e le espressioni manifeste degli stessi, al fine di:

• Comprendere le motivazioni degli atteggiamenti e dei comportamenti manifesti (come il non


riacquisto)

• Esplorare anche le motivazioni sconosciute agli intervistati e difficilmente verbalizzabili (sentimenti,


motivazioni, timori, pregiudizi, ecc…)

• Studiare i fenomeni cogliendo gli elementi anche non immediatamente evidenti che li determinano nel
loro processo dinamico e nel sistema di interazioni che si formano

LE AREE CONOSCITIVE ESPLORABILI CON LE RICERCHE QUALITATIVE


La matrice prevede l’analisi di due dimensioni:

1. La consapevolezza (dimensione verticale) e


l’inconsapevolezza: nella prima rientrano
fenomeni di interesse per il marketing di cui il
consumatore ha consapevolezza (attiene alla sfera
della mente razionale ed emotiva di cui si ha
contezza); mentre nella seconda rientrano i
f e n o m e n i d i c u i i l c o n s u m a t o re n o n h a
consapevolezza (attiene alla sfera emozionale
inconscia)

2. La condivisibilità e la non condivisibilità: nella


prima dimensione rientrano tutti gli ambiti facilmente verbalizzabili, mentre nella seconda rientrano le
42
tematiche di cui gli individui non hanno piacere di condividere

Partendo dal quadrante in alto a sinistra, esistono 4 diversi ambiti/fenomeni:

1. Ambiti pubblici e socialmente accettabili: sono pubblici perché gli individui sono consapevoli e
sono ambiti di cui hanno piacere a parlare

2. Ambiti privati e non facilmente ammissibili: si tratta di aspetti privati, per questo gli individui non
hanno piacere a condividere

3. Ambiti potenzialmente comunicabili ma difficile da verbalizzare: sono difficili da verbalizzare


perché non sono chiari nella mente dell’individuo

4. Ambiti privati e repressi

Come orientarsi?

1. Per i fattori consci si utilizzano domande dirette (es. ti


piace il gelato?)

2. Per i sentimenti privati si utilizzano delle tecniche


specifiche, come ad esempio far scegliere
all’intervistato il luogo in cui realizzare l’intervista in
modo che si possa sentire a proprio agio e in cui può
avere il controllo della situazione (es. casa sua),
ricorrendo a domande indirette e in terza persona

3. Per le associazioni intuitive, si utilizzano tecniche


specifiche come proiezioni mentali, espressione
attraverso immagini, metafore

4. Per i fattori inconsci, invece, si utilizza la psicoanalisi e la clinica. Si ricorre spesso alle neuroscienze,
che consentono di rilevare in modo oggettivo le risposte fisiologiche della mente umano (battito
cardiaco, micro-sudorazione, attività cerebrale del cervello, pupilla dilatata), ma che non possono
essere verbalizzate

Alcune caratteristiche delle qualitative


I particolari obiettivi che si possono perseguire
con una ricerca qualitativa e le informazioni che
ne derivano contribuiscono a determinare alcune
ulteriori specificità di tale tipologia di ricerche. In
primo luogo, una specificità è costituita dalla
scarsa numerosità dei soggetti coinvolti nella
ricerca. In genere la numerosità è estremamente
limitata, nell'ordine delle decine di casi al
massimo: non è raro imbattersi in ricerche
effettuate tramite interviste in profondità su 7, 8
persone, mentre è tipico progettare le ricerche
tramite focus group coinvolgendo 40 o 50
persone. Questa ridotta numerosità spesso provoca sconcerto in chi si appresta per la prima volta ad
affrontare una ricerca qualitativa, in quanto genera il dubbio sulla rilevanza che possono avere le opinioni di
poche decine di persone. Lo sconcerto non ha motivo di esistere se si ricorda l’obiettivo di una ricerca
qualitativa, ovvero quello di approfondire la conoscenza di un fenomeno, evidenziare la complessità che lo
costituisce e far emergere i fattori che lo determinano. Se questo è l'obiettivo, dovrebbe apparire evidente
che non è né utile né necessario coinvolgere centinaia di persone per raggiungerlo. L'approfondimento della
conoscenza, infatti, richiede l'utilizzo di tecniche di raccolta dati che prevedono tempi lunghi e l'impiego di

43
dispositivi particolari di sollecitazioni dei rispondenti, non utilizzabili con i classici strumenti strutturati di una
ricerca quantitativa.

Il desiderio di estendere l'utilizzo di tali tecniche a campioni di dimensioni rilevanti si scontra con un paio di
ostacoli:

- l'inutilità, poiché dopo un numero di casi non elevato i risultati tendono a perdere valore informativo,
secondo la legge dei rendimenti marginali decrescenti

- la non economicità, poiché il costo unitario di tali tecniche è elevato, per cui l'estensione a campioni
ampi renderebbe la ricerca anti-economica

Nel caso di una ricerca qualitativa, la qualità della ricerca dipende dalla sua autenticità, ovvero
dell'appropriatezza delle metodologie utilizzate nel rappresentare efficacemente il fenomeno che si vuole
studiare, ovvero dalla loro capacità di dare conto della complessità di tale fenomeno. Questo porta alla
necessità di abbandonare l'idea che la ricerca qualitativa debba riprodurre il vero, per arrivare all'idea che la
ricerca debba evidenziare la ricchezza dei fenomeni di mercato.

Una seconda specificità delle ricerche qualitative è costituita dalla criticità del ruolo del ricercatore nella
fase di raccolta dei dati, oltre che in quella di analisi e di interpretazione. Il momento della raccolta del dato
risulta essere abbastanza critico. Le capacità del ricercatore di cogliere quali siano gli elementi significativi da
approfondire, di farli emergere scegliendo la modalità più adeguata per porre domande o per impostare
l'osservazione oppure per dirigere la discussione, di ricondurre i dati a eventuali modelli interpretativi nel
momento stesso in cui stanno emergendo, di collegare il singolo dato di ricerca a dati precedentemente
emersi, di far fruttare la propria esperienza precedente nel capire quali sono i temi più ardui da trattare,
caratterizzano in modo determinante il risultato della ricerca, in quanto influenzano l'autenticità dei dati
generati. Mentre nelle ricerche quantitative l'intervistatore non deve far altro che leggere le domande del
questionario strutturato e trascrivere esattamente le risposte oppure fornire correttamente le istruzioni per lo
svolgimento dell'esperimento o per la compilazione del questionario, il ricercatore qualitativo necessita di
competenze ed esperienze più complesse: la capacità di stabilire una relazione ricca e fruttuosa con il
fenomeno da indagare è condizione fondamentale per la qualità del risultato della ricerca. Per questo motivo
la ricerca qualitativa richiede un contatto prolungato con il fenomeno da indagare, in modo che la complessità
possa essere fatta emergere, contribuendo alla ricchezza del dato qualitativo. Di conseguenza, che i tempi di
raccolta dei dati siano decisamente superiori rispetto a quelli della ricerca quantitativa.

Un'ulteriore caratteristica distintiva delle ricerche qualitative è la flessibilità, intesa come adattabilità delle
diverse tecniche e metodologie alla varietà dei differenti fenomeni di mercato da indagare. La ricerca
qualitativa, infatti, può utilizzare tecniche di raccolta dei dati di gruppo, nel caso si voglia indagare fenomeni
in cui l'influenza sociale abbia un peso oppure individuali, nel caso invece si ritenga utile focalizzarsi sulla
specificità del singolo individuo; possono essere utilizzate metodologie di interpretazione dei dati che
lasciano emergere i fattori psicologici, linguistici sociali connessi al fenomeno.

Flessibilità significa anche elasticità, ovvero capacità di assecondare le specificità del singolo soggetto o
gruppo di soggetti che si intende analizzare.

Da ultimo flessibilità vuol dire libertà di interpretazione, ovvero la possibilità di selezionare durante il processo
interpretativo i modelli più adatti a far emergere la complessità del fenomeno.

Tutte le caratteristiche distintive descritte fino ad ora, ne generano una che sintetizza tutte le altre: la
capacità di fornire una visione olistica dei fenomeni di mercato. Mentre le ricerche quantitative
favoriscono una visione analitica di un fenomeno di mercato, essendo orientati alla sua scomposizione nelle
variabili che lo costituiscono e alla misurazione del contributo delle variabili alla costituzione all'evoluzione del
fenomeno stesso, le ricerche qualitative favoriscono una visione di sintesi perché colgono il complesso e
articolato punto di vista di soggetti che si vogliono analizzare.

Dal momento che il dato quantitativo è frutto di prospettive differenti in grado di cogliere aspetti molteplici del
fenomeno indagato, possiamo affermare che il dato qualitativo è un dato ricco. È necessario quindi ricercare
44
la giusta combinazione fra la numerosità e la qualità dei soggetti analizzati, le competenze del ricercatore e la
flessibilità delle tecniche e delle metodologie che permettono la generazione di dati ricchi, in grado di cogliere
la complessità dei fenomeni indagati.

I limiti delle ricerche qualitative


Esistono però delle limitazioni:

a) Questa tipologia di ricerca non permette la generalizzazione dei risultati, proprio perché viene
utilizzato un numero ridotto di soggetti o di eventi da studiare e quindi non significativo
statisticamente, e la tipologia di dati raccolti non permettono di estendere i risultati ottenuti a
campioni più ampi. In termini manageriali ciò significa che assumere decisioni sui solo risultati di una
ricerca qualitativa, senza una verifica quantitativa, comporta l'assunzione di un grande rischio

b) Il ruolo critico del ricercatore, la scarsa strutturazione dei metodi e delle tecniche e la flessibilità, pur
offrendo grandi vantaggi in termini di comprensione del fenomeno, comportano una difficile
replicabilità delle indagini qualitative. Questo perché questa tipologia di ricerca sconta la notevole
soggettività sia nella fase di raccolta dei dati sia in quella di analisi e interpretazione, rendendo
maggiormente difficoltosa la replica della ricerca stessa da parte di altri ricercatori o su fenomeni di
mercato differenti

LE TECNICHE DI RACCOLTA DATI NELLE QUALITATIVE

Le barriere alla raccolta dei dati qualitativi


Nel momento in cui si vuole procedere alla raccolta di dati, l’obiettivo di indagare in profondità si scontra con
tre tipologie di barriere innalzate dagli individui quando vengono sollecitati a comunicare le proprie opinioni, i
valori, le credenze e i comportamenti:

▪ Barriera della comunicabilità: tale barriera può dipendere da un atto di volontà, nel caso in cui gli
individui non ritengono opportuno rivelare a un estraneo informazioni che giudicano troppo personali
(es. i valori) oppure possono percepire un eventuale giudizio negativo da parte dell’intervistatore; in
secondo luogo può dipendere dal fatto che alcune credenze, atteggiamenti e giudizi, pur se costruiti
consapevolmente nel passato, si sono sedimentati e vengono utilizzati dagli individui in modo
automatico e routinario, impedendo loro di recuperarli dalla memoria e giustificarne le motivazioni e i
fattori influenzanti (es. la preferenza verso un dato attributo di prodotto senza però riuscire ad
esplicitare la causa)

▪ Barriera della contestualizzazione: difficoltà di separare alcune conoscenze degli individui dai
contesti in cui sono state generate o vengono utilizzate (es. descrivere come si utilizza un prodotto
soprattutto se complesso, senza la sua disponibilità e a distanza di tempo). La tecnica che consente
di superare questa barriera è l’osservazione

▪ Barriera della consapevolezza: per tutte le conoscenze e informazioni acquisite in modo


inconsapevole, attraverso un processo che avviene a livello subconscio o inconscio (es.
comportamenti routinari di utilizzo di un prodotto di cui non si ha consapevolezza), le quali sono
difficili da elicitare (ovvero estrarre)

Per poter superare queste barriere, le tecniche di raccolta dei dati della ricerca quantitativa non sono
sufficienti, in quanto, per loro impostazione, sono in grado di cogliere solo gli aspetti più comunicabili,
manifesti e consapevoli degli intervistati. Per questo motivo le tecniche di raccolta dei dati nella ricerca
qualitativa, allo scopo di aggirare tali barriere e far emergere gli aspetti più profondi cui la ricerca mira,
utilizzano una serie di dispositivi riconducibili alla gestione della relazione ricercatore-rispondenti e alla
modalità di somministrazione delle domande.

Lezione 8.03.22

45
Metodi di raccolta dei dati
Tra i metodi di raccolta dei dati ci sono:

1. Metodi basati su questionario, ovvero liste di domande prevalentemente multiple e/o chiuse, che si
suddividono in:

a. Indagini quantitative (in via esclusiva), con diverse tecniche di rilevazione:

▪ CATI Computer-Assisted Telephone Interview ovvero le rilevazioni che si svolgono


telefonicamente

▪ CAPI Computer-Assisted Personal Interview, ovvero intervista personale aiutata da un


computer o dispositivo digitale

▪ CAWI Computer Assisted Web Interview

▪ POSTALI – FAX – AUTOCOMPILAZIONI DIARI ACQUISTI per le autocompilazioni di diari


si consegna alla persona un diario (in passato cartacei, oggi digitali) tramite il quale la
persona intervistata tiene traccia di una serie di azioni che sono oggetto dell’indagine; a
questo diario, che prevede un’azione volontaria da parte dell’intervistato, si abbina un meter,
ovvero un dispositivo indossabile digitale che è in grado di tracciare determinati movimenti e
azioni del partecipante, in modo tale da incrociare i dati del tracking e i dati del diario

b. Indagini qualitative (in via accessoria), che possono essere:

▪ FOCUS GROUP

▪ ESPERIMENTI

2. I metodi basati su mezzi elettronici:

a. Lettori scanner, meter, etc… utilizzano i lettori scanner, generalmente il partecipante è mandato
a fare la spesa e viene munito di uno scanner con cui vengono registrati tutti gli acquisti; mentre i
meter sono dei dispositivi wearable o che si aggiungono ad altri dispositivi come i visori, computer
o tablet

3. I metodi basati su scaletta/traccia d’intervista (interview guide):

a. Indagini qualitative:

▪ FOCUS GROUP

▪ INTERVISTE IN PROFONDITA’

▪ TECNICHE PROIETTIVE

Sono tecniche che possono essere utilizzate a servizio della costruzione della traccia di intervista o utilizzate
da sole.

b. Indagini quanti o qualitative:

▪ OSSERVAZIONE IN AMBIENTE NATURALE: si utilizza la scaletta intervistando le persone


in un ambiente naturale (come ad esempio il supermercato, flagshipstore, ecc…) mentre il
soggetto sta vivendo l’esperienza: l’osservazione che porta alla raccolta dei dati passivi
viene abbinata alla raccolta dei dati provenienti dall’intervista con il soggetto

46
▪ OSSERVAZIONE IN LABORATORIO: durante l’esperimento in laboratorio si misurano una
serie di parametri legati all’attività cerebrale e fisiologica; successivamente si risponde a un
breve questionario o a una breve traccia di intervista

Le diverse tecniche di raccolta dei dati qualitativi


Esistono 3 principali tecniche di raccolta dei dati qualitativi:

1. Interviste individuali

2. Focus group

3. Osservazione

Le interviste individuali
Le interviste delle ricerche qualitative hanno l’obiettivo di andare in profondità per svelare la complessità del
fenomeno indagato. Per questo l’intervista è chiamata intervista in profondità (in depth interview). L’obiettivo
è raggiunto tramite tracce semi-strutturata (definire la scaletta in dettaglio, con la possibilità di modificare
l’ordine e i pesi) o aperta (è preferibile). La scelta del grado di strutturazione da dare all’intervista dipende
dagli obiettivi informativi della ricerca.

Le interviste individuali presentano particolari caratteristiche:

- Implicano una relazione face-to-face (personale) tra intervistatore e intervistato (anche online e
quindi mediata da tecnologia); solo con il rapporto diretto tra intervistato e intervistatore, e non
mediato da uno strumento quale il questionario strutturato né da mezzi quali il telefono, è possibile
cogliere gli aspetti più profondi e ottenere una visione olistica di fenomeni; questa necessità non
sussiste quando si realizzano delle survey

- Vengono condotte in base a una traccia d’intervista ossia una traccia degli argomenti, che può
presentare livelli diversi di strutturazione (più o essere più o meno articolata e formalizzata ex-ante con
l’inserimento di ancoraggi, ovvero punti che devono essere approfonditi)

- Esse durano tra i 20 e i 90 minuti circa

- Vengono registrate, trascritte e analizzate insieme alle altre interviste

- L’oggetto di studio è il singolo individuo e la sua personale dinamica cognitiva ed emotiva rispetto
allo stimolo proposto (ovvero le domande che si rivolgono alla persona)

L’intervista ha una natura relazionale: tra i due soggetti dell’incontro si stabilisce una relazione multi-livello
che può operare da fattore causante o controproducente l’efficacia dell’intervista stessa. Intervistatore e
intervistato innescano un processo di reciproche influenze che dipendono da una serie di fattori:

- Il riconoscimento della differenza di ruolo: l'intervista non è una semplice conversazione in cui i due
interlocutori si scambiano reciprocamente il ruolo di chi parla e di chi ascolta, ma è chiaro che
nell'intervista una delle due parti è interessata a ottenere dall'altra delle informazioni e per questo
tenterà di creare un'atmosfera favorevole e di stabilire un clima di fiducia

- la presenza di aspettative differenti: è necessario essere consapevoli della presenza di aspettative


differenti che ognuna delle parti ha nei confronti di se stessa, dell'altra e della relazione stessa

- l’emergere di stati emotivi positivi e negativi: spesso i temi trattati nell'intervista suscitano nelle due
parti stati emotivi positivi o negativi che, generalmente, innescano meccanismi di difesa

I dati di ricerca: il contenuto, il processo, il contesto

47
I dati prodotti con l’intervista sono:

1. Contenuto dell’intervista stessa, ovvero motivazioni, opinioni, atteggiamenti, credenze,


comportamenti, tutte le caratteristiche socio-demografiche, economiche, culturali, valoriali e
psicologiche che denotano l’intervistato nel contesto in cui vive e tutte le altre informazioni prodotte
dall’intervistato tramite la loro espressione verbale (la trascrizione della domanda esattamente come è
stata formulata per il particolare intervistato e della sua relativa risposta – se l’intervistato va fuori tema,
nella trascrizione bisogna aprire le parentesi quadre [..] e scrivere al minuto x parla di altro; non scrivere
espressioni volgari, dialettali, ma è comunque importante tenere traccia del tone of voice e della
terminologia utilizzata; se parla male del brand è necessario comunque trascriverlo)

2. Comunicazione non verbale durante l’intervista è importante tenere traccia della comunicazione
non verbale; bisogna trascrivere tali movimenti se i concetti che sta esplicitando sono sostenuti anche
da una comunicazione non verbale evidente (anche il tono che utilizza è importante tracciarlo, se fa
ironia). Questa fornisce indicazione sugli stati emotivi e affettivi dell’intervistato sollecitati durante
l’intervista e sulle loro significato. In questo senso, il modo in cui la verbalizzazione avviene è un dato
di ricerca a sé stante e significativo della comunicazione verbale.

Se la comunicazione verbale è un'ottima fonte di dati inerenti la sfera cognitiva e comportamentale


esplicita degli individui, la comunicazione non verbale lo è per la sfera più emotiva.

Le tipiche componenti della comunicazione non verbale sono:

▪ L'aspetto esteriore: l'abbigliamento, gli accessori, il trucco ecc.., sono modalità tramite cui ogni
individuo esprime la propria percezione di sé e la percezione di sé che vuole dare agli altri

▪ La postura: la posizione del corpo fornisce diverse indicazioni sugli stati interiori dell'intervistato
una posizione un po’ ricurva, con la testa incassata fra le spalle, segnala un certo timore verso la
situazione; allo stesso modo da seduti, una posizione di inclinazione in avanti e di seduta sul bordo
della sedia, suggeriscono che il soggetto preferirebbe fuggire. Posizioni rilassate e sicure di sé
mostrano interesse e comfort nei confronti della situazione

▪ I movimenti del capo: sono tra i segnali più veloci, anche se tra i più controllabili nell'ambito della
comunicazione non verbale. Vengono solitamente usati a rinforzo di affermazioni positive o negative,
oppure a esprimere incertezza, allegria e altri stati emotivi, in modo combinato alla mimica facciale

▪ I gesti: si può distinguere tra gesti volontari e involontari. I gesti involontari sono tra i meno controllabili
e tra più indicativi degli stati emotivi dell'intervistato. Particolarmente espressivi di uno stato d'ansia di
tensione, sono il gesto di mettersi a braccia conserte oppure muovere in modo agitato le gambe,
oppure ancora altri gesti ripetitivi come toccarsi il naso, la bocca, i capelli, le mani

▪ La mimica del volto: sono forme di comunicazioni non verbali tra le meno controllabili e quindi fra le
più significative. Sono spesso impercettibili, i movimenti delle sopracciglia, dei muscoli facciali,
dell'apertura degli occhi e della posizione della bocca, si conformano a costituire un'espressione
serena e rilassata oppure, al contrario, un'espressione che segnala incertezza, tristezza, difficoltà
emotiva

▪ Lo sguardo: la direzione dello sguardo, la sua fissità, la sua apertura, la sua fuggevolezza sono tutti
indicatori della capacità e della volontà di sostenere l'interazione oppure a seconda dell'argomento di
cui si sta parlando, della preferenza di rendere il più veloce possibile il discorso per passare a
qualcosa di meno stressante. Inoltre, lo sguardo è un buon indicatore del processo attraversato
dall'intervistato nel caso stia cercando di ricordare o di concentrarsi e, insieme alla mimica facciale,
del fatto che i ricordi suscitino stati emotivi piacevoli o meno

▪ Gli aspetti paralinguistici: i più rilevanti sono sicuramente il tono, i vocalizzi, il ritmo del discorso,
esitazioni e i silenzi. Le variazioni di questi aspetti segnalano la variazione degli stati emotivi degli
intervistati, mettendo in risalto soprattutto lo stato d'ansia generato dagli argomenti in discussione

3. Contesto è un dato solo se è il contesto dell’intervistato (es. recarsi a casa dell’intervistato). Il


contesto permette di fornire indicazioni sul sistema di relazioni in cui l’intervistato si muove. È
necessario, ovviamente, che il contesto sia scelto dall’intervistato e non dall’intervistatore. Quanto più
il contesto sarà vicino al rispondente tanto più l’interazione potrà venire in modo sereno e rilassato

48
La combinazione dei tre ambiti di generazione dei dati permette all’intervista in profondità di soddisfare i
requisiti fondamentali della ricerca qualitativa: innanzitutto consente di andare in profondità sul fenomeno
indagato, perché abilita a indagare la sfera cognitiva, emotiva e comportamentale dei soggetti analizzati; in
secondo luogo, permette di osservare la realtà con gli occhi degli intervistati, raccogliendo la ricchezza del
loro mondo e favorendo la visione olistica dei fenomeni indagati.

Il ruolo dell’intervistatore
Il ruolo dell’intervistatore è fondamentale per il successo dell’intervista.

Come si deve comportare:

▪ Deve raggiungere gli obiettivi di ricerca (i quali si esaudiscono con l’insieme delle interviste che
vengono realizzate, e non con la singola intervista)

▪ Il suo primo compito consiste nel riuscire a superare le barriere all’esplicitazione delle informazioni da
parte del rispondente senza che questi percepisca tale superamento come un’intromissione, al fine
della costruzione e della corretta gestione della dinamica relazionale durante l’intervista

▪ Deve riuscire a controllare il più possibile la propria comunicazione non verbale e i propri stati emotivi

▪ Deve ascoltare attivamente (active listening), ossia dimostrare interesse e assenza di pregiudizi nei
confronti del rispondente. Si parla di ascolto non giudicante, che prevede l’assenza di una
predisposizione favorevole o sfavorevole verso l’intervistato che piò influenzare i suoi stati emotivi e di
conseguenza l’esplicitazione delle informazioni. Un ascolto non giudicante si mostra attraverso una
corretta somministrazione delle domande e degli stimoli e un’esatta gestione della comunicazione non
verbale

▪ Deve evitare le generalizzazioni

▪ Deve facilitare il discorso, non interrogare, in cui l’esplicitazione del contenuto delle domande deve
essere chiara e con uno stile che si allinei il più possibile a quello del rispondente

▪ Deve saper interagire, diventando parte in causa nel processo che sta studiando

▪ Deve saper distinguere il singolo colloquio dalla sua interpretazione (necessità di interpretazione alla
luce della totalità del materiale raccolto)

Non è opportuno dare pareri personali sia in supporto sia in opposizione poiché ha degli effetti negativi
sull’intervista e perché in questo modo non si mantiene la neutralità.

Per garantire la qualità dei dati verbali, l’intervista deve essere audio-registrata e videoregistrata, per avere
una raccolta fedele della comunicazione non verbale. In caso ciò non fosse possibile, la registrazione della
comunicazione non verbale viene lasciata all’intervistatore, che prende appunti durante lo svolgimento
dell’intervista, lasciando all’audio-registrazione la raccolta del contenuto verbale.

La traccia d’intervista o scaletta


La traccia d’intervista è una lista di domande e/o di punti che l’intervistatore decide di toccare per poter
ottenere le informazioni dal rispondente. La caratteristica fondamentale è la flessibilità (a differenza del
questionario strutturato delle survey), anche nel linguaggio. L’intervistatore solitamente utilizza la traccia
come promemoria dei punti da toccare, ma la sequenza dei contenuti è determinata in primo luogo dal flusso
delle risposte fornite dall’intervistato, che potrebbe non seguire la successione immaginata dall’intervistatore
al momento della stesura della traccia.

Per costruire una buona traccia bisogna sempre partire dal ragionare sugli obiettivi conoscitivi,
abbandonando l’idea che ad ogni obiettivo possa corrispondere una sola domanda. La conoscenza
approfondita si ottiene innescando un processo di indagine che prevede una successione di domande
articolate e connesse fra loro.

49
La sequenza delle domande, la tipologia e il modo di porle sono aspetti importanti per favorire una
dinamica relazionale significativa, oltre che la raccolta di buone informazioni in funzione dell’obiettivo.

Per la successione delle domande, di solito, si segue un percorso logico dal generale al particolare.

Tipologie di domande
1. Descrittive: sono domande con cui si chiede all’intervistato di esprimere le proprie rappresentazioni
delle realtà che sono oggetto dell’intervista (es. di se stesso, di prodotti, marche, situazioni,
comportamenti) – serve per inquadrare cosa ha in testa l’intervistato e chi si ha di fronte (Cosa
rappresenta il mare, Raccontami la tua vacanza-tipo al mare)

2. Strutturali: servono per comprendere il modo in cui il rispondente organizza cognitivamente le proprie
idee, le proprie emozioni, la propria conoscenza, le proprie opinioni. Esempio: “Quali sono i diversi
modi con cui classificare le tipologie di automobili?”; “Se dovesse descrivere le emozioni che le ha
suscitato l’acquisto dell’automobile, quali citerebbe?”

3. Di similarità o contrasto. Servono per far emergere le somiglianze e le differenze percepite tra
situazioni, eventi e prodotti. Esempio “Qual è la marca di auto più simile ad Audi?”

4. Domande di rispecchiamento. Servono per sollecitare un approfondimento, ma non in modo diretto

Domande descrittive
Le domande descrittive si possono distinguere in:

▪ Domande di ampio respiro (gran tour questions) chiedono una descrizione ampia di un fenomeno.
Servono per iniziare a far emergere le variabili rilevanti e circoscrivere il fenomeno agli occhi del
rispondente: es “Mi può portare il percorso che l’ha condotta all’acquisto della sua automobile?”; più
la domanda è ampia più si riesce a rompere il ghiaccio e a sollecitare una sorta di storytelling

▪ Domande focalizzate (mini tour questions) consistono in una richiesta di dettaglio su uno dei temi
emergenti dalla risposta a una domanda di ampio respiro. Servono per iniziare ad approfondire alcuni
di temi: es. “Mi ha detto che ha raccolto molte informazioni prima di scegliere. Mi può dire qualcosa di
più sulle fonti che ha utilizzato?”

▪ Domande di esemplificazione (example questions) con queste domande si chiede di


esemplificare alcune delle situazioni, degli eventi espressi nelle risposte precedenti. Servono per
comprendere i punti di riferimento usati dal rispondente per dare un senso alla realtà e per
concretizzare le parole per fornire insight utili al cliente: es. “Mi fa un esempio di concessionario che
ha trovato attento ai clienti’”

▪ Domande su esperienze dirette (experience questions) si sollecita il racconto di un’esperienza


vissuta in prima persona dal rispondente. L’obiettivo è far emergere pensieri, emozioni e
comportamenti personali connessi al fenomeno studiato, sollecitando il racconto di un’esperienza
vissuta: es. “Può raccontarmi di una visita presso un concessionario?”

▪ Domande sul linguaggio personale (native-language questions) poiché spesso gli individui
utilizzano termini particolari per nominare eventi, persone, oppure perché il significato di alcune parole
può essere molteplice, con queste domande si intende svelare l’interpretazione autentica di quei
termini; è importante essere allineati anche dal punto di vista linguistico con l’intervistato: es. “Cosa
intendi con concessionario d’immagine?”

Lezione 14.03.22

Domande di rispecchiamento

50
▪ Riformulazione a eco si ripete in forma di domanda il concetto o la parola chiave espressi
dall’intervistato. Es. “Io non comprerei mai un’auto da un concessionario antipatico perché mi
indisporrei! “Antipatico?”, servono per capire cosa vogliono dire determinate parole pronunciate
dall’intervistato, in modo da essere concreti

▪ Reiterazione a riflesso semplice quando si riassumono le parole del rispondente oppure si


ripetono le ultime parole dette. Es. “Se ho capito bene, sta dicendo che un concessionario che parla
molto e fa poche domande non dimostra interesse verso le sue esigenze. È corretto?”

▪ Riflesso del sentimento è simile al precedente, ma con una focalizzazione sugli aspetti emotivi
sottostanti al discorso

▪ Riflesso parziale quando all’interno di frasi del rispondente, l’intervistatore seleziona alcune
porzioni meritevoli di approfondimento e gliele ripropone

Il modo di porre le domande: dirette vs indirette


Le domande dirette (solitamente a risposta aperta) sollecitano un’espressione del proprio punto di
vista, giudizio, atteggiamento in modo immediato. Es: “Cosa ne pensi delle automobili tedesche?”

• Vi è il rischio di innescare meccanismi di auto-difesa o risposte stereotipate o socialmente


desiderabili. Per questo le domande dirette si possono porre quando la situazione è molto chiara,
quando non subentra il rischio di difesa da parte dell’intervistato o quando il tema non attiene alla
sfera privata e non ha paura di manifestare la loro opinione

• Esistono anche le domande dirette a risposta chiusa, utilizzate generalmente con l’ausilio di un
supporto visuale da somministrare al rispondente: ciò avviene quando si richiede un giudizio
puntuale o un confronto preciso fra elementi (prodotti, servizi, marche, luoghi d’acquisto) sulla
base di specifici criteri

Le domande indirette (solitamente a risposta aperta): servono per superare le barriere di


comunicabilità, della contestualizzazione e della consapevolezza, le quali tentano di distogliere il focus
del rispondente da se stesso per spostarlo su altri ambiti, aspetti o argomenti. Es: “Se le automobili
tedesche fossero una specie di animale…”

• Test proiettivi, che consistono in stimoli di tipo verbale, grafico o figurativo, caratterizzati da una
certa dose di ambiguità e volti a stimolare la proiezione del rispondente su persone, situazioni o
oggetti terzi, in modo da alleviare l’ansia dovuta all’esporsi in prima persona e permettere
l’esplicitazione del proprio modo di pensare e di sentire. Sono un esempio l’associazione o il test
in terza persona (proprio perché l’intervistato non vuole sentirsi giudicato, è meglio parlare in terza
persona – es. come descriveresti una persona che utilizza delle automobili tedesche)

In una traccia di intervista dovrebbero essere presenti entrambe le domande, dirette e indirette,
equilibrandole, in modo da raggiungere gli obiettivi di ricerca. È importante chiedere sempre il perché delle
cose (es. caratteristiche dell’animale che si associano all’animale che risulta essere simile all’automobile).

Le tecniche proiettive
Le tecniche proiettive consistono in uno stimolo visuale o verbale, che è volto a stimolare la proiezione della
personalità, delle opinioni e dei sentimenti del rispondente su soggetti, oggetti, contesti o situazioni, così da
ridurre l’ansia dovuta all’esporsi in prima persona.

In questo modo è possibile rilevare fattori nascosti o inconsci. Alcuni esempi sono:

- Associazioni di parole o associazioni di immagini (es. analisi sui tempi, la frequenza di risposta, il
numero di soggetti che non rispondono) chiedere la prima cosa che viene in mente (Se dico

51
costume a due pezzi che cosa ti viene in mente? In termini di concetto astratto, di immagini o di
oggetti, paesaggi, personaggi storici o famosi; se dico Arena, cosa ti viene in mente? - l’intervistatore
deve appuntarsi quanto tempo impiega l’intervistato a rispondere e capire perché ha realizzato questa
associazione; se impiega molto tempo significa che vi è un sintomo di debolezza di associazione).

L’associazione consiste nella richiesta di associare se stessi o terze persone oppure prodotti, marche,
aziende a elementi terzi, la cui decodifica permette di inferire il pensiero o le emozioni del rispondente.
Molto utilizzati sono i test che prevedono l’associazione con aspetti della natura o della cultura, per
esempio con animali, fiori, paesaggi. Molto utilizzato è anche il test dell’associazione di parole in cui si
chiede di associare d’impulso, e poi più in profondità, parole a prodotti, marche, aziende, benefici e
attributi dei prodotti, in modo da ricostruire le categorie utilizzate dei rispondenti per dare un senso a
questi elementi

- Completamento di frasi o storie lo stimolo è molto circoscritto, quindi il risultato (probabilmente)


sarà più efficace. In questo caso si sottopongono al rispondente frasi prive di finale, fumetti che
descrivono tipiche situazioni in cui l’intervistato può venirsi a trovare e in cui i balloon sono vuoti,
storie che sono solo iniziate oppure da iniziare e si chiedono di completarle verbalmente o tramite un
collage o graficamente. L’aspettativa è che il rispondente proietti il proprio modo di pensare e sentire
nelle parole e nei segni utilizzati per dare un senso agli stimoli che li sono sottoposti

- Role playing o tecnica della terza persona con questo test si chiede all’intervistato di descrivere
le caratteristiche, le opinioni, gli atteggiamenti, i comportamenti di un ipotetico individuo che si trova
ad affrontare una tipica situazione decisionale di acquisto o di utilizzo di un prodotto o di un servizio.
Es. immagina una manager in carriera, che vive in una grande città del nord Italia e si occupa di
marketing. Secondo te questa persona che tipo di automobile acquisterebbe e perché?

Nella costruzione di una traccia è opportuno suddividere le domande in macro sezioni logiche in modo da
accompagnare l’intervistato lungo il percorso, senza che quest’ultimo abbia la sensazione di essere
sottoposto a una serie di stimoli simili ad un interrogatorio. Le diverse sezioni tematiche dovrebbero essere
annunciate all’intervistato in modo che quest’ultimo sia consapevole di ciò a cui si sta rispondendo (es. Ora
parliamo del tuo rapporto con il mare, Parlami in generale del tuo rapporto con il mare, Concentriamoci ora
dell’abbigliamento per il mare, Adesso parliamo di come affronti gli acquisti – devono essere presenti queste
formule di collegamento e di introduzione alla domanda nella traccia). Cercare di trovare il giusto
compromesso tra domande dirette per ottenere una risposta diretta e ulteriori stimoli, usando domande ampie
(NON GENERICHE).

L’interpretazione di figure o disegni deriva da alcuni test molto diffusi in psicologia della personalità quali il
test di appercezione tematica (TAT- Gli stimoli forniti agli intervistati sono schede rappresentanti situazioni di
vita quotidiana predefinite) oppure il test di Rorschach (macchie informi), di cui si chiede un'interpretazione.

Domande sul profilo del rispondente: inizio e fine intervista


L’Inizio di un’intervista dipende dal tipo d’intervista che si effettua e dall’intervistato.

▪ Inizio: l’obiettivo è inquadrare la persona che stiamo per intervistare con riferimento al fenomeno che
stiamo studiando. Es: “è la prima volta che ha acquistato un’auto in prima persona?”. Se si parla con
un manager potrebbe essere iniziare con domande riguarda la sua azienda, il suo loro perché in questo
odo si mostra interesse verso di lui e ciò che fa

▪ Fine: la chiusura di un’intervista in profondità prevede che si completi il profilo del rispondente; le
interviste rimangono anonime poiché nome e cognome non aggiunge nulla ai risultati della ricerca (il
dataset rimane ANONIMO, si potrebbe utilizzare nella trascrizione e nel dataset solo il nome di
battesimo dell’intervistato). Quello che è necessario è definire il profilo degli intervistati per poter
interpretare correttamente le risposte che abbiamo raccolto. Es: genere, età, status familiare, livello di
52
istruzione, professione, livello di esperienza nel campo specifico, quante volte va al mare nell’arco
dell’anno, molti weekend al mare/pochi all’anno…

Esempio 1 – Ricerca qualitativa condotta sulla base di intervista in profondità sul nuovo packaging di
Heineken (scegliere tra il nuovo pack e la versione tradizionale; mettere un’etichetta in plastica in modo che il
pack possa vedere il contenuto di prodotto)

Obiettivi indagine qualitativa

Esempio 2 – ricerca qualitativa sul Creative Crowdsourcing dal punto di vista degli operatori del network della
comunicazione di marketing (inserzionisti, agenzie, centri media, piattaforme di Crowdsourcing) – 20
intervistati personali semi-strutturate a soggetti in target

53
Alcuni metodi di intervista strutturati
Si tratta di metodi che, essendo legati a specifiche teorie o settori disciplinari definiti, non trovano ampia
applicazione al di fuori del loro ambito originario.

La repertory grid technique (Kelly, 1995)

La repertory grid technique è una tecnica che ha l’obiettivo di rendere operativa la teoria dei costrutti
personali di Kelly. Ipotizza che ogni individuo rappresenti la realtà circostante attraverso una serie di elementi
connessi fra loro, che vanno a costruire delle teorie sul verificarsi dei fenomeni. L’obiettivo di Kelly era di
progettare una tecnica che evitasse di imporre al rispondente gli schemi predefiniti da ricercatore, ma che, al
contrario, fosse in grado di far emergere i costrutti realmente utilizzati.

La tecnica si basa su tre fasi:

1. La definizione degli elementi costitutivi della rappresentazione si sollecitano i rispondenti a


descrivere gli elementi fondamentali del fenomeno di cui si vuole ricostruire la teoria

2. L'esplicitazione dei costrutti, ovvero delle dimensioni tramite cui gli elementi sono associati fra loro
generalmente, gli elementi vengono scritti su carte (cards), fisiche o digitali se l'intervista viene
effettuata online, e il rispondente viene sollecitato a esprimere un giudizio sul loro grado di similarità
dissimilarità: le varianti riguardano il numero di alternative da graduare (la triade è la forma più
utilizzata, definita minimum context form, ma possono essere effettuati i confronti fra diadi, fra
gerarchie di elementi tramite l'esplicitazione delle relazioni gerarchiche (laddering) e, nell'ipotesi di full
context from, fra tutti gli elementi congiuntamente9

3. La rilevazione delle percezioni degli elementi rispetto ai costrutti, che si conclude con la costruzione
della griglia rappresentativa della teoria personale del soggetto si procede alla costruzione della
griglia, evidenziando quali sono gli specifici costrutti che meglio rappresentano i singoli elementi

Un ambito di applicazione tipico di questa tecnica è quello delle ricerche sul posizionamento (al cliente si
chiede di confrontare prodotti o marche) oppure quello dello studio dei processi di categorizzazione dei
prodotti (al cliente si chiede di confrontare categorie di prodotti) da parte dei clienti.

Le Q-methodologies (Stephenson, 1935)

Si tratta di metodi e tecniche di intervista accomunati dall'obiettivo di sollecitare i rispondenti a esplicitare i


propri “mondi interiori” tramite la tecnica del Q-sorting: viene richiesto di selezionare tra una serie di
affermazioni, frasi, descrizioni di eventi o di punti di vista quelle che, gradatamente, meglio rappresentano il
proprio modo di vedere la realtà o di attuare dei comportamenti.

L'obiettivo di tale metodologia è quello di misurare quantitativamente le distanze tra le posizioni di differenti
soggetti analizzati. Le procedure operative, però, di tali tecniche la rendono anche compatibile per alcuni
54
obiettivi della ricerca qualitativa, quando è interessata a ricostruire analiticamente le relazioni fra gli elementi
costitutivi del fenomeno indagato.

Le affermazioni tra cui si chiede di effettuare il sorting possono essere predefinite dal ricercatore oppure,
secondo la tecnica definita Self-Q, esplicitate in prima persona dal rispondente. Con la self-Q viene
effettuata una prima intervista in cui il soggetto è stimolato a interrogarsi sui fenomeni di interesse della
ricerca, in modo da rilevare quali sono tutti gli aspetti che li costituiscono. Nelle interviste successive
(generalmente altre due) viene svolto il sorting, ovvero l'intervistato viene sollecitato a valutare, in termini di
rilevanza, le affermazioni rilasciate nella precedente intervista e vengono evidenziate le relazioni fra di esse in
modo da pervenire una rappresentazione delle categorie cognitive o degli elementi emotivi connessi
all'oggetto della ricerca.

Queste metodologie possono essere utilizzate ogni qualvolta le interviste in profondità abbiano per oggetto
fenomeni costituiti da diverse componenti di cui si vogliono ricostruire associazioni e relazioni. Alcuni ambiti
possono essere, ad esempio, le ricerche sull'immagine di marca o di insegna, sul posizionamento e infine
sulla comunicazione, soprattutto pubblicitaria.

Lo storytelling (Gabriel, 2000)

Tale metodo si basa sull’assunto che la percezione dei fenomeni da parte di un individuo avvenga in modo
narrativo. Con ciò si intende che all'esperienza vissuta singolarmente o collettivamente viene assegnato un
senso interpretando l'insieme degli eventi attraverso la costruzione di storie. Non è una descrizione semplice,
lineare, di un fenomeno, ma la storia rappresenta una modalità molto più ricca e complessa di produzione di
senso. È, infatti, formata da una costruzione in cui agli eventi equivoci viene attribuita un'interpretazione, in
cui gli eventi vengono interconnessi, generalmente attribuendo loro finalità ben definite e in cui si fornisce il
senso diacronico ed evolutivo dei fenomeni, rafforzando così i nessi causa-effetto.

L'intervistatore chiede di narrare la storia relativa a una serie di eventi e di situazioni di interesse della ricerca,
cercando di far emergere quelli ritenuti chiave dal rispondente e sulla cui base viene costruito il complesso
fruire degli accadimenti.

Esso può comprendere altri due metodi:

• Metodo autobiografico o “racconto di storie di vita” è un’intervista in profondità focalizzata sul


racconto delle esperienze personali del rispondente o di persone a lei/lui vicine. L'intervistato
viene sollecitato a narrare, in forma di storia, alcune esperienze vissute in un passato più o meno
recente, cercando di far emergere i temi fondamentali. Viene utilizzato per le storie che riguardano
le esperienze con i prodotti, servizi, aziende o marche e risultano molto utili nelle analisi sulla
fedeltà

• Critical incident technique (CIT) le storie riguardano solo eventi che, nelle percezioni dei
narratori, sono stati caratterizzate da distonia rispetto alle aspettative o al normale fluire degli
eventi. Viene spesso utilizzata nelle indagini di customer satisfaction in cui si chiede al rispondente
di narrare l'esperienza di maggiore soddisfazione o insoddisfazione verso un fornitore, un prodotto
e così via. Spesso questa tecnica viene combinata con il test proiettivo in terza persona in cui si
chiede di narrare le esperienze di una ipotetica terza persona

Il metodo etnografico (Sayrie, 2001; Feldman, 1995)

Tale metodo deriva dagli studi di antropologia culturale, ovvero da quella disciplina interessata ad analizzare e
interpretare l'evoluzione della cultura, delle società e dei gruppi sociali più ristretti. L'applicazione di tale
metodo nelle ricerche di marketing deriva dalla constatazione che le merci hanno un significato che va oltre la
loro funzionalità immediata e sono utilizzate nei processi di produzione e di comunicazione sia dagli individui
sia dai gruppi sociali.

Il metodo contempla una notevole condivisione del contesto oggetto di indagine da parte del ricercatore.
Infatti prevede sempre la combinazione dell'intervista in profondità con l'osservazione partecipante e l'analisi
documentaria, in quanto le tracce della cultura di un individuo o di un gruppo si riscontrano anche nel
contesto in cui questi vivono e negli eventuali documenti prodotti e utilizzati. Una peculiarità del metodo
55
etnografico è l'effettuazione di interviste ai soggetti ritenuti critici per la dinamica culturale che si intende
studiare, in qualità di influenzatori delle dinamiche stesse.

Focus group

Il focus group è un colloquio o intervista di gruppo di persone selezionate con attenzione per rispondere
agli obiettivi di ricerca, generalmente bilanciati tra uomini e donne, con stili di vita vari (espressioni mutuate
dalla psicologia clinica). Si tratta di una tecnica di raccolta di dati qualitativi dove tutto è registrato e
analizzato che avviene tramite la conduzione di un gruppo di individui di piccole dimensioni, stimolato a
discutere sugli argomenti che costituiscono l’oggetto della ricerca.

Non vi è una relazione one-to-one tra intervistatore e intervistato ma vi è una situazione di comunicazione
many-to-many. Colui che conduce il focus group, esperto di marketing con un forte background in
psicologia, stimola e dirige un colloquio dove ciascuno è invitato a esprimere la propria opinione su tutte le
tematiche che sono portate alla loro attenzione.

Perché il focus group?


La ragione fondamentale e quella metodologicamente rigorosa per la scelta del focus group è che: molte
delle variabili di interesse di una ricerca di marketing si formano attraverso interazioni sociali tra clienti, tra
clienti e fornitori e tra concorrenti. In questo modo si ricrea una situazione di condizionamento sociale, in
modo tale da capire come il singolo entra in relazione con gli altri, appartenenti allo stesso cluster (stesso
livello di istruzione, stessi interessi, stesse credenze, anche di tipo religioso) e che quindi presentano
caratteristiche simili in relazione all’oggetto di studio.

Ad esempio si indaga per capire come le variabili da studiare sono determinate da:

- Motivazioni individuali – cosa vuole il consumatore (es. perché del non utilizzo delle sigarette
elettroniche)

- Opinioni (es. opinioni su specifiche modalità di didattica innovativa)

- Percezioni (es. percezioni relative agli assistenti vocali) – è il momento in cui la mente umana
determina a cosa dare attenzione e cosa no

- Atteggiamenti (es. atteggiamenti verso il cibo dei fast food)

- Preferenze (es. valutazione di una particolare confezione)

- Comportamenti (es. abitudini di acquisto)

- Associazioni mentali (es. significati, interpretazioni di particolari marche)

Caratteristiche del focus group


▪ L’unità d’analisi è il gruppo (n circa uguale a 8): i dati raccolti non devono essere considerati
provenienti dai singoli partecipanti, ma dal gruppo nel suo insieme con posizioni anche divergenti al
suo interno. La discussione dura dai 120 ai 180 minuti, viene registrata, trascritta e analizzata

▪ L’oggetto di analisi principale è l’interazione tra i partecipanti per capire l’influenza di questa
interazione sulle cognizioni, emozioni e comportamenti dei singoli

Le decisioni fondamentali da prendere per una ricerca qualitativa basata su focus group sono:

1. Numero di gruppi da effettuare

2. Numero di partecipanti per ogni gruppo

56
3. Caratteristiche dei partecipanti da invitare (caratteristiche sociali, psicologiche, esperienze di vita che
devono essere diverse, ma non troppo)

4. Tipologia di gruppi da effettuare (per superare il problema della diversità, potrebbe essere utile
formare gruppi diversi, omogenei al loro interno)

I vantaggi del focus group


o Permette di stimolare l’interazione sociale e quindi meccanismi di influenza e costruzione sociale
della realtà

o Elevato grado di flessibilità perché il conduttore può sfruttare le caratteristiche dei singoli e metterle
in gioco per suscitare dibattito e confronto

o Tempi rapidi e costi contenuti: essendo una tecnica di gruppo, è possibile, considerando più gruppi
paralleli, riuscire a comprimere i tempi di raccolta dati e quelli complessivi della ricerca

Gli svantaggi del focus group


o Può provocare inibizione da gruppo: vi sono argomenti che per alcune persone potrebbero risultare
molto difficoltosi da discutere con estranei, provocando un’immediata barriera alla comunicabilità

o Risulta meno efficace su alcuni target di ricerca (es. B2B, adolescenti, i manager)

o Minor grado di controllo (anche se si conduce sulla base di una traccia di intervista, comunque vi
sono le interazioni sociali many-to-many che non possono essere controllate)

o Maggiore complessità logistica (per svolgere un focus group è necessario avere un luogo di
intervista adatto, come ad esempio stanze con specchio all’americana – o specchio segreto-
attraverso cui i manager hanno la possibilità di ascoltare l’andamento del gruppo, la mimica, la
gestualità, il tono di voce degli intervistati)

o Prevalenza di opinioni socialmente desiderabili (poche persone hanno una sicurezza tale da uscire
fuori dal coro e dire la propria)

o Conflitti all’interno del gruppo

o Influenza di un leader

o Recitazione

21.03.22

Tipologie di focus group


Esistono 3 diverse tipologie di focus group, mutuate dalle tecniche psicologiche, i quali differiscono nella
tipologia di argomenti che si intende affrontare con il focus group e dello stile di conduzione che è necessario
adottare:

1. Esplorativi

2. Fenomenologici

3. Clinici

FOCUS GROUP ESPLORATIVI

Sono volti ad indagare un fenomeno in assenza di conoscenze di base, allo scopo di far emergere le
variabili costitutive rilevanti del fenomeno stesso. Spesso sono seguiti da una fase successiva di tipo
quantitativo finalizzata alla verifica dell’esistenza generalizzata di queste variabili e delle relazioni tra di esse.

57
Esempio: atteggiamenti e utilizzo di alimenti surgelati da parte dei consumatori vegani

All’interno di questa categoria di focus group possono essere inseriti i gruppi ideativi o creativi, che servono a
sfruttare le potenzialità immaginative del gruppo per generare nuove idee. La peculiarità di tali gruppi
consiste nell’utilizzo di tecniche che facilitano la generazione, l’arricchimento e la selezione di nuove idee.

Fra le tecniche di generazione di nuove idee vi è la tecnica del brainstorming, in cui il gruppo viene sollecitato
a produrre il maggior numero di idee possibili, rispettando alcune regole fondamentali: la quantità di idee
prodotte è più importante della qualità; è necessario sforzarsi di essere originali; è necessario sospendere il
giudizio sulle idee degli altri; le idee sono di proprietà del gruppo e non dell’individuo, quindi tutti sono
stimolati a contribuire alle idee degli altri.

Poiché spesso la timidezza di alcuni soggetti o la dominanza di altri rendono difficoltoso l’andamento
funzionale della discussione, sono state proposte alcune tecniche che permettono di superare il problema,
per esempio la nominal group technique o l’ideawriting: con la prima si chiede ai partecipanti al gruppo
creativo di scrivere le proprie idee su fogli di carta e, una volta terminata questa fase, di leggerle al gruppo in
modo da stimolare successivamente una discussione; con la seconda si chiede sempre di scrivere idee su
fogli di carta, i quali vengono poi passati a tutti i membri del gruppo che, a loro volta, scrivono i loro
commenti a tutte le idee generate dagli altri.

Le tecniche di arricchimento delle idee servono ad abbozzare le idee stesse e a renderle il più possibile vicine
al risultato finale atteso, in modo da poterne selezionare alcune da avviare al processo realizzativo. In genere,
tali tecniche si propongono di far emergere gli elementi costitutivi fondamentali e secondari dell’idea, i fattori
che ne facilitano o ne ostacolano la realizzabilità, i collegamenti con le altre idee oppure con altri segmenti,
prodotti, campagne, e i punti di forza e di debolezza sulla base di criteri ritenuti rilevanti.

Molto spesso i focus group si fermano a queste prime due fasi, mentre la selezione delle idee viene poi
lasciata l’impresa che ha realizzato o commissionato la ricerca. Nel caso in cui l’obiettivo di ricerca preveda
anche un’espressione di preferenza dei partecipanti, le tecniche di selezione delle idee vengono impiegate
con lo scopo di portare il numero delle idee generate e arricchite una dimensione tale per cui l’impresa possa
sottoporle a un’analisi interna secondo criteri di fattibilità tecnica, economicità e competitività. Solitamente si
utilizzano griglie di valutazione oppure modalità meno strutturate volte a far esprimere una preferenza o un
voto alle idee stesse da parte dei partecipanti.

FOCUS GROUP FENOMENOLOGICI

Sono utilizzati per analisi e descrivere in profondità le caratteristiche note di un fenomeno e gli elementi a
esso connessi in termini causali (cercare di capire come si influenzano le variabili; quali sono le variabili
causa e quali sono quelle effetto all’interno di un quadro già noto). Rispetto ai gruppi esplorativi, questi
prevedono una conoscenza di base del fenomeno che si intende arricchire e approfondire.

Esempio nel mercato B2C: impresa produttrice di biscotti per l’infanzia che vuole capire in profondità gli
atteggiamenti e i conseguenti comportamenti delle mamme verso le diverse soluzioni di prima colazione dei
loro bambini, anche in ottica comparativa.

Esempio nel B2B: impresa produttrice di beni industriali che vuole indagare le cause di soddisfazione/
insoddisfazione dei propri clienti verso i propri prodotti e risalire alle attività di miglioramento da realizzare.

In questa tipologia di focus group colui che conduce il focus group (ovvero il moderatore) ha uno stile di
conduzione più dirigista e direttivo, ovvero cerca di controllare maggiormente la conversazione, mantenendo
la discussione su binari più definiti, senza lasciare troppo spazio alle divagazioni; a differenza, invece, del
focus group esplorativo in cui sono ben viste, in modo da cogliere insight che non ci si aspetta di scoprire,
proprio perché il fenomeno non è conosciuto.

Nel caso di questi focus group sono “sufficienti” esperti di marketing con qualche conoscenza di psicologia;
per quelli esplorativi, invece, è preferibile uno psicologo con qualche cognizione di marketing.

58
FOCUS GROUP CLINICI

Sono utilizzati se l’obiettivo di ricerca consiste nel verificare la presenza di elementi inconsapevoli,
impliciti e difficilmente comunicabili e verbalizzabili alla base della nascita delle motivazioni, della
formazione delle preferenze e dell’assunzione di determinati comportamenti.

Sono aspetti che devono essere indagati perché la maggior parte delle volte è proprio con l’inconscio che si
scovano le motivazioni, le preferenze, le scelte e i comportamenti degli individui, come ad esempio la sua
loyalty verso un brand, il suo engagement.

Esempio: impresa produttrice di cosmetici che vuole indagare le reazioni sia emotive che cognitive più
profonde con riferimento a un prodotto cosmetico specifico per la cura del corpo.

Lo stile di conduzione è molto empatico, con domande indirette e test proiettivi. In questo caso è
indispensabile che il moderatore sia un esperto psicologo che metta l’intervistato a proprio agio, in modo tale
che gli intervistati possano parlare liberamente, senza sentirsi giudicati, proprio perché la maggior parte delle
volte si trattano temi a cui gli intervistati sono particolarmente sensibili come la bellezza o il rapporto con il
proprio corpo, l’abilità e la disabilità, la performance, la salute.

L’ideale sarebbe realizzare sia delle interviste in profondità sia dei focus group per capire se ci sono delle
differenze in termini di insight.

Confronto interviste individuali vs colloqui di gruppo

INTERVISTA COLLOQUIO DI GRUPPO


▪ Risposte più spontanee ▪ Risposte spesso influenzate dalla
▪ Maggiore dettaglio nelle informazioni dinamica sociale
che si ottengono ▪ Minor dettaglio perché tutti devono
▪ Clima di intimità con l’intervistatore prendere la parola e quindi il tempo
▪ Gli stimoli vengono solo deve essere ripartito tra tutti gli
dall’intervistatore intervistati
▪ Obiettivi interpretativi (ad esempio ▪ Il gruppo libera le inibizioni (perché a
come si sviluppa una determina volte si crea un clima favorevole
percezione della realtà, come vengono all’apertura) ma può anche accentuarle
percepiti i brand, quali sono le cause di ▪ Lo stimolo si può anche auto-generare
determinati comportamenti, da dove nel gruppo e non provengono solo dal
nascono determinate motivazioni) moderatore
▪ Temi anche delicati e personali ▪ Obiettivi creativi e ideativi (ad esempio
per sviluppare un nuovo prodotto o
nuove idee)
▪ Te m i d i i n t e r e s s e c o l l e t t i v o e
condivisibili

La gestione operativa: la costruzione della traccia e la conduzione


La tipologia di dati che si possono raccogliere tramite un focus group coincide con quelli ottenibili
dell'intervista individuale, con l'eccezione dei dati sul contesto. Dalla conduzione di un focus group derivano
dati di contenuto espressi dalla comunicazione verbale dei partecipanti e dati di processo espressi dalla
comunicazione non verbale.

59
Poiché i focus group spesso sono svolti in sala attrezzate oppure in sale di hotel o altri luoghi dotati di spazi
sufficientemente ampi, il contesto non è scelto dai rispondenti, per cui non può essere considerato vettore di
significato. Anzi, la scelta del luogo deve essere effettuata con tutte le cautele, poiché, a parte la necessità di
disporre di supporti tecnici, le caratteristiche della sala possono influire sulla dinamica relazionale. Per tale
motivo, solitamente i gruppi vengono condotti facendo sedere le persone intorno a un tavolo rotondo,
mettendo a disposizione cibo e bevande, giocando sapientemente su aspetti di atmosfera come la luce, la
temperatura della sala e così via.

Il conduttore fa uso di una traccia di conduzione costruita esattamente come per l'intervista individuale,
tenendo conto delle indicazioni riguardanti la tipologia, la successione delle domande e il modo di porle.
Solitamente è affiancato da un'assistente definito recorder che, oltre al supporto per qualsiasi problema
operativo, prende nota di alcuni aspetti rilevanti tipicamente connessi alla comunicazione non verbale.

Come per l'intervista in profondità, i gruppi vengono di solito audio e video-registrati sempre che si abbiano a
disposizione sale attrezzate con supporti tecnici adeguati.

60
La specialità maggiore del focus group sta nella conduzione del gruppo stesso e quindi nel ruolo del
conduttore. Il conduttore è spesso definito come facilitatore del gruppo in quanto il suo compito
fondamentale è di facilitare l'interazione e la discussione in modo ottenere le informazioni per cui la ricerca è
progettata.

Lo stile di conduzione dipende dalla tipologia del gruppo: in gruppi di tipo fenomenologico, il conduttore
tenderà a essere abbastanza direttivo per mantenere la discussione sui punti che intende toccare, mentre nei
gruppi esplorativi e a maggior ragione in quelli clinici, cercherà di essere il meno intrusivo possibile, lasciando
ampio spazio alla discussione libera e all'emergere di elementi e aspetti inattesi.

In genere la conduzione di un gruppo passa attraverso alcune fasi ben distinte:

1. Apertura (warm up=riscaldamento): tale fase ha un valore propedeutico alla creazione di un contesto
favorevole alla discussione. Il conduttore, di solito seduto intorno al tavolo con i partecipanti, si
presenta, introduce brevemente l'argomento di cui si discuterà, giustifica le motivazioni della loro
selezione, anche se non in maniera precisa, per evitare che ciò possa indurre una perdita di
spontaneità dovuto a sentirsi in dovere di rappresentare uno stereotipo, chiarisce gli aspetti operativi
della seduta, rimarca gli aspetti di protezione della privacy e chiede ai partecipanti di presentarsi.

In questa fase viene posto anche un argomento di apertura, in genere di grande respiro, che serve a
rompere il ghiaccio, a permettere ai partecipanti di sondare il terreno della discussione, ad aprirsi pian
piano a questa, e a consentire loro di iniziare a riflettere e interrogarsi sugli argomenti da discutere

2. Ampliamento: i partecipanti vengono stimolati a esprimere i punti di vista generali o su temi ampi
(solitamente tramite domande descrittive grand tour) per poi passare a momenti di focalizzazione in
termini di restringimento del campo di indagine (tramite domande descrittive mini tour, di
esemplificazione oppure di similarità e contrasto) oppure di introspezione (per mezzo di domande
sull’esperienza diretta o strutturali)

3. Approfondimento: vengono inseriti dei momenti di lavoro individuali in cui ai partecipanti viene
chiesto di svolgere un compito di autoanalisi, di richiamo della memoria oppure di applicazione dei
test proiettivi o di valutazioni che serve, da un lato, a dare respiro ai partecipanti stessi quando la
discussione diventa accesa e, dall'altro, a stimolare la focalizzazione su se stessi ogni qualvolta per
ottenere un'interazione efficace, sia opportuno che i singoli abbiano il tempo di richiamare dalla
memoria cognitiva o emotiva gli stati interesse della ricerca

Essendo il compito fondamentale del conduttore, quello di stimolare l'interazione, la riuscita di tale compito
dipende dalle competenze del facilitatore, ma anche dalla volontà e dalle capacità comunicative dei
partecipanti. Vi sono due situazioni tipiche che ostacolano il dispiegarsi di un'interazione efficace: i
partecipanti parlano poco oppure, al contrario, parlano troppo.

Nel primo caso, generalmente il problema viene risolto con un momentaneo cambio di stile di conduzione
tramite cui si porta alla discussione a un livello di astrazione ancor più elevato, così da ridurre l'ansia da
esporsi in prima persona, oppure si concede alle persone uno spazio individuale di riflessione prima
dell'interazione.

Il secondo caso, invece, quello più tipico, si presenta quando alcuni dei partecipanti tendono a
monopolizzare lo spazio-parola, ovvero lo spazio comunicativo concesso alla discussione nel gruppo. In
particolare, esistono almeno tre sotto-casi di questa situazione:

▪ L'esperto: si verifica quando uno dei partecipanti, avendo una maggiore esperienza sull'argomento di
cui si sta discutendo, tende a far valere questa esperienza nella discussione, sottraendo spazio
comunicativo a coloro che si sentono meno esperti. Per risolvere questo problema è necessario che in
fase di progettazione si eviti che nello stesso gruppo ci siano persone con gradi di competenza
differenti sugli argomenti che si andranno a discutere, mentre in fase di conduzione il conduttore deve
sollecitare anche gli altri alla partecipazione spostando il focus della discussione oppure inserendo dei
momenti di lavoro individuale con successiva esplicitazione al gruppo

61
▪ Falso esperto: si verifica quando uno dei partecipanti tende a monopolizzare lo spazio comunicativo,
facendo valere un'esperienza e una competenza non vere. Generalmente la motivazione è ascrivibile a
una personalità poco propensa al confronto e di solito si gestisce in fase di conduzione, come nel
caso precedente

▪ Inconcludente: si ha quando nel gruppo ci sono individui che per esprimere il loro pensiero utilizzano
molte parole fino a perdere il senso di ciò che intendono dire. In questo caso il conduttore, tramite
domanda a riflesso, deve tentare di ordinare l'espressività di questi individui senza apparire invasivo,
evitando che gran parte del tempo della discussione si perde in passaggi del tutto inutili.

L’osservazione
Malinowski ha passato molto tempo ad osservare gli indigeni delle isole Trobriand per raccogliere dati
qualitativi, per comprendere i valori, i linguaggi, i comportamenti e le abitudini della tribù, i riti sacri e le grandi
paure esistenziali degli individui, le differenze sociali tra uomini e donne, giovani e anziani.

L’osservazione serve per entrare nel mondo degli individui perché un’intervista in profondità potrebbe non
essere sufficiente per cogliere degli insight interessanti. A molti fenomeni di marketing è opportuno affiancare
l’osservazione all’intervista individuale e/o il focus group.

L’osservazione è una tecnica che trova origine nell’antropologia e che ha trovato ampia applicazione nelle
ricerche di marketing (da sola o in combinazione con altre tecniche), principalmente (ma non esclusivamente)
per approfondire le dinamiche del comportamento d’acquisto (come utilizzano i prodotti, come vivono
l’esperienza all’interno di un punto vendita, come consumano e acquistano, con quali tempi, con quali
sequenze di attività).

È una pratica di ricerca dove la raccolta del dato avviene senza il filtro cognitivo del rispondente: il
fenomeno/esperienza che si vuole indagare viene osservato/a nel momento in cui si manifesta e non
raccontato/a da coloro che lo hanno vissuto in un passato più o meno recente (come ad es. nell’intervista).

L’osservazione prevede l’interazione con il fenomeno che si vuole indagare, permettendo di superare in
maniera più efficace le barriere della contestualizzazione e della consapevolezza. Interazione di tipo
funzionale con il prodotto il servizio, di tipo funzionale o esperienziale con i luoghi in cui prodotti e servizi
sono acquistati o utilizzati e di tipo sociale con gli altri clienti che l’intervista in profondità e il focus group non
sono in grado di raccogliere.

Ad esempio:

- Percorso all’interno di un punto vendita, es. supermercato sarebbe utile capire quali spazi vengono
utilizzati maggiormente, quali in modo più superficiale e quali in modo più intenso, quanto tempo viene
speso all’interno di un’area del supermercato, quindi come viene vissuto lo spazio di vendita
utilizzando anche strumentazioni come l’elettroencefalogramma, il misuratore della pressione, del
battito cardiaco e della sudorazione in modo da avere un quadro completo non solo dei
comportamenti osservabili da un punto di vista visivo ma anche delle reazioni interiori e fisiche del
soggetto in termini di attenzione, memorizzazione, engagement emozionale e apprezzamento

- Interazioni con il personale addetto alla vendita osservare come i clienti interagiscono con il
personale di vendita e viceversa permette di riscontrare tutte le criticità oggettive presenti e risolverle

- Modalità di utilizzo di un prodotto, es. utilizzo di un elettrodomestico, uno smartphone

Tra i vantaggi, possiamo affermare che l’osservazione:

o riduce gli effetti di distorsione derivanti dal resoconto verbale di tale comportamento, il quale, per
svariate ragioni (le ragioni principali sono 2: la volontà da parte dell’intervistato di rendere il racconto
gradevole e attrattivo da un punto di cista sociale; la memoria), potrebbe non coincidere con il
comportamento reale

62
o consente di osservare dinamiche non falsate grazie alla veridicità del contesto, vivendo con le
persone nel loro habitat, raccogliendo in questo modo degli insight più veri

Il ricercatore osserva i comportamenti di n soggetti in target, ne ricostruisce le dinamiche (interpretazione) e


raccoglie tutto il materiale necessario. Può essere combinata con altre tecniche, come:

- Intervista in profondità ai consumatori

- Intervista in profondità al trade (distributivo)

- Rilevazioni quantitative del venduto

Obiettivi dell’osservazione e shopping experience


Tra gli obiettivi dell’osservazione nella shopping experience ricordiamo:

▪ L’identificazione del profilo di chi frequenta il punto vendita e delle sue aspettative

▪ Il grado di vivibilità del punto vendita (alcune aree potrebbero avere un grande traffico, ma viene
vissuto poco perché, probabilmente, è meno esperienziale rispetto ad altri spazi)

▪ La valutazione degli store e in store touch point che generano un’esperienza d’acquisto
soddisfacente, oppure di quelli che generano barriere all’acquisto o customer stress

▪ Capire l’impatto dei diversi stimoli in negozio per quanto riguarda le decisioni di acquisto

▪ I motivi che hanno portato alcuni clienti ad abbandonare il punto vendita senza acquistare

▪ Creare una segmentazione della categoria percepita in base al punto di vista dell’acquirente la
disposizione delle merci all’interno del punto vendita non deve essere trainata da una visione
merceologica, ma da una visione customer centric

Tipologie di osservazione
A seconda del grado di interazione che l’osservatore pone in essere e quindi del ruolo giocato dal
ricercatore, distinguiamo l’osservazione in 2 categorie:

1. Partecipante

2. Non partecipante

Osservazione partecipante
L’osservazione partecipante prevede un’interazione con i soggetti osservati, colloqui individuali e/o collettivi.

a. La forma più intensa di partecipazione da parte del ricercatore è quella definita partecipazione a
tutti gli effetti: l’osservatore partecipa completamente al fenomeno che intende indagare, senza
svelare la sua identità di osservatore, ma agendo come un qualunque attore coinvolto nel fenomeno.
Questa modalità viene definita anche osservazione partecipante completa e richiede tempi molto
lunghi, in quanto l’osservatore deve entrare a far parte del gruppo di attori, apprendere eventuali
norme di comportamento, acquisire competenze, imparare a svolgere certi compiti e così via.

L'osservazione partecipante completa può essere attuata anche in contesti virtuali, per esempio nelle
chat e nei discussion group sul web, attraverso la partecipazione attiva alle discussioni. Il fatto di non
svelare la propria identità permette di osservare il fenomeno nella sua manifestazione più pura e di
raccogliere i dati in maniera immediata.

Esempio:

- Partecipazione ai raduni dei ducatisti e alle loro discussioni online


63
- Mistery shopping

Esistono però dei limiti di carattere etico (in quanto non si dichiara agli altri soggetti le proprie intenzioni e, di
conseguenza, non si richiede il consenso), di tempo (e di costo) e di perdita di distacco e la neutralità da
parte del ricercatore.

Esempio Mistery Shopping BVA Doxa nel punto vendita: BVA Doxa ha messo a punto una griglia interpretativa
che permette di misurare “cosa” fanno gli addetti alla vendita e “come” interagiscono con la clientela
analizzando nel dettaglio 3 aspetti:

1. Operations: status del punto vendita e coerenza con le linee guida aziendali

2. Relazione/Empatia: atteggiamento del personale addetto alla vendita e capacità di coinvolgimento del
cliente finale

3. Spinta commerciale: impegno dei dipendenti e coerenza nell’utilizzo delle argomentazioni corrette per
la promozione dei prodotti/servizi e del brand

b. Partecipante osservatore, l’osservatore partecipa alle interazioni, ma svela la propria identità e i


propri obiettivi ottenendo il consenso ex-ante. Il rischio è riscontrare eventuali barriere innalzate dagli
individui osservati

c. Osservazione partecipante: l’osservatore si minimizza fino a farla scomparire del tutto l’interazione
sociale con i soggetti coinvolti nel fenomeno poiché la partecipazione si riduce alla semplice
osservazione. Questa opzione è utile quando si è interessati esclusivamente all’analisi dei
comportamenti, anche comunicativi, e non alla loro motivazione o interpretazione da parte degli attori

Osservazione non partecipante


a. Non partecipante: il ricercatore si limita ad osservare senza interagire con i soggetti e a registrare
oggettivamente ciò che succede, affidando eventualmente, all’intervista a posteriori l’esplorazione più
in profondità

Esempio: analisi dei percorsi di fruizione di un punto vendita, analisi del comportamento del consumatore
online, dove le azioni vengono rilevate in tempo reale

La gestione operativa: la definizione dell’ambito di osservazione e la realizzazione


Una volta scelta la modalità di osservazione più appropriata per gli obiettivi informativi che la ricerca si
propone di raggiungere, e di conseguenza il ruolo dell'osservatore, è necessario identificare gli ambiti di
osservazione. Tali ambiti risulteranno tantomeno predefiniti quanto più la ricerca ha finalità esplorative, mentre
risulteranno identificati con molta precisione ex ante, nel caso la ricerca abbia anche l'obiettivo di misurare
alcuni fenomeni.

Le dimensioni del fenomeno a cui solitamente un osservatore presta attenzione sono:

▪ Lo spazio, ovvero il luogo in cui il fenomeno si manifesta: una distinzione rilevante è fra osservatore in
spazi pubblici (un punto di vendita, un luogo cittadino, un bulletin board sul web) e in spazi privati
(l'abitazione di uno degli attori, la sede di un'associazione).

▪ Gli attori, che abbiano sia un ruolo primario sia secondario: per comprendere ciò è necessario di solito
che vengano svolte delle attività e che si verifichino degli eventi

▪ Le attività, ovvero i comportamenti messi in atto dagli attori nelle reciproche interazioni: alcuni di esse
possono essere accidentali e venire attuati una tantum, altri possono essere ripetuti fino a configurarsi
come rituali

▪ Gli atti, ovvero i comportamenti individuali: è molto importante cercare di distinguere quelli posti in
essere consapevolmente e quelli routinizzati

64
▪ Gli eventi, cioè tutto ciò che accade nel periodo di osservazione

▪ Il tempo, inteso in termini di durata degli eventi, la loro scansione temporale e successione con cui si
manifestano

▪ Gli obiettivi, cioè le finalità che gli attori intendono raggiungere con i loro atti: anche in questo caso è
utile distinguere fra quelle manifeste e quelle comprensibili solo dopo che vengono svolte altre attività
o si verificano altri eventi

▪ Le emozioni connesse alle attività e al verificarsi degli eventi

Per poter riuscire a cogliere questi molteplici elementi, l'osservatore deve continuamente interrogarsi sul chi
sta agendo o interagendo, sul che cosa si sta verificando, sul dove le attività vengono svolte e gli attori si
trovano, sul quando si stanno verificando gli eventi e le attività che vengono svolte e sul perché sta
accadendo qualcosa.

Tutte le osservazioni vengono notate sia nel momento in cui si verificano, sia con resoconti stilati alla fine
della singola unità temporale di osservazione. Nel caso in cui si utilizzano supporti tecnici come la
videocamera, le note prese durante l'osservazione forniscono comunque un fondamentale aiuto nell'analisi
successiva. Nel caso in cui la tecnica sia utilizzata in modo strutturato, l’osservazione può essere effettuata
tramite una scheda (chiamata griglia), in cui sono definiti gli elementi da sottoporre a osservazione.

Alcuni metodi strutturati di osservazione


L'osservazione partecipante trova la sua collocazione originaria e primaria nei metodi etnografici. Esistono,
però, altri metodi che si sono consolidati nel tempo.

La protocol analysis
65
Questo metodo si basa sull'osservazione dello svolgimento di un'attività da parte di un soggetto. Al singolo
individuo viene chiesto di svolgere l'attività applicando due tecniche specifiche: il talk-aloud e il think-aloud.

o Con il talk-aloud, il soggetto viene stimolato a esprimere verbalmente tutte le operazioni che pone in
essere per il complesso svolgimento dell'attività, ovvero a pronunciare ad alta voce tutte le cose che
“dice a se stesso in silenzio”
o Con il think aloud, all'individuo viene richiesto di esprimere verbalmente qualunque pensiero gli venga
in mente durante lo svolgimento dell'attività, fornendo quindi informazioni non solo sul contenuto del
processo cognitivo, ma anche sul processo in sé
L'osservazione e l'analisi dei protocolli, ovvero dei report della verbalizzazione dell'attività, permettono di
evidenziare sia gli aspetti cognitivi sia quelli emotivi coinvolti durante la realizzazione del compito. L'assunto
su cui si basa tale metodo è che l'individuo, nella verbalizzazione secondo le due tecniche e nella
comunicazione non verbale posta in essere, riesca a esprimere la ricchezza delle connessioni che
costituiscono i suoi sistemi cognitivo ed emotivo, superando i filtri che generalmente la inibiscono.

Il diario
Consiste nella compilazione di diari. Si tratta di un'auto osservazione in quanto si richiede al soggetto di
annotare in un diario tutte le attività svolte, le sensazioni e le emozioni connesse e le opinioni relative allo
svolgimento di alcuni compiti in un’unità di tempo prolungato. È un metodo estremamente utile ogni qualvolta
sia difficoltoso l'accesso al luogo in cui il fenomeno che si vuole indagare si manifesta, sia necessario
procedere a molte osservazioni contemporaneamente e si sia interessati anche alle modalità con cui gli autori
attribuiscono un senso agli eventi e lo giustificano a se stessi.

Inoltre, è una modalità di osservazione molto utile se si vogliono ricavare dati quantitativi, poiché esso può
assumere una forma del tutto aperta ed è strutturata, oppure può essere composto di domande molto
strutturate quando le variabili di interesse della ricerca sono definite chiaramente ex-ante.

Nel primo caso, si è nell'ambito della ricerca qualitativa; mentre nel secondo ci si trova nell'area a cavallo fra
quella qualitativa e quella quantitativa.

Il limite maggiore dei diari è che scontano la volontà e la capacità dei rispondenti di auto osservarsi e dichiara
apertamente pensieri di emozioni: l'assenza dell'osservatore impedisce di approfondire aspetti di cui i
rispondenti non hanno chiara consapevolezza e di accedere al ricco bacino della comunicazione non verbale.

La netnography
Consiste nell'adattamento del metodo etnografico allo studio degli ambienti mediati da computer (computer-
mediated environments): quindi blogs, ChatRooms, post su social media, online communities e simili.

Come per l'etnografia più tradizionale, tale metodo è volto a investigare l'impatto che le variabili culturali e
sociali hanno sui comportamenti di consumo. La raccolta dei dati avviene non tramite partecipazione fisica e
ai contesti in cui i fenomeni si manifestano, ma tramite osservazione delle discussioni che avvengono in
ambienti virtuali.

La forma può essere sia quella dell'osservazione partecipante sia dell'osservazione pura. Il vantaggio
maggiore di tale metodo è la possibilità di disporre di un volume impressionante di dati con sforzi e costi di
gran lunga più ridotti. È caratterizzato da una grande flessibilità di utilizzo che porta molto spesso a
combinarlo con altri metodi di osservazione, come il diario, in forme di auto-netnography che possono
condurre a risultati molto ricchi per profondità di analisi individuale.

Le marketing research online communities (MROC)

Le marketing research online communities sono uno strumento di ricerca frutto delle potenzialità offerte
dalle tecnologie digitali; piuttosto che un metodo di ricerca qualitativa, costituiscono un contesto creato ad
hoc in cui possono essere effettuate diverse tipologie di ricerca qualitativa.

Le MROC derivano dalla convergenza delle community online, create da consumatori che condividono
interessi e passioni relativamente a un tema, una categoria di prodotto o una marca, dei panel online,
costituiti da istituti di ricerca che coinvolgono migliaia di consumatori che si sono dichiarati disponibili a
partecipare a ricerche di marketing di vario genere, e del metodo del focus group, inteso come metodo di
ricerca che fa emergere dati da gruppi di soggetti sollecitati a conversare su una serie di temi.

66
Una MROC è quindi una community online creata a fini di ricerca qualitativa, da un istituto di ricerca o
direttamente da un'impresa, in cui un insieme di consumatori viene invitato a partecipare a una serie di
discussioni e a svolgere alcune attività relative a temi di ricerca di interesse dell’impresa committente.

Si differenziano rispetto alle normali community online, in quanto:

▪ le community online sono normalmente aperte a chiunque e sono create autonomamente dai gruppi
di consumatori per discutere di temi di loro interesse oppure da imprese per raggiungere qualche altro
obiettivo diverso dalla ricerca

▪ le community online tendono ad avere un numero maggiore di consumatori passivi, che cioè
contribuiscono poco alla discussione rispetto alle MROC

▪ le MROC sono molto più focalizzate in quanto le discussioni vengono dirette e moderate
indirizzandole sui temi di interesse delle ricerche

Le sue dimensioni variano in funzione delle dimensioni aziendali e degli obiettivi che portano a crearla.
Normalmente i partecipanti si contano in qualche centinaia, ma riguarda ugualmente le ricerche qualitative (e
non quantitative) in quanto la maggior parte dei partecipanti sono passivi. La numerosità dei partecipanti non
necessariamente implica rappresentatività dell'universo che si vuole analizzare, rendendo quindi i dati ottenuti
da una MROC non validi ai fini di interpretazioni quantitative. Nonostante ciò, è possibile utilizzare una MROC
per effettuare dei mini-sondaggi, delle instant pool che forniscono un immediato riscontro ad alcune
domande di ricerca e che in alcuni casi, quando il tema è molto focalizzato e i partecipanti delle community
ben rappresentativi di un universo, allora le informazioni derivanti dall'interpretazione dei dati possono essere
anche generalizzabili. Ciò non toglie che la natura delle MROC sia qualitativa.

Le decisioni da assumere per la costruzione di una MROC sono:

1. Recruitment e membership Normalmente avviene tramite e-mail o tramite siti e social media
aziendali. Essendo unità chiuse, è probabile che il numero di inviti da inviare sia molto superiore
rispetto alla numerosità dei membri che si intende raggiungere, tenendo conto della redemption
ridotta che questi mezzi sono in grado di ottenere. Le MROC create dagli studi di ricerca fanno
affidamento su precedenti database di nominativi di persone che hanno dato disponibilità a essere
coinvolte in processi di ricerca.

Una volta reclutati, i partecipanti vanno profilati in modo da ottenere informazioni utili ai fini di
specifiche sollecitazioni e di interpretazione dei dati, e vanno condivisi alcuni aspetti relativi a temi
legali quali la politica di privacy e la proprietà intellettuale dei contenuti. Nelle MROC di lunga durata, è
necessario pianificare anche un'attività di rinnovamento dei membri in funzione sia del naturale tasso
di abbandono da parte alcuni, sia anche dell'evoluzione degli obiettivi di ricerca. Invece, l’entrata di
nuovi partecipanti deve essere accuratamente preparata, gestita in modo tale che ci sia un’efficace
integrazione con i membri già attivi

2. Tipologia di partecipazione e moderazione Ai membri può essere richiesto lo svolgimento di


varie attività: contribuire a discussioni su specifici temi in un forum o una chatroom, tenere un diario,
creare un blog. Nella maggior parte dei casi la frequenza di attività è settimanale, ma in alcuni casi
può arrivare a essere anche giornaliera.

Tutte queste attività prevedono una moderazione da parte di personale dell'istituto o dell'impresa che
sia formato alla moderazione di community online. L'attività di moderazione riguarda anche la verifica
che i post, le discussioni e le altre attività non violino il rispetto reciproco dei partecipanti e le regole
stabilite di funzionamento della community. L'attività di moderazione va accompagnata anche da una
continua attività di dialogo con i membri che serve ad alimentare il senso di comunità che si vuole
stabilire. Spesso questa attività richiede la fornitura da parte dell'impresa di riscontri, risposte o di
semplici partecipazioni a discussioni che servono a far sentire ingaggiati i membri della community

3. Definizione degli incentivi per i membri Non prevedono incentivi monetari, ma altre tipologie che
siano maggiormente in grado di soddisfare le motivazioni alla partecipazione della community.
L'impresa mette quindi in palio premi più volti all'autogratificazione personale, come la visita della
sede o delle fabbriche dell'impresa, l’'incontro con il management, la partecipazione ad eventi ad hoc
e altre attività simili. Invece, quando le MROC sono create da istituti di ricerca e le dimensioni ne
67
permettono la fattibilità economica, è anche possibile prevedere incentivi monetari in forma di premi
alla maggiore contribuzione da parte di alcuni membri o la contribuzione migliore in termini di qualità

4. Durata Può essere molto varia in funzione degli obiettivi di ricerca. La gran parte delle MROC non
ha una data di fine, ma viene mantenuta aperta e adeguatamente rinnovata nei membri in modo da
servire vari prolungati obiettivi di ricerca. Quando invece la durata è breve, appare molto simile a una
ricerca tramite focus group. Le ragioni che possono condurre a preferire la prima ai secondi sono
riconducibili tipicamente alla necessità di coinvolgere più partecipanti per garantire una maggiore
varietà di profili o partecipanti dispersi geograficamente e che sarebbe troppo costoso o complicato
coinvolgere virtualmente o fisicamente.

Il set d’indagine

Il termine “campione”, che generalmente si utilizza quando si fa riferimento a una rilevazione di dati primari,
ha senso solo nelle ricerche quantitative, che si pongono l’obiettivo di pervenire al dimensionamento di un
dato fenomeno. Questo perché il termine campione nasce negli studi di statistica e nasce come tecnica
statistica (il campionamento) che consente di studiare una piccola porzione dell’universo, chiamata
campione, grazie alla quale si riesce a generalizzare la conoscenza a tutta la popolazione. Soprattutto in Italia
si utilizza il termine set d’indagine e non il termine campione.

Per “campionamento” nella ricerca qualitativa si intende il processo di selezione e di eventuale


composizione in gruppi dei soggetti che si intendono analizzare per pervenire alle informazioni obiettivo (se
si vuole svolgere un focus group). La selezione dei soggetti deve essere naturalmente funzionale al
raggiungimento dell’obiettivo conoscitivo.

Condizione necessaria (ma non sufficiente) affinché i soggetti/fenomeni possano essere considerati oggetti di
analisi è che essi appartengano alla categoria oggetto di analisi.

Non esiste il giusto numero di soggetti da intervistare: in genere, si segue il principio della “saturazione dei
dati o teorica” si continua a svolgere interviste fino a che i risultati che si ottengono sono ripetitivi; questo
vuol dire che l’intervista n+1 (intervista aggiuntiva) non ha portato un beneficio in termini di insight poiché le
informazioni raccolte ripetono e confermano quanto detto già nelle interviste precedenti. Ciò significa che
man mano che si realizzano le interviste queste devono essere subito trascritte e condivise all’interno del
gruppo di ricerca.

Soprattutto se si parla di consumatori, non è sufficiente intervistare 3-4 soggetti. Gli studi metodologici
affermano che il numero minimo di interviste è 7 soggetti, ma è comunque un numero indicativo. Se si tratta
di manager, invece, potrebbero essere intervistati 3-4 interlocutori se sono scelti quelli giusti.

Il “campionamento” nella ricerca tramite focus group


Il campionamento nella ricerca del focus group tiene conto di diversi fattori:

▪ La numerosità dei gruppi da effettuare: dipende dalla varietà delle categorie di soggetti che si è
interessata ad analizzare. Se tale varietà fosse molto ridotta, basterebbe la presenza di un solo
gruppo: poiché nella realtà questa condizione si verifica raramente, il numero di gruppi è solitamente
superiore all'unità.

Per arrivare alla definizione del numero si identificano in primo luogo le variabili caratterizzanti i
soggetti da analizzare, ritenute capaci di influenzare o determinare Il/i fenomeno/i oggetto di ricerca.
Dopo aver identificato le possibili porzioni di tali soggetti sulla base delle variabili identificate, si
procede alla combinazione delle porzioni fino a pervenire al numero definitivo. Poi si decide se per
ogni combinazione si intende esaminare uno o più gruppi.

Da ultimo si valuta se la numerosità dei gruppi non sia eccessiva ed eventualmente lo si riduce in base
a ragionevolezza. Affinché la procedura sia efficace è necessario che le variabili siano indipendente fra
di loro e che siano in numero limitato, per evitare che le combinazioni possibili assumono dimensione
eccessiva. La numerosità eccessiva dei gruppi non aggiunge rilevante contributo informativo. Per

68
questo motivo nella pratica è buona regola non superare i 5-6 gruppi, cercando di racchiudere alcune
delle differenze esistenti fra i gruppi all'interno di gruppi stessi

▪ Il numero di partecipanti per gruppo: compreso fra i 5 e gli 8. Bisogna cercare di non scendere
sotto la soglia dei 5 perché è difficile che con numeri molto piccoli si riesca a stimolare un livello di
interazione efficace per la riuscita del gruppo, mentre con gruppi eccessivamente numerosi,
l’interazione rischia di sfociare nel caos comunicativo fino a implicare, in caso estremo, il controllo da
parte del conduttore

▪ Le caratteristiche dei partecipanti da coinvolgere: l'orientamento deve mirare a stimolare


un'interazione funzionale agli scopi della ricerca. Esistono alcune caratteristiche che possono
ostacolare l'interazione: come ad esempio l'età, in quanto persone appartenenti a fasce generazionali
diverse possono propendere ad agire come rappresentanti della propria generazione e assumere un
atteggiamento conflittuale con i soggetti di altre fasce; il ceto sociale, poiché la percezione di
appartenere a diversi ceti spinge spesso ad assumere un atteggiamento di distacco e formale con una
scarsa propensione alla discussione e al confronto; la competenza sul prodotto/servizio poiché spinge
le persone maggiormente competenti ad assumere atteggiamenti da leader e quindi sottrarre spazio o
parola agli altri componenti del gruppo. Di conseguenza, nella composizione dei gruppi si utilizzano
variabili come discriminanti per pervenire a gruppi omogenei sulla loro base

L’analisi dei dati qualitativi


Il processo di analisi dei dati qualitativi è costituito dall’insieme delle attività volte alla trasformazione dei
dati in informazioni utili alla comprensione profonda dei fenomeni di mercato indagati. Sostanzialmente
il processo di analisi si compone di due fasi separate: la riduzione di dati e la loro organizzazione. La fase di
trasformazione vera e propria dei dati in informazioni, tipica dell’attività interpretativa, dipende dai modelli
interpretativi che si vogliono applicare.

Spesso la ricerca qualitativa client-based si limita di solito alla descrizione e al commento dei testi con
un’astrazione ridotta dei risultati e il collegamento finale alle implicazioni manageriali. A seguito della
descrizione, si inserisce una citazione esatta dell’intervistato, chiamata verbatim, utilizzando le parole
dell’intervistato (condizione necessaria).

Quindi le elaborazioni dei dati qualitativi si riportano attraverso la descrizione semplice di che cosa è stato
detto dagli intervistati (La maggior parte degli intervistati riguardo a questo punto di interesse per il brand ha
risposto che… e si descrive la risposta utilizzando termini manageriali e di marketing). Successivamente a
riprova di quanto è stato appena descritto, si inserisce una citazione esatta di una delle frasi pronunciate
dagli intervistati che risulta essere rappresentativa.

La ricerca accademica propone invece numerosi approcci di analisi dei dati qualitativi, tra cui: la grounded
theory, la content analysis, le mappe cognitive (cognitive mapping), la discourse analysis, l’analisi semiotica,
la narrative analysis, l’etnografia (ovvero l’immergersi in un contesto di studio attraverso l’osservazione
partecipante) e la netnografia (ovvero l’immergersi in un contesto di studio digitale).

La riduzione dei dati (data reduction)


Per riduzione dei dati si intende l'attività di selezione, focalizzazione e trasformazione dei dati
qualitativi allo scopo di rendere la loro mole gestibile ai fini interpretativi.

La mole dei dati è formata da una quantità di pagine di testo considerevole e per poter arrivare a conclusioni
interpretative è necessario innanzitutto procedere a una riduzione di tale volume. Prima di iniziare, qualunque
procedura di riduzione, nel caso di dati derivanti dalle note del ricercatore, è necessario che questi siano

69
ripuliti e completati: ripulire significa rendere intelligibili i dati anche a qualcuno che non ha svolto l'intervista,
il focus group oppure l’osservazione; completare significa aggiungere qualcosa che la lettura delle proprie
note fa risalire alla memoria e che non è stato riportato in precedenza. Questo lavoro deve essere svolto
immediatamente, entro il giorno successivo dalla raccolta dei dati, per evitare di dimenticare particolari
significativi. Il risultato del lavoro (write-up) va a costituire l'insieme dei dati di partenza che, congiuntamente
a quelli raccolti tramite le altre interviste, gruppi, osservazioni, verrà poi sottoposto a riduzione. La modalità
di riduzione dei dati, tipica della ricerca qualitativa, è quella della codifica, ovvero della riconduzione delle
varie porzioni di testo a un sistema di codici che permetta la successiva interpretazione. La codifica prevede
due fasi distinte: la creazione di un sistema di codici e l'assegnazione delle porzioni di testo ai codici creati.

Esistono diversi modi per definire un sistema di codici, una prima categorizzazione distingue i codici, sulla
base delle finalità del processo di codifica in:

▪ Descrittivi: codici che rappresentano la realtà testuale senza interventi interpretativi del ricercatore

▪ Interpretativi: codici che rappresentano l'attribuzione di significato del ricercatore alla realtà descritta
dal testo

Una seconda categorizzazione separa i codici, sulla base del contenuto del testo in:

▪ Aspetti cognitivi: elementi relativi alla sfera delle percezioni, dell'attribuzione di significato, dei
pregiudizi, delle credenze, della conoscenza che i soggetti analizzati esprimono durante la raccolta
dati

▪ Aspetti emotivi: elementi riguardanti la sfera delle emozioni del rispondente e quindi la tipologia, gli
eventi/persone/oggetti cui sono associate, la loro evoluzione

▪ Aspetti comportamentali: le attività individuali e collettive, le attività regolari e quelle che vengono
svolte una tantum

▪ Aspetti di contesto: aspetti del contesto materiale, delle situazioni, degli eventi che fanno da contrasto
all’esplicitarsi degli aspetti precedenti

Un'ultima categorizzazione riguarda il processo di codifica e in particolare il fatto che i codici siano definiti:

▪ Ex-ante: quando la raccolta dei dati è volta a verificare delle ipotesi o una teoria preesistente, il
sistema dei codici viene definito in funzione delle ipotesi o della teoria e quindi viene sovraimposto ai
dati

▪ Ex-post: quando la ricerca ha obiettivi tipicamente esplorativi o parte senza ipotesi predefinite, i codici
vengono fatti emergere dall'analisi del testo, proprio allo scopo di pervenire una teoria descrittiva o
interpretativa della realtà che si sta indagando

La creazione del sistema di codici completo prevede una decisione riguardante ognuno dei tre sistemi di
categorizzazione.

Il contenuto specifico dei codici dipende dall'oggetto della ricerca. In termini operativi, i codici vengono creati
e applicati dopo attente e ripetute letture del testo. Affinché il dato qualitativo sia sfruttato nella sua
ricchezza, il ricercatore deve immergersi nel testo e il miglior modo per farlo consiste nel rileggere diverse
volte il testo stesso. Solitamente i codici vengono appuntati ai margini del testo durante la lettura, in modo da
avere una rappresentazione visiva immediata dell'attività di codifica stessa.

Per aumentare l'affidabilità del dato e per garantire una maggiore autenticità, si procede alla misura di quella
che viene definita affidabilità incrociata (inter-corder reliability). Lo stesso testo viene codificato da almeno
un paio di codificatori, in modo da verificare che le stesse porzioni di testo siano codificate allo stesso modo.

num ero di accordi
La misura dell'affidabilità è: a f f id a bilità =  

num ero di accordi + num ero di disaccordi 


Viene solitamente accettata un'affidabilità incrociata non inferiore al 70%. A questo punto i codificatori
cercano di trovare un accordo sul significato da attribuire al testo e ai codici, e si ricodifica il testo fino a
quando l’affidabilità non superi la soglia di accettabilità.

70
L’organizzazione dei dati
Una volta codificato l'insieme dei testi raccolti, l'analisi dei dati prosegue con la fase di organizzazione degli
stessi, ovvero di strutturazione dei codici in modo tale da favorire la fase di interpretazione. I metodi
utilizzabili sono diversi e devono essere selezionati in funzione degli obiettivi che si intende raggiungere e dei
modelli interpretativi che si vuole applicare.

Prima di procedere all'utilizzo di qualche metodo, è fondamentale decidere quale deve essere l'unità di
analisi: la singola parola, la singola frase, il tema oppure l'insieme dei testi derivanti dalla raccolta dati. Una
volta effettuata questa scelta, si proceda all'applicazione dello specifico metodo.

L’analisi qualitativa del contenuto


L'analisi qualitativa del contenuto consiste nell'analisi delle unità di senso, ovvero dei temi affrontati
dall'intervistato, dai partecipanti a un focus group o svelati dall'osservazione.

I temi vengono ottenuti creando degli schemi (pattern), ovvero ponendo in relazione i codici derivanti dalla
fase precedente. Il sistema di relazioni deve essere indotto dal fluire del discorso posto in essere dei soggetti.
Se invece si utilizza un sistema di codici ex ante volto a verificare una serie di ipotesi, i pattern non saranno
altro che le relazioni fra le variabili costituite in termini ipotetici, di cui si vuole verificare l'esistenza.

Per darne un significato, si analizza anche il modo in cui i temi sono affrontati: in termini ipotetici ponendosi
degli interrogativi, effettuando confronti, deduzioni, ragionamenti, eccetera. Questo perché non sono solo le
frasi a produrre significato, ma anche il modo in cui l'intero discorso è costruito intorno a un tema. Nel caso
di dati testuali ottenuti da interviste o gruppi, è possibile anche analizzare le singole parole o frasi mettendo in
evidenza il sistema cognitivo ed emotivo che le supporta: i lapsus, le ricorrenze del discorso, le illogicità e le
contraddizioni, le eventuali affermazioni categoriche, gli umorismi eccetera.

Questo tipo di analisi è impiegato soprattutto nei casi in cui i modelli interpretativi che si intende applicare
sono di tipo psicoanalitico oppure linguistico-strutturalista, tramite cui si cerca di individuare le motivazioni
che giustificano l'emergere di specifici temi, il modo in cui in questi sono posti, l'utilizzo di certe frasi,
cercando le radici storiche, sociali, culturali e valoriali alla loro base.

I casi dell'applicazione tipici sono quelle in cui l'oggetto della ricerca riguarda le motivazioni alla base dei
comportamenti dei clienti (ricerche motivazionali) e delle interazioni di questi ultimi con artefatti tangibili
(prodotti) e intangibili (servizi, marche, messaggi comunicativi, siti web) e delle relazioni sociali con altri clienti:
quindi ricerche per la segmentazione, per il posizionamento, per il lancio di nuovi prodotti, sull'immagine di
marca, sulla comunicazione di massa.

La content analysis
La content analysis è un set di tecniche e metodi finalizzati a codificare e analizzare i dati qualitativi (es.
testi, immagini). Codificare vuol dire creare dei codici, ovvero creare un nuovo vocabolario, clusterizzare il
testo e dare un nome. Successivamente i codici devono essere analizzati ulteriormente. Questi metodi sono
utilizzati nelle scienze sociali per esplorare significati impliciti ed espliciti dei testi.

La content analysis nasce ai primi anni del ‘900 per lo studio di testi giornalistici, si sviluppa prima e durante
la Seconda Guerra Mondiale per l’analisi dei testi politici e di propaganda. Nel 1955 fu organizzata la prima
conferenza accademica internazionale su questo set di metodi.

È possibile distinguere 2 tipologie di content analysis:

1. Qualitativa: è finalizzata ad interpretare logicamente i significati dei testi selezionati come testo
d’indagine (detti corpus) e delle unità di senso con un’analisi in profondità manuale o supportata da

71
software (es. Nvivo, Atlas, Aquad, QDA Miner). Quando il corpus consta di centinaia di pagine è
opportuno realizzare l’analisi con il supporto di software

2. Quantitativa (text analysis): è finalizzata ad elaborare i dati qualitativi (es. le parole) in modo da
estrapolare dati numerici (es. misurare la frequenza di ricorrenza delle unità di analisi – ovvero di un
termine), applicare ad essi tecniche statistiche e attraverso di esse fornire un’interpretazione
‘oggettiva’ (es. SW TalTac, Wordstat)

La content analysis quantitativa


Si pone l’obiettivo di misurare la ricorrenza di certi elementi, definite unità di analisi, all’interno di un testo. Le
unità di analisi possono essere costituite dalle singole parole, dai singoli temi oppure dall’intero testo.
Solitamente le unità di analisi sono raggruppate in categorie, tant’è che le categorie sono dette unità di
classificazione. Le unità di analisi e le unità di classificazione vengo analizzata e tramite tre tipologie di analisi
quantitativa: l’analisi delle frequenze, delle contingenze e delle corrispondenze lessicali.

L’analisi delle frequenze si basa sull’assunto che la ricorrenza di una categoria nel testo dimostra l’importanza
che essa ricopre al suo interno. L’obiettivo di questa analisi è quello di rilevare i temi più importanti all’interno
di un testo: per raggiungerlo si misura la frequenza con cui una certa unità è presente nel testo relativamente
alle altre.

L’analisi delle frequenze è utile anche per lo svolgimento di analisi longitudinali, ovvero ripetute nel tempo, in
quanto permette di rilevare la variazione dell’importanza delle varie categorie.

L’analisi delle contingenze è una tipologia di analisi più sofisticata, in quanto misura la frequenza delle
contingenze di categorie diverse. In altri termini misura quante volte alle unità di analisi appartenenti a una
certa categoria si presentano insieme a quelle appartenenti a un’altra nella stessa unità di contesto, ovvero
nella stessa porzione di testo o nel testo intero. In questo modo è possibile rilevare le associazioni fatte nel
testo tra le diverse categorie, permettendo di definire meglio opinioni, atteggiamenti, convinzioni e così via.

La matrice dei dati viene utilizzata per effettuare il calcolo delle contingenze osservate, da confrontare con le
contingenze attese, ovvero quelle che si presenterebbero in caso di indipendenza statistica fra due categorie:
stabilito un determinato livello di significatività, se le contingenze osservate sono significativamente superiori
a quelle attese, allora è possibile negare l’ipotesi di indipendenza statistica fra le categorie prese in esame.

L’analisi delle corrispondenze lessicali permette di misurare anche la similarità di testi in funzione della
tipologia di parole di categorie che li costituiscono. In altri termini con questa tipologia di analisi si può
pervenire sia a una più raffinata evidenza delle opinioni, degli atteggiamenti, delle convinzioni dei
corrispondenti, sia a una misura delle similarità dei rispondenti in funzione dei testi da essi prodotti.

Tecnicamente, tale analisi parte dalla costruzione di una tabella che ha tante righe quante sono le unità di
classificazione e tante colonne quanti sono i testi da
analizzare.

In ogni cella è riportata la frequenza con cui una


determinata parola i è presente in un certo testo k. Da
questa tabella è quindi possibile derivare quanto le parole/
categorie si associno ai diversi testi e quanto i testi si
associno rispetto alle parole presenti al loro interno. Il
risultato che si ottiene è una mappa al cui interno sono
disposti sia le parole/categorie sia i soggetti intervistati
che le hanno prodotte attraverso i testi generati nella fase
di raccolta dei dati.

L’analisi delle mappe cognitive

72
Questo metodo permette di analizzare il territorio cognitivo di un individuo o di un gruppo, ottenendo
informazioni sui concetti che il soggetto utilizza per dare un senso alla realtà, sull’esistenza di relazioni fra
concetti e sulle differenti tipologie di relazioni. Graficamente, è rappresentabile come un insieme di concetti, o
nodi, collegati fra di loro da una serie di relazioni.

La costruzione e l'analisi di una mappa cognitiva prevedono una serie di fasi distinte: la codifica del testo e la
definizione dei concetti, l'identificazione delle relazioni fra i concetti, l'analisi della struttura della mappa:

• La codifica avviene attraverso la selezione di porzioni di testo (singole parole, porzioni di frasi o
frasi intere) che abbiano un senso in funzione dell'oggetto della ricerca.

In seguito si ricostruiscono le relazioni percepite fra gli elementi identificati e codificati. La


ricostruzione avviene evidenziando esclusivamente le relazioni dichiarate dal rispondere durante
l'intervista o dal focus group, senza alcun intervento interpretativo da parte dell'analista. Infatti, il
rischio che solitamente si corre è di leggere nelle parole del rispondente relazioni che questi non
dichiara in modo esplicito. Per evitare ciò è necessario rimanere il più fedeli possibile al testo e
rimandare la fase interpretativa in un secondo momento.

• Le relazioni tra i concetti possono essere di vario tipo:

o denotativo o connotativo: uno o più concetti vengono utilizzati per descriverne, articolarne o
aggettivarne un altro; per esempio, un cliente potrebbe descrivere la sua interazione con un
promotore finanziario in questo modo: “Trovo estremamente irritante, fastidioso e imbarazzante
che un estraneo mi chieda informazioni sulla mia situazione economica o patrimoniale”
o di appartenenza a una categoria: un concetto viene descritto come elemento costitutivo,
insieme ad altri, di un ulteriore concetto; per esempio, da un focus group potrebbe emergere
che le automobili si distinguono in “da città” e “per viaggi lunghi” e che i modelli X, Y e Z sono
macchine da città
o di causazione: in questo caso un concetto viene identificato come causa del verificarsi di alcuni
effetti; per esempio, il rispondente potrebbe affermare che “non ho mai pensato di acquistare
un'automobile decappottabile perché sono convinto che me la rubino facilmente”

• Una volta identificati i concetti, è possibile procedere a un’analisi strutturale delle mappe, il cui
obiettivo è di evidenziare la complessità cognitiva del soggetto o del gruppo nella rappresentazione
dei fenomeni oggetto delle mappe. L’analisi delle mappe cognitive è utile quando l’oggetto della
ricerca riguarda aspetti attinenti le rappresentazioni della realtà di mercato da parte dei rispondenti (il
posizionamento, l’immagine dei prodotti e delle marche e i messaggi comunicazionali) oppure le
percezioni relative alle relazioni causali fra variabili (relazioni fra attributi di prodotto/servizio e benefici
ricercati, fra prezzo e qualità percepita, fra tipologia promozionale e immagine).

I concetti vengono solitamente definiti nodi e le connessioni links; i nodi che non hanno links causali in uscita
sono detti teste (heads), mentre quelli che non hanno links in entrata sono detti code (tails). Le code sono
nodi che danno inizio a strutture di legami causali, mentre le teste rappresentano di solito effetti finali delle
relazioni.

Gli indicatori che si possono utilizzare sono:

• Il numero di nodi: è l’indicatore strutturale più semplice, ma va considerato con cautela, perché il
numero di nodi risente pesantemente della durata dell’intervista o del gruppo e dello stile
dell’intervistatore/conduttore. Solo a parità di durata e di intervistatore/conduttore tale indice fornisce
un’utile indicazione in termini di confronto fra mappe

• Il rapporto fra numero di links e numero di nodi: è un indicatore più forte del precedente, il quale
fornisce indicazioni sulla densità della mappa e, quindi, sulla complessità cognitiva del soggetto che
la detiene, in quanto mostra la capacità di rappresentare la complessità del fenomeno che si sta
indagando

73
• Il numero di links dei singoli nodi: permette di rilevare la centralità di alcuni dei nodi. Questa analisi
viene detta “di dominio”, in quanto mette in evidenza se alcuni nodi assorbono numerosi links, sia in
entrata sia in uscita, in modo da rappresentare dei punti focali della mappa stessa. Questa analisi è
utile nelle analisi di posizionamento o di customer satisfaction, dove l’interesse per la presenza di
attributi di prodotto/servizio in grado di influenzare il posizionamento o la soddisfazione complessiva
viene soddisfatto da questa tipologia di analisi.

Un'ulteriore caratteristica evidenziabile in una mappa è la presenza di cluster, ovvero di gruppi di nodi più
densamente connessi fra loro, che evidenzia una mappa la cui struttura ruota intorno a temi/argomenti
differenti. Affinché emergano dei cluster è necessario che la mappa sia costituita da un numero di nodi
notevole.

Un'ultima caratteristica consiste nella presenza di loop, ovvero di circoli di connessioni auto-alimentantesi o
di auto-riducentesi. La presenza di loop è utile nelle ricerche sul posizionamento e sulla customer
satisfaction, perché mette in evidenza come, intervenendo su uno dei nodi, si possono avere differenti effetti
più che proporzionali o meno che proporzionali anche su altri nodi.

L'analisi semiotica
Poiché i prodotti le marche, i messaggi di comunicazione, i comportamenti stessi possono essere assunti
come segni, è evidente che l'analisi semiotica serve a individuare le strutture di significato, ovvero quali
sono i significati profondi al di sotto di quegli elementi considerabili come segni. È uno dei metodi più
utilizzati nell'ambito delle ricerche di marketing.

Anche il quadrato semiotico è uno strumento di analisi strutturale, ma al contrario delle mappe cognitive che
rilevano la struttura cognitiva del soggetto o dei soggetti analizzati,
serve a ricostruire la struttura profonda del significato di un testo.
Tale struttura può essere rinvenuta ricostruendo le relazioni di
contrarietà, contraddizione e complementarità rinvenibili al suo
interno.

Le relazioni di contrarietà sono quelle che costituiscono degli assi


semantici, ovvero assi in cui un estremo ha significato in funzione
(contraria) dell'altro (es. amore-odio).

Le relazioni di contraddizione sono quelle che si creano fra elementi


del testo in cui il significato è uno la negazione, ma non la
contrarietà, dell'altro creando quindi la contraddizione (es. amore-
non amore).

Le relazioni di complementarità sono quelle che emergono fra gli elementi contraddittori e quelli contrari dello
stesso elemento (es. amore- non odio).

La content analysis qualitativa


Le fasi fondamentali di partenza:

1. Costruzione del corpus, ossia la totalità dei dati qualitativi raccolti (es. l’insieme dei testi delle
interviste svolte, escludendo le domande, ma raccogliendo solo le risposte; articoli sul brand X
dall’anno 1 all’anno 2; abstract di paper su uno specifico tema) materialmente quando facciamo
un’intervista è necessario trascrivere la stessa, creando un file intitolandolo con il
NomeCognomeIntervistatore_data; appuntare le domande ed eventuali domande nate durante
l’intervista; eliminare eventuali digressioni; tale intervista diventa un frammento del corpus; inserire
tutte le interviste in un unico file in sequenza temporale

74
2. Definizione dell’unità di analisi o “coding unit” o codice che può essere una frase, una singola parola
o un tema (ovvero le singole frasi, che pure essendo diverse, fanno riferimento a un unico argomento)

- I codici possono essere definiti ex-ante (si tratta di un approccio deduttivo per la verifica delle
ipotesi – ovvero si parte da una forma di conoscenza di partenza e poi si verifica nella pratica che
questa conoscenza sia effettivamente verificata) oppure ex-post (si tratta di un approccio induttivo
per esplorare e arrivare a costruire una teoria descrittiva o interpretativa della realtà)

Thematic analysis
Nella thematic analysis, l’unità d’analisi va a corrispondere al tema o categoria tematica:

- Esempio nell’intervista: il tema è dato da caratteristiche, elementi, informazioni ricorrenti e distintive


rilevante nelle risposte degli intervistati, che caratterizzano particolari percezioni e/o esperienze degli
stessi e che il ricercatore vede come rilevanti in relazione alla domanda di ricerca alla quale si vuole
rispondere – nella prima domanda parlano tutti di quanto è importante la gentilezza dell’addetto alle
vendite con riferimento alla customer satisfaction si tratta di un tema, anche se viene espresso dagli
intervistati con frasi diverse. Se non ricorre, NON E’ UN TEMA.

- È ovvio che i temi non possono accomunare tutti, perché è necessario capire anche le differenze tra i
diversi intervistati, ma comunque la differenza deve essere ricorrente (2-4 intervistati hanno detto la
stessa cosa con riferimento a un punto)

- Il tema deve essere rilevante con riferimento alla domanda di ricerca

Il testo viene scomposto in segmenti di contenuto (ovvero una o più frasi, possono essere frasi breve o
articolate all’interno della quale potrebbero esserci 2 temi diversi) che vengono associati a specifici temi. Non
si può tenere la stessa frase per 2 temi diversi.

▪ La prima fase del lavoro dopo aver raccolto le interviste in un unico file prevede una lettura
approfondita che deve portare all’identificazione dei cosiddetti “codici descrittivi” (descriptive
codes), ossia codici molto puntuali che descrivono specifiche porzioni di testo

Sarebbe opportuno leggere le interviste una ad una senza distrazioni e interruzioni, prendendo qualche
appunto, legata a una prima impressione (lettura verticale). Si inizia poi la lettura orizzontale, ovvero leggere
tutte le risposte alle domande appartenenti ai diversi blocchi logici che sono stati individuati nella traccia sulla
base del brief (domande di apertura, focus sui costumi, ecc…) e appuntare dei codici descrittivi al lato che
sono molto puntuali e molto fedeli ai concetti espressi
nell’intervista.

Esempio di codifica tematica – ricerca qualitativa sulla


progettazione dell’esperienza di interazione utente-
assistente vocale (caso Mercedes) su excel

▪ Sulla base di questi codici descrittivi vengono


definiti dei codici interpretativi più generali (i
temi veri e propri), che sono il risultato di un
processo di astrazione basato spesso
sull’accorpamento di più codici descrittivi

▪ Possono essere identificati anche dei macro-temi


(overarching theames), ossia concetti ancora più astratti, frutto dell’accorpamento di più codici
interpretativi

▪ In tal modo, si perviene alla definizione dei temi-chiave che caratterizzano il pensiero degli intervistati

75
▪ L’ultimo passo è la definizione delle relazioni tra i temi di
causalità (A influenza B), di contiguità (A è collegato a B) e
di categorizzazione (B fa parte di A)

Requisiti delle categorie tematiche


▪ Esaustività: ogni unità di analisi deve essere attribuibile a una sola categoria; quindi, si devono
escludere mutuamente tra di loro

▪ Mutua esclusività: ogni unità d’analisi deve essere attribuibile a una sola categoria (non si può
attribuire la stessa frase a più categorie)

▪ Unicità del fundamentum divisionis: l’attribuzione delle unità alle categorie deve avvenire sulla base
del medesimo criterio (criterio guidato dall’obiettivo di ricerca)

▪ Pertinenza: la creazione delle categorie deve essere coerente con i contenuti del testo e gli obiettivi
dell’analisi

▪ Omogeneità: le unità attribuite alla stessa categoria devono essere omogenee sulla base di quel
criterio

▪ Oggettività: analisti diversi devono attribuire la stessa unità d’analisi alla medesima categoria

28.03.22

CAPITOLO 4 - LE RICERCHE QUANTITATIVE

Tipologie di misura (o scale/livelli di misurazione)

L’unità di osservazione può essere riferita ad individui, nucleo familiare, imprese, marche, punti vendita. In
un database, le unità di osservazione sono rappresentate sulle RIGHE. Il database si compone di n righe,
tante quante sono le unità osservate (es. numero di questionari completati).

Le variabili di interesse sono dati di struttura (es. età, livello di reddito, titolo di studio, sesso),
comportamenti, atteggiamenti (verso servizi, prodotti, brand), percezioni, motivazioni, tipo di prodotti
(acquistati/utilizzati), valutati sull’unità di osservazione in funzione degli obiettivi conoscitivi. In un database, le
variabili di interesse sono rappresentate sulle COLONNE.

Le relazioni tra le variabili di interesse attengono soprattutto alle analisi bi-variate e riguardano, ad
esempio, l’assenza/presenza di co-variazione (es. se varia l’età, varia anche il comportamento d’acquisto), la
relazione causa-effetto tra le variabili di interesse (è un incrocio tra le variabili).

Il software SPSS viene utilizzato per analizzare dei database e fare delle statistiche avanzate (scaricabile
gratuitamente sul sito di ateneo).

Una scala di misurazione nella ricerca di marketing consiste in una «regola» per assegnare determinati
numeri a specifici «oggetti di analisi» (es. individui), in modo da rappresentare le quantità/modalità con le
quali si manifestano dati attributi/variabili (es. genere) degli oggetti stessi. Quindi, è una regola che consente
di rappresentare le quantità (i numeri) con le quali si manifestano determinati attributi/variabili rilevati nelle
unità di osservazione.

76
Gli attributi/variabili presentano intrinsecamente differenti qualità/proprietà che determinano regole diverse di
assegnazione dei numeri. Il fatto di avere proprietà diverse implica il fatto che cambiano le regole di
assegnazione dei numeri di queste variabili.

Ad esempio, l’attributo/variabile genere non può essere misurata utilizzando un punteggio da 1 a 5 come, ad
esempio, chiedere “Quanto ti piace il brand Apple da 1 a 5?”; questo perché il genere non può essere
graduato poiché è una variabile binaria (maschio/femmina).

Tipologie di misura
Esistono 4 tipologie di misura utilizzate per misurare gli attributi/variabili degli oggetti di analisi:

1. Di rapporto (ratio) – sono misure totalmente quantitative e vi è uno 0 (zero) naturale

2. Di intervalli (interval) – sono misure quantitative, ma sono determinate da un livello di soggettività


nella risposta alla domanda (es. Quanto ti piace il brand Apple?)

3. Ordinale (ordinal) – sono qualitative, ma consentono di dare un ordine

4. Nominale (nominal) – sono qualitative

Le prime due variabili sono dette continue o quantitative. Le ultime due sono variabili categoriche o
qualitative.

Passando dal livello della misura nominale a quello di rapporti (dal basso verso l’alto) aumenta il livello/grado
di misurabilità e conseguentemente le elaborazioni che sono possibili effettuare sul numero.

Sono le proprietà/qualità del singolo attributo/variabile che determinano quale livello di misurazione sia
possibile. La professione è una variabile che non è possibile misurare in euro, in centimetri, da 1 a 5, ecc…,
così come la nazionalità e la regione di appartenenza; a differenza, invece, del titolo di studio che permette di
stabilire un ordine e incasellarlo in una classifica.

L’analisi di frequenza è l’analisi più semplice possibile.

Misure nominali (nominal)

TIPOLOGIA DI CONFRONTO DI ESEMPI DI VARIABILI MISURA DELLA


MISURA BASE TENDENZA
CENTRALE

Nominale Identità/categoria ▪ Genere Moda


▪ Acquisto brand (sì/no)
▪ Codice fiscale
▪ Nazione

Gli indicatori nominali forniscono solo un’informazione qualitativa NON ordinata.

Con le scale nominali i numeri vengono assegnati all’oggetto d’analisi in modo arbitrario (o classe di oggetti)
per identificare o categorizzare/classificare l’oggetto stesso (non hanno alcun significato in sé).

L’unica operazione quantitativa che si può fare è contare il numero di persone che appartengono alle diverse
categorie/classi. Di conseguenza, la moda (il valore che appare più spesso in un insieme di dati) è l’unica
misura di tendenza centrale che può essere calcolata in questo caso.

Esempio di valutazione della preferenza verso i soft drinks con una scala di misurazione nominale

Quale soft drink tra quelli indicati di seguito ti piace? Seleziona tutti quelli che ti piacciono

o Coca-cola

77
o Fanta
o Coca-cola Zero
o Pepsi
o Aranciata S. Pellegrino
o Sprite

Misure ordinali (ordinal)

TIPOLOGIA DI CONFRONTO DI ESEMPI DI VARIABILI MISURA DELLA


MISURA BASE TENDENZA
CENTRALE

Ordinale Ordine ▪ Reddito in classi Moda, Mediana


▪ Livello di istruzione
▪ Medaglie olimpiche
▪ Voti scolastici non
numerici (A,B,C…)

Gli indicatori ordinali forniscono un’informazione qualitativa ordinata, rendendo possibile solo la
classificazione ordinata.

Nella scala ordinale, i numeri sono assegnati a ciascuna variabile sulla base di un dato ordine.

Di conseguenza, oltre alla moda, è possibile calcolare la mediana (il valore che occupa la posizione centrale/
intermedia in una sequenza ordinata di dati ovvero quel valore che è preceduto e seguito da un uguale
numero di osservazioni).

Per quanto riguarda il livello di istruzione, possiamo dire che la mediana è rappresentata dalle scuole media.

Esempio di valutazione della preferenza verso i soft drink con una scala di misurazione ordinale

Ti chiediamo di assegnare un punteggio da 1 a 6 a ciascuno dei soft drinks elencati in seguito con 1=massima
preferenza e 6=minima preferenza

o Coca-cola
o Fanta
o Coca-cola Zero
o Pepsi
o Aranciata S. Pellegrino
o Sprite

Misure di intervalli (interval)

TIPOLOGIA DI CONFRONTO DI ESEMPI DI VARIABILI MISURA DELLA


MISURA BASE TENDENZA
CENTRALE
Di intervalli Confronto metrico ▪ Customer satisfaction Moda, Mediana,
degli intervalli ▪ Brand attitude Media aritmetica
▪ Intention to buy

78
Gli indicatori a intervalli forniscono un’informazione quantitativa/numerica, ma con origine (zero) arbitraria
(non conosciuta).

Nelle scale di intervalli, i numeri che vengono assegnati alle variabili consentono il confronto della misura
delle differenze tra gli oggetti d’analisi rispetto a quella specifica variabile (es. nelle scale likert ad almeno 5
punti, la differenza tra 1 e 2 è uguale alla differenza tra 4 e 5). Di conseguenza, la differenza tra i punteggi che
vengono rilevati, non è una differenza oggettiva, è soggettiva. Per ridurre la soggettività potrebbe essere utile
utilizzare la scala da 1 a 10.

Di conseguenza, oltre alla moda e alla mediana, è possibile calcolare la media aritmetica.

Esempio di valutazione della preferenza verso i soft drink con una scala di intervalli

P e r Molto
niente

Coca-cola 1 2 3 4 5
Fanta 1 2 3 4 5

Coca-cola zero 1 2 3 4 5
Pepsi 1 2 3 4 5

Aranciata S. 1 2 3 4 5
Pellegrino
Sprite 1 2 3 4 5
Indica quanto ti piace ciascuno dei soft drinks elencati di seguito (1=per niente; 5=molto)

Misure di rapporto (ratio)

TIPOLOGIA DI CONFRONTO ESEMPI DI VARIABILI MISURA DELLA


MISURA DI BASE TENDENZA
CENTRALE

Di rapporti Confronto delle ▪ Unità vendute Moda, Mediana,


grandezze in ▪ Reddito (il valore Media
termini assoluti assoluto puntuale)
▪ Il fatturato di un’impresa
▪ Tempo di permanenza
nel pdv
▪ Frequenza d’acquisto o
consumo

Sono misure che forniscono informazioni metriche e che hanno uno zero naturale o assoluto. Pertanto,
consentono un confronto tra le grandezze assolute dei numeri assegnati alle variabili.

Di conseguenza, oltre alla moda e alla mediana, è possibile calcolare anche la media.

Esempio di valutazione della preferenza verso i soft drink con una scala di misurazione di rapporti

Negli ultimi 7 giorni, approssimativamente, quante lattine di ciascuno dei soft drinks elencati di seguito ha
consumato?

o Coca-cola
o Fanta
o Coca-cola Zero
o Pepsi
79
o Aranciata S. Pellegrino
o Sprite

LE ANALISI UNI-VARIATE

Analisi uni-variata per le variabili categoriche


ESEMPI DI ANALISI DI FREQUENZA PER LE VARIABILI CATEGORICHE NOMINALI

S TAT I S T I C A U N I -
VARIATA DI BASE PER
LE VARIABILI
C AT E G O R I C H E
ORDINALI

ESEMPIO DI MISURE DESCRITTIVE PER UN INDICATORE NOMINALE (GENERE)

ESEMPIO DI MISURE DESCRITTIVE PER UN INDICATORE ORDINALE (SCONTRINO MEDIO)

80
Analisi uni-variata per le variabili continue
ESEMPIO STATISTICA UNI-VARIATA DI BASE PER LE VARIABILI CONTINUE

Esempio di istogramma: i valori assunti dalla variabile sono sulle


ascisse, mentre sulle ordinate troviamo la frequenza (assoluta o
percentuale)

MISURE DESCRITTIVE PER GLI INDICATORI DI INTERVALLI E DI RAPPORTI

MISURE DI TENDENZA CENTRALE


Poiché la maggior parte dei gruppi di dati mostra una tendenza a raggrupparsi intorno a un determinato
«punto centrale», può essere utile selezionare un valore «tipico» per descrivere l’intero gruppo, come la moda,
la mediana e la media. Tale valore è detto appunto misura di tendenza centrale o posizione centrale.

La media misura di tendenza centrale, calcolata sommando i valori assunti dalla variabile nelle osservazioni e
dividendo per il numero delle osservazioni

La media è l’indice sintetico più popolare, ma soffre la presenza di outliers (diversamente


della mediana).

81

Misure di dispersione
È un’altra importante proprietà che caratterizza un gruppo di dati e permette di cogliere il «grado di
variabilità» dei dati stessi. Tra le misure di dispersione più utilizzate vi sono la varianza, la deviazione standard
e il coefficiente di variazione.

Misure di dispersione per indicatori a intervallo e di rapporti


1. Varianza: media delle differenze al quadrato di ciascuna osservazione dalla media

2. Deviazione standard (o scarto quadratico medio)

Indicatori standardizzati
I punteggi standardizzati (o z-score) possono essere calcolati sottraendo da ogni osservazione la media e
dividendo per la deviazione standard

Una variabile standardizzata «Z» è normalmente distribuita, cioè segue l’andamento della distribuzione
normale standardizzata con media nulla e varianza pari a 1.

I punteggi standardizzati sono sempre confrontabili tra loro, si elimina il problema dell’unità di misura,
possono essere utili nell’applicazione di alcune tecniche statistiche e sono immediatamente comparabili con
la distribuzione normale (95% delle osservazioni compreso tra -1.96 e 1.96; 99% compreso tra - 2.58 e 2.58).

Intervallo di confidenza (probabilità a priori)


La stima di un parametro in un campione probabilistico (ad esempio, % in una distribuzione di frequenza,
media) può essere effettuata seguendo la modalità della stima dell’intervallo di confidenza.

Intervallo di confidenza: è un range che verosimilmente contiene il valore reale di un determinato parametro
oggetto di studio con riferimento ad una data popolazione, sulla base di una statistica ottenuta da un
campione probabilistico.

Si tratta di costruire un intervallo che, con assegnata probabilità a priori, e quindi con un dato «livello di
confidenza», comprenda il parametro oggetto di stima.

82
Per costruire un intervallo di confidenza occorre stabilire a priori un dato «livello di confidenza», cioè un
livello accettabile di errore, che in genere è fissato come α=0,05 o come α=0,01.
La probabilità di ottenere un campione cui è associato un intervallo che comprenda il parametro sarà pari a
(1- α), ossia 95% o 99%. Ad esempio, una confidenza del 95% garantisce che, ripetendo migliaia di volte il
campionamento e la costruzione dell’intervallo, il 95% circa degli intervalli così ottenuti conterrà
effettivamente il vero valore del parametro.

Intervallo di confidenza per le proporzioni (%)


Per costruire un intervallo di confidenza per una percentuale occorre prima calcolare l’errore campionario per
questa particolare stima (sampling error)

Servono tre informazioni:

1. z score, cioè il livello desiderato di confidenza (in genere 95 di confidenza, dove z=1.96)

2. n, il numero di casi osservati

3. p, la percentuale ottenuta dal campione

Quindi, per calcolare l’intervallo di confidenza, bisognerà applicare la seguente formula:

In questo caso, possiamo essere confidenti al 95% che la proporzione di donne che realmente esiste nella
popolazione è compresa tra 0.75 e 0.85.

Intervallo di confidenza per le medie


Per costruire un intervallo di confidenza per una media occorre prima calcolare l’errore campionario per
questa particolare stima (sampling error). Servono tre informazioni:

1. z score, cioè il livello desiderato di confidenza (in genere 95% di confidenza, dove z=1.96)

2. s, standard deviation

3. n, totale casi osservati

Quindi, per calcolare l’intervallo di confidenza, bisognerà applicare la seguente formula sostituendo il valore
ottenuto di sampling error e il valore della media (nell’esempio pari a 10)

In questo caso, possiamo essere confidenti al 95% che la media effettiva della variabile studiata nella
popolazione è compresa tra 9 e 11.

83
Le ricerche quantitative forniscono un'accurata misurazione del
fenomeno indagato (livello di customer satisfaction, brand
awareness, quota di mercato, ecc.). Tale tipologia di ricerca
riveste nella maggior parte dei casi una natura descrittiva,
ovvero ha l'obiettivo di gettare luce sul mercato in cui opera
l'azienda fornendo risposte a domande tipo chi, cosa, dove,
quando: ad esempio, l'obiettivo di una ricerca quantitativa può
essere quello di determinare quali siano i segmenti dei
consumatori che preferiscono una marca determinata, quali
elementi condizionino prioritariamente la scelta, quale forma
distributiva risulti più adeguata per commercializzare il prodotto
studiato, in quale fase del ciclo di vita si collochi di solito il
processo d'acquisto.

In genere nei progetti caratterizzati da una elevata solidità


metodologica, una ricerca quantitativa segue una ricerca
qualitativa di natura esplorativa sul fenomeno indagato,
condotta con l'obiettivo di definire i contorni del problema
analizzato, sviluppare ipotesi di lavoro, individuare le variabili
delle relazioni chiave per i successivi approfondimenti.

I progetti che prevedono l'impiego di dati secondari non richiedono di avviare un'attività di fieldwork e si
basano essenzialmente sull'attività di analisi, interpretazione e reporting di dati disponibili nel sistema
informativo aziendale o forniti come prodotto/servizio da istituzioni pubbliche o private.

Le modalità alternative di ricerca quantitativa sono l'osservazione, l'esperimento e il sondaggio.

L’osservazione
Tale modalità di raccolta, in alcuni casi, è l'unica alternativa disponibile per misurare e valutare una serie di
aspetti comportamentali (es. comportamento d’acquisto per periodi prolungati e nei quali il ricordo del cliente
tenderebbe a perdere di intensità).

Un punto chiave nel progettare una raccolta di dati tramite osservazione è definire chiaramente il
comportamento da indagare. Si pensi, ad esempio, all'acquisto di una particolare marca di pasta da parte di
un cliente in un supermercato: l'osservazione può riguardare semplicemente la preferenza espressa dalla
scelta operata, oppure può tenere in considerazione il tempo necessario per arrivare alla scelta, il numero di
alternative valutate, l'eventuale consultazione con terze persone, la valutazione più o meno dettagliata dei
prezzi. Si nota dunque che la natura dell'osservazione sarà direttamente legata agli obiettivi della ricerca.

Nella progettazione di una ricerca tramite osservazione vi sono tutta una serie di scelte preliminari da
effettuare:

• decidere se realizzare l'osservazione limitando o evitando qualunque forma di controllo nell'ambiente


naturale in cui si svolge l'azione esaminata, o se invece preferire una logica più simile a un laboratorio
in cui alcuni effetti estranei indesiderati vengono filtrati. Entrambe le scelte sono caratterizzate da pro
e contro in relazione al grado di realismo dell'analisi da un lato e di efficacia dell'attività di ricerca
dell'altro

• scelta tra misurazione diretta del comportamento o indiretta solitamente la maggior parte delle
osservazioni sono di tipo indiretto per ragioni di comodità ed efficienza, va considerato però che
comporta anche un minor controllo sul comportamento del target

• distinzione tra osservazione umana e meccanica nel primo caso il ricercatore osserva
personalmente il comportamento, registra gli elementi rilevanti, archiviando il dato su un supporto
elettronico. Nel secondo caso viene utilizzato un macchinario più o meno sofisticato per rilevare
l'informazione. Alcuni esempi sono il pupillometro (misurare l'interesse e l'attenzione sulla base della
dilatazione della pupilla) e il galvanometro (misura il grado di eccitazione tramite la variazione di
84
resistenza elettrica della pelle e che viene utilizzato sottoponendo all'intervistato stimoli quali annunci
pubblicitari, packaging differenziati o, nel caso di soggetti particolari come i bambini, prodotti di loro
interesse come giocattoli). Esistono però forme meno sofisticate di misurazione meccanica; nelle
interviste computer-aided è possibile misurare la latenza di risposta, ovvero il tempo necessario per
fornire la risposta a una specifica domanda che costituisce una proxy del grado di incertezza dei
rispondenti sul problema

• l'estrusività dell'osservazione, ovvero il fatto che al soggetto osservato sia nota la presenza del
rilevatore o meno. La normativa risulta sempre più rigorosa e restrittiva in relazione, ad esempio, alla
presenza di telecamere nascoste, e comunque alla necessità che il target della ricerca fornisca un
consenso informativo, l'attività di ricerca stessa. Tuttavia, la naturalezza di comportamenti può
risultare verosimilmente compromessa dalla coscienza di risultare oggetto di indagine.
Un'interessante applicazione di metodi di osservazione esclusiva è il cosiddetto mistery shopping:
intervistatori confusi tra i clienti vengono istruiti per osservare con attenzione tutti gli aspetti del
customer service nello svolgersi dell'attività commerciale e di relazione con il cliente

I vantaggi dei metodi di ricerca basati sulle osservazioni risiedono essenzialmente nel fatto che essi
permettono la misura dei comportamenti reali anziché fornire indicazioni su intenzioni o preferenze. Viene
quindi eliminata la distorsione esistente sia dei comportamenti effettivi dell'intervistato, sia nel processo
stesso di intervista necessario per rilevare le intenzioni di comportamento e le preferenze. Inoltre, vi sono
strutture comportamentali misurabili soltanto attraverso l'osservazione. Infine, il costo dei metodi basati
sull'osservazione sono più bassi rispetto ai metodi basati sui sondaggi qualora i fenomeni osservati si
verifichino con frequenza e siano di breve durata.

Il limite principale risiede, invece, nel fatto che tali metodi registrano il comportamento senza fornire
direttamente indicazioni sulle sue motivazioni. Un'altra limitazione importante è costituita dalla distorsione
percettiva del rilevatore che può condurre a una corrispondente distorsione nelle informazioni raccolte. Tali
procedure possono poi risultare estremamente time consuming e costose, oltre a suscitare numerose
problematiche di ordine etico e legale.

Esperimento
Esistono due tipologie: esperimenti di laboratorio ed esperimenti sul campo.

• Esperimenti di laboratorio Esperimenti con un elevato livello di controllo sui fattori esogeni che
possono influenzare il fenomeno indagato, permettendo di misurare con precisione l'effetto di un
particolare fattore. Ogni modifica nella situazione sotto indagine viene rilevata e si verifica
statisticamente la significatività delle variazioni in relazione alle differenti configurazioni assunte dalle
variabili esplicative (o indipendenti). Però, le condizioni ideali di un esperimento di laboratorio in
ambito marketing sono difficilmente conciliabili con l'operatività dei mercati in cui si realizzano day by
day le transazioni commerciali

• Esperimenti sul campo esperimenti con un maggior grado di realismo, in cui tuttavia si perde parte
della capacità di controllo sulle determinanti dei fenomeni. Occorre, quindi, verificare attentamente
che le variabili oggetto del test cambino in relazione alle caratteristiche del disegno sperimentale e
che ulteriori fattori potenzialmente influenti non varino contemporaneamente.

Nella pratica, occorre individuare un efficace compromesso tra le due tipologie di sperimentazione, per
raggiungere almeno parzialmente i due obiettivi contrastanti di realismo e rigore scientifico. La
sperimentazione è comunemente utilizzata per inferire una relazione causale tra fenomeni. Con il
ragionamento scientifico però, non si può arrivare a provare l’esistenza di una relazione di causalità, ma
semplicemente inferire tale relazione.

Le condizioni per realizzare un’inferenza di causalità sono:

85
1. Concomitanza della variazione: se e quanto una causa X e un effetto Y si verificano e/o variano
insieme secondo le modalità indicate dall’ipotesi sotto indagine

2. Ordine temporale della variazione: l’evento causa deve verificarsi o prima o simultaneamente con
l’effetto e non dopo; tuttavia, un evento di marketing può essere allo stesso tempo causa ed effetto di
un fenomeno

3. Assenza di altri possibili fattori causali

La ricerca sperimentale nel marketing soffre di tre rilevanti limitazioni:

• Tempi gli esperimenti possono richiedere lunghi periodi di ricerca, in particolare quando si
desidera evidenziare gli effetti di medio-lungo periodo delle variabili indipendenti. Il periodo di
sperimentazione deve risultare sufficientemente lungo per permettere che tutti gli effetti ipotizzati si
possano manifestare
• Costi spesso gli esperimenti possono risultare molto costosi, in quanto la necessità di individuare
e coinvolgere nel processo unità di trattamento e unità di controllo e di ripetere le misure porta a un
notevole aggravio dei costi
• Gestione del processo il problema più rilevante risiede nell’estrema difficoltà di controllare le
variabili estranee, particolarmente negli esperimenti sul campo, sia per ragioni oggettive connesse alla
natura dell’esperimento sia per i comportamenti dei soggetti coinvolti

Il questionario

È il più importante metodo di indagine quantitativa nelle ricerche di marketing, il quale consiste
nell’intervista a un campione opportunamente selezionato di soggetti appartenenti alla popolazione
obiettivo. Le domande sottoposte possono riguardare comportamenti, preferenze, attitudini, livello di
soddisfazione globale e, per specifici aspetti del prodotto/servizio indagato, conoscenza di marca,
motivazioni di acquisto, caratteristiche sociodemografiche, ecc...

Il questionario è una serie di domande selezionate e strutturate in sequenza allo scopo di produrre i dati
necessari agli obiettivi del progetto di ricerca. Esso consente di rilevare variabili quantitative e qualitative.

Nelle ricerche quantitative:

• Il questionario solitamente risulta strutturato, ovvero viene predisposto un elenco di domande con un
ordine preciso

• il processo di sondaggio è diretto se l’intervistato conosce il vero scopo dell’indagine, indiretto in caso
contrario

• per quanto riguarda la forma, le domande possono essere aperte o chiuse, a seconda che si lasci
libero o meno l’intervistato di elencare le voci di risposta

86
Generalmente, nelle indagini quantitative, si predispongono questionari con un limitato numero di domande
aperte. Ciò in particolare è dovuto alla maggiore facilità (rapidità) di somministrazione e all'affidabilità delle
risposte fornite, in quanto selezionate tra alternative suggerite e presumibilmente significative per l’indagine,
con una conseguenza significativa per l'indagine causata dalle differenze negli intervistati. Inoltre, la
successiva codifica, analisi e interpretazione delle informazioni risultano notevolmente semplificate.

Tale metodologia presenta i seguenti limiti:

a) possibilità (per capacità e/o esperienza) o volontà (nel caso di dati sensibili e strettamente personali)
dell'intervistato di fornire le indicazioni desiderate dal ricercatore; l'indebolimento di tale prerequisito
conduce a informazioni distorte o, nel peggiore dei casi, devianti

b) la stessa strutturazione delle domande e l'auspicabile chiusura delle risposte tende a diminuire
l'affidabilità di alcuni dati raccolti (in particolare in relazione alle opinioni e alle sensazioni più profonde)

c) la stessa verbalizzazione delle domande, se o totalmente inefficace, inficia gravemente le indicazioni


della ricerca

Diversi metodi di contatto


Tra le tecniche di somministrazione vi sono le modalità di data collection tramite il questionario: CAPI, CATI,
CAWI. A seconda della tecnica scelta, il questionario viene costruito diversamente. Se il questionario è face-
to-face sono spesso usate domande aperte e complesse, a differenza di quanto avviene quando il
questionario è erogato a distanza.

Le indagini tramite questionario, classificate in relazione alla modalità di contatto dell'intervistato utilizzato,
sono:

1) Le interviste telefoniche prevedono che si selezionano un campione di abbonati alle diverse


compagnie operanti sul territorio e che si effettui l'intervista direttamente al telefono. L'intervistatore
può riportare su supporto cartaceo le risposte oppure può utilizzare un sistema CATI (Computer Aided
Telephone Interview). L'intervista avviene utilizzando un questionario computerizzato, che consente la
codifica e l'archiviazione diretta su supporto informatico delle informazioni raccolte. Ciò rende
possibile un controllo delle informazioni raccolte e la loro elaborazione pressoché in tempo reale.

I vantaggi delle interviste telefoniche risiedono nei tempi e nei costi di realizzazione dell'indagine,
abbastanza limitati, nonché nell'ampia raggiungibilità del target. È inoltre possibile controllare
gradualmente la composizione del campione (in termini, per esempio, di caratteristiche sociodemo o
comportamentali), introducendo per tempo eventuali correttivi. Se gli intervistatori hanno maturato la
necessaria esperienza, è possibile anche raccogliere informazioni sensibili e complessive, ottenendo
una bassa caduta di collaborazione.

Alcuni svantaggi sono l'impossibilità di sottoporre stimoli visivi, la necessità di limitare il tempo di
erogazione del questionario (nelle indagini sui consumatori è difficile superare i 12-15 minuti senza
una rilevante caduta della collaborazione) e conseguentemente la necessità di ridurre il più possibile il
numero di domande aperte, la possibile distorsione derivante dall'approccio dell'intervistatore e, in
specifici casi, l'impossibilità di verificare l'identità del rispondente

2) Le interviste personali (in casa e/o punto vendita) prevedono un contatto face to face tra intervistato
e intervistatore. In generale, l'intervistatore legge le domande e registra le risposte su supporto
cartaceo o, nel caso si utilizza un sistema CAPI (Computer Aided Personal Interview), su un terminale
elettronico.

L'intervista può essere condotta in home, eventualmente su appuntamento telefonico. In crescita,


tuttavia, è la quota di interviste personali realizzate nei pressi delle attività commerciali in cui si
realizzano le operazioni di interesse, in particolare per i minori costi e la maggiore efficienza.

I vantaggi sono legati all'elevata qualità dell'informazione raccolta, anche in relazione al possibile uso
di stimoli visivi o aperti multimediali, alla possibilità di formulare domande anche molto complesse e di
utilizzare un numero di domande superiori agli altri metodi di contatto. La caduta di collaborazione è in
87
genere relativamente bassa, anche a fronte di questionari abbastanza lunghi (non superare i 30-35
minuti). Esiste pure la possibilità (ma in tempo reale solo con sistemi CAPI) di controllare la
composizione del campione e (se necessario) l'identità dell'intervistato.

Gli svantaggi sono legati in sostanza a tempi e costi, decisamente elevati rispetto agli altri metodi di
contatto. Inoltre, è praticamente impossibile seguire l'attività dei vari intervistatori e quindi ci si deve
basare su un rapporto fiduciario tra fornitore del servizio e cliente/utilizzatore della ricerca. È più
difficile ottenere, rispetto alle interviste telefoniche, informazioni sensibili e in generale da parte
dell'intervistato vi è una percezione di maggiore intrusività dell'attività di ricerca.

3) Le Interviste web based (e-mail e internet) utilizza il web nelle diverse forme (posta, siti Internet
anche l'utilizzo di pop-up o banner). La posta elettronica permette sia di inviare il questionario nel
corpo del messaggio sia di effettuare un semplice invito alla compilazione con un link di rimando alla
survey.

Nel primo caso, l'intervistato può compilare con il proprio client di posta gli spazi specificamente
predisposti per risposte a domande aperte o chiuse e tramite il reply può inviare con rapidità la
risposta.

Tale metodo, a fronte di buoni tempi e costi, presenta alcune limitazioni: a parte il tasso di risposta,
solitamente molto basso, vi è l'impossibilità, per le limitazioni dei client di posta più diffusi, di
predisporre questionari aventi salti e controlli logici programmati dal ricercatore o una
randomizzazione della sequenza delle domande.

Il secondo caso, invece, risulta più flessibile e paragonabile agli altri metodi di contatto via Internet
nelle diverse forme. In questo caso si può anche predisporre un questionario sostanzialmente
equivalente a quello predisposto con i sistemi CAPI e i CATI e quindi inserire salti e controlli logici,
presentazioni di stimoli multimediali, link ad altre pagine web. Questa metodologia è denominata a
CAWI e permette la gestione completa della logica interna al questionario: individuazione, gestione e
controllo automatico del campione, organizzazione di liste esterne di contatti, codifica in corso di
intervista delle domande aperte, immediata disponibilità dei dati raccolti.

Il reclutamento avviene attraverso metodi tradizionali e all'intervistato vengono inviate indicazioni sul
sito in cui è proposto il questionario ed eventualmente vengono forniti un codice e una password per
accedere alla compilazione. La mailing list dovrebbe essere un campione rappresentativo della
popolazione oggetto di studio.

Per quanto riguarda la metodologia delle ricerche online, la struttura e la formulazione dei questionari
da compilare attraverso Internet è possibile evidenziare alcuni notevoli vantaggi derivanti
dall’economicità della ricerca, dalla possibilità di inserire contenuti multimediali o domande aperte,
dall'effettiva rapidità di raccolta e preparazione dei dati che risultano immediatamente disponibili e
fruibili per l'analisi, e dalla limitata intrusività.

Gli svantaggi, invece, riguardano il tasso di risposta, in generale piuttosto basso, e nella ridotta
complessità dell'indagine proponibile con questo approccio. Inoltre, alcuni inconvenienti sono relativi
alla rappresentatività del campione rispetto all'intera popolazione, in quanto il campione effettivo è
spesso autoselezionato, e all'impossibilità di raggiungere particolari segmenti di mercato in cui
Internet non è ancora molto diffuso.

Generalmente le ricerche online vengono utilizzate per effettuare analisi specifiche per l'ambiente
Internet: la valutazione di siti web, l'analisi degli acquisti online e dell'e-commerce, le indagini sulla
demografia di Internet eccetera, con notevoli vantaggi rispetto ai metodi di contatto di tipo
tradizionale.

Nello sviluppo di un questionario ci sono alcuni aspetti critici da considerare e superare:

- Formulazione è necessario che il questionario abbia domande chiare da un punto di vista


sintattico, con un linguaggio accessibile e comprensibile dal target a cui ci si rivolge, evitando
domande doppie, ambigue e viziate (ovvero non bisogna condizionare la risposta dell’intervistato)

- Sequenza dividendo il questionario in blocchi logici, per ciascun blocco bisogna andare dal
generale al particolare (tecnica ad imbuto e ordine logico delle domande)

88
- Format deve essere user-friendly se svolto online e il più semplice possibile se svolto in presenza
(max 1 pagine fronte-retro)

Nella realizzazione del questionario le domande sono poste in una sequenza precisa:

- Frase d’apertura

- Sezione introduttiva elementare e semplice dove si esplicita


il tema della ricerca

- Sezione tecnica (si articola in diversi blocchi logici)

- Sezione socio-demografica

I principali criteri per la costruzione del questionario


1. Obiettivi della ricerca è necessario concordare con il cliente gli obiettivi di ricerca, in modo da
essere allineati

2. Tipo di field (CATI, CAPI, CAWI) parallelamente bisogna capire la modalità di raccolta dei dati;
alcuni obiettivi di ricerca non sono raggiungibili con i canali digitali, quando sono troppo legati alla
sfera personale

3. Definizione del target è necessario individuare i soggetti a cui rivolgere il questionario, scelto a
seconda degli obiettivi di ricerca

4. Durata prevista e budget della ricerca

5. Tipologia di interlocutore si potrebbero definire dei sotto-target

6. Presenza di materiale di stimolo oltre le domande in forma testuale con visione di video e immagini

Le regole fondamentali
Il questionario serve a misurare, registrare, archiviare le informazioni raccolte direttamente presso gli
intervistati. A tal proposito:

a. La formulazione e l’ordine delle sezioni devono essere identici per tutti gli intervistati, secondo i
percorsi progettati (tutti i rispondenti devono trovarsi di fronte allo stesso sentiero; per ridurre il bias
legato al fatto che i rispondenti tendono a dare maggiore attenzione alle prime opzioni di risposta che
vengono proposte, si guarda soprattutto la prima lista, soprattutto quando le opzioni di risposta sono
più di 10. Questo perché i rispondenti potrebbero concentrarsi solo sulle prime risposte, dando meno
importanza alle altre. Per questo se vengono proposte domande con una lunga batteria di risposta
multiple, l’ordine delle risposte può variare da intervistato a intervistato)

b. Le domande devono essere formulate in modo da essere agevolmente comprensibili, senza lasciare
spazio ad ambiguità e interpretazioni soggettive

c. Le condizioni di somministrazione devono essere le medesime per tutti

Norme redazionali
Nella redazione di un questionario occorre:

1. Stabilire le informazioni necessarie

2. Determinare il tipo di questionario da utilizzare (es. somministrazione, tecnica di analisi dei dati)

3. Definire il contenuto delle singole domande

89
4. Scegliere il tipo di domande da usare

5. Progettare la formulazione delle domande

6. Disegnare la sequenza delle domande (non solo i blocchi delle domande devono essere in sequenza
logica, ma anche le domande all’interno di ciascun blocco, devono seguire una sequenza logica)

7. Testare la funzionalità del questionario

Inoltre, bisogna:

a. Usare parole semplici

b. Evitare domande ambigue e vaghe

c. Evitare domande ridondanti o poco significative (il questionario deve essere essenziale)

d. Disporre le domande secondo un ordine logico

e. Collocare le domande delicate alla fine (se sono inserite all’inizio, gli intervistati si stressano)

f. Specificare chiaramente i termini dubbi (attraverso 2-3 esempi, concretizzando la parola dubbia)

g. Non chiedere di ritornare troppo indietro nel tempo

Il disegno del questionario


1. Decisioni preliminari

• Quale informazione è richiesta?

• Da chi è costituito il target?

• Quale metodo di contatto verrà


utilizzato?

In questa fase più chiari risultano gli obiettivi, più


facile diventa determinare di quale informazione si
ha bisogno e come debba essere individuato il
target. La scelta del metodo di contatto è legata sia alla definizione degli obiettivi sia ai vantaggi/svantaggi di
ciascun metodo.

2. Decisioni sul contenuto delle domande

• La domanda è strettamente necessaria per soddisfare l’obiettivo conoscitivo del cliente? Un modo
per ottenere una conferma è esplicitare a priori l’uso che verrebbe fatto dell’informazione raccolta;
se non ci sono modalità di esplicitazione soddisfacenti, la domanda può essere eliminata

• La domanda è sufficiente per ottenere l’informazione desiderata è necessario fare una sotto-
domanda? È necessario verificare se la domanda è efficace e quindi utile per ottenere le
informazioni desiderate

• L’intervento è in grado di rispondere correttamente? Bisogna verificare se l’individuo è


effettivamente capace di rispondere alle domande, che può essere inficiata nel caso in cui
l’intervistato non sia stato esposto al fenomeno, sia stato esposto al fenomeno, ma il ricordo è
debole

• L’intervistato vorrà rispondere correttamente? Vi è poi il problema di volontà effettiva di rispondere,


che risulta inficiata dalle richieste di informazioni troppo personali o comunque imbarazzanti e/o

90
legate al prestigio dell’individuo (scelte politiche, comportamenti sessuali, …). La soluzione a
queste domande può essere rappresentata dall’utilizzo di tecniche proiettive o indirette, dando la
sensazione all’intervistato di fornire una valutazione relativamente asettica a un fenomeno che non
lo riguarda in modo diretto

3. Decisioni sulla verbalizzazione delle domande

• Le parole utilizzate hanno lo stesso significato per tutti i rispondenti? È necessario evitare ogni
fraintendimento, utilizzando frasi di uso comune ed eliminando vocaboli tecnici o specialistici.

• La formulazione della domanda indirizza la risposta?

• Nella domanda vengono esplicitate le alternative?

4. Decisioni sul formato della risposta

• La domanda può essere aperta, a scelta multipla, dicotomica

Le domande aperte consentono una maggiore libertà di risposta all'individuo e permettono talvolta di
cogliere sfumature precettive altrimenti non individuabili. Esistono però diverse tipologie di domande aperte:
le domande che lasciano grande spazio alla possibilità espressiva dell’intervistato risultano più adatte al
contesto di una ricerca qualitativa e ai fini esplorativi (“che cosa pensa del consumo di vino?”). Pertanto, l'uso
di tale tipologia di domande andrebbe limitato all'interno di una ricerca quantitativa.

Nei questionari compilativi, molto spesso tali domande non vengono prese in considerazione o viene
comunque dedicata a loro una scarsa attenzione con un basso livello di elaborazione delle risposte, mentre
nei questionari somministrati telefonicamente o face to face vi è il rischio di una distorsione derivante
dall'intervistatore. In sede di elaborazione, vi è anche il problema della codifica delle risposte ottenute che, in
presenza di una elevata dispersione, rischia di diventare un compito estremamente complesso e time-
consuming. Un'alternativa di compromesso che può essere utilizzata nei questionari non compilati è quella di
fornire all'intervistatore una pre codifica delle possibili risposte, lasciando spazio per ulteriori integrazioni dei
codici.

La forma di domanda più comune nelle indagini quantitative è la cosiddetta multiple choise: all'intervistato
viene proposta una lista di possibili risposte all'interno della quale effettuare la scelta.

I vantaggi e gli svantaggi delle multiple choise sono speculari a quelle delle domande aperte. Da un lato sono
più facilmente gestibili da intervistatore e intervistato, sono più indicate per i questionari autocompilati,
riducono le distorsioni legate alla differente capacità dei diversi intervistati di declinare gli aspetti del
fenomeno indagato e, rispetto alle domande dicotomiche, permettono di graduare meglio le proprie
valutazioni e comunque di fornire una risposta più vicina a quella desiderata.

Gli svantaggi sono legati allo sforzo necessario per la predisposizione di un gran numero di domande in
questa forma e talvolta alla distorsione indotta dal suggerire all'intervistato le possibili risposte. Per quanto
riguarda il numero di alternative da proporre, solitamente le ricerche qualitative costituiscono un buon aiuto
allo screening; buona norma però è non eccedere nell'articolazione.

Altri aspetti da considerare riguardano il bilanciamento delle alternative delle scale graduate tra il lato basso e
alto della scala. Ogni scelta presenta aspetti positivi e negativi: se infatti l’asimmetria della scala forza
l'intervistato a prendere una posizione e a non focalizzarsi su una posizione centrale neutra, il rischio è quello
di indirizzare in qualche modo la risposta.

L'ultima tipologia utilizzabile è quella delle domande dicotomiche: sono domande che ammettono solo due
risposte possibili, del tipo si/no, accordo/disaccordo, maschio/femmina. Spesso le due categorie sono
integrate da una categoria neutra del tipo “non so”, “nessuna opinione”. I vantaggi sono legati alla semplicità
e alla velocità della risposta richiesta, gli svantaggi all'impossibilità dell'intervistato di graduare la valutazione
e di sfumare i toni della risposta.

91
• Quale tipologia di scala scegliere?

5. Decisioni concernenti la sequenza delle domande

• La sequenza è stata scelta in modo logico e opportuno?

• Struttura ad imbuto (dal generale al particolare) le prime domande devono essere semplici e
interessanti, fornendo il quadro di riferimento per le risposte successive

• Conduzione dell’intervistato “stanza per stanza”

6. Decisioni concernenti il lay-out del questionario

• Il lay-out del questionario è stato disegnato in modo da agevolarne la compilazione? (deve essere
funzionale all’efficacia comunicativa) la forma del questionario deve essere tale da semplificare
al massimo il compito dell’intervistato, in modo tale da evitare la caduta di collaborazione da parte
degli stessi

7. Pre-test e revisione

• Il questionario è stato testato su un mini-campione di intervistati in target?

È opportuno effettuare un pretest prima di iniziare il field vero e proprio. Almeno 5 sono le considerazioni di
base che riguardano il pretest:

- Una prima decisione riguarda le aree del questionario da indagare, ovvero se è opportuno
somministrare al campione di test tutto il questionario o solo le aree più controverse; solitamente
viene somministrato l'intero test in modo ottenere una verifica complessiva della fruibilità dello
strumento di indagine

- È opportuno condurre il pretest nelle stesse condizioni dell'indagine finale, ovvero somministrando il
questionario con la stessa modalità prescelta per l'indagine effettiva; bisogna realizzare un debrief con
gli intervistati dell'indagine pilota per evidenziare le difficoltà e le ambiguità incontrate durante
l'intervista, in modo da avere anche indicazioni sugli eventuali rimedi ai problemi emersi

- Le interviste di pretest andrebbero realizzate almeno da un intervistatore esperto, da un intervistatore


relativamente inesperto, e nella maggior parte dei casi da intervistatori di media esperienza per
ottenere una stima attendibile di tempi di somministrazione e di tassi di risposta

- Gli intervistati dovrebbero essere il più possibile simili al target selezionato per l'indagine, per garantire
la rappresentatività in termini di esperienza e di comportamento/atteggiamento verso l'oggetto
dell'indagine

- Occorre decidere la numerosità delle interviste di pretest. È difficile individuare una numerosità
standard; è evidente, però, che tale numerosità debba crescere all'aumentare della complessità
dell'indagine

La macrostruttura del questionario

92
Domande chiuse: esempi

• A quale operatore di telefonia mobile è abbonato?


o Telecom Italia Mobile
o Vodafone Omnitel
o Wind
o Tre
• Acquisterà nei prossimi sei mesi un lettore DVD? sicuramente sì – probabilmente sì –
probabilmente no – sicuramente no
• Indichi il livello di soddisfazione globale per il supermercato XYK su una scala da 1 a 9, con
1=soddisfazione molto bassa e 9=soddisfazione molto alta. 1 2 3 4 5 6 7 8 9

Le tipologie di scale di valutazione


Le scale di valutazione utilizzate nei questionari per le ricerche di marketing sono diverse. Le scale di
valutazione si suddividono in:

Scale comparative, le quali si suddividono in:

o Scale basate sul confronto a coppie

o Scale ranking

o Scale a somma costante

Scale non comparative, le quali si dividono in:

o Scale ancorate, tra cui:

▪ Likert

▪ Differenziale semantico

▪ Stapel

▪ Agli estremi

o Scale continue

LE SCALE COMPARATIVE
Sono basate su un processo di comparazione. Esse comportano un confronto diretto tra una serie di stimoli
che vengono proposti all’intervistato (l’obiettivo conoscitivo è comparare stimoli diversi). Per stimolo si
intende la domanda/la foto/il video da far vedere per poi stimolare la riflessione/un oggetto da visionare.

Vanno interpretate in senso relativo e danno origine a dati di tipo qualitativo ordinale.

Tra i vantaggi vi è la possibilità di individuare anche piccole differenze di percezione dell’intervistato in modo
abbastanza oggettivo. Inoltre, i punti di riferimento della valutazione sono comuni per tutti gli intervistati e
questo rende più agevole il confronto tra valutazioni fornite dai soggetti diversi.

Lo svantaggio è che la validità della misurazione è limitata agli stimoli oggetto d’analisi, non essendo
possibile alcuna generalizzazione o confronto al di là degli stimoli stessi.

SCALA A SOMMA COSTANTE

93
Si propone al rispondente di ripartire un totale (generalmente 10 o 100) su una serie di attributi, dando un
peso a ciascun attributo la cui somma deve fare 10 o 100. Ha
senso se la somma costante è frutto di pochi addendi, in modo
che la ripartizione sia la più semplice possibile per l’intervistato.

Questo è un esempio sbagliato perché gli attributi sono molti.

L'aspetto positivo di tale approccio è individuabile nella


possibilità di discriminare finemente tra gli stimoli senza che il
compito risulti troppo gravoso per gli intervistati. I problemi,
invece, sono legati all'eventuale difficoltà a rispettare il punteggio
complessivo assegnato e alla scelta di tale somma costante, che
non dovrebbe essere né troppo ridotta né troppo estesa.

SCALA A COPPIE
Si propongono degli stimoli binari ai rispondenti e gli viene chiesto di scegliere un oggetto della coppia sulla
base di un criterio prespecificato. È utile qualora si consideri un numero di stimoli contenuto, perché rileva
una comparazione e una scelta diretta senza che il compito risulti troppo gravoso.

Il limite principale sta nella possibile violazione dell’ipotesi di transitività e nell’eventuale distorsione derivante
dall’ordine di presentazione delle coppie. Inoltre, tale approccio risulta distante dalle condizioni tipiche del
mercato, in cui la scelta avviene tra più alternative.

SCALA RANKING
Si tratta di mettere in ordine determinati attributi/items. È possibile calcolare la moda e la mediana.

Tale scala può superare i limiti del confronto a coppie, la quale si ottiene presentando all'intervistato, un set
completo di stimoli e richiedendo di ordinare tale insieme sulla base un determinato criterio. Si tratta di un
approccio largamente utilizzato nelle ricerche quantitative.

Gli unici limiti sono legati alla lunghezza del task, qualora il numero di stimoli risulta elevato e al fatto che
vengono generate dati puramente ordinali.

LE SCALE NON COMPARATIVE (monodiche o metriche)


Non prevedono un confronto diretto tra stimoli, ma prevedono una misurazione separata per ogni stimolo
presentato. I dati che ne derivano risultano misurati di solito a livello di intervallo o di rapporto.

CONTINUE
All’intervistato si chiede di mettere una X a
seconda della richiesta che viene effettuata.
Non vi è nessuna graduazione, ma è
semplicemente una riga su cui inserire una X.

Gli intervistati valutano gli oggetti mettendo un


segno su un segmento tracciato tra due estremi (valutazione minima e massima); in questo modo si lascia
una grande libertà per graduare la valutazione, poiché è ricercatore non impone la scelta all'interno di
specifiche classi di punteggio.

Una volta ottenuta la risposta, il segmento viene diviso in tanti intervalli, cui corrispondono altrettante classi di
valutazione e il ricercatore assegna il punteggio esaminando la classe in cui ricade il segno tracciato. Questa
procedura risulta relativamente più agevole nelle somministrazioni computerizzate (CAPI/web).

ANCORATE

LIKERT

94
È quella che prevede la manifestazione di accordo o disaccordo
con riferimento a una serie di affermazioni (percepito di un
brand, beneficio di un servizio, atteggiamento o abitudini di
consumo, acquistato, un prodotto). Sulle righe si inseriscono le
affermazioni per rispondere all’obiettivo di ricerca, sulle colonne si
inserisce una scala ancorata a una serie di giudizi (DEL TUTTO IN
DISACCORDO - MOLTO D’ACCORDO). Generalmente le scale
sono da 1 a 5, ma possono arrivare anche a 7.

Consente di avere una misura di intervallo, poiché non vi è uno 0 naturale.

DIFFERENZIALE SEMANTICO
È molto utilizzato negli studi percettivi (es. brand positioning,
ovvero come l’impresa vuole essere percepita cognitivamente, e
quindi collocata nella mente dei consumatori in target rispetto ad
altri concorrenti con riferimento a determinati attributi). Si
inseriscono all’interno della scala 2 termini opposti, chiedendo al
rispondente di dare una valutazione che si colloca in una delle
caselle più vicina all’opposto di destra o sinistra. In questo modo,
si aiuta il rispondente a concettuale immediatamente gli opposti.

Spesso le domande vengono elaborate con il grafico “snake


diagram” per il confronto dei profili (in questo caso delle banche A e
B) a partire dal differenziale semantico. Si costruisce a partire dalla
media dei risultati ottenuti. Si ha in questo modo un’immediata visione
del percepito del posizionamento dei clienti con riferimento a una serie
di item (attributi) rilevanti per il brand positioning secondo il
management dell’impresa. Tale diagramma si utilizza anche nei grandi
test di prodotto.

STAPEL
È una scala che ha l’obiettivo di ottenere una scala di intervallo
rispetto a determinati concetti, attributi, benefici, percezioni.

È poco utilizzata perché è molto macchinosa.

SCALA AGLI ESTREMI


è tra le più utilizzate

UN ALTRO ESEMPIO

- Quanto è importante per il brand X?

- Quanto è importante la cortesia del servizio


all’interno di un supermercato?

- Ti chiedo di esprimere la tua valutazione con riferimento … da 1 a 5

- Esprimi da 1 a 5 quanto ti piace il brand X

- Esprimi da 1 a 5 quanto ti senti fedele al brand Y

95
- Esprimi da 1 a 5 la reputazione del brand Z, in termini di credibilità

NEUROMARKETING

Uno degli obiettivi fondamentali delle neuroscienze è comprendere i meccanismi biologici che stanno alla
base dell’attività cerebrale dell’uomo. È indiscutibile che il cervello sia l’organo più enigmatico e importante di
ogni essere umano, dal momento che non è sostituibile e che serve per governare l’organismo e i
comportamenti, oltre che per interagire con gli altri esseri viventi.

Negli ultimi anni, il contributo dei metodi neuroscientifici è divenuto significativo per la conoscenza del
comportamento umano, anche per il perseguimento degli obiettivi di marketing. Molti dei nostri processi
mentali si verificano a livello inconscio, comprese le decisioni che prendiamo come consumatori.

Già negli anni ’50, il pubblicitario britannico David Ogilvy affermò che uno dei maggiori problemi nel campo
delle ricerche di mercato è che “le persone non pensano ciò che sentono, non dicono ciò che pensano e
soprattutto non fanno quello che dicono”. Un’affermazione che ha sollevato una duplice questione, da una
parte l’incapacità delle persone di essere pienamente “consapevoli” delle proprie reazioni di fronte alle
stimolazioni ambientali e di consumo, e dall’altra, la difficoltà delle ricerche di mercato tradizionali di poter
individuare le motivazioni più profonde in grado di spiegare i comportamenti di consumo o di predirne la loro
“direzione”.

Con il passare del tempo ci si è resi conto che, contrariamente alle teorie economiche neoclassiche che
consideravano l’uomo come una macchina in grado di valutare senza errori le informazioni a sua disposizione
rispondendo a logiche di ottimizzazione, gli individui non sono in grado di razionalizzare, spiegando a parole
con precisione quello che provano e quali sono i criteri in base a cui decidono.

Esiste, invece, la convinzione che il loro cervello si attivi, restituendo segnali delle preferenze di tipo oggettivo
e fisiologico, anche quando queste rimangono inespresse. Le moderne tecniche che consentono la
visualizzazione dell’attività cerebrale hanno mostrato che ad ogni percezione, azione, pensiero o
immaginazione corrisponde l’attivazione di specifiche aree cerebrali.

Da un punto di vista di marketing, il cervello è distinto da 3 parti ognuna corrispondente a fasi evolutive
differenti e con le sue funzioni peculiari, secondo il neuroscienziato MacLean:

1. Il cervello rettile, istintivo è quella parte del cervello che consente la sopravvivenza, la difesa (istinti
e riflessi), la regolazione fisiologica, la sessualità e l’esplorazione

2. Il cervello intermedio, emotivo sistema limbico, vissuto relazionale ed emotivo, emozioni e affetti,
attaccamento, memoria implicita

3. La neocorteccia, analitico pensiero razionale, concentrazione, funzioni esecutive e logiche e


linguaggio; è la parte del cervello più recente

Il cervello rettile influenza in maniera determinate il processo decisionale.

Il cervello proto-rettiliano, deputato alla sopravvivenza, influenza in maniera determinante il processo


decisionale e opera in stretto contatto con il sistema limbico, che elabora le emozioni, a livello non conscio e
ad una velocità elevata (system 1).

L’apparato più recente è la neocorteccia, responsabile del nostro pensiero logico-razionale. Lavora a livello
conscio ed a una velocità limitata (system 2).

Grazie all’avanzamento tecnologico delle tecniche di brainimaging, le funzioni cerebrali possono essere
studiate dettagliatamente nel “tempo” e nello “spazio”. La corretta interpretazione di tali segnali potrebbe
essere impiegata per affinare, ad esempio, la comunicazione pubblicitaria, migliorandone l’efficacia, oppure
per la realizzazione di un prodotto ecc.

Il contributo delle neuroscienze al marketing è, quindi, basato sull’evidenza che la componente razionale nelle
decisioni conta molto poco, ciò che conta è la componente irrazionale. Numerosi studi hanno appurato che
circa il 95% delle nostre decisioni avviene in maniera irrazionale, cioè mossa dall’istinto e dai sensi.

96
Gli esseri umani attuano delle scelte in una manciata di secondi e spesso non sono in grado di definire il
perché di tali scelte, se non dopo una successiva giustificazione razionale. E questo avviene anche nelle
scelte di consumo.

Proprio per approfondire le ragioni di scelta del consumatore, nel 2002 è nato il neuromarketing, una nuova
disciplina che consente di dare un valore aggiunto ai tradizionali metodi di ricerca qualitativi e quantitativi.

Il neuromarketing non sostituisce tali metodi di ricerca, ma deve essere considerato come una “terza
dimensione” della ricerca che aiuta a scoprire le motivazioni più inconsce del comportamento del
consumatore. I recenti progressi delle neuroscienze, infatti, permettono di misurare la risposta inconscia del
cervello attraverso diversi strumenti.

Attraverso questo approccio scientifico si individuano le motivazioni non espresse del perché i consumatori
preferiscono uno stile di comunicazione piuttosto che un altro, o perché sono attratti da un particolare
allestimento sul punto vendita, o dalla struttura di un determinato sito web, o perché preferiscono alcune
argomentazioni di vendita rispetto ad altre.

Introduzione al Neuromarketing
Il neuromarketing può essere definito come il campo di studi che applica le metodiche proprie delle
neuroscienze per analizzare e capire il comportamento umano in relazione ai mercati e agli scambi di mercato
tenendo conto del fatto che “spesso ciò che pensiamo di volere ha poca o nessuna incidenza sulle scelte che
effettivamente facciamo”.

Una delle più interessanti scoperte neuroscientifiche è rappresentata dalla dimostrazione del ruolo centrale
della dimensione emozionale nei processi decisionali, tra cui quelli messi in atto dai consumatori. Ciò sta
attirando sempre di più l’interesse dei ricercatori sui meccanismi inconsci legati ai processi decisionali,
fornendo una spinta verso un’indagine più approfondita della dimensione emozionale per indagare ciò che
avviene nella mente dei consumatori.

I vantaggi offerti da questo tipo di prospettiva risiedono nel fatto che essa offre una finestra diretta sulle
motivazioni che guidano un individuo verso una specifica direzione di scelta, difficilmente rilevabili attraverso
indagini e metodologie convenzionali, quali l’impiego di questionari o la realizzazione di interviste
psicologiche.

L’apertura verso questi nuovi orizzonti catturò, prima del marketing, l’interesse degli studiosi del campo
dell’economia, incuriositi dalla possibilità di misurare l’impatto delle azioni del marketing tramite le
prospettive di analisi della psicologia cognitiva e delle neuroscienze. Ciò condusse alla nascita della
neuroeconomia, un settore improntato sullo studio delle modalità con cui il cervello prende decisioni di
natura finanziaria, il cui obiettivo è quello di arricchire e rielaborare le fondamenta della teoria economica
attraverso l’analisi dei processi cerebrali.

Il neuromarketing, che non rappresenta altro che un’estensione della neuroeconomia, si presenta dunque
come un settore di ricerca multidisciplinare con un focus più mirato che punta ad indagare le reazioni dei
consumatori agli stimoli di marketing, dalle pubblicità commerciali alle modalità di fruizione di un sito internet
o al reale apprezzamento di una nuova proposta di prodotto.

Sebbene il termine “Neuromarketing” con esattezza non possa essere attribuito a nessuno, il professore Ale
Smidts della Rotterdam School of Management fu il primo a nominare l’uso delle tecniche neuroscientifiche
per il marketing nel 2002. Nello stesso periodo, aziende americane quali la Brighthouse e SalesBrain
iniziarono ad offrire servizi di ricerca e di consulenza di neuromarketing ai loro clienti impiegando la
tecnologia e la conoscenza provenienti dal campo delle neuroscienze cognitive. Nello specifico, la
Brighthouse co. (Atlanta, USA) fu la prima ad annunciare la creazione di un dipartimento per l’uso dell’fMRI
per la conduzione di ricerche di marketing.

Il primo studio significativo di neuromarketing è stato condotto da Read Montague, professore di


Neuroscienze e direttore dello Human Neuroimaging Lab del Baylor College of Medicine (Houston, Texas) nel
2003.

97
Lo studio voleva investigare l’efficacia della percezione del brand. Nello specifico fu chiesto ad un gruppo di
67 persone di bere la Pepsi e la Coca Cola, in due modalità differenti: la prima volta senza conoscere il nome
della bevanda (in modalità blind) e una seconda volta facendo vedere il nome della bevanda prima di berla, e
tutto questo mentre la loro attività cerebrale veniva misurata tramite fMRI. Prima di condurre lo studio, si
chiese ai volontari se preferissero Coca Cola, Pepsi o non avessero preferenze: più della metà dichiarò una
preferenza netta per la Pepsi. Mentre bevevano il sorso di Pepsi (in modalità blind) si registrava un’intensa
attività nel putamen ventrale, una regione del cervello che viene stimolata quando troviamo attraente un gusto.
Questa volta il dottor Montague decise di dire ai soggetti del test se assaggiavano Pepsi o Coca Cola prima
che ne prendessero una sorsata. Risultato: il 75% degli intervistati sosteneva di preferire Coca Cola.
Quello che Montague osservava era un cambiamento nella sede dell’attività cerebrale: oltre al putamen
ventrale, si registrava un flusso di sangue verso la corteccia prefrontale mediana, una parte del cervello da cui
dipendono il pensiero superiore e il discernimento. Il che indicava che due aree del cervello erano impegnate
in una sfida fra percezione razionale ed emozionale.
Tutte le associazioni positive che i soggetti sperimentali avevano memorizzato a livello profondo verso il brand
Coca Cola – la sua storia, il logo, il colore, il design, la fragranza, i ricordi infantili di Coca Cola, gli spot
televisivi e la pubblicità, la pura, incontrovertibile, inesorabile, emozionale Cocacolità del marchio – battevano
la preferenza naturale, razionale, per il gusto della Pepsi attraverso le emozioni. Questo perché le emozioni
sono il modo in cui il nostro cervello codifica le cose di valore, e una marca ha molto potere se ci coinvolge
emotivamente vincerà sempre, in tutte le occasioni.
Sulle orme dello studio Coca-Pepsi furono molteplici gli studi di neuromarketing condotti, mentre in generale
si sviluppavano anche le ricerche di neuroeconomia. Questo perché la modellizzazione economica si è
sempre basata fino agli anni ‘80-‘90 sulla premessa che gli esseri umani si comportino in modo razionale e
prevedibile. Come hanno confermato invece grandi studiosi di economia comportamentale quali George
Loewenstein e Daniel Kahneman, la maggior parte del cervello che guida i nostri comportamenti è dominata
da processi automatici, veloci, inconsci e non dal pensiero deliberato (più lento e razionale). Molto di quello
che succede nel cervello è emozionale e inconscio.

Non sorprende quindi che il neuroimaging, maturato nell’ambito degli studi delle neuroscienze umane abbia
catturato l’attenzione non solo del mondo della pubblicità, ma sia entrato anche in altre aree di interesse
come la politica, la neuro estetica, efficacia della comunicazione, product placement, confezioni e punti
vendita, gaming, ergonomia, packaging e neuropricing.

Pubblicità trasmessa in televisione o tramite affissione


La pubblicità è l’area del marketing che ha maggiormente beneficiato delle tecniche di neuromarketing. Se è
vero che il consumatore medio acquista con il cuore e giustifica con la mente, occorre allora creare
campagne che stimolino entrambi gli emisferi, quello destro più emozionale e quello sinistro più razionale.

Inoltre, nelle società contemporanee, la crescita esponenziale dei messaggi pubblicitari e il conseguente
eccesso comunicativo stanno creando nelle persone una sorta di saturazione emotiva e cognitiva, che tende
a trasformare la pubblicità in una sorta di rumore indifferenziato, dal quale per la singola azienda è
estremamente difficile emergere e farsi notare. Tutto questo rende ancora più difficile la trasmissione del
messaggio con efficacia.

In aggiunta a ciò, esistono fattori psicologici e situazionali che portano a filtrare i messaggi provenienti dai
canali mass mediali sul piano dell’esposizione e della percezione. È pertanto necessario che tali messaggi
siano particolarmente efficaci, cercando di sollecitare un atteggiamento favorevole nei confronti del prodotto,
servizio o brand pubblicizzato.

I professionisti della comunicazione devono raccogliere una sfida intelligente: trovare la strada giusta e il
giusto equilibrio nell’imporsi all’attenzione, senza esagerare. Per questo bisogna conoscere bene le abitudini
e gli interessi del proprio target per raggiungerlo in modo efficiente, fargli ricordare il prodotto e convincerlo a
provarlo e magari ad acquistarlo. Bisogna “colpire” il potenziale cliente un numero di volte sufficiente ad
accendere il suo interesse, trasferendo l’importanza e il valore dell’offerta.

Grazie al contributo del neuromarketing è possibile:

98
- identificare gli elementi che scatenano sensazioni positive

- rimuovere elementi che involontariamente potrebbero essere presenti nella comunicazione e che
potrebbero causare avversione al prodotto

- selezionare caratteristiche visive e sonore

- agire sul timing e sulla selezione dei media

Il neuromarketing risulta estremamente adatto a supportare la comunicazione commerciale durante la fase di


creazione (pre-test) potendo accrescere la capacità di stimolare attenzione, interesse e memorizzazione, così
da posizionare lo spot in modo coerente rispetto alla marca, suscitando un’emozione connessa alla brand
identity, e al contempo fornire indicazioni per versioni temporali differenti (riduzione di secondaggio).

Nella fase post-creativa dello spot (post- test), invece, è utile per misurare l’efficacia comparativa rispetto ad
altri spot o immagini pubblicitarie e per selezionare e ottimizzare il materiale già esistente.

Inoltre, è possibile condurre anche ricerche di neuromarketing per ottenere indicazioni sulla frequenza
ottimale di esposizione, necessaria affinché lo spot susciti coinvolgimento, interesse, memorizzazione. Ad
esempio, si può prevedere quale sia il livello di esposizione, superato il quale, decresce l’interesse e subentra
l’effetto noia. Questi test possono essere realizzati sia su un target generico che su sottogruppi (uomini-
donne, giovani-adulti, clienti-non clienti ecc.).

Packaging di prodotti e posizionamento di un prodotto all’interno di un punto vendita


Il neuromarketing può essere impiegato per ottenere un design delle confezioni più accattivante, in modo
che, ad esempio un cliente possa riconoscere il prodotto più facilmente sullo scaffale di un supermercato,
individuandolo tra altri simili.

È possibile monitorare lo sguardo del consumatore all’interno dei punti vendita mentre essi fanno la spesa,
percorrendo i diversi reparti di un negozio o supermercato. Proprio attraverso gli studi di neuromarketing, si è
evidenziato come l’architettura degli spazi, il layout, i colori e la distribuzione dei prodotti possano
condizionare l’esperienza d’acquisto.

Coinvolgimento nei contenuti multimediali


Con il neuromarketing è possibile valutare un trailer cinematografico, un intero lungometraggio o un
programma televisivo con l’obiettivo di comprendere l’andamento nel tempo del livello di coinvolgimento
dell’audience e individuare i punti di un filmato dove, ad esempio, ci sono livelli elevati di suspense o sorpresa
negli spettatori.

La possibilità di misurare gli effetti della visione filmica sul cervello degli spettatori fornisce uno strumento e
una nuova metodologia per l’analisi di generi e stili cinematografici. In tal modo è possibile esaminare e
perfezionare elementi come sceneggiatura, fotografia, montaggio, effetti visivi e sonori, casting, fino
all’ottimizzazione di trailer e campagna mediatica, con l’esplicito scopo di aiutare la distribuzione e
massimizzare il coinvolgimento dello spettatore.

In questo contesto, la 20th Century Fox è stata una delle prime aziende ad aver commissionato alcuni studi a
Innerscope (azienda di neuromarketing USA) per valutare i trailer cinematografici per alcuni film.

Coinvolgimento emotivo dei video-giochi


I video games sono particolarmente efficaci nel far leva sulla psicologia umana per motivare il
comportamento. Quando si gioca per ore e ore si entra in uno stato esperienziale “immersivo”, che non è
facile sviluppare in altri ambiti.

Le reazioni neuro-chimiche attivate durante il gioco sono principalmente due: l’adrenalina, indotta dalla sfida
stessa, e la dopamina coinvolta nell’anticipo della ricompensa per la vittoria. I progettisti di videogiochi
iniziano con la proposizione di sfide semplici e ricompense frequenti al fine di dare al giocatore un assaggio
di queste sensazioni e gradualmente rendono le sfide più difficili e le ricompense più “lontane”.

Attraverso il neuromarketing si può valutare il coinvolgimento dei giocatori, identificare le caratteristiche più
interessanti e ottimizzare i dettagli dei giochi. Queste misure aprono di fatto nuove possibilità non solo per
99
creare livelli di coinvolgimento emozionali, ma anche per verificare i rischi derivanti da un eccessivo
coinvolgimento dei giocatori.

Ad esempio, è stato dimostrato da uno studio dell’Università di Indianapolis e presentato al congresso della
Società di Radiologia di Chicago, che bastano 10 ore di videogames violenti nell’arco di una settimana perché
le aree cerebrali che tengono sotto controllo i comportamenti aggressivi riducano la loro attività. Attraverso la
risonanza magnetica funzionale, alcuni volontari con età fra 18 e 29 anni in una settimana hanno giocato per
10 ore a videogames violenti con sparatorie e, in quella successiva, se ne se ne sono astenuti completamente:
alla fine dei due cicli di videogames i volontari venivano sottoposti a vari test di stimolazione emotiva mentre
l’attività del loro cervello veniva scandagliata con risonanza magnetica funzionale. La differenza è stata netta
sia confrontando la settimana di gioco con quella di astinenza, sia facendo un confronto con soggetti di
controllo che non avevano mai giocato. Il fatto che dopo l’astinenza l’attività cerebrale tornava a essere
normale indica che esistono buone potenzialità di recupero, ma quello che ancora non si sa è cosa può
succedere al cervello con anni di sollecitazioni continue.

Efficacia comunicativa di un politico


Si possono applicare tecniche di neuromarketing per compiere studi in ambito politico, per esempio
misurando le reazioni degli elettori ai candidati durante comizi e discorsi.

L’azienda USA NeuroFocus durante le elezioni del Primo Ministro inglese nel 2010 ha effettuato e pubblicato
uno studio condotto tramite EEG sulla percezione dei candidati, mettendo in luce le diverse impressioni
evocate dai candidati su un campione di soggetti, ma anche l’ultima campagna che ha portato all’elezione di
Trump è stata sotto i riflettori della neuropolitica.

Valutazione della percezione del bello


Durante la visione di un’opera d’arte il cervello viene coinvolto nella formazione del giudizio estetico. Alla
base della disciplina della neuroestetica c’è la valutazione dell’esperienza estetica del soggetto, che gli
consente di apprezzare ciò che sta vedendo.

L’esperienza estetica inizia con l’analisi visiva dell’opera d’arte che verrà successivamente processata
secondo il contesto in cui è posta, secondo l’interesse individuale del soggetto o della sua familiarità con
l’opera. Attraverso l’applicazione delle tecniche neuroscientifiche, oggi, è possibile misurare il coinvolgimento
emotivo e cognitivo suscitato da un’opera d’arte o da una scultura, direttamente all’interno di un museo.

Usabilità di un sito internet


Un sito web ben progettato fa in modo che l’utente, una volta giunto sul sito di riferimento, sia portato non
solo a non uscire, ma anche ad approfondire la ricerca visitando le altre pagine e trovando immediatamente
ciò che sta cercando.

Attraverso l’applicazione delle tecniche del neuromarketing è possibile fornire indicazioni sull’impatto emotivo
e cognitivo provocato dall’esperienza di navigazione di un sito, sulle pagine web che hanno richiesto un
maggiore impegno cognitivo durante l’esecuzione di task specifici, oppure sulle pagine che hanno suscitato
un maggior livello di interesse.

Principali strumenti impiegati


Per lungo tempo, la migliore metodologia di visualizzazione del cervello umano non invasiva ha utilizzato la
tecnica dei raggi X, che non fornisce immagini molto buone delle strutture di tessuto molle, come il cervello,
e non fornisce informazioni in formato tridimensionale relative alle immagini.

Agli inizi del 1970, lo sviluppo di una varietà di metodi di visualizzazione che rivelavano la struttura cerebrale
con maggiore dettaglio, rivoluzionò le neuroscienze, dalla diagnostica clinica alla ricerca sui processi cognitivi
tramite l’impiego di strumenti di analisi parzialmente o totalmente “non invasivi”, che possono essere usati
durante l’attività del soggetto sperimentale da sveglio, senza bisogno di intervenire direttamente sul soggetto
stesso e di interferire con le sue attività mediante l’inserzione nella testa di particolari sensori.

100
Tali strumenti forniscono direttamente o indirettamente delle immagini dell’attività del cervello durante
l’esecuzione di un compito sperimentale e vengono definiti strumenti di brain imaging. Le immagini
dell’attività cerebrale ottenute dalle diverse tecniche di brain imaging possono avere una risoluzione
temporale e spaziale molto diverse tra loro. Infatti, a fianco delle diverse tecnologie impiegate per la
registrazione dell’attività cerebrale assumono particolare importanza i meccanismi fisiologici che tali
tecnologie di misura esplorano.

Un tipico strumento di brain imaging si presta a seguire l’attività corticale di un soggetto prima e durante un
particolare compito sperimentale. Nella maggior parte delle misure di attività cerebrale vengono comparate le
mappe di attivazione cerebrale ottenute dai soggetti durante l’esecuzione di un compito sperimentale e quelle
ottenute durante il riposo o prima dell’esecuzione del compito (attività di controllo detta baseline), così da
evidenziare le aree cerebrali ingaggiate per sostenere il compito sperimentale.

Per la registrazione della risposta istintiva è possibile impiegare molteplici strumenti, ciascuno dei quali
presenta vantaggi e/o svantaggi a seconda del tipo di studio che è possibile realizzare. Le misure delle
reazioni cerebrali sono le più articolate ma non le sole capaci di dare indicazioni riguardo ai processi istintivi
che influenzano il comportamento umano.

Gli strumenti di neuroimaging in senso lato più frequentemente utilizzati per le ricerche di neuromarketing, si
possono classificare a seconda che si voglia registrare:

• La risposta metabolica del cervello (PET, fMRI)


• La risposta elettrica del cervello (EEG, MEG)
• Attività del sistema autonomico (HR, GSR)
• Tracciamento dei movimenti oculari (EYE-TRACKER)
• Senza registrazione dell’attività del cervello (FACIAL CODING, IAT)
Grazie a tali tecnologie è possibile studiare l’attività e le funzioni cerebrali in termini di risoluzione spaziale e
temporale. Nello specifico, ciascuna strumentazione di neuroimaging può essere classificata secondo queste
due dimensioni, di spazio e tempo.

Risonanza Magnetica Funzionale (fMRI)


Come la PET, non misura direttamente l’attività elettrica cerebrale (come EEG e MEG) ma le risposte
emodinamiche (volume sanguigno, flusso cerebrale, ossigenazione dei tessuti) che accompagnano
l’aumento di attività neuronale. Permette di individuare le aree del cervello dove fluiscono maggiormente il
sangue o l’ossigeno.

Scoprirlo permette di individuare quali sono le aree del cervello cui corrisponde un’attività mentale più
intensa, in quanto tali aree necessitano di un maggior apporto di sostanze nutritive (dunque di sangue).

La sua capacità di investigare anche le strutture neurali più profonde, ha reso la fMRI la tecnica privilegiata
nella misurazione dell’attività del cervello umano. Possiede un’altissima risoluzione spaziale (in termine di
identificazione dell’area cerebrale più attiva, ca. 3mm), ma al contrario ha una bassa risoluzione temporale
(ca. 3-5 sec.), dovuta ad un ritardo fisiologico tra lo stimolo e l’incremento del flusso sanguigno cerebrale
prodotto dallo stimolo stesso. Questo significa che la fMRI permette di identificare con notevole precisione
quelle specifiche aree che presentano attivazione in risposta ad uno stimolo, tuttavia non è in grado di
tracciare istante per istante le variazioni di attività neuronale durante l’evoluzione dello stimolo nel tempo
(bassa risoluzione temporale).

Tale limite rende la fMRI inadeguata per misurare l’attività cerebrale durante la visione di spot pubblicitari, ma
al contrario la rende ideale per la valutazione del packaging e di nuovi prodotti, del brand, dell’impatto del
testimonial, per lo studio dei processi decisionali e delle preferenze politiche.

Per ultimo, la fMRI è una tecnica particolarmente costosa ed ingombrante in termini di spazi necessari.

Tomografia ad emissione di Positroni (PET)

101
Permette di “fotografare” il metabolismo delle aree cerebrali, monitorando le più attive durante lo
svolgimento di un determinato compito. Utilizza un tracciante radioattivo emittente positroni (ad es. glucosio
marcato), iniettato per via endovenosa o inalato a volontari impegnati in compiti cognitivi, percettivi o motori.

Magnetoelettroencefalografia (MEG)
Questo strumento è in grado di rilevare minime variazioni dei campi magnetici prodotti dall’attività elettrica
dei neuroni della corteccia cerebrale durante l’esecuzione di comportamenti o compiti cognitivi.

Il vantaggio della MEG risiede nella sua elevata risoluzione temporale, nell’ordine di millisecondi; tuttavia a
differenza fMRI, tale strumento non è in grado di rilevare l’attività di strutture neuronali profonde, in quanto i
segnali da esso analizzati riguardano l’attività della corteccia cerebrale.

Inoltre, la tecnologia MEG utilizza elio liquido e speciali strutture schermate per registrare i minimi segnali
magnetici del cervello, e questo la rende una tecnica molto costosa e non trasportabile.

Elettroencefalogramma (EEG)
È fra le tecniche più antiche di brain imaging ed è stata utilizzato nelle ricerche di marketing già dai primi anni
Settanta. Utilizza degli elettrodi (in superficie) aderenti allo scalpo per misurare l’attività elettrica in
corrispondenza di uno stimolo o di una risposta comportamentale.

Il segnale EEG registra i potenziali originati sullo scalpo dall’attività elettrica di vaste popolazioni di neuroni
piramidali (costituiscono circa i 3⁄4 dei neuroni corticali e sono elementi fondamentali di tipo eccitatorio del
sistema nervoso dei mammiferi) della corteccia cerebrale. Da esso è possibile ricavare i potenziali evento
correlati (event-related potential – ERP), risposte elettrofisiologiche ad uno stimolo preciso che possono
essere ricondotte a diversi processi cognitivi, quali ad esempio l’attenzione, l’interesse, la memorizzazione.

L’EEG è in grado di rilevare l’attività della corteccia cerebrale con una risoluzione spaziale di un centimetro
quadrato e la risoluzione temporale di millisecondi. Tuttavia, oggi si possono usare EEG molto sofisticati (ad
alta risoluzione) che permettono di avere una rappresentazione delle attività cerebrali come giusto
compromesso tra un eccessivo dettaglio (come quello garantito dalla PET o fMRI) e l’economicità e
portabilità dello strumento.

Grazie alla sua elevata risoluzione temporale, ai suoi costi contenuti e alla sua facile maneggevolezza, l’EEG
risulta essere la tecnica privilegiata nella misurazione dell’attività cerebrale durante l’esposizione a stimoli di
consumo.

L’EEG è una tecnica che viene frequentemente impiegata per lo studio dell’efficacia della comunicazione
pubblicitaria specialmente per l’identificazione delle scene più o meno performanti, per la valutazione della
web usability, per la valutazione dell’esperienza estetica all’interno di musei o gallerie espositive o per gli
studi sulla customer experience all’interno di negozi e supermercati.

Battito cardiaco (Heart Rate – HR)


La misura della velocità del battito cardiaco può essere connessa a diversi aspetti quali attenzione, arousal
(stato di eccitazione), sforzi cognitivi e fisici. La frequenza cardiaca è la velocità del battito cardiaco
misurato per numero di pulsazioni al minuto (beats-per-minute, bpm). La frequenza cardiaca di un essere
umano in salute e a riposo varia tra i 60 e i 100 bpm.

Normalmente, il battito cardiaco viene correlato con lo stato di concentrazione (più basso è, più è probabile
che ci sia una forma di concentrazione e di attenzione), mentre la velocità è correlata con il grado di tensione
emotiva. Con il battito cardiaco è possibile avere indicazioni sulla valenza emozionale, la quale può essere
positiva o negativa.

La risposta emotiva è particolarmente importante nell’ambito della comunicazione, poiché è fortemente


connessa con i quattro principali obiettivi che si intende raggiungere:

1. attirare l’attenzione

2. essere ricordati

102
3. intrattenere

4. persuadere

Allo stesso tempo è importante valutare l’impatto del suono e della musica, degli odori, per la valutazione
delle reazioni all’interno dei punti vendita, per la valutazione della web usability e dell’impatto emotivo delle
pagine e comunicazioni sul web e, in generale, per lo studio del comportamento del consumatore in ambienti
“naturali” in cui si è esposti a stimoli sensoriali fortemente connessi alle risposte emotive e in particolare alla
frequenza cardiaca.

Conduttanza cutanea (galvanic skin response – GSR)


È una misura dell’attività elettro- dermica, una proprietà dell’organismo di variare le caratteristiche
elettriche a livello epidermico come conseguenza del livello di sudorazione. Tramite la conduttanza cutanea
viene misurata l’attività del sistema nervoso autonomo.

Ciò è espresso tramite un indicatore della conduttanza della pelle in relazione al livello di sudorazione
prodotto dalle ghiandole sudoripare. Situate sull’intera superficie del corpo umano, in particolar modo sui
palmi delle mani e sulle piante dei piedi, queste ghiandole sono coinvolte nella sudorazione dovuta ad
un’esperienza emozionale.

Un’attività maggiore del sistema nervoso autonomo produce una maggiore sudorazione e quindi un livello più
alto di conduttanza. Ciò può essere utilizzato come indicatore dell’arousal o stato di eccitamento della
persona.

Gli strumenti che rilevano la conduttanza cutanea visualizzano il cambiamento del valore di conduttanza
elettrica tra due punti differenti in un determinato periodo di tempo. In base alle risposte muscolari ed
epiteliali la conduttanza può variare di alcuni microsiemens (dove il siemens è l'unità di misura della
conduttanza elettrica) e, un dispositivo capta questi minimi cambiamenti.

Sebbene l’attività elettrodermica possa essere acquisita separatamente per conoscere lo stato di eccitazione
di un soggetto durante l’esposizione di particolari stimoli (si pensi ad immagini/video con un forte contenuto
emotivo), spesso è una misura che viene ottenuta e successivamente valutata insieme all’heart rate. Dalla
combinazione di questi due segnali, infatti, si ottiene la variabile di emozione.

Gli ambiti in cui è possibile impiegare tale misura sono analoghi a quelli dell’heart rate.

Eye-Tracker
È uno strumento tecnologico molto avanzato in grado di misurare il comportamento visivo e restituire una
serie di informazioni circa il movimento degli occhi nello spazio (se l’eye-tracker è mobile) o su un’immagine o
su un filmato (se l’eye-tracker è fisso).

La misurazione del movimento oculare attraverso un eye-tracker permette di analizzare le fasi di


esplorazione, i tempi di fissazione, il percorso di visione, la dilatazione pupillare strettamente connessa a una
attivazione fisiologica e il blink oculare, ovvero la chiusura delle palpebre, anch’essa connessa a uno stato di
attivazione e di attenzione.

Questo dispositivo si avvale di un sistema a infrarossi. I raggi infrarossi vengono riflessi dal cristallino
dell’occhio e quindi registrati da un sensore fino alla velocità di 500 Hz. Il principio alla base della ricerca eye-
tracking è la cosiddetta ipotesi mente-occhio, secondo la quale ciò che una persona sta osservando riflette
anche ciò cui sta pensando o a cui è interessato. Proprio per questa ragione tale metodologia assume molta
utilità per testare in modo oggettivo e indiretto la quasi totalità degli stimoli visivi.

Nel marketing l’attenzione visiva è infatti correlata con la brand memory, con la percezione del brand e con gli
atteggiamenti e il decision making.

L’eye tracker fornisce una quantità significativa di dati classificabili in due macro categorie:

- quelli qualitativi, ovvero basati sulla visualizzazione grafica del comportamento visivo di uno o più
utenti (ad esempio le heat map, mappe di calore che si colorano in maniera differente a seconda della
durata e della numerosità delle fissazioni oppure gli scanpath, ovvero i percorsi di esplorazione visiva)

103
- quelli quantitativi, ovvero basati sull’analisi quantitativa di dati numerici (come ad esempio il numero o
la durata delle fissazioni)

Per gli studi di marketing, l’eye-tracker è largamente impiegato per i test di siti web e per le problematiche di
user-interface, per gli studi sul packaging (visibilità del brand e del nome e caratteristiche del prodotto), per i
materiali pubblicitari, per il product placement all’interno dei programmi televisivi, film e video games, e infine,
per le reazioni dei soggetti all’interno di negozi o spazi espositivi.

Espressioni facciali (Facial Coding)


Si misura il movimento del volto i cui muscoli si muovono in relazione alla tipologia di emozione provata. Si
misurano le espressioni del volto mediante l’impiego di una telecamera e di software specifici (ad es. Noldus)
oppure con la misura delle micro-espressioni facciali secondo il modello Facial Coding Action Coding System
– FACS di Paul Ekman (Ekman & Friesen, 1978), avvalendosi delle competenze di un esperto (codificatore
certificato FACS).

La potenzialità derivata dall’analisi delle micro-espressioni risiede nel fatto che sono difficili da controllare
volontariamente e per questo permettono di avere risultati veritieri sull’emozione provata dal soggetto. È uno
strumento usato per i test di comunicazione pubblicitaria o per la valutazione di movie trailers.

Test delle associazioni implicite (IAT)


Si tratta di un test in grado di misurare la forza dei legami associativi tra concetti rappresentati in
memoria. È un processo di comparazione tra stimoli che, in termini di velocità di risposta, ne valuta la forza
dell’associazione. Tempi di latenza più brevi nel riconoscimento o nell’associazione di aggettivi positivi o
negativi a uno stimolo indicano un atteggiamento più radicale verso quello stimolo.

I tempi di risposta si possono usare per diversi obiettivi. Di fronte a una scelta di due prodotti permette di
misurare l’eventuale conflitto decisionale più veloce è la scelta, più determinata e convinta sarà la
decisione.

Le applicazioni iniziali di questo strumento hanno riguardato soprattutto l’indagine del pregiudizio e in
generale l’ambito della psicologia sociale, ma col tempo esso è stato applicato anche all’interno della
psicologia clinica, per lo studio delle fobie, degli atteggiamenti verso il cibo.

Si usa anche per misurare la brand awareness, o per valutare il grado di positività o negatività che viene
associato a un prodotto, immagine o brand.

Lo IAT viene somministrato attraverso il computer. Consiste in una serie di prove di categorizzazione: in
ciascuna di queste prove, sul monitor compare uno stimolo e al partecipante viene chiesto di classificarlo, il
più velocemente ed accuratamente possibile. Gli stimoli sono generalmente parole o immagini e
appartengono a quattro diverse categorie: due di queste categorie rappresentano dei concetti (es. persone
bianche e nere, oppure donne e uomini, o se volessimo fare riferimento a brand, ad es. Apple e Samsung),
mentre le altre due rappresentano due attributi opposti bipolari (es. positivo e negativo, estroverso e
introverso oppure moderno o obsoleto). Ogni volta che uno stimolo appare sul monitor, il rispondente lo deve
ricondurre alla categoria di riferimento.

Un aspetto fondamentale dello IAT consiste nel fatto che il partecipante ha a disposizione due soli tasti di
risposta e perciò a ciascuno dei tasti sono associate due categorie di risposta. Questa maggiore o minore
facilità si manifesterà nella velocità e nell’accuratezza della prestazione ed è indice di una tendenza o un
atteggiamento (per esempio, tanto maggiore è la facilità con cui le persone bianche associano le foto di
persone nere a concetti negativi, tanto maggiore è il grado di discriminazione che esse tendono ad avere nei
confronti dei neri). Anche se la differenza di velocità di risposta è di poche centinaia di millisecondi è un dato
molto efficace per la valutazione delle preferenze.

Nel marketing la tecnica dello IAT viene usata per valutare la scelta e l’efficacia del testimonial (tramite la
scelta della migliore opzione), per il posizionamento del brand, per la valutazione dell’impatto delle
caratteristiche di un prodotto o servizio.

104
Principali “neuro” indicatori
Le variabili che possono fornire un contributo significativo per le ricerche di marketing sono principalmente le
variabili di memorizzazione, attenzione, interesse, impegno cognitivo, emozione e le fissazioni oculari.

In generale, le variabili di memorizzazione, attenzione, interesse ed impegno cognitivo vengono ottenute


tramite misurazione dell’attività cerebrale, con le tecniche EEG, MEG, PET o fMRI. La variabile di emozione si
ottiene dalla combinazione dei segnali di HR e GSR, mentre le fissazioni dall’impiego dell’eye-tracker.

Generalità sulla memorizzazione


Memorizzazione è una parola che può essere interpretata in tanti modi. In senso generale, la memoria si
riferisce ai meccanismi attraverso i quali le esperienze passate influenzano il comportamento recente. I
ricercatori che indagano la memoria operano una distinzione tra magazzini di memoria, che trattengono
l’informazione per periodi diversi, e processi di memoria, che operano su questa informazione
immagazzinata. Si possono definire diverse memorie: a breve, medio e lungo termine (per la vita).

In particolare:

• La memoria a breve termine rappresenta un processo di memorizzazione volatile, che rimane attivo
per pochi secondi. Normalmente trattiene pochi spezzoni di informazione per parecchie decine di
secondi. Per esempio, ricordare un numero telefonico ripetendolo sino a che non si trovi una matita
per scriverlo. Il ripasso può mantenere l’informazione nella memoria a breve termine tanto a lungo
quanto è necessario

• La memoria a medio termine arriva oltre le 2 ore e può rimanere per giorni. È una sorta di archivio
temporaneo e limitato di informazioni

• La memoria a lungo termine rimane per mesi, anni, lustri.

Nel contesto di analisi del neuromarketing si studia soprattutto una variabile che correla con il trasferimento
delle informazioni nella memoria a medio termine dell’individuo.

Ad esempio, un soggetto può trasferire nella memoria a breve termine le informazioni di una nuova pubblicità
che è stata trasmessa in televisione, oppure le informazioni di un nuovo prodotto che ha visto al
supermercato, o di una pubblicità relativa ad un evento particolarmente interessante. Questo trasferimento
può essere successivamente consolidato e trasferito in un “deposito” di memoria a lungo termine, ma questo
processo avviene al di fuori della capacità di registrazione e, dipenderà dalle attività quotidiane della persona
dopo la stimolazione in test, dall’attenzione dedicata, dalle emozioni suscitate, dalla capacità persuasiva della
comunicazione e dalla frequenza di esposizione al messaggio.

Quindi con le registrazioni EEG si analizza la capacità delle persone di trasferire quello che vedono nella
memoria a medio termine. È importante sottolineare che la capacità di memorizzazione non significa
necessariamente comprensione (possiamo anche memorizzare una formula di cui non capiamo
necessariamente il contenuto).

Generalità sull’attenzione
Attenzione è una parola che fa riferimento alla focalizzazione delle “risorse di elaborazione” mentali su un
particolare stimolo fisico, compito, sensazione o altro contenuto mentale.

In media ogni giorno un individuo è esposto a circa 2000 messaggi commerciali di varia natura. Tuttavia, gli
esseri umaninon hanno né le energie né l’organizzazione cerebrale per percepire consapevolmente tutte le
informazioni ed è per questo motivo che molte delle informazioni alle quali siamo sottoposti vengono
disperse. Gli accorgimenti visivi come la grafica, la forma, la dimensione, la texture, i colori o ancora le
caratteristiche del punto di vendita, sono pertanto elementi necessari per orientare e modificare la scelta
finale del consumatore.

L’attenzione può essere volontaria, ossia deliberatamente finalizzata, o involontaria ossia catturata da
qualcuno o qualcosa. In questo processo di selezione intervengono due meccanismi:

105
• Attenzione selettiva bottom-up che viene stimolata dal basso e dall’ambiente. Le proprietà salienti
dello stimolo, ovvero il colore, la forma, il movimento, il contrasto, la luminosità, possono
automaticamente guidare l’attenzione ed essere utilizzati nel marketing per spingere i consumatori a
guardare una particolare area o immagine. Ha una forte capacità di attrazione e se ben progettata e
programmata si basa su tre diverse caratteristiche: è automatica, avviene cioè senza consapevolezza;
è veloce, rapida e immediata; è involontaria

• Attenzione selettiva top-down che è direzionata dalle aspettative e dalle conoscenze. La selezione di
determinati elementi avviene in funzione dell’obiettivo che si sta perseguendo. Non si parla più di
salienza, ma di rilevanza. Tale processo contribuisce a rendere più facilmente rilevabili alcuni stimoli e
non altri. Ha tre caratteristiche principali: è controllata, avviene cioè con consapevolezza e secondo le
aspettative; è lenta, perché richiede energia e attenzione; è volontaria perché richiede una certa
focalizzazione

Queste due modalità dell’attenzione sono mediate da due sistemi cerebrali diversi: per quella bottom-up
l’area della corteccia visiva primaria viene attivata dal talamo, dove giungono le principali stimolazioni
direttamente dagli occhi tramite il nervo ottico; per quella top-down l’attivazione dell’area visiva primaria
avviene attraverso la corteccia prefrontale e la corteccia parietale.

Nel caso specifico dei test di neuromarketing, ad esempio durante la visione di uno spot/filmato, l’attenzione
che si misura è quella che mantiene la persona relativamente focalizzata sul filmato che scorre. Infatti, nella
condizione del test di fronte alla TV, si fa in modo che il soggetto tester riceva quella sola stimolazione. Nel
caso in cui la persona venisse disturbata da un evento esterno allora si avrebbe l’”accensione” dell’altro
sistema di spostamento dell’attenzione, per fare una focalizzazione sull’evento esterno. Quindi, si segue e si
valuta, in generale, la capacità della persona di essere focalizzata sullo spot, senza particolari distrazioni.

Da notare che in questo caso un calo di attenzione non significa che non ci possa essere memorizzazione. Ci
si può ricordare ad esempio di aver bevuto una bottiglia di Coca Cola in un bar anche se è stata prestata
pochissima attenzione alla bottiglia, in quanto si riconosce immediatamente la forma della stessa e non si
deve dedicare molta attenzione all’esplorazione di tale oggetto/percetto sensoriale.

Generalità sull’interesse
Nel nostro cervello ci sono due sistemi cerebrali che guidano il nostro comportamento rispetto agli oggetti e
alle situazioni che ci circondano. Questi due sistemi sono entrambi localizzati nella nostra fronte (aree
prefrontali) e sono responsabili di comportamenti molto diversi fra loro.

▪ Il primo sistema si chiama Behavioral Approach System (BAS) e ci spinge ad avvicinarci verso
stimoli che reputiamo di interesse per noi. Questa tendenza all’approccio verso stimoli positivi è quella
che ci fa muovere verso un posto in cui si suona una musica che ci piace, oppure ci fa avvicinare a
prendere un oggetto che ci attrae da una vetrina

▪ Il secondo sistema si chiama Behavioral Inhibition System (BIS) e ci fa allontanare “cerebralmente”


e successivamente anche fisicamente dalle situazioni percepite come pericolose, spiacevoli o
semplicemente non interessanti per noi. Questa tendenza ci spinge al “ritiro” da situazioni percepite
come poco “utili” e che ci causano dispiacere o apprensione

Lo sbilanciamento tra misura di attivazione del sistema BAS e quella del sistema BIS è una sorta di
attribuzione istintiva immediata dello stimolo percepito in termini di “attribuzione di valore” e può essere
chiamata variabile di “Interesse” che assume valori negativi se prevale la reazione BIS e valori positivi se
prevale la reazione BAS.

Valori di interesse positivi li troviamo quando osserviamo una pubblicità che promuove un prodotto o un
servizio che ci interessa, che riteniamo appetibile, piacevole, mentre, al contrario, valori negativi li troviamo
quando osserviamo immagini “forti” che suscitano una risposta di fuga/evitamento (si pensi alle immagini di
comunicazione sociale che mostrano le conseguenze di un incidente d’auto, oppure bambini malnutriti o le
conseguenze negative sulle persone in seguito all’abuso di alcol o droga).

Generalità sull’impegno cognitivo


106
È una variabile che misura il grado di sforzo cerebrale nella decodifica di informazioni o nell’esecuzione di
qualche compito specifico. Tale indicatore più è alto, più indica una richiesta maggiore di risorse cognitive per
l’esecuzione di un compito o per la percezione di uno stimolo.

È una variabile di fondamentale importanza quando si svolgono compiti importanti in ambienti operativi di
alta responsabilità, basti pensare a chi deve svolgere per ore lavori cognitivi importanti che richiedono
l’impiego di notevoli risorse cognitive (piloti, chirurghi, ricercatori), ma anche nel marketing è molto utile
quando si vuole investigare la reazione dei soggetti durante la navigazione di siti internet dove è molto
importante riuscire a comprendere lo sforzo dell’utente durante l’esecuzione di task specifici o anche in studi
che valutano l’impatto ergonomico di un prodotto o di una confezione.

Generalità sull’emozione
La risposta del consumatore agli stimoli di marketing non è mai solo cognitiva e razionale. In buona parte,
infatti, i comportamenti che conseguono agli stimoli hanno natura emotiva e richiamano diversi tipi di
sentimenti.

Emozioni e sentimenti presentano delle differenze:

Negli ultimi anni si è sentito spesso parlare di marketing emozionale, esperienziale, relazionale. Una marca o
un prodotto può fare in modo che un consumatore si senta orgoglioso, eccitato o fiducioso. Una pubblicità
può creare sensazioni di divertimento, paura, disgusto o meraviglia. E le decisioni e le scelte, così come le
motivazioni, hanno sempre una forte componente emotiva. Lo studio delle emozioni e la comprensione del
loro funzionamento è determinante per comprenderne il valore nei processi persuasivi e di comunicazione.

Sebbene non esista una definizione univoca di emozione (Cornelius, 2000), una delle possibili definizioni che
è possibile dare è che l’emozione consiste in una serie di modificazioni che avvengono nel nostro corpo sia a
livello fisiologico, alterazioni respiratorie e cardiache, sia di pensieri, ad esempio: “...che paura...” o “che
meraviglia...”, sia di reazioni comportamentali, come il fuggire o gridare, sia di alterazioni della mimica facciale,
che il soggetto utilizza in risposta ad un evento.

L’emozione, quindi, può essere definita come una reazione intensa, improvvisa, di breve durata, in grado di
incidere sul consumatore a tre livelli differenti:

1. fisiologico (respirazione, pressione arteriosa, battito cardiaco ecc.)

2. comportamentale (modifica delle espressioni facciali, della postura, del tono della voce ecc.)

3. psicologico (ciò che sentiamo e proviamo personalmente e che è in grado di modificare il controllo di
se stessi)

Ulteriore caratteristica dell'emozione è il suo stretto rapporto con l'azione. L'emozione (dal latino ex-motus
significa proprio “mosso da”) muove l'organismo all'azione adattandolo all'ambiente esterno. L’emozione
pertanto indica un «mettere in movimento» gli organi del nostro corpo, realizzando una risposta somatica ad

107
una stimolazione del mondo esterno. L'emozione guida e orienta il comportamento e la condotta. Le
emozioni ''muovono'' anche la vita cognitiva. Precedono la percezione, il pensiero, l'immaginazione,
risvegliano la memoria. Le emozioni sono dei mediatori fra la nostra coscienza ed il mondo esterno e pertanto
consistono in processi di attribuzione di valore della realtà.

L’evento che scatena l’emozione genera delle risposte neurofisiologiche (nel cervello il circuito talamo-
corteccia-amigdala) e neurovegetative (conduttanza della pelle, velocità cardiaca, regolarità della
respirazione, tensione muscolare...). Nella maggior parte delle occasioni queste risposte avvengono in modo
tenue e impercettibile nella persona.

Lo studio delle emozioni in ambito psicologico si colloca in una tradizione consolidata che risale a William
James e Carl Lange che nel 1885, i quali fornirono due teorie molto simili tra loro, definibili come teorie
viscerali o periferiche delle emozioni, nelle quali l’emozione veniva vista come il risultato di una pregressa
modificazione di parametri fisiologici. Secondo loro la percezione di eventi esterni era in grado di determinare
delle modificazioni corporee periferiche, che venivano poi elaborate a livello cognitivo ed etichettate come
emozione o sentimento emozionale.

Per quanto entrambi concordassero sul fatto che l’emozione è la sensazione di modificazioni fisiologiche,
James e Lange evidenziarono meccanismi fisiologici differenti:

- Per James, le basi fisiologiche delle sensazioni erano le viscere (lo stomaco e il cuore, ad esempio), le
espressioni del volto, l’attività motoria e la tensione muscolare

- Per Lange erano le modificazioni del battito cardiaco e la pressione sanguigna (modifiche
cardiovascolari)

Da allora, le teorie avanzate furono molteplici, alcune a favore altre contro i due studiosi. Nel 1927, ad
esempio, Cannon elaborò una nuova ipotesi circa l’origine delle emozioni: secondo l’autore era il talamo a
svolgere il ruolo primario dell’esperienza emotiva (Teoria centrale di Cannon e Bard).

Alla fine degli anni Novanta, grazie anche all’impiego delle nuove tecniche come la fMRI che hanno
consentito di conoscere meglio il funzionamento del nostro cervello comprendendo i meccanismi neurali delle
emozioni, il neurobiologo Joseph Le Doux con i suoi studi fondamentali sull’emozione della paura, fornì una
nuova visione delle risposte emotive a determinate situazioni. Egli ritenne che la parte del sistema nervoso
centrale che è maggiormente implicata nell’innescarsi di uno stato emotivo è l’amigdala. Essa è situata
anatomicamente sopra il tronco dell’encefalo ed entra in azione quando il sentimento impulsivo travolge la
competenza relazionale. Funziona come un archivio della memoria emozionale ed è quindi depositaria del
significato stesso degli eventi.

Damasio attraverso i suoi studi più recenti sembra completamente rivoluzionare la tradizione culturale
classica relativa allo studio delle emozioni sostenendo che queste anziché perturbare la serenità del
raziocinio individuale, rappresentino la base per il corretto funzionamento della mente stessa. Se l’uomo non
provasse emozioni non sarebbe un individuo ragionevole, il cuore e il cervello rappresentano un organismo
unico e indissolubile. Ragione ed emozioni, dunque, viaggiano di pari passo, si aiutano reciprocamente come
ingranaggi perfetti della stessa macchina.

Le emozioni sono prodotte in automatico dal cervello, che elabora lo stimolo e seleziona un programma
preesistente: l’esperienza emozionale. Esistono repertori d’azione specifici tramandati geneticamente che si
attivano in risposta a determinati stimoli. Damasio parla di “marcatori somatici”, veri e propri cambiamenti
fisiologici in grado di connettere l’emozione provata con l’esperienza o lo stimolo che l’ha provocata. In altre
parole, i marcatori somatici sono meccanismi fisiologici scatenati da un’emozione che “illuminano” le nostre
decisioni “razionali”. È da questo assunto che Damasio propone il modello Feel-Act-Think in cui i processi
emozionali precedono quelli razionali.

Per quanto riguarda invece la classificazione delle emozioni è possibile distinguerle in:

- emozioni primarie o innate sono emozioni innate e sono riscontrabili in qualsiasi popolazione, per
questo sono definite primarie, ovvero universali

- emozioni secondarie sono quelle che originano dalla combinazione delle emozioni primarie e si
sviluppano con la crescita dell’individuo e con l’interazione sociale

108
Costantemente proviamo tante emozioni, una vasta gamma che varia da
quelle positive a quelle negative. Il numero delle emozioni primarie cambia
in relazione alla teoria o all’approccio utilizzato per descriverle.

Ad esempio secondo la definizione fornita da Robert Plutchik le emozioni


primarie sono otto, raggruppate a coppie, secondo quattro dimensioni
definite da antitetiche polarità come: gioia/tristezza, paura/rabbia, sopresa/
anticipazione, accettazione/disgusto. Mentre le emozioni secondarie sono
ad esempio, l’amore, la sottomissione, la delusione, la vergogna, il rimorso
ecc. e deriverebbero dalla combinazione di quelle primarie.

Uno dei modelli più accettati, fondato proprio sulla misurazione delle
espressioni facciali e che ha dato vita agli studi per lo sviluppo di strumenti
di neuromarketing come il FaceReader, è quello di Ekman, che propone sei
emozioni di base: rabbia, disgusto, paura, gioia, tristezza e sorpresa. Tali
emozioni sono universali, cioè non legate a specifiche culture. Dagli studi condotti da Ekman, è nato un
modello di individuazione e classificazione delle emozioni definito F.A.C.S. (Facial Action Code System)
sulla base del quale è possibile analizzare i movimenti del volto e le microespressioni, come strumento
importante per individuare la valenza emotiva.

Sempre per la classificazione delle emozioni, un modello interessante è il


modello bipolare delle emozioni di Russel e Barrett, che prevede la
possibilità di distinguere le emozioni sulla base di due assi: attivazione-
disattivazione (arousal) e piacere-dispiacere (valence).

Questo schema di categorizzazione, particolarmente usato per gli studi di


neuromarketing, descrive le emozioni in termini di due distinte
dimensioni:

a.Una dimensione, chiamata valenza, descrive un continuum dagli stati


emozionali più negativi a quelli più positivi. Per esempio, la collera è
un’emozione negativa, mentre la felicità è un’emozione positiva

b.La seconda dimensione, chiamata arousal, o attivazione fisiologica,


descrive un continuum dalla calma estrema all’eccitazione estrema. La
collera, per esempio, implica maggiore eccitazione della tristezza, anche se entrambe queste
emozioni sono di valenza negativa.

Con la rilevazione dell’attività cardiaca (HR) e della conduttanza cutanea (GSR) abbiamo misure di questa
attività. Nello specifico con la rilevazione dell’attività cardiaca misuriamo la valenza, mentre con la
conduttanza cutanea, l’arousal.

Perchè le emozioni governano il nostro agire e la nostra empatia verso gli altri?
Le nostre decisioni sono prese non dalla parte razionale del cervello, ma da quella parte del cervello che
gestisce le emozioni. Decidiamo basandoci sull’istinto, su quello che sentiamo a «pelle» e solo
successivamente la parte razionale del cervello formalizza la nostra decisione in parole e concetti.

Tra i pionieri che hanno applicato o contribuito ad applicare le scoperte delle neuroscienze alla generosità e ai
meccanismi che presiedono alla decisione di donare, possiamo citare almeno 3 studiosi o gruppi di
scienziati:

1. Neuroni specchio

2. Ossitocina

3. Sistema mesolimbico

Lo schema classico di una campagna di comunicazione sociale (raccolta fondi) dovrebbe contenere e
chiaramente mostrare:

• il bisogno o problema (e questo dovrebbe contenere molti aspetti emozionali, come la tristezza, la
rabbia, la paura, la sorpresa)

109
• la risposta o la soluzione (questa parte dovrebbe invece trasmettere emozioni positive connesse con
la felicità, il sentirsi bene, tramite l’illustrazione della cura o della risposta possibile)

• la richiesta di una donazione per sostenere la soluzione presentata alleviare/salvare/curare/migliorare/


risolvere il problema

Sono le storie e il loro contenuto emozionale che attivano la predisposizione alla donazione, non i messaggi
creativi o il logo ➔ Mentre raccontiamo una storia, chi ci ascolta è letteralmente nella nostra mente

Una storia dovrebbe avere un inizio che esemplifica la drammaticità della situazione/problema, una parte
centrale che racconta delle difficoltà a risolvere il problema e una soluzione finale con una call to action, che
invita gli ascoltatori a donare e sostenere la nostra causa.

Nel mondo della pubblicità e dell’advertising no profit è stato provato che l’uso di emozioni negative genera
maggiore attenzione e coinvolgimento negli ascoltatori rispetto a quelle positive.

In generale, il nostro cervello è programmato evolutivamente per rispondere maggiormente a stimoli ed


emozioni negative (tristezza, paura, rabbia) rispetto a quelle positive.

Sicuramente un giusto uso di immagini e storie che hanno la capacità di attivare emozioni negative
garantiscono un elevato livello di attenzione e partecipazione degli ascoltatori.

Inoltre, donare è un’opportunità di felicità e la possibilità di donare e contribuire a una causa e ad


un’organizzazione può attivare emozioni positive che contribuiscono a far sentire il donatore felice e
soddisfatto.

Secondo Derek Humpries, uno dei maggiori esperti di comunicazione televisiva nel mondo del non profit:

- Occorre programmare e attuare campagne e strategie che illuminano le menti, scaldino i cuori e
portino ad una azione concreta («aprono i portafogli»)

- Le emozioni convincono a donare e donando si attivano meccanismi di ricompensa, che ci fanno


sentire meglio

- O riusciamo ad emozionare qualcuno – facendo arrabbiare, piangere o sorridere per le nostre cause –
o difficilmente riusciremo a stimolare un loro atto come firmare una petizione, cliccare su una pagina
fb o donare

Generalità sulla direzione dello sguardo e sulle percentuali di fissazioni su un’area visiva
La retina costituisce il primo stadio di elaborazione delle informazioni visive. La visione nitida di un oggetto di
interesse (target) è possibile solo se la sua immagine cade sulla zona centrale della retina (fovea), dove si ha
la maggior risoluzione spaziale. I movimenti oculari hanno quindi la funzione di orientare lo sguardo affinché
l’immagine del target cada sulla fovea e vi resti stabile.

Durante l’esplorazione di una scena visiva il movimento degli occhi è costituito dall’alternarsi di saccadi e
fissazioni. Nella letteratura scientifica questo tipico movimento esplorativo dello sguardo viene chiamato
scanpath. Le saccadi, movimenti rapidi, sono eseguite sia volontariamente che inconsciamente dal soggetto
e riflettono la sua strategia esplorativa. Le fissazioni rappresentano l’intervallo di tempo durante il quale il
sistema nervoso centrale acquisisce ed elabora le informazioni visive.

Dal movimento degli occhi di una persona che esplora una scena visiva è possibile sapere:

• Dove sta guardando

• Cosa sta guardando

• Per quanto tempo sta guardando

Le fissazioni, normalmente in percentuale, sono definite come una stabilizzazione dello sguardo (eyegaze)
all’interno di una certa area dello spazio visivo per un tempo minimo di 200ms. Se ci capitasse di essere
soggetto sperimentale con un sistema di eye-tracking, ad esempio di fronte a un quadro e ci venisse poi
mostrato il nostro scanpath, capiremmo come questo processo sia assolutamente inconscio.

La selezione delle aree è influenzata tanto dallo stimolo quanto dal background culturale ed esperienziale
personale dell’individuo. In ambito marketing, rilevare quali aree di un’immagine vengono più o meno fissate

110
consente di valorizzare al meglio i particolari della comunicazione, ma anche di comprendere qual è il
processo di selezione delle informazioni da parte di un campione target.

Il contributo delle neuroscienze al Marketing e alla comunicazione

Valutazione dell’efficacia della comunicazione pubblicitaria


L’evoluzione della società ha permesso l’accesso alla comunicazione pubblicitaria a un elevato numero di
inserzionisti, con il risultato che oggigiorno siamo circondati da migliaia e migliaia di messaggi pubblicitari e
le aziende per riuscire a conquistare l’attenzione dell’audience ricorrono alle più svariate tecniche ed
escamotage creativi.

Negli USA, si stima che la media delle proposte pubblicitarie che un consumatore incontra possa arrivare a
2.000 al giorno. Nel nostro Paese non ci sono studi così precisi, ma si pensa siano più di mille. Ogni giorno
siamo tutti “bombardati” da centinaia di messaggi inviati dal marketing e dai pubblicitari sotto forma di spot
televisivi, cartelloni, affissioni, banner in internet, vetrine di negozi, marchi. Informazioni sulle marche ci
arrivano costantemente, da tutte le direzioni con un’elevata frequenza.

Il consumatore oggi è un esperto nell’uso delle tecniche di selezione per filtrare i messaggi che riceve. Ogni
secondo, siamo esposti a circa un miliardo di bit di informazioni (adv, pd, brand) che ci raggiungono
attraverso tutti i nostri sensi, ma gli esseri umani sono in grado di elaborare solo circa 10-100 bit di tali
informazioni, lasciando passare inosservata la maggior parte dell'input.

Tra le centinaia di messaggi e stimoli è fondamentale capire quali sono le caratteristiche che ci portano a
memorizzarne/selezionarne alcuni e a dimenticarne/scegliamo altri. La quantità totale della "memoria interna"
del nostro cervello è di circa 10 Gigabyte. I processi di attenzione ed emozione sono molto importanti per
selezionare i principali stimoli importanti.

La consumer neuroscience affronta i problemi conoscitivi del marketing con metodi e conoscenze della brain
research. Attraverso l’applicazione delle tecniche neuroscientifiche è possibile:

• Valutare l’efficacia di una comunicazione pubblicitaria in termini di attenzione, interesse,


memorizzazione, impegno cognitivo ed emozione

• Valutare il differente impatto emotivo e cognitivo nella percezione della comunicazione pubblicitaria
per diversi sottogruppi: user e non user, uomini e donne, giovani e adulti, aree geografiche differenti
(es. nord, centro, sud)

• Ottenere indicazioni per le riduzioni di secondaggio dello spot: da una versione da 30’’ a una da 20’’
o da 15’’, individuando le parti più performanti o gli elementi che generano confusione e/o avversione

• Analisi dell’impatto dell’esposizione ripetuta, per stimare l’opportunity to see (OTS) e i GRPs (gross
rating point) ottimali

• Scoprire la distribuzione degli sguardi sul video o sulle immagini e il peso diverso di aree chiave
della comunicazione

Generalmente, una ricerca di neuromarketing viene eseguita su un campione che varia tra i 18 e i 36
partecipanti in target, secondo le specifiche del cliente.

Per testare una comunicazione pubblicitaria o un test di advertising su stampa, vengono reclutati i soggetti,
normalmente da parte di un istituto di ricerca specializzato (in base ad un questionario di screening inviato
anticipatamente), in una normale sala di registrazione, uguale a quelle impiegate per i focus group, per
partecipare ad una ricerca di marketing. I soggetti vengono informati preventivamente sull’uso di sensori per
la misura della risposta fisiologica e dell’eye-tracker per il tracciamento oculare. Dopo aver firmato un
consenso informato, ad ogni soggetto viene chiesto di guardare un video contenente alcuni spot pubblicitari.
Ovviamente non viene comunicato lo stimolo in test, proprio per evitare di alterarne la percezione. Al termine
della registrazione dei segnali biometrici, il soggetto viene invitato a partecipare ad una breve intervista
qualitativa, per raccogliere non solo elementi di ricordo spontaneo/sollecitato e di gradimento dichiarato, ma
anche di approfondimento su aspetti particolari richiesti dall’azienda cliente.

111
Definizione del packaging e dell’interazione con il prodotto
Per molti anni, il confezionamento di cibi e bevande di uso quotidiano è stato inteso in termini puramente
utilitaristici, come strumento di protezione e conservazione del prodotto o di definizione della porzione da
vendere.

Tuttavia, quando i consumatori acquistano tali prodotti, spesso basano le loro decisioni d’acquisto
sull’apparenza visiva, cioè sulla confezione. Quando si acquistano prodotti nuovi, ad esempio, la mancanza
di informazioni sulla loro qualità o sul loro gusto induce i consumatori a fare grande affidamento al loro
packaging; altre volte, invece, potrebbe essere “l’edizione speciale di uno specifico prodotto ad attirare
l’attenzione del consumatore per il suo piacevole design”. In circostanze come queste, il confezionamento
del prodotto funge da driver del processo di decision-making del consumatore, permettendogli di sviluppare
inferenze sugli attributi del prodotto e aspettative sul probabile gusto, fino ad influenzarne le successive
esperienze di interazione, come l’uso e la chiusura della confezione per conservare la freschezza del
prodotto.

Nei luoghi d’acquisto, il packaging quindi è il principale protagonista. Del resto, se si pensa che, in un
supermercato, si è esposti a centinaia di prodotti al minuto e si impiegano approssimativamente cinque
secondi per scegliere quale prodotto acquistare, il packaging è la prima, più accessibile e rapida fonte di
informazione, lo strumento che comunica la qualità del prodotto, che ne incrementa la consapevolezza e il
riconoscimento del brand. In altre parole, è il “commesso silenzioso” determinante degli acquisti, ma è anche
parte integrante del prodotto in quanto è spesso lo strumento che ne permette l’uso. Quindi, un “buon
packaging” deve possedere sia caratteristiche estetiche che funzionali nel suo design, con l’obiettivo di
direzionare le scelte d’acquisto e la fidelizzazione dei consumatori.

Ogni singolo elemento di una confezione, dal colore alla forma, dai grafemi al carattere delle scritte
sull’etichetta, dalle sensazioni tattili che si percepiscono quando la si maneggia, ai suoni che emette quando
il consumatore vi interagisce, trasmette un particolare messaggio sugli attributi del prodotto in essa
contenuto.

Forme astratte e colorate sembrano essere presenti ovunque sulle confezioni dei prodotti alimentari, dalla
stella rossa dell’Heineken a quella dell’acqua San Pellegrino, fino al punto che è stato osservato che i
consumatori sono infastiditi quando quel simbolo astratto viene rimosso dalle etichette. Numerosi studi
hanno dimostrato la tendenza dei consumatori ad associare certe forme e colori a certi stati affettivi e
cognitivi, suggerendo ai marketer, ad esempio la possibilità di agire sulla curvilinearità della confezione per
indurre una specifica emozione associata al prodotto: si è osservata, infatti, una generale tendenza a preferire
le forme tondeggianti a quelle spigolose e spezzate.

Per quanto riguarda il colore, questa è un’altra caratteristica del packaging che guida i consumatori nello
sviluppo di inferenze sugli attributi del prodotto contenuto, fino ad influire sulle intenzioni d’acquisto. In
generale:

- il rosso è il colore per le confezioni con una maggiore probabilità di acquisto, ad eccezione per i
dentifrici, dove la confezione rossa ha minore probabilità d’acquisto

- il nero è tipicamente associato a prodotti di alta qualità e di lusso

- il verde rappresenta prodotti ecologici e salutari

Il colore agisce quindi come potente indizio di differenziazione, come strumento per catturare l’attenzione e
per evocare determinati stati emotivi nel consumatore. Infatti, i colori ad alta lunghezza d’onda come il rosso,
l’arancione e il giallo, sollecitano stati emotivi più eccitanti con una maggiore attenzione rispetto ai colori a
bassa lunghezza d’onda come il blu e il verde (più rilassanti ma anche meno “attraenti”).

In un esperimento, Hine ha aggiunto una piccola percentuale di colore giallo (15%) alle lattine verdi della
bevanda 7-Up, senza alternarne minimamente il gusto: i partecipanti hanno affermato di percepire il sapore
della bevanda come più “limonoso”.
Oppure si pensi alle confezioni dei prodotti/cibi più salutari, a cui spesso si associano font leggeri. Aziende
come McDonalds e Coca Cola hanno sostituito il loro tipico colore rosso con il verde, rappresentante di
un’immagine più naturale e salutare. Molte ricerche dimostrano che mentre i colori caldi come il giallo e rosso

112
provocano associazioni di eccitamento (alto arousal), i colori freddi, quali il verde o blu connotano calma e
rilassamento (basso arousal) e possono essere più prontamente percepiti come naturali e salutari.

Un altro studio celebre di neuromarketing sul packaging è quello che è stato condotto dal più grande
produttore di zuppe pronte al mondo, Campbell Soup
Company. Nel 2009, Campell ha concentrato i suoi sforzi per
migliorare l’efficacia del packaging delle lattine delle zuppe e
d e l l a p ro m o z i o n e i n - s t o re c o n l e t e c n i c h e d i
neuromarketing. Lo studio mise in evidenza che il packaging
e la disposizione sugli scaffali avevano un impatto
significativo sulla percezione della zuppa da parte dei
consumatori. Inoltre, il cucchiaio presente nell’etichetta
sembrava non essere apprezzato dai consumatori. Infine, le
etichette di Campbell erano molto simili a quelle degli altri
concorrenti e ciò si traduceva in una minore distintività del
brand. A valle di questo studio, i cambiamenti del packaging furono eseguiti per alimentare una sensazione
positiva nei potenziali consumatori alla vista del prodotto sugli scaffali.
Le modifiche furono:
• Eliminazione del cucchiaio dall’immagine
• Aggiunta nell’immagine del vapore che fuoriesce dalla zuppa (secondo gli esperti l’immagine del fumo
suscita una sensazione di calore di immediato impatto emozionale)
• Design più moderno della scodella contenente la zuppa
• Riduzione delle dimensioni della leggendaria striscia rossa contenente il brand con riposizionamento
della stessa nella parte bassa della confezione (la striscia di colore rosso posta in alto nelle lattine di
zuppa rendeva difficile per i consumatori la scelta della zuppa preferita)
In realtà, quando Campbell nel 2010 lanciò sul mercato le sue zuppe condensate nel nuovo packaging,
vennero ridisegnati gli scaffali del supermercato per fornire una migliore guida e per facilitare i consumatori
nella scelta. Alcuni di questi aspetti comprendevano una catalogazione con colori migliori, una grafica
attraente e una nuova sistemazione. Campbell sperava che questi cambiamenti potessero aumentare le
vendite delle zuppe di un 2% nei successivi 2 anni. Invece, ci fu un calo per tutto il 2011, non solo per le
zuppe Campbell, ma anche per le vendite totali nel mercato americano. L’azienda durante i propri meeting
aveva già previsto questo declino per l’anno finanziario in questione in previsione di una forte competizione
con Progresso Soup (produttore di zuppe di una famosa azienda americana). Campbell aveva in realtà altri
problemi legati in quel periodo alla qualità del prodotto e alle decisioni strategiche aziendali. Tuttavia, in
questo caso le ricerche di neuromarketing aiutarono l’azienda a rinnovare l’immagine del prodotto.

Definizione del prodotto e del suo posizionamento ottimale nel punto vendita
La presentazione dei nuovi prodotti o servizi sul mercato rappresenta uno dei momenti fondamentali del
marketing. Tuttavia, nonostante sia importante l’intero ciclo di vita del prodotto, è cruciale per un’azienda non
sbagliare il lancio di un nuovo prodotto, considerando anche che la reazione dei consumatori risulta
estremamente difficile da predire.

Le ricerche di mercato tradizionali non sono in grado di predire il comportamento effettivo del consumatore,
perché quello che i consumatori dichiarano di sentire o provare nelle ricerche di marketing pre-lancio, spesso
risulta essere molto distante dal comportamento di acquisto che avranno in futuro e questo può decisamente
essere fuorviante per le aziende. Questa è la ragione per cui circa l’80% del lancio dei nuovi prodotti, viene
ritirato nell’arco dei primi 6 mesi di vita, e tale percentuale aumenta se si fa riferimento ai mercati asiatici.

Il neuromarketing potrebbe rappresentare una soluzione a tutto ciò. Infatti, il suo contributo è importante in
tutte le fasi del ciclo di sviluppo del prodotto, compresa la fase di lancio. Inserire il neuromarketing in una fase
“pre”, di definizione, di prototipizzazione, può fornire un valido aiuto per una comprensione maggiore e più
profonda delle esigenze del consumatore.

113
Attraverso i canali di vendita, i consumatori non cercano i prodotti solamente per i benefici materiali, ma li
valutano anche in termini di “esperienze” ad essi collegate. Il luogo di acquisto e l’esposizione dei prodotti al
suo interno assumono un ruolo cruciale nella fase d’acquisto. Non a caso, negli ultimi anni si parla sempre di
più di shopping experience, in cui il selling evoluto si arricchisce di elementi digitali, emozionali e quindi
esperienziali.

L’esperienza di acquisto diventa fondamentale ed è diventata centrale l’esigenza di renderla il più piacevole e
coinvolgente possibile. Dal marketing tradizionale sappiamo che i punti vendita devono essere in grado di
creare un’atmosfera volta a indurre e stimolare processi emozionali nei consumatori per aumentare la
probabilità di acquisto e migliorare le esperienze di consumo. È per questo che la shopping experience deve
essere progettata al meglio con l’ausilio di strumenti efficaci di misurazione, che possono valutare la
percezione sensoriale in base alle più aggiornate scoperte neuroscientifiche.

In un ambiente retail le reazioni di coinvolgimento emotivo e cognitivo degli acquirenti possono dare
informazioni utili sul packaging, sull’esposizione del prodotto sugli scaffali, sul comportamento dei
consumatori in-store mappandone il comportamento, misurando le loro reazioni inconsce e anche
intervistandoli circa le loro opinioni. L’ascolto della loro reazione diventa così completo e consente di
identificare le migliori leve per rendere l’esperienza di acquisto emozionante, coinvolgente e memorabile,
riducendo lo stress connesso all’acquisto e aumentando la qualità e il tempo dedicato ad attività di
intrattenimento e di esplorazione.

A livello internazionale esiste POPAI, che è un’associazione per il marketing e il retail, il cui obiettivo è quello
di promuovere la cultura del punto vendita nella sua globalità, diffondendo negli operatori la consapevolezza
del valore strategico delle attività retail all’interno del marketing mix. POPAI, nata negli USA nel 1956, ha
condotto nel 2012 un’imponente ricerca per investigare le abitudini di shopping dei consumatori all’interno
dei PDV, osservando come il tasso di decisione in-store sia aumentato vertiginosamente raggiungendo una
percentuale di circa il 76%. Per tale studio, oltre alla somministrazione di circa 2.400 questionari/interviste pre
e post-experience, sono state coinvolte 210 persone, alle quali sono state fatte indossare un EEG portatile,
un eye-tracker e strumentazione per misurare le risposte di bio- feedback.

Nello specifico, POPAI ha utilizzato le tecniche di neuromarketing al fine di:

• Comprendere il grado con cui i display finiscono nell’area di osservazione degli shopper

• Identificare i tipi di display e le posizioni che generano il maggior numero di impression e maggiori
attivazioni

• Misurare la % totale di tempo speso nell’osservazione di tali display (tramite un controllo di variabili
quali, ad esempio, tipo di display, localizzazione e posizionamento)

• Comprendere il grado con cui questi display vengono notati e inducono lo shopper a fermarsi o
interagire e misurare il modo in cui guidano all’acquisto

• Misurare la risposta emotiva verso i display

• Monitorare il percorso in tutto il negozio

• Costruire modelli di ricerca e strategie di navigazione che i clienti attuano per trovare e selezionare i
prodotti e il tempo speso nel considerare tali categorie

Da allora queste tecniche sono implementate da diversi studi di ricerca. In Italia, anche BrainSigns conduce
ricerche di customer experience per misurare le reazioni inconsce che le persone provano mentre esplorano
ed interagiscono con i prodotti all’interno di un negozio o punto vendita. È possibile misurare le reazioni
fisiologiche istintive dei consumatori direttamente durante la loro esperienza di acquisto così da poter
scoprire:

• Quali prodotti suscitano maggiore interesse

• Come il posizionamento di specifici prodotti influenza la loro percezione in termini di interesse,


attenzione ed emozione

• Quali confezioni suscitano emozioni positive

• Se i nuovi prodotti attirano l’attenzione

• Quali sono gli elementi della confezione che generano confusione o vengono percepiti negativamente

• Quali sono i messaggi pubblicitari che attirano maggiore attenzione

114
• Capire come migliorare l’allestimento del negozio per favorire un aumento delle vendite

• Come attirare, coinvolgere e motivare il cliente durante l’esperienza di acquisto

• Come specifici elementi (illuminazione, musica, profumo, colore) influenzano l’atmosfera e


l’esperienza del consumatore.

In tal modo, è possibile fornire indicazioni interessanti per:

- migliorare prodotti e confezioni

- incrementare la gradevolezza percepita di particolari esposizioni nel punto vendita

- ottimizzare l’atmosfera emozionale di spazi espositivi, ad esempio in termini di effetti di luce, colori,
posizioni e arredi

A tal proposito, BrainSigns in collaborazione con Agroter ha condotto uno studio nel 2016. Agroter è una
società di servizi nell’area ricerca/consulenza per le tematiche connesse al marketing e alla comunicazione
per le imprese del settore agroindustriale a livello internazionale.

Si tratta del primo esperimento di neuromarketing interamente dedicato all’ortofrutta in Italia, il cui scopo era
quello di indagare quanto il consumatore fosse veramente disposto a pagare per un prodotto in grado di
soddisfarlo alla vista, al palato e a livello cerebrale. Ai partecipanti è stata consegnata una lista della spesa e,
muniti di carrello, sono stati invitati ad acquistare biscotti, detergenti e alcuni prodotti del reparto ortofrutta e,
in alcuni casi, sono stati sottoposti ad alcuni stimoli, quali: il contatto diretto con un agricoltore in negozio,
organizzazione di diversi piani di categoria e sequenze espositive differenti, nonché cambi di brand in vendita,
per misurarne l’impatto. A conclusione della visita, ciascun soggetto è stato sottoposto a un breve
questionario riguardante i prodotti acquistati, in modo da poter confrontare il percepito del tester e le
informazioni memorizzare a livello conscio. È stata una ricerca interessante, con importanti risultati ottenuti.
I risultati:
▪ La prima evidenza dell’analisi è stata molto esplicita circa il continuo calo del consumo di frutta e
verdura già dal punto di vendita: il reparto ortofrutta stimola il nostro cervello meno di altri reparti del
grocery. Nello specifico, l’acquisto di wafer ha generato sul campione valori più elevati su tutti gli
indicatori neurometrici, in particolare a livello di maggiore interesse suscitato
▪ I valori dell’impegno cognitivo, correlato alla maggiore difficoltà nel prendere decisioni, erano più
elevati durante la scelta degli ortaggi (disposti nello scaffale del banco refrigerato che comprendeva
una moltitudine di referenze) rispetto alla frutta (organizzata in maniera differente)
▪ Un altro risultato interesse è stato che il design e la grafica del packaging influiscono indirettamente sul
nostro processo decisionale. Tra le tante leve a disposizione del settore ortofrutticolo che possono
elevare o abbattere il livello di piacevolezza ed emozione, vi sono il packaging e le innumerevoli
possibilità di personalizzazione grafica
All’interno del reparto ortofrutta del negozio in cui è stata eseguita la ricerca, durante l’esperimento era stata
predisposta ad hoc la vendita in promozione, al prezzo di € 2,25, di un bauletto di mele Golden presentato in
tre differenti varianti grafiche: una completamente color avana, in modo da simulare la naturalezza
dell’imballaggio, la seconda su sfondo bianco con le sole scritte “Mele Golden” che esaltava la comunicazione
“descrittiva”, mentre la terza riportava sul lato corto, i volti di diversi produttori e, sul lato lungo, immagini
suggestive di meleti in produzione. Inoltre, nell’arco della giornata di studio, le posizioni delle tre versioni di
bauletti sono state randomizzate per evitare fenomeni di scelta indotta dal flusso di clientela in reparto o di
posizionamento dei prodotti. I risultati ottenuti furono i seguenti: 12 tester su 20 (60%), che avevano nella
propria lista della spesa l’obiettivo di acquistare un solo bauletto di mele, hanno comprato le mele
“brandizzate” dalle facce degli agricoltori, mentre solo 4 su 20 hanno scelto il pack color avana e altrettanti
quello con le scritte “Mele Golden”. Nonostante le mele all’interno delle tre versioni grafiche fossero della
stessa qualità, la preferenza dei clienti e dei tester è stata evidente. Il motivo però non risiede nella parte
conscia del nostro cervello. A dimostrarlo, i risultati del questionario compilato dai tester subito all’uscita dalle
casse: solo 3 delle 12 persone che avevano acquistato i bauletti con gli agricoltori ricordavano
spontaneamente la presenza dei volti o dei paesaggi. A livello di ricordo non c’era stato l’effetto
115
memorizzazione, ma un effetto istintivo/inconscio durante l’acquisto, con una preferenza del pack con i volti
degli agricoltori. A sostenere ulteriormente questa tesi, anche il fatto che il campione ha visto di più le
cassette con i volti che non le altre (risultati eye-tracker).

Definizione del prezzo ottimale


Il prezzo è una delle variabili del marketing mix determinante nel processo decisionale del consumatore. Molti
ricercatori stanno cercando di sviluppare un nuovo modo per testare come i clienti valutano determinati
prezzi, misurando le loro onde cerebrali attraverso appositi sensori.

Qual è il prezzo ottimale che ciascun consumatore è disposto a pagare per un determinato prodotto o
servizio? Come possono essere misurate le resistenze “inconsce” di adesione alla promozione di particolari
“offerte”?
Queste resistenze/adesioni sono misurabili in letteratura scientifica tramite due modalità: l’Implicit
Association Test (IAT) e l’analisi di un’onda cerebrale detta P300. Nello specifico, un’onda P300 si chiama
così perché quando poniamo attenzione su uno stimolo in mezzo ad altri non interessanti, viene elicitata una
risposta “positiva” (da qui P) nel segnale EEG a circa 300 millisecondi (da qui 300) dopo la presentazione
dello stimolo stesso.

Entrambe le tecniche sono utili perché rivelano la presenza di eventuali conflitti interni, che le persone non
dichiarano esplicitamente per diverse ragioni, come il condizionamento di dover essere politically correct,
l’educazione ricevuta o anche perché loro stesse non ne sono consapevoli. L’esistenza di tali conflitti interni è
rilevabile e misurabile e, se significativa, può dare luogo a specifici interventi per rimuovere tali conflitti e
definire il prezzo ottimale.

Ogni soggetto, posto davanti al computer e con una fascetta sulla fronte, per l’acquisizione del segnale
elettroencefalografico, è chiamato a svolgere semplici compiti di test associativi di fronte ad un’offerta
particolare che compare a video. Le resistenze inconsce a particolari associazioni fra prodotto e attributi
(costoso, economico, conveniente ecc.) sono riportate con tre livelli di intensità - forte, moderata o leggera -
valutati su base statistica.

La determinazione del prezzo ottimale si esegue tramite un test P300, dove attraverso la registrazione EEG,
viene misurata la massima reattività all’osservazione di diversi prezzi proposti per la combinazione del
prodotto in esame.

I risultati raggiunti dalle ricerche di neuromarketing, ad esempio, dicono che il cervello umano non ama
affatto risparmiare. Kai-Marcus Muller, CEO della società The Neuromarketing Labs, nel 2012 ha condotto
uno studio analizzando quanto erano disposti a spendere i clienti di Starbucks per alcune consumazioni. La
tesi dello scienziato era dimostrare che i clienti della famosa caffetteria sarebbero stati disposti a spendere
ancora di più rispetto a un listino di per sé già elevato.

Il neuropricing è un approccio innovativo, che permette di misurare, analizzando l’attività elettrica celebrale,
la disponibilità dei consumatori a pagare un certo prezzo per un dato prodotto.

Il concetto di proporzione (e quindi anche il meccanismo che porta a decidere se sia giusto o meno spendere
un tot per un certo prodotto) è regolato da un centro della nostra materia grigia, che è indipendente dalla
nostra ragione conscia. Questa regione del cervello funziona secondo regole semplici. Un esempio? Di fronte
alla combinazione caffè e torta il nostro cervello trova un senso e dà il via libera. Davanti alla coppia caffè e
senape, invece, si attiva una sorta di allarme celebrale con un blocco reattivo. Gli esperti riconoscono la
reazione difensiva inconscia sulla base di alcune onde che diventano visibili tramite l’elettroencefalografia.
Ebbene, questi grafici, in un’ottica di neuropricing, possono rivelare anche qualcosa di interessante sulla
disponibilità dei consumatori a pagare più o meno per determinati prodotti.

Partendo da una tazzina di caffè per cui da Starbucks si paga 1,80 euro (2,45 dollari), a Stoccarda, Müller ha
cercato di andare a fondo alla questione. Il test è stato condotto attraverso l’utilizzo di una cuffia EEG ad alta
risoluzione spaziale (molti elettrodi). Su uno schermo sono stati presentati una tazza di caffè chiaramente
Starbucks e il suo prezzo. Immediatamente dopo, sono state mostrate le parole cheap o expensive. I soggetti
sperimentali così approvavano o disapprovavano attraverso un pulsante dicendo se percepivano il prezzo
basso o troppo alto. In questo modo, è stato possibile registrare e analizzare le risposte cerebrali al prezzo ed
116
agli attributi cheap o expensive, nonché il tempo di reazione nel prendere le decisioni sugli attributi citati. Nel
caso di offerte estreme o di prezzi troppo alti, il cervello delle persone reagiva in pochi millisecondi. Pagare 10
centesimi o 10 euro per ogni tazza risultava immediatamente inaccettabile al meccanismo di controllo del
cervello umano. I risultati hanno dimostrato che per una tazza che a Stoccarda costa € 1,80 i soggetti
sarebbero stati disposti a pagare tra i € 2,10 e i € 2,40, ovvero un prezzo superiore a quello già alto, praticato
da Starbucks.

Valutazione dell’efficacia comunicativa di un politico


Le pratiche di comunicazione politica, che fondano il loro successo sull’influenzamento mentale, fanno parte
dell’influenzamento psicologico delle masse. Non esiste uno stile di comunicazione universalmente valido per
tutti gli elettori in un determinato momento, ma strumenti di comunicazione che possono influire sul processo
decisionale in condizioni di incertezza (sfruttando i bias o errori cognitivi).

Questo, attraverso il ricorso ad un linguaggio che parla al cosiddetto system 1 - il pensiero veloce e intuitivo –
invece che al system 2, che è più lento e razionale.

Vi sono frasi, metafore, che più di altre attirano l’attenzione della mente di chi le ascolta suscitando delle
reazioni che lasciano il segno. Il pervasivo ricorso a frame (processo che consente di attribuire un significato
alle esperienze, di “incorniciare” le situazioni quotidiane dando un senso alle interazioni) e a metafore non è
casuale, ma spesso voluto e “strategicamente” studiato. Le parole che vengono usate non fanno altro che
attivare schemi che già esistono.

L’opportunità di fare propri gli strumenti idonei ad influenzare il pensiero attraverso il riconoscimento di frame
e l’utilizzo di un linguaggio in grado di attivarli non è solo appannaggio di alcuni politici, ma anche di coloro i
quali vogliono aumentare la propria efficacia comunicativa rispetto al proprio target di riferimento.

Nel novembre del 2016, i grandi esperti sulle previsioni dei sondaggi, davano come probabile vincitrice delle
elezioni americane, Hillary Clinton, tra il 70% e il 99%. Il risultato delle elezioni ha mostrato quanto rischioso,
miope e persino pericoloso sia stato affidarsi a una grande quantità di dati (Big Data). Allo stesso tempo, è
molto interessante il fatto che piccoli indizi (Small Data) possano portare a conclusioni a cui una grande
quantità di dati non arrivano. Al contrario, gli esperti di comunicazione non sono rimasti spiazzati rispetto alla
maggior parte dell’opinione pubblica. Trump risultava “più femminile” di qualsiasi altro candidato nel ciclo
2016. Questo potrebbe aiutare a spiegare come un candidato che è stato così boicottato e rimproverato per i
suoi attacchi meschini sugli immigrati, le donne, i disabili e anche i prigionieri di guerra sia riuscito ad attrarre il
sostegno di milioni di elettori.
Gli elementi che in tal senso definiscono lo stile femminile riflettono un linguaggio più socialmente orientato,
espressivo, dinamico, mentre quello maschile sarebbe più impersonale, prolisso e non emozionale. In
generale, i candidati che usano uno stile femminile vengono percepiti come molto più calorosi, affidabili e
simpatici, rispetto a quelli che ricorrono ad uno stile maschile. In altre parole, adottando lo “stile femminile”, si
parla alla “pancia delle persone”, soprattutto a quelle che vivono in condizioni di instabilità e di rischio. Infatti,
il ricorso ad un linguaggio emozionale risulta più efficace in un panorama politico caratterizzato da ansia e
tristezza.
Sia nel 2013 che nel 2016, BrainSigns ha condotto due studi di neuropolitica, misurando il coinvolgimento
emotivo e cognitivo degli studenti durante la visione di due interviste condotte a due politici differenti (Alfano e
Vendola nel 2013, Renzi e Boschi nel 2016) su diverse tematiche. In entrambi i casi, su un gruppo di soggetti
giovani sono state effettuate registrazioni dei segnali biometrici durante la visione dell’intervista. Ogni video è
stato “segmentato” a seconda delle tematiche trattate, così da ottenere informazioni sull’argomento che più di
altri suscitava un maggiore/minore interesse nel gruppo di giovani considerato.

Analisi della web usability, app e social media: un approccio unico che prevede l’integrazione delle
tecniche di neuromarketing con avanzati software di usabilità su desktop & mobile
Con il termine usabilità si fa riferimento alla facilità con cui gli utenti riescono a navigare e a trovare in modo
semplice e intuitivo ciò che stanno cercando. Un sito web ben progettato fa in modo che l’utente, una volta

117
giunto sul sito, sia portato non solo a non uscire, ma anche ad approfondire la ricerca visitando le altre pagine
e trovando immediatamente ciò che si sta cercando. Gli obiettivi della web usability sono:

1. Presentare l’informazione all’utente in modo chiaro e conciso

2. Semplificare la struttura del compito

3. Offrire all’utente le scelte corrette, in una maniera che risulta ovvia

4. Organizzare la pagina in modo che l’utente riconosca la posizione e le azioni da compiere

5. Eliminare ogni ambiguità relativa alle conseguenze di un’azione

6. Rendere la grafica accattivante

7. Ridurre lo sforzo cognitivo dell’utente

La web usability va perciò considerata e valutata in ogni momento della progettazione:

1. Nella fase iniziale

2. In itinere

3. Prima della pubblicazione

4. Dopo il lancio del sito

Con il coinvolgimento continuo dell’utente, rispondendo a criteri di efficacia, efficienza e soddisfazione.

Negli ultimi anni, l’applicazione delle tecniche di neuromarketing nel campo della ricerca e sviluppo dei siti
web, delle app e dei social media è in forte crescita perché i software più comuni di analisi dei dati web (es.
Google Analytics) possono fornire metriche oggettive, che descrivono il comportamento dell’utente, ma non
sono in grado di fornire una profonda comprensione delle motivazioni che guidano tali comportamenti.

In particolare, attraverso l’impiego delle tecniche neurometriche, basate sulla misura della risposta istintiva, si
può dare risposta alle seguenti domande:

• Qual è la mappa della distribuzione dell’attenzione visiva su specifiche aree della pagina web?
• Qual è l’impatto emotivo provocato dall’esperienza di navigazione su un sito?
• Quali pagine web richiedono maggiore impegno cognitivo durante l’elaborazione?
• Quali sono le pagine che suscitano un maggiore livello di interesse?
Soprattutto in fase di progettazione, il neuromarketing è indispensabile per testare i percorsi visivi e valutare il
coinvolgimento emotivo, l’interesse e lo sforzo cognitivo dell’utente durante l’interazione con specifici
componenti del sito/app/pagine social. In questo modo, è possibile testare una o più varianti di:

• Prototipi

• Mockup o wireframe (bozza, rappresentazione grafica, pulita e stilizzata, del sito web che serve per far
capire al cliente la strategia di comunicazione del nuovo sito e per mostrargli la disposizione dei
principali elementi, quali value proposition, contatti, box social, call to action (CTA), menu ecc.)

• Creatività look&feel (studio degli elementi grafici quali layout, colori, tipografia e altro (look) unito
all’aspetto funzionale (feel) e in un certo senso anche emozionale)

• Content strategy

La reazione dei soggetti tester viene valutata con le classiche tecnologie di rilevazione di biofeedback (EEG,
HR, GSR, eye-tracker) in aggiunta a web-cam e avanzati software di usabilità (ad es. Morae) per monitorare il
comportamento e rilevare problemi durante l’interazione dell’utente con le pagine web. A fine registrazione, a
ciascun soggetto viene chiesto di compilare un questionario Us.E. (Usability Evaluation, validato a livello
internazionale) per misurare i parametri di maneggevolezza, soddisfazione e attrattiva.

Le informazioni che quindi si possono ottenere sono: il coinvolgimento emotivo e cognitivo dell’utente,
l’attenzione visiva, il tempo medio (in secondi) che gli utenti impiegano per portare a termine il compito, il
numero medio di pagine visitate all’interno del compito, il numero medio di mouse click registrato all’interno
del compito, problemi di usabilità e criticità e percentuale di utenti che riesce a portare a termine il compito
correttamente.

118
Valutazione della percezione del “bello” – Misura della fruizione estetica di un’opera d’arte
La neuroestetica è una nuova disciplina nata dall’applicazione delle metodologie e delle prospettive di ricerca
delle neuroscienze al campo dell’estetica. Il primo a parlarne in questi termini è stato, nel 2001, il
neurobiologo Semir Zeki il quale ha proposto di indagare scientificamente le basi neurali dei processi
cerebrali coinvolti nell’esperienza della bellezza, di quei processi cioè che sono responsabili di ciò che
proviamo osservando uno splendido quadro, ascoltando una musica appassionante o leggendo una poesia
coinvolgente.

Attraverso l’arte il cervello è in grado di acquisire conoscenza e l’arte fornisce un tipo differente di
conoscenza: spesso si tratta di conoscenza di tipo emotivo, che non è facilmente accessibile da parte del
cervello “cognitivo”, ma che non può non essere considerata conoscenza a tutti gli effetti.

Studiare i meccanismi di elaborazione dello stimolo estetico non banalizza il vissuto individuale, ma permette
di approfondire la conoscenza sui sistemi affascinanti e complicati che ci consentono di pensare. L’assunto
principale della neuroestetica si fonda sugli studi di elaborazione delle informazioni esterne. La percezione
dello stimolo non comporta un’esatta riproduzione di esso, ma una sua ricostruzione. La mente utilizza i dati
percettivi e li rielabora, interpretandoli grazie a schemi cognitivi e rappresentazioni interne.

Questo studio porta alla necessità di un approccio multidisciplinare e il processo è suddivisibile in tre fasi di
elaborazione: l’analisi percettiva, dovuta al sistema sensorial-motorio, la reazione emotigena, risultato di tutti i
sistemi coinvolti nell’emozione, e l’analisi cognitiva, dovuta ai sistemi di attribuzione di significato e di critica
che generano il giudizio estetico.

Tramite l’applicazione di strumentazione neuroscientifica è oggi possibile misurare la percezione delle opere
d’arte, non solo in laboratorio, ma direttamente nelle gallerie, nei musei o in spazi in cui sono presenti
capolavori artistici.

BranSigns ha condotto diversi progetti di ricerca in cui è stato possibile investigare la reazione cerebrale alla
percezione del “bello”. Sono state condotte misure dell’attività cerebrale di fronte a capolavori di Tiziano e
Vermeer durante la mostra presso le Scuderie del Quirinale, di fronte alla scultura del Mosè di Michelangelo
presso la chiesa di San Pietro in Vincoli e durante la visione del Giudizio Universale nella Cappella Sistina a
Roma. Uno studio altrettanto interessante è stato quello svolto in collaborazione con la Facoltà di Lettere e
Filologia, relativo alla misura della percezione della Divina Commedia di Dante Alighieri, presentato presso
l’Accademia dei Lincei a Roma nell’ambito della Mostra del Libro Antico.

Criticità e principi di etica e trasparenza


Come ogni tecnologia, anche il neuromarketing porta con sé il rischio di abusi, e di conseguenza impone una
responsabilità sul piano etico. Da quando le neuroscienze hanno preso campo nella ricerca sul marketing,
sono emersi molti dibattiti di tipo etico, basati principalmente sulla paura che gli strumenti e i metodi
neuroscientifici possano essere utilizzati non solo per scopi accademici e di ricerca scientifica, ma anche per
manipolare il comportamento delle persone a scopi commerciali.

Si è diffusa la credenza che grazie agli strumenti neuroscientifici applicati al marketing, si possa conoscere
“come” e “cosa” pensino le persone, in maniera più approfondita rispetto alle stesse. Per questo motivo, vi è
la paura diffusa che le nostre percezioni possano essere controllate da terzi a fini commerciali e che possano
essere violati i nostri pensieri.

Per tali ragioni, è necessario che il neuromarketing sia fondato sulla base di principi etici, ma in particolare
quelle concernenti l’ambito economico e neuroscientifico. Come è stato espresso nel 1997 nella Convention
di Oviedo (un Consiglio Europeo sui diritti umani e la biomedicina), deve essere stabilito il primato della
dignità umana sugli interessi della scienza e della società. Il rispetto della dignità umana deve essere un
principio guida di tutte le scienze, in modo da tutelare l’autonomia e l’autodeterminazione di ogni individuo.

Gli strumenti delle neuroscienze, in quanto strumenti, non sono né buoni né cattivi, dipende tutto dall’uso che
ne viene fatto. L’obiettivo del neuromarketing deve essere quello di fornire ai clienti/consumatori
un’esperienza di consumo più piacevole e soddisfacente lungi dall’incoraggiare meramente le persone a
comprare beni di cui non hanno bisogno. Infatti, il neuromarketing è uno strumento che può aiutare a

119
decodificare meglio quello che come consumatori già pensiamo quando siamo di fronte a un prodotto o a
una marca. L’idea è che capendo meglio il comportamento si ha in realtà più controllo e non meno. E quante
più aziende conosceranno i bisogni reali e i desideri inconsci, tanto più utili e significativi potranno essere i
prodotti che metteranno sul mercato.

Per tutte queste ragioni, negli ultimi anni è nata la necessità di avere dei principi guida basati sul rispetto della
dignità umana, a loro volta basati su principi di etica e trasparenza. È nato anche un filone di studi chiamato
Neuroetica, che si sofferma su un campo di riflessione circa l’impiego di concetti e nozioni che via via si
scoprono sul reale funzionamento dell’attività cerebrale e sulle implicazioni che comportano rispetto alla
comprensione che l’uomo ha delle cose e di sé stesso nella società attuale.

Nel 2012 l’associazione mondiale di neuromarkering NMSBA ha stilato un codice etico. Nello specifico viene
richiesto che le registrazioni di biofeedback vengano svolte da professionisti abilitati, rispettando gli stessi
protocolli richiesti in campo medico, con il consenso informato firmato dalle persone che partecipano come
tester, le quali:

• Sono libere di sospendere la sperimentazione e di richiedere la cancellazione dei loro dati in


qualunque momento, anche durante la sperimentazione stessa

• Devono essere informate a priori sulle modalità e sugli scopi generici della ricerca

• Possono richiedere a posteriori specificazioni sulle finalità più dettagliate e sulla committenza dello
studio a cui partecipano.

CASE STUDY Alfa Romeo Giulietta


Gli sviluppi delle neuroscienze rendono oggi possibile la rilevazione e l’analisi di biofeedback, che includono
anche l’attività fisiologica cerebrale dei consumatori davanti a uno stimolo di marketing (una marca, uno spot
pubblicitario, la confezione di un prodotto, ecc.). L’applicazione dei metodi delle neuroscienze per l’analisi
degli spot pubblicitari prevede l’impiego di tecniche sia di neuroimaging sia biometriche.

Per capire di che si tratta è importante sapere:

• come viene registrata la risposta fisiologica

• che cosa si misura e come si possono interpretare i segnali misurati (cosa si intende per
memorizzazione, attenzione, interesse ed emozione)

•  a cosa può servire

• che cosa si può ottenere

Come viene misurata la risposta fisiologica: la strumentazione impiegata e il setup sperimentale

La strumentazione
Per misurare la risposta cognitiva ed emotiva, ogni soggetto viene fatto sedere comodamente di fronte a uno
schermo televisivo. Sulla fronte gli viene posta una fascetta con 10 elettrodi per rilevare l’attività cerebrale
(EEG) (ogni azienda impiega strumentazioni differenti e, anche il numero di elettrodi impiegati può essere
diverso), sul polso un elettrodo per rilevare l’attività cardiaca (HR) e sulle dita (indice e medio) della mano non
dominante altri due elettrodi per rilevare la conduttanza cutanea (sudorazione della pelle; GSR).
Strumentazioni e programmi dedicati rilevano ed elaborano i dati biometrici acquisiti.

Il setup sperimentale
Il campione sperimentale in test è composto normalmente da 18-36 persone. Ciascun soggetto guarda un
filmato (documentario) contenente due break pubblicitari per una durata di circa 20-25 minuti. In base alle
richieste del cliente, lo spot in test può essere inserito in prima posizione, in posizione centrale o alla fine del
break pubblicitario. Può essere fatto vedere una sola volta o più volte durante il filmato. Se la posizione non è
importante, vengono fatti ruotare il break tra i soggetti proprio per neutralizzare quest’effetto.

A fine registrazione ciascun soggetto viene coinvolto in una breve intervista per cogliere il ricordo spontaneo
della pubblicità, il gradimento e la decodifica del messaggio.

120
Al fine di analizzare l’impatto della pubblicità lungo tutta la sua durata, uno spot può essere suddiviso in
frame (secondo per secondo) e in sequenze concettuali in base alla creatività. In quest’ultimo caso la durata
temporale di ciascun segmento dipende dallo spot pubblicitario.

I segmenti che si possono identificare sono:

• Introduzione: quando lo spot inizia

• Testimonial: il soggetto protagonista dello spot

• Speaker: voce fuori campo

• Prodotto promosso o Servizio offerto

• Brand: comparsa del marchio della società

• Codino: continuazione dello spot dopo la


comparsa del brand

In merito all’identificazione dei principali segmenti di uno


spot, può essere utile chiarire la differenza di alcuni concetti, spesso confusi nella pratica:

• Il brand è la marca. L’American Marketing Association definisce una marca (brand) come “un nome,
un termine, un segno, un simbolo, un design o una combinazione di questi elementi che identifica i
beni o servizi di un venditore o un gruppo di venditori e li differenzia da quelli dei concorrenti”. Una
marca può essere tante cose, sia per l’azienda che per il consumatore. Tanti sono gli elementi, per
esempio visuali, concettuali, sonori, tattili e perfino olfattivi e gustativi, che in potenza la compongono
e le conferiscono valore.

Si pensi al gusto di bevande come la Coca Cola, oppure al rombo di una motocicletta come l’Harley
Davidson. Diverse sono anche le forme economiche e giuridiche con cui la marca si presenta. Per
esempio è marchio, oltre che marca, solo se è registrata o in via di registrazione e in ogni caso
oggetto di tutela legale come qualunque altro bene proprietario di una specifica azienda. Di certo, la
marca è un elemento che genera valore per il cliente, ed è proprio in funzione di ciò che acquista
valore come asset intangibile dell’impresa

• Il logo è la scritta, che solitamente rappresenta un prodotto, un servizio, un’azienda,


un’organizzazione, una band musicale o altro ancora. Tipicamente è costituito da un simbolo o da una
versione o rappresentazione grafica di un nome o di un acronimo che prevede l’uso di un lettering ben
preciso, cioè un carattere tipografico (font), progettato per essere riconoscibile e distinguibile da
qualsiasi altro logo

• Il claim, chiamato anche headline, è la frase utilizzata per sottolineare la peculiarità di un prodotto o di
un servizio/brand, per descrivere la sua superiorità/differenza rispetto alla concorrenza o per ribadire
un’occasione di particolare vantaggiosità legata all’acquisto. Il suo senso è riscontrabile nei significati
del verbo inglese da cui deriva, “to claim”, che vuol dire appunto affermare, dichiarare, rivendicare.

Il claim deve essere un’affermazione efficace e decisiva che sintetizza il messaggio pubblicitario con
forza e incisività, comunicando un’idea essenziale che sarà poi articolata nelle altre parti testuali più
lunghe. In altre parole, il claim è la principale promessa fatta ai consumatori dell’azienda che propone
la pubblicità. Si tratta dunque di affermazioni a scopo propagandistico, autoreferenziali e volutamente
eccessive che servono a imprimere nella mente degli utenti idee di primato, eccellenza, vantaggio

• Il payoff o slogan è la chiusura di un annuncio. È una frase brevissima, che spesso non ha il verbo e
che viene accostata al brand name e che
viene mantenuta nel tempo. Sintetizza i
valori, il posizionamento e la filosofia del
brand.

Un esempio di applicazione degli strumenti


121
neurometrici per la valutazione dell’efficacia della comunicazione pubblicitaria

Settore Automotive: il caso Alfa Romeo Giulietta. Impatto dell’emozione sul sub-target uomo -
donna.
Tra le differenze in termini di consumer behaviour connesse al genere maschile e femminile, è possibile
considerare anche la diversità riscontrabile nelle percezioni relative alla comunicazione di marketing.

Nell’esempio che segue si riporta un test su una pubblicità di auto Alfa Romeo, che propone allo spettatore
un messaggio nell’intenzione fortemente emozionale per la nuova “Giulietta”: non solo una macchina, ma un
insieme di sensazioni di eleganza e sicurezza che riguarderanno tutti i futuri acquirenti. I co-protagonisti di
questa nuova auto sono la bellissima Uma Thurman alla guida, le bambine sul sedile posteriore e un famoso
verso di William Shakespeare “Noi siamo fatti della stessa materia di cui sono fatti i sogni” (per sottolineare
ancora di più lo spirito e l’atmosfera che si vuole dare alla nuova campagna pubblicitaria). L’idea creativa di
base in tale spot è un connubio tra lo stile della Giulietta, decisa e aggressiva al tempo stesso, e la personalità
della Thurman, capace di trasmettere bellezza, sicurezza, determinazione.
Le registrazioni delle risposte EEG, GSR e HR sono state eseguite su un campione formato da metà uomini e
metà donne.
Dalle analisi dei tracciati di memorizzazione, attenzione ed emozione, è emerso che lo spot ha catturato
l’attenzione sui frame che contribuiscono a rafforzare le immagini di serenità e tranquillità che si vogliono
trasmettere con la nuova auto e su quelli che suscitano l’interesse e la curiosità a provarla. Lo spot è stato
efficacemente memorizzato durante le scene che pongono in risalto gli ingredienti principali del messaggio,
appunto il piacere di guida, la sicurezza dell’auto, il nome e l’eleganza e il payoff.
È stato uno spot che ha coinvolto molto a livello emotivo soprattutto durante le scene di guida dell’auto con
l’immagine delle tre bambine.
Il momento con la celebre frase di W. Shakespeare non ha catturato molto l’attenzione, ma ha suscitato una
buona risposta emotiva. Alla comparsa delle frasi in dissolvenza, che descrivono le caratteristiche dell’auto,
cresce l’attenzione, ma contemporaneamente ci sono un calo della memorizzazione e un basso
coinvolgimento emotivo. La chiusura non è quindi particolarmente efficace.
Per quanto riguarda la fruizione emotiva, argomento sul quale si vuole porre maggiore attenzione in questo
esempio di applicazione neurometrica, questa è stata positiva lungo tutto lo spot, con diversi picchi positivi
nell’ambito della calma e della serenità. Il maggior picco positivo si è verificato tra il 6’’ e il 10’’, ovvero sulle
scene in cui sono presenti il testimonial e le tre bambine. Lo spot nel complesso ha suscitato una risposta
emotiva serena, migliore però nella prima parte rispetto alla presentazione finale del prodotto.
Molto diversa però è risultata la risposta emotiva del target uomini e del target donne. I due tracciati
emozionali hanno un trend opposto. Gli uomini sono stati coinvolti in modo più costante lungo l’intero spot,
seppur con intensità maggiore durante la parte finale. Le donne, invece, sono state fortemente coinvolte
durante la prima metà dello spot, soprattutto per la parte relativa alla visione del testimonial con le tre
bambine sorridenti e sulle immagini relative alla sicurezza.
L’emotività degli uomini sembra essere legata, quindi, alla lettura del messaggio finale, relativo alla descrizione
delle caratteristiche tecniche dell’auto, mentre nel caso delle donne, questa viene catturata dalla figura
femminile e dalle bambine (sinonimo di tranquillità, sicurezza), mentre viene trascurate la componente
razionale del messaggio sulle prestazioni ingegneristiche e tecniche del motore.

Impiego delle tecniche biometriche per una possibile riduzione di secondaggio tenendo conto anche
delle differenze emerse tra uomo – donna
Le registrazioni biometriche forniscono i segnali di Memorizzazione, Attenzione, Interesse ed Emozione, da
cui è possibile ricostruire la percezione dello spot secondo per secondo, nel suo insieme e con riferimento ai
singoli segmenti che ne compongono la creatività. L’analisi fornisce uno schema razionale utile per orientare
interventi sulla riduzione di secondaggio. Lo spot Giulietta si presta ad essere un buon esempio di questa
122
possibilità applicabile allo spot in sé o anche sul target maschile e femminile. Dall’analisi dei tracciati è stato
possibile identificare i frame/secondi più performanti, che cioè sono stati in grado di catturare di più
l’attenzione, di essere maggiormente ricordati e di coinvolgere di più a livello emotivo.

In definitiva, i momenti salienti sono stati quelli in cui sono emersi i punti di forza del marchio Alfa Romeo
sinonimo di sicurezza, stabilità, potenza, comfort, eleganza e sportività e, anche nella versione di riduzione a
15’’ dello spot, questi criteri sono stati mantenuti, assicurando la massima efficacia dello stesso sulla base
delle evidenze biometriche ottenute dalla registrazione dell’intero campione.

Considerata la diversa percezione dello spot tra gli uomini e le donne, potrebbe essere utile l’identificazione
di una proposta di riduzione “mirata e personalizzata” in base al target destinatario della comunicazione.
Infatti, in base al piano media dell’azienda e in base alla posizione che la pubblicità occupa nei diversi
palinsesti televisivi, sarebbe oggi possibile mandare in onda una versione ridotta dello spot più mirata per il
segmento maschile o femminile, in base alla congruenza delle trasmissioni programmate (film, soap, sport,
documentari, ecc.), agevolando così la fruizione della pubblicità e rendendo la comunicazione più efficace nel
contesto in cui è inserita.

Per gli uomini sono stati mantenuti e privilegiati i secondi contenenti la descrizione delle caratteristiche
tecniche dell’auto, mentre per le donne, sono state evidenziate le caratteristiche di sicurezza e tranquillità,
valorizzando anche la presenza della figura femminile e delle tre bambine, proprio come emerso dalle
rilevazioni biometriche: in entrambi i casi, i contenuti e i messaggi pubblicitari sono stati rispettati, ma la
pubblicità è stata personalizzata in base alle emozioni suscitate negli uomini e nelle donne.

CAPITOLO 5 – IL CAMPIONAMENTO

Introduzione al campionamento statistico


Nelle indagini qualitative la qualità dei soggetti analizzati costituisce un fattore imprescindibile per la buona
riuscita della ricerca. Invece nelle indagini quantitative, la correttezza della procedura di selezione determina
la possibilità di generalizzare i risultati e quindi costituisce un perno fondamentale di questa tipologia di
ricerca.

Le indagini campionarie rappresentano la grande maggioranza delle ricerche quantitative e pertanto il


problema della scelta, della numerosità e delle caratteristiche delle unità da analizzare è tra i più delicati.

Il fine principale di un'indagine campionaria è la generalizzazione all'intera popolazione dei risultati


ottenuti sul campione (= rilevazione censuaria di una porzione della popolazione). Il problema di tale
approccio consiste nell’approssimazione con cui è possibile descrivere la popolazione attraverso il campione.
La scelta di una rilevazione campionaria rispetto a un'indagine di tipo censuario è legata, oltre ai problemi di
rapidità nella raccolta dei dati e alla necessità di contenere i costi, alla semplicità dell'organizzazione, al grado
di approfondimento e di accuratezza dell'informazione, all'accessibilità delle unità della popolazione oggetto
di indagine.

Vi sono, inoltre, situazioni dove la necessità del ricorso al campionamento è determinata dalla natura stessa
dell’indagine: ad esempio, nei casi in cui la popolazione ha un numero di elementi non facilmente
individuabile o alla verifica della qualità di un prodotto industriale, in cui spesso la rilevazione comporta la
distribuzione dell'unità osservate. D'altra parte, l'indagine censuaria risulta necessaria in alcune ricerche di
natura economico-sociale e demografica sul territorio.

Le indagini campionarie
L'oggetto di studio di ogni indagine campionaria è una popolazione finita, ovvero un insieme finito e
noto di elementi identificabili dei quali interessa studiare uno o più caratteri.

123
I singoli elementi, per quanto numerosi, sono numerabili ed etichettabili in modo da poter identificare e
distinguere le diverse unità. La popolazione può essere rappresentata con un insieme Ω = {1,2. …, N} dove i
numeri naturali indicano le N unità elementari che la compongono.

Altro elemento essenziale che contraddistingue la popolazione è l'esistenza di una caratteristica presente in
tutte le unità, che può rappresentare l'oggetto dell'analisi. La caratteristica analizzata, o carattere, verrà
indicata con U e con y1, y2, …, yN si indicheranno i valori che questa assume rispettivamente nelle unità 1,2,
…, N della popolazione.

I caratteri possono essere qualitativi o quantitativi, a seconda che il loro stato possa essere descritto con
espressioni verbali o con numeri. In generale, si chiama campione di dimensione n della popolazione Ω un
qualsiasi sottoinsieme c = { i1, i2, …, iN } di Ω, contenente n unità.

Per ottenere il campione da analizzare, si possono estrarre dalla popolazione n unità secondo due modalità
principali:

3. Estrazione con ripetizione: nella quale ogni volta viene reintrodotta l'unità già estratta della
popolazione prima della successiva estrazione Uno stesso elemento può essere stato inserito nel
campione più di una volta e quindi le unità estratte non sono necessariamente distinte

4. Estrazione senza ripetizione: nella quale tutte le unità selezionate non possono più essere estratte nel
corso della formazione del campione è la metodologia più utilizzata nelle ricerche di marketing.
Infatti, è opportuno non intervistare uno stesso individuo più di una volta nel corso della stessa
indagine, al fine di evitare distorsione nei risultati

Gli strumenti per la valutazione delle stime campionarie


Una volta determinato il campione su cui svolgere l'indagine, è necessario valutare le informazioni da esso
fornite relative al carattere oggetto di studio, per stimare, successivamente, alcune caratteristiche della
popolazione (dette parametri) quali la media, la varianza o il totale. Le tecniche di stima assegnano valori
approssimati ai parametri della popolazione oggetto di studio, basandosi su funzioni dei dati campionari
dette stimatori (T), che forniscono una sintesi quantitativa dei dati campionari stessi.

Nella popolazione Ω, sulla base di un campione probabilistico c = {i1 , i2 ,…, in }, si dice stimatore di un
parametro θ una funzione delle campionarie T=  T ( i1 , i2 , i3 ,…, in ). Il valore che assume T per una particolare
realizzazione è detto stima di θ.

Per esempio, θ può rappresentare una misura di sintesi specifica della popolazione, come il fatturato medio
di un settore o il fatturato complessivo di tutte le imprese operanti nel settore stesso, e T sarà quindi lo
stimatore della media o del totale della popolazione, calcolato sulla base dell’analoga funzione dati.

Le stime numeriche sono generate dagli stimatori basati sul campione e possono essere di diverso tipo in
base alla caratteristica prescelta per l'analisi della popolazione. Per stimare il valore medio di un carattere si
utilizza generalmente lo stimatore media campionaria; analogamente è ragionevole associare al problema
della stima della varianza della popolazione lo stimatore varianza campionaria. Per stimare il fatturato medio
di tutte le imprese industriali italiane si può, ad esempio, utilizzare lo stimatore media campionaria del
fatturato, estraendo un campione rappresentativo di imprese italiane.

La stima di un parametro può essere effettuata seguendo due diverse modalità:

• Stima puntuale Correttezza, consistenza ed efficienza di uno stimatore.


Il problema della stima puntuale consiste nell'assegnare un valore plausibile a un parametro non noto della
popolazione sulla base di un campione e nel fornire anche una misura della precisione della stima effettuata.
Per valutare la qualità di uno stimatore, è necessario valutare alcune proprietà degli stimatori stessi. Per uno
stesso parametro della popolazione si possono avere due o più stimatori possibili. Si tratta di scegliere lo
stimatore migliore esaminando le seguenti proprietà principali: Correttezza (non distorsione), consistenza ed
efficienza.

Chi gode di queste proprietà può essere considerato “buono” e preferibile rispetto ad altri stimatori:

124
- correttezza: Uno stimatore T si definisce corretto se il suo valore atteso è uguale alla misura di sintesi
da studiare nella popolazione, ovvero se E (T ( i1 ,…, in )) = θ. Per esempio, si può dimostrare che lo
stimatore media campionaria è corretto, ovvero che il valore atteso dello stimatore coincide con la
media della popolazione. Uno stimatore che non gode della proprietà di correttezza è detto distorto.

- Consistenza: La proprietà di consistenza equivale a dire che lo stimatore è almeno asintoticamente


non distorto e che la sua varianza tende a zero all’aumentare di n. Da un punto di vista operativo,
questa proprietà assicura che prendendo un campione sufficientemente grande si può ottenere una
stima del parametro con la precisione desiderata

- Efficienza: Una misura della precisione di uno stimatore T, ossia la sua “vicinanza” al parametro θ
oggetto di studio nella popolazione, è data dall'efficienza. L'indicatore assunto per il confronto degli
stimatori in base all'efficienza è l'errore quadratico medio di campionamento, definito in questo modo:
e (T – θ)2. L'errore quadratico medio rappresenta la media del quadrato degli errori associati alle
possibili realizzazioni dello stimatore. Uno stimatore sarà preferibile e quindi migliore se ha un minor
errore quadratico medio, poiché produrrà indicazioni mediamente più precise sul parametro θ.

Se uno stimatore T è corretto, o asintoticamente corretto, l'errore quadratico medio coincide con la varianza
dello stimatore stesso. Allora uno stimatore T1, non distorto per θ è migliore, o più efficiente, di un altro
stimatore T2, pure non distorto per θ, se ha varianza minore, ovvero se var ( T1 ) < var ( T2 ). Per esempio, è
possibile dimostrare che la media campionaria è lo stimatore più efficiente disponibile per la media della
popolazione

• Stima per intervallo Gli intervalli di confidenza


Tale metodo consiste nel definire un intervallo che verosimilmente contenga il valore “reale” di un determinato
parametro oggetto di studio. Si tratta di costruire un intervallo che, con assegnata probabilità a priori, e
quindi con un dato “livello di confidenza”, comprenda il parametro oggetto di stima θ. Gli estremi
dell'intervallo dipendono dallo stimatore T del parametro e dalla stima della varianza di T (quindi di θ)
connessi al piano di campionamento utilizzato.

Si associa ad un campione, non un singolo valore, come nella stima puntuale, ma un intervallo. Fissato un α
in modo arbitrario, generalmente pari al 5% o all'1%, viene definita a priori la probabilità, corrispondente a (1
– α), di ottenere un campione cui è associato un intervallo che comprenda il parametro. Tale probabilità, a
posteriori, è anche detta livello di confidenza. Una confidenza del 95%, per esempio, garantisce che
ripetendo migliaia di volte il campionamento e la costruzione dell'intervallo, il 95% circa degli intervalli così
ottenuti con conterrà effettivamente il vero valore del parametro (risultando quindi “utile” operativamente).
Nelle applicazioni reali il campionamento viene in realtà utilizzato un'unica volta e quindi si confida che l'unico
intervallo individuato appartenga all'insieme degli intervalli utili.

Si consideri, per esempio, la stima del reddito medio nelle famiglie italiane. Il parametro della popolazione θ
da stimare, ovvero la media, sarà uguale alla realizzazione dello stimatore T “media campionaria” più un
determinato errore derivante dalla distribuzione di probabilità dello stimatore: θ ∈ (T ± errore). Per
l'identificazione dell'errore si può considerare la distribuzione campionaria dello stimatore standardizzato, che
si può dimostrare pari alla distribuzione di Gauss, se il carattere della popolazione è distribuito secondo una
normale e il campione individuato è sufficientemente grande:

Da cui si ricava facilmente: errore = Z · σ T

Più precisamente, la media da stimare è rappresentata da: errore = Z · σ T.

Considerando la distribuzione normale standardizzata N (0, 1), è possibile dimostrare che la probabilità che Z
assuma valori compresi tra due punti fissati z1 e z2 è approssimabile all'area sottostante la distribuzione e
compresa tra questi estremi. Il livello di un intervallo, ovvero (1 − α )%, indica la fiducia che possiamo riporre
nel fatto che il valore vero del parametro di interesse sia contenuto nell'intervallo stesso.

Un aumento di “confidenza” corrisponde a un aumento dell'ampiezza dell'intervallo.

In ogni proprietà di stima è possibile associare diversi stimatori per uno stesso carattere della popolazione e
la scelta dello stimatore migliore avviene in base alle proprietà e alle caratteristiche dei singoli stimatori.

125
La strategia campionaria è costituita da un piano di campionamento e dallo stimatore scelto con le sue
proprietà, e la scelta è strettamente legata a diversi fattori quali la finalità dell’indagine, il costo e i tempi di
realizzazione.

Per valutare diverse strategie è necessario effettuare il confronto tra le varianze degli stimatori di ciascuna
strategia. Per esempio, si possono confrontare strategie con piani di campionamento a estrazione senza
ripetizione con altri legati a piani di campionamento che ne prevedono la ripetizione. Questi confronti tra
strategie rientrano nel campo più generale dell’analisi degli strumenti per la misura della validità di
un’indagine campionaria e favoriscono l’ottimizzazione del rapporto costi-precisione dell’indagine stessa.
Infatti i risultati del campione, per quanto rappresentativo, non sono perfettamente corrispondenti a quelli che
si otterrebbero indagando su intera popolazione; la prossima azione costituisce il cosiddetto errore del
campione.

I metodi di campionamento
I metodi di campionamento si suddividono in probabilistici e non probabilistici:

• nel campionamento probabilistico ogni unità


della popolazione ha una probabilità nota e
diversa da zero, di essere selezionata e quindi
di entrare nel campione. Esso si basa su uno
schema oggettivo di selezione delle unità, in
cui la probabilità di selezione dei singoli
elementi sia nota e totalmente indipendente
dalle preferenze personali del ricercatore

• Il campionamento non probabilistico,


invece, prescinde da criteri di casualità nella
scelta delle unità campionarie. La selezione
delle unità avviene prevalentemente in base a
criteri soggettivi e la probabilità di selezione dei singoli elementi non è nota a priori

IL CAMPIONAMENTO PROBABILISTICO
Tale campionamento richiede un insieme di regole e operazioni stabilite a priori, e trattabili matematicamente,
per formare il campione, detto piano di campionamento.

I piani di campionamento probabilistico più diffusi sono:

• Campionamento casuale, semplice: è uno dei


metodi di campionamento di tipo probabilistico,
meno sofisticati per selezionare un numero
determinato di unità da una popolazione. In
questo campionamento, ad ogni estrazione,
ciascun elemento della popolazione ha la stessa
probabilità di essere selezionato attraverso un
metodo che garantisce la casualità delle
estrazioni.

Nel campionamento senza ripetizione la probabilità di estrazione corrisponde a

1 1
p= con i= 1,2,…,n mentre p= , sempre costante per ogni
N*(N − 1)*(N − 2)*…*(N − i + 1) N
unità, nel caso in cui l'estrazione sia con ripetizione.

In alcuni casi questo metodo risulta poco pratico, se non addirittura inapplicabile, in quanto, oltre alla
preventiva numerazione di tutte le unità della popolazione, è necessario individuare successivamente
quelle corrispondenti ai numeri estratti.

126
• Campionamento (casuale) stratificato: Qualora siano disponibili
informazioni supplementari sulla struttura o su determinati caratteri
della popolazione, è possibile suddividere
quest'ultima in un numero finito di gruppi o strati,
all'interno dei quali le unità sono omogenee
secondo un determinato criterio.

Da ogni strato viene estratto un campione


casuale, ottenendo così tanti campioni
indipendenti quanti sono gli strati.

Tale metodo può essere utilizzato, ad esempio,


per l'indirizzamento di una campagna
promozionale alle aziende italiane, ottenendo una
stratificazione in aziende piccole, medie e grandi.

Con questo procedimento le dimensioni campionare di ogni strato sono scelte a priori e possono
essere differenti; nel campione finale sono presenti unità provenienti da ogni sottopopolazione che
costituisce lo strato. La fase di stratificazione può essere effettuata anche sulla base di due o più
caratteri.

Il campionamento stratificato viene utilizzato quando si studia un carattere che è influenzato da uno o
più fattori presenti nella popolazione. Prima di effettuare l'estrazione del campione la popolazione
viene suddivisa in strati basati sui fattori che influenzano il livello del carattere da studiare. Quindi
all'interno di ciascuno strato si sceglie un campione con il metodo casuale semplice o sistematico.
Tale metodo di campionamento è più flessibile di quello casuale semplice, infatti nei diversi strati può
essere scelta una percentuale differente di unità (per esempio, 5% in uno strato e 3% in un altro). La
difficoltà applicativa è legata al fatto che lo stato di tutte le unità di campionamento, rispetto ai fattori
su cui si basa la stratificazione, deve essere noto prima di scegliere il campione.

• Campionamento (casuale) a grappoli (o cluster): le unità elementari della popolazione sono


raggruppate in sottoinsieme di unità contigue di osservazione, detti grappoli o cluster. Data una
popolazione, viene estratto un certo numero
di grappoli e tutti gli elementi appartenenti ai
gruppi selezionati entrano a far parte del
campione (unità campionarie). Si tende ad
utilizzare come grappoli gruppi naturali o
amministrativi già esistenti (Famiglie,
comuni, province…), in modo da contenere
il costo per l'indagine. Data l'omogeneità
degli elementi dei gruppi, il campionamento
a grappoli può risultare meno efficiente di
quello casuale semplice, specie quando sia limitato il numero di grappoli prescelto. In una ricerca sulle
imprese industriali italiane è possibile suddividere, ad esempio, le imprese in gruppi in base al distretto
Industriale di appartenenza ed estrarre in modo casuale alcuni distretti. Le unità campionarie sono
rappresentate da tutte le imprese appartenenti ai distretti industriali selezionati.

• Campionamento a due o più stadi: Data una popolazione le cui unità elementari sono riunite in
gruppi, si seleziona dapprima un campione casuale di gruppi e successivamente si estrae un certo
numero di unità elementari dai gruppi selezionati. Vi sono due livelli di campionamento: al primo
vengono scelti i gruppi o le unità di primo stadio, mentre al secondo vengono scelte le unità
elementari, chiamate unità secondarie. Tale procedura può essere naturalmente reiterata per un
numero arbitrario di stadi.

Si distingue dal campionamento a grappoli perché il primo stadio comprende la suddivisione delle
imprese in gruppi in base al distretto di appartenenza e l'estrazione casuale di alcuni distretti, mentre il
secondo stadio prevede l'estrazione casuale di alcune unità, ovvero di alcune imprese, scelte fra i
distretti selezionati nel primo stadio.

127
• Campionamento sistematico: solo la “prima” unità viene estratta in modo casuale dalla popolazione,
mentre le altre sono selezionate in modo automatico secondo un criterio prefissato. Per la
realizzazione di un piano di campionamento sistematico è necessario innanzitutto che le unità della
popolazione siano in un elenco ordinato secondo un criterio qualsiasi (per esempio, in ordine
alfabetico).

Iniziando dal primo elemento, un'unità estratta casualmente dalla popolazione, la scelta delle
successive unità campionarie è effettuata in modo semplice
e rapido in base a un determinato passo di campionamento,
ossia in base al numero di posizioni che vengono ogni volta
conteggiate per individuare in successione gli elementi del
campione.

La scelta della prima unità condiziona pertanto l'intero


campione determinato, seguendo un modulo fisso di
estrazione per tutte le restanti unità. Occorre assicurarsi che
il passo di campionamento prescelto non sia influenzato da qualche variabile esterna che agisce con
la stessa ciclicità del campionamento. Ciò avviene, per esempio, quando determinati aspetti del
fenomeno analizzato si ripresentano in modo simile a periodicità costante, come fenomeni stagionali.

Se la successione degli elementi è ciclica e il passo di campionamento segue una ciclicità simile, la
variabilità del fenomeno studiato sarà fortemente sottostimata e la popolazione non sarà riprodotta
dal campione in modo corretto. Il piano di campionamento sistematico è particolarmente utilizzato
dagli istituti nazionali di statistica e dalle indagini ripetute.

IL CAMPIONAMENTO NON PROBABILISTICO


I campioni non probabilistici non sono costituiti secondo una legge probabilistica definita a priori; pertanto, la
selezione delle unità avviene secondo particolari esigenze conoscitive, criteri soggettivi o caratteristiche
peculiari. Tale campionamento non fornisce a ciascuna unità della popolazione la stessa probabilità di essere
selezionata nel campione: alcuni elementi hanno maggiore probabilità di entrare nel campione stesso per
particolari esigenze soggettive.

Diverse ricerche di marketing vengono ancora oggi svolte mediante metodi di campionamento non
probabilistici, giungendo ad analisi e risultati accettabili. Tali metodi sono spesso utilizzati per indagini relative
a fenomeni particolarmente circoscritti per scarsa applicabilità o per mancanza di condizioni atte a
campionamenti di tipo probabilistico o più semplicemente per la maggiore rapidità di esecuzione e per
ragioni di costo.

Vari metodi possono dare risultati apprezzabili, anche se non sono riconducibili alla teoria statistica dei
campioni e quindi non consentono di misurare la precisione dei risultati. Quelli più frequentemente utilizzati
per le ricerche di marketing sono:

• Campionamento per quote: la popolazione viene suddivisa in gruppi omogenei o classi in base ad
alcune variabili strutturali, come per esempio il sesso, il reddito, la professione, la residenza; il peso
percentuale di queste variabili viene determinato sulla base di fonti adeguate.

Si individua il numero di osservazioni (ottenute per esempio tramite interviste) da raccogliere in ogni
gruppo, le cosiddette quote: coloro che raccolgono i dati (gli intervistatori)i, scelgono il campione
all'interno delle classi, in modo da rispecchiare le porzioni prescelte. All'intervistatore rimane una
totale arbitrarietà di scelta delle unità da intervistare nell'ambito delle quote assegnate con possibili
problemi di scarsa rappresentatività: la scelta delle aziende da inserire in una ricerca sul lancio di una
nuova tipologia di servizi di rete, per esempio, potrebbe venire nell'ambito esclusivo delle relazioni
personali del ricercatore.

Per ridurre la distorsione di questo campionamento sono stati proposti anche dei campionamenti
probabilistici con quote, ma non è ancora stato trovato alcun criterio obiettivo per valutarne la
precisione. Tale metodo di campionamento, tuttavia, rimane il più usato tra i metodi non probabilistici,
in particolare nelle ricerche di marketing e nei sondaggi di opinione per la ragione che garantisce un
ragionevole compromesso fra costi e rappresentatività qualitativa del campione

128
• Campionamento a scelta ragionata: le unità campionarie sono selezionate solo in determinate aree
di analisi sulla base di informazioni preliminari circa la popolazione indagata. È un campionamento
basato sulla conoscenza del carattere oggetto di studio, particolarmente adatto per campioni di
piccole dimensioni.

Il campionamento bilanciato costituisce una tipologia particolare di campionamento a scelta


ragionata, in cui il campione viene selezionato in base a una corrispondenza o approssimazione tra
alcuni parametri del campione (il valore medio o altre caratteristiche stabilite a priori) e quelli della
popolazione

• Campionamento per convenienza: prevede che la selezione degli elementi sia basata
essenzialmente su criteri di convenienza temporale, economica o di altro genere. Appartengono a tale
metodologia il campionamento di volontari o di testimoni privilegiati, utilizzati soprattutto per indagini
su argomenti delicati o su popolazioni di piccole dimensioni.

Queste tecniche di campionamento sono impiegate essenzialmente nell'analisi di fenomeni molto particolari e
circoscritti, spesso solamente nelle fasi preliminari della ricerca, in indagini pilota e ricerche di tipo
esplorativo.

IL CAMPIONAMENTO RIPETUTO – PANEL


Nelle ricerche di marketing un panel rappresenta un campionamento ripetuto, permanente o legato a
occasioni specifiche, costituito dalle medesime unità. La struttura del campione rimane immutata nel corso di
campionamenti successivi, salvo sostituzioni richieste da eventuali esigenze tecniche nei diversi periodi di
tempo.

Con il termine panel intendiamo rilevazioni campionarie condotte periodicamente per la stima e lo
studio di alcune variabili e soprattutto per l'analisi delle loro variazioni nel tempo. Vengono anche
denominati panel longitudinali, essendo condotti utilizzando lo stesso campione o campioni parzialmente
modificati ogni volta.

Questa tipologia di campionamento viene prevalentemente usata per lo studio dell'evoluzione di un


fenomeno nel tempo; in particolare, per rilevare con continuità il flusso degli acquisti e delle vendite di
prodotti durevoli e di largo consumo presso campione di famiglie. Ad esempio, un panel di consumatori è
costituito da un gruppo di persone, rappresentanti di diverse categorie di individui, reclutate per fornire
informazioni in un determinato periodo di tempo.

Nel lungo periodo, però, il campionamento ripetuto presenta problematiche legate all'incompatibilità tra
esigenze di rappresentatività e la presenza di unità fisse. I panel sono rappresentativi per un periodo di tempo
iniziale, ma inevitabili modifiche della popolazione di riferimento ne riducono progressivamente la
rappresentatività, dato che l'attendibilità dei dati rilevati si lega alla capacità di mantenere una stretta
aderenza tra il panel e la popolazione di riferimento.

I panel sulle famiglie finalizzate all'ottenimento di stime di parametri riferiti agli individui, sono ampiamente
diffusi in tutte le nazioni e sono simili tra loro per durata, numero di rilevazioni per ogni panel, periodo di
riferimento. La numerosità dei campioni permanenti è relativamente stabile nei diversi stati e presenta
differenze riferite all'ampiezza delle rispettive popolazioni.

Il panel online, invece, rappresentano una lista di potenziali rispondenti che dichiarano di voler collaborare
alle indagini in modo regolare. Questi panel a volte includono un numero molto elevato di persone che
vengono campionate in occasioni e circostanze diverse. In questo caso i membri del panel. Possono essere
ricampionati, e tipicamente lo sono, per prendere parte a diversi studi e indagini con differenti livelli di
frequenza. I panel online con i contatti potenziali vengono venduti ai diversi istituti di ricerca o, in alcuni casi,
le società dei panel online fanno solo da tramite con collegamenti integrati nel sondaggio ai propri contatti nel
panel in modo da tenere traccia dei partecipanti effettivi all'indagine e della qualità delle risposte, migliorando
la qualità del panel online man mano.

Esistono diversi tipi di panel online e nella gran parte dei casi si tratta di panel non probabilistici in cui il
reclutamento dei membri, il campionamento, la modalità di intervista e i dati raccolti risultano essere poco
129
standardizzati. Escludendo i panel per sondaggi elettorali, i quali presentano caratteristiche diverse, il panel
online utilizzati in ambito manageriale sono:

▪ Panel generale della popolazione: Vengono utilizzati per estrarre campioni specifici in base alle
esigenze dei singoli studi. Si tratta di panel molto grandi, con reclutamenti ampi per includere le
diverse stratificazioni della popolazione e diverse quote anche di sottopopolazioni piccole e difficili da
raggiungere

▪ Panel specializzato: Progettati per consentire lo studio di sottopopolazioni definite da dati


demografici e/o caratteristiche comportamentali. Ad esempio, proprietari di auto elettriche stranieri
residenti in Italia da più generazioni, piccole imprese, medici o professionisti. Possono essere anche
panel B2B, che includono professionisti che lavorano in aziende specifiche, selezionati in base al
ruolo ricoperto in azienda, alle caratteristiche aziendali come dimensioni, settore, numero
dipendenti…

▪ Community panel o panel proprietari: Sono una sottocategoria dei panel specializzati i cui
partecipanti sono dedicati a ricerche per una determinata azienda o per una specifica community.
L'azienda o la community possono stabilire una relazione di lungo termine con un gruppo di
consumatori, clienti di prodotti o servizi offerti dall'azienda, disposti a partecipare alle ricerche
qualitative e quantitative

▪ Panel passivi: Panel online che non vengono utilizzati per sonaggi tramite questionari, ma sono
composti da membri che si rendono disponibili per la raccolta passiva dei dati, monitorando il
comportamento di navigazione in Internet tramite software installati sui diversi device, computer,
tablet, smartphone, o utilizzando altre tecnologie

La dimensione del campione nella ricerca quantitativa di marketing


Nella progettazione di qualsiasi ricerca di marketing quantitativa, la dimensione n (ampiezza) è un aspetto
chiave, in quanto l'accuratezza della stima è direttamente correlata al numero di osservazioni per il fenomeno
oggetto di studio. Definita la popolazione, più il campione è ampio più le stime sono attendibili; allo stesso
tempo, però, aumentano i costi e le difficoltà tecniche e operative per la realizzazione dell'indagine.

L'obiettivo è quello di individuare la strategia e la dimensione del campione ottimali per il raggiungimento
della massima efficienza compatibile con la spesa massima prefissata, oppure individuare la spesa
minima complessiva per conseguire il livello predeterminato di accuratezza e precisione delle stime.

Per determinare la scelta della strategia campionaria e della dimensione del campione ottimali bisogna
effettuare alcune fasi di analisi e di studio. Prima di tutto bisogna specificare la precisione delle stime, ossia il
livello di errore che si è disposti a tollerare, individuando i valori della varianza.

La varianza di uno stimatore diminuisce all'aumentare della dimensione del campione e quindi al crescere dei
costi di rilevazione riferiti alle diverse strategie campionarie. Occorre quindi individuare un equilibrio tra questi
parametri, andando a ridurre il costo complessivo dell'indagine necessario per raggiungere la varianza
specificata dello stimatore, in funzione della dimensione del campione e per le diverse strategie considerate.
Per questo motivo la dimensione del campione è determinata dalla minimizzazione della varianza delle stime
per un dato costo oppure dalla mia imitazione del costo a parità di varianza.

Il caso della media


La media di un carattere in una popolazione è definita come il rapporto tra il totale della caratteristica studiata
e la dimensione della popolazione. Gli stimatori della media si ottengono dividendo un qualsiasi stimatore del
totale per la dimensione della popolazione. In particolare, da uno stimatore corretto del totale si ottiene
stimatore corretto della media, semplicemente dividendo il primo per n.

Per esempio, in un piano di campionamento casuale semplice senza ripetizione, ovvero con probabilità di
estrazione costante per tutti gli elementi, la popolazione lo stimatore del totale corrisponde a:

130
da cui si ricava facilmente lo stimatore della media: pari alla media campionaria.

Inoltre, essendo lo stimatore del totale non distorto, ne consegue che anche lo
stimatore della media è uno stimatore corretto.

È possibile trovare l'espressione dello stimatore corretto della media della popolazione
anche nel caso di un piano di campionamento stratificato. In questo caso lo stimatore della media
corrisponde alla media delle medie campionarie di ogni singolo strato ponderata e con il peso relativo dello
strato h.

Nel campionamento casuale semplice, senza ripetizione, la varianza dello stimatore media campionaria
rappresentata da

La determinazione della dimensione del campione va realizzata in funzione della precisione desiderata delle
stime finali. Utilizzando la simbologia della distribuzione normale dall'equazione si ottiene
che

L'errore di stima è inversamente proporzionale alla radice quadrata del numero di osservazioni del campione:
se la popolazione è finita, l'errore va corretto, includendo la proporzione di casi campionati:

La dimensione minima del campione può essere individuata dopo aver determinato un livello specifico di
significatività α, per cui dipende Z. È un errore campionario che dipende dalla
variabilità del fenomeno misurata con σ. Per individuare la dimensione del campione:

Il numero dei dati n necessari per l'analisi risulta direttamente proporzionale al valore della varianza della
popolazione, e inversamente proporzionale all'errore campionario al quadrato.

Per valutare l'ampiezza campionaria occorre conoscere la varianza della popolazione e l'errore standard
desiderato. Nella pratica viene ipotizzato il valore della varianza e viene determinata l'ampiezza n del
campione che determina il costo dell'indagine, secondo la precisione desiderata. Se tale costo è maggiore di
quello previsto, il valore dell'errore campionario al quadrato aumenta fino a raggiungere la dimensione
campionaria compatibile con il costo preventivato.

Spesso la varianza della popolazione non è nota, ma è possibile averne una stima per formularne una
valutazione da altre indagini, espressa in termini di coefficiente di variazione: è una misura relativa di
variabilità e cogliere la dispersione dei dati in rapporto alla loro media aritmetica.

Il coefficiente di variazione è pari al rapporto tra lo scarto quadratico medio e la media aritmetica stessa:
CV= .

È possibile valutare l'ampiezza campionaria valutando la variabilità della popolazione in termini di coefficiente
di variazione basso, medio o alto e l'errore standard atteso in termini percentuali. Ad esempio, Se si ha una
variabilità media (CV=1) e si desidera un errore standard del 10% si avrà che

Il caso della proporzione


Con il termine proporzione si intende la frequenza relativa o assoluta dell'unità che possiedono il carattere
studiato (ad esempio la valutazione della propensione all'acquisto di un determinato prodotto, ovvero la
proporzione dei consumatori di tale prodotto). Viene utilizzata nelle analisi statistiche quando in caratteri
oggetto dell'indagine sono di tipo qualitativo e non quantitativo.

131
Nel caso della proporzione, lo stimatore corretto secondo un piano di campionamento casuale, semplice,
a
senza ripetizione, corrisponde a: ps= , valutazione in cui a è il numero di unità che soddisfano il carattere.

n
La varianza dello stimatore è pari a:

e, riprendendo la distribuzione normale standardizzata, si ottiene:

di conseguenza, la dimensione del campione corrisponde a:

Si evince che, stabilito un livello di significatività α da cui dipende Z, l’ampiezza n del campione è di nuovo
inversamente proporzionale all’errore.

Il disegno degli esperimenti

Un esperimento è una ricerca condotta sotto condizioni controllate decise dal ricercatore con l'obiettivo di
valutare l'effetto di tali condizioni sui risultati osservabili dell'esperimento stesso.

Con il termine disegno degli esperimenti si intende l'insieme delle procedure che specificano:

1) Le unità test e le procedure di campionamento

2) Le variabili indipendenti

3) Le variabili dipendenti

4) Le modalità di controllo delle variabili estranee

Il concetto di “causalità”
La capacità principale degli esperimenti è quella di cogliere le relazioni di causa effetto fra le diverse variabili.
Per questo motivo la ricerca basata su sperimentazione è spesso definita ricerca causale.

Due caratteristiche sono legate da una relazione di causa effetto, se al variare di una caratteristica
corrisponde a una variazione dell'altra, indipendentemente dalle variazioni dell'ambiente circostante.

Si pensi al tipico problema di determinare l'efficacia di un messaggio pubblicitario. Utilizzando un


esperimento è possibile individuare non solo i fattori che influenzano tale efficacia, ma anche valutarne
l'impatto. Tale obiettivo viene raggiunto manipolando alcune caratteristiche, valutando le corrispondenti
variazioni su altre variabili. Si potrebbe poi suddividere il campione rappresentativo in due gruppi e
sottoponendo a ogni gruppo la visione del messaggio pubblicitario, variando alcune caratteristiche della
comunicazione. Per stabilire se la posizione della pubblicità all’interno di una pausa di programmazione è
determinante, ogni gruppo viene sottoposto alla visione della pubblicità con il messaggio posizionato in
momenti diversi.

La comparazione dei diversi risultati permetterà quindi di ottimizzare l'impatto della causa presa in esame.
Viene individuata quindi l'esistenza di una relazione causa effetto (monodirezionale) tra posizionamento
all'interno del medium ed efficacia pubblicitaria, che va al di là di una semplice associazione di concause.

Le principali tipologie di disegno degli esperimenti


I modelli di disegno sperimentale sono caratterizzati da variabili esplicative, o fattori che assumano numero
limitato di valori, o livelli possibili. I fattori sperimentali costituiscono le variabili indipendenti di cui si vuole
conoscere il rapporto di causalità con alcune variabili dipendenti.

Tali fattori sono individuati a priori dal ricercatore, così come i loro possibili livelli. Un insieme di fattori con i
relativi livelli determina un trattamento, ovvero l'insieme delle condizioni sperimentali sotto le quali avviene

132
una prova. Ci sono tanti trattamenti
quante sono le possibili combinazioni dei
livelli dei fattori sperimentali.

La risposta è rappresentata dal valore


numerico assunto dalla variabile su cui si
concentra analisi I disegni sperimentali
possono essere suddivisi in disegni
classici e disegni statistici. Mentre nei
disegni classici si considera un solo livello
di trattamento della variabile indipendente
alla volta, nei disegni statistici è possibile
testare contemporaneamente l'impatto di
più livelli di trattamento e anche di più
variabili indipendenti.

DISEGNI CLASSICI: Vedono al proprio interno due sottocategorie:

▪ Disegni esplorativi: I quali non prevedono alcun controllo sulle variabili estranee; perciò, la loro
capacità di stabilire relazioni di causalità è abbastanza ridotta. Aiutano a ipotizzare delle relazioni
causali da verificare di seguito, con i disegni sperimentali più robusti. Possono essere:

o Un solo gruppo con post test: La variabile indipendente viene trattata solo su un gruppo e la
variabile dipendente viene misurata solo dopo la manipolazione della variabile indipendente

o Un solo gruppo con pre e post test: per incrementare il controllo su eventuali variabili estranee,
si effettua una misurazione del livello della variabile dipendente prima della manipolazione di
quella indipendente

▪ Veri esperimenti: Affinché il controllo sia maggiore si inseriscono uno o più gruppi di controllo e
l'assegnazione delle unità di analisi ai gruppi viene effettuata in modo casuale. Un gruppo di controllo
è un insieme di soggetti che condividono le stesse caratteristiche del gruppo sperimentale su cui non
viene effettuata alcuna manipolazione della variabile indipendente. Possono essere:

o Due gruppi con post test: Viene misurata la differenza fra la variabile dipendente nel gruppo
sperimentale, dopo che è stata manipolata la variabile indipendente e la stessa variabile nel
gruppo di controllo

o Due gruppi con pre e post test: Come nei disegni esplorativi, anche nei veri esperimenti
possono essere effettuate due misurazioni su entrambi i gruppi ex ante ed ex post

DISEGNI STATISTICI: La misurazione avviene secondo la modalità “solo dopo”, tanto a causa della elevata
complessità sia della fase di rilevazione sia di quella di analisi dei dati, quanto a causa della maggiore
robustezza statistica che permette di ridurre l'enfasi sul confronto pre o post al fine di incrementare il grado di
controllo. I disegni possono essere:

▪ Completamente casuali: Vengono creati n gruppi a seconda di quanti sono i livelli della variabile
indipendente che si vogliono testare, e i soggetti vengono assegnati casualmente ai diversi gruppi

▪ Fattoriali: Vengono utilizzate più variabili indipendenti simultaneamente per verificarne gli effetti sulla
variabile dipendente

Il campionamento nella ricerca qualitatativa


La ricerca qualitativa ha come scopo principale l'approfondimento della conoscenza di un fenomeno senza il
conseguimento di risultati generalizzabili, motivo per cui il problema del campionamento assume tonalità del
tutto differenti. Tuttavia, nella pratica quotidiana del mondo delle ricerche, i termini campionamento e
campione vengono ampiamente utilizzati anche se il loro significato diverso da quello che gli stessi termini
assumono nella ricerca quantitativa.

133
Per “campionamento” nella ricerca qualitativa si intende il processo di selezione e di eventuale
composizione in gruppi dei soggetti e dei fenomeni che si intendono analizzare per pervenire alle
informazioni obiettivo della ricerca, e per “campione” il risultato di questo processo.

Nella ricerca qualitativa un campione è sempre di dimensioni limitate rispetto all'universo del fenomeno da
analizzare. Questo perché l'obiettivo del processo di campionamento non è raggiungere una significatività
statistica, in modo da tenere sotto controllo l'errore campionario, bensì selezionare soggetti o fenomeni che
risultino interessanti dati gli obiettivi della ricerca. Sono questi ultimi a determinare la rilevanza di alcuni
soggetti rispetto ad altri.

La condizione necessaria affinché i soggetti fenomeni possano essere considerati oggetti di analisi è che essi
appartengano alla categoria oggetto di studio. Ad esempio nel caso in cui la Nike voglia disegnare una nuova
linea di scarpe da basket outdoor, è necessario che i soggetti siano praticanti di questo sport.

Questa condizione può risultare banale in quanto auto-esplicativa, ma perde sicuramente questo suo
connotato se il fenomeno analizzare diventa un po’ più complesso e le variabili di selezione iniziano ad
assumere contorni di forte soggettività. Ad esempio, si pensi a una ricerca per analizzare gli atteggiamenti
verso una categoria di prodotto ai fini di riposizionamento di una marca: in tale situazione si potrebbe
effettuare una distinzione tra gli utilizzatori (user) e non utilizzatori (non user); successivamente, però, si
potrebbe ipotizzare che tra gli user esistono atteggiamenti diversi sulla base della maggiore o minore
frequenza d'uso, da cui il problema di stabilire una soglia di categorizzazione degli utilizzatori in “leggeri” e
“pesanti”; oppure gli atteggiamenti potrebbero essere ipotizzati differenti a seconda del grado di competenza
degli utilizzatori.

Più ci si allontana dalla sfera delle variabili oggettive, dunque strutturali, e ci si inoltra nella sfera degli
atteggiamenti e dei comportamenti, tanto più la definizione dell'appartenenza alla categoria oggetto di analisi
perde di auto-evidenza che si manifesta come area problematica di non poco conto.

Alcune metodologie di ricerca qualitativa utilizzate soprattutto ai fini di previsione o identificazione di trend o
scenari futuri fanno ricorso non a soggetti direttamente coinvolti nelle scelte di acquisto e utilizzo dei prodotti,
ma esperti di questi fenomeni. Si può considerare anche questa come una sorta di appartenenza, pur se di
natura indiretta, alla categoria oggetto di studio.

La condizione di appartenenza alla categoria di interesse è una condizione necessaria, ma non sufficiente. Se
infatti la qualità del dato è determinata dalla qualità dei soggetti analizzati, è opportuno che questi godano
anche che alcune caratteristiche attitudinali quali una buona propensione, all'autoanalisi un'elevata capacità
comunicative, buone volontà e capacità relazionali, buona volontà e capacità di ascolto e di confronto,
un'assenza di ritrosia a dialogare con persone che non si conoscono approfonditamente: sono tutte
caratteristiche che permettono alle tecniche di ricerca qualitativa di spiegare più efficacemente il proprio
potenziale di introspezione e di generazione di conoscenza profonda dei fenomeni.

Nella pratica, però, per esigenze di efficienza nei processi di recruitment dei soggetti, queste seconde
caratteristiche non ottengono la considerazione che meriterebbero. Ci si rende conto allora che tali soggetti
potenzialmente interessati per la loro appartenenza alla categoria, non permettono di generare i dati attesi
con la necessità di estendere la fase di raccolta dei dati con ulteriori interviste, focus group oppure
osservazioni.

CAPITOLO 10 – LE RICERCHE PER IL LANCIO DI UN NUOVO PRODOTTO

Struttura e fasi del processo di sviluppo di nuovi prodotti


Le ricerche che esaminano le diverse componenti del processo di sviluppo di nuovi prodotti sono lo studio
delle preferenze dei clienti e della segmentazione, del posizionamento di mercato, delle tecniche di previsione
e delle strategie di lancio, le quali permettono di comprendere meglio in che modo l’informazione di mercato
può essere utilizzata per sviluppare, testare, lanciare e gestire un nuovo prodotto.

134
Il processo di sviluppo di nuovi prodotti implica il ricorso a un ampio spettro di risorse umane, finanziarie e
commerciali, che porta a un aumento dei costi di sviluppo e di progettazione che accompagnano la
realizzazione di un nuovo prodotto. Allo stesso tempo, la necessità di interpretare correttamente i bisogni dei
clienti e di massimizzarne la soddisfazione impone una frequente interazione con il mercato, a cui si
contrappone la pressione competitiva che porterebbe, invece, a minimizzare la durata del processo di
sviluppo di un nuovo prodotto.

Le ricerche di marketing, in questo caso, consentono di agevolare il processo, individuando le modalità


attraverso le quali è possibile massimizzare la soddisfazione dei clienti e minimizzare i costi di progettazione e
produzione e i tempi di commercializzazione.

Le attività che portano le imprese allo sviluppo e alla commercializzazione di nuovi prodotti si articolano in un
processo integrato volto a soddisfare contemporaneamente:

- La massimizzazione della soddisfazione dei clienti

- La riduzione dei tempi della fase di progettazione

- La riduzione dei costi attraverso sistemi di massimizzazione della qualità

Ciò implica la necessità di operare lungo una frontiera di efficienza che garantisca il rispetto di ciascun
requisito nel tentativo di identificare la migliore combinazione fra le numerose possibili.

Il processo di sviluppo di nuovi prodotti è un processo sequenziale, composto da 5 fasi principali:

1. Identificazione delle opportunità e generazione delle idee

2. Sviluppo del concetto

3. Design del prodotto

4. Testing di mercato

5. Lancio

Poiché il tasso di sopravvivenza di nuove idee è molto basso, devono essere generate molte idee di prodotto
per soddisfare gli obiettivi di crescita dell’organizzazione. Dopo una prima fase di selezione e valutazione, le
idee vengono considerate rispetto al sistema di bisogni che soddisfano e al target al quale si riferiscono si
passa così alla specificazione di un concetto di prodotto.

Se tale concetto rispetta o supera una serie di requisiti di mercato ed economici, esso passa alla fase di
design, che include l’engineering e lo sviluppo di prototipi. In seguito, il prodotto può essere sottoposto a test
di mercato e ad altre procedure che consentiranno di valutarne la risposta di mercato e ad altre procedure
che consentiranno di valutarne la risposta di mercato in una fase antecedente la commercializzazione.
Quest’ultima, infine, comprende l’identificazione delle modalità e dei tempi di lancio. È preferibile e più
economico selezionare il prodotto nelle fasi iniziali del processo di sviluppo e, inoltre, nel corso di ogni fase il
prodotto e il relativo posizionamento possono essere migliorati.

Anche se efficace, questo tipo di rappresentazione sequenziale si concentra sulla descrizione di un unico
progetto di sviluppo, trascurando l’interrelazione che può esistere con altri progetti. Ciò è particolarmente
rilevante, poiché la compresenza di molteplici iniziative innovative deve essere monitorata e gestita per
evitare che abbia effetti negativi sulla durata dei singoli progetti. Inoltre, tale visione non considera
l’interattività e la ciclicità che caratterizzano l’attività innovativa.

Nuovi prodotti: le tipologie di innovazioni


Il processo di sviluppo di un nuovo prodotto rappresenta lo strumento attraverso il quale si manifesta l’attività
di generazione dell’innovazione di un’impresa.

135
L’innovazione può essere definita “come un’idea, una pratica, un oggetto che è percepito come nuovo da un
individuo o da un’altra unità di adozione”.

Robertson distingue innovazione continua e discontinua, dove la prima è associata a un cambiamento


marginale nello schema di consumo, mentre la seconda genera un nuovo schema di consumo. In modo
analogo, Hirschman distingue tra innovazione simbolica e tecnologica. La prima introduce nuovi significati,
mentre la seconda aggiunge nuove caratteristiche alla categoria di prodotto.

Nella letteratura di management, Dewan e Dutton focalizzano l’attenzione sul livello di novità incorporato
nell’innovazione. Essi distinguono tra innovazione radicale e innovazione incrementale. Un’innovazione
radicale corrisponde a un cambiamento fondamentale che si esprime in modificazioni rivoluzionarie nella
tecnologia. Un’innovazione incrementale, invece, è un miglioramento o un semplice aggiustamento della
tecnologia esistente.

Tushman e Anferson identificano due tipi di innovazioni tecnologiche in base all’impatto sulle competenze:
innovazioni che distruggono le competenze e innovazioni che estendono le competenze esistenti. Le prime
sono trasformazioni nella tecnologia che rendono obsolete le competenze delle imprese operanti nel settore.
Esse possono determinare l’uscita di imprese esistenti e possono causare la ridefinizione del settore. Invece,
le seconde rappresentano avanzamenti nella tecnologia direttamente connessi alle competenze delle imprese
operanti nel settore.

In modo analogo, Henderson e Clark aggiungono un’ulteriore dimensione a questa rappresentazione,


distinguendo le innovazioni radicali e incrementali dalle innovazioni d’architettura: esse rappresentano nuovi
modi attraverso i quali le diversi componenti di un sistema interagiscono; non riducono direttamente le
competenze do un’impresa che si riferiscono alle varie componenti di prodotto, ma, al contrario, possono
distruggere le competenze relative al modo in cui un sistema di prodotto è assemblato.

Nel marketing le innovazioni sono spesso classificate in


funzione del tipo e del livello di incertezza a esse
associate. L’incertezza può essere riferita a 2 principali
dimensioni: l’incertezza tecnologica e l’incertezza di
mercato. La prima si riferisce all’incertezza relativa al
funzionamento della tecnologia e alla probabilità che una
tecnologia emergente renda obsoleta quella precedente; la
seconda, invece, si riferisce all’imprevedibilità della
domanda futura e alla mancanza di informazioni relative
alla potenziale accettazione di un’innovazione da parte del
mercato.

Il ruolo tipico delle ricerche di marketing p quello di internalizzare il punto di vista del mercato sin dalle prime
fasi dello sviluppo del nuovo prodotto, in modo da anticipare il giudizio dei clienti e ridurre il grado di
incertezza connesso a ogni innovazione.

L’identificazione delle opportunità e la generazione delle idee


La fase di identificazione delle opportunità e di generazione delle idee rappresenta il primo stadio del
processo di sviluppo di un nuovo prodotto, in cui si adottano metodi di ricerca aperti, flessibili e poco
strutturati.

L’obiettivo è individuare un prodotto/soluzione che si ponga all’intersezione del sistema di preferenze del
cliente e delle capacità tecnologiche e organizzative dell’impresa. La ricerca esplora in parallelo opportunità
molteplici: l’errore di non inclusione, ovvero il mancato approfondimento di ipotesi suscettibili di tradursi in
prodotti di successo è un grave errore che potrebbe potare a escludere idee redditizie.

Il principale contributo che la ricerca di marketing offre in questa fase è rappresentato dall’ascolto accurato e
fedele del cliente e dalla successiva traduzione delle sue preferenze nei linguaggi e nei codici più adatti ad

136
alimentare il lavoro del team di sviluppo. Esistono diverse modalità attraverso cui poter raggiungere questo
obiettivo, ma bisogna avere alcune accortezze: in primo luogo, la consapevolezza che le preferenze espresse
sono ancora instabili e suscettibili di ulteriori evoluzioni, anche rilevanti; in secondo luogo, la consapevolezza
che la veridicità con cui le opinioni sono comunicate al team di ricerca può essere filtrata da vincoli di natura
sociale; terzo, una determinata tecnica di indagine può essere percepita coma intrusiva; infine, la voce del
cliente può essere distorta dagli stessi ricercatori e dai loro pregiudizi.

Il contributo dell’esistente: focus group, analisi delle esperienze d’suo, osservazione partecipante,
indagine contestuale
Una pratica molto diffusa, sia nei mercati industriali sia nei mercati di consumo, sono i focus group ideativo-
creativo. Per categorie di prodotti esistenti, la tecnica è estremamente produttiva. Tuttavia, tale tecnica
potrebbe produrre effetti disfunzionali rispetto all’obiettivo, a causa delle norme sociali interne al gruppo, o le
dinamiche di interazione fra i soggetti partecipanti, rendendo l’esplicitazione di particolari categorie di bisogni
complessa.

In alternativa ai focus, molte imprese utilizzano l’analisi delle esperienze d’uso, ovvero a interviste in
profondità condotte su base individuale in cui il cliente è invitato a descrivere la propria esperienza di utilizzo
della classe di prodotto indagata. Nel corso dell’intervista, il ricercatore si preoccupa di indagare le più
comuni e frequenti tipologie di problemi o criticità incontrate dal cliente.

Griffin e Hauser riportano che un numero di interviste tra 10 e 20 riesce a restituire la grande maggioranza dei
bisogni della popolazione di clientela indagata. I colloqui, realizzati nella residenza o nel luogo di lavoro
dell’intervistato, tendono a durare circa un’ora in modo da coinvolgere l’interlocutore senza saturarne la
capacità di attenzione. È utile filmare il colloquio e renderlo fruibile al tema di sviluppo, poiché assume
rilevanza la componente non verbale dell’intervista.

L’osservazione partecipante per identificare le opportunità di sviluppo di nuovi prodotti si basa sul
presupposto che alcuni suggerimenti possano essere colti solo attraverso l’osservazione del cliente
all’interno del suo territorio abituale, di vita e di lavoro.

Questo approccio è adeguato in quei contesti in cui la natura del bisogno indagato è poco definita o di
difficile esplicitazione da parte dello stesso cliente potenziale. La tecnica prevede che il ricercatore si cali
integralmente nell’esperienza d’uso del prodotto da parte dei clienti abituali, studiandola per un tempo
sufficiente a far emergere i possibili inconvenienti e a raccogliere le emozioni a essi correlate, nonché il loro
impatto sul vissuto del cliente.

Un settore che fa largo uso di questo approccio è quello del software, in cui gli acquirenti di un determinato
pacchetto sono sistematicamente osservati dal momento in cui acquistano la confezione, alle fasi successive
di apertura, installazione sul PC e utilizzo del programma. Ogni difficoltà o incertezza viene rilevata e
documentata e costituisce l’input per lo sviluppo e il rilascio delle successive versioni del software.

L’indagine contestuale rappresenta una variazione sul tema della protocol analysis applicata alle situazioni di
acquisto e uso di un prodotto: un componente del team di sviluppo conduce un’intervista in profondità con il
cliente mentre il cliente utilizza concretamente il prodotto. In questo caso, a differenza dell’osservazione
partecipante, l’analista può interrompere l’utente in ogni momento, chiedendogli chiarimenti e spiegazioni sul
perché di determinati comportamenti e azioni.

Alla ricerca delle motivazioni d’acquisto e d’uso: analisi mezzi-fini (laddering), Metaphor Elicitation
Technique
Le tecniche precedenti sono di supporto per identificare quei bisogni che i clienti sono in grado di
autospecificare e di verbalizzare all’intervistatore. L’obiettivo del team di sviluppo, però, cerca di cogliere
anche i bisogni impliciti o non espressi.

Un approccio da utilizzare è rappresentato dall’analisi delle esperienze d’uso. Un ulteriore approccio è


l’analisi delle catene di benefici, la quale parte dal presupposto che la loista di attributi dichiaratamente

137
ricercati in un nuovo prodotto rappresenta la semplice premessa dell’intervista. L’obiettivo è capire perché i
clienti sviluppino questi bisogni. Una formalizzazione di questo approccio è la teoria mezzi-fini di Gutman.

La teoria si concentra sui legami esistenti fra gli attributi di un prodotto (i mezzi), le conseguenze (ovvero i
benefici per il cliente connessi alla presenza di questi attributi) e i valori personali che questi benefici
contribuiscono a rinforzare (i fini).

Secondo l’idea alla base, i clienti ricercano prodotti contenenti attributi che, in funzione di una determinata
catena causale, risultino strumentali all’ottenimento di certi benefici, a loro volta riconducibili a precisi valori
terminali. Il termine laddering definisce la particolare tecnica di intervista in profondità utilizzata per favorire
l’esplicitazione, da parte dell’intervistato, di queste associazioni. La tecnica si fonda su un particolare formato
di interrogazione, che prevede una sequenza convergente di domande del tipo “Perchè questo attributo è
importante per te?”, riferite via via agli attributi iniziali del prodotto, ai benefici e infine agli stessi valori
personali.

Queste reti di associazioni, o ladder (scala in inglese) forniscono al team di sviluppo una visione più ricca e
approfondita delle dimensioni percettive utilizzate dai clienti per raggruppare e categorizzare le differenti
varietà di prodotto interne alla medesima classe, nonché alle sottostanti motivazioni all’acquisto. Tali
informazioni consentono di sviluppare e posizionare il nuovo prodotto in base a una comprensione precisa
delle dimensioni psicologiche sulle quali il suo possesso e uso andranno a impattare.

La tecnica definita metaphor elicitation technique ipotizza che i benefici e i valori connessi agli attributi del
prodotto che guidano il processo decisionale del cliente verso l’acquisto possano essere individuati
attraverso un processo di espressione visuale condotto dal cliente stesso. In particolare, il metodo prevede
che gli stessi partecipanti all’intervista forniscano fotografie e immagini capaci di restituire, anche in
attraverso metafore, i significati e i valori ricercati nel prodotto.

I nuovi metodi web based


Internet permette di comunicare liberamente ai molteplici gruppi di clienti e stabilire fra loro, scambiandosi
reciprocamente esperienze, opinioni e consigli sull’uso di una categoria o di una marca di prodotto; tale
processo genera una mole di suggerimenti e indizi su possibili percorsi per individuare nuove idee di
prodotto.

L’information pump è una nuova tecnica di valutazione della qualità e della coerenza dei commenti offerti
dai partecipanti a focus group condotti online in merito a una possibile idea di nuovo prodotto. La qualità dei
contributi proposti da ciascun partecipante è valutata sia da un giudice esterno all’indagine sia da tutti gli altri
membri del focus group. Il beneficio di tale metodo sta non solo nell’acquisizione di una graduatoria di merito
sulle opinioni e sulle proposte fornite da ciascun partecipante in relazione al nuovo prodotto, ma anche nella
conseguente valutazione della posizione di ciascun partecipante/cliente potenziale.

Internet può fornire anche stimoli per il team di sviluppo di un nuovo prodotto: l’organizzazione di un sito web
in sezioni articolate sulla base di specifiche caratteristiche del prodotto può consentire ai ricercatori,
attraverso l’analisi dei percorsi di navigazione del sito stesso, così come attuati dai clienti potenziali
(clickstream analysis), di definire i fabbisogni informativi e i meccanismi di elaborazione dell’informazione da
parte del cliente, prestando attenzione alle modalità attraverso cui i visitatori del sito ricercano attributi o
caratteristiche non soddisfatti dai prodotti attualmente esistenti.

Dalle idee ai concetti potenziali: il concept testing qualitativo


L’output della fase di identificazione delle opportunità e di generazione delle idee consiste in una lista di
potenziali ipotesi di prodotto che potrebbero essere sviluppate, nel caso in cui soddisfino i requisiti di
redditività richiesti dall’impresa.

Solitamente le idee generate sono molteplici, per questo è necessario effettuare un processo di valutazione e
di screening allo scopo di definire un numero compatibile di soluzioni tecniche da immettere nei processi

138
produttivi dell’impresa. Bisogna capire se lo screening deve essere fatto dal personale interno all’azienda
oppure sottoporre le idee al giudizio del mercato, tramite ricerche di marketing.

Nel secondo caso, le idee devono essere tradotte in concetti di prodotti. I concetti (concept) sono
descrizioni verbali o grafiche delle idee stesse che evidenziano i benefici offerti e le caratteristiche
fondamentali dei potenziali prodotti. Tali descrizioni possono essere sottoposte al giudizio dei potenziali
clienti, tramite il cosiddetto concept test, attraverso test di tipo qualitativo, come focus group o interviste
individuali.

Gli obiettivi informativi del test possono essere molteplici:

• Verificare la compatibilità dei nuovi concetti e le percezioni da parte del target

• Identificare i benefici evocati dai diversi concetti, sia funzionali, sia simbolici

• Identificare il potenziale posizionamento di mercato che i nuovi concetti possono ottenere: nel
caso delle innovazioni incrementali, il posizionamento viene valutato in termini di distanze
percepite rispetto alle offerte dei concorrenti esistenti; nel caso di innovazioni radicali, il
posizionamento viene valutato in riferimento alla categoria di bisogni evocati dai clienti rispetto a
concorrenti appartenenti ad altre categorie merceologiche, per i quali i nuovi concetti si
propongono come prodotti sostituti

• Identificare il posizionamento di prezzo ritenuto adeguato al target

• Verificare il grado di legittimazione che l’impresa ha nel proporre tali innovazioni e la compatibilità
con l’immagine dell’impresa o della marca

• Valutare l’appropriatezza dei nomi da attribuire agli eventuali prodotti, nel caso si abbiano già delle
ipotesi al riguardo

• Valutare il grado di innovatività percepito

• Valutare l’interesse verso i diversi concetti e l’eventuale intenzione d’acquisto: in questo secondo
caso è necessario utilizzare le informazioni con estrema cautela, poiché il concetto di prodotto è
lontano dalla traduzione effettiva in un prodotto posizionato sul mercato

Concluso il concept test qualitativo, l’impresa può valutare quali dei nuovi concetti godono delle potenzialità
maggiori e possono quindi procedere nella fase di sviluppo e quali, invece, sembrano non ottenere
l’approvazione dei clienti potenziali. Il concept test fornisce, generalmente, utili indicazioni sulle aree di
miglioramento.

Dai concetti potenziali al concetto definitivo: lo sviluppo del concetto di prodotto e il concept testing
quantitativo
La ricerca di una frontiera efficiente fra soddisfazione del cliente, time to market e costi di sviluppo e
produzione rappresentano una sfida importante che ogni impresa deve affrontare.

La fase di identificazione delle opportunità e di generazione di idee tende a evidenziare un’ampia gamma di
bisogni che il prodotto in fase di sviluppo è in grado di soddisfare potenzialmente. Parallelamente, è
indispensabile tradurre questi bisogni in un insieme di caratteristiche tecniche capaci di garantire un
adeguato soddisfacimento delle esigenze del cliente, in senso assoluto e in relazione all’offerta della
concorrenza, pur rimanendo coerenti con l’atteso posizionamento di prezzo del prodotto.

Emergono quindi 2 prospettive: dal lato del cliente, il prodotto è un aggregato di attributi e di benefici
derivanti dal suo utilizzo; dal lato del produttore, il prodotto è un insieme di parti e di processi legati al suo
ciclo di produzione.

L’obiettivo di questa fase è quello di valutare i diversi concetti in modo da massimizzare la probabilità di
successo del lancio, cercando, nello stesso tempo, di ridurre i costi di verifica e gli eventuali ritardi nella

139
commercializzazione. Il team di sviluppo si pone di fronte a due strade: operare la valutazione secondo criteri
interni all’azienda o di richiedere il giudizio del mercato.

Nel caso si decida per la prima strada, il metodo della convergenza controllata proposta da Pugh prevede
che ciascun partecipante al team sviluppi una soluzione tecnica teorica al concetto di prodotto selezionato.
Le diverse proposte vengono poi confrontate con uno standard predefintio, e quindi integrate, al fine di
generare un concetto che incorpori gli aspetti migliori di ciascuna proposta.

Vi è poi il concept engineering, sviluppato da Burchill, definito come un processo di supporto alle decisioni
relative alla definizione e al test del concetto di prodotto e basato sull’articolazione delle fasi del processo
decisionale identificate da Mintzberg. Questi metodi si concentrano su valutazioni soggettive e/o liste di
controllo, trascurando il ruolo delle preferenze del mercato circa dimensioni o attributi relativi a estetica e
funzionalità.

Per ovviare a queste limitazioni il team di sviluppo può optare per la seconda strada e richiedere un giudizio
dal mercato. Le ricerche di marketing in questo caso hanno il compito di aiutare a tradurre i benefici espressi
nei diversi concept in una serie di attributi di prodotto atti a fornire quei benefici (detto sviluppo del concetto).
Questa fase si conclude con la stesura di un product brief, ovvero un documento che descrive
analiticamente gli attributi che caratterizzano le diverse configurazione dei nuovi prodotti, utile per lo step
successivo.

La fase di design del prodotto prevede due passaggi: la scelta degli attributi a cui sono ascrivibili le migliori
performance attese di mercato e la trasformazione di detti attributi in caratteristiche tecniche che andranno a
costituire il concetto definitivo e il prototipo del nuovo prodotto.

La scelta delle dimensioni chiave: la conjoint analysis


Durante lo screening dei concetti emergono due fenomeni: da un lato, il permanere di un numero di bisogni
chiave ancora molto elevato; dall’altro, l’intrinseca contraddittorietà che caratterizza molti di tali bisogni. Il
gruppo di sviluppo è chiamato a fornire una risposta definitiva a questa duplice istanza, individuando quegli
attributi capaci di assicurare l’appetibilità del prodotto agli occhi del cliente.

L’obiettivo informativo di questa fase è la misurazione del grado di preferenza dei clienti espresso verso i
diversi concetti potenzialmente realizzabili dall’impresa. L’approccio di ricerca è quello quantitativo, tra cui la
conjoint analysis, largamente utilizzato dalle imprese per raggiungere tale obiettivo.

L’approccio tradizionale
La conjoint analysis (CA) si propone l’obiettivo di spiegare e prevedere le preferenze del cliente nei confronti
di un prodotto, reale o ipotetico. La tecnica presuppone lo sviluppo di vari possibili profili di prodotti
alternativi, ottenuti combinando fra loro i differenti livelli di un predeterminato numero di attributi e
sottoponendo questi profili alla valutazione di un campione di rispondenti rappresentativo della popolazione
di acquirenti target.

Il contributo che i singoli livelli di ogni attributo (utilità parziali) apportano al valore complessivo del bene
(utilità totale) viene stimato in riferimento ai giudizi di preferenza attributi ai singoli concetti dai rispondenti,
sulla base dei propri parametri di valutazione.

Il punto di forza di tale tecnica è rappresentato dal fatto che non viene richiesto alcun giudizio analitico sui
singoli attributi: il contributo dei singoli livelli di ogni attributo viene dedotto, attraverso metodi statistici, dal
giudizio sintetico di preferenza assegnato al prodotto nella sua completezza.

È evidente il livello di realismo della CA, che riproduce in maniera fedele il comportamento di acquisto del
cliente reale, chiamato a scegliere fra un insieme finito di alternative similari concretamente disponibili.

L’input fornito dai rispondenti è quindi un ordinamento dei differenti profili sperimentali in base al gradimento
relativo. Alla componente di data analysis è affidato il compito di provvedere alla stima delle unità parziali
associate a ciascun livello dei differenti attributi, soddisfacendo la condizione che l’utilità derivata di ciascun

140
profilo (cioè l’utilità calcolata come somma delle utilità parziali degli attributi che la compongono) presenti il
minimo scostamento possibile dalle utilità originali fornite dai rispondenti come input dell’analisi.

In molti casi la stima viene effettuata attraverso una semplice analisi di regressione con variabili dicotomiche
(dummy), suscettibili cioè di assumere i valori “0” (assenza del livello ennesimo dell’attributo) e “1” (presenza
del livello ennesimo dell’attributo). Ogni attributo è rappresentato da un numero di variabili dummy pari al
numero dei livelli meno uno.

L’approccio descritto consente un’interpretazione diretta del coefficiente associato a ogni dummy, che risulta
rappresentare l’aumento (o la diminuzione) della preferenza verso il concetto di prodotto indotto dalla
presenza del determinato livello di un dato attributo rispetto al livello assunto come valore di riferimento.
Diviene immediata la derivazione dell’importanza di un attributo, che viene calcolata come differenza tra la
preferenza massima e la preferenza minima fatta registrare dai livelli dell’attributo stesso: un attributo i cui
livelli presentano la medesima utilità è un attributo poco importante, in quanto privo di impatto sul gradimento
complessivo del concetto di prodotto soggetto di indagine.

Calcolati i punteggi di utilità connessi ai differenti livelli degli attributi, e da questi dedotta l’importanza degli
attributi stessi, è possibile individuare la combinazione ottimale di livelli che è suscettibile di determinare il
maggiore gradimento da parte dei clienti.

Ridurre la fatica dei rispondenti: l’hybrid conjoint e l’adaptive conjoint


Uno snodo fondamentale nel processo di realizzazione di una CA è individuabile nella fase di costruzione del
disegno sperimentale: se da un lato è infatti necessario prevedere un numero di attributi sufficientemente
ampio da garantire un appropriato grado di realismo alla ricerca, dall’latro è indispensabile mantenere il
numero di profili al di sotto della soglia oltre la quale la fatica e la conseguente disattenzione renderebbero
inutilizzabili i risultati dell’intervista.

Esistono quindi due tecniche che possono aiutare: l’hybrid conjoint analysis e l’adaptive conjoint.

L’hybrid conjoint analysis combina la tecnica di valutazione dei profili completa con una valutazione
esplicita dei singoli livelli di ciascun attributo da parte dei rispondenti. La stima dei parametri avviene
combinando opportunamente i due insiemi di dati.

L’adaptive conjoint analysis prevede che la somministrazione degli stimoli sperimentali, assistita da computer,
non segua uno schema prefissato, ma è influenzata in modo dinamico dalle risposte fornite dal rispondente al
sistema. L’intervista inizia con una serie di valutazioni esplicite dei livelli degli attributi considerati e prosegue
con una successione di confronti fra coppie di profili, all’interno delle quali i livelli degli attributi risultano
manipolati in modo da massimizzare, a ogni somministrazione successiva, la quantità di informazione
ottenuta da ogni risposta.

Conjoint analysis e web: le sinergie possibili


Nell’ambito delle differenti alternative metodologiche a disposizione del ricercatore che sviluppa una CA,
bisogna capire la modalità di presentazione degli stimoli sperimentali ai soggetti rispondenti. Si distinguono 2
approcci:

1. La descrizione verbale, che può prevedere l’utilizzo di schede in cui sono sinteticamente riportati gli
attributi che caratterizzano lo stimolo e i loro rispettivi livelli, oppure una descrizione più estensiva, di
taglio narrativo, del prodotto e delle sue caratteristiche

2. La rappresentazione visiva, basata su disegni o fotografie del prodotto, quando non su modelli
tridimensionali. In questo caso è possibile utilizzare il prodotto reale, costruito in diverse varianti, in
modo da contemplare le differenti combinazioni di attributi scaturite dal disegno sperimentale alla
base della ricerca

La rappresentazione visiva è quella che fornisce significativi vantaggi:

141
- una sensibile riduzione del sovraccarico informativo, in quanto il rispondente non è chiamato a
leggere e successivamente a reinterpretare visivamente un’elevata quantità di attributi

- una maggiore omogeneità delle risposte relative alla percezione di attributi estetici

- un maggiore interesse del rispondente nei confronti del compito, con una conseguente diminuzione
dell’effetto fatica

- un elevato livello di realismo della scelta l’obiettivo di una CA è quello di riprodurre, o comunque di
approssimare con un elevato livello di precisione, il compito di scelta che il cliente è chiamato a
eseguire nella vita reale. Le decisioni non si basano su descrizioni verbali, ma sul confronto tra
immagini differenti prodotti

La possibilità di utilizzare Internet come strumento di trasferimento capillare e a basso costo di immagini e
informazioni relative a un prodotto costituisce uno dei principali motivi che rendono così promettente l’uso ai
fini commerciali del web.

Dal concept al prototipo: il design del prodotto e il QFD


Il passaggio successivo alla selezione dei profili di prodotto che maggiormente raccolgono le preferenze dei
clienti potenziali è quello di trasformare gli attributi costitutivi dei profili in una serie di caratteristiche tecniche
configurate in prototipi di prodotto, assicurando la compatibilità fra le tre esigenze della soddisfazione del
cliente, del time to market e del contenimento dei costi di sviluppo e produzione. Questa è la tipica fase del
design di prodotto.

L’approccio value engineering è un insieme di tecniche e di valutazioni, svolte in fase di progettazione, che
hanno lo scopo di ridurre i costi di realizzazione dell’opera. Tale approccio coinvolge sia le soluzioni
progettuali sia le scelte dei materiali e procede attraverso un’analisi interdisciplinare fondata sul confronto fra
soluzioni alternative.

Il concetto guida è individuato nel mantenimento di una relazione costante fra l’importanza che i clienti
annettono a ogni funzione del prodotto e i costi dei componenti che contribuiscono allo svolgimento di tali
funzioni: il costo marginale di ogni componente deve essere proporzionale al contributo offerto in chiave di
costruzione di valore per il cliente. Mettendo in risalto le caratteristiche del valore, tale approccio può
consentire il soddisfacimento dei requisiti del cliente al più basso costo possibile e, di conseguenza, una
maggiore capacità competitiva.

Per realizzare tale approccio, il team di sviluppo deve conoscere:

1. il valore attribuito dai clienti a ogni funzione

2. il costo dei componenti e del processo di produzione necessari per ottenere queste funzioni

Uno degli strumenti più diffusi per aggregare queste dimensioni in un unico flusso logico è rappresentato dal
Quality Function Deployment (QFD), un team di procedure di pianificazione e comunicazione che trovano
nelle matrici della House of Quality (HOQ) la traduzione più efficace. La HOQ è uno strumento logico che
riesce a costituire una sorta di mappa concettuale attraverso cui realizzare un’efficace collaborazione fra le
risorse umane operanti all’interno delle funzioni marketing, progettazione e produzione.

La mappa parte da una lista dettagliata dei benefici attesi (1) dei clienti nei confronti del prodotto, espressi in
termini più vicini all’esperienza diretta di clienti stessi, nonché una loro valutazione in termini di importanza
relativa, derivante dall’applicazione della CA. Tali benefici devono essere tradotti in un linguaggio tecnico,
basato su caratteristiche tecnologiche e proprietà fisiche misurabili.

Il passo successivo è rappresentato dall’elencazione di quelle caratteristiche tecniche (2) suscettibili di


influenzare, in positivo o in negativo, le percezioni del cliente. La matrice così ottenuta presenta in riga i
benefici attesi dal cliente e in colonna le caratteristiche tecniche sottostanti. Successivamente bisogna
indicare la misura in cui ogni caratteristica tecnica (3) influenza ciascun attributo o beneficio al cliente,

142
valorizzando le corrispondenti celle con un numero
capace di esprimere a colpo d’occhio l’intensità della
relazione.

La matrice triangolare che costituisce il tetto della HOQ (4)


rappresenta l’elemento che consente al team di
produzione di esplicitare le ricadute e gli effetti collaterali
riconducibili a ciascuna delle soluzioni ingegneristiche
proposte.

L’analisi, che fino a questo punto si è concentrata


all’interno dell’impresa, si sposta ora all’esterno: il
successivo stato di avanzamento è quello di (5)
confrontare la capacità interna di soddisfare i bisogni del
cliente con l’offerta dei concorrenti, realizzando un’analisi
obiettiva dei rispettivi posizionamenti.

Simmetriche, la definizione dei livelli obiettivo interni (6) per ciascuna delle caratteristiche tecniche
precedentemente rilevate consente, da un lato, di definire standard puntuali per le procedure interne di
controllo di qualità e, dall’altro, di confrontare questi livelli con quelli assicurati dai prodotti concorrenti (7).

Infine, il costo di implementazione (8) di ciascuna caratteristica tecnica è inserito nel modello, in modo da
confrontare l’efficienza dei propri processi produttivi con quelli della concorrenza.

Possiamo includere affermando che la HOQ è un mezzo di comunicazione e di interazione fra le componenti
marketing e ricerche e sviluppo interne al gruppo di sviluppo del nuovo prodotto.

Dal prototipo al prodotto: il product testing


La fase precedente si conclude con la realizzazione di uno o più prototipi di prodotto, e quindi anche con la
definizione dei relativi processi produttivi. A questo punto, il team di prodotto può valutare e selezionare tali
prototipi per la produzione definitiva e il lancio nel mercato, sulla base della migliore performance attesa.

È necessario sviluppare e testare molteplici prototipi per ottenere ulteriori informazioni non basate
esclusivamente sugli attributi di prodotto. Ovviamente, lo sviluppo e il test di molteplici prototipi aumentano i
costi di sviluppo, ma garantiscono una maggiore flessibilità, indispensabile per rispondere alle variazioni della
tecnologia e alle mutazioni delle preferenze del mercato.

Anche in questo, le ricerche di marketing prevedono una serie di tecniche di testing volte a stabilire se
proseguire o meno con lo sviluppo del nuovo prodotto e quali miglioramenti apportare.

Il product test: i metodi tradizionali


Il product test serve a misurare la capacità dell’impresa di trasformare i concetti che hanno ottenuto le
preferenze dei clienti potenziali in prodotti effettivi.

La motivazione alla base di un product test è quindi quella di ricreare una situazione il più possibile vicina alla
realtà di utilizzo del prodotto, in modo da verificare 2 obiettivi:

- Le caratteristiche del prodotto vengono realmente percepite come innovative e distintive rispetto alle
altre offerte presenti nel mercato?

- Tali caratteristiche sono in grado di creare una preferenza, e di conseguenza l’intenzione d’acquisto,
del target?

Il product test si configura come un esperimento e quindi come una ricerca quantitativa. Il disegno
dell’esperimento prevede una scelta rispetto alle seguenti dimensioni:

143
• Gli attributi da testare occorre decidere se controllare l’intero prototipo o solo alcuni attributi. Ad
esempio, di un profumo, si potrebbe testare solo l’essenza o il prototipo nel suo complesso, come la
forma e il design della confezione

• I livelli di analisi riguarda il solo prototipo oppure anche il nome o la marca con cui lo si vorrebbe
lanciare. Nel primo caso (blind test) le informazioni ricercate vertono esclusivamente sul prodotto
fisico, mentre nel secondo caso (branded test) si è interessati anche a verificare le influenze del nome
o della marca sull’innovatività percepita o sulle preferenze. Esiste anche l’opzione del mixed test, che
fornisce informazioni più ricche, in quanto l’eventuale divergenza di risultati fra il blind e il branded test
genera informazioni sulla capacità della marca di rafforzare o diminuire le potenzialità innovative del
prodotto

• La natura del test si presenta differenziata a seconda che il prototipo venga testato da solo, nel
caso si parla di test monodico, oppure sia posto a confronto con altri prodotti esistenti, mediante test
comparativo: nel primo, l’obiettivo informativo è l’accettazione e il gradimento del prodotto testato; nel
secondo si è interessati maggiormente alla differenziazione percepita. Le due tipologie presentano
vantaggi e svantaggi. Infatti, il monadico permette ai partecipanti di focalizzare maggiormente
l’attenzione sul prodotto, fornendo indicazioni più precise e utili per il suo miglioramento tecnico; il
comparativo, al contrario, spinge le persone a mettere in risalto le differenze, anche se non sono così
rilevanti
• La lunghezza del tempo di sperimentazione distingue i test in use e instant. Nei primi, il prototipo di
prodotto viene lasciato in uso ai partecipanti al test per un certo periodo di tempo, finito il quale si
procede a rilevare i dati obiettivo della ricerca. Nei secondi si chiede di utilizzare il prodotto nel
momento stesso del test. La scelta tra le due tipologie deve essere fatta sulla base della maggiore
vicinanza alla situazione reale di utilizzo; per questo motivo, quando la fruizione del prodotto implica
un minimo periodo di apprendimento, quando è necessario un tempo lungo per verificare l'efficacia
del prodotto, quando le specificità delle condizioni di contesto di uso influenza l'efficacia del prodotto,
è da preferire il test in use

• Il campione la scelta ricade fra un campione ad hoc e un panel. Il primo caso prevede che per ogni
product test venga selezionato un campione di individui sulla base di certi criteri, generalmente
l'appartenenza al target potenziale di utilizzo del prodotto. Nel secondo caso, l'impresa seleziona un
panel di soggetti deputato a testare ogni nuovo prototipo che si intende lanciare.

Il vantaggio del primo metodo risiede nelle caratteristiche dei partecipanti, selezionati proprio in base
all'appartenenza al target punto il secondo metodo, invece, sfrutta le maggiori capacità di analisi che i
partecipanti al panel sviluppano, proprio in funzione del sistematico coinvolgimento in test di prototipi.
Inoltre, nel caso di imprese che testano sistematicamente nuovi prodotti, il panel gode di maggiori
vantaggi in termini di costi e organizzativi e di coordinamento

• Il luogo può essere l'effettivo luogo dove l'utilizzo del prodotto avverrà una volta lanciato sul
mercato solitamente denominato in house (la casa del cliente oppure il luogo del lavoro) oppure in
laboratorio in cui viene ricreato il luogo precedente

I nuovi approcci: Internet based product testing e Information Acceleration


Al fine di favorire il test simultaneo di molteplici prototipi, Urban, Weinberg e Hauser hanno sviluppato un
metodo di previsione del successo di nuovi prodotti detto Information Acceleration, che alla presentazione
virtuale del prodotto associa un'esperienza d'acquisto virtuale. Tale approccio permette di prevedere la
risposta di mercato all'introduzione di innovazioni radicali, poiché queste ultime provocano una modificazione
della struttura del mercato e, spesso, determinano l'insorgere di costi di apprendimento e sostituzione per i
clienti.

per questa ragione, le attività di previsione a esse relative devono tenere conto del processo di diffusione
dell'informazione, dell'evoluzione della tecnologia, dell'emergere di nuovi usi, della crescita delle eventuali
infrastrutture e dell'ingresso di nuovi concorrenti. Nel loro studio iniziale, gli autori hanno cercato di ricreare le
condizioni in cui i potenziali acquirenti si trovavano a operare quando un nuovo prodotto viene
commercializzato. In particolare, essi hanno presentato ai partecipanti alla ricerca uno scenario futuro che
descrivesse condizioni di lancio più realistiche. Successivamente, hanno cercato di fornire un livello di
informazione completa circa il prodotto, tentando poi di simulare l'esperienza di guida. Infine, hanno offerto ai
partecipanti la possibilità di raccogliere autonomamente ulteriori informazioni. Al termine di questa esperienza
144
di acquisto si sono misurate le intenzioni all'acquisto e le preferenze di ciascuno, che hanno determinato una
stima del potenziale di vendita del concetto. Seppur molto utile, l'information acceleration presenta alti costi
di implementazione e verifica dei prototipi, richiedendo un elevato volume di informazioni per l'attivazione
della simulazione di acquisto.Il world wide web consente di facilitare il processo di selezione e identificazione
del prototipo. Il ricorso a nuove tecnologie disponibili sulla rete, infatti, consente di migliorare l'esperienza
degli utilizzatori, grazie a una maggior livello di interattività e di ricchezza nella modalità di presentazione degli
stimoli.

Dahar e Srinivasan hanno sviluppato un metodo per testare molteplici prototipi sulla rete. Esso consente di
esaminare il comportamento dei partecipanti, chiamati a identificare e acquistare il prototipo virtuale preferito
al variare del prezzo. tale metodo consente di ridurre notevolmente i costi di realizzazione di test del
prototipo, nonché i costi di accesso ai partecipanti alla ricerca. Inoltre, la disponibilità di tecnologia capaci di
stimolare più sensi permette di raccogliere informazioni più affidabili. Infine, il ricorso alla rete offre la
possibilità di testare parallelamente molteplici prototipi, garantendo così la riduzione dei costi di
progettazione e la massimizzazione della flessibilità del progetto.

Dal prototipo al prodotto: i pre-test, i test di mercato e la previsione delle vendite


Dal momento che il processo di sviluppo dei nuovi prodotti è finanziariamente oneroso e di esito incerto, la
fase di selezione del prototipo può essere sfruttata anche per effettuare valutazioni sul potenziale di mercato
delle varie alternative da sottoporre a test.

Fra gli strumenti che consentono di controllare e ridurre i rischi connessi al processo di sviluppo, la stima
delle vendite future o previsione delle vendite è uno dei più importanti. Questo valore indica qual è la
risposta attesa del mercato e come quest'ultimo reagirà all'eventuale lancio di un nuovo prodotto. Nelle fasi
iniziali del processo le previsioni delle vendite future permettono di decidere se sia opportuno perseguire
un'idea o se invece sia meglio abbandonarla. Inoltre, le previsioni delle vendite rappresentano un importante
strumento di supporto alle decisioni e le stime da esse fornite facilitano il processo decisionale che precede
l'eventuale commercializzazione del prodotto, fornendo un valido contributo alla pianificazione sia delle
attività di marketing sia della strategia di ingresso.

Nella fase iniziale del processo di sviluppo di nuovi prodotti, spesso la previsione delle vendite è una stima
grezza basata sull’estrapolazione delle semplici intenzioni all'acquisto. Nelle fasi successive, invece,
aumentando gli investimenti la stima delle vendite future tende a essere un valore ben più accurato. Si
sottopone a test l'intero marketing mix con cui l'impresa intende lanciare il nuovo prodotto nel mercato. A tal
proposito sono utilizzati diversi strumenti che differiscono sulla base di tre variabili:

1. Metodi di raccolta dei dati: test di mercato, pre-test o test di mercato simulati, test elettronici

2. Tipo di mercati o prodotti esaminati: prodotti durevoli, di largo consumo, beni industriali

3. esame e manipolazione delle variabili di marketing mix

Al fine di prevedere le vendite e di definire la strategia di lancio di un nuovo prodotto la soluzione tradizionale
prevede l'utilizzo dei cosiddetti test di mercato. Tali test consistono nel lancio del prodotto per un periodo di
tempo limitato (nell'intero mercato di riferimento o solo in alcuni canali distributivi o in un'area geografica
circoscritta) allo scopo di ottenere una risposta dal mercato sulla coerenza dell'intero marketing mix.

In genere, durante il periodo di test ed esclusivamente nell'area in cui il test viene effettuato, l'impresa agisce
come se il prodotto fosse stato effettivamente lanciato: viene apposto il prezzo ritenuto adeguato, vengono
selezionati i canali considerati più idonei, viene effettuata la comunicazione tramite i mezzi stabiliti. I clienti
che acquisteranno il prodotto non avranno alcuna percezione del fatto che si tratti di un test e i dati raccolti,
dunque, saranno estremamente affidabili, in quanto rilevati in una situazione competitiva effettiva. L'unica
distorsione potrebbe essere provocata dai concorrenti, i quali, venendo a conoscenza del fatto che il nuovo
prodotto è sottoposto a test, potrebbero innescare azioni di disturbo influenzando il manifestarsi delle
preferenze dei clienti potenziali.

145
Inoltre, l’impiego dei test di mercato presenta costi molto elevati, soggetti ad aumentare con la durata degli
stessi: test molto lunghi non solo implicano elevati costi opportunità, ma accrescono il rischio di imitazione
da parte dei concorrenti.

I pre-test: le alternative metodologiche


I pre-test forniscono informazioni circa la risposta del mercato, le quali, tuttavia, giungono solo nella fase più
avanzata del processo di sviluppo di nuovi prodotti. Per anticipare il reperimento di tali informazioni vengono
solitamente utilizzati modelli di mercato simulati, capaci di fornire previsioni di vendita sulla base di dati
raccolti in contesti di acquisto e di utilizzo non reali ma simulati in laboratorio; per questo motivo, essi
vengono fatti ricadere nella categoria dei laboratory test market (LTM).

L’obiettivo di un pre test di mercato è quello di rilevare l’intenzione di prova e il riacquisto di un target di
mercato rispetto un bene commercializzato secondo un preciso piano di marketing.

Per l’effettuazione del test, nel caso di beni di consumo il laboratorio prevede le seguenti infrastrutture:

- una cosiddetta “area teatrale”, in cui partecipanti al testo vengono esposti a messaggi pubblicitari
televisivi, articoli di giornali, presentazioni della forza di vendita, tra i quali compaiono anche quelli
relativi al nuovo prodotto da testare

- un “supermercato di laboratorio”, in cui i consumatori vengono stimolati ad agire come se fossero in


un reale supermercato, e quindi a procedere alle normali operazioni di confronto e di scelta dei
prodotti in assortimento, assortimento che prevede la presenza del nuovo prodotto

- uno o più casse, che fungono da postazioni di controllo, in cui i consumatori possono pagare gli
acquisti eventualmente fatti

- Alcune sale riunioni, dove i consumatori vengono eventualmente intervistati sulle motivazioni alla base
delle loro scelte

In un tipico pre test, ai potenziali clienti vengono mostrati nell’aria teatrale i messaggi comunicativi, viene poi
dato loro un certo ammontare di denaro con cui effettuare gli eventuali acquisti nel supermercato e al
momento del pagamento alla cassa viene rilevato il loro paniere di beni acquistati.

I test forniscono, quindi, una stima della percentuale di consumatori, i quali consapevoli dell’esistenza del
prodotto, lo acquisteranno, e una stima della percentuale di clienti che, una volta provato il prodotto, lo
riacquisteranno, date una certa campagna di comunicazione, confezione e così via.

Tra gli strumenti utilizzati per condurre pre-test di mercato e analizzare i dati che ne derivano si ricordano
BASES e ASSESSOR.

BASES comprende strumenti atti a testare sia nuove idee prima che assumono forma fisica, sia idee relative
a trasformazione di prodotti già esistenti. Il processo di ricerca seguito da BASES II ha inizio in centri
commerciali all’interno dei quali vengono selezionati i partecipanti. Successivamente il nuovo prototipo viene
sottoposto ai partecipanti, che dovranno indicare il livello di gradimento, le percezioni del valore a esso
associate e le relative intenzioni di acquisto. Dopo aver acconsentito ad utilizzare il bene per un certo
intervallo di tempo, i consumatori vengono contattati per verificare le loro impressioni e le loro intenzioni di
riacquisto. Questi dati sono poi impiegati per prevedere il tasso di prova e di riacquisto nel primo anno di
commercializzazione, l’intervallo medio di riacquisto, l’unità media di prova e dire acquisto e il volume diventa
la fine del primo anno.

ASSESSOR, invece, usa dati raccolti in punti di vendita simulati, a cui si aggiungono dati ottenuti tramite
sondaggi telefoni rivolti a coloro che hanno acquistato il bene di situazione di acquisto simulata. Più
specificatamente, durante un tipico test, i partecipanti vengono prima condotti in un luogo in cui viene loro
mostrato lo spot pubblicitario della nuova marca esaminata. Essi sono poi accompagnati in un punto vendita
fittizio, dove sono esposti sia la nuova marca sia le marche concorrenti. Ai partecipanti viene quindi offerto
una certa quantità di denaro con la quale possono acquistare o meno i prodotti disponibili. Dopo due

146
settimane, coloro che hanno effettuato l’acquisto vengono contattati e viene offerta loro la possibilità di
ripetere l’acquisto.

Questo modello utilizza 2 modelli: un modello di prova e di riacquisto e un modello di preferenza. Le due
stime dovrebbero essere equivalente; qualora non lo fossero, ASSESSOR tenta di riconciliare i dati al fine di
favorirne la convergenza.

I vantaggi dei pre-test di mercato sono:

- Permettono di ridurre i costi di sviluppo e di introduzione di nuovi prodotti

- Forniscono dati in tempi relativamente brevi e diagnostiche che consentono di migliorare il concetto di
prodotto e il piano di marketing

- Garantiscono maggiore riservatezza, minimizzando le interferenze

Presentano anche delle limitazioni:

- Non forniscono indicazioni circa le modalità di attuazione delle decisioni di marketing

- Non tengono conto delle reazioni della concorrenza

- Per la stima di alcuni parametri ricorrono a giudizi che possono basarsi su competenze non disponibili
all’interno dell’organizzazione

- Hanno luogo in ambienti controllati, quindi presentano gradi di realismo limitati

- Sono scarsamente adatti all’esame di estensioni della linea di prodotto e al caso di innovazioni radicali

Per reperire più velocemente le informazioni, si sono sviluppati i test di mercato elettronici, effettuati da
società di ricerca di mercato in città selezionate, su un panel ben identificato, il cui comportamento
d’acquisto viene registrato attraverso i sistemi elettronici dei punti vendita e la cui esposizione pubblicitaria
viene manipolata e monitorata.

I test di mercato e i metodi elettronici di raccolta dati soddisfano 2 ordini di esigenze. In primo luogo,
consentono di raccogliere informazioni evitando di modificare le condizioni di acquisto, aumentando il grado
di precisione dell’informazione e riducendo i rischi di scarsa partecipazione alla rilevazione dei consumatori.
In secondo luogo, consentono di specificare i panel in funzione delle loro caratteristiche.

I modelli di previsione delle vendite dei nuovi prodotti


I modelli per la previsione delle vendite di nuovi prodotti su test di mercato possono essere distinti in due
categorie: quelli relativi a prodotti caratterizzati da un breve intervallo di riacquisto, definiti modelli di prova e
di riacquisto, e quelli relativi a prodotti durevoli, definiti modelli di diffusione.

Nel primo caso il modello tiene conto sia del tasso di prova di un nuovo prodotto, sia del tasso di riacquisto;
mentre nel secondo caso la previsione di vendita considera solo l’adozione del nuovo prodotto. Nella
modellizzazione delle vendite di nuovi prodotti di largo consumo è consuetudine dividere le vendite totali
in 2 componenti: la componente cosiddetta di prova e la componente di riacquisto. I dati di vendita aggregati
possono, infatti, corrispondere a situazioni completamente diverse.

I modelli di prova tentano di prevedere il grado di penetrazione di un nuovo prodotto entro una certa data,
dove il grado di penetrazione è definito come la percentuale di partecipanti a un panel che hanno provato
almeno 1 volta il prodotto. Tale stima viene elaborata utilizzando serie storiche relative al numero di prove alla
fine di ciascun’unità di tempo.

Esistono 2 approcci possibili che permettono di stimare il tasso di prova di un nuovo prodotto. Il primo si
fonda sullo studio della probabilità che un consumatore i posticipi il proprio acquisto fino al tempo t facendo
ricorso a una delle diverse distribuzioni di probabilità, mentre il secondo non richiede la specificazione di una
forma funzionale, ma si basa sulla selezione di una curva capace di rappresentare i dati aggregati.

147
Al fine di comprendere, invece, la dinamica sottostante al processo di riacquisto, si tenta di decomporre le
vendite in primo riacquisto, secondo riacquisto, … Sulla base di questo, si cerca di modellizzare il passaggio
di ciascun consumatore da una classe di riacquisto a un’altra, creando così dei modelli detti di intensità di
riacquisto, in cui il grado di profondità del riacquisto è definito come la proporzione dei consumatori che
hanno ripetuto l’acquisto a un tempo t avendo precedentemente riacquistato in t-1.

L’obiettivo dei modelli di prova e di riacquisto è quello di stimare il livello di penetrazione di un nuovo
prodotto a un tempo t. Tale livello dipende dalla risposta alle variabili di marketing, anche se tutti questi
modelli tendono a non considerarle.

Un altro punto di debolezza di questa categoria di modelli è rappresentato dalla loro scarsa considerazione
per l’interdipendenza tra gli acquisti di ciascun individuo. Infatti, essi assumono che la probabilità di
riacquisto non vari al variare della fase di riacquisto, vale a dire che la probabilità di riacquistare dopo un
certo intervallo sia la stessa nel caso in cui il precedente riacquisto sia stato effettuato all’inizio del periodo di
osservazione o alla fine.

Nel caso dei nuovi prodotti caratterizzati da intervalli di riacquisto lunghi, la ricerca si è concentrata sullo
sviluppo dei modelli di diffusione, capaci di rappresentare le modalità e i tempi con cui un prodotto si
diffonde in un mercato.

Il più diffuso tra questi è quello proposto da Bass. Esso assume che l’adozione di un nuovo prodotto sia
realizzata prima da pochi innovatori in grado di attivare un processo di passaparola, e quindi di influenzare il
resto del mercato, e poi da imitatori che adottano su stimolo dei precedenti. Il modello esprime la probabilità
condizionata di adozione al tempo t come una funzione lineare della proporzione di popolazione che ha già
adottato:

Dove

- f(t) è la funzione di densità dell’adozione al tempo t

- F(t) è la frazione cumulata degli adottanti al tempo t

- Il coefficiente p (coefficiente di innovazione o di influenza esterna) non dipende dal numero di soggetti
che hanno adottato in precedenza e riflette la propensione all’adozione di ciascuno,
indipendentemente dalle influenze sociali

- Il coefficiente q (coefficiente di imitazione o di influenza interna), invece, definisce in che misura la


probabilità di adozione dipende dal numero di precedenti adozioni

Il modello di Bass può essere espresso anche come:

dove:

- n(t) rappresenta la somma di coloro che hanno adottato al tempo t

- dN(t)/dt rappresenta il tasso di diffusione del nuovo prodotto al tempo t

- N(t) è il numero degli acquirenti del prodotto al tempo t

- M rappresenta il numero degli acquirenti potenziali

- La prima parte dell’equazione indica il numero di adozioni che dipendono dall’influenza esterna, la
seconda indica quello dovuto all’influenza interna

I diversi modelli che hanno seguito il modello di Bass sono caratterizzati:

- Dal ricorso a dati aggregati in cui l’esame del processo decisionale che sottende l’adozione
dell’innovazione viene trascurato

148
- Dall’ipotesi di indipendenza fra le innovazioni, la quale assume che non ci siano effetto sostituzione e
complementarietà fra queste ultime

- Dalla costanza del mercato potenziale nel tempo

- Dall’irrilevanza delle variabili di marketing mix nel favorire il processo di diffusione

- Dall’assenza di considerazione per le caratteristiche dell’innovazione e del mercato

149

Potrebbero piacerti anche