Sei sulla pagina 1di 335

M A

Vincenzo Cosenza
© Apogeo - IF - Idee editoriali Feltrinelli s.r.l.
Socio Unico Giangiacomo Feltrinelli Editore s.r.l.

ISBN ebook: 9788850319084

Il presente file può essere usato esclusivamente per finalità di carattere


personale. Tutti i contenuti sono protetti dalla Legge sul diritto d’autore.

Nomi e marchi citati nel testo sono generalmente depositati o registrati dalle
rispettive case produttrici.

L’edizione cartacea è in vendita nelle migliori librerie.

Sito web: www.apogeonline.com

Scopri le novità di Apogeo su Facebook

Seguici su Twitter

Collegati con noi su LinkedIn

Guarda cosa stiamo facendo su Instagram

Rimani aggiornato iscrivendoti alla nostra newsletter

Sai che ora facciamo anche CORSI? Dai un’occhiata al calendario.


A Emanuela e a Teresa

È vero che il software non potrebbe esercitare i poteri della sua


leggerezza se non mediante la pesantezza del hardware; ma è il
software che comanda, che agisce sul mondo esterno e sulle macchine,
le quali esistono solo in funzione del software, si evolvono in modo
d’elaborare programmi sempre più complessi.
- Italo Calvino, Lezioni americane, 1988

Because the purpose of business is to create a customer, the business


enterprise has two, and only two, basic functions: marketing and
innovation. Marketing and innovation produce results; all the rest are
costs. Marketing is the distinguishing, unique function of the business.
- Peter Drucker, 1954
Introduzione
La tecnologia è la forza che più di ogni altra ha cambiato le nostre
vite recenti. Ha trasformato la quotidianità dei singoli, l’agire sociale e
il modo di operare delle organizzazioni.
A dire il vero, la téchne ha sempre puntellato e condizionato le
nostre esistenze dalla notte dei tempi perché è il modo che abbiamo,
noi umani, di sfruttare al meglio l’ambiente nel quale viviamo. Basti
pensare ai primordiali utensili da caccia, alla ruota, al linguaggio, alla
scrittura, fino ad arrivare alle innovazioni che hanno dato impulso alle
rivoluzioni industriali.
Ma quando l’ingegno umano ha fatto incontrare il telefono e il
computer, i bit e la Rete, la tecnologia ha assunto nuove caratteristiche
di pervasività e imprevedibilità. Come se non bastasse ha impresso
un’accelerazione alle nostre vite e creato discontinuità mai viste prima.
Ha distrutto organizzazioni incapaci di prevedere e adattarsi al
cambiamento, ma ha anche offerto nuove opportunità e ridefinito i
rapporti di forza tra aziende e consumatori.
La prima caratteristica di questa forza è la sua inevitabilità e
inarrestabilità. Kevin Kelly, futurologo e co-fondatore di Wired, nel
suo libro Quello che la tecnologia vuole parla di Technium per
indicare l’unione di tecnologia e cultura come un organismo vivente
con esigenze e dinamiche proprie. Un organismo che l’uomo può solo
comprendere e sfruttare al meglio.
Anche senza abbracciare questa concezione, è facile vedere che i
manufatti tecnologici non si stanno limitando a estendere le nostre
abilità fisiche e mentali, ma iniziano a essere in grado di fare
esperienza del mondo e agire autonomamente.
La seconda caratteristica della tecnologia è che lentamente, nel
corso degli anni, tenderà a scomparire. Non perché non ne avremo più
bisogno, ma perché ci assueferemo alla sua presenza tanto da non farci
più caso. Anche perché scompariranno progressivamente gli oggetti
che la incorporano e che oggi ci ricordano costantemente la sua
esistenza.
La tecnologia dell’informazione è entrata prima nelle aziende che
nelle case. Erano gli anni Sessanta e i primi mainframe di IBM
promettevano velocità ed efficienza a patto di avere un’intera stanza
per ospitarli. Ma con l’avvento di Internet e dei dispositivi mobili, il
dominio dell’hardware è tramontato. Il software ha mangiato il mondo,
per dirla col venture capitalist Mark Andreessen, co-creatore del primo
browser Mosaic e co-fondatore di Netscape. La codificazione del
mondo ha reso obsoleti interi settori, ha fatto emergere nuovi
protagonisti e modificato profondamente i bisogni delle persone.
Negli ultimi trent’anni le tecnologie digitali si sono diffuse più
rapidamente nelle vite delle persone che nelle aziende, complice
probabilmente una resistenza al cambiamento tipica delle
organizzazioni.
Internet ci ha trasformati da consumatori passivi a consumatori
attivi, da ricettori a connettori e trasmettitori di opinioni. I dispositivi
mobili ci hanno fatto diventare più reattivi ed esigenti nei confronti
delle aziende.
A causa di questo impatto sull’uomo-consumatore, la tecnologia è
entrata di prepotenza anche nella quotidianità dei marketer. Prima
hanno dovuto fare i conti con il Web dei primordi, poi con i social
media e con i dispositivi mobili. Parallelamente hanno dovuto
imparare a governare la costruzione e l’ottimizzazione di siti, la
pianificazione di pubblicità online, la gestione digitale di clienti.
L’aspetto interessante è che la tecnologia digitale è al tempo stesso
in grado di stravolgere i comportamenti dei consumatori e offrire ai
marketer gli strumenti per comprenderli, prevederli, anticiparli e
soddisfarli.
In questo libro proverò a esplorare l’impatto che la tecnologia sta
avendo sulle aziende e in particolare sul marketing, la funzione che più
di ogni altra ha assunto un ruolo chiave nelle organizzazioni moderne e
che nel corso degli anni è cresciuta e ha incorporato nuovi domini: non
solo più schiacciata su pubblicità e creatività, ma vero e proprio
motore di business e innovazione. È finito il tempo dei Mad Men, gli
uomini di marketing che decidevano affidandosi soltanto alle proprie
sensazioni ed esperienze, sorseggiando un buon cocktail, al limite
contando su qualche ricerca di mercato.
Il rapporto tra marketer e tecnologia è stato sempre problematico,
probabilmente anche perché l’uomo si è concentrato più sugli
strumenti che sui processi, più sul mezzo che sul fine, più sulla tattica
che sul governo strategico dell’innovazione. Ha imparato a usare i
“tool”, a sbirciare gli analytics, ma fa ancora fatica ad andare più a
fondo.
Se la tecnologia non è un insieme di strumenti, ma un sistema
nervoso stimolato da dati che collega tutto l’ambiente organizzativo e
l’intero mercato fatto di partner e consumatori, vuol dire che stiamo
andando inesorabilmente verso una simbiosi di marketing e tecnologia.
Martech è il nome che usano gli anglosassoni per indicare tutte le
iniziative, le pratiche, gli strumenti che implicano uno sfruttamento
della tecnologia per raggiungere obiettivi di marketing.
Ma questo, ormai, non basta più. L’unica fonte di vantaggio
competitivo risiede nella capacità di governare, non semplicemente
utilizzare passivamente, dati e tecnologia. In questi anni abbiamo visto
associare alla parola marketing tante etichette: Web marketing, social
media marketing, digital marketing, Facebook marketing, data driven
marketing, Big Data marketing e così via. Con la conseguenza che si è
posta l’attenzione su strumenti e tecniche nuovi, più che sulla
mutazione genetica che stava interessando la disciplina. Io penso ci sia
bisogno di ritornare alle basi del marketing, ma indossando occhiali
nuovi, in grado di aumentare la nostra percezione delle possibilità e le
nostre capacità di azione. Occorre un modo di fare marketing che parta
dall’apertura al nuovo e che sappia accoglierlo per elaborarlo
strategicamente. Per porre l’accento su questo cambiamento, non per
creare una mera etichetta, propongo il concetto di “marketing
aumentato”, inteso come disciplina e pratica in grado di permettere al
marketer di acquisire nuove abilità facendo leva su tecnologia e dati,
ma senza rinunciare a creatività ed empatia. Dunque non un marketing
pigro che riposa su metriche della vanità e automazione, “che si fa
pensare” dalla tecnologia, ma un marketing attivo che plasma la
tecnologia per amplificare la sua comprensione del mondo e le
possibilità di cambiarlo. Solo in questo modo il marketer può acquisire
la capacità di vedere meglio la realtà circostante, di comprendere più a
fondo l’ecosistema nel quale opera, non per depredarlo, ma per
condividere il valore creato con partner e clienti. Questo è un punto
cruciale perché quando la tecnologia incontra il marketing è facile che
quest’ultimo smarrisca la bussola dell’etica.
Questo libro non è un manuale, ma vuole provare a dare spunti di
riflessione ai marketer e ai manager di piccole e grandi aziende, ai
liberi professionisti e agli studenti, osservando quello che sta
accadendo e che accadrà all’incrocio tra marketing e tecnologia, per
non farsi schiacciare dalla miriade di soluzioni tecnologiche, per
prepararsi al cambiamento e per scongiurare la paralisi di fronte alla
modernità.
Partirò da un excursus di come la tecnologia della comunicazione e
dell’informazione è entrata in azienda e nelle vite dei consumatori,
trasformando le dinamiche delle decisioni di acquisto e il rapporto tra
brand e persone. Poi proverò a seguire le traiettorie di sviluppo delle
innumerevoli tecnologie che trasformeranno il futuro delle aziende e
delle nostre esistenze, quelle che vedranno convergere reti ultraveloci,
nuovi dispositivi, sensori, automazione e algoritmi di intelligenza
artificiale, che ci porteranno a interagire con macchine intelligenti, a
immergerci in realtà aumentate e virtuali, a governare con voce e gesti
lo spazio circostante (spatial computing).
Specularmente, nella seconda parte, ripercorrerò l’evoluzione del
marketing fino all’incontro con il Web per poi indagare le sfide attuali
dei professionisti di questa disciplina. Ciò mi permetterà di approdare
al concetto di marketing aumentato, dopo aver rilevato come le attuali
teorizzazioni non colgano appieno la rivoluzione in atto. Parlerò di un
marketing che non è più solo per gli uomini, ma è sempre più pensato
per quei nuovi diaframmi tra brand e consumatori che sono gli
algoritmi, i chatbot, gli assistenti vocali e virtuali, gli smart contract, i
mondi digitali e virtuali, i prodotti aumentati. Farò un’incursione
rapida nel reame degli algoritmi di machine learning che possono
essere concretamente utilizzati per migliorare alcune attività di
marketing, per poi esplorare la galassia dei software martech, creati
per rendere più efficace ed efficiente il lavoro dei professionisti. Poi,
mi interrogherò su come gestire il nuovo modo di intendere questa
funzione aziendale e se occorre ripensare i modelli organizzativi, i
ruoli delle persone e le metodologie di lavoro. Infine, proverò a
speculare sul futuro del rapporto azienda-consumatori partendo dalla
dimensione etica, sempre più sensibile ai cambiamenti tecnologici.
Seguitemi, perché solo analizzando i segnali di una trasformazione
profonda avremo la possibilità di non far morire una professione che si
sta adagiando nel perseguimento di obiettivi effimeri e che sta
perdendo di vista il suo fine ultimo: contribuire a migliorare l’esistenza
delle persone e, se possibile, della società.
NOTA
Molte delle immagini contenute nel testo sono diagrammi o elaborazioni create
dall’autore. è possibile scaricarle, a colori, dal sito dell’editore all’indirizzo
http://bit.ly/apo-ma e utilizzarle, in accordo con la licenza Creative Commons
BY NC (https://creativecommons.org/licenses/by-nc/2.0/it/).
Ringraziamenti
Un grazie a tutti coloro che, in vario modo, hanno contribuito alla
realizzazione di questo libro con stimoli, materiali, incoraggiamenti. In
particolare a Leo Sorge, per i consigli puntuali, e a Francesco
D’Onofrio, per la revisione critica.
Capitolo 1
La tecnologia

Per arrivare a sbirciare cosa succede all’incrocio tra tecnologia e


marketing dovremo percorrere le due strade separatamente.
La prima strada che batteremo è quella della tecnologia, ma non la
imboccheremo dall’inizio dei tempi, da quando l’uomo cominciò a
forgiare i primi strumenti per la sopravvivenza. Partiremo da più
avanti, da quando la scienza dell’informazione ha iniziato a entrare
nelle organizzazioni, prima militari e poi civili. Ho individuato tre
ondate di diffusione delle macchine in azienda, tenendo in
considerazione gli avvenimenti accaduti negli Stati Uniti, luogo
privilegiato per queste trasformazioni.
Tutto inizia negli anni Cinquanta con i primi monolitici “cervelli
elettronici” in cui hardware e software erano un tutt’uno. Tra il 1964 e
i primi anni Settanta si arriva ai minicomputer e a una prima scissione
tra i due elementi (unbundling). Gli anni Ottanta segnano il successo
del personal computer e l’apertura del mercato del software. Dal 2000
la capacità di calcolo viene aumentata dall’intelligenza che deriva dalle
tecnologie di rete. Internet rivoluziona il modo di lavorare e di fare
business.
Naturalmente le date che delimitano queste fasi vanno considerate
come punti di riferimento, tenendo presente che la tecnologia segue
cicli di adozione dai confini molto sfumati. Questo è vero soprattutto
quando tale adozione riguarda organismi complessi come le
organizzazioni.
Poi dovremo tornare sui nostri passi per osservare meglio una strada
parallela incontrata a un certo punto del percorso precedente. Quello è
il percorso che descrive l’ingresso della tecnologia nella quotidianità
delle persone. Un ingresso più rapido e pervasivo rispetto a quello
aziendale, che ha determinato un’intimità tecnologica inaspettata e che
ha trasferito dei super poteri ai comuni mortali.
L’innovazione entra nelle nostre case negli anni Ottanta con i primi
home computer, poi con i personal computer e il World Wide Web
negli anni Novanta. Quest’ultimo a sua volta aprirà spazi di
condivisione e relazione che cambieranno il nostro modo di
informarci, comunicare, agire. In seguito la nostra quotidianità verrà
sconvolta dagli smartphone, in grado di racchiudere le necessità
quotidiane di ciascuno di noi in un unico oggetto tascabile.
Attraverso questi due sentieri inizieremo a capire come la tecnologia
digitale sta condizionando le nostre esistenze, il nostro modo di
pensare, di relazionarci agli altri e di agire nelle organizzazioni
pubbliche e private.
Le fasi della tecnologia in azienda
La storia moderna della tecnologia dell’informazione si può far
risalire al periodo della seconda guerra mondiale quando, nel 1946,
vide la luce il primo elaboratore elettronico completamente digitale e
“general purpose”, l’ENIAC (Electronic Numerical Integrator and
Computer). Occupava una stanza di 9 metri × 30 per una superficie
complessiva di 180 m² e pesava 30 tonnellate. Veniva usato per
integrare equazioni balistiche e per calcolare le traiettorie dei proiettili
navali; il costo originale della macchina era di circa 500.000 dollari,
quando un’automobile costava poco più di 1.000 dollari (Chandler Jr.
A. D., “The computer industry - The first half century” in Yoffie D. B.,
Competing in the age of digital convergence, Boston, Harvard
Business School Press, 1997).
È solo negli anni Cinquanta del XX secolo che iniziano a entrare i
primi calcolatori in alcune grandi aziende. Nel 1951 John William
Mauchly e John Presper Eckert costruiscono l’UNIVAC 1, il primo
calcolatore elettronico a essere commercializzato. Viene installato
nell’US Census Bureau, l’agenzia del dipartimento del commercio che
si occupa del censimento, e alla General Electric.
Nel 1953 arriva sul mercato l’IBM 650, il primo computer a essere
prodotto in grandi quantità. Prima dell’uscita dalla produzione nel
1969, ne vengono vendute 1.500 unità.
Il cervello elettronico è un’unità centrale monolitica, molto costosa,
ospitata in una stanza dedicata e ben arieggiata e bisognosa di molte
cure per funzionare: un’unica fonte di elaborazione dati per i diversi
utenti aziendali che, su richiesta, avrebbero potuto interrogare il
sistema. Non era possibile il multitasking.
Il software è strettamente legato all’hardware. Non c’è una
distinzione tra sistema operativo, ambiente operativo e applicazioni.
Le aziende compravano un sistema hardware-software in grado di
svolgere solo specifiche operazioni. Ogni nuova esigenza richiedeva
uno sviluppo ad hoc che poteva essere richiesto al fornitore o a un
proprio team interno di sviluppatori. In pratica non esisteva un mercato
del software. Esisteva solo IBM e i sette nani (Burroughs, Control
Data, General Electric, Honeywell, NCR, RCA, e UNIVAC). Il lock-in
era assicurato.
Nel 1964 IBM introduce la prima famiglia di computer compatibili,
i System/360, che avevano un unico sistema operativo e software non
legato a una specifica macchina. Inizia ad aprirsi il mercato del
software che avrà il definitivo via libera nel 1970, quando Big Blue
decise di vendere l’hardware separatamente dal software.
Fino agli anni Settanta le aziende sono popolate per lo più da esseri
umani. Se si escludono i reparti produttivi meccanizzati e la stanza del
mainframe, negli uffici troviamo persone che parlano al telefono e
ticchettano su macchine per scrivere e calcolatrici.
Il panorama cambia con l’invenzione dei minicomputer, da parte di
DEC nel 1965, e la loro diffusione in azienda. A dispetto del nome non
erano macchine da scrivania, ma avevano dimensioni più contenute
rispetto ai mainframe. Permettevano lo svolgimento di funzioni ridotte
e dallo scopo limitato, che sarebbe stato poco efficiente far eseguire a
un mainframe. Certo erano anche più lenti, ma costavano di meno: il
PDP-8 della DEC aveva un prezzo di 16.000 dollari, un settimo
rispetto al più piccolo mainframe, ma con una velocità di elaborazione
maggiore del 22% (la sua tecnologia era cosiddetta “discreta” a
transistor). Questo permise anche alle medie aziende di sfruttare i
vantaggi di un elaboratore che poteva servire le esigenze di più
dipendenti, a patto di avere i giusti applicativi. Nel 1980 si vendevano
10 minicomputer per ogni mainframe.
La terza fase della tecnologia in azienda (dal 1980 al 2000) coincide
con lo sviluppo del mercato del microcomputer o personal computer,
dovuto alla produzione e commercializzazione dei primi
microprocessori da parte di Intel, AMD, Mostek e Motorola.
Questo nuovo oggetto intelligente, dotato di un proprio
microprocessore, trova gradualmente posto sulla scrivania del
dipendente, sostituendo macchina per scrivere e calcolatrice. I primi
PC vennero introdotti nel 1977 da Apple Computer, Radio Shack e
Commodore. Ma la svolta avviene nel 1981, quando IBM decide di
entrare in questo nuovo mercato con il suo IBM 5150.
Big Blue fece due mosse strategiche che, di fatto, diedero impulso a
questi prodotti per aziende e famiglie. Scelse di adottare
un’architettura hardware aperta e di affidare la produzione delle
componenti hardware e software a partner esterni. La prima scelta aprì
il mercato ai produttori di cloni o PC compatibili IBM, la seconda
permise il fiorire di un ecosistema di aziende hardware e software.
Nel 1984 i mainframe erano 200.000 unità, i minicomputer 1,9
milioni e i PC 23 milioni. Nasce il mercato degli applicativi: Ashton
Tate (database), Lotus (fogli elettronici), WordPerfect (elaboratori di
testo). Prospera il colosso WinTel, un’alleanza strategica tra la
Microsoft di Bill Gates e l’Intel di Andy Grove che garantirà a
entrambe le aziende il dominio del mercato. Si tratta del primo caso di
strategia di piattaforma, oggi abbastanza comune tra le corporation più
affermate (Cusumano M. A., The Business of Software: What Every
Manager, Programmer, and Entrepreneur Must Know to Thrive and
Survive in Good Times and Bad, Free Press, 2004).
Alla fine degli anni Ottanta e per tutti gli anni Novanta cresce
l’esigenza di rendere più efficienti questi computer e le altre risorse di
produttività, come le stampanti, facendoli comunicare tra loro
all’interno di uno stesso ufficio tramite reti locali (LAN, Local Area
Networks) o uffici lontani tramite reti geografiche (WAN, Wide Area
Networks). Le reti permettono la condivisione di risorse e la
smaterializzazione di alcuni processi. L’email è la killer application.
Aumentano i dati prodotti, spostati, conservati, consumati.
Nella quarta fase dell’ingresso della tecnologia in azienda, a un
primo sguardo l’ufficio non sembra cambiato. C’è sempre un computer
su ogni scrivania, magari più piccolo, collegato a una rete. Ma, se si
guarda bene, ora è una rete globale, Internet, il World Wide Web, una
ragnatela di computer collegati tra loro su tutta la superficie del globo
terraqueo che consuma e offre informazione (il browser Mosaic venne
lanciato nel 1993, ma l’utilizzo quotidiano ed esteso del Web si
consoliderà dal 2000).
È l’alba di un nuovo mondo che porta con sé la promessa di un
profondo cambiamento sia sul modo di lavorare sia sul modo di stare
sul mercato.

Figura 1.1 L’evoluzione della tecnologia in azienda.


L’impatto delle tecnologie digitali e di rete in
azienda
Con il termine “tecnologie digitali” generalmente si riassume la
combinazione di tecnologie dell’informazione, computazione,
comunicazione e connettività (Bharadwaj A., El Sawy O. A., Pavlou P.
A., Venkatraman N., “Digital business strategy: toward a next
generation of insights”, MIS Quarterly, 2013).
Quando queste entrano in azienda, l’informazione diventa fattore di
produzione strategico. La Rete diventa simbolo della nuova economia
digitale, così come la catena di montaggio lo era nell’economia
industriale.
Il digitale ha le potenzialità di trasformare tutte le attività aziendali,
sia quelle interne che quelle esterne. Questo perché tali attività sono, in
qualche misura, smaterializzate e possono essere gestite come flussi
informativi.

L’impatto interno
Oggi chiunque lavori in un’azienda ha chiaro come i software
permettano di ottimizzare i processi interni: velocizzare l’accesso alle
informazioni o il compimento di attività ripetitive e agevolare la
comunicazione e la condivisione di risorse utili tra colleghi e partner
per espletare un compito, anche in maniera collaborativa. Ciò ha
migliorato il modo di lavorare, singolarmente e in gruppi, in presenza e
a distanza, e ha esteso le possibilità di comprensione e risoluzione dei
problemi.
In tutti i reparti, ormai, hardware e software sorreggono e
fluidificano, velocizzano e ottimizzano i processi di lavoro, dalla
produzione alle vendite, dall’amministrazione alle risorse umane. A
quello che succede nel marketing dedicherò un intero capitolo, qui è
interessante accennare al potenziale impatto a livello sistemico.
Per descriverlo si stanno utilizzando due buzzword molto abusate
come “Industria 4.0” e “Digital Transformation”.
Il termine “Industria 4.0” prova a descrivere il fenomeno della
digitalizzazione, differenziandolo dalla terza rivoluzione industriale,
caratterizzata dall’automazione di mezzi e processi.
Nell’Industria 4.0 la digitalizzazione pervade tutta l’organizzazione,
uomini, macchine e processi. Fa coesistere il mondo fisico e quello
virtuale, modellando un ecosistema totalmente digitale (Gilchrist A.,
Industry 4.0: The Industrial Internet of Things, Apress, 2016).
Sono i dati e le informazioni, che fluiscono in tempo reale, a
garantire soluzioni e scelte produttive più efficaci ed efficienti.
Uno degli scopi principali che la quarta rivoluzione industriale si
prefigge è quello di creare sistemi completamente integrati
verticalmente, in cui tutte le unità di un’impresa, da quella di ricerca e
sviluppo a quelle di produzione, marketing e servizio post vendita,
siano legate tra loro e interconnesse. Tale integrazione riguarda anche i
sistemi orizzontali, quindi la supply chain, coinvolgendo altre imprese,
fornitori e clienti attraverso la creazione di reti di comunicazione per lo
scambio d’informazioni e attività di collaborazione.
Il concetto di “digital transformation” non ha una definizione unica
e universalmente accettata, ma generalmente viene utilizzato per
definire un fenomeno nel quale la tecnologia non è meramente di
supporto all’agire aziendale, ma offre la possibilità di una
trasformazione profonda di processi, strutture, competenze, in grado di
abilitare nuovi tipi di innovazione. La digital transformation dovrebbe
rendere la disruption un evento gestito, non inatteso. Dunque essa è
condizionata dallo stile di leadership del vertice aziendale, che non
dovrebbe puntare al dirigismo, ma a un empowerment dei dipendenti,
finalizzato alla costruzione di una “digital readiness” diffusa
(Westerman G., Bonnet D., McAfee A., Leading digital: turning
technology into business transformation, Harvard Business Review
Press, 2014).
Per Venier, la digital transformation è “un processo di cambiamento
dei principali fattori di business, deciso e gestito consapevolmente
dalla direzione aziendale, determinato dall’impiego di nuove
tecnologie e servizi digitali e dallo sviluppo di organizational
capability digitale” (Venier F., Trasformazione digitale e capacità
organizzativa: le aziende italiane e la sfida del cambiamento, EUT
Edizioni Università Di Trieste, 2017). Dunque si tratta di un
cambiamento che interessa l’intera azienda (il suo modello operativo, i
processi aziendali, le relazioni tra i dipendenti, il modello di business),
frutto di una strategia voluta e guidata dall’alto.
Ma il cambiamento digitale non è qualcosa di casuale o di
deterministico, che accade solo perché si sceglie di adottare
determinate tecnologie. Al contrario, è un processo che deve essere
progettato, guidato, monitorato, altrimenti non riuscirà a pervadere
tutta l’organizzazione. Ecco perché sono importanti le capacità
organizzative: la capacità di analisi del contesto tecnologico, di
progettazione organizzativa, di implementazione del cambiamento
basato sulla tecnologia.
La tecnologia offre la possibilità di andare oltre la rigida
progettazione dell’organizzazione aziendale, ma richiede un
allineamento dinamico delle variabili organizzative rispetto ai
mutevoli fabbisogni dell’impresa.
Ma c’è una domanda che serpeggia quando si parla dell’impatto
delle tecnologie in un’azienda e riguarda l’eventuale incremento della
produttività che determinano. La risposta non è univoca. Quel che è
certo è che l’investimento in tecnologia non genera automaticamente
un incremento della produttività.
Come dimostrano alcune ricerche quantitative, per realizzare il
pieno impatto delle tecnologie digitali c’è bisogno non solo di un
investimento in “digital skills”, ma di una cultura manageriale
dell’innovazione (Schivardi F., Schmitz T., The IT Revolution and
Southern Europe’s Two Lost Decades, 2019,
http://www.eief.it/eief/images/Schivardi_Schmitz_JEEA_2019.pdf). Si tratta di

un problema atavico dell’Italia e delle sue aziende, che hanno sempre


preferito premiare manager fedeli, anziché capaci di guidare la
rivoluzione digitale (Pellegrino B., Zingales L., Diagnosis the Italian
desease, 2017,
https://faculty.chicagobooth.edu/luigi.zingales/papers/research/Diagnosing.pdf )
.
Ci ritorneremo perché in tutto ciò il compito del Chief Marketing
Officer, insieme a quello del CTO o del CIO, credo sia fondamentale
per collezionare e diffondere cultura e buone pratiche, ma anche per
fluidificare i rapporti tra reparti.

L’impatto esterno
L’impatto più dirompente è quello che le tecnologie digitali e di rete
possono avere sul modo di fare business delle imprese moderne, con
ciò comprendendo sia i modi di stare sul mercato che i modelli di
business. Il motivo è che esse abilitano l’economia digitale
caratterizzata dalla produzione e distribuzione di beni e servizi che
incorporano informazione e conoscenza.
I flussi informativi prodotti dall’azienda nelle sue molteplici attività
subiscono un’accelerazione causata dalla dematerializzazione. Il
collegamento con fornitori e partner diventa più agevole e meno
costoso. Le informazioni, che nella catena del valore tradizionale erano
funzionali ai processi di trasferimento dei prodotti, diventano esse
stesse generatrici di valore. Ciò, però, crea nuovi processi che vanno
gestiti diversamente. In altre parole, la digitalizzazione ha separato la
funzione logistica e quella informativa, consentendo a quest’ultima di
raggiungere autonomamente persone e aziende senza l’obbligo di
legarsi al flusso fisico della merce (Prandelli E., Verona G., Human
Digital Enterprise. Creare e co-creare valore in un contesto omni-
data, Egea Editore, 2020).
Di conseguenza l’opportunità di creare, gestire e trasferire
informazioni fa emergere la necessità di relazioni sempre più
collaborative tra imprese anche concorrenti, che cooperano per
acquisire e mantenere una forte posizione competitiva attraverso un
continuo processo di apprendimento, condivisione e sviluppo di
conoscenza ed esperienza Si parla a tal proposito di “coopetition” in
contrapposizione alla “competition” e di un modello “value network”
contrapposto a quello di “value chain” di Porter (Porter M.,
Competitive Advantage: Creating and Sustaining Superior
Performance, 1985) in cui il valore veniva creato attraverso un
processo sequenziale che trasforma gli input in prodotti. Nelle aziende
di rete il valore emerge dalle attività distribuite di tutte le altre aziende
che fanno parte della rete.

Piattaforme
Esistono due metafore prevalenti per descrivere il modello operativo
aziendale al tempo di Internet: piattaforme ed ecosistemi.
Di piattaforma iniziarono a parlare Gawer e Cusumano per
descrivere il pensiero strategico di Bill Gates, che accettò la proposta
di IBM di scrivere il sistema operativo per PC ma tenne per sé la
possibilità di licenziarlo ad altri costruttori di computer (Gawer A. R.,
Cusumano M. A., Platform Leadership: How Intel, Microsoft, and
Cisco Drive Industry Innovation, Harvard Business School Press,
2002). Il fondatore di Microsoft aveva previsto le potenzialità della
nascente industria del software, con la sua azienda al centro. Poi,
sempre seguendo lo stesso “pensiero di piattaforma”, sviluppò
l’alleanza con Intel che gli garantì il dominio del mercato consumer
per decenni.
Per Gates “siamo di fronte a una piattaforma quando il valore
economico di chi la usa eccede il valore della compagnia che l’ha
creata”.
Un’azienda piattaforma è quella che riesce a connettere individui e
organizzazioni per uno scopo comune o per la condivisione di risorse.
A livello di industria, le piattaforme hanno la funzione di far interagire
individui e organizzazioni in modo che possano innovare, sfruttando il
“network effect”, e ottenere valore e utilità crescenti.
Dunque un’azienda può definirsi piattaforma quando realizza le
seguenti tre condizioni.
1. Produce prodotti o servizi mettendo in relazione e generando
valore per due o più attori del mercato che altrimenti non si
sarebbero incontrati o che non avrebbero interagito facilmente:
per esempio, compratori e venditori oppure utenti e sviluppatori
di applicazioni.
2. Riesce a innescare l’effetto rete, che si realizza quando il valore
che ottiene un utente dal prodotto/servizio creato aumenta
esponenzialmente all’ingresso di nuove persone nella rete. Il
classico esempio è quello del fax, la cui utilità aumenta
esponenzialmente al crescere degli utilizzatori di fax.
3. Riesce a risolvere l’annoso problema dell’uovo e della gallina.
Questo tipo di aziende, per avere successo, deve riuscire a
convincere una parte del mercato, facendole intuire il vantaggio
che potrebbe avere nel momento in cui anche la rimanente parte si
convincerà della bontà dell’offerta. Per esempio, Uber per
prosperare ha dovuto coinvolgere un numero sufficiente di autisti
per far decollare la sua app dedicata ai passeggeri, ma
contemporaneamente ha dovuto far iscrivere tanti passeggeri con
la promessa che presto ci sarebbe stato un numero sufficiente di
autisti tale da rendere utile l’app.
Le piattaforme possono essere classificate in due tipologie:
transaction platform e innovation platform (Cusumano M. A., Gawer
A., Yoffie D. B., The business of platforms: strategy in the age of
digital competition, innovation, and power, Harper Business, 2019).
Le prime sono sostanzialmente degli intermediari (definiti anche
online marketplace) per scambi di prodotti, servizi e informazioni tra
le parti coinvolte. Più partecipanti entrano nel mercato, più cresce
l’utilità per tutti. Queste piattaforme creano valore abilitando scambi
che sarebbero stati difficili senza di esse. Catturano valore attraverso
forme di pubblicità o incamerando una percentuale sulla transazione
avvenuta (transaction fee) o impiegando forme miste. Pinterest ha un
modello di business basato sul primo metodo, in cui pagano solo gli
inserzionisti pubblicitari ma non gli utenti (che, si potrebbe
argomentare, pagano con la loro attenzione). Booking, invece, chiede
una percentuale del valore della transazione al proprietario
dell’albergo. Etsy chiede ai venditori di pagare una piccola quota per
esporre i propri prodotti e poi anche una percentuale sul venduto.
Le seconde creano una base tecnologica fatta di “building blocks”
su cui altre aziende sviluppano innovazioni complementari. Al
crescere del numero e del valore di tali innovazioni, cresce l’attrattività
della piattaforma per altri attori. Queste piattaforme tipicamente danno
e catturano valore vendendo o affittando un prodotto/servizio digitale
come nei business tradizionali. Se sono ad accesso gratuito, possono
monetizzare vendendo pubblicità o servizi ancillari. Pensiamo ai
sistemi operativi per smartphone o agli applicativi enterprise che
consentono a sviluppatori terzi di creare plugin che hanno lo scopo di
estendere l’utilità dell’app ospitante. Salesforce, software per il CRM e
marketing automation, ospita oltre 5.000 plugin nel suo AppExchange.
Ma esistono anche compagnie ibride come Apple, Google,
Microsoft, Salesforce, Facebook, Tencent, Amazon che hanno aspetti
di entrambe le tipologie di piattaforma e magari anche aspetti tipici di
un’impresa tradizionale. Apple rimane tradizionale nel suo business
dei portatili, ma l’App Store è una “transaction platform” e iOS è una
“innovation platform”.
Si può dire che il modello piattaforma sia garanzia di successo in
un’economia digitale? No, perché non tutte le aziende riescono a
sfruttare l’effetto rete e a soddisfare i bisogni di tutti gli attori del
mercato che si vuole creare. Ma quelle che ce la fanno riescono a
raggiungere lo stesso livello di ricavi di aziende concorrenti non
piattaforma, ma con la metà dei dipendenti. Inoltre, risultano due volte
più profittevoli, crescono due volte più velocemente e hanno una
valutazione di mercato doppia.
Figura 1.2 Tipologie di aziende-piattaforma in “The Business of Platforms: strategy in
the age of digital competition, innovation and power” (Harper Business, 2019).

Ecosistemi
Alcuni autori hanno preferito utilizzare la metafora ecologista per
definire le nuove catene del valore abilitate dalle tecnologie digitali e
di rete. Negli ecosistemi dell’innovazione tende a svilupparsi la
presenza di un’azienda dominante che funge da specie chiave, in
quanto assume la responsabilità di agevolare e preservare la
collaborazione sulla piattaforma a beneficio dell’intero ecosistema
(Iansiti M., Levien R., The Keystone Advantage: What the New
Dynamics of Business Ecosystems Mean for Strategy, Innovation and
Sustainability, Harvard Business School Press, 2004).
In natura la specie chiave o chiave di volta (keystone species) è una
specie che ha un effetto sull’ecosistema molto più grande rispetto a
quanto potrebbe far immaginare la sua presenza numerica. Infatti, ha il
ruolo fondamentale di preservare la stabilità dell’ambiente. Per
esempio, la lontra di mare, principale predatore dei ricci marini, è
essenziale all’intero ecosistema. In sua assenza, i ricci si
moltiplicherebbero incontrollati distruggendo le alghe che, a loro
volta, ospitano una grande varietà di altre specie viventi.
Per l’azienda chiave la salute dell’ecosistema diventa una priorità di
business: senza di essa non ci sarà crescita né futuro. Il ruolo del leader
è quello di offrire agli attori del sistema una visione del futuro coerente
e opportunità concrete di sviluppo per tutti. Queste opportunità
vengono amplificate quando i membri esistenti riescono a innovare
partendo dai prodotti complementari sviluppati dagli altri, ma anche
quando entrano membri diversi.
Quanto più la piattaforma tecnologica è aperta, tanto più attrae terze
parti in grado di portare novità e innovazioni e dunque di aumentare il
valore complessivo. Ma un’apertura eccessiva e indiscriminata
potrebbe attrarre anche attori poco interessati al bene comune. È
compito dell’azienda chiave individuare il giusto grado di apertura e
definire le condizioni per l’accesso alle risorse della piattaforma. Tali
condizioni, da un punto di vista tecnologico, assumono spesso la forma
di API (Application Programming Interface), ossia interfacce di
programmazione applicativa che permettono alle altre aziende
dell’ecosistema di accedere a specifiche risorse comuni, secondo
determinate regole. Tale accesso è funzionale alla creazione di
applicazioni che andranno a estendere le funzioni della piattaforma.
Altre risorse di confine sono i Software Development Kit (SDK),
software progettati dall’azienda chiave per agevolare lo sviluppo di
software ulteriore, gli Integrated Development Environment (IDE),
programmi creati per supportare gli sviluppatori nella
programmazione, le Decentralized Application (DApp) ossia le
applicazioni che vengono eseguite su un sistema di elaborazione
distribuito (BitTorrent e Tor vengono eseguiti su una rete peer to peer,
mentre altre DApp lavorano su reti blockchain).
Da quello che abbiamo visto finora, la differenza tra piattaforme ed
ecosistemi è molto sottile. Secondo il prof. Marshall Van Alstyne, nelle
piattaforme le parti accettano di giocare secondo delle regole di
governance (imposte da un’azienda chiave o negoziate di comune
accordo). Gli ecosistemi, invece, possono includere anche giocatori
che non accettano di giocare secondo le regole, come i competitor (una
disamina è contenuta nel briefing paper del World Economic Forum
“Platforms and Ecosystems: enabling the digital economy”,
http://www3.weforum.org/docs/WEF_Digital_Platforms_and_Ecosystems_2019.pdf).

Quello che mi preme sottolineare è il cambio di paradigma che sta


investendo la concezione di impresa. Tradizionalmente, si considera
l’impresa come un’organizzazione strutturata per la creazione di
valore, grazie al controllo dei processi di approvvigionamento e
produttivi che danno vita a un prodotto/servizio, promosso attraverso
dei “touchpoint” e acquistato da un consumatore (che consuma, ossia
distrugge, il valore incorporato nel prodotto).
Le piattaforme, invece, integrano le risorse dei partner che
compongono il suo ecosistema al fine di potenziare il valore finale del
prodotto/servizio. Il consumatore diventa beneficiario, volendo
adottare la prospettiva della “service-dominant logic”, ma anche
integratore di risorse, ossia può aggiungere valore al prodotto/servizio
(Accoto C., “Il business di imprese e piattaforme tra archivi e oracoli”,
Harvard Business Review, dicembre 2018). Si pensi ai social media
che integrano sia applicazioni di terze parti sia i contenuti delle
persone.
Quel che è certo è che nell’economia digitale l’impresa innovativa è
quella in grado di co-creare valore, andando oltre i suoi confini
materiali, aprendosi allo scambio con le altre specie dell’ecosistema e
all’integrazione di risorse esterne. Si tratta di scambi che, in futuro,
potrebbero avvenire attraverso contratti automatizzati (smart contract)
tra agenti/oggetti intelligenti e robot
(https://link.springer.com/article/10.1007/s12525-019-00377-4).
Le motivazioni di questa nuova cultura d’impresa vanno anche
ricercate nella richiesta, da parte dei consumatori, non tanto di prodotti
innovativi, ma di soluzioni integrate a bisogni complessi. Soluzioni
che il management di questa “impresa sconfinante” può progettare
soltanto imparando a gestire non solo asset di proprietà, come
avveniva in passato, ma anche asset che non si posseggono (per
esempio il know how di partner), frutto di scambi negoziati
dinamicamente. L’obiettivo dovrebbe spostarsi dalla progettazione di
prodotti e servizi alla progettazione di ecosistemi di valore.
Ma anche questa è una fase di transizione. Stiamo andando verso un
nuovo stadio caratterizzato dalla complessità di dover progettare un
collegamento ottimale tra mondo fisico e spazi virtuali: uno spazio
unico e ottimale per connettere persone, macchine, reti e oggetti per
trascendere i limiti dei due mondi.
Figura 1.3 L’ecosistema delle aziende di piattaforma.
La tecnologia entra nelle case e nelle tasche
Me li ricordo bene gli anni nei quali la tecnologia informatica ha
iniziato a metter piede nella mia vita, sconvolgendola. Erano gli anni
Ottanta e i primi home computer arrivarono sul mercato a
materializzare le fantasie seminate dai film e dai racconti di
fantascienza. Era il sogno di una macchina intelligente da poter
programmare per farle eseguire i compiti al nostro posto, salvo poi
scoprire che sarebbe stato difficile farle eseguire cose più complicate
del movimento di qualche pixel sullo schermo.
In Italia presero piede il Sinclair ZX Spectrum, il Vic 20 e il
Commodore 64, per il loro prezzo contenuto, ma questa è anche
l’epoca del primo PC IBM e del Macintosh della Apple, il primo
computer con interfaccia grafica e mouse a raggiungere un vasto
pubblico.
Una tecnologia entusiasmante, ma che ti lasciava l’amaro in bocca,
che ti faceva percepire che ci doveva essere qualcos’altro, che le
promesse dell’innovazione non si potevano fermare a qualche riga di
Basic.
Un balzo in avanti si ebbe alla fine degli anni Ottanta, quando i
personal computer entrarono nelle stanzette dei ragazzi, grazie ai
prezzi decrescenti, alla possibilità di assemblaggio autonomo e
all’enorme quantità di software.
Bisognerà aspettare gli anni Novanta per godere dell’innovazione
che darà nuovi poteri ai computer e cambierà le nostre vite: il World
Wide Web.
La chiave di accesso a questo nuovo mondo è un software di
navigazione, il browser, oggetto di una vera e propria guerra
commerciale (Cusumano M. A., Yoffe D. B., Competere al tempo di
Internet, Etas Libri, 1999). Il primo ad arrivare sul mercato, alla fine
del 1993, fu Mosaic del National Center for Supercomputing
Applications. Ma la diffusione di massa avvenne l’anno successivo con
Netscape Navigator, rilasciato gratuitamente dagli ex dipendenti della
NCSA Jim Clark e Marc Andreessen. Anche se in ritardo, Bill Gates
capì che il Web era una frontiera che si poteva conquistare solo con un
browser. E così arrivò a far leva sulla sua posizione dominante nel
settore dei sistemi operativi per diffondere Internet Explorer. Netscape
fallì, anche per mancanza di un solido modello di business, ma
Microsoft non ebbe vita facile. Prima si dovette scontrare con Mozilla
Firefox e poi con Chrome di Google, attuale leader di mercato.
I primi anni del Web furono faticosi. Il browser permetteva di
raggiungere una destinazione a patto di sapere quale fosse. Servivano
motori di ricerca efficaci e veloci. Altavista non lo era e infatti nel
1998 fu soppiantato da Google Search, che ci regalò una bussola
adeguata a un mondo di informazioni che cresceva esponenzialmente.
Il 2000 è l’anno della disillusione seguita allo scoppio della bolla
delle dot-com, le aziende che avevano iniziato a fare business
sfruttando Internet. Non sapevamo che gli shakeout sono connaturati
nelle dinamiche dell’innovazione e danno vita a nuovi paradigmi.
Infatti, dopo qualche anno, ecco apparire un movimento nuovo,
incarnato in una serie di servizi online che Tim O’Reilly battezzò col
controverso termine Web 2.0 (O’Reilly T., “What is Web 2.0”, 2005,
https://www.oreilly.com/pub/a/Web2/archive/what-is-Web-20.html).

Ecco le sue parole: “Il Web 2.0 è un insieme di trend sociali,


economici e tecnologici che, collettivamente, formano le basi della
prossima generazione di Internet, un mezzo più maturo e peculiare
caratterizzato dalla partecipazione degli utenti, dall’apertura e da
effetti di rete”. Si voleva porre l’accento su servizi che consentivano
agli utenti di caricare, e dunque condividere, contenuti audio-visivi e
testuali, autoprodotti, i cosiddetti User Generated Content.
In pochi anni ne nacquero centinaia e, a onor del vero, buona parte
morirono. Nel 2002 vide la luce LinkedIn, nel 2003 MySpace, nel
2004 Facebook e Flickr, nel 2005 YouTube e nel 2006 Twitter. Con
essi la Rete iniziava a dare un palcoscenico alle persone, alle loro
creazioni e alle loro opinioni.
Le potenzialità di Internet rimasero confinate alle scrivanie di casa
fino al 2007, quando Steve Jobs ci diede un assaggio del futuro alla
presentazione dell’iPhone. Era il primo smartphone pensato per
accedere facilmente alla Rete in mobilità, attraverso applicazioni
dedicate. L’anno dopo l’introduzione dell’App Store segnò meglio la
strada delle nuove modalità di consumo delle risorse di rete. Pian
piano ci saremmo abituati a dare meno peso al concetto di proprietà e
più importanza alla possibilità di un accesso ubiquo a un catalogo
sconfinato di contenuti multimediali. I contenuti, tra cui il software,
prima pacchettizzati in oggetti fisici, diventano servizi utilizzabili
immediatamente dalla Rete (o nuvola, cloud, per indicare un altrove
digitale di difficile immaginazione).

Figura 1.4 L’evoluzione della tecnologia per i privati.

Il contesto tecnologico attuale in numeri


Alla fine del 2020 la Terra è abitata da circa 7,8 miliardi di persone,
di questi 5,3 miliardi hanno più di 15 anni. 4,6 miliardi hanno un
accesso a Internet (59,6% del totale). La fetta maggiore dell’utenza si
concentra in Asia, che è anche il continente con il maggior numero di
abitanti. Qui il paese guida è la Cina con 854 milioni di cittadini
connessi, seguita dall’India con 560 milioni.
La maggiore penetrazione di utenti (rapporto tra abitanti e utenti) si
registra in America del nord, dove si sfiora il 95%. Più indietro di tutti
c’è l’Africa, che ha una penetrazione del 39%, ma che ha fatto
registrare i più alti tassi di crescita grazie all’accesso da dispositivi
mobili, principale abilitatore della navigazione.
L’esperienza di rete avviene soprattutto attraverso l’uso dei
dispositivi mobili e di app. Per esempio, in Italia il 76% del tempo
speso sul Web avviene in mobilità e l’88% del tempo viene trascorso
utilizzando applicazioni (ComScore, Global State of Mobile Report,
https://www.comscore.com/Insights/Presentations-and-Whitepapers/2019/Global-

State-of-Mobile). Sono loro la nostra principale porta di accesso alle


risorse della Rete, non più il browser. Il Web è morto, Internet è viva,
come intuì Chris Anderson dieci anni fa su Wired (Anderson C., The
Web is dead. Long live the Internet, https://www.wired.com/2010/08/ff-
webrip/).

Le app hanno facilitato l’accesso alle attività più frequenti: i giochi,


i social media, l’intrattenimento, gli acquisti. Basti pensare che sono
2,7 miliardi i videogiocatori nel mondo e il 92% preferisce usare uno
smartphone o un tablet (NewZoo,
https://newzoo.com/insights/articles/games-market-engagement-revenues-trends-

2020-2023-gaming-report/ ).
Figura 1.5 Utenti attivi mensili dei social media principali (* stime).

L’altra grande passione è quella per le piazze dei social media,


ormai divenuti enormi centri commerciali. Facebook, il social network
più esteso del mondo occidentale, è utilizzato ogni mese da 2,6
miliardi di persone, mentre WeChat, l’app più usata in Oriente, ha 1,2
miliardi di utenti (dati aggiornati su Vincos Blog,
https://vincos.it/social-media-statistics/).

Gli altri luoghi di aggregazione sono YouTube, che raduna qualcosa


come 2 miliardi di visitatori, Instagram col suo miliardo di utenti
mensili e TikTok, l’unica applicazione cinese che può vantare 800
milioni di utenti globali.
Da rilevare anche il grande utilizzo dei sistemi di messaggistica
istantanea che permettono di rimanere in comunicazione costante con
amici e colleghi. Il leader incontrastato è WhatsApp con i suoi 2
miliardi di utenti, seguito dal fratello acquisito Facebook Messenger
con 1,3 miliardi.
Ponendo l’attenzione sull’hardware, bisogna considerare che nel
mondo si stimano essere presenti 1,5 miliardi di personal computer,
500 milioni di tablet e 5 miliardi di telefonini, di cui 4 miliardi
smartphone.
I dispositivi intelligenti indossabili prodotti nel 2019 sono stati 336
milioni (IDC, https://www.idc.com/getdoc.jsp?containerId=prUS46122120): poco
più della metà comprende gli auricolari/cuffie, il 27,5% è fatto dagli
smartwatch e un 20% è relativo ai braccialetti per misurare le attività
di fitness e wellness. Per avere un’idea degli oggetti intelligenti che
utilizziamo bisogna includere quelli presenti nelle nostre case, che
sarebbero oltre 800 milioni (IDC, https://www.idc.com/getdoc.jsp?
containerId=prUS45303919), soprattutto smart tv (41%), sistemi di sicurezza

(20%) e smart speaker (16,5%) potenziati dagli assistenti vocali di


Amazon e Google.

Figura 1.6 Utenti attivi mensili degli instant messenger nel mondo.
L’impatto della tecnologia su società e persone
L’accesso a risorse computazionali esorbitanti sempre a disposizione
e la possibilità di intrattenere relazioni in tempo reale con persone
distanti ha portato a una trasformazione complessiva della società.
Alcuni hanno battezzato tale mutamento come “società
dell’informazione” e “società della conoscenza”, altri hanno
evidenziato gli aspetti filosofici parlando di “infosfera”, altri ancora
hanno rilevato il riequilibrio nei rapporti di forza tra aziende e
consumatori.

Infosfera
Luciano Floridi, professore di filosofia ed etica dell’informazione
all’Università di Oxford, per descrivere l’impatto delle ICT sul mondo
ha parlato di una “quarta rivoluzione” (Floridi L., La quarta
rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello
Cortina Editore, 2017). Nel Cinquecento la prima rivoluzione, quella
Copernicana, spodestò la Terra dal centro dell’universo, lasciando
l’uomo al centro del suo mondo. La seconda rivoluzione, quella
innescata da Darwin nella seconda metà dell’Ottocento, gli tolse quella
centralità, facendo luce sull’origine della specie. L’uomo è l’ultimo
tassello di un processo, ma è l’essere più evoluto, padrone delle
proprie azioni. Questo almeno fino al Novecento, quando Freud
insinua il dubbio che non abbiamo il pieno potere sulla mente, ma
siamo in balia dell’inconscio.
La quarta rivoluzione è quella innescata dal pensiero geniale di Alan
Turing, padre delle macchine programmabili. Prima il termine
“computer” veniva usato per riferirsi a una persona in grado di
“scrivere, ricopiare, comporre lettere, fare calcoli”. Il lavoro del
matematico inglese ci ha privato anche della posizione privilegiata ed
esclusiva che avevamo nel regno del ragionamento logico, della
capacità di processare informazioni e di agire in modo intelligente.
Secondo Floridi, “Al pari delle tre precedenti, la quarta rivoluzione ha
rimosso l’erroneo convincimento della nostra unicità e ci ha offerto gli
strumenti concettuali per ripensare la nostra comprensione di noi
stessi. Stiamo lentamente accettando l’idea, che si fa strada a partire da
Turing, per cui non siamo agenti newtoniani, isolati e unici, come una
sorta di Robinson Crusoe su un’isola. Piuttosto, siamo organismi
informazionali (inforg), reciprocamente connessi e parte di un
ambiente informazionale (l’infosfera), che condividiamo con altri
agenti informazionali, naturali e artificiali, che processano
informazioni in modo logico e autonomo”. Questa infosfera è stata
costruita dall’uomo per migliorare la sua esistenza, ma seguendo i
limiti delle tecnologie, al fine cioè di permettere alle ICT di entrare
nella nostra vita sempre più pervasivamente. Ovviamente ciò produce
delle tensioni e impone scelte, anche etiche, sul governo della
tecnologia.
Un altro neologismo coniato dal filosofo è “onlife”, per descrivere
lo stato non binario (online/offline) in cui ci troviamo, in quanto
organismi informazionali. L’essere connessi è, di fatto, diventato il
nostro stato primario, per cui non ha senso la distinzione tra online e
offline oppure tra reale e virtuale: “Ciò che è reale è informazionale e
ciò che è informazionale è reale.”
Da un punto di vista filosofico, la tecnologia è un “essere-tra”, un
elemento che si frappone tra due elementi. Ci sono tecnologie di primo
ordine, che stanno tra l’uomo e la natura (l’ascia è la tecnologia che si
pone tra uomo e natura), di secondo ordine, che collegano l’uomo con
un’altra tecnologia o manufatto (il cacciavite si pone tra noi e la vite) e
di terzo ordine. In questo caso, abbiamo una tecnologia che mette in
relazione altre due tecnologie, escludendo completamente l’essere
umano. Nelle reti conosciute come “Internet delle cose” abbiamo
sensori e software che comunicano tra loro, compiendo
autonomamente delle azioni.
Lo sviluppo e la diffusione di queste tecnologie di terzo ordine è una
delle caratteristiche di quella che Floridi identifica come “iperstoria”.
Se la scrittura, la produzione di contenuti e la loro conservazione è lo
spartiacque tra le società preistoriche e quelle storiche, la forza delle
ICT produce società iperstoriche. Si tratta di comunità sociali in cui le
tecnologie sono la condizione essenziale per assicurare e promuovere
il benessere sociale, la crescita individuale e lo sviluppo generale. Per
esempio, i paesi più industrializzati, facenti parte del G7, sono società
iperstoriche poiché, in ciascuno di essi, almeno il 70% del prodotto
interno lordo dipende da beni intangibili, fondati sull’uso
dell’informazione, piuttosto che da beni materiali, che sono il prodotto
di processi agricoli o manifatturieri.

Network society
Già il sociologo Manuel Castells, in anticipo sugli altri, aveva capito
che la nostra società è sicuramente una società dell’informazione, ma
in qualche misura lo sono state anche le altre (Castells M., The Rise of
the Network Society, The Information Age: Economy, Society and
Culture, Vol. I, Cambridge, MA; Oxford, UK: Blackwell, 1996). La
differenza sostanziale starebbe nella capacità delle tecnologie di
informazione e comunicazione di organizzare la società tramite reti in
vasta scala. Infatti, anche le vecchie società erano organizzate in reti
sociali, ma interessavano la dimensione privata dei cittadini. Inoltre, le
sfere di potere erano occupate da istituzioni e organizzazioni che
agivano verticalmente. La “network society” di Castells è la struttura
sociale dell’era dell’informazione, dove con il termine “struttura
sociale” si intende quell’insieme di “disposizioni che organizzano gli
umani in rapporti di produzione/consumo, esperienza e potere”. Per
disposizioni egli intende le tecnologie che mediano tali rapporti. Ciò
favorisce le seguenti tendenze principali.
La comunicazione tra persone e tra organizzazioni avviene a
livello locale, ma anche globale, quindi aumenta la scala e il
numero dei messaggi scambiati.
La comunicazione non è più centralizzata, ma diventa
decentralizzata. Si sposta dal centro alle periferie; non più
verticale, ma orizzontale e polidirezionale. Ciò determina uno
spostamento del potere che interessa tutti gli ambiti.
Forme di comunicazione diversa per contenuti, stili e scopi
(alta/bassa, ironica/seriosa, personale/istituzionale) fruite negli
stessi ambiti mediali tendono a confondere i codici simbolici e a
mescolare i significati.
Nel 2007 Castells definirà questa comunicazione basata sulle reti
digitali come “mass self-communication” ossia una comunicazione che
resta di massa (in quanto può teoricamente raggiungere audience
globali), ma è autogenerata per quanto riguarda i contenuti, autodiretta
per quanto riguarda i meccanismi di emissione e autoselezionata per
quanto attiene la ricezione.
Con l’uso di massa degli smartphone, l’essere online non è più
un’eccezione, ma una condizione diffusa. In questo stato di
connessione permanente e di immersione negli ambienti della Rete, le
persone si appropriano dei loro codici e linguaggi, delle estetiche e
delle retoriche. Si fanno media e acquisiscono la consapevolezza di
non essere più oggetto passivo di comunicazione, ma protagonisti
attivi (Boccia Artieri G., Stati di connessione. Pubblici, cittadini e
consumatori nella (Social) Network Society, FrancoAngeli, 2012).
Cambia quindi il modo in cui l’individuo percepisce la propria
posizione, il proprio ruolo nell’ecosistema della comunicazione
(Boccia Artieri G., Gemini L., Pasquali F., Carlo S., Farci M., Pedroni
M., Fenomenologia dei Social Network. Presenza, relazioni e consumi
mediali degli italiani online, Guerini Scientifica, 2017). Eravamo
abituati a essere (e pensarci come) pubblico, consumatori, cittadini.
All’interno delle reti sociali si è portati a commentare, fare domande,
chiamare in causa aziende e politici, organizzare gruppi di pressione e
protesta, ma anche ad autorappresentarsi ossia a mostrarsi nella propria
quotidianità (il privato diventa pubblico) o elaborando ciò che accade
nel proprio mondo, con linguaggi simili a quelli dei mass media, ma in
un ambiente di rete.
Un aspetto interessante è proprio quello che vede le persone
diventare produttori e distributori di contenuti, grazie a software
sempre più semplici e alla potenza amplificativa dei social media.
Produzioni amatoriali, ma non poco sofisticate, che incontrando
pubblici generano interazioni, condivisioni e remix. La cultura dal
basso si contrappone e mescola alla cultura delle corporation
generando una “cultura convergente” per dirla con Jenkins (Jenkins H.,
Cultura convergente, Apogeo, 2007).

Il Cluetrain Manifesto
Il nuovo ruolo dell’individuo in Rete venne rivendicato con forza
nel 1999 da un manipolo di pensatori: Rick Levine, Christopher
Locke, Doc Searls e David Weinberger. Le 95 tesi esposte nel seminale
Cluetrain Manifesto si aprivano con una dichiarazione quasi
belligerante verso le corporation: “Non siamo spettatori, né occhi, né
utenti finali, né consumatori. Siamo esseri umani e la nostra influenza
va al di là della vostra capacità di presa. Cercate di capirlo”. Si rivelerà
un manifesto per certi aspetti profetico, per altri troppo ottimistico
(https://cluetrain.com/, traduzione
).
http://www.mestierediscrivere.com/articolo/tesi.html

Gli autori sostengono “la fine del business come lo conosciamo”


perché “grazie alla Rete, i mercati diventano più informati, più
intelligenti e più esigenti rispetto alle qualità che invece mancano nella
maggior parte delle aziende”. Sicuramente grazie ai blog, ma
soprattutto ai successivi social network, le persone hanno avuto lo
spazio e gli strumenti per attivare conversazioni e scambi di
conoscenza in grado di far emergere i lati oscuri del mercato e fare
pressione sulle aziende. In questo modo, si è ridotta teoricamente
l’asimmetria informativa tra aziende e persone, almeno quelle capaci
di approfondire attraverso l’uso della Rete. Per questo i consumatori
sono diventati meno fedeli di un tempo alle marche.
Anche il monito verso le aziende era ben centrato, volto a stimolare
un cambio di rotta nella comunicazione: “Le aziende non parlano con
la stessa voce di queste nuove conversazioni in rete. Vogliono
rivolgersi a un pubblico online, ma la loro voce suona vuota, piatta,
letteralmente inumana. Le aziende devono scendere dalla loro torre
d’avorio e parlare con la gente con la quale vogliono entrare in
contatto”.
In questa direzione qualcosa si mosse in quegli anni, ma poco è
rimasto. Alcune aziende attivarono quella “naked conversation”
richiesta a gran voce, sperimentando i “corporate blog” e le prime
forme di Digital PR, attraverso incontri informali tra blogger e
manager aziendali (Scoble R., Israel S., Naked Conversations, John
Wiley & Sons Inc, 2006). Poi queste forme di confronto si sono perse,
ma è rimasta un’attenzione all’ascolto delle opinioni in rete, attraverso
strumenti di Web listening.
Completamente fuori fuoco l’attacco alla pubblicità: “Siamo
immuni dalla pubblicità. Semplicemente dimenticatela”. Gli autori non
capirono di far parte di una comunità di intellettuali che non
rappresentava la gran parte delle persone, ma soprattutto
sottovalutarono la capacità di adattamento delle imprese. La
pubblicità, così come il marketing e le relazioni pubbliche, non
morirono, ma si adattarono al nuovo consumatore della Rete.

La commercializzazione del Web


Nel 2015 Doc Sears e David Weinberger tornarono alla carica con
New Clues per mettere in guardia “la gente della Rete” dai predoni, le
grandi corporation che considerano Internet un territorio di conquista,
da recintare e privatizzare. Si scagliarono contro le pubblicità
mascherate, la personalizzazione pubblicitaria che non è personale, le
app dell’intrattenimento che trasformano gli utenti in esseri passivi, la
raccolta di dati che mina la privacy (https://cluetrain.com/newclues/,
traduzione https://medium.com/@nuovetesi/nuove-tesi-4a1def360351). È un
estremo tentativo di risvegliare le coscienze, di ritornare all’Internet
degli esordi, al mondo piccolo e bello, che assomiglia tanto a una lotta
contro i mulini a vento.
Il World Wide Web rimane un territorio di scelta e di libertà anche
se è evidente che poche grandi aziende tecnologiche, cresciute grazie
all’effetto rete e dei ritorni crescenti, tendono a spingere i singoli verso
specifiche direzioni. Facebook cerca di farci rimanere il più possibile
all’interno dei suoi giardini recintati, allo stesso modo Apple ci
ammalia con i suoi oggetti belli e funzionali, Microsoft prova a
mantenere il suo dominio nei sistemi operativi per computer, Google
punta a essere il motore di tutte le nostre scelte, Amazon vuole
diventare il principale catalizzatore di acquisti. Questa è volutamente
una versione semplificata delle strategie multiformi dei giganti della
tecnologia con la più elevata capitalizzazione di borsa (4 miliardi) che
ormai hanno allargato il proprio raggio d’azione a tutti i settori più
promettenti.
Certo è che il Web degli esordi non esiste più. Oggi sulla rete più
estesa del mondo viaggiano interessi, passioni, rapporti, ma anche
soldi. La commercializzazione era inevitabile, con buona pace degli
idealisti della prima ora. Gli stessi social media, nati come spazi di
condivisione e comunicazione, col tempo si sono riempiti di splendide
vetrine del desiderio e successivamente di veri e propri negozi e grandi
magazzini. Ogni sito è tappezzato di banner più o meno invasivi e da
ogni angolo del Web spuntano influencer che ci vogliono vendere
qualcosa. L’e-commerce varrà oltre 4 trilioni nel 2020, la metà dei
quali imputabili al mercato cinese e circa 600 miliardi a quello
statunitense.
Un Web per tutti anche se pieno zeppo di stimoli a comprare? Non
proprio. I numeri li abbiamo visti: c’è ancora una metà della
popolazione mondiale che non è nelle condizioni di accedere alla Rete.
I giganti della tecnologia stanno facendo molto per estendere le
condizioni di connettività con progetti anche molto avanzati, ma il fine
ultimo è sempre quello di catturare attenzione e dati. Ecco perché il
padre del World Wide Web, Tim Berners Lee, ha avviato un progetto
open source volto a ridare potere agli internauti, nel rispetto della
privacy. Il suo nome Solid, da Social Linked Data, vuole creare un set
di convenzioni e strumenti per costruire social application decentrate e
basate sui principi dei dati collegati. L’idea è di agevolare lo sviluppo
di app che rispettino la privacy e che diano all’utente il pieno controllo
dei suoi dati. Questi rimarrebbero conservati in un server privato
(Solid POD) ma sarebbero accessibili con link dalle applicazioni, per
esempio uno stesso post sarebbe visibile su diversi social media, ma i
dati rimarrebbero del creatore. Un progetto ambizioso che dovrà
provare di essere utile anche agli attuali protagonisti del Web
commerciale (Progetto SOLID, https://solid.mit.edu/).
Capitolo 2
Le traiettorie tecnologiche

Ci sono alcune caratteristiche tipiche delle tecnologie che vanno


comprese perché possono essere utili a chi gestisce un’impresa
innovativa e al marketer che vuole prevedere il processo di adozione
delle innovazioni tra le persone.
L’innovazione è elemento iniziale e fondamentale del cambiamento,
tuttavia si realizza soltanto se la scintilla tecnologica riesce a innescare
una diffusione adeguata tra gli adottanti.
In questo capitolo prenderemo confidenza con alcune teorie che ci
faranno capire quali sono i processi che determinano l’affermarsi di
una tecnologia sul mercato e ci chiederemo quali sono le
caratteristiche dell’attuale progresso tecnologico. Incroceremo i due
termini “intelligenza artificiale” e “Big Data” che ormai sono diventati
familiari, ma che spesso vengono utilizzati a sproposito esagerandone
la portata, in senso positivo e negativo.
Infine proverò a esplorare quelle che mi sembrano le traiettorie
tecnologiche che si stanno aprendo davanti a noi e che
condizioneranno decisamente le abitudini e i comportamenti di
consumatori e marketer.
La curva a S
La sigmoide è una funzione che viene utilizzata sia per
rappresentare la dinamica delle performance di una tecnologia, sia per
descrivere la diffusione dell’innovazione.
Nel primo caso, la S emerge dal rapporto tra performance e
impegno, organizzativo o d’investimento. Nella fase iniziale, il
miglioramento delle performance è lento perché i principi di base della
tecnologia sono stati compresi in modo parziale. Quando i ricercatori
arrivano a comprendere più approfonditamente la tecnologia, il
miglioramento comincia a essere più rapido. Durante lo sviluppo,
l’attenzione è posta in tutte le attività che producono i maggiori
miglioramenti a parità di impegno, garantendo un rapido incremento
delle performance. A un certo punto, però, il rendimento delle risorse e
delle energie impiegate per lo sviluppo della tecnologia inizia a
decrescere. Nella fase di maturità il costo marginale di ciascun
miglioramento aggiuntivo aumenta, mentre la curva tende ad
appiattirsi.
Una delle traiettorie tecnologiche più famose è quella nota come
Legge di Moore, che riguarda il rapporto tra performance e tempo. Nel
1965 Gordon Moore, cofondatore di Intel, notò che nei primi anni di
vita dell’azienda il numero di transistor presenti su un unico circuito
integrato, indicatore di performance, raddoppiava ogni anno. In seguito
tale raddoppio della densità stava diventando di 18 mesi. Nel 2016
l’associazione dell’industria dei semiconduttori, su Nature, ha
decretato la fine della legge di Moore per limiti fisici
(miniaturizzazione e calore) e dei relativi costi associati.
La curva a S può essere usata anche per spiegare la diffusione
dell’innovazione. In questo caso, esprime il rapporto tra il numero
complessivo degli utilizzatori e il tempo di vita dell’innovazione sul
mercato. Tipicamente quando un prodotto/servizio, che incorpora un
certo grado di innovazione, viene immesso sul mercato fa fatica ad
attecchire. Poi, grazie agli sforzi di marketing e a una serie di motivi
espressi nel paragrafo successivo, si diffonde a un numero sempre più
ampio di persone. Infine, quando il mercato tende a saturarsi, le nuove
adozioni cominciano a stagnare e si apre lo spazio per altre
innovazioni.

Figura 2.1 La curva a S.

È quello che è accaduto quando furono introdotte sul mercato le


prime calcolatrici, usate inizialmente solo da scienziati e ingegneri che,
fino a quel momento, si erano serviti dei regoli calcolatori. Solo
successivamente la calcolatrice ha convinto i contabili, poi gli studenti
e, da ultimo, la generalità delle persone. Alla fine quell’oggetto
specificamente creato per un singolo scopo è stato fagocitato dallo
smartphone (Schilling M. A., Gestione dell’innovazione, McGraw-
Hill, 2005). Lo stesso fenomeno, rappresentato dalla sigmoide, può
servire anche a comprendere la disruption prodotta dalla tecnologia in
interi settori. Basti pensare a quello della fruizione casalinga dei
contenuti video che per decenni è stato nelle mani del colosso del
video noleggio Blockbuster, fino a quando una startup, Netflix, dopo
diversi fallimenti e un tentativo di farsi acquisire dal rivale, non ha
scommesso su un innovativo servizio di streaming, che è diventato il
punto di riferimento per l’intrattenimento domestico.
Nel lontano 1903 il sociologo francese Gabriel Tarde osservò che la
diffusione di un’innovazione dipendeva da un processo sociale basato
sull’imitazione.
Nella fase iniziale di introduzione sul mercato l’adozione è lenta
perché i vantaggi non sono chiari e l’informazione non è diffusa. Poi,
col passare del tempo, tenderanno a crescere gli utilizzatori fino a
raggiungere un livello di saturazione sul mercato. A questo punto,
spesso, la tecnologia precedente viene sostituita da una nuova che
andrà incontro alla stessa dinamica diffusiva.
Un ampliamento di questo modello è quello proposto negli anni
sessanta dal sociologo Everett Rogers, in cui ha un ruolo determinante
la comunicazione. Due i processi chiave: quello di adozione e quello
della diffusione (Rogers E., Diffusion of innovations, Free Press of
Glencoe, 1962).
Figura 2.2 La curva di adozione di Rogers rivisitata da Geoffrey Moore.

Il primo ha a che fare con le strategie decisionali che portano


ognuno di noi a scegliere un oggetto tecnologico, attraverso un
processo in cinque fasi: la consapevolezza (awareness), l’interesse
(interest), la valutazione (evaluation), la prova (trial) e, infine, la fase
dell’adozione vera e propria (adoption).
Il secondo processo coinvolge la collettività e descrive come si
diffonde un’innovazione grazie alla comunicazione della stessa, tra i
singoli e col contributo dei media. Graficamente, si può rappresentare
con una curva a campana che, insieme alle fasi, mette in evidenza i
gruppi sociali adottanti, riprendendo la tassonomia di Ryan e Gross
sulla diffusione delle sementi ibride dell’Iowa. La prima fase è quella
nella quale l’innovazione è apprezzata dagli innovatori (innovators),
giovani, benestanti, con accesso a fonti informative specifiche e
propensi al rischio che la tecnologia non si riveli matura. Nella
seconda fase, l’innovazione viene recepita dai primi adottanti (early
adopters), che hanno caratteristiche di status simili agli innovatori, ma
sono leggermente meno propensi al rischio. In queste prime due
categorie rientrano opinion leader in grado di spingere altri
all’adozione. Nella terza fase entrano in gioco coloro che sono soliti
attendere la prova degli altri, sono la maggioranza anticipatrice (early
majority) fatta di appartenenti alla classe media, più avversi al rischio.
Segue la maggioranza ritardataria (late majority), fatta da persone che
scelgono solo quando avvertono la pressione sociale, determinata
anche dalla comunicazione. Infine, gli ultimi ad adottare sono definiti
ritardatari (laggards), persone legate allo status quo, magari anziani,
con basso reddito e socialmente isolati.
La teoria di Rogers ha subito diverse critiche, ma quella di maggior
successo è stata quella di Geoffrey Moore. Egli sostiene che il
processo di adozione non è continuo, ma c’è uno burrone (chasm) tra
gli early adopters (ribattezzati visionaries) e la early majority
(ribattezzata pragmatists). La difficoltà delle aziende starebbe proprio
nel riuscire a saltare il burrone, convincendo i soggetti più pragmatici e
prudenti (Moore G., Crossing the chasm: Marketing and Selling High-
tech Products to Mainstream Customers, 1991).
L’evoluzione tecnologica
Ma come funziona l’evoluzione tecnologica? Perché una tecnologia
si afferma sul mercato a scapito, magari, di una più performante? Per
Utterback e Abernathy l’innovazione tecnologica attraversa un
percorso nel quale è possibile identificare due fasi (Utterback J. M. e
Abernathy W. J., “A dynamic model of process and product
innovation”, Omega, the international journal of management science
3, 1975). Nella fase iniziale, detta fluida, i produttori propongono
diversi “form factor” e combinazioni di funzioni, a prezzi elevati,
cercando di capire quali sono i gusti dei consumatori. A un certo punto
emerge un “disegno o modello dominante”, che incontra le necessità di
un’ampia fetta di mercato. Si entra così “nella fase specifica” nella
quale tutte le innovazioni di prodotto e di processo sono legate
specificamente al “dominant design”. In pratica, da questo momento
tutte le aziende eviteranno di scommettere su nuove soluzioni e
concentreranno i propri investimenti su innovazioni di processo in
grado di rendere l’offerta del modello dominante più efficace ed
efficiente, oppure su innovazioni incrementali (Utteback J. M., Suarez
F. F., “Innovation, competition and industry structure”, Research
Policy 22, 1993).
L’azienda che è riuscita a imporre il prodotto di successo si gode i
risultati, mentre le altre cercano di coprire ulteriori segmenti di
mercato, differenziando i modelli e variando il prezzo. Questa “era del
cambiamento incrementale” durerà fino alla successiva discontinuità
tecnologica (Anderson P., Tushman M., “Technological discontinuities
and dominant designs: a cyclical model of technological change”,
Administrative Science Quarterly 35, 1990).
Il modello dominante si può affermare anche se non è il migliore,
per diverse ragioni. Dal punto di vista dell’offerta alle aziende
concorrenti può convenire economicamente sfruttare il successo di un
prodotto che si va affermando, anziché continuare a proporre la propria
idea a un mercato che ha già scelto. Inoltre possono entrare in gioco gli
effetti dell’apprendimento: all’aumentare della produzione
diminuiscono i costi e aumentano le performance per effetto
dell’accumulo di know how (curva di esperienza).
Dal punto di vista della domanda entrano in gioco i benefici di
valore che il prodotto nuovo ha nelle fasi del processo di
appropriazione e consumo (acquisto, consegna, utilizzo, servizi
accessori, manutenzione, dismissione). Gli elementi dell’utilità
racchiusi da Kim e Mauborgne nella loro “Buyer Utility Map” sono la
semplicità, la praticità, la produttività per il cliente, i rischi, il
divertimento e l’immagine che offre all’acquirente, il rispetto
dell’ambiente (o altri valori intangibili). Questa mappa può essere utile
anche per il marketer che vuole individuare la giusta proposizione di
valore per il nuovo prodotto (Kim W. C., Mauborgne R., “Knowing a
winning business idea when you see one”, Harvard Business Review,
settembre-ottobre 2000).
Un altro fenomeno che può generare l’affermazione di
un’innovazione è quello delle esternalità di rete positive, che si
determina quando il valore del bene o del servizio aumenta più che
proporzionalmente all’aumentare dei suoi utilizzatori.
Infine anche la disponibilità di beni complementari, in grado di
aumentare l’utilità del nuovo prodotto, gioca un ruolo importante nella
sua adozione.
Ma oltre ai valori funzionali, attuali e oggettivamente riscontrabili, il
consumatore valuta anche elementi soggettivi come i valori percepiti e
attesi rispetto all’utilità che può avere il bene o servizio,
all’ampliamento della sua base utenti, alla comparsa di prodotti
complementari.
Le forze della tecnologia
Kevin Kelly, futurologo e co-fondatore di Wired, parla di Technium
per indicare l’unione di tecnologia e cultura come un organismo
vivente, con esigenze e dinamiche proprie. Un organismo che l’uomo
può solo comprendere e sfruttare al meglio, ma non fermare (Kelly K.,
Quello che vuole la tecnologia, Codice Edizioni, 2000).
Recentemente Kelly ha individuato dodici forze tecnologiche che
stanno già plasmando il nostro presente e che continueranno a incidere
sulle nostre esistenze (Kelly K., The Inevitable, Viking Pr, 2016).
Becoming: cose e persone sono in costante divenire, anche se non
ce ne accorgiamo. Per esempio, il Web come lo conosciamo ora,
un luogo da navigare, muterà per trasformarsi in una presenza cui
relazionarsi.
Cognifying: è la forza che sta dietro ai progressi dell’intelligenza
artificiale. Per Kelly, “Now everything that we formerly electrified
we will cognify”. Gli oggetti diventeranno intelligenti e
l’intelligenza del futuro non sarà generalista, ma molto
specializzata nell’esecuzione di compiti specifici. Per l’autore
quella che ci attende non è una corsa contro le macchine, ma con
le macchine. In questo rapporto cooperativo ci aiuteranno a
definire meglio cosa siamo e a capire quale sarà il nostro nuovo
ruolo nella società.
Flowing: “Internet è la più grande macchina fotocopiatrice”.
Ogni cosa che può essere dematerializzata lo sarà e fluirà
liberamente in Rete. Lo abbiamo visto con quello che è successo
alla musica quando è diventata digitale. Quando possibile e utile,
l’immateriale è destinato a prevalere sul materiale, il bit
sull’atomo, il soft sull’hard.
Screening: gli schermi di qualunque dimensione continueranno a
moltiplicarsi e rappresenteranno il diaframma verso
l’informazione e la comunicazione.
Accessing: il possesso non sarà così importante come lo è oggi.
Invece sarà fondamentale l’accesso a servizi e conoscenza. Ne
consegue che le aziende che lo forniranno saranno in una
posizione di vantaggio sulle altre.
Sharing: tutto ciò che potrà essere condiviso lo sarà: tempo,
pensieri, emozioni, denaro, servizi ecc.
Filtering: in un mondo di abbondanza diventa fondamentale
riuscire a filtrare ciò che più è interessante in un certo momento.
Le aziende che sapranno creare i migliori filtri saranno in grado di
offrire un’esperienza migliore ai propri clienti.
Remixing: gli oggetti digitali si prestano a essere “miscelati”,
tanto che per Kelly i più importanti lavori culturali e i media più
potenti saranno quelli che saranno stati remixati di più.
Interacting: nei prossimi trent’anni ciò che non sarà
intensamente interattivo verrà considerato rotto. Come esempio
della massima interattività, Kelvin cita la realtà virtuale e
aumentata, che saranno parte integrante delle nostre vite.
Tracking: Internet è anche la più grande e veloce macchina di
monitoraggio e ogni cosa che vi transita verrà tracciata. Questo
trend comprende anche l’auto-monitoraggio a scopo di salute e
l’inevitabile monitoraggio da parte delle istituzioni. Per Kelly la
sorveglianza è inevitabile. L’unica possibilità che intravede è di
lottare perché la relazione sia più simmetrica, soprattutto tra stato
e cittadino. Egli prospetta una futura situazione di cooveglianza,
in cui cittadini e istituzioni si sorveglieranno a vicenda.
Questioning: in futuro assumerà maggior valore la capacità di
fare le giuste domande, più che ottenere le risposte appropriate. I
“question maker” saranno il motore di nuove imprese e nuove
possibilità, perché le domande indirizzano il pensiero macchinico.
Beginning: secondo Kelly stiamo vivendo l’inizio di una nuova
era, quella nella quale gli uomini stanno iniettando intelligenza in
oggetti inanimati e connettendo tra loro le intelligenze di esseri
umani e di macchine. La convergenza di tante intelligenze in una
super mente viene chiamata holos. Ma più che a una singularity
(https://it.wikipedia.org/wiki/La_singolarit%C3%A0_%C3%A8_vicina) di cui
aver paura, il pensatore pone l’accento sulle opportunità che tale
sistema potrà generare per persone e imprese.
Il software si è mangiato il mondo
Italo Calvino, già nel 1988, aveva intuito che “è il software che
comanda, che agisce sul mondo esterno e sulle macchine, le quali
esistono solo in funzione del software, si evolvono in modo
d’elaborare programmi sempre più complessi”. Ma bisognerà aspettare
ancora qualche decennio perché la maggioranza sia in grado di
sperimentare il potere della leggerezza del software sulla pesantezza
dell’hardware.
Nell’agosto del 2011, sul Wall Street Journal apparve un editoriale
atipico a firma di Mark Andreessen, co-creatore del primo browser
Mosaic, di Netscape e della Andreessen Horowitz, una delle più
influenti aziende di venture capital del mondo
(https://www.wsj.com/articles/SB10001424053111903480904576512250915629460). Nel
pezzo “Why is software eating the world” si sosteneva che le aziende
tecnologiche fondate su servizi online, e dunque sul software,
avrebbero dato filo da torcere a quelle più tradizionali, in qualunque
settore. Anzi, che il software sarebbe diventato un vantaggio
competitivo che avrebbe permesso crescita e profitti di lungo periodo.
In effetti, a distanza di dieci anni, è evidente come quella previsione
si sia rivelata corretta. La codificazione del mondo ha reso obsoleti
interi settori, ha fatto emergere nuovi protagonisti e modificato
profondamente i bisogni delle persone.
Guardando i dati di giugno 2020, si scopre che tra le prime dieci
aziende per capitalizzazione di mercato ce ne sono sette che basano il
loro core business sul software (software driven), mentre pochi anni
prima la classifica era dominata dalle industrie dell’energia, delle
telecomunicazioni e dei beni di largo consumo
(https://www.pwc.com/gx/en/audit-services/publications/assets/global-top-100-
companies-june-2020-update.pdf). Complessivamente Microsoft, Apple,
Amazon, Alphabet, Facebook, Alibaba e Tencent Holdings hanno una
capitalizzazione di circa 6.500 miliardi. Un accenno al loro modo di
fare soldi credo sia interessante per capire quanto è divenuto
importante il codice nella produzione di ricchezza.
Microsoft dagli anni Ottanta ha la leadership nei sistemi operativi
per personal computer e degli applicativi per la produttività
personale. Sotto la guida del CEO Satya Nadella è riuscita a
trasformare il suo modo di fare software: da quello pacchettizzato
a quello fruibile in abbonamento, che garantisce ricavi ricorrenti
(software as a service). Oggi le sue fonti di reddito sono ripartite
abbastanza equamente tra i software di produttività e business
(Office, Dynamics e LinkedIn), quelli del personal computing
(Windows, XBox e la pubblicità su Bing) e quelli dell’offerta di
servizi in cloud (Azure).
Apple deriva i suoi ricavi da prodotti consumer che sono un mix
perfetto di bellezza hardware e funzionalità software. Oltre la
metà del fatturato deriva dalla vendita di iPhone, ma negli ultimi
anni la seconda fonte è diventata la vendita di servizi (quelli
derivanti dalle transazioni che avvengono nell’App Store e quelli
degli abbonamenti a iCloud, Apple Music, Apple TV+).
Amazon ha stravolto l’intero settore del retail attraverso la
creazione del più grande e-commerce dell’Occidente, alla base
del quale c’è un’infrastruttura di servizi in cloud che viene
venduta a terzi. Il 50% dei ricavi deriva dagli acquisti su
Amazon.com, ma cresce quella derivante dalla vendita di
abbonamenti ai servizi Prime e di Amazon Web Services, l’offerta
cloud di servizi computazionali, di storage e database per le
aziende.
Alphabet è la holding creata da Sergey Brin e Larry Page nel
2015 per raccogliere le varie anime della loro storia
imprenditoriale, dai servizi online alle innovative imprese nei
campi della telecomunicazione, della salute, dei trasporti, del
Quantum Computing. Oltre l’80% del fatturato complessivo
dipende dalla pubblicità su Google e, in parte, YouTube. Sono i
benefici tangibili della creazione di una serie di software che
permettono a chiunque di emergere tra i risultati di ricerca, in
base a specifiche parole chiave (segnali di interesse) e di
pianificare pubblicità tabellare in giro per il Web.
Facebook, come noto, ha creato un social software che ha
permesso di connettere oltre 2 miliardi di persone in un giardino
recintato fatto di notizie, svago, interazioni. I dati prodotti
spontaneamente dagli utenti sono il motore di Facebook Ads
Manager, il software che permette ad aziende di qualunque
dimensione di creare pubblicità per i siti del network di
Zuckerberg, in modalità self-service. Il 98,5% degli introiti deriva
dalla vendita di spazi pubblicitari, il 70% dei quali è effettuato
dalle piccole imprese.
Alibaba, fondata dal carismatico Jack Ma, è una multinazionale
cinese che è diventata leader in diversi settori. In particolare
Alibaba.com è l’equivalente di Amazon.com, mentre Taobao è
più simile a eBay. Altro punto di forza è il sistema di pagamento
Alipay, simile a PayPal, e usato da oltre 800 milioni di cinesi. Il
50% dei ricavi deriva dalle transazioni commerciali sulle sue
piattaforme di e-commerce, il resto è attribuibile alle vendite
all’ingrosso, ai servizi di logistica, al cloud computing, alla
pubblicità per i venditori.
Figura 2.3 Le aziende con più elevata capitalizzazione (PwC, luglio 2020).

Tencent, altro colosso cinese, ha ottenuto un enorme successo


grazie ai suoi tanti servizi online. Il centro della strategia è
QQ.com, il portale di riferimento per i cinesi, perché ingloba
servizi di posta, messaggistica, intrattenimento e commercio. Il
prodotto di maggior successo è WeChat usato da oltre 1,2 miliardi
di persone perché non è una semplice applicazione di
messaggistica istantanea, ma è una super app che contiene al suo
interno le applicazioni più svariate (quelle per gli acquisti di
qualunque tipo fino a quelle per ottenere documenti dalla
pubblica amministrazione). Una linea di business di enorme
successo è quella connessa alla produzione di giochi che hanno
valicato la muraglia cinese, come League of Legends, Clash of
Clans, Clash Royal, Brawl Stars.
Il software oggi non è solo il cuore di grandi aziende, il loro bene
più prezioso e per questo protetto strenuamente, è una forza invisibile
che guida le nostre esistenze e anima gli oggetti dei quali non
possiamo fare a meno. Ce ne rendiamo conto solo quando smette di
funzionare: quando non ci permette di prendere i soldi in banca,
quando i nostri aggeggi elettronici impazziscono, quando la nostra
auto ci lascia a piedi.
Il software ha preso il controllo del mondo anche da un punto di
vista culturale perché, per dirla con Lev Manovich, fornisce la
grammatica degli atti e dei processi culturali che nascono nel contesto
digitale. Il codice dà forma alla cultura moderna perché anima i
programmi che vengono utilizzati per creare e condividere contenuti e
ambienti mediali. Si pensi alle possibilità creative offerte dalle app per
smartphone o agli scambi/remix generati sui social media (Manovich
L., Software Takes Command, Bloomsbury USA Academic, 2013).
Il codice oggi definisce i confini del possibile, disegna le nostre
esperienze quotidiane, ci indica cosa possiamo fare e cosa non
possiamo fare. Il problema è che noi non ne abbiamo il controllo,
siamo costretti a fidarci di aziende che dirigeranno le nostre azioni. Tra
l’altro, anche se avessimo la possibilità di ispezionare il codice di un
programma, non riusciremmo a comprenderlo. E laddove riuscissimo a
capirci qualcosa, rimarremmo comunque all’oscuro delle tante
interconnessioni che esso sviluppa con altri software collegati.
Senza voler fare del terrorismo tecnologico, è importante prendere
coscienza che il codice che oggi viene scritto da sviluppatori umani,
domani si scriverà da solo. Sempre più frequentemente gli sviluppatori
progetteranno codice per demandare al software la scrittura di nuovo
codice, attraverso tecniche di intelligenza artificiale. Ne consegue che
all’opacità del codice si aggiungerà l’opacità delle regole di scrittura.
Queste “black box”, in verità, già oggi danno da pensare nel momento
in cui generano scelte razziste o poco comprensibili dall’uomo. Si
pensi agli algoritmi discriminatori utilizzati per individuare i profili di
rischio delle persone, legati all’erogazione di credito bancario o alle
coperture assicurative.

Intelligenza artificiale
Basta leggere queste due parole e immediatamente il nostro cervello
immagina gli androidi di Philip K. Dick o Hal 9000 di Stanley
Kubrick. Non è sbagliato, perché il campo denominato “intelligenza
artificiale” (IA) è davvero molto vasto e si sposta in avanti col passare
del tempo. Già nel 2017 Sundar Pichai, CEO di Alphabet, annunciò il
passaggio da un mondo “mobile first” a un mondo “AI first”.
Oggi il concetto di intelligenza artificiale serve a indicare alcune
tecniche avanzate di sviluppo del software, che si rendono necessarie
quando il programmatore non riesce a prevedere le
istruzioni/condizioni necessarie per risolvere un certo problema.
Queste tecniche sono quelle che rientrano nella cosiddetta intelligenza
artificiale specialistica o debole, ben distinta da quella generale o forte.
Quest’ultima è quella prospettata dallo scienziato Ray Kurzweil, che
sostiene che la tecnologia stia progredendo esponenzialmente verso la
“Singolarità”, un momento nel futuro, individuato nell’anno 2045, in
cui intelligenze artificiali forti saranno in grado di automigliorarsi e
superare l’intelligenza umana (Kurzweil R., La singolarità è vicina,
Apogeo 2008).
Il machine learning consiste nella creazione di algoritmi pensati per
indurre il software a imparare dall’esperienza. Lo si fa non partendo da
una serie di passi predefiniti per raggiungere una soluzione, ma da
modelli statistici attraverso i quali apprendere le regole giuste per
risolvere il problema dato (come ben spiegato da questa grafica
dinamica: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/).
Gli algoritmi di apprendimento automatico
(https://it.wikipedia.org/wiki/Apprendimento_automatico) sono
tradizionalmente divisi in cinque principali tipologie: apprendimento
supervisionato, non supervisionato, con rinforzo, con apprendimento
continuo, con addestramento preventivo. Le prime due sono quelle più
largamente utilizzate.

Figura 2.4 Differenze tra modelli di machine learning.

Nell’apprendimento supervisionato (supervised learning),


l’obiettivo è far apprendere una regola generale in grado di generare
l’output voluto quando si incontrano input nuovi. In pratica si parte
fornendo al sistema esempi di input e dei relativi output desiderati
(training set). Dopo la fase di apprendimento, un altro set di dati (test
set) servirà a valutare il lavoro svolto. Si tratta di un metodo che
funziona bene quando i dati storici possono essere utili a predire
l’output futuro, quindi in assenza di variabilità dovuta a fenomeni
esterni.
Nell’apprendimento non supervisionato (unsupervised learning),
invece, non vengono forniti dati di input già preannotati, né output
attesi. Il compito dell’algoritmo è quello di individuare
autonomamente una qualche struttura che lega i dati. L’esempio tipico
è quello dell’analisi dei molteplici dati relativi ai clienti di un’azienda
(genere, età, provenienza, comportamenti di acquisto e tanto altro).
Com’è possibile effettuare delle attività di marketing su una massa così
indistinta di individui o prevedere il comportamento di nuovi clienti?
Starà all’algoritmo individuare i cluster più sensati di clienti che hanno
caratteristiche comuni e si comportano in maniera similare.
Il deep learning è una tecnica che usa strutture algoritmiche più
sofisticate. Si basa su reti neurali su livelli multipli, che simulano il
comportamento dei neuroni biologici nel senso che, stimolati da un
dato in entrata, ne producono uno in uscita. Oggi l’utilizzo di modelli
così complessi è reso possibile dalla potenza di calcolo di chip dedicati
e computer che lavorano in parallelo su reti molto veloci.
Il primo progresso in tale ambito è stato di Google che, nel 2012,
riuscì a creare una rete neurale composta da 16.000 processori che fu
in grado di identificare autonomamente un gatto
(http://research.google.com/archive/unsupervised_icml2012.html) da dieci
milioni di video. Nel 2015 un ulteriore passo in avanti si ebbe con la
vittoria di AlphaGO (il supercalcolatore di DeepMind,
https://deepmind.com/alpha-go) contro il campione europeo del gioco più

complesso al mondo: il GO. L’anno successivo AlphaGo riuscì a


sconfiggere anche il campione mondiale Lee Sedol, grazie alla “mossa
37”, una mossa sul momento giudicata come un errore dagli spettatori
umani, ma che si è poi rivelata una giocata creativa e vincente.
Insomma, in quel momento, il sistema ha dimostrato di riuscire a
decidere, andando oltre la conoscenza appresa dalle precedenti partite.
Il problema delle reti neurali profonde è che non sappiamo come,
dato un input, riescano ad arrivare al risultato. I ricercatori finora si
sono applicati per far funzionare questi modelli, ma solo adesso stanno
provando a capire cosa avviene dentro la “scatola nera” (un campo di
ricerca noto come “Explainable AI”). Questo li rende inadatti a
svolgere compiti critici, che coinvolgono la sicurezza delle persone.
Nelle auto a guida autonoma i modelli per individuare i pedoni sulle
strisce pedonali funzionano molto bene, ma solo nel 99% dei casi.
I compiti per i quali vengono impiegate queste tecniche più di
frequente possono essere ricondotti ai cinque descritti di seguito.
Speech recognition: è il problema che riguarda la comprensione
della voce umana (anche in condizioni di rumore), delle
inflessioni e dei dialetti. Allo stesso tempo è anche una tecnica
utilizzata dagli assistenti personali per rispondere a determinati
comandi (Siri, Alexa, Cortana, Google) o dai sistemi di
dettatura/traduzione che trasformano la voce in testo (tecnica
detta “speech to text”). La speech recognition viene spesso
accoppiata a quella di natural language processing (NPL).
Addirittura banche come HSBC usano la voce per
l’autenticazione biometrica ossia per permettere ai propri clienti
di fare operazioni al telefono, senza bisogno di digitare password.
Natural language processing: indica tutte le tecniche di
trattamento informatico del linguaggio naturale, quello che
usiamo comunemente per esprimerci, finalizzate alla lettura e alla
comprensione di testi scritti o letti. Queste tecniche possono
essere basate su regole linguistiche predefinite da linguisti
computazionali oppure su algoritmi di machine learning che
usano metodi statistici per processare il linguaggio. Possono
essere usate per analizzare le opinioni delle persone (sentiment
analysis) e “far parlare un testo scritto” (text to speech), in questo
caso utilizzando anche tecniche di sintesi vocale.
Image recognition: il problema del riconoscimento delle
immagini da parte di una macchina che può essere affrontato
grazie a tecniche di intelligenza artificiale di diverso tipo.
Fondamentalmente l’algoritmo viene addestrato a riconoscere
un’immagine, partendo dall’analisi dei singoli pixel che la
compongono, oppure viene programmato per apprendere
autonomamente. Spesso si usano reti neurali specifiche, dette
convoluzionali (convolutional neural network). È un campo
molto interessante quando viene applicato nella diagnostica
preventiva, per esempio per il riconoscimento di masse tumorali
difficilmente percepibili dall’occhio umano.
Computer vision: è il campo di ricerca che studia come
permettere a una macchina di comprendere ciò che vede,
attraverso una videocamera. Ultimamente si stanno facendo passi
da gigante in questo ambito grazie agli investimenti ingenti sulle
auto a guida autonoma. Qui la capacità di vedere e capire cosa si
ha di fronte, anche ad alte velocità, è fondamentale per prendere
le giuste decisioni.
Decision making: è l’area forse più interessante nella quale
possono essere impiegate le tecniche di intelligenza artificiale.
Già oggi la maggioranza delle compravendite di titoli viene
attuata da algoritmi nel giro di frazioni di secondo (high
frequency trading). Se ci saranno progressi soddisfacenti, in
futuro molte delle nostre decisioni odierne verranno demandate a
software specifici. Ne parleremo più avanti quando vedremo
alcuni esempi di tecniche di IA applicabili al marketing.
Si tratta di compiti che possono essere applicati a tutti i settori, ma
ce ne sono alcuni più pronti di altri ad accogliere quest’ondata
d’innovazione, per l’impatto che può avere sui processi e sull’offerta.
Finanza: settore pionieristico nell’uso dell’AI per leggere
l’enorme quantità di dati disponibili e prendere decisioni rapide di
compravendita. Usata per individuare anomalie nella circolazione
del denaro o frodi e sempre di più spesso per stabilire a chi
concedere credito, valutando i profili di rischio ipotetici.
Manifattura: le tecniche di computer vision sono molto utili per
individuare i difetti di produzione direttamente in linea e il
machine learning può aiutare a prevedere i flussi della domanda.
Inoltre, il software animerà la fabbrica dominata dal lavoro di
robot efficaci, efficienti e infaticabili.
Energia: le reti neurali profonde, leggendo i dati storici e quelli
provenienti in tempo reale dai sensori applicati agli impianti,
permettono di migliorare l’efficienza energetica, riducendo i costi
e le emissioni di CO2.
Trasporti: l’innovazione trasformerà completamente il settore
quando saranno operativi gli automezzi a guida autonoma, ma già
oggi gli algoritmi previsionali aiutano a gestire le risorse
disponibili e a ottimizzare i tempi di consegna.
Salute: nel campo della ricerca, gli algoritmi sono molto utili per
ridurre i tempi e i costi delle scoperte di nuovi farmaci e nello
studio di nuove malattie. Nella medicina è molto promettente
l’utilizzo dell’IA per affiancare i medici nelle diagnosi di tumori
al primo stadio, spesso invisibili all’occhio umano.
Media e intrattenimento: in questo vasto settore l’IA può
sostenere l’intera filiera, offrendo spunti fantasiosi ai creativi,
individuando i contenuti più rilevanti in un dato momento per un
certo cliente, velocizzando le fasi di post-produzione.
Da quanto detto finora, è chiaro che, per imparare e agire, il
software ha bisogno di potenza computazionale, ma anche di enormi
quantità di dati, magari di diversa natura e generati in tempo reale.
Come le aziende tecnologiche usano l’intelligenza artificiale
Le metodologie di sviluppo del software che impiegano tecniche di intelligenza
artificiale hanno il potere di trasformare e rendere più competitive le aziende che
le utilizzano. Qui proverò, senza pretesa di esaustività, a passare in rassegna i
modi in cui le più grandi aziende di tecnologia stanno utilizzando machine
learning e deep learning per migliorare i propri servizi, soddisfare i bisogni delle
persone e diventare leader del mercato.
Alphabet è quella che più di altre sta già usando estensivamente
l’intelligenza artificiale nei prodotti di tutte le aziende controllate. DeepMind
è la punta più avanzata della ricerca, Calico applica l’IA alla comprensione
dei processi di invecchiamento e Waymo allo sviluppo dell’auto a guida
autonoma, ma è Google l’azienda capofila per investimenti in ricerca e
applicazioni pratiche. La sua strategia è di usare l’intelligenza artificiale
come layer per tutti i suoi servizi, non solo per creare singole app
intelligenti.
Il motore di ricerca più usato al mondo è stato enormemente migliorato
grazie a RankBrain, una serie di algoritmi messi a punto per individuare la
pagina migliore di una ricerca complessa fatta in linguaggio naturale, anche
se non contiene le parole usate dall’utente per cercarla. Oggi RankBrain è il
terzo segnale più importante per determinare la classificazione dei
contenuti.
Tecniche di IA vengono usate costantemente per migliorare specifiche
funzionalità di prodotto: per contrastare lo spam e suggerire le frasi da
scrivere in Gmail, per riconoscere le immagini e i volti in Photos, per dare
voce all’assistente personale incorporato in Android e nei dispositivi Home,
per produrre sottotitoli automatici nei video di YouTube e tanto altro ancora.
Big G, oltre ad aver incorporato IA nei suoi prodotti per il grande pubblico,
ha anche un’offerta di servizi enterprise compresa nella sua Cloud Platform
(https://cloud.google.com/products/machine-learning/). Si tratta di una
serie di servizi di machine earning che comprendono modelli “pre-
addestrati” e una piattaforma per generare modelli custom. Per esempio, le
API di Cloud Vision permettono la classificazione di immagini e le API di
Cloud Speech la conversione di audio in testo.
Amazon usa le tecniche di IA nel suo e-commerce per prevedere i gusti
delle persone e suggerire prodotti da acquistare. Nei suoi magazzini
impiega robot intelligenti per ottimizzare la logistica. Inoltre incorpora IA nei
suoi dispositivi per la casa, potenziati da Alexa. Alle aziende offre diversi
servizi in cloud specifici come Lex per costruire interfacce conversazionali,
Polly per la funzione di text to speech, Rekognition per il riconoscimento
delle immagini, Comprehend per l’individuazione di relazioni tra le parole,
Sagemaker per progettare, addestrare e usare modelli di machine learning,
senza dover apprendere tecnologie e algoritmi complessi. L’attività di
ricerca e sviluppo dell’azienda di Seattle si muove in molteplici direzioni:
dalle consegne con mezzi a guida autonoma ai negozi completamente
automatizzati, Amazon Go, dove si viene riconosciuti dal palmo della mano
e non c’è bisogno di estrarre il portafoglio all’uscita.
Microsoft usa l’intelligenza artificiale per animare Cortana, il suo assistente
personale, per migliorare i risultati di Bing e alcune funzioni dei suoi
software di produttività. Inoltre le capacità di machine learning, offerte
all’interno di Cortana Intelligence Suite (https://azure.microsoft.com/en-
us/services/machine-learning/), permettono di costruire soluzioni di
“predictive analytics” usando un’interfaccia grafica “drag and drop”. Diversi i
progetti di ricerca portati avanti, tra cui T-NLG (Turing Natural Language
Generation), un modello di computazione linguistica pensato per generare
sequenze di parole, codice o altri dati, partendo da un input di partenza
(una rete neurale con 17 miliardi di nodi).
L’azienda di Redmond ha investito anche nell’iniziativa OpenAI per
costruire un supercomputer con oltre 285.000 CPU e 10.000 GPU che
lavorano su una rete di 400 gigabit per secondo.
Facebook ha iniziato a utilizzare le tecniche di deep learning per migliorare
la distribuzione delle notizie nel News Feed dei suoi prodotti ossia per
individuare quello che interessa di più a ogni singolo utente, nello spazio di
pochi millisecondi. DeepText
(https://code.facebook.com/posts/181565595577955/introducing-deeptext-
facebook-s-text-understanding-engine/) è il sistema che gli permette di
comprendere i contenuti dei post, delle foto e dei video (utile anche per
migliorare l’accessibilità per gli ipovedenti). Sul social network più popoloso
del mondo, l’IA identifica contenuti violenti e nudità, ma anche segni di
propensione al suicidio tra le parole degli utenti. Inoltre è il cuore del
sistema di pianificazione pubblicitaria, miniera d’oro dell’azienda.
Facebook ha sviluppato M, un assistente personale in grado di fornire
risposte sensate alle domande degli utenti. La sua tecnologia è disponibile
agli sviluppatori di terze parti, che la possono usare per creare bot
intelligenti per Facebook Messenger (https://wit.ai/).
Apple per tanti anni è stata meno attenta dei competitori all’intelligenza
artificiale. Ora, dopo una serie di acquisizioni di startup specializzate, la usa
estensivamente. Ormai i suoi prodotti hanno coprocessori specificamente
progettati per far girare gli algoritmi di machine learning in locale ed evitare
comunicazioni di dati con server esterni per salvaguardare la privacy.
L’IA viene utilizzata per riconoscere i volti e ottimizzare il consumo di
batteria dei dispositivi, per identificare frodi nell’App Store e analizzare i dati
sulla salute catturati dall’Apple Watch, ma anche per potenziare l’assistente
vocale Siri, la qualità del suono emesso da auricolari e speaker e le
immagini catturate con l’iPhone.
IBM è stata pioniera nell’uso delle tecniche di machine learning. A
dimostrarlo valgono i successi del suo supercalcolatore Watson, in grado di
battere gli umani a scacchi e a Jeopardy! Il prodotto commerciale scaturito
da quella esperienza si chiama Watson Analytics
(https://www.ibm.com/analytics/watson-analytics/us-en/). È pensato per
offrire la potenza di calcolo di Watson, nascondendone la complessità
all’utente business. In pratica sulla base di estesi set di dati prova a
estrapolare degli insight predittivi. Inoltre rende disponibili diverse API per
usufruire di molteplici servizi (analisi del testo, speech to text/text to speech,
riconoscimento delle immagini). Nel campo della ricerca ha sviluppato
“Project Debater”, un computer in grado di sostenere dibattiti pubblici con
gli umani.
Ormai tutte le aziende più innovative usano tecniche di intelligenza artificiale:
Tesla per permettere alle sue auto di vedere la strada e prendere le decisioni più
appropriate; Spotify per aumentare il tempo di permanenza attraverso un sistema
di raccomandazioni, basato sulla comprensione dei gusti; Netflix per catalogare i
film automaticamente con etichette granulari, in modo da consigliare quelli più
appropriati; Uber per prevedere e ottimizzare la domanda e l’offerta, per
velocizzare la gestione dei ticket di supporto, per suggerire ristoranti in Uber Eats.

Big Data
Le connessioni stimolano la generazione di dati. Queste connessioni
sono operate sia da persone che da macchine. Entro il 2023, oltre 5
miliardi di persone saranno collegati a Internet, pari al 66% della
popolazione. Inoltre, saranno 29,3 miliardi i dispositivi connessi alla
Rete (3,6 connessioni a testa) e 14,7 miliardi di oggetti intelligenti
(facenti parte della cosiddetta Internet Of Things) connessi tra di loro,
che scambieranno dati su reti a 110 Mbps medi
(https://blogs.cisco.com/sp/annualinternetreport2020). A questi dati creati
dinamicamente e digitalmente si vanno ad aggiungere quelli
provenienti da altre fonti. Se pensiamo ai dati presenti in un’azienda, si
potrebbe immaginare una catalogazione del tipo seguente.
Archivi di documenti scannerizzati: dati interni non strutturati.
Documenti elettronici (xls, pdf, email, word, html, xml, json
ecc.): dati che possono essere interni ed esterni, mediamente
strutturati e molto vari per tipologia.
Media (immagini, video, audio, flash, live stream ecc.): dati
interni ed esterni, mediamente strutturati, che raggiungono volumi
elevati e ad alta velocità.
Social media (Twitter, Facebook, Instagram ecc.): dati interni ed
esterni non strutturati, in tempo reale e a volumi elevati.
Web (dati governativi, meteo, censuari, wikipedia ecc.): dati
esterni differenziati, in alcuni casi strutturati, che possono
raggiungere moli elevate.
Applicazioni di business (CRM, ERP, portali intranet ecc.): dati
interni ed esterni, strutturati.
Data storage (SQL, NoSQL, Hadoop, file system ecc.): dati
interni strutturati ma ingenti.
Log di sistema (da server, dispositivi mobili ecc.): dati interni ed
esterni strutturati, ma che presentano i massimi livelli di
variabilità, volumi e velocità.
Dati da sensori (pubblici e privati): dati interni ed esterni
strutturati, con i massimi livelli di variabilità, volumi e velocità.
Per avere un’idea della quantità di questi dati, basti pensare che nel
2010 si contavano in 800 exabyte (miliardi di gigabyte). Alla fine del
2020 si prevede che arriveranno a 59 zettabyte (trilioni di gigabyte).
Siamo immersi in una “sfera di dati” costituita per il 40% da
entertainment data e per il 29% da productivity/embedded data, la
categoria che cresce di più (https://www.idc.com/getdoc.jsp?
containerId=IDC_P38353). Come se non bastasse, le previsioni dicono che

nei prossimi tre anni saranno prodotti più dati di quanti ne sono stati
generati nei precedenti 30 anni.
Siccome le unità di misura sembrano cambiare ogni anno, è
diventato di uso comune un termine indefinito, ma sufficientemente
evocativo come “Big Data”. Usato per la prima volta alla fine del 2008
dal Computing Community Consortium, serve a definire dati che
hanno le seguenti tre caratteristiche peculiari.
Volume: nel senso di ingenti quantitativi di data set non gestibili
con i database tradizionali (per esempio un aereo di linea genera
10 terabyte di dati ogni 30 minuti di volo).
Velocity: dati che affluiscono e necessitano di essere processati a
ritmi sostenuti o in tempo reale. La velocità a volte è un fattore
mission critical per garantire la soddisfazione del cliente.
Variety: ossia dati di diversa natura e non strutturati come testi,
audio, video, flussi di clic, segnali provenienti da RFID, cellulari,
sensori, transazioni commerciali di vario genere.
Successivamente, alle 3V IBM ne ha aggiunto una quarta, Veracity,
per porre l’accento sull’importanza di avere dataset puliti, accurati e
affidabili, condizione necessaria per ottenere un’elaborazione
fruttuosa.
Figura 2.5 I Big Data nella rappresentazione di Kapow Software.

Indubbiamente i Big Data rappresentano un fattore strategico della


produzione. Per alcuni sono il petrolio dei nostri anni, ma vanno
raffinati adeguatamente per diventare fonte di vantaggio competitivo.
Secondo Davenport, Barth e Bean, le organizzazioni che riescono a
rendere produttivi i Big Data hanno un approccio all’analisi non
tradizionale (Davenport T. H., Barth P., Bean R., “How ‘Big Data’ Is
Different”, MIT Sloan Management Review, 2012,
https://www.hbs.edu/faculty/Publication%20Files/SMR-How-Big-Data-Is-

), come descritto di
Different_782ad61f-8e5f-4b1e-b79f-83f33c903455.pdf

seguito.
Prestano attenzione ai dati che fluiscono in tempo reale, più che a
quelli immagazzinati: si pensi alle analisi delle transazioni per
individuare frodi, a quelle del funzionamento di un sistema per
valutare eventuali anomalie, al tracciamento dei comportamenti
online per generare suggerimenti.
Impiegano “data scientist” più che data analyst, ossia
professionisti che hanno competenze di programmazione,
statistica e matematica, in grado di scrivere gli algoritmi più adatti
a interrogare i dati.
Stanno spostando le attività di analisi dei dati dalla funzione IT a
quelle di “core business”. Che si tratti delle operation, della
produzione o del marketing, è importante che la responsabilità
dell’analisi sia più vicino a chi conosce il business. Solo in questo
modo verranno poste le domande di ricerca più pertinenti a
orientare l’analisi e dunque a ottenere le risposte utili.
Le traiettorie del prossimo paradigma tecnologico
È estremamente difficile individuare la prossima discontinuità
tecnologica nella vita delle persone perché, come abbiamo accennato,
entrano in gioco numerose variabili dal lato dell’offerta e della
domanda, i benefici reali, ma anche quelli soggettivi e attesi, le spinte
legislative, il know how accumulato, il grado di maturità di tecnologie
abilitanti.
Provo a sintetizzare alcune traiettorie che potrebbero rappresentare
gli strati sui quali si fonderà il prossimo paradigma tecnologico dopo i
computer, Internet e gli smartphone.
Infrastruttura di comunicazione. Al momento quella più
promettente per le reti mobili è la tecnologia 5G, che garantisce
un aumento della banda di dieci volte, una latenza di pochi
millisecondi (il ritardo di risposta della Rete dopo un qualsiasi
input) e la possibilità di avere un numero maggiore di dispositivi
serviti da un’antenna telefonica. Anche le connessioni casalinghe
continueranno a migliorare, il recente Wi-Fi 6 (802.11 ax)
promette il 40% di velocità in più rispetto al precedente (fino a 2
gigabit al secondo), migliori performance nelle aree affollate,
minori consumi energetici.
Computazione. Abbiamo visto che la legge di Moore è arrivata
al capolinea; anche se il silicio, con cui si costruiscono i
microprocessori, non è ancora spacciato, ormai non permette
significativi salti di performance. La ricerca in tale campo punta
su tre ambiti: il quantum computing, i nanotubi di grafene e
carbonio, la logica nanomagnetica.
Architetture computazionali. Negli scorsi anni siamo passati
dall’avere server di proprietà in ogni azienda a non averne, per
effetto del cloud computing, che virtualizza e rende disponibili
risorse di elaborazione e storage senza avere la proprietà
dell’hardware. Nei prossimi anni queste risorse si avvicineranno
ai luoghi in cui servono per aumentare la velocità dei pacchetti,
ridurre la latenza e ottimizzare i costi. Si parla di “fog
architecture” per indicare piccoli data center che sono più vicini
all’utilizzatore e di “edge” per quelli che sono in casa, in ufficio o
nel device. Con un’architettura a tre livelli le applicazioni
software di qualunque tipo potranno essere più efficaci ed
efficienti.
Software: l’evoluzione del software oggi viene identificata col
termine ambiguo di intelligenza artificiale. Si tratta di nuove
forme di codificazione che permettono ai programmi e
all’hardware di rispondere meglio alle richieste dell’utente, anche
in maniera autonoma, ossia riuscendo a individuare pattern di
comportamento. In tale ambito rientrano le nuove tecniche di
Computer Vision che permettono alle macchine di vedere ossia
trasformare ciò che viene visto in istruzioni finalizzate a generare
un output e a prendere decisioni.
Queste traiettorie potrebbero convergere nella prossima forma di
interazione uomo-macchina (human-computer interaction) detta
“spatial computing” che, secondo Robert Scoble e Irena Cronin, arriva
dopo tre paradigmi: il personal computer, le interfacce grafiche e il
mobile (Scoble R., Cronin I., The Infinite Retina, Packt Publishing,
2020).
A questo quarto paradigma, oltre alle traiettorie suddette,
contribuiscono le innovazioni che si stanno avendo in altri tre campi:
quello delle ottiche/display, quello dei meccanismi di controllo e
quello della sensoristica che permette la mappatura dello spazio.
Display: costituisce il sistema visivo dei dispositivi che abilitano
l’esperienza. È la finestra per guardare il mondo virtuale o
aumentato. Tale sistema può risiedere in un casco (head mounted
display) o in un occhiale. Esistono sistemi “video-see-through” in
cui sono le videocamere a generare la “parte reale” dell’ambiente
aumentato. I display optical-see-through utilizzano specchi
semitrasparenti per permettere la visione sia della realtà che delle
grafiche virtuali sovrapposte, dando una percezione molto più
naturale. In entrambi i casi il grosso problema è renderli leggeri e
al tempo stesso performanti.
Meccanismi di controllo: il controllo di questa nuova forma di
interazione uomo-macchina può prendere diverse direzioni. La
voce già oggi funziona bene per dare comandi, grazie ai passi
avanti nel campo del riconoscimento vocale, anche in ambienti
rumorosi. Più spesso, nelle esperienze di realtà virtuale si usano
joystick specifici che permettono di intercettare i gesti dell’utente
e interagire con gli oggetti e il mondo circostante. Ma si stanno
studiando anche sistemi avanzati in grado di rilevare i gesti del
corpo senza l’aiuto di periferiche (il tracciamento del movimento
delle mani è già disponibile su Oculus). Inoltre, c’è chi come
Varjo usa sistemi di tracciamento dell’occhio per rendere più
realistica l’esperienza visiva.
Sensori: per permettere alle macchine di “vedere” il mondo
circostante c’è bisogno di sensori adeguati o videocamere e
software in grado di trasformare i dati rilevati in mappe.
Un’azienda come 6D.ai, acquisita da Niantic, usa le videocamere
degli smartphone per ricostruire lo spazio reale (detto “digital
twin”) che costituisce la base per l’integrazione con gli oggetti
virtuali. Oculus utilizza cinque videocamere. Il nuovo iPad Pro
usa uno scanner LIDAR (Laser Imaging Detection and Ranging)
che spara dei raggi laser intorno e misura la velocità dei fotoni di
ritorno per capire la profondità delle cose.
Spatial computing
Il termine “spatial computing” è stato coniato da Simon Greenwold,
che lo definisce come “interazione con una macchina in cui la
macchina conserva e manipola referenti a oggetti reali e spazi”,
portando come esempi un sistema che permette all’utente di creare
forme virtuali e “installarle” nello spazio che lo circonda, o un sistema
che permette di trasformare oggetti fisici in virtuali. In termini più
ampi, sostiene Greenwold, la “computazione spaziale o ambientale” si
ottiene quando le macchine nello spazio e lo spazio nelle macchine si
confondono. A volte ciò significa portare lo spazio nel computer, altre
volte significa iniettare computazione negli oggetti fisici.
Principalmente vuol dire progettare sistemi che vanno oltre i confini
tradizionali di schermo e tastiera (Greenwold S., Spatial Computing,
MIT graduate thesis, 2003).
Nel 1988, Mark Weiser, Chief Technologist del mitico Xerox Parc
Research Lab, aveva usato il concetto di “ubiquitous computing” per
indicare un mondo in cui la tecnologia sarebbe diventata invisibile,
contenuta nello spazio circostante (https://www.youtube.com/watch?
v=7jwLWosmmjE). Mentre nel 1998 Donald Norman introdusse il concetto

di “invisible computer” in riferimento a oggetti intelligenti semplici e


piacevoli da usare, evidenziando i limiti delle interfacce grafiche e
delle realtà virtuali (Norman D. A., The Invisible Computer, MIT
Press, 1998).
Oggi il termine “spatial computing” ha assunto un significato
ombrello, plasmato anche dalle definizioni date dalle società che
lavorano ai progetti concreti. Lo si adopera quando si parla di realtà
estesa (extended reality, XR) e dell’uso di voce, gesti, movimenti del
corpo quali input per azioni che generano output in un contesto
virtuale o, per meglio dire, computazionale.
Extended reality è un termine coniato dal ricercatore Paul Milgram e
include l’intero spettro delle possibilità dal “completamente reale” al
“completamente virtuale” in un teorico continuum realtà-virtualità. La
X sta a rappresentare qualsiasi possibilità offerta dalle tecnologie di
spatial computing, quindi include realtà aumentata (augmented reality,
AR), realtà mista (mixed reality, MR) e realtà virtuale (virtual reality,
VR).

Figura 2.6 Il continuum realtà-virtualità.

Realtà aumentata
Oggi abbiamo una certa confidenza con la realtà aumentata grazie
ad alcune applicazioni pratiche che sono diventate molto note. Su tutti
il popolarissimo gioco Pokémon Go della Niantic, lanciato nel 2016,
che spinge i giocatori a catturare creature virtuali nascoste in contesti
reali e visibili solo attraverso lo schermo del proprio smartphone.
Dunque le applicazioni di realtà aumentata permettono di fondere
oggetti digitali nello spazio circostante. Tra le prime app commerciali
sperimentate ricordo Layar che, già nel 2009, permetteva di far
apparire schede informative sui monumenti inquadrati con il cellulare.
Ma ovviamente la sperimentazione parte negli anni Cinquanta, nei
laboratori militari che svilupparono i primi “head-up display” (HUD),
schermi in grado di proiettare dati aggiuntivi nel campo visivo dei
piloti di aerei, in modo da evitare distrazioni.
Tutti i grandi player tech stanno esplorando le possibilità offerte da
questo nuovo modo di leggere la realtà, ma Google e Apple sono in
prima linea anche perché possono controllare il dispositivo di accesso
e il software abilitante.
Google aveva già intuito le potenzialità della realtà aumentata,
fallendo, però, nell’individuazione del mezzo più opportuno per
promuoverne l’adozione di massa. Gli occhiali “Google Glass”, pur
essendo un prodotto di valore, non si sono dimostrati essere il miglior
cavallo di Troia per portare la realtà aumentata ai consumatori privati
(poi sono stati riposizionati come strumento di lavoro).
Lo smartphone, invece, può diventarlo perché è già nelle tasche di
tutti e perché potrebbe avere la potenza computazionale e l’hardware
necessari (CPU, GPU, sensori) richiesti da tale tecnologia. Per questo,
un gruppo di ingegneri di Mountain View dal 2014 aveva iniziato a
lavorare su Project Tango (https://get.google.com/tango/), una piattaforma
di sviluppo di applicazioni AR, che usa la fotocamera e i sensori del
cellulare per mappare lo spazio fisico. Poi nel 2018 il progetto ha dato
vita ad ARCore, un set di strumenti, framework e API che gli
sviluppatori possono utilizzare per velocizzare lo sviluppo di
applicazioni di realtà aumentata. ARCore sfrutta Java/OpenGL e i due
motori grafici Unity e Unreal, utilizzati soprattutto nella produzione di
videogame. Un anno prima Apple aveva lanciato ARKit, il suo
framework per la creazione di applicazioni che possono girare
immediatamente sulla maggior parte dei dispositivi iOS. Questo
perché l’azienda di Cupertino ha il pieno controllo anche
dell’hardware, a differenza del concorrente di Mountain View.
Sia ARCore che ARKit si basano sui seguenti tre componenti di
base.
Motion tracking: la fotocamera determina sia la posizione che
l’orientamento del cellulare in movimento. In questo modo
permette agli oggetti virtuali di adattarsi coerentemente con il
punto di osservazione.
Environmental understanding: è la capacità di comprendere
l’ambiente circostante, rilevando le superfici orizzontali.
Light estimation: la rilevazione della luce ambientale, per far sì
che gli oggetti virtuali si adattino alla luce esistente per apparire
realistici.
Un ruolo nella popolarizzazione della realtà aumentata ce l’hanno
sicuramente i social media. Snapchat è stata la prima app a proporre
effetti in realtà aumentata da applicare al viso nel 2015. Un anno dopo
anche Facebook ha iniziato a farlo e poi ha esteso questa possibilità
anche a Instagram. Entrambe le piattaforme mettono a disposizione
degli ambienti di sviluppo, Spark AR Studio e Lens Studio, per creare
elementi virtuali da usare nelle rispettive app.
In ambito enterprise, la tecnologia AR viene utilizzata da alcune
grandi aziende per facilitare il lavoro nelle fabbriche. Boing, per
esempio, la usa per permettere agli ingegneri di capire, attraverso
appositi visori, come collegare i cavi giusti delle varie componenti
dell’aereo. Ciò ha determinato una velocizzazione del 30% dei tempi
di installazione e una riduzione del 90% degli errori
(https://www.boeing.com/features/2018/01/augmented-reality-01-18.page).
I Google Glass Enterprise Edition vengono usati alla AGCO
(http://www.agcocorp.com/), produttore mondiale di macchine agricole, per
visualizzare le istruzioni di montaggio e ottenere supporto video
remoto, evitando spostamenti
(https://www.blog.google/products/hardware/glass-enterprise-edition-2/). Ciò
avrebbe ridotto i tempi di produzione del 25%. Li usano anche i
dipendenti della DHL in Germania per ricevere istruzioni visive su
dove consegnare i pacchi, avendo le mani libere.
In ambito ludico, le applicazioni della realtà aumentata attuali più
popolari sono: i giochi (Pokèmon Go, Wizard Unite, Knightfall AR,
The Walking Dead: Our World, o quelli più semplici come NBA AR),
gli effetti per modificare il proprio volto o il paesaggio all’interno di
una social app, le applicazioni per attività specifiche (Ikea Place,
BMW iVisualizer), la ricerca visiva per identificare oggetti attraverso
lo smartphone (Google Lens), applicazioni di tipo educativo (Monster
Park, Night Sky) e varie “utility” come le app per misurare le distanze
(https://arinsider.co/2019/04/23/what-types-of-content-do-ar-users-engage-
most/).

La domanda è se continueremo a fruire dell’AR attraverso uno


smartphone o se useremo degli occhiali (li producono Vuzix, Epson,
Nreal). Su quest’ultimo fronte si stanno registrando interessanti
movimenti: Google non sembra aver abbandonato la strada dato che ha
acquisito North, produttore di occhiali AR leggeri, Apple sembra stia
progettando i suoi Apple Glass.

Realtà virtuale
Si parla di realtà virtuale per descrivere una simulazione digitale di
un ambiente, reale o immaginario, che l’utente può abitare,
interagendo con esso, attraverso specifiche periferiche hardware
(visore, auricolari, guanti o joystick e in alcuni casi una tuta). Le
esperienze di realtà virtuale si caratterizzano per essere immersive,
perché ci si sente parte di un ambiente esplorabile muovendosi, e
interattive, perché è possibile entrare in contatto e controllare gli
oggetti virtuali. In estrema sintesi, se nella realtà aumentata si
mantiene sempre una percezione dell’ambiente fisico, nella realtà
virtuale tale percezione svanisce, si entra in uno spazio generato dal
computer.
Le sperimentazioni iniziarono negli anni ’60, ma è del 1995 il primo
casco commercializzato, il Forte VFX1 di cui nessuno si ricorda. Poi,
nel 2010, Palmer Luckey sviluppa il primo prototipo di Oculus Rift,
chiedendo soldi su Kickstarter, e attira l’attenzione di Mark
Zuckerberg che acquisirà l’azienda nel 2014 per 2 miliardi. È il
segnale che non si tratta di una moda passeggera. In quel periodo,
aziende come Google e Samsung provano a testare il mercato con
prodotti leggeri, visori poco costosi che richiedevano solo uno
smartphone per poter funzionare. Ma l’esperienza era talmente povera
che oggi i produttori si stanno orientando verso hardware più potenti.
I mondi virtuali si possono fruire attraverso visori collegati a un
PC/consolle (in tethering) o con visori stand-alone. La prima soluzione
permette poca libertà di movimento ma il massimo delle prestazioni e
della fluidità perché l’elaborazione viene svolta da un PC. La seconda
soluzione è più economica e permette di muoversi liberamente, al
costo di una minore risoluzione.
I visori si possono distinguere in base ai “gradi di libertà”. I 3DOF
(Degree of Freedom) permettono di tracciare il movimento rotatorio
della testa, quelli 6DOF anche la posizione nell’ambiente, per cui
danno la possibilità di muoversi in tutte le direzioni. Il mercato sta
andando verso questi ultimi, che possono avere caratteristiche diverse
a seconda della fascia di utenza cui si rivolgono:
visori stand-alone come l’Oculus Quest (entro i 500 euro);
visori di fascia media che vanno collegati a PC/consolle come
Valve Index, HTC Cosmos, Playstation VR (entro i 1.000 euro);
visori di fascia alta ad alta risoluzione e bassa latenza, come i
Varjo (intorno ai 10.000 euro); ottimi per attività di progettazione
avanzata e simulazioni.
Solitamente al visore si accompagnano anche dei “controller” per
interagire meglio con gli oggetti e l’ambiente. In alcuni casi, per
migliorare l’esperienza, è possibile comprare dei sensori esterni, che
vengono piazzati nella stanza e che assicurano una corrispondenza più
precisa tra movimento reale e movimento nel mondo virtuale.
Oggi la realtà virtuale viene principalmente fruita in casa attraverso
i videogiochi e, meno frequentemente, in luoghi pensati per
l’intrattenimento come i parchi tematici Sandbox VR, The Void,
Dreamscape Immersive (Location Based Entertainment). Inoltre, ci
sono aziende come Sansar che scommettono su un futuro nel quale non
sarà considerato strano immergersi in eventi e in party virtuali.
Ma l’utilizzo professionale viene già sperimentato con successo
dalle grandi aziende per determinate casistiche.
L’addestramento del personale è uno degli ambiti più usuali.
Anziché spostare persone in luoghi di addestramento specifici, la realtà
virtuale permette l’insegnamento a distanza, anche in applicazioni
critiche. Per esempio, Boeing usa la realtà virtuale per addestrare
l’equipaggio del programma Starliner, SAAB per i piloti di aerei da
combattimento e Flight Safety International per quelli di voli
commerciali (https://varjo.com/boeing-starliner/).
Altro campo di applicazione è quello della progettazione
tridimensionale e la realizzazione di oggetti reali, componenti o
prodotti completi, che si possono testare in ambienti realistici,
riuscendo a valutare anche i colori e i materiali giusti. Audi già lavora
in questo modo per realizzare le auto future, Siemens lo fa per
progettare ambienti industriali.
Infine in campo medico la realtà virtuale può aiutare
nell’esplorazione di dettagliati modelli umani, nella preparazione pre
operatoria e in futuro anche nella telemedicina.
Realtà mista e realtà estesa
Tra le esperienze di realtà aumentata e virtuale si inseriscono quelle
di “realtà mista”. In questo caso, l’utente è immerso in una
riproduzione quasi esatta dello spazio fisico circostante, insieme agli
oggetti virtuali, con i quali può interagire. Microsoft è quella che più di
tutti ha promosso questo concetto, associandolo al suo visore
HoloLens. In realtà, l’azienda lo definisce “computer olografico”
perché crea elementi digitali, chiamati ologrammi, rendendoli parte
dell’ambiente circostante, anch’esso una riproduzione digitale. Un
vantaggio è quello di funzionare senza l’uso di controller dedicati, ma
solo attraverso i gesti e la voce.
In questo mercato, rivolto principalmente a un utilizzo
professionale, compete anche l’azienda finlandese Varjo che ha
sviluppato un dispositivo estremamente potente, chiamato XR-1. Qui
l’etichetta commerciale usata è quella di Extended Reality perché il
visore permette di passare istantaneamente da un’esperienza di “realtà
mista” a una di “realtà virtuale” e viceversa. Inoltre qui, a differenza di
HoloLens, gli oggetti non sono proiezioni tridimensionali trasparenti,
ma appaiono quasi indistinguibili da quelli reali. Merito di una
tecnologia “video pass-through” (alternativa alla “optical see-
through”) che fa uso di hardware e software avanzati. In particolare,
due videocamere a raggi infrarossi attivi generano una mappatura
costante dell’ambiente, due display ad alta risoluzione permettono di
vedere la realtà mista con un campo visivo di 87 gradi (doppio rispetto
ai concorrenti), un sistema di tracciamento oculare simula lo sguardo
per creare esperienze più realistiche. Secondo Volvo Cars, che utilizza
la soluzione Varjo, la realtà mista permette ai progettisti e agli
ingegneri di “guidare” le auto del futuro e valutare tutte le loro
caratteristiche in un ambiente di simulazione molti anni prima che
queste esistano, identificando priorità ed eliminando strozzature nel
processo di progettazione che incidono sui costi di sviluppo. Inoltre, il
tracciamento dei movimenti oculari permette di valutare potenziali
elementi di distrazione e testare i dispositivi di sicurezza. Bohemia
Interactive Simulation ha creato un programma di formazione per
piloti efficace ed efficiente, nel quale i piloti possono collaborare in
una cabina di pilotaggio reale, ma in uno scenario fotorealistico.
È facile intuire che queste nuove esperienze, prima o poi,
passeranno dal dominio esclusivo degli early adopter alla maggioranza
delle persone. Già oggi i prezzi stanno diminuendo sensibilmente dato
che Facebook, di fatto, sta finanziando Oculus con i proventi
pubblicitari delle sue social platform. A quel punto si imporrà un
nuovo modo di pensare al marketing. Un marketing aumentato per
esperienze aumentate, che però non coincide completamente col
concetto di marketing aumentato che voglio proporre in questo libro e
che approfondirò più avanti.
Abbiamo tracciato la strada della tecnologia, ora vediamo come
questa strada incontra quella del marketing.
Capitolo 3
Il marketing

La strada del marketing come pratica aziendale nasce probabilmente


con l’esigenza del produttore e del commerciante di vendere i proprio
prodotti, in presenza di una qualche forma di concorrenza. La teoria
del marketing, come sistematizzazione di pensieri e pratiche degli
uomini di marketing, vede la luce più tardi grazie anche a ottimi
divulgatori come Philip Kotler. Nel tempo, però, soprattutto quando il
marketing ha iniziato a incontrare la tecnologia, abbiamo assistito a
una corsa a inventare l’ultima parola alla moda, che ha perso di vista
l’approfondimento. Troppe le etichette che sono state appiccicate al
marketing: Web Marketing, Social Media Marketing, Digital
Marketing, [Social X] Marketing, Mobile Marketing, Data Driven
Marketing, Big Data Marketing, per non parlare delle numerazioni
applicate al termine, per segnalarne le trasformazioni, Marketing 2.0,
3.0, 4.0. Molta l’attenzione posta a strumenti e tecniche nuove e poca
all’analisi delle trasformazioni profonde che hanno interessato questa
disciplina. Il tentativo di questo capitolo è di partire dalla genesi del
marketing che stiamo vivendo, quello che ha incontrato la tecnologia,
per provare a identificarne i tratti distintivi e individuarne le traiettorie
di sviluppo verso il marketing aumentato.
Evoluzione del concetto di marketing
La prima forma di marketing teorizzata a posteriori è quella detta di
“orientamento alla produzione” (Kotler et al., Marketing Management,
Pearson, 2014). Siamo all’inizio del Novecento, in piena seconda
rivoluzione industriale, e il mercato è caratterizzato da un eccesso di
domanda rispetto all’offerta. La fabbrica è il centro della produzione
delle merci e dell’innovazione applicata. Gli impianti in acciaio,
animati dall’energia meccanica e dall’energia elettrica, consentono
turni di lavoro ininterrotti, che determinano un aumento della
produzione. Tuttavia, la richiesta di prodotti è molto più elevata sia
perché le persone hanno bisogno di tutto, sia perché, a seguito delle
invenzioni nel campo dei trasporti, i mercati di sbocco si moltiplicano.
In questo contesto, il principale obiettivo dell’imprenditore è quello
di ridurre i costi di produzione, soprattutto a scapito dei poveri operai.
Nella sua agenda non c’è alcuna strategia di commercializzazione
perché egli non percepisce l’esistenza di un mercato. Per citare il
famoso motto attribuito a Henry Ford, “il cliente può avere una Model
T del colore che preferisce purché sia nero”.
Intorno al 1930 l’approccio al mercato da parte dell’impresa cambia.
Si parla di “orientamento al prodotto” per descrivere un imprenditore
teso a concentrarsi sul miglioramento della tecnologia di prodotto. Il
consumatore è sempre un’entità quasi irrilevante, tanto che si parla di
“marketing myopia” per definire questa incapacità di mettere a fuoco i
bisogni da soddisfare, prima che i prodotti da offrire.
Negli anni Cinquanta/Sessanta, gli equilibri iniziano a cambiare
allorché l’offerta comincia a superare la domanda. Il marketing
inaugura il suo “orientamento alle vendite”. L’obiettivo è di provare a
smerciare tutto ciò che viene realizzato, attraverso l’utilizzo di
politiche commerciali aggressive, una smisurata forza vendita e
campagne pubblicitarie in grado di stimolare l’interesse dei
consumatori. Si tratta di un approccio di breve termine che punta alla
prima vendita, nella convinzione che l’acquirente continui a preferire
quell’azienda in futuro.
Solo intorno agli anni ’90 del Novecento si sviluppò un
“orientamento al marketing”. Le imprese iniziarono a capire che la
permanenza sul mercato poteva essere garantita solo se si fosse riusciti
a padroneggiare la capacità di individuare i clienti potenziali da
servire, comprenderne i bisogni e formulare un’offerta di valore in
grado di soddisfarli, meglio della concorrenza. Questo nuovo
approccio naturalmente incide anche sulla struttura dei costi d’impresa,
spostando risorse dalla produzione agli investimenti in ricerche di
mercato, comunicazione e distribuzione.
Seguendo la definizione classica di Kotler ,“il marketing è un
sistema integrato di attività, organizzato per sviluppare, attribuire un
prezzo, promuovere e distribuire prodotti e servizi capaci di soddisfare
i bisogni e i desideri del target di mercato, per far realizzare
all’impresa i suoi obiettivi”. Qui si scorgono gli elementi fondamentali
di una pratica metodica, non lasciata al caso, messa in campo
dall’azienda per raggiungere i suoi obiettivi, soddisfando i bisogni
delle persone. Ma lo stesso autore, nella sua bibbia Marketing
Management, propone anche una definizione che pone l’accento
sull’aspetto sociale: “il marketing è il processo sociale mediante il
quale una persona o un gruppo ottiene ciò che costituisce oggetto dei
propri desideri, creando e scambiando prodotti e valore con altri”.
Dunque, sempre più si afferma una visione allargata che non riduce
tutto al profitto e alla immediata transazione tra azienda e
consumatore.
DEFINIZIONE
Secondo la definizione dell’American Marketing Association, il marketing è
l’attività, l’insieme delle istituzioni e i processi che permettono di creare,
comunicare, consegnare e scambiare offerte che hanno un valore per i
consumatori, i clienti, i partner e la società tutta.

Con lo sviluppo di Internet si fanno strada nuove concezioni di


marketing. Secondo la prospettiva funzionalista, le tecnologie sono
fondamentalmente strumentali all’ottimizzazione del marketing mix,
della segmentazione, del targeting (Zwick e Dholakia, 2004a).
Altri pensatori iniziano a scardinare la concezione tradizionale che
vede produzione e consumo come aspetti separati. Per essi il marketing
può generare collaborazione, innovazione sociale e produzione tra pari
(Arvidsson, 2008; Surowiecki, 2004). Le aziende dovrebbero sfruttare
le opportunità offerte dalla rete delle reti e fornire alle persone gli
strumenti per stimolare la partecipazione, condividere conoscenze,
costruire comunità d’interessi. I manager dovrebbero progettare
esperienze di co-creazione ossia cooptare i consumatori nella
produzione del valore, dandogli per esempio più opzioni di scelta. Il
valore non viene pre-confezionato dall’azienda in un prodotto o
servizio immutabile, ma emerge solo dall’azione degli utenti e dunque
cambia a seconda del valore infuso dall’utilizzatore. Ciò comporta un
beneficio per chi fruisce del valore e chi ne ottiene un vantaggio
economico, anche di lungo periodo, in termini di fedeltà alla marca
(Prahalad C. K., Ramaswamy V., Il futuro della competizione, Co-
creare valore eccezionale con i clienti, Il Sole 24 Ore, 2004).
Nello stesso solco si inserisce anche la teoria detta “service
dominant logic” di Lusch e Vargo che spinge il management a curare
tre aspetti: l’identificazione e lo sviluppo di core competence, ovvero
di conoscenze e abilità in grado di generare possibile vantaggio
competitivo; l’individuazione di “consumatori potenziali” che possono
beneficiare di queste competenze; lo sviluppo di relazioni che
coinvolgano i consumatori nella creazione di proposizione di valore,
che siano in grado di soddisfare le loro esigenze specifiche. è una
logica inedita che mette in secondo piano il prodotto e la vendita, per
portare in evidenza il cliente e la collaborazione. Alla base c’è anche
una nuova consapevolezza: le persone non sono interessate solo
all’acquisto di un bene tangibile, ma vogliono acquisire le “risorse”
intangibili che esso incorpora (le conoscenze che permettono lo
sviluppo di abilità). Il marketing sviluppando la “value proposition” e
curando l’interazione con i potenziali clienti contribuisce alla
generazione di valore (Lusch R. F., Varg S. L., The Service-Dominant
Logic of Marketing: Dialog, Debate, and Directions, Routledge,
2006).
Questa prospettiva ha effettivamente aperto gli occhi a molti
marketer sull’importanza di progettare sistemi valoriali e simbolici che
rispondano alle esigenze inespresse delle persone. Se volete è la
rivincita del marketing sul prodotto.

Figura 3.1 Gli approcci al marketing.

Kotler si accorge dell’impatto delle tecnologie digitali e di rete sulla


disciplina che lo ha reso celebre soltanto nel 2017. Prima aveva parlato
di marketing trainato dal prodotto (1.0), di marketing centrato sul
cliente (2.0), fino ad arrivare al marketing umanistico (3.0). Era il
2010, in pieno boom di Internet, e il guru poneva l’enfasi sul cliente,
visto finalmente come essere umano, con una mente, un cuore e uno
spirito. Di conseguenza consigliava un marketing teso alla creazione di
prodotti e servizi in grado di riflettere i valori dell’uomo, attento ai
problemi della società e dell’ambiente. Solo con il libro Marketing 4.0
Kotler, insieme a Kartajaya e Setiawan, inizia ad approcciare il
marketing del mondo digitale. Ma quali sarebbero le caratteristiche di
questo nuovo modo di fare marketing?
È un marketing che combina l’interazione online e offline tra
aziende e clienti. Nell’economia digitale, la sola interazione
online è insufficiente, quindi il contatto offline rappresenta un
efficace elemento di differenziazione.
È un marketing 4.0 che fonde lo stile e la sostanza. L’autenticità è
la risorsa più preziosa in un mondo sempre più trasparente.
È un marketing che sfrutta la connettività tra le macchine e
l’intelligenza artificiale per incrementare la produttività del
marketing, facendo leva sulla connettività tra esseri umani, al fine
di promuovere il coinvolgimento dei clienti.
Il passaggio dal marketing tradizionale a quello digitale viene
individuato dagli autori in quattro discontinuità.
Dalla segmentazione e dal targeting alla conferma da parte del
cliente: le community sono i nuovi segmenti ma, a differenza di
questi, si formano spontaneamente in confini definiti dai clienti
stessi. Esse rifiutano qualunque forma di pressione pubblicitaria
irrilevante, per cui il brand deve entrare in punta di piedi e
stabilire un dialogo. Sono espliciti i riferimenti al concetto di
“permission marketing” basato sulla creazione di informazioni
personalizzate e rilevanti per il consumatore (Godin S.,
Permission Marketing: Turning Strangers into Friends and
Friends into Customers, Simon & Schuster, 1999).
Dal posizionamento e dalla differenziazione alla precisazione dei
caratteri e dei codici del brand: la trasparenza nata dalla
diffusione dei social media mette il brand a nudo. Dunque, le
aziende non possono più prendersi il lusso di fare promesse false
o non verificabili. Il posizionamento resta un vuoto atteggiarsi se
non è confermato dalla comunità. In un mondo competitivo che
impone adattamento e dinamismo, i caratteri e i codici distintivi
della marca sono delle costanti per i consumatori.
Dalle 4 P alle 4 C: in un mondo connesso, il marketing mix
andrebbe ridefinito tenendo presente Co-Creation, Currency,
Community, Conversation. Il prodotto viene ideato e sviluppato
coinvolgendo i clienti nella co-creazione. Il prezzo diventa
fluttuante come le valute, in base alla domanda del mercato e
all’utilizzo della capacità produttiva. La distribuzione non è più
centralizzata, ma si realizza in modalità peer-to-peer (qui il
riferimento è ai nuovi modelli di business basati sul noleggio e a
un futuro in cui la stampa 3D permetterà la creazione rapida e fai
da te dei prodotti). La promozione non avviene più dall’alto al
basso, ma si sviluppa nelle comunità in rete. Sui social media e
sui siti che permettono le recensioni, gli utenti conversano tra loro
alla ricerca della migliore soluzione alla soddisfazione dei propri
bisogni.
Dal customer service al customer care collaborativo: il rigido
processo di risposte ai clienti viene sostituito da un atteggiamento
di ascolto che pone il cliente sullo stesso piano dell’azienda. In
più, si invita il cliente a collaborare al caring attraverso risorse o
strutture self-service (knowledge base, wiki).
Pur individuando qua e là qualche elemento di novità, la
conclusione del ragionamento non appare convincente quando si dice
che “il marketing digitale e quello tradizionale devono coesistere nel
marketing 4.0 con l’obiettivo ultimo di stimolare il passaparola”. È un
errore ragionare ancora pensando a due tipologie di marketing da
integrare. Inoltre, il fine ultimo non mi sembra possa essere il
passaparola, semmai la soddisfazione del cliente, come sempre. Il
passaparola può essere considerato un indicatore della rilevanza del
brand nelle conversazioni online, ma oggi è anche difficile da tracciare
accuratamente visto che molte opinioni si sono spostate sulle reti
private (gli instant messenger).
Prima di fare un’ipotesi sugli elementi cruciali che caratterizzano il
marketing moderno, che molti hanno identificato con il termine
“digital marketing”, ha senso ripercorrere le tappe dell’incontro tra gli
strumenti digitali e il marketing, in modo da immaginarne anche le
traiettorie future.
Evoluzione del digital marketing
Il 27 ottobre 1994 un rettangolo interattivo col messaggio “Have
you ever clicked your mouse right HERE? You Will” apparve sul sito
HotWired.com, accanto alle news della famosa bibbia della tecnologia.
Era il primo banner creato dall’agenzia Modern Media per promuovere
i servizi del colosso delle telecomunicazioni AT&T. All’epoca c’erano
due milioni di computer connessi a Internet. Il click through rate
(CTR) fu stellare, pari al 44%: quasi la metà di chi lo aveva visto
aveva deciso di cliccare. Un effetto curiosità che fece sperare molti,
ma che col tempo avrebbe riportato tutti con i piedi per terra. Nel 2020
il CTR medio di un banner si aggira intorno allo 0,05%. In quel
periodo avvenne anche la prima transazione e-commerce della storia:
fu acquistata una pizza.
Nel 1996 DoubleClick riesce a mettere a punto un sistema
progettato per automatizzare l’affissione di massa di questi manifesti
interattivi sui muri del Web. È il primo passo verso l’automazione del
marketing, le aziende potevano sapere quante volte era stato visto il
loro banner e verificare il numero di clic, ma anche fare modifiche alle
campagne. Inizia a prendere piede il modello a CPM (Costo per Mille
Impression), non più un costo fisso per il periodo di permanenza del
banner sul sito. Undici anni dopo l’azienda verrà acquisita da Google
per 3,1 miliardi.
Nel 1998 GoTo.com, uno dei primordiali motori di ricerca nonché
tra i siti più visitati, inaugura la prima asta per parole chiave finalizzata
alla vendita di search advertising. Gli inserzionisti pagano per essere
primi tra i risultati del motore (modello “pay per click”). L’anno dopo
venne dato loro accesso a un sito per comprare le keyword ed
effettuare l’asta in tempo reale. Il servizio, poi ribattezzato Overture,
permetteva ai portali come MSN e Yahoo! di monetizzare le ricerche
degli utenti, tanto che nel 2003 quest’ultimo decise di acquisirlo.
Nel gennaio del 2000 vede la luce il primo annuncio pubblicitario su
Google.com, il motore di ricerca che ha sbaragliato la concorrenza. Il
pagamento è a CPM e le vendite sono gestite manualmente da
dipendenti di Mountain View. Solo a ottobre verrà rilasciato il self-
service AdWords, uno strumento che permette alle aziende di
targettizzare un’intenzione di acquisto. In un anno il sistema genererà
70 milioni di dollari di ricavi. Due anni dopo viene introdotta la
funzione di determinazione dei prezzi basata sul costo per clic e il
meccanismo d’asta per cui chi offre di più si assicura il posto più alto
per il proprio annuncio (purché abbia un “quality score” alto ossia
un’elevata pertinenza con la specifica ricerca).
Il marketing digitale fa un altro passo in avanti con l’introduzione di
Google Analytics nel 2005, che inizierà a far capire l’importanza di
rendere visibile la realtà dei bit al fine di prendere decisioni efficaci. I
marketer sono indaffarati con la “Search Engine Optimization” mentre
Facebook inizia la sua conquista del mondo. È il 2006 quando
Zuckerberg lancia il suo strumento di advertising che, un anno dopo,
verrà perfezionato per consentire una targettizzazione basata sulle
caratteristiche demografiche dell’audience. Gli annunci entreranno nei
feed degli utenti solo nel 2012 e il social advertising, che sembrava
un’eresia, diventerà il modo normale di fare pubblicità in un mondo
connesso.
Il 2006 fece segnare la comparsa della pubblicità nei video di
YouTube e la nascita di AdMob, che introdusse un sistema che
permetteva a sviluppatori ed editori di fare pubblicità nelle loro
applicazioni mobili.
Entrambe le aziende verranno acquisite da Google nel 2010, anno in
cui Steve Jobs stupisce tutti con l’iPad e prova a competere in questo
spazio con la sua piattaforma di mobile advertising, iAd. Cinque anni
dopo il settore del social advertising viene “ringiovanito” da Snapchat
che introduce la prima forma di pubblicità interattiva e mobile basata
sulla realtà aumentata (Sponsored Lenses). In pratica, le persone
possono farsi un selfie o un video utilizzando elementi virtuali, come i
personaggi del film “The Peanuts”, che fu il primo a sfruttare questa
opportunità.
In questi anni la pubblicità si è adattata alle molteplici modalità di
utilizzo della Rete, in mobilità, attraverso le app e nei social media, e
la pianificazione è diventata più precisa, ma anche più complicata. Gli
strumenti sono diventati più sofisticati e le aziende più grandi hanno
dovuto fare i conti con il “programmatic advertising” ossia l’acquisto
massivo di spazi pubblicitari tramite asta, basato sui dati più disparati
di audience. Il sistema però è oggetto di critiche per la sua opacità e
per la scarsa qualità dei risultati (network di basso livello, possibili
frodi legati alle visualizzazioni effettive, dati di profilazione non
corretti). Questo è uno dei motivi, insieme alla diffusione dei software
per bloccare le pubblicità (ad-blocker), per cui le aziende oggi
affiancano la pubblicità online ad altre forme di promozione come
l’influencer marketing (in cui si affida il messaggio aziendale a una
persona, più o meno nota, che gode di credibilità presso il suo
pubblico, più o meno ampio), il branded content (un rinnovamento
delle attività di product placement), il native advertising (un
adattamento dei vecchi pubbliredazionali, in cui l’editore viene pagato
per produrre un articolo che assomiglia a quelli che pubblica
solitamente). A questo si aggiungono le sperimentazioni attraverso
“advergame” (un gioco digitale brandizzato), QR code, assistenti
vocali e tanto altro.
Ma il digital marketing oggi non si esaurisce nella gestione della
pubblicità nelle sue diverse forme. Comprende le attività sul CRM e
sull’e-mail marketing, la gestione editoriale dei contenuti aziendali sui
propri siti e sui social media, a volte anche la gestione del customer
care.
Per provare a definire i confini di questo concetto ormai largamente
utilizzato, si può dire che “il digital marketing è l’insieme di attività
che, attraverso l’uso di strumenti digitali, sviluppano campagne di
marketing e comunicazione integrate, targettizzate e capaci di generare
risultati misurabili che aiutano l’organizzazione a individuare e
mappare costantemente i bisogni della domanda, a facilitare gli scambi
in modo innovativo, costruendo con la stessa una relazione interattiva
che genera valore nel tempo” (Peretti P., Marketing digitale, Apogeo
Education, 2011).
In effetti, in un mondo digitale, il software è il mezzo che mette in
contatto aziende e consumatori, nella maggior parte dei casi. Le
aziende lo sfruttano per migliorare i propri processi e per progettare e
gestire gli spazi di contatto con la propria audience (social media e
app); specularmente le persone lo usano per navigare online e accedere
a servizi via app, in alcuni casi modificando l’esperienza progettata dal
marketer attraverso l’uso di altri software (si pensi agli ad blocker per
evitare di vedere pubblicità).
Figura 3.2 Le tappe principali dell’evoluzione del digital marketing e advertising.

Dunque gli strumenti digitali sono l’interfaccia che mette in


connessione aziende e persone, ma non dovrebbero definire o peggio
offuscare l’agire del marketer. Purtroppo l’enfasi sugli strumenti
generata dall’hype attorno al digital marketing ha portato un’intera
generazione di professionisti a saltare completamente lo studio dei
fondamenti del marketing per buttarsi a capofitto nell’utilizzo dei
“tool”. Così facendo molti hanno imparato a usare perfettamente gli
strumenti disponibili, ma aderendo inconsapevolmente alla loro logica
di progettazione e perdendo di vista gli obiettivi aziendali. Basta fare
un giro sulla pagina Facebook di qualche grande azienda per vedere
come sia stata piegata alla creatività spicciola e alla battuta sulla
notizia del giorno, alla ricerca di un vuoto “engagement”. È il
momento di tornare alle basi del marketing, ma con una mentalità
nuova in grado di accogliere l’innovazione tecnologica, ma senza farsi
soggiogare da essa.
Evoluzione dei modelli decisionali
Comprendere e descrivere il percorso che le persone compiono dal
sorgere di un bisogno all’acquisto del bene/servizio destinato a
soddisfarlo è, da sempre, una delle sfide più affascinanti e improbe del
marketer. Il primo modello teorico, battezzato AIDA, vide la luce alla
fine dell’Ottocento dalla mente di Elias St. Elmo Lewis, pioniere della
persuasione occulta. L’acronimo serviva a riassumere le fasi del
percorso d’acquisto delle persone e, di conseguenza, i compiti che
avrebbe dovuto avere la pubblicità:
awareness: la consapevolezza dell’esistenza di un prodotto o
servizio;
interest: il momento successivo in cui una persona esprime il suo
interesse verso un bene;
desire: si forma l’aspirazione a uno specifico brand o prodotto;
action: il momento della scelta definitiva e dell’acquisto.
Figura 3.3 Il modello AIDA.

Nel 1924 William W. Townsend diede a queste fasi la forma di un


imbuto, il famoso “funnel” che, a seconda dei contesti, viene definito
“marketing funnel”, “sales funnel”, “purchase funnel” o “conversion
funnel”. L’idea alla base di questa teorizzazione è che prima di poter
vendere qualcosa a qualcuno bisogna fare delle azioni che lo guidino
verso le fasi dell’imbuto, che assomiglia molto alla nassa del
pescatore. Il marketer produce delle azioni di stimolo che fungono da
esca per un gran numero di potenziali clienti. Poi man mano che si
procede per le altri fasi, il numero degli interessati si assottiglia e alla
fine solo pochi di questi compiranno l’azione desiderata dall’azienda.
Ovviamente si tratta di una visione ideale, ma che ha una potenza
esemplificatrice che l’ha fatta sopravvivere fino ai giorni nostri. Però,
nel tempo, il pesce è diventato più sveglio e sfuggente e il mare è
diventato più vasto. Ecco perché molti hanno continuato a ripensare il
percorso di acquisto del consumatore.
Nel 1986 Jan Carlzon, CEO della Scandinavian Airlines System, nel
suo libro “Moments of truth” intuì che ogni volta che una persona
entra in contatto con un’azienda, per esempio attraverso i suoi
impiegati, si forma un’opinione su di essa, che potrà essere cruciale
nella decisione di acquisto. Nel 2005, sulla base di questo
ragionamento, A.G. Lafley, CEO di Procter & Gamble, individuò due
momenti della verità: il primo quando il consumatore scopre il
prodotto in negozio, il secondo quando lo usa.
Solo nel 2011 Google, facendo leva sulla mole di dati a
disposizione, unì i puntini di queste intuizioni pubblicando un libro
gratuito intitolato Zero Moment of Truth o ZMOT
(https://www.thinkwithgoogle.com/marketing-resources/micro-moments/zero-moment-
truth/). La sintesi delle ricerche mostrava che i consumatori moderni

decidono l’acquisto prima di recarsi in negozio. La diffusione di


Internet aveva fatto nascere il momento zero della verità, quello che si
ha quando si cercano informazioni online, si consultano le recensioni
degli acquirenti, si scambiano pareri con i propri pari. Va da sé che
l’esperienza d’uso, che rappresenta il secondo momento della verità,
spesso viene condivisa in Rete per arricchire il momento zero della
verità di altre persone.
Intanto nel 2009 McKinsey, con uno studio basato su 20.000
decisioni di consumo, in cinque settori e tre continenti, aveva provato a
spezzare l’idea della sequenzialità delle fasi
(https://www.mckinsey.com/business-functions/marketing-and-sales/our-
insights/the-consumer-decision-journey) introducendo un modello circolare

del “consumer decision journey” diviso in quattro stadi.


Nel primo stadio il consumatore parte già dal considerare un
insieme di prodotti da acquistare. Ovviamente la brand awareness
creata dall’azienda può influenzare questo momento.
Il secondo stadio è quello della valutazione attiva, nella quale il
consumatore cerca di acquisire tutte le informazioni utili alla
scelta e snellire la lista iniziale. McKinsey scopre che due terzi
dei touchpoint consultati non sono governati dalle aziende,
essendo siti di recensioni, consigli di amici e familiari, precedenti
esperienze.
Il terzo stadio è quello dell’acquisto.
Infine, la verifica della corrispondenza alle aspettative è decisiva
perché è in questo momento che il consumatore si forma
un’opinione che sarà determinante per sviluppare la fedeltà al
brand. Il lavoro del marketer non è concluso, perché dovrà
immaginare strategie e tattiche per tenere vivo il legame col
cliente e generare futuri acquisti (loyalty loop).
Figura 3.4 Il modello ZMOT di Google.

Figura 3.5 Il modello McKinsey.


Nel 2016 Kotler, ignorando le evidenze della società di consulenza,
rivisitò il modello delle 4A di Derek Rucker (a sua volta basato
sull’AIDA) alla luce delle novità portate dalle tecnologie digitali e di
rete. Il suo modello delle 5A prevede ancora un susseguirsi di fasi, che
però non sempre sono lineari e la cui importanza può variare da settore
a settore. Inoltre viene introdotta una quinta fase per sottolineare
l’importanza delle azioni post vendita.
Aware: è la fase di scoperta nella quale il consumatore è esposto
a una moltitudine di brand: nell’era della connettività l’opinione
si forma sulla base dell’influenza della comunità di contatti.
Appeal: in questa fase il consumatore seleziona la rosa dei
papabili brand da acquistare.
Ask: è il momento di valutare le alternative, chiedendo consigli e
consultando recensioni. Anche qui le influenze sociali sono
determinanti, soprattutto da parte di chi ha già comprato.
Act: è l’atto della decisione e dell’acquisto.
Advocate: è la fase in cui si dispensano consigli dopo
un’esperienza soddisfacente. Nell’era della connettività, la fedeltà
non coincide con il riacquisto, ma con la volontà di consigliare il
brand.
Figura 3.6 I modelli 4A di Rucker e 5A di Kotler.

Un modello interessante è quello detto “Flywheel” proposto da


Hubspot, azienda che produce software di supporto al marketing.
L’idea del “volano”, al cui centro è posto il cliente, sta nell’enfatizzare
il movimento circolatorio del processo, nel quale l’efficacia di ogni
fase sprigiona energia per il successo delle seguenti.
Attract: l’obiettivo iniziale è sempre di attirare l’attenzione del
potenziale cliente con contenuti utili (informazioni,
approfondimenti, consigli) e senza pensare alla vendita.
Engage: a questo punto è il momento di entrare in contatto con il
pubblico interessato, ma secondo i suoi modi, luoghi e tempi,
intrattenendolo e rispondendo alle sue curiosità, ma anche
rendendo semplice la ricerca delle informazioni e l’acquisto.
Delight: è la fase nella quale puntare alla massima soddisfazione
del cliente durante e dopo la vendita (per esempio semplificando
l’accesso al supporto). Se ben eseguita, porterà a fidelizzare il
cliente e a trasformarlo in promotore del brand.
Figura 3.7 Il modello Flywheel di Hubspot.

Un’ottima concettualizzazione del “path to purchase” è stata


proposta da Google nel 2020 nel report “Decoding Decisions: the
Messy Middle of Purchase Behaviour”
(https://www.thinkwithgoogle.com/_qs/documents/9998/Decoding_Decisions_The_Mess
y_Middle_of_Purchase_Behavior.pdf). Sulla base di una ricerca quantitativa,

basata su strumenti come Google Trends, e di un’analisi


comportamentale su 310 decisioni di acquisto reali, i ricercatori hanno
rilevato che il percorso decisionale è caotico e lo diventerà sempre di
più. Tra i “trigger”, gli stimoli che il marketer crea per portare il
consumatore da uno stato passivo a uno attivo, e l’acquisto finale c’è
un percorso aggrovigliato caratterizzato da un continuo alternarsi di
esplorazioni e valutazioni. In pratica il consumatore, alla ricerca della
migliore soluzione al suo problema, passa continuamente dal cercare
idee, ispirazioni, informazioni su categorie di prodotto (esplorazione)
alla scrematura attraverso recensioni, offerte, raccomandazioni
(valutazione), finché non è soddisfatto. E lo fa soprattutto usando
un’ampia varietà di fonti online: motori di ricerca, social media, siti di
varia natura.
In questo momento confusionario i bias cognitivi modellano il
comportamento di acquisto delle persone e influiscono sui motivi che
spingono i consumatori a scegliere un prodotto rispetto a un altro.
Sebbene esistano centinaia di bias, già rilevati dalla letteratura
sull’economia comportamentale, nella ricerca ne sono stati osservati
sei.
Euristica di categoria: brevi descrizioni di informazioni chiave
del prodotto possono semplificare le decisioni di acquisto.
Potere dell’immediatezza: più tempo bisogna aspettare per
usufruire di un prodotto e minore diventa l’intenzione di
acquistarlo.
Prova sociale: consigli e recensioni di altre persone possono
rivelarsi molto efficaci.
Bias di scarsità: un prodotto diventa più desiderabile se la sua
disponibilità diminuisce.
Bias di autorità: l’opinione di un esperto o di una fonte
attendibile è particolarmente influente.
Potere della gratuità: un regalo incluso in un acquisto, anche se
non correlato al prodotto acquistato, può essere un ottimo
incentivo.
In definitiva, questo di Google è un modello che si focalizza sul
comprendere i percorsi mentali, oltre che pratici, che le persone fanno
quando hanno un bisogno da soddisfare e rivela che, quando applicati
in maniera intelligente e non fraudolenta, i principi delle scienze
comportamentali sono strumenti potenti per catturare l’attenzione.
Figura 3.8 Il “messy middle” di Google.

Ma il funnel è morto? A mio avviso non ha più senso se lo si vede


come tracciato di un percorso di acquisto lineare e razionale. Invece
può ancora essere utile come guida per formulare strategie e tattiche di
marketing differenziate per diversi momenti di consapevolezza del
consumatore. È sicuramente ancora vero, e questo molti imprenditori
lo ignorano, che difficilmente si può arrivare a vendere un prodotto a
una persona che ignora l’esistenza del tuo brand, soprattutto in mercati
molto competitivi (si veda il box seguente sugli stadi della
consapevolezza).
Un discorso a parte meriterebbe il comportamento di acquisto nel
settore B2B dove sembra che ancora si possa riscontrare un
comportamento più razionale e lineare.
Secondo un’indagine di FocusVision sui responsabili marketing di
grandi aziende (https://vincos.it/2020/02/19/il-customer-journey-b2b-delle-
grandi-aziende/), il processo di acquisto richiede dalle 2 alle 6 settimane

e coinvolge 3/4 decisori all’interno dell’azienda. Si tratta di un vero e


proprio viaggio di conoscenza nel quale i decisori consultano, in
media, 13 diversi contenuti. La fonte principale sono i contenuti
rinvenibili nel sito dei possibili fornitori, seguita dai risultati dei motori
di ricerca e dai social media. Le fasi dell’acquisto (funnel) individuate
dallo studio sono quattro: la comprensione del problema, la ricerca dei
fornitori, la scrematura (short-listing) e la decisione finale. Come
mostra la rappresentazione della Figura 3.9, per ogni fase il potenziale
cliente consulta specifici contenuti. È interessante notare la rilevanza
del sito del fornitore che viene consultato in ogni fase d’acquisto, per
cui è fondamentale che sia il più esaustivo possibile.
Da considerare che le aziende con fatturati superiori ai 250 milioni
tendono a fidarsi maggiormente delle opinioni di siti indipendenti e dei
report di analisti.
Nel dettaglio, i contenuti che sembrano aiutare maggiormente la
decisione finale sono quelli che illustrano le funzionalità del prodotto
(67%), le comparazioni tra prodotti (65%), i casi di successo (60%),
quelli che mostrano valore agli stakeholder interni all’azienda (54%), i
tutorial di prodotto (49%).
L’elemento che emerge con più forza dalla ricerca è la centralità dei
contenuti e dunque l’importanza di avere una content strategy chiara e
completa, forse più che nel mondo consumer. Nel contesto Business To
Business i contenuti dovrebbero essere soprattutto utili a guidare i
prospect verso la messa a fuoco e la risoluzione del proprio problema.
Non vanno sottovalutate, come spesso avviene nel B2B, la forma e
l’estetica del contenuto che, oggi più che mai, sono sinonimo di cura e
professionalità dell’azienda.

Figura 3.9 Il funnel e l’importanza dei contenuti nel B2B (dati FocusVision). I contenuti
evidenziati in grassetto sono i più visti.

Gli stadi della consapevolezza


Nel 2004 il famoso copywriter Eugene Schwartz intuì che non tutti i consumatori
sono uguali nello stadio iniziale del processo di acquisto e che quindi non vanno
approcciati con gli stessi messaggi di comunicazione. Nel libro Breakthrough
Advertising vennero descritti 5 diversi stadi di consapevolezza:
Unaware: quando non si è consci di avere un problema;
Problem Aware/Pain Aware: quando si sa di avere un problema, ma non
che esiste una soluzione;
Solution Aware: quando si sa che esistono prodotti/servizi in grado di
risolvere il problema, ma ancora non è stata effettuata la scelta. Il
consumatore in questa fase potrebbe non sapere che l’azienda ha la
soluzione;
Product Aware: a questo stadio il consumatore è consapevole dell’offerta
aziendale, ma non è certo che rappresenti la migliore risposta al suo
problema;
Most Aware: qui la persona conosce il prodotto dell’azienda, ma ha bisogno
di ulteriori informazioni specifiche per procedere all’acquisto (es. costi,
canali di vendita).
Va da sé che il marketer ha la necessità di progettare delle azioni specifiche per
diversi stadi di awareness del suo “target”. Se un prospect non sa di avere un
problema, non potrà essere pronto per comprare una soluzione. Di conseguenza
è inutile martellarlo con le caratteristiche tecniche del prodotto perché avrà
bisogno di un messaggio che faccia prima emergere la consapevolezza di un
problema.
Conoscere lo stadio di consapevolezza del prospect però non basta, bisogna
capire anche quale può essere la sua propensione all’acquisto. Ci possono
essere persone “most aware” che però non hanno lo stimolo necessario a
spendere dei soldi per acquistare un prodotto (magari perché sono alte le frizioni
all’acquisto, per esempio bisogna usare la carta di credito) oppure persone
talmente predisposte che non aspettano altro che l’offerta giusta (in questo caso
è inutile destinare loro messaggi per convincerli della bontà della soluzione).
Le sfide del marketing
A questo punto dopo aver visto com’è cambiato il concetto di
marketing, ripercorso le tappe dell’incontro tra la tecnologia digitale e
di rete con la pratica del marketing e passato in rassegna i modelli
decisionali del consumatore, è giunto il momento di capire quali sono
le sfide attuali dei marketer. Cosa è cambiato o sta cambiando rispetto
al passato? Quali sono gli aspetti della disciplina che andrebbero
abbandonati e quali quelli che andrebbero recuperati?
Per capirlo bisogna sottolineare come il mondo di oggi, e dunque il
mercato in cui si incontrano aziende e clienti, è diventato complesso.
Complesso proprio nel senso etimologico del termine, cum plexum,
con nodi, intrecciato come in una rete fatta di relazioni, potenziate
dall’informazione e dalla tecnologia. I nodi possono essere persone,
organizzazioni, risorse di qualunque tipo. Ogni azione che irradia da
un nodo si può trasferire agli altri, producendo reazioni, e può
innescare processi sequenziali, a catena. Le reti di relazioni sono
dinamiche ossia si possono riconfigurare nel tempo, cambiando la
natura dei fenomeni cui avevano dato luogo precedentemente. La Rete,
di fatto, ha trasformato le persone, la società e di conseguenza
l’economia.
In un mondo caratterizzato da questa complessità, il marketer
moderno dovrebbe interiorizzare quattro elementi di discontinuità e
agire di conseguenza:
il consumatore aumentato;
un ecosistema ricco di stimoli;
la frammentazione del brand;
il passaggio dal prodotto all’esperienza.
Il consumatore aumentato
Alla base delle sfide attuali del marketing c’è il riequilibrio dei
rapporti di forza tra aziende e consumatori, già esplorato nella prima
parte del testo. Oggi le persone, grazie alle tecnologie digitali che
hanno a disposizione e alla loro posizione nella società di rete, sono
diventate più consapevoli, più sfuggenti e più infedeli.
Sono più consapevoli dei meccanismi di mercato e del loro ruolo.
Capiscono le tecniche che le aziende mettono in atto per spingerle
all’acquisto e sono mediamente più informate o hanno più modi per
informarsi. Posseggono gli strumenti per capire se un’offerta è in linea
con quelle di mercato e per svelare eventuali inganni o omissioni:
dall’approfondimento sui siti specializzati, alle opinioni degli esperti e
degli influencer, dalle recensioni al contatto diretto con gli utilizzatori.
Inoltre, sono più consapevoli del proprio ruolo nell’ecosistema di
mercato e mediale: non sono più soggetti passivi delle strategie
commerciali e della comunicazione, ma possono far sentire la propria
voce in rete e fare pressione sulle aziende affinché prestino ascolto alle
esigenze dei clienti. Per esempio, possono scegliere se lamentarsi di un
disservizio scrivendo in privato al servizio clienti o scrivendo in
pubblico su Twitter o su un blog, in modo da imprimere una qualche
pressione sociale affinché il problema venga risolto. In alcuni casi, ciò
può determinare un pesante danno reputazionale che si può riverberare
nel tempo (si pensi a una pessima esperienza raccontata su un blog ben
indicizzato da Google, che viene richiamato quando si digita il nome
dell’azienda).
Dunque si è ormai indebolita quella asimmetria informativa tra
azienda e consumatore che ha caratterizzato il marketing pre Internet e
della quale molte imprese hanno abusato. Si tratta di un riequilibrio dei
rapporti di forza che non va però mitizzato o sovrarappresentato, nel
senso che l’azienda rimane ancora, in molti casi e a seconda delle
caratteristiche del mercato di riferimento, il soggetto più forte
(soprattutto quando può vantare un monopolio). Non sempre la voce di
un singolo in rete riesce a farsi boato e a scalfire la “brand image”.
Il consumatore aumentato è anche più sfuggente. Il suo dinamismo
di pensiero e azione lo rende difficilmente incasellabile in ampie
categorie predeterminate, sicuramente non nelle gabbie socio-
demografiche (età, sesso, residenza, professione, reddito) che per tanto
tempo hanno costituito l’unica possibilità di definire i consumatori.
Anche le gabbie psico-grafiche hanno mostrato segnali di debolezza
nel tratteggiare il consumatore (i comportamenti, la personalità, le
credenze, le opinioni, gli interessi, i valori, gli stili di vita). Ma
soprattutto a perdere senso è la costruzione di profili statici e
immutabili. L’identikit dei clienti-obiettivo (recentemente etichettati
come “personas”) è un esercizio complesso ma necessario, utile però
solo se non sporadico e basato su dati reali, fondamento delle ordinarie
attività di marketing.
Se il consumatore aumentato è più consapevole e sfuggente, sarà
naturalmente portato a una minore fedeltà alla marca. L’abitudine di
confrontare i prodotti e approfondire prima di acquistare è ormai un
modus operandi standard del consumatore moderno. Per cui anche il
brand “top of mind”, in cima ai pensieri, può vacillare durante il
processo di acquisto se non riesce a mantenere quella sua posizione nel
confronto con i concorrenti. Si pensi alla consuetudine crescente di
consultare lo smartphone all’interno di un punto vendita per cercare
informazioni più approfondite, leggere recensioni, verificare i prezzi di
mercato e, magari, comprare online, se più conveniente.

Un ecosistema ricco di stimoli


In passato le aziende e i consumatori si incontravano nel punto
vendita e in occasione delle pubblicità ospitate dai pochi mezzi di
comunicazione esistenti. Oggi, invece, persone e aziende sono
immerse in un ecosistema mediale (a sua volta fatto di tanti ambienti
mediali) carico di stimoli, informativi e d’intrattenimento, che sono
veicolo di suggestioni comportamentali che possono trasformarsi in
fattori condizionanti l’acquisto, immediato o futuro. A volte questi
stimoli sono distrazioni nel processo di acquisto oppure sono
contrastanti tra loro, per cui ne determinano l’interruzione definitiva o
temporanea.
Sicuramente in questi anni si sono moltiplicati sia gli spazi di
incontro che i momenti di contatto, grazie ai numerosi device connessi
e all’ampliamento delle dimensioni della Rete (in termine di siti
disponibili e persone con le quali è possibile entrare in contatto).
Difficile citare tutti gli spazi mediali nei quali le persone possono
incontrare messaggi aziendali: oltre ai luoghi fisici e ai luoghi della
Rete più ovvi, si possono citare le chat private, gli oggetti intelligenti, i
videogiochi, gli ambienti virtuali, le applicazioni di qualunque tipo.
Ogni nuovo ambiente mediale abitato diventa, dopo poco, un territorio
marcato dai brand. Oggi non facciamo più tanto caso a queste
intromissioni perché la nostra mente ha sviluppato una sorta di “ad-
blocker” selettivo, che ci fa continuare a navigare saltando gli stimoli
indesiderati. Ciò non toglie che dal punto di vista aziendale questo
vuol dire imparare a sviluppare delle attività che riescano a insinuarsi
in questi luoghi, ma senza interrompere l’esperienza delle persone.
Inoltre vuol dire che non basta presidiare uno o pochi touchpoint, ma
bisogna essere presenti oculatamente in tutti quelli rilevanti, per non
lasciare troppo spazio ai messaggi della concorrenza.
Uno spazio mediale inesistente pre Internet, che sta assumendo
sempre più rilevanza nelle decisioni di acquisto, è quello incarnato dai
cosiddetti influencer o creator. Questi soggetti che hanno sfruttato,
meglio di altri, i servizi di rete per accrescere la propria popolarità,
sono diventati mediatori credibili tra i bisogni dei consumatori e le
offerte aziendali. Per i brand rappresentano un nuovo canale di
persuasione, utile soprattutto per arrivare a pubblici giovani ormai
impermeabili alla comunicazione tradizionale. In verità più che come
canale, andrebbero considerati dei possibili partner di business. I più
professionali infatti scelgono oculatamente i brand con i quali
collaborare, per evitare di essere percepiti come meri mercenari dai
propri follower.
Rispetto al moltiplicarsi dei momenti di incontro tra azienda e
consumatore vale la pena riprendere uno studio di Google che ha
parlato di “micro momenti”. L’osservatorio privilegiato del gigante
delle ricerche ha rilevato che i dispositivi mobili non solo hanno
trasformato la nostra esistenza permettendoci di essere sempre
connessi, ma hanno moltiplicato i momenti in cui azienda e
consumatori possono entrare in contatto. Ciò vuol dire che, sempre più
spesso, ci affidiamo al nostro smartphone nei momenti di svago e
bisogno, che possono essere racchiusi in quattro tipologie:
momenti “voglio sapere”, quelli nei quali abbiamo bisogno di
un’informazione al volo;
momenti “voglio andare”, quelli nei quali siamo per strada e
cerchiamo un particolare punto vendita nelle vicinanze;
momenti “voglio fare”, quelli nei quali vogliamo risolvere un
problema pratico, capire come portare a termine un’attività
concreta e poco nota;
momenti “voglio comprare”, quelli caratterizzati dalla voglia o
dall’esigenza di comprare qualcosa e nei quali consultiamo il
nostro smartphone, anche all’interno nel punto vendita, per
verificare prezzi e caratteristiche di un prodotto.
Compito dell’azienda moderna è individuare i micro momenti più
rilevanti per il proprio pubblico e intercettarli, non con messaggi
molesti, ma con informazioni tempestive, utili e quanto più
personalizzate possibile. Quindi oggi non ci si può permettere il lusso
di progettare solo azioni predeterminate e statiche, ma bisogna agire in
real time, nel momento in cui si manifesta il bisogno.
In definitiva, il percorso di acquisto si è fatto caotico e non
facilmente generalizzabile a un gruppo di consumatori. Per questo
motivo diventa fondamentale provare a mappare le esperienze di
acquisto e il viaggio del consumatore con il contributo di tutti i reparti
aziendali. Solitamente ognuno di questi ha una sua visione di questo
viaggio che non coincide con quella degli altri e, sulla base di questa,
mette in campo azioni che possono non essere coerenti con quelle
degli altri reparti. L’ideale sarebbe riuscire a costruire una mappatura
unitaria che tenga conto di tutti gli insight settoriali e di conseguenza
progettare una strategia unica.
Gli influencer aumentati e l’economia delle passioni
Gli influencer, figure della Rete che stimolano reazioni controverse, sono ormai
parte integrante dell’ecosistema mediale nel quale siamo immersi. Nati grazie alle
opportunità offerte dai servizi online, forum e blog prima, social media poi,
inizialmente erano considerati dei semplici ripetitori, mere celle di trasmissione
del sistema di comunicazione aziendale. Oggi sono diventati punti di snodo
ineludibili nel percorso di acquisto del consumatore e ciò li ha portati a sviluppare
una “coscienza di classe” che fanno valere nei confronti dei brand. Hanno ben
chiaro il proprio valore e non sono più disposti a promuovere qualunque cosa, a
rischio di ledere la propria immagine. Sono essi stessi dei brand e come tali
iniziano a comportarsi. Per emergere dalla massa degli influencer che sgomitano
per rendersi visibili alle aziende, curano ogni aspetto della propria produzione
creativa, ma anche della propria comunicazione (i rapporti con aziende, follower e
giornalisti, la pubblicità dei profili, le relazioni con le social platform).
Preferiscono essere identificati col termine creator, che rispetto a quello di
influencer sottolinea la loro capacità di produrre contenuti originali e di plasmare i
messaggi dei brand committenti, con uno stile personale. La
professionalizzazione degli influencer è un trend molto chiaro, che si traduce in
percorsi di apprendimento continuo, in un irrobustimento della struttura
imprenditoriale (alcuni assumono collaboratori per migliorare la propria offerta),
ma anche in una domanda di software di marketing in grado di rendere più
efficace ed efficiente la propria attività.
E così sta nascendo quella che alcuni hanno definito “passion economy”,
un’economia che poggia su tre elementi: i creator, il pubblico disposto a pagare
per i loro contenuti e i software provider che offrono strumenti per migliorarne le
attività (https://a16z.com/2019/10/08/passion-economy/).
È possibile raggruppare questi software in quattro categorie, che possono anche
intersecarsi.
Quelli che offrono tool per velocizzare o migliorare la produzione di
contenuti, elencati anche nel Capitolo 5 sugli strumenti martech.
Quelli che hanno un marketplace nel quale i creator possono vendere
qualcosa a un pubblico di acquirenti; tra i più noti per la compravendita di
prodotti fisici vi sono eBay, Etsy e Amazon, mentre per i servizi vi sono
Fiverr, Upwork e Freelancer.
Quelli che nascono per offrire un palcoscenico, ma che col tempo hanno
rilasciato funzioni per la monetizzazione. Rientrano in questa categoria i
social media che, nella gara per accaparrarsi i migliori influencer e spingerli
a operare nei propri ambienti anziché in quelli della concorrenza,
prevedono diverse soluzioni di monetizzazione. Per esempio, a chi produce
video viene offerta una percentuale sugli introiti delle pubblicità inserite
prima, durante o dopo lo show. Un’altra formula contemplata sempre più
spesso è quella degli abbonamenti al canale del creator al fine di ottenere
contenuti esclusivi. Molto usati sono anche i beni virtuali (su Twitch si
chiamano Bit) che vengono acquistati dai fan in cambio di un controvalore
in denaro e poi utilizzati come dono ai creator.
Quelli che offrono tool di monetizzazione dei contenuti e gestione del
rapporto con i propri supporter. Per esempio chi è bravo a scrivere può
utilizzare Medium (https://medium.com/) e guadagnare sulla base del
tempo di lettura dei suoi articoli, da parte di una community di lettori
paganti. Oppure può confezionare una newsletter con Substack
(https://substack.com/) o Revue (https://www.getrevue.co/) per
guadagnare attraverso un programma di abbonamenti. Chi è più portato per
i podcast può remunerare il proprio lavoro sfruttando Anchor
https://anchor.fm/), Glow (https://www.glow.fm/), Supercast
(https://www.supercast.com/), Radio Public (https://radiopublic.com/),
Knowable (https://knowable.fyi/). Anche gli insegnanti possono provare a
monetizzare il proprio tempo con servizi che permettono di creare
videolezioni, come Podia (https://www.podia.com/), Teachable
(https://teachable.com/), Thinkific (https://www.thinkific.com/) e Udemy
(https://www.udemy.com/), o tenere lezioni private dal vivo come VipKid
(https://www.vipkid.com/), Outschool (https://outschool.com/, dedicati ai
giovani di 13-18 anni), Juni Learning (https://junilearning.com/, per
matematica e informatica).
A questi vanno aggiunte nuove tipologie di aziende che offrono soluzioni
più ampie, generaliste, per supportare la trasformazione di qualunque tipo
di passione in attività imprenditoriale. Lo fanno attraverso un supporto
software al contatto tra creator e pubblici interessati o sotto forma di nuovi
“mecenati”. Tra queste la più interessante è Patreon
(https://www.patreon.com/), che offre ai creativi un’infrastruttura completa
per portare sul mercato i prodotti del proprio ingegno. Iscrivendosi, il
creatore di contenuti può creare dei piani di abbonamento differenziati e
associarli a una specifica offerta (post, audio, video, live e chat esclusive).
La piattaforma che permette di gestire tutto il workflow produttivo fino al
pagamento guadagna una percentuale sulla base degli introiti dei creator.
Simile ma con un approccio peculiare, Ghost (https://ghost.org/) è una
piattaforma open source che integra la creazione di blog, l’invio di
newsletter e le funzioni di membership a pagamento in hosting. I più esperti
possono anche installare il software su un proprio server per una gestione
in completa autonomia.
Figura 3.10 L’economia delle passioni nella categorizzazione di Li Jin.

La frammentazione del brand


L’immagine del brand oggi non è facilmente progettabile dall’alto
degli uffici comunicazione aziendali. O meglio, anche se la
progettazione fosse tecnicamente ben fatta, ossia adattata a tutti i
contesti, gli stili e i pubblici, sarebbe destinata a scontrarsi con una
realtà mediale multiforme e dinamica. In passato, l’immagine del
brand era assimilabile a un prodotto confezionato, immutabile,
progettato e spedito a destinazione, ossia veicolato attraverso i mass
media. Oggi invece l’immagine del brand e i suoi messaggi sono
soggetti al vaglio del pubblico che in rete può criticarne le forme e la
sostanza, può plasmarli a suo piacimento mutandone il senso, per
svago o per perseguire un fine politico sociale.
L’azienda non può far altro che rassegnarsi alla perdita di controllo e
adattare il suo marketing affinché sia attento, rapido e agile. Attento al
monitoraggio delle conversazioni (sempre più difficile con la
diffusione degli instant messenger), pronto a intervenire per dare
risposte alle critiche e, magari, modificare la direzione intrapresa.
Ma pur essendo più vulnerabile che in passato, il brand, oggi, è
l’asset più importante per un’azienda. In un’epoca caratterizzata
dall’ipercompetizione e da una bassa soglia di attenzione delle
persone, il brand che è riuscito a imprimersi nella memoria con una
buona impressione è ben posizionato per essere scelto al momento del
bisogno (top of mind). Quindi il “branding”, ossia l’attività di
costruzione del brand e di proiezione nella mente del consumatore, è
quanto mai cruciale. Però è una costruzione che non avviene in un
vuoto pneumatico, ma si forma durante tutti i momenti di incontro tra
azienda e possibile consumatore. Se l’esperienza avuta in uno di questi
incontri è fallace, ne risentirà la percezione del brand. Quindi si ritorna
al punto cruciale della progettazione delle esperienze per ogni
touchpoint.
Altro aspetto interessante è quello della fiducia, che diventa
elemento costitutivo del brand, la colla che il consumatore usa per
mettere insieme i frammenti di immagine del brand. Se questa fiducia
è alta, eventuali singoli episodi che ci restituiscono un’immagine
appannata possono essere superati. La fiducia però va costruita nel
tempo e con i fatti, quindi restituendo esperienze positive e
producendo una comunicazione sincera, soprattutto quando coinvolge i
valori. Negli ultimi anni sta crescendo l’attenzione verso i brand attenti
ai temi sociali, come dimostrano alcuni dati dell’osservatorio Civic
Brands, datati 2020 e confrontati con il 2019
(https://www.facebook.com/Osservatorio-Civic-Brands-109331460688530/).
In questo rapporto, il 65% degli italiani ritiene giusto che i marchi e
le aziende si espongano rispetto a tematiche sociali rilevanti, oltre a
vendere prodotti e servizi (erano il 46% l’anno precedente). Il 63%
dice di ammirare le aziende che si occupano di temi sociali, politici e
culturali, anche a costo di dividere l’opinione pubblica (al 56% l’anno
prima). Il 65% arriva a sostenere che abbiamo bisogno di questo
attivismo delle aziende (in precedenza al 59%). Se queste sono le
premesse, non sorprende scoprire che il 46% degli italiani (il 51% tra
coloro che hanno un’età compresa tra 25 e 34 anni) dichiara che non
comprerebbe un prodotto di un’azienda che ha pubblicamente preso
una posizione che non condivide su un tema sociale, culturale o
politico (in crescita di 7 punti in un anno). Per il 37% il
comportamento delle marche in ambito sociale, culturale o politico
influenza le proprie scelte d’acquisto (al 39% tra i 25-34). Il 35% ha
smesso di comprare alcuni prodotti/servizi di marche o aziende perché
deluso dal comportamento in ambito sociale, culturale o politico
(valore che sale al 42% tra i 25-34enni).
Sono dati che mettono in luce il comportamento attivo dei
consumatori, ma anche il potenziale valore economico di scelte sociali,
anche divisive. Non voglio suggerire che il “brand activism” debba
essere strumentale, anche perché oggi le persone non si fidano più
delle sole parole e di spot valoriali patinati, ma vogliono fatti concreti
(lo sostiene l’80% degli italiani). Intendo dire che affinché l’impegno
sociale dei brand venga effettivamente riconosciuto come un valore
positivo dal pubblico, e di conseguenza possa determinare un ritorno
economico, è necessario che l’azienda dia prova di vivere quegli stessi
valori, trasformandoli in linfa per la sua strategia di business.

Dal prodotto all’esperienza


In questi anni il modello di consumo è molto cambiato. In passato
l’unico modello era quello che partiva con l’insorgere di un bisogno e
finiva con l’acquisto di un prodotto, ossia con l’acquisizione della
proprietà finalizzata all’utilizzo esclusivo. Oggi, sempre più spesso, le
persone non cercano semplici prodotti per soddisfare un semplice
bisogno, ma soluzioni innovative a bisogni complessi.
Contestualmente, a seguito dei numerosi mutamenti socio-economici,
si sono sviluppati nuovi modelli di consumo che non prevedono la
proprietà, ma l’uso temporaneo del bene. Per esempio, l’esigenza di
spostarsi in città è rimasta immutata, ma i modi per soddisfarla sono
cambiati. C’è chi decide di non comprare più un’automobile, ma di
spostarsi attivando servizi di noleggio a lungo termine, che permettono
una maggiore libertà: pagamento periodico e minori pensieri legati alla
manutenzione. Oppure c’è chi, pur avendo l’auto di proprietà, decide
di muoversi in città più agevolmente utilizzando servizi temporanei
(car sharing, ride sharing, car pooling) o sfruttando forme di mobilità
alternativa per brevi tratti (monopattini, bici e scooter elettrici).
Un altro esempio classico riguarda l’esigenza di intrattenimento che
ormai, sempre più frequentemente, non viene soddisfatta attraverso
l’acquisto di un bene fisico, ma di un servizio. Chi vuole trascorrere
una serata in casa non compra o noleggia un DVD, ma paga per vedere
in quel momento il film che desidera, sul dispositivo che ha scelto. Poi
se l’esigenza non è estemporanea, ma ricorrente, potrà abbonarsi a un
servizio di streaming video (es. YouTube TV, Apple TV+, Netflix,
Prime Video). La stessa logica “pay per use” ormai si applica alla
musica (Spotify, YouTube Music, Amazon Music) ai giochi
(Playstation Now, Xbox Game Pass, UPlay, Apple Arcade, Google
Play Pass, Stadia), ai libri (Amazon Unlimited).
A ben guardare, il prodotto si trasforma in servizio. E il servizio può
trasformarsi in esperienza. L’esperienza Amazon percepita dal cliente
deriva dalle singole esperienze fatte all’interno di un ecosistema di
prodotti/servizi: la semplicità di navigazione, la varietà e la
convenienza di Amazon.com, la flessibilità delle consegne con
l’abbonamento Amazon Prime, la musica e i video in streaming di
Amazon Music e Prime Video, la praticità del Kindle, l’utilità degli
oggetti intelligenti che incorporano l’assistente vocale Alexa e così
via. Ma non si ferma qui, nell’esperienza entrano anche i momenti di
contatto con l’azienda, in particolare il contatto con il customer
service, cui Amazon da sempre presta una grande attenzione. Però il
customer service non va confuso con il servizio di assistenza post
vendita. Oggi le persone possono sentire la necessità di entrare in
contatto con l’azienda anche prima di sceglierla, per curiosità, dubbi,
informazioni. Ecco perché è fondamentale farsi trovare pronti e
disponibili al dialogo. Altrimenti le persone potrebbero orientare le
proprie scelte verso alternative meno convenienti dal punto di vista
economico, ma che emanano una sensazione di maggiore vicinanza e
dunque di maggiore affidabilità.
Dunque si potrebbe dire che il prodotto è l’esperienza. Obiettivo
delle aziende non è più solo progettare un prodotto/servizio, ma
progettare un’esperienza memorabile per l’utente, in grado di lasciare
un ricordo positivo indelebile. Un’esperienza che può richiedere
l’accesso a risorse produttive, creative, finanziarie, non proprietarie,
ma nella disponibilità di uno o più partner.
A volte l’esperienza viene progettata per permettere che il suo
valore emerga con la partecipazione attiva dell’utente. Per esempio,
nei social media il valore emerge dalla connessione tra le persone, dai
contenuti e dalle azioni che compiono. Più si interagisce con i
contenuti di interesse, più il sistema restituirà altri contenuti in linea
con i propri interessi, prodotti da altri individui. In altre parole, il
social medium è inutile senza le persone che contribuiscono con
creazioni e attenzione.
In questa nuova era di bisogni mutevoli e complessi, perde valore la
killer application, la singola funzione che, soddisfacendo un bisogno
semplice, permetteva di sbaragliare la concorrenza e stupire il cliente.
La singola funzione, soprattutto se digitale, è sempre più semplice da
copiare e dunque non costituisce più fonte di vantaggio competitivo
duraturo. Basta guardare alla facilità con la quale Zuckerberg ha
copiato funzioni di Snapchat e TikTok per arricchire i suoi prodotti ed
evitare che gli utenti migrassero verso quelle piattaforme.
In tale contesto anche il prezzo smette, in molti casi, di essere una
leva determinante per indurre all’acquisto, quando il valore percepito è
molto alto (in relazione alla concorrenza). Spesso, se il consumatore ha
assorbito l’immagine di un’azienda unica, affidabile, credibile e della
quale fidarsi, il prezzo è una variabile secondaria o trascurabile.
A ciò si aggiunga che negli ultimi anni sono sorti interi business
basati sulla vendita di prodotti/servizi gratuiti, in cui agli utilizzatori si
chiede un tipo di controvalore non monetario, per esempio la cessione
di dati comportamentali. Facebook, il caso più eclatante, è
completamente gratuito per chi lo usa, previa registrazione. Ciò che
viene chiesto in cambio è la possibilità di poter monitorare e
raccogliere i dati di utilizzo del servizio (le interazioni sui contenuti e
con le persone) che, in forma aggregata, costituiscono la base per un
diverso servizio a pagamento offerto alle aziende, quello di
advertising. Dunque Facebook ha due clienti: l’utente che fruisce del
social network in cambio di dati e l’azienda che usa il suo Ads
Manager in cambio di denaro.
In altri casi il prezzo può non essere fisso. Ci sono aziende che si
affidano a un modello di pricing dinamico o flessibile (che si adatta
alle nuove esigenze dell’utente). Il primo caso è quello dei servizi
come Uber o come Booking in cui il prezzo varia nel tempo a seconda
della domanda e dell’offerta. Il secondo caso è quello dei software as a
service che hanno dei prezzi modulari e flessibili che aumentano con
l’aumentare delle esigenze del cliente. Possono partire con una
cessione gratuita, per esigenze basilari, e crescere con l’aggiunta di
funzionalità.
Il ruolo centrale del marketing
Il mercato nel quale oggi operano le aziende è caratterizzato da un
consumatore aumentato con bisogni complessi e mutevoli e
dall’ipercompetizione (D’Aveni R., Hypercompetition, Simon &
Schuster, 1994). Quest’ultimo concetto non deve far pensare a una
situazione in cui i competitor sono più numerosi che in passato, ma a
quella di un mercato caratterizzato da azioni competitive intense e
veloci, in cui i concorrenti devono muoversi rapidamente per costruire
i propri vantaggi e per intaccare quelli degli avversari. L’escalation
competitiva si presenta come un susseguirsi di onde sempre più
ravvicinate nel tempo, fatte di profitti prima crescenti, poi stabili e poi
decrescenti, derivanti dallo sfruttamento di un vantaggio competitivo
temporaneo. Ecco la differenza rispetto al passato: i vantaggi
competitivi non si misurano più in anni, ma in mesi. In questo la
tecnologia, quale forza della distruzione creativa, ha il suo ruolo
determinante. Dunque, l’azienda che vuole rimanere sulla cresta
dell’onda deve rinnovarsi continuamente, cercare sempre un nuovo
vantaggio competitivo in grado di sorprendere i concorrenti, anche
quando vuol dire mettere in discussione lo status quo, ossia il proprio
vantaggio competitivo attuale. Un compito arduo, soprattutto per le
grandi organizzazioni, perché vuol dire distruggere quello che si è
creato in passato, con la speranza di riuscire a generare nuovo valore.
In questa complessa situazione di mercato le aziende, sempre più
spesso, assegnano al marketing un ruolo di maggior peso rispetto al
passato per diversi motivi, tra cui quelli elencati di seguito.
Il marketing ha una visione completa dell’azienda: chi gestisce
quest’area funzionale dovrebbe avere una conoscenza più ampia
del business aziendale, rispetto alla finanza, alle operation, al
prodotto, alle vendite o all’IT. Il motivo è che nei compiti del
Chief Marketing Officer c’è la comprensione del mercato, della
concorrenza (offerte e aziende), dei partner, dei clienti attuali e
potenziali. Questa visione a 360 gradi è fondamentale per fare le
scelte più oculate o percorrere le ipotesi più coerenti con la
strategia aziendale. Si pensi al lancio del Sony Reader. Fu il
primo lettore di e-book lanciato sul mercato nel 2004 ma, pur
avendo una tecnologia all’avanguardia, non riuscì a fermare
l’avanzata di Amazon. Cosa andò storto? L’azienda si concentrò
sul prodotto, sbagliando la strategia di “go to market”.
Inizialmente scelse di vendere l’oggetto nelle catene di elettronica
e non nelle librerie. Ma soprattutto non aveva pensato a costruire
un ecosistema di partner che avrebbe permesso all’acquirente di
avere a disposizione un catalogo di libri dal quale scegliere.
Il marketing è la funzione più vicina al cliente e al mercato: il
consumatore aumentato, al centro dei pensieri dell’azienda,
impone un ascolto continuo e un’assistenza costante. L’obiettivo è
passare dalla “persuasione occulta” al coinvolgimento del cliente
nel processo di creazione del valore, o quanto meno puntare
all’anticipazione e alla soddisfazione dei suoi bisogni, costruendo
un rapporto duraturo che punti a massimizzare il Customer
Lifetime Value (il valore cumulato nel tempo del cliente). È
importante non limitare l’ascolto ai clienti del prodotto, ma avere
sempre dei sensori attivi che permettano di identificare i nuovi
trend culturali che attraversano la società. Intercettare i segnali
deboli può rivelarsi vitale per individuare nuove opportunità di
business o di comunicazione prima dei concorrenti.
Il marketing ha le domande: abbiamo visto che la mole di dati
che vengono prodotti quotidianamente dalle persone e dalle
attività dell’azienda sta esplodendo. Generalmente il dipartimento
IT è in grado di raccogliere ed estrarre tutti i dati che vuole, ma
spesso non è in grado di fare le domande giuste. Sono le domande
che guidano le ricerche e la progettazione degli algoritmi utili a
estrarre valore dai dati. E le domande nascono da ragionamenti su
ipotesi, suffragate da una conoscenza delle dinamiche di mercato
e delle caratteristiche aziendali che il marketer padroneggia. Ma
difficilmente sarà possibile ottenere insight utili sulla base di
interazioni estemporanee tra IT e marketing. È necessario, invece,
sviluppare un rapporto di collaborazione che permetta un
confronto serrato e continuativo alla ricerca di fenomeni e
relazioni non immediatamente visibili.
Il marketing può guidare la disruption: la costruzione del
vantaggio competitivo non può più essere demandata alla
funzione prodotto perché, come abbiamo ribadito, le persone
cercano esperienze. Chi progetta un prodotto tende a essere
immerso completamente negli aspetti funzionali, senza alcuna
cognizione delle variabili di mercato. Dunque è il marketing che
ha i titoli per assumere il ruolo di guida della disruption
dell’offerta, ovviamente coordinando gli sforzi di tutti i reparti.
Pensate a quello che è successo al Fire Phone, lo smartphone
lanciato da Amazon nel 2014. Venne fuori esclusivamente dalla
mente del CEO Jeff Bezos che, in quel caso, non partì dalle
esigenze del consumatore, ma dalle sue. All’epoca il suo più
grande cruccio era riuscire a saltare l’intermediazione dell’App
Store di Apple nella vendita dei suoi prodotti e così pensò a uno
smartphone proprietario per agevolare gli acquisti sul suo e-
commerce. Lo riempì di funzioni inutili (come il display 3D che
si muoveva a seconda dello sguardo dell’utilizzatore) e lo prezzò
come l’iPhone, pensando di indurre le persone a considerarlo un
prodotto sostitutivo. Fu un fallimento clamoroso perché le
persone non avevano bisogno di comprare uno smartphone così
costoso per fare acquisti su Amazon, quando bastava un’app.
Il marketing può essere motore di crescita: negli ultimi anni i
CMO sono sotto pressione perché, sempre più frequentemente,
vengono investiti di una nuova responsabilità, quella di
contribuire direttamente ai ricavi aziendali o, quanto meno, di
concentrarsi su attività misurabili in termini di contributo alla
crescita. Ovviamente sono spuntate anche nuove etichette, per
esempio Coca-Cola dal 2017 ha un Chief Growth Officer che
sovraintende alle strategie di corporate marketing e di relazione
con i retailer, ma soprattutto deve garantire che il valore di brand
si trasformi in crescita di ricavi e margini di profitto. Questa
nuova concezione del CMO ha lati sia positivi che negativi.
Sicuramente è giusto pretendere che le attività di marketing
vengano correttamente misurate, visto che oggi è possibile grazie
alle tecnologie digitali. Al tempo stesso, però, un’eccessiva
pressione su obiettivi di ricavo potrebbe stimolare un marketing
miope, molto focalizzato sulle performance di breve periodo e
poco sugli obiettivi aziendali di più ampio respiro.
Figura 3.11 Le abilità del marketing.
Il punto di vista del CMO
Per comprendere il punto di vista dei CMO può essere utile attingere
ai dati di un’indagine continuativa promossa dall’associazione “The
CMO Survey” insieme a Deloitte (su un campione di 2654 top
marketer statunitensi) riferita al 2019 (https://cmosurvey.org/top-ten-
results-from-the-cmo-survey-august-2019/), con un aggiornamento di alcuni

punti nel 2020 (https://cmosurvey.org/top-ten-results-from-the-february-2020-


cmo-survey/).

Il budget dedicato al marketing è in media circa il 9% dei ricavi


aziendali, ma a giugno 2020 ha raggiunto l’11%.
I CMO credono che le nuove tecnologie abbiano rafforzato
l’importanza del marketing nelle aziende. Tuttavia 2 dirigenti su 3
tendono a focalizzarsi sulla “gestione del presente” anziché sulla
“preparazione per il futuro”.
La spesa per i software di marketing analytics è cresciuta
stabilmente negli ultimi anni, dal 4,6% del 2007 al 7,2% del 2019,
anche se solo il 40% ritiene di avere gli strumenti giusti per dimostrare
l’impatto delle attività.
Sono in crescita del 27%, gli investimenti per tool basati sull’uso di
qualche forma di intelligenza artificiale, ma anche quelli per le attività
sui social media (23%) e sui dispositivi mobili (12,8%) soprattutto
destinate a social advertising e al miglioramento della customer
experience. Qui il grande problema è il tracciamento delle persone nei
loro “mobile journey”.
Le aziende continuano a privilegiare la crescita organica rispetto alle
partnership, alle acquisizioni e allo sfruttamento di licenze. I fattori più
importanti per una crescita organica del fatturato vengono individuati
nell’avere i giusti talenti (30,8%), nell’allineamento con gli
stakeholder (30,8%) e nel giusto modello operativo (25,6%). Meno
importanti sono avere la giusta tecnologia (8,3%) e avere i giusti dati
(4,5%).
Durante la pandemia da Sars-Cov-2 molte aziende hanno spostato
risorse per rendere più digitali i propri servizi (60,8%) e per
trasformare il modello di “go to market” (56,2%), visto che i
consumatori hanno modificato le proprie abitudini. Il 62% dei CMO
ritiene che il marketing sia diventato più importante dopo il
Coronavirus.
Un’altra fonte utile per capire la visione dei marketing manager è la
“CMO Spend Survey” di Gartner su 432 marketing executive nord
americani, inglesi, francesi e tedeschi, in aziende con fatturati annui
superiori a 500 milioni
(https://www.gartner.com/en/marketing/research/annual-cmo-spend-survey-
research).

Nel 2020 emerge una forte pressione sui budget che spinge i
manager a portare in casa alcune delle attività di marketing, prima
esternalizzate ad agenzie e centri media. Questo movimento riguarda il
32% dei compiti (in particolare quelli relativi al social media
marketing e alla produzione di contenuti) e ci si aspetta continui nei
prossimi dodici mesi. Il risparmio non è l’unica ragione
dell’internalizzazione. L’obiettivo è quello di assicurare una maggiore
consistenza nelle attività del brand e un maggior controllo.
Nonostante i tagli, gli investimenti in tecnologia rappresentano la
fetta maggiore del budget di marketing (26,2%), rispetto alla spesa in
paid media (24,8%), agenzie (23,7%) e lavoro (24,5%). Inoltre la
maggioranza dei manager prevede che l’investimento in martech
aumenterà nel prossimo anno. I marketer statunitensi e inglesi, però,
sostengono di riuscire a usare solo il 58% delle funzioni delle
tecnologie acquistate. La sfida è riuscire a sfruttare il loro pieno
potenziale, ma per farlo sarebbe necessario assumere nuovi talenti.
Il digitale domina tra gli investimenti per canale. Il 13,5% è
destinato alla pubblicità digitale, l’11,3% ai social media marketing, il
10,4% ai siti, il 9,9% in SEO e il 9,8% in mobile marketing. Le
promozioni offline pesano per il 9,4%, mentre gli eventi, che hanno
subito il taglio maggiore causa Covid-19, si attestano al 9%. Allo
stesso livello anche il marketing di canale e l’email marketing. Poco
più in basso le attività di promozione sui motori di ricerca (8,6%).
In media il 74% degli intervistati prevede un aumento degli
investimenti nel digital advertising e il 66% un aumento nel paid
search. Va considerato che i marketer delle aziende B2C mostrano un
maggiore ottimismo rispetto a quelli del B2B.
Alla richiesta di elencare le capacità strategiche per l’azienda, il
33% dei CMO cita la strategia di brand, che probabilmente ha assunto
un’importanza maggiore dopo il Coronavirus. Al secondo posto c’è la
capacità di analizzare il mercato affidandosi a dati e tecnologia (29%)
e quella delle “marketing operation” (28%). Il 26% ha a cuore l’e-
commerce, il 25% le ricerche di mercato e le analisi competitive. Le
attività relative all’implementazione delle tecnologie di marketing,
strategia, adozione e utilizzo viene citata dal 22% dei CMO.
Se volessimo tracciare l’identikit del CMO moderno potremmo
utilizzare i cinque archetipi individuati da Deloitte
(https://www2.deloitte.com/us/en/pages/chief-marketing-officer/articles/five-
roles-of-the-cmo.html).

Growth driver: è colui che è capace di guidare una crescita


profittevole e sostenibile. Condizione necessaria ma non
sufficiente è di avere una comprensione a 360 gradi delle
dinamiche aziendali, anche economico finanziarie. Questo è ciò
che vorrebbero i manager della prima linea e ovviamente i CEO,
ma spesso i CMO fanno fatica a raccogliere la sfida. Dallo studio
dell’azienda di consulenza emerge che solo il 32% si sente
preparato a generare un impatto sulla market share, mentre se si
parla di margine lordo la percentuale scende al 20%.
Customer champion: se l’azienda mette al centro del suo agire il
cliente, il CMO è il naturale responsabile di tutte le attività tese ad
ascoltare e soddisfare prospect e clienti. Inoltre è anche colui che
si occupa di fare in modo che tutti gli altri reparti si comportino di
conseguenza, portando all’interno dell’azienda “la voce del
cliente”.
Capability builder: è colui che riesce a costruire nuove capacità
marketing mostrando di essere al passo con l’innovazione,
assumendo talenti, adottando tecnologie abilitanti, introducendo
piani di formazione digitale. Non tutti i CMO possono vantare
questa attitudine a favorire quella conoscenza diffusa in grado di
permettere all’organizzazione di competere efficacemente in
futuro.
Innovation catalyst: è il CMO che riesce a portare l’innovazione
in azienda, spesso riuscendo ad analizzare dati e a usare le
tecnologie di supporto al marketing. Può trattarsi di
un’innovazione di processo che migliori l’efficacia e l’efficienza
aziendale oppure di prodotto, tesa a ottenere un vantaggio
competitivo sul mercato.
Chief storyteller: è il manager con grandi doti comunicative in
grado di costruire e guidare la narrazione sul brand, coinvolgendo
i consumatori. È colui che si assicura che il brand rimanga
rilevante sul mercato attraverso un racconto coerente con la
storia, ma attento ai trend sociali del momento.
I cinque tipi ideali tratteggiati possono servire ai CMO per capire
cosa vorrebbero i vertici aziendali e per lavorare sugli aspetti meno
affini al proprio stile di gestione.
Figura 3.12 Gli archetipi di CMO individuati da Deloitte.

La pandemia come acceleratore digitale


La pandemia da Sars-CoV-2, costringendoci a rimanere a casa, ha determinato
un mutamento nella percezione dell’utilità della tecnologia e anche delle abitudini
della popolazione mondiale. Ha fatto capire a molti intellettuali, ma anche a
semplici superficiali, che i dispositivi connessi non limitano necessariamente le
esperienze. Al contrario, in una situazione di limitazione delle esperienze nella
quale si acuisce la percezione di ciò che abbiamo perso, possono aiutarci a
ricostruire la fisicità perduta e a tenere in vita le relazioni. Soli, ma insieme, grazie
alle tecnologia.
L’impossibilità di spostarsi, se non per gli acquisti essenziali, ha amplificato il
bisogno di sfruttare la Rete per sopperire alle attività che richiedevano la
presenza fisica e ha creato nuovi bisogni temporanei. Abbiamo trascorso più
tempo a fare cose che facevamo prima, ma abbiamo anche imparato a fare
nuove cose, con l’aiuto delle tecnologie di rete.
Per esempio abbiamo sviluppato un desiderio, quasi spasmodico, di
intrattenimento e comunicazione, dettato probabilmente dalla voglia di evadere
dalla prigione domestica. Allo stesso tempo abbiamo anche iniziato,
forzatamente, a usare alcuni strumenti di apprendimento e di lavoro a distanza
(addirittura il 57% degli italiani, secondo una ricerca McKinsey, ha usato per la
prima volta software per l’apprendimento da remoto e il 42% le videoconferenze
per uso professionale).
Questo stato di iperconnessione ha portato alla richiesta di maggiori servizi online
e digitali. Le aziende che non erano pronte con l’e-commerce, col delivery e con i
pagamenti elettronici hanno subito i maggiori danni e sono dovute correre
velocemente ai ripari. Ma anche chi non era pronto ad ascoltare la voce del
consumatore, in questo momento di crisi, si è trovato a dover agire al buio. Ecco
perché il 47% dei CMO intervistato da Gartner ha dichiarato di voler adottare
strumenti di monitoraggio delle conversazioni e del sentiment delle persone.
Alla luce dell’emergenza Coronavirus, secondo la CMO Survey di Deloitte su 250
CMO italiani, il 47% di essi ritiene che è una priorità ripensare il ruolo dei canali di
comunicazione e riequilibrare gli investimenti verso i mezzi digitali
(https://www2.deloitte.com/it/it/pages/strategy-operations/articles/come-
cambia-il-marketing-nel-post-covid-19----deloitte-italy---d.html). Secondo
il 49% dei CMO, touchpoint e canali di comunicazioni immersivi e innovativi
rappresentano il futuro.
Inoltre le nuove aspettative del consumatore devono essere soddisfatte con una
più adeguata customer experience. Il marketing, secondo gli intervistati, sarà
efficace se guidato dall’innovazione dei servizi. Dopo una prima fase
caratterizzata da un ridimensionamento degli investimenti, il 46% dei CMO si
aspetta un aumento di budget per innovare i servizi e il 29% per lo sviluppo dei
prodotti.
Per prepararsi al prossimo evento dirompente, il 20% dei marketer prevede
un’ascesa dei team di lavoro interfunzionali e il 59% pensa che il lavoro agile sarà
un trend in continua crescita.
Infine il 70% dei CMO sostiene che ci saranno maggiori investimenti in
innovazioni tecnologiche e che le aree maggiormente interessate saranno
Customer Relationship Management (CRM), e-Commerce e Data Analytics,
mentre soluzioni più innovative come intelligenza artificiale restano ancora di
nicchia.
Capitolo 4
Il marketing aumentato (parte I)

Nei primi due capitoli abbiamo seguito la strada che le tecnologie


digitali hanno percorso per arrivare a far parte delle vite di persone e
aziende. Nel terzo abbiamo battuto la strada del marketing come
pratica aziendale e disciplina, per fermarci a osservare quello che è
successo quando i due percorsi si sono incrociati. Siamo stati testimoni
della nascita di pratiche caratterizzate dall’uso di strumenti nuovi per
rendere più efficienti i vecchi compiti (i CRM per gestire le relazioni
con prospect e clienti) o per eseguire attività inedite (la pianificazione
della pubblicità online o la gestione della presenza sui social media).
Oggi però l’ambiente nel quale si trovano a operare le
organizzazioni è molto più dinamico e burrascoso. Ecco perché le
aziende sempre più spesso assegnano al marketing un ruolo di maggior
peso rispetto al passato. Il CMO (Chief Marketing Officer) ha il
compito di scegliere come interpretare questo ruolo. Può decidere di
continuare a fare marketing utilizzando la tecnologia come mero
attrezzo di lavoro, in maniera reattiva o, peggio, passiva. Oppure può
immaginare un marketing aumentato che si fa contaminare dalle nuove
possibilità che l’innovazione tecnologica porta con sé, ma senza farsi
soggiogare dalle “feature”. Un marketing aumentato al servizio del
consumatore aumentato, ma anche di un mondo sempre più agito dalle
macchine, assistenti personali, chatbot, agenti intelligenti, prodotti
aumentati.
Ora, prima di aprire le porte alle tecnologie applicate alle varie aree
di competenza del marketing, proveremo a capire come le nuove
tecniche di intelligenza artificiale stanno infondendo nuova vita ai
software pensati per far luce sulle caratteristiche dei pubblici di
riferimento, gestire i flussi di email marketing, la pianificazione
pubblicitaria, il rapporto con i clienti, i contenuti, l’e-commerce.
Marketing aumentato: una definizione
Sopravvivere nel mercato attuale, competitivo e dinamico, non è
impresa facile. Dal lato dell’offerta si tratta di un mondo nel quale i
competitor diretti sono sempre più agguerriti e dove, dal nulla,
spuntano nuovi competitor più abili nell’usare le nuove tecnologie per
aprire nuove opportunità di business. Ma se allarghiamo la visuale,
notiamo anche l’influenza di altri soggetti che non sembrerebbero
concorrenti diretti. Parlo dei grandi moloch della tecnologia in grado di
imporre nuovi modelli di business, scardinare logiche tradizionali e far
sorgere nuovi bisogni nei consumatori o spingere in alto le loro
aspettative, aumentando gli standard di servizio.
La domanda è invece dominata da quello che ho definito
“consumatore aumentato”, che grazie alle tecnologie digitali e di rete è
più consapevole e accorto nelle sue decisioni di acquisto e nella scelta
delle aziende alle quali accordare fiducia.
In questo scenario complesso, e per alcuni aspetti caotico, al
marketing si chiede un ruolo di primo piano, un ampliamento dei suoi
tradizionali compiti e maggiori responsabilità di business. Non serve il
marketing tattico, quello che in questi anni ci è stato propinato come
necessario al sorgere di ogni nuovo trend: content marketing, funnel
marketing, social media marketing, growth hacking. In quest’ottica,
sarebbe fuorviante parlare solo di “digital marketing” perché si
rischierebbe di porre l’accento solo sugli ambiti digitali, trascurando
quelli fisici, che non hanno perso di importanza, o ancora su una
concezione meramente logistica del digitale, come medium per
raggiungere determinate audience. Allo stesso modo, parlare di “Big
Data marketing” rischierebbe di porre eccessiva enfasi sui dati, che
sono abilitanti, ma non costitutivi della disciplina. Così, pure
introdurre una nozione di “AI Marketing” significherebbe limitare il
ragionamento a una serie di tecniche e tecnologie che svilirebbe il
ruolo fondamentale dell’uomo, che ancora rimane cruciale.
Il concetto di marketing che qui propongo non vuole diventare una
nuova vuota etichetta, ma vuole provare ad avviare un ragionamento
sul rinnovamento che è richiesto a questa vecchia pratica, nata in un
contesto di mercato fatto esclusivamente da umani. Oggi, sempre più,
a interazioni e transazioni tra persone, si affiancano quelle con agenti
artificiali di vario tipo: dati, algoritmi, software, sensori, oggetti
intelligenti. Ecco perché credo sia necessario sforzarsi di reimmaginare
questa disciplina. Nella mia idea, maturata dopo anni di studio e di
pratica della materia, il marketing aumentato è quello che, ben
ancorato ai principi fondanti, riesce ad assorbire le novità della
cultura digitale e a utilizzarle per non perdere rilevanza. Un marketing
potenziato, in grado di accedere a una percezione più estesa e
profonda della realtà, grazie alla gestione strategica e consapevole di
dati e di tecnologie hardware e software. Quello di cui parlo non è un
marketing che nasce per ectogenesi (ecto = fuori, gènesis = origine)
fuori dal corpo aziendale, da un mondo tecnologico esterno, né di
semplice marketing automation, vale a dire di marketing automatizzato
(dal greco automaton, ossia che si muove da solo), che agisce senza
bisogno dell’uomo.
È fondamentale sviluppare una nuova consapevolezza perché il
marketer aumentato deve essere in grado di pensare la tecnologia e non
farsi pensare da essa, vale a dire guidare l’innovazione e non farsi
soggiogare.
DEFINIZIONE
Il termine “marketing aumentato” descrive uno stadio di sviluppo della pratica di
marketing in cui vengono utilizzati strategicamente dati e tecnologie moderne
(hardware e software) per ottimizzare le attività aziendali, accedere a una
percezione più estesa e profonda della realtà, generare valore per l’ecosistema,
progettando esperienze per persone e macchine (entità hardware e software).
Nella pratica, questo si traduce nel non farsi imporre strumenti di
lavoro dai fornitori di tecnologia e società di consulenza oppure subire
le metriche da tenere sott’osservazione dai social media.
I dati grezzi, strutturati o non strutturati, sono la materia prima, il
combustibile informativo, che alimenta le tecnologie. Sono Big Data
se hanno le caratteristiche di vastità, varietà, velocità descritte in
precedenza. Qualunque sia il caso, senza di essi è impossibile unire i
punti, svelare relazioni nascoste, accedere a nuova conoscenza.
Le tecnologie sono quelle hardware (sensori, videocamere, visori,
smart object) e software (i più evoluti sono quelli che fanno uso di
tecniche di intelligenza artificiale) che possono essere usate per
rendere più efficienti i processi e le attività quotidiane del marketing
team (automation) e per trasformare i dati in informazioni azionabili,
utili affinché il marketer assuma le decisioni più giuste (intelligence).
Altro aspetto di questo marketing è che non si rivolge solo agli
uomini, ma anche alle macchine, nel senso di entità composte da
hardware e software. Come abbiamo visto nel capitolo precedente, i
marketer hanno già dovuto imparare a progettare manufatti digitali
pensando alle macchine: la pratica SEO non è altro che un tentativo di
intercettare l’attenzione di bot. Anche le più banali attività sui social
media possono rientrare in questa logica: si pensi all’uso di hashtag o
alle tecniche per “forzare” l’algoritmo delle diverse piattaforme in
modo che mostri organicamente i contenuti aziendali. Se già oggi gli
algoritmi selezionano e suggeriscono contenuti, anticipano bisogni e
personalizzano servizi, il marketing non può non tenerne conto, anzi
non può non agire proattivamente progettando per gli algoritmi, con gli
algoritmi.
Si pensi agli assistenti intelligenti incorporati in oggetti di uso
comune che danno risposte a domande comuni e consigliano anche
acquisti. Queste piattaforme di intelligenza artificiale, inserite nei
contesti più familiari, saranno una nuova interfaccia, “voice first”, tra
consumatore e mercato. Dunque diventeranno un canale di vendita e
distribuzione, un centro di servizi e quindi anche un mezzo di
marketing. Ciò spingerà i brand a concentrarsi sull’ottimizzazione
della loro posizione sulle piattaforme di intelligenza artificiale, più che
sul rafforzamento della relazione diretta col consumatore.
Capire come fare marketing per le macchine sarà parte
fondamentale di questo marketing aumentato.
Tra i dati e le tecnologie si collocano il CMO e il team di marketing
che, prima di tutto, devono sviluppare la capacità di aprirsi al nuovo, di
assorbire le novità che possono arrivare da ambiti anche molto diversi
dal proprio business e diventare sperimentatori infaticabili, motori del
cambiamento, fonti di stimolo per l’azienda, orchestratori di
esperienze all’interno dell’ecosistema. La loro attività è creare valore
per l’organizzazione e per il consumatore, progettando esperienze che
stimolino la generazione comune di valore (co-creazione, non
necessariamente co-produzione) durante il contatto che avviene negli
ambienti di servizio. Questi, nella logica del service design, sono da
considerare non semplici “touchpoint” ma “servicescape”, ossia
ambienti fisici, digitali, aumentati nei quali l’incontro con la marca è
mediato da contenuti, simboli e tecnologie. Qui, il valore delle
esperienze dipende da tre dimensioni (Mandelli A., Big Data
Marketing, SDA Bocconi, 2017).
Funzionale: il cliente percepisce il valore in base al servizio che
ottiene, in rapporto al prezzo.
Identitaria: il cliente coglie il valore perché vive esperienze
soddisfacenti e ha la possibilità di esplorare e segnalare agli altri
gli aspetti rilevanti della sua identità.
Sociale: il cliente ottiene valore perché l’esperienza fatta gli
permette di collegarsi simbolicamente e attivamente a comunità
rilevanti e perché, attraverso di essa, agisce su valori importanti
per se stesso e per la società.
Dunque, visto che il rapporto tra consumatore e azienda diventa
relazione emergente tra le diverse esperienze fatte durante il customer
journey, il marketing aumentato è progettazione e management di
esperienze aumentate, ma anche creazione di valore per i partner
dell’ecosistema. È una missione per il CMO e il suo team tutt’altro che
facile, ma necessaria se non si vuole rischiare che il marketing venga
relegato nel recinto della comunicazione o rimanga sempre più
appiattito su attività meramente operative o di ricerca di un guadagno
di breve periodo.
Figura 4.1 Il marketing aumentato.

Quando ricorrere al marketing aumentato? Sicuramente quando il


mercato dell’azienda è molto dinamico, con una competizione
agguerrita e una domanda mutevole. In questi casi, i manager
dovranno dotarsi dei talenti giusti e delle tecnologie più avanzate per
sviluppare un moderno approccio al mercato. Qui la tecnologia viene
utilizzata in maniera strategica per ottenere un vantaggio competitivo
e, magari, un nuovo modello di business. Nel corso della trattazione
approfondiremo come sviluppare questo approccio.
Quando invece il mercato è meno turbolento e le risorse a
disposizione sono inferiori si può anche scegliere un tipo di marketing
automatizzato, in cui il team di marketing fa uso di software di
marketing automation per svolgere i compiti più standardizzati e
ricorrenti. L’obiettivo qui non è ottenere un vantaggio competitivo, ma
rendere più efficaci ed efficienti i processi di lavoro, liberando del
tempo per attività a maggior valore aggiunto.
Infine, se l’azienda si trova a operare in mercati statici e prevedibili
può ancora far ricorso a un marketing tradizionale, senza alcun tipo di
automazione. Certo, il ricorso a un set basilare di strumenti digitali
usati con un approccio tattico è sempre utile. Se i concorrenti sono
talmente anchilosati da non usarli, anche un utilizzo minimo può
diventare un vantaggio competitivo. Si pensi, per esempio, alla
presenza sui social media e all’investimento in social advertising per
promuovere alcune specifiche iniziative commerciali. Alcune analisi
possono essere svolte saltuariamente su dati strutturati e attraverso
fogli di calcolo o utilizzando strumenti analitici nativi (es. Google
Analytics per monitorare il traffico).
Questa matrice delle tipologie di marketing, basata sulle variabili di
dinamicità del mercato e propensione all’innovazione del CMO, può
essere vista anche come una descrizione del percorso che le aziende
possono compiere per giungere a un marketing moderno. In questo
caso, può essere utile per sottolineare che non si arriva all’ultimo
stadio repentinamente, ma spesso si tratta di un processo graduale, che
richiede diversi passi intermedi. In alcuni casi, però, si può saltare la
prima fase e iniziare dalla seconda. Per esempio, le aziende che
nascono in ambienti più dinamici mettono in conto di aver bisogno di
un marketing che sia al passo con quello dei competitor e dunque si
dotano immediatamente degli strumenti utili per iniziare il proprio
lavoro.
Qualunque sia lo stadio dal quale si parte, è tempo di ripensare il
marketing, partendo dalle basi, ma indossando degli occhiali nuovi, in
grado di aumentare la nostra percezione delle possibilità e le nostre
capacità di azione.

Figura 4.2 Tipologie di marketing rispetto al mercato e alla tecnologia.


Marketing per le macchine
Il marketing aumentato, come appena visto, si caratterizza non solo
per lo sfruttamento in chiave strategica di dati e tecnologia, ma anche
perché i destinatari delle sue attività non sono più solo le persone, ma
anche e soprattutto le macchine. Il concetto di macchina qui è da
intendersi in senso ampio, come agenti composti da hardware e
software, che rappresentano i nuovi diaframmi tra desiderio e
consumo, tra aziende e persone. Oggi le macchine sono algoritmi,
chatbot/assistenti digitali, assistenti vocali, smart contract, prodotti
aumentati, ambienti relazionali, virtuali e non, immersivi e
coinvolgenti. Quanto più il mercato sarà popolato da questi agenti
intelligenti, tanto più il marketing dovrà esercitarsi a intercettare anche
la loro attenzione, a progettare esperienze per le macchine.
Cosimo Accoto, a tal proposito, ha coniato il termine “markething”
per indicare la prospettiva di mercati popolati e animati da agenti
intelligenti che agiscono per conto di e a supporto di consumatori e
clienti (Accoto C., Sensor e Algorithm society: le macchine
decideranno per noi?, Changes #5, 2020). Ci muoviamo in un contesto
in cui la comunicazione non è più soltanto antropologica, o “antropo-
logistica”, ossia esercitata attraverso una tecnologia considerata come
mero canale di diffusione di messaggi verso persone, ma è:
anticipata (costantemente impegnata a simulare e predire
contesti, comportamenti e obiettivi dei consumatori);
anonima (cioè sottopercepita dal consumatore e non attenzionata
quindi dall’umano se non a posteriori);
automatizzata (vale a dire che è abilitata da processi sofisticati e
intelligenti a controllo macchinico e automato);
alienata (in grado, quindi, di agire con livelli di autonomia e di
decision making crescente);
atmosferica (capace di supportare gli utenti incrociando scale
macro (le reti) e micro (i sensori) in maniera pervasiva).
Per Andrea Guzman, nella comunicazione umano-macchina, la
tecnologia è più di un canale o medium, assume il ruolo di
comunicatore. E ciò genera questioni complesse: quando
comunichiamo con una macchina cambiamo atteggiamento? Come ci
influenzano le sue risposte? Come percepiamo noi stessi dopo aver
interagito con un agente virtuale? Che tipo di società ne deriverà?
(Guzman A. L., Human-Machine Communication: Rethinking
Communication, Technology, and Ourselves, Peter Lang Publishing,
Incorporated, 2018). E, per quello che qui ci interessa, come cambia il
marketing? Per esplorare questa prospettiva è necessario dare uno
sguardo alle attuali e future modalità di interazione tra marketer e
consumatore: chatbot, assistenti vocali, smart contract, mondi digitali e
virtuali, prodotti digitali e aumentati.

Chatbot e assistenti digitali


Evidenze concrete di “marketing programmabile” si possono
rintracciare nella diffusione dei cosiddetti “chatbot”. Nascono come
applicazioni in grado di sostituire gli operatori del servizio di
assistenza, riducendo i costi e aumentando la disponibilità (operativi in
qualunque momento per rispondere alle domande di prospect e clienti,
utilizzando la scrittura). Possono essere inseriti nel sito Web aziendale
oppure su altri luoghi di contatto (applicazioni mobili, Facebook,
Telegram). Lo fanno seguendo logiche di programmazione che
possono essere di due tipi: basate su regole linguistiche o su tecniche
di intelligenza artificiale.
Il primo metodo si fonda sulla previsione di regole che guidano la
conversazione. La logica sottostante è quella del tipo if...then, ossia se
l’utente chiede questo, allora il chatbot risponde in questo modo. Si
possono creare delle condizioni linguistiche per fare in modo che
domande simili, ma che usano parole diverse, generino la stessa
risposta. Si tratta di un approccio di programmazione laborioso perché
deve prevedere le domande più comuni e può risultare molto rigido.
Il secondo metodo ha l’obiettivo di simulare meglio la
conversazione con un umano, ma richiede un’enorme quantità di dati
necessari ad addestrare i modelli di interazione e data scientist in grado
di progettare il sistema. Spesso i due metodi vengono combinati. I
chatbot più complessi usano tecniche di natural language
processing/understanding e sentiment analysis per comprendere il
linguaggio naturale usato dall’utente e il tono della richiesta, ma anche
algoritmi di machine learning per analizzare i dati disponibili (lo
storico di precedenti conversazioni sullo stesso tema o con lo stesso
utente, la geolocalizzazione, gli acquisti precedenti e così via),
inquadrare il contesto della conversazione e dare una risposta,
attraverso metodi di natural language generation. Inoltre, tecniche di
predictive analytics possono essere usate per generare azioni proattive
e non reattive (per esempio stimolare l’utente a scaricare un certo
contenuto).
Oggi software detti “Low Code No Code” permettono ai marketer,
senza abilità di programmazione, di disegnare le azioni proattive e le
reazioni del chatbot in risposta alle domande ricevute, attraverso
l’utilizzo di semplici interfacce grafiche. Ormai l’uso di questi agenti
programmabili non si limita solo alla fase dell’assistenza, ma è
generalmente esteso anche alla lead generation e all’acquisto.
Infatti, inseriti nelle pagine di un sito aziendale e su tutti gli altri
canali di contatto, possono comprendere i percorsi di navigazione
dell’utente e proporre una serie di prodotti in offerta, rispondere alle
curiosità, mostrare i prezzi, raccogliere l’ordine, accettare il pagamento
e confermarlo; di conseguenza, aggiornare periodicamente il cliente
sullo stato della spedizione e informarlo degli orari di consegna; infine,
raccogliere il suo feedback sul grado di soddisfazione e rilasciargli un
buono per un acquisto futuro.
Ancora l’esperienza di interazione con un chatbot non è
paragonabile a quella con un umano educato e paziente, cosa non così
facile da trovare, ma non potrà che migliorare. Sicuramente i marketer
devono approfondire il tema, valutando costi e benefici di una
soluzione di questo tipo. Le prossime sfide saranno quelle della
naturalezza delle conversazioni, della capacità di infondere un senso di
empatia comunicativa, ma anche della personalizzazione sia delle
risposte che del carattere del chatbot.
L’evoluzione del chatbot può essere un assistente con un volto, una
voce e una personalità, in grado di abitare in un chiosco digitale, in un
videogioco, in un ambiente virtuale o nello spazio circostante sotto
forma di ologramma, visibile con apposita tecnologia o indossando
lenti per la realtà aumentata. Potrebbe diventare l’alter ego
dell’azienda, il fidato Virgilio che prende per mano lo spaesato
consumatore e lo guida alla scoperta del prodotto o del servizio ideale
per soddisfare il suo bisogno. Avatar digitali molto realistici sono
quelli realizzati da Soul Machines (sul loro sito è possibile dialogarci,
https://www.soulmachines.com/). Per aziende private come ANZ (The

Australia and New Zealand Banking Group Limited) hanno creato


Jamie che, anche se si limita a un’assistenza di primo livello che copre
gli argomenti più frequenti, lo fa con un volto umano ed
un’espressività naturale, generata dall’utilizzo di reti neurali.

Gli assistenti vocali intelligenti


Il professor Niraj Dawar, con l’articolo “Marketing in the age of
Alexa” apparso a metà del 2018 sull’Harvard Business Review
(https://hbr.org/2018/05/marketing-in-the-age-of-alexa), si è concentrato
sulle conseguenze della diffusione degli assistenti personali,
incorporati in computer, smartphone, orologi, casse acustiche, auto e
nei più disparati oggetti di uso comune. Tutti i giganti della tecnologia
propongono il proprio assistente attivabile con la voce: Google ha
Google Assistant, Apple ha Siri, Amazon ha Alexa, Microsoft ha
Cortana, Samsung ha Bixby, Tencent ha Xiaowei, Baidu ha DuerOS.
Un mercato nascente, ma già molto ampio, trainato dalla diffusione
degli smartphone e dai prezzi bassi degli smart speaker. Si stima che
Google Assistant sia presente su un miliardo di dispositivi, Siri su oltre
500 milioni, Cortana su 400 milioni, Alexa su oltre 200 milioni.
Il professor Dawar prevede che queste piattaforme di intelligenza
artificiale, inserite nei contesti più familiari, saranno l’interfaccia
principale tra consumatore e mercato, il canale primario di
informazioni e acquisto. Gli assistenti aiuteranno le persone a ridurre il
numero delle scelte possibili, che per molti è fonte di stress, ma anche
a compiere acquisti ricorrenti di prodotti di uso comune o di prima
necessità (Amazon ha già fatto un tentativo con il suo Dash, un
semplice oggetto fatto da un pulsante da installare in casa e da premere
per ordinare un determinato prodotto. È stato un esperimento poi
ritirato dal mercato senza alcuna spiegazione. Probabilmente riempire
la casa di pulsanti, uno per ogni prodotto ricorrente, non si è rivelata
un’idea convincente. Al di là del problema di user experience, la
possibilità di abilitare acquisti ricorrenti è sempre possibile utilizzando
la piattaforma di e-commerce).
Dunque gli assistenti intelligenti diventeranno un canale di vendita e
distribuzione, un centro di servizi e rifornimento, un marketing
medium, facendo sparire l’attuale ossessione dei marketer per
l’esperienza omnicanale. Ciò determinerà l’indebolimento del brand a
favore della piattaforma tecnologica preferita, sempre vicina,
intimamente connessa alla vita delle persone. Si realizzerà il passaggio
da trusted brands a trusted AI assistant nel senso che questi ultimi
guadagneranno la fiducia dei consumatori perché diventeranno il
centro delle abitudini, la memoria storica delle preferenze, nonché
motore di suggerimenti utili. Di conseguenza, prosegue Dawar, i brand
saranno costretti a concentrarsi sull’ottimizzazione della loro posizione
sulle piattaforme di intelligenza artificiale, più che sul rafforzamento
della relazione diretta con le persone. A mio avviso, probabilmente
sarà vero per alcune tipologie di beni, quelli più ricorrenti e banali, ma
credo che in uno scenario di questo tipo le aziende terranno sotto
controllo il rapporto con i consumatori proprio per non perdere
rilevanza. Già oggi c’è chi prova a creare il proprio assistente
personale nei suoi prodotti, come Mercedes-Benz ha fatto con il
sistema vocale delle sue automobili. In futuro molte aziende
proveranno a iniettare intelligenza nei propri prodotti in modo da
aumentare l’esperienza di utilizzo: più utilità e più empatia, per
fortificare la relazione di lungo periodo con il brand.
In questo scenario si configura un rapporto tripolare tra brand,
consumatori e piattaforma di intelligenza artificiale. La piattaforma
offre ai brand uno scaffale virtuale, un canale di marketing, vendita e
servizi, i dati sulle preferenze dei consumatori, un servizio di
pagamento, un alone di fiducia per l’affidabilità dell’esperienza. I
brand, in cambio, pagano delle commissioni per i servizi offerti dalla
piattaforma (esposizione, pagamenti), forniscono informazioni di
prodotto e innovazioni su misura dei bisogni del cliente. In più la
piattaforma offre al consumatore dei consigli personalizzati, acquisti
ricorrenti automatizzabili, convenienza e risparmio, una riduzione di
complessità e una ricerca continua di offerte. I consumatori pagano per
gli acquisti, concedono informazioni sulle loro abitudini e preferenze,
sulla sensibilità al prezzo, la tolleranza del rischio, le aspettative di
riservatezza, danno fedeltà in cambio di buoni consigli.

Figura 4.3 Come le piattaforme di intelligenza artificiale creano valore.

Siamo portati a pensare agli assistenti come un’entità posta in un


oggetto che sta in tasca o sul comodino di casa, ma con la diffusione
degli auricolari intelligenti la sua voce entra direttamente nelle nostre
orecchie per stimolare il nostro cervello. Questi oggetti ormai sono un
concentrato di tecnologia, tanto che gli AirPods del 2020 hanno più
potenza computazionale di un iPhone 4, lanciato solo dieci anni prima.
Ma a cosa serve questa capacità di calcolo? Sicuramente a una
fruizione ottimale della musica (anche se per questo è sempre meglio
usare cuffie dedicate), ma soprattutto a una percezione spaziale dei
suoni e a un loro controllo selettivo.
Si parla a tal proposito di “Spatial Sound” per intendere una
tecnologia che ha l’effetto di riprodurre suoni simulando una
provenienza frontale, laterale, posteriore o a 360 gradi, come accade al
cinema. Una tecnica usata da tempo su dispositivi di fascia alta e che
ora diventerà molto diffusa. Per attivare questa funzione gli auricolari
intelligenti sono dotati di sensori di movimento, accelerometro e
giroscopio, per recepire i movimenti della testa.
In più questi auricolari sono dotati di un microfono rivolto
all’esterno che rileva i rumori ambientali e che, generando un segnale
opposto di pari ampiezza, consente di cancellarli in modo da non
disturbare l’ascolto di musica e chiamate. Ma l’utente può anche
decidere di non isolarsi completamente e permettere ai suoni
circostanti di filtrare.
Ormai questi oggetti stanno diventando un’estensione del nostro
corpo dato che vengono posati solo quando si torna a casa o quando
necessitano di una ricarica. Se la voce diventa l’interfaccia principale
per l’interazione e le risposte dell’assistente-oracolo si fanno più
affidabili e arrivano direttamente nel nostro cervello, è probabile che il
rapporto uomo-macchina diventi più intimo e che saremo più propensi
ad accettare suggerimenti che hanno un riflesso commerciale.
Foursquare, l’azienda famosa per l’omonima app che ha popolarizzato
l’atto di geolocalizzarsi, ha lanciato Marsbot for AirPods, un’app che
abilita un assistente vocale virtuale che funge da guida audio invisibile
(https://enterprise.foursquare.com/intersections/article/introducing-marsbot-
for-airpods/). Riconoscendo il luogo in cui l’utente si trova, grazie al

GPS dello smartphone o smartwatch, può inviare raccomandazioni sui


locali della zona, indicare che si è appena superato il posto verso il
quale si era diretti o avvertire che il vostro amico Max è nel bar vicino.
L’utente può anche registrare dei frammenti audio con la propria
voce legati a uno specifico posto, per esempio delle recensioni che
potranno aiutare altri nella scoperta di luoghi. L’idea è quella di
progettare un assistente “da passeggio” proattivo, che non necessita di
un comando vocale per essere attivato, perché in grado di comprendere
il contesto nel quale l’utente si trova. Se l’intuizione di Dennis
Crowley, fondatore di Foursquare, dovesse funzionare o essere
direttamente implementata negli assistenti di Apple, Amazon e
Google, potrebbe aprire uno scenario inedito per i marketer. Le
aziende correranno a creare il proprio “brand soundmark”, un “logo
sonoro” in grado di renderli riconoscibili alle orecchie delle persone, e
lo useranno, si spera discretamente, per spingere chi indossa un
auricolare intelligente a fermarsi nel vicino punto vendita.
La presenza ingombrante delle piattaforme di intelligenza artificiale
avrà un notevole impatto a tre livelli: acquisizione dei clienti,
soddisfazione e fidelizzazione.
Acquisizione: le tecniche di acquisizione dei clienti potrebbero
cambiare drasticamente con la diffusione di questi oggetti
intelligenti. Se saranno loro l’oracolo a cui rivolgersi per
compiere un acquisto, vorrà dire che i marketer dovranno
concentrarsi sulle tecniche atte a “influenzare” l’algoritmo che
produce la risposta alla domanda del consumatore. Per capirci, si
tratterebbe di un’attività molto simile a quella del posizionamento
tra i risultati dei motori di ricerca, che può avvenire in maniera
organica o concorrendo a un’asta per forzare il responso
dell’oracolo. Bisognerà vedere se le aziende tecnologiche
apriranno alla pubblicità visto che avranno sicuramente un
patrimonio informativo non indifferente sulle abitudini e le
preferenze delle persone. Un altro modo per costruire una propria
rilevanza al tempo degli assistenti virtuali è quello di creare
applicazioni in grado di girare su quelle che sono vere e proprie
piattaforme. Amazon e Google mettono a disposizione degli
sviluppatori le funzioni dei rispettivi assistenti per creare app
“brandizzate” (chiamate rispettivamente Skills e Actions),
richiamabili dalla voce del consumatore, per esempio per
prenotare un servizio, ordinare un prodotto o chiedere
informazioni.
Soddisfazione: gli assistenti di intelligenza artificiale sono anche
nella posizione ideale per soddisfare, meglio di qualunque altro
mezzo, i bisogni espressi o latenti delle persone perché
accumulano un enorme numero di dati comportamentali: quelli
sulle abitudini culturali, sociali, alimentari, ma anche sui percorsi
di acquisto e le preferenze di qualunque tipo. In teoria questi dati
possono essere elaborati per suggerire informazioni fresche senza
la necessità di cercarle e prodotti nuovi al prezzo migliore, anche
anticipando bisogni. Se l’assistente sa che sono celiaco, mi
proporrà il prodotto senza glutine appena lanciato e ancora non
adeguatamente pubblicizzato, non altro. Attingere a questi dati,
nel rispetto della privacy del singolo, sarebbe un ottimo modo per
aumentare la soddisfazione dei clienti. Il tema sarà capire se a
usufruirne saranno i creatori della macchina o se essi troveranno
conveniente consentire un accesso anche ai brand.
Fidelizzazione: se un cliente è soddisfatto dell’esperienza di
acquisto, è più probabile che rimanga fedele alla marca, ma
quando entra in gioco un elemento come l’intelligenza artificiale
le cose potrebbero cambiare. Per alcuni prodotti l’utente potrebbe
chiedere all’assistente di acquistare in base al prezzo più basso
oppure in base a un criterio di novità. Queste informazioni
sarebbero molto interessanti per un marketer al fine di prevenire
un abbandono. In quel caso egli potrebbe fare un’offerta
conveniente al cliente, calcolata in tempo reale sulla base del
Customer Lifetime Value.
Queste piattaforme avranno successo solo se riusciranno a generare
fiducia nelle persone, assicurando accuratezza, trasparenza e privacy.
Accuratezza vuol dire capacità di utilizzare i dati acquisiti sull’utente
per generare consigli davvero utili che facciano risparmiare tempo e
denaro. Trasparenza significa garantire all’utente un’informazione
limpida e corretta, per cui gli annunci pubblicitari dovrebbero essere
chiaramente evidenziati. L’assistente non dovrebbe mai ingenerare il
dubbio che stia proponendo qualcosa di non coerente con i gusti e le
esigenze dell’utente. Infine l’aspetto più importante è quello della
privacy. L’ideale sarebbe dare al proprietario dell’assistente la
possibilità di gestire le impostazioni come meglio crede, avendo il
quadro chiaro di quali dati sta condividendo e con quali soggetti. In
questo modo ci saranno persone che preferiranno concedere la
massima apertura e altre che decideranno di dare informazioni solo ai
brand preferiti, in modo da riceverne vantaggi tangibili.
Carrefour e Google Assistant
Carrefour Group, la catena di retailer francese presente in 30 paesi, ha siglato un
accordo con Google per progettare la prima esperienza di acquisto di alimentari
attraverso i dispositivi di Mountain View. L’utente può usare la voce per chiedere
all’assistente di aggiungere alla lista della spesa, che può essere aperta ad altri
familiari, determinati prodotti e poi trasformarla in un ordine verso il negozio più
vicino. Il sistema è in grado di trasformare il nome di una categoria di prodotto in
una referenza specifica, sulla base delle preferenze dell’acquirente. Così la
richiesta di aggiungere un litro di latte si trasformerà nell’ordine della marca di
latte comprata più frequentemente. Inoltre l’assistente è in grado di consigliare
prodotti sulla base delle offerte del giorno o dei nuovi arrivi. Non appena il cliente
conferma i beni nel carrello (ai quali viene applicato il prezzo più conveniente), il
sito di e-commerce indica il metodo di pagamento, il periodo disponibile per la
consegna e l’attribuzione dei punti fedeltà.

Smart contract
La curiosità suscitata dalla moneta elettronica nota come bitcoin, da
qualche anno, ha acceso i riflettori sulla tecnologia sottostante, detta
blockchain. Si tratta di una particolare tecnologia (Distributed Ledger
Technology) che consente la creazione e gestione di un grande registro
di transazioni, di qualunque natura, replicato tra più nodi su una rete
peer to peer. Il registro è strutturato in blocchi, contenenti più
transazioni. Tali blocchi sono collegati tra loro per far sì che ogni
transazione scritta in passato non possa essere modificata (da qui il
concetto di “catena di blocchi”). La validazione della transazione
avviene con il consenso di tutti i nodi, ma solo quello che avrà risolto
lunghi calcoli matematici (“mining”) potrà trascriverla sul registro. Il
sistema, di fatto, permette di effettuare transazioni senza la necessità di
intermediari o autorità centrali che verifichino e registrino i dati.
Ecco le principali caratteristiche delle tecnologie blockchain.
Decentralizzazione: le informazioni vengono registrate e
replicate tra più nodi (rete peer to peer) per garantire la sicurezza
e la resilienza del sistema.
Tracciabilità: ogni informazione scritta sul registro è tracciabile
e se ne può risalire alla provenienza.
Disintermediazione: la rete non necessita di autorità centrali.
Trasparenza: il contenuto del registro è visibile a tutti ed è
facilmente verificabile.
Immutabilità: una volta scritti sul registro, i dati non possono
essere modificati senza il consenso di tutti i nodi.
Programmabilità dei trasferimenti: è possibile programmare
specifiche azioni che vengono eseguite al verificarsi di
determinate condizioni.
Figura 4.4 Il funzionamento semplificato degli smart contract su blockchain.

Gli smart contract, che nascono prima della blockchain, sono


programmi che facilitano, verificano o fanno rispettare la negoziazione
o l’esecuzione di un accordo. L’obiettivo del loro utilizzo è ridurre i
costi e i tempi della transazione associati alla contrattazione. In pratica,
si tratta di contratti tra parti tradotti in codice ed eseguiti da entità
indipendenti che non possono colludere, contratti che se si possono
codificare si possono anche calcolare, ossia si può fare in modo che
l’esecuzione sia automatica se le condizioni si verificano (Chiriatti, M.
#Humanless, Hoepli, 2019); quindi smart contract nel senso di
contratti programmabili e autoeseguibili, nei quali la discrezionalità
umana dell’esecuzione viene sostituita con quella algoritmica.
Consideriamo un esempio di fantasia: Walter e Pamela hanno un
figlio, Johnny, che vogliono incentivare a studiare di più. Allora fanno
un patto col ragazzo: se prenderà una “A” in educazione civica
riceverà 5 dollari. Johnny accetta ma i genitori stanno per partire per
una vacanza sull’Himalaya e lui vorrebbe il compenso appena otterrà il
risultato. Però i due non si fidano, il figlio potrebbe dar loro una
notizia falsa. Così Walter e Pamela scrivono uno smart contract che
trasferirà i 5 dollari nel borsellino Ethereum di Johnny non appena
otterrà la “A”. Sarà Mrs. Crabapple, l’insegnante, a inserire il voto
nello smart contract. Per farlo, i genitori danno all’insegnante una
chiave privata crittografata, in modo che possa essere la sola a poter
fare quell’operazione. In questo caso Mrs. Crabapple funge da oracolo
fidato, in gergo “trusted oracle”. Un’idea del codice del contratto si
può avere consultando la pagina https://medium.com/metax-publication/a-
story-about-smart-contracts-736497541e4d.

In sintesi, le caratteristiche degli smart contract sono:


dati visibili a tutti i partecipanti della rete e non solo alle parti
coinvolte;
certezza dell’esecuzione di obbligazioni contrattuali;
trasparenza delle obbligazioni contrattuali e dei loro risultati e
risvolti tali da essere predefiniti;
immutabilità delle transazioni registrate e quindi l’impossibilità di
modificare o annullare il contratto;
possibilità di trovare un accordo in assenza di fiducia, sostituendo
la fiducia tradizionalmente riposta negli intermediari e tra le parti
stesse con la “fiducia computazionale” riposta esclusivamente nel
codice e nella rete della blockchain.
L’idea di una logica di business programmabile attraverso un
contratto intelligente si deve all’informatico e crittografo Nick Szabo,
che aveva l’obiettivo di “incorporare i contratti nel mondo”, vale a dire
inserire direttamente dentro hardware e software gli accordi
economici. Un’idea rimasta in sonno fino alla diffusione della
blockchain di Ethereum. A differenza della blockchain di Bitcoin in
cui le transazioni vengono tutte eseguite, di norma, linearmente e
direttamente al loro arrivo, il protocollo e i linguaggi di Ethereum
possono progettare ed eseguire programmi con regole di condizionalità
(if this, then that) o regole di reiterazione (run until that). Queste
regole di programmazione consentono di simulare e riprodurre, in un
certo senso, accordi di business come insieme di promesse contrattuali
computazionalmente eseguibili. Lo smart contract, una volta caricato
in un blocco e pubblicato in blockchain, produrrà in automatico gli
effetti contrattuali progettati in accordo con le indicazioni contenute
nel contratto stesso e con i dati in input e output (oracles) necessari per
la sua esecuzione effettiva (Accoto C., Il mondo ex machina, Egea,
2019).
Se le transazioni diventano programmabili vuol dire che ci avviamo
verso un’economia programmabile e forse addirittura verso economie
gestite dalle macchine. Nel saggio Radical Markets, Posner e Weyl
sostengono che i mercati attuali non fanno altro che risolvere problemi
complessi (la determinazione dei prezzi, l’ottimizzazione delle
preferenze dei consumatori, la capacità produttiva ottimale) in maniera
manuale, sfruttando l’intelligenza umana e le dinamiche interpersonali.
Quindi i mercati sono come dei calcolatori umani che stanno arrivando
a obsolescenza. Con l’aumento della potenza di calcolo dei computer,
sostengono gli autori, potranno essere sostituiti da ecosistemi
intelligenti in grado di calcolare e decidere in automatico che cosa
produrre in relazione ai comportamenti e ai bisogni delle persone. A
livello macro, questa macchina centralizzata di pianificazione potrà
ridisegnare l’economia indicando alle aziende cosa produrre sulla base
dei bisogni dei consumatori. A livello micro, robot personali potranno
fare acquisti automaticamente valutando le preferenze dei consumatori
(Posner E. A., E. Weyl G., Radical Markets: Uprooting Capitalism
and Democracy for a Just Society, Princeton University Press, 2018).
Anche senza arrivare a questi scenari futuristici, che implicano la
risoluzione di problemi tecnologici non indifferenti, la trasformazione
dei rapporti azienda-consumatore in senso automatico va considerata.
Pensiamo alla vendita online di un prodotto personalizzato. Il cliente
lo compra per fare un regalo, ma l’oggetto arriva dopo la data prevista.
Oggi egli sarebbe costretto a contattare il customer service, a fare un
reclamo e attendere la procedura di riconoscimento del rimborso. Le
cose sarebbero molto più semplici se quel contratto di compravendita
fosse stato programmato: all’arrivo il sistema si sarebbe accorto del
ritardo e avrebbe erogato il credito sul borsellino dell’utente, insieme a
un messaggio di scuse e a un buono per un prossimo acquisto. L’intera
esperienza di acquisto ne avrebbe ricevuto un beneficio e forse i
rapporti tra i contraenti non sarebbero stati compromessi.
Al momento la tecnologia blockchain viene sperimentata in diversi
ambiti di marketing per eliminare i problemi legati alla fiducia tra le
parti, aumentare la trasparenza dei processi, ridurre le frodi e abbassare
i costi di transazione.
Affiliate marketing: quando l’affiliato determina una
conversione, il contratto intelligente sottostante viene eseguito ed
eroga immediatamente il compenso, anche minimo, per quella
prestazione, senza necessità di raggiungere dei livelli di guadagno
(si vedano Reftoken, Hoqu, Tradedoubler).
Influencer marketing: quando l’influencer pubblica il contenuto
concordato con l’azienda, e dopo una verifica di coerenza, può
essere erogato il pagamento in base ai risultati raggiunti (es.
indaHash, Patron).
Loyalty: è possibile creare programmi fedeltà anche complessi
che attribuiscono punti non solo all’acquisto, ma anche per
piccole azioni quotidiane (es. passaparola, condivisioni, like sui
contenuti aziendali). Il sistema certifica le azioni e attribuisce le
ricompense che possono essere riscosse anche immediatamente
(es. Sandblock, KeyoCoin). Altre forme di premio possono essere
applicate al livello di attenzione dell’utente. Per esempio il
browser Brave ha creato i BAT (Basic Attention Token), dei
“gettoni digitali”, basati su Ethereum, che le aziende inserzioniste
pagano all’utente per i minuti trascorsi su un determinato sito che
mostra delle pubblicità. In questo modo la spesa in pubblicità
viene commisurata all’efficacia, nel rispetto della privacy
dell’utente (i dati sono anonimizzati).
Programmatic advertising: il modello attuale prevede che
quando un’azienda inserzionista compra visualizzazioni
attraverso piattaforme pubblicitarie (DSP), esse le erogano alle
audience più adatte tra quelle che visitano migliaia di siti online.
Nella realtà molte di quelle visualizzazioni non sono attribuibili a
persone, ma a BOT, a traffico generato fraudolentemente. Oggi si
stanno sperimentando protocolli, come AdChain, in grado di
tracciare la singola impression e verificare se è stata davvero vista
da un umano (tra le aziende che lavorano a modelli blockchain
per prevenire le frodi vi sono Rebel AI, Lucidity, tribeOS e
AdEx).
Ci sono ancora tanti problemi da risolvere, come la partecipazione
di diversi attori/nodi alla rete e la lentezza dei calcoli necessari alla
validazione sulla blockchain, ma la strada sembra essere percorribile
nel medio lungo termine.

Mondi digitali e virtuali


Uno scenario che i marketer dovrebbero guardare con attenzione,
ma che molti stanno sottovalutando è quello dei videogiochi, mondi
digitali sempre più abitati, soprattutto dai giovani. Si stima che siano
2,7 miliardi i videogiocatori nel mondo, protagonisti di un mercato che
nel 2020 ha generato circa 160 miliardi di dollari di fatturato. Il tempo
speso all’interno di questi spazi, per giocare o semplicemente per
assistere a competizioni organizzate tra giocatori professionisti
(eSports), sta crescendo. Ecco perché le aziende dovrebbero chiedersi
come poter intercettare questa attenzione. Al momento lo fanno con
tecniche tradizionali come le sponsorizzazioni di eventi, digitali e non,
o di giocatori famosi e la pubblicità all’interno dei giochi (se esso
riproduce il mondo reale si può scegliere di inserire un cartellone in
strada o il product placement digitale). Questo perché la maggior parte
dei giochi viene progettata come un ambiente chiuso, ma le cose
stanno cambiando.
L’esempio più interessante è Fortnite della Epic Games, che nasce
come gioco ma si è trasformato in un ambiente sociale digitale. Qui le
persone, oltre 350 milioni gli iscritti, entrano non solo per giocare alla
“Battaglia Reale” e cercare di sopravvivere a tutti gli altri giocatori,
sfruttando oggetti, armi, veicoli sempre nuovi, ma anche per incontrare
vecchi e nuovi amici, senza doversi guardare le spalle, comunicare,
senza usare il cellulare, e vivere insieme delle esperienze, come
guardare in anteprima il trailer di un film, ascoltare musica, assistere a
un concerto in totale libertà. Nel 2019 Fortnite ha ospitato il concerto
del dj Marshmello, poi una scena in anteprima di Star Wars, il trailer di
Tenet, alcuni film di Christopher Nolan e l’album dei Weezer. Un
passo in avanti è stato fatto con la realizzazione del concerto di Travis
Scott, visto da oltre 12 milioni di persone. Uno spettacolo molto
diverso da quello in presenza, ma anche più creativo, ricco di effetti
speciali e libero, nel quale lo spettatore può fluttuare in assenza di
gravità e teletrasportarsi in ambienti diversi, senza interrompere la
musica.
Per Epic Games è stato un modo per far capire ai brand che è
possibile sfruttare quell’ambiente per esperienze innovative. Per
promuovere le sue Air Jordans, Nike ha reso disponibili per un periodo
limitato due costumi brandizzati, detti “skin”, e una modalità di gioco
creata ad hoc. Marvel ha sponsorizzato addirittura un’intera stagione
di Fortnite, ossia un intero universo di gioco e una storia speciale, nella
quale i giocatori possono vestire i panni di alcuni supereroi.
Software come Fortnite sono vere e proprie piattaforme per lo
storytelling, attraverso le quali i marketer possono raccontare storie di
marca, usando i codici di comunicazione specifici del mezzo. Sono
l’opposto degli “advergames”, giochini brandizzati avulsi da un
contesto simbolico e dunque poco coinvolgenti.
Un’altra dimensione da esplorare per i marketer è quella creata dalle
realtà estese, aumentate, virtuali e miste, qualunque sia il device da cui
vengono fruite.
Nel campo della realtà aumentata, giochi come Pokémon Go hanno
aperto la pista alle collaborazioni con le aziende. Qui Niantic, la casa
produttrice, ha previsto specifiche opzioni di promozione per i brand,
per esempio la possibilità di sponsorizzare un luogo fisico (“Sponsored
Location”), in modo da stimolare le persone a recarsici e sbloccare,
così, bonus e offerte speciali. Ci hanno provato aziende come Sprint,
Starbucks e McDonalds’s, che hanno fatto diventare i propri punti
vendita delle “palestre” per battaglie virtuali e “PokéStop” dove
trovare uova e Poké Balls utili per catturare le creature di quel mondo
fantastico.
Molto promettente è l’utilizzo di questa tecnologia per facilitare lo
shopping da remoto. Per esempio IKEA Place, tra le prime
applicazioni commerciali a intuirlo, permette di selezionare un
migliaio di oggetti dal catalogo IKEA e disporli negli ambienti reali
per valutarne l’acquisto.
L’app di Gucci, oltre che scegliere l’arredo ideale, permette di
provare virtualmente tutte le scarpe disponibili. L’Oreal o Sephora,
invece, consentono di sovrapporre al viso il makeup ideale. MAC
Cosmetics ha creato un’esperienza simile, ma fruibile attraverso l’app
di YouTube. Attraverso Facebook è possibile indossare gli occhiali
Michael Kors o le sneaker Nike. Con Snapchat Shoppable AR, invece,
si accede alle prove virtuali delle scarpe Gucci e Adidas o dei prodotti
per la colorazione dei capelli di Coty. Questi effetti speciali sono degli
elementi promozionali collegati più o meno direttamente alla
possibilità di acquisto. Ma oggi non è più necessario scaricare un’app
per fruire della realtà aumentata, basta un browser, grazie allo standard
Web AR.
Google ha proprio sviluppato un formato pubblicitario interattivo,
Swirl, che usa modelli 3D ruotabili all’interno di banner Web. Tra i
primi partner vi sono Purina One, Nissan, Adidas e Vodka Belvedere,
che hanno ottenuto un aumento del coinvolgimento (engagement) e
nell’ultimo caso anche dell’intenzione di acquisto (purchase intent).
Un altro fenomeno interessante stimolato dalla realtà aumentata è la
ricerca visiva di Google Lens, un’applicazione che permette di
“rendere intelligente” la fotocamera dello smartphone. In pratica,
inquadrando un prodotto si darà avvio a una ricerca su Google che
restituirà prezzi e siti e-commerce per l’acquisto. O ancora, puntandola
verso l’ingresso di un ristorante, vedremo apparire la scheda con le
recensioni, mentre l’insegna di un teatro ci potrà dare accesso alla sua
programmazione e permetterci di prenotare i biglietti per un certo
spettacolo, anche con la voce. È una scorciatoia per gli acquisti da non
sottovalutare. Si stima che gli introiti pubblicitari da formati legati alla
realtà aumentata nel 2021 saranno di oltre 2,3 miliardi
(https://artillry.co/artillry-intelligence/ar-advertising-deep-dive-part-i-the-
landscape/).

Infine un’opportunità tutta da esplorare per i marketer è quella che


riguarda l’utilizzo della realtà virtuale. Oggi le maggiori
sperimentazioni riguardano lo sfruttamento di questa tecnologia per
raccontare una storia attraverso immagini di luoghi esistenti o creati in
computer grafica. Qui il destinatario ha il ruolo di mero spettatore, può
solo muovere lo sguardo in ogni direzione per osservare l’ambiente
intorno. Lo ha fatto il New York Times per raccontare il devastante
impatto delle guerre sui bambini, Oreo per stimolare i sensi in un
mondo di fiumi di latte e canyon di cioccolato, Red Bull per mostrare
la discesa in un vulcano attivo.
Un’altra tipologia di attività è quella nella quale la persona partecipa
attivamente all’esperienza. L’azienda costruisce un mondo
tridimensionale nel quale far immergere l’utente. Può essere una
riproduzione di un posto esistente nella realtà oppure un luogo di
fantasia. Lowe ha sfruttato la realtà virtuale per far vivere in anteprima
al futuro cliente la casa arredata con i mobili scelti. Qualcosa di simile
ha fatto Volvo per ricreare un test drive virtuale. Merrell, invece, ha
costruito un’esperienza più complessa per promuovere una scarpa da
hiking. Gli invitati all’evento di lancio potevano camminare su un vero
ponte di legno, indossando un visore e vivere un’avventura in
montagna piena di insidie.
Proprio gli eventi possono essere un promettente campo di
sperimentazione, si pensi alla possibilità di rimanere nel proprio
salotto e godere di una presentazione aziendale, di una sfilata, di uno
spettacolo e di un concerto, magari trasmessi in diretta. Una
piattaforma come AltaspaceVR, acquisita da Microsoft, permette a
chiunque di scegliere una sala, progettare gli interventi, caricare le
presentazioni e invitare le persone.
Un’altra opportunità per i marketer è di individuare occasioni di
partnership con i produttori di giochi per la realtà virtuale. In maniera
simile a quanto visto per Fortnite, è possibile far vivere al futuro
cliente un’esperienza coinvolgente in un mondo che rimanda ai codici
espressivi e valoriali del brand. Proprio la sensazione di essere immersi
in un mondo a parte, nel quale è possibile vivere esperienze sensoriali
molto realistiche, è la chiave per generare una connessione emotiva
forte tra brand e consumatore, prima e dopo l’acquisto.
Infine, presto, potrebbe diventare comune fare esperienze virtuali
che hanno un immediato impatto reale. Walmart sta già progettando il
supermercato del futuro accessibile sempre e ovunque attraverso un
visore. Immaginate di essere in una riproduzione esatta degli ambienti,
ma con la possibilità di chiedere a un assistente cosa mostrarvi senza
perdervi tra gli scaffali, valutare per ogni prodotto le caratteristiche,
ordinare senza fare file, e ricevere il tutto comodamente a casa
(https://www.youtube.com/watch?v=IulJN9zFEWs).
Il metaverso
Uno scenario di marketing più futuribile è quello che coinvolge un nuovo spazio di
interazione tra uomo e azienda: il metaverso. Con questo termine Neal
Stephenson, nel romanzo cyberpunk Snow Crash del 1992, indicava una realtà
virtuale in tre dimensioni nella quale si poteva entrare con un proprio avatar,
l’equivalente del cyberspace gibsoniano. Per tanti anni questa dimensione altra
nella quale immergersi completamente è rimasta un sogno legato all’immaginario
di Tron, Matrix e Ready Player One.
Ma con i nuovi progressi della tecnologia hardware e software si è ricominciato a
parlarne. Matthew Ball, analista dei media, ha provato a descrivere i suoi attributi
principali (https://www.matthewball.vc/all/themetaverse). Il metaverso
dovrebbe:
essere persistente, ossia operare senza fine e senza la possibilità di essere
messo in pausa o essere spento;
essere sincrono e live, ossia essere un’esperienza che esiste per tutti in
tempo reale, anche se, a sua volta, può contenere eventi specifici con
un’ora di inizio e di fine;
non avere limiti di partecipanti concorrenti, per cui chiunque in qualunque
momento potrebbe entrarvi e permanere a proprio piacimento;
essere un’economia completamente funzionante ovvero un mondo nel
quale singoli e aziende possono essere in grado di creare, possedere,
investire, vendere e guadagnare;
essere un’esperienza che coinvolge il mondo digitale e quello fisico, reti
pubbliche e private, piattaforme aperte e chiuse;
offrire l’interoperabilità di dati, oggetti digitali, contenuti tra tutte le
esperienze ospitate;
essere popolato da contenuti ed esperienze create e gestite da un ampio
spettro di individui e aziende.
Il metaverso non va confuso con la realtà virtuale, che è solo una tecnologia
abilitante, né con spazi virtuali tipo Second Life che non hanno tutti gli attributi di
cui sopra. Allo stesso tempo non si esaurisce in un mondo virtuale, un universo
chiuso e progettato per una singola finalità, anzi il metaverso può contenere
molteplici esperienze. Infine non è semplicemente un gioco e non è orientato al
raggiungimento di specifici obiettivi.
Il metaverso, quando e se vedrà la luce, sarà più simile a Internet: un ampio
gruppo di protocolli, tecnologie, linguaggi, dispositivi di accesso, contenuti ed
esperienze di comunicazione.

Prodotti digitali e prodotti aumentati


La pandemia del 2020, che ha imposto la chiusura di numerosi punti
vendita, ha accelerato una tendenza già in atto nel mondo della moda,
ossia la vendita di prodotti digitali o virtuali. In Oriente, il mercato dei
“virtual goods” è sviluppato da tempo e le persone sono abituate ad
acquistare beni digitali allo scopo di migliorare un’esperienza di gioco
o l’aspetto del proprio avatar online. Nel 2019 ha fatto discutere la
vendita di un abito virtuale creato da The Fabricant per 9.500 dollari,
in pratica un filtro di Instagram in grado di riprodurre un vestito
iridescente. Su questa scia, ma a un prezzo più abbordabile, Carlings,
retailer norvegese, ha venduto abbigliamento digitale sul proprio sito
per poche decine di euro. Gli acquirenti potevano vestire il proprio
avatar e condividerlo sui social media, accompagnandolo da un
messaggio di attenzione all’ambiente: nuovi vestiti, ma senza l’impatto
della produzione materiale.
Un’altra linea di sperimentazione è quella che ha a che fare con la
creazione di avatar che sostituiscono l’utente nelle sue manifestazioni
online. Genies, un’azienda specializzata nella loro creazione, ha
collaborato con Gucci per permettere alle persone di personalizzare il
proprio avatar tridimensionale, acquistando prodotti digitali griffati.
Entrando nel Genies Shop è possibile comprare le repliche dei vestiti e
degli accessori della casa di moda per abbigliare il proprio alter ego,
esportarlo sulle maggiori piattaforme sotto forma di GIF animata e
usarlo per arricchire le conversazioni con gli amici.
Infine c’è il filone dei prodotti digitali venduti all’interno di giochi:
Louis Vuitton ha venduto “skin” a 10 dollari all’interno di League of
Legends, Moschino ha fatto la stessa cosa all’interno di The Sims 4,
Marvel e DC Comics hanno preferito Fortnite.
Al di là dei “virtual goods”, il prodotto come oggetto inanimato,
immutabile dalla sua creazione alla sua senescenza, è probabilmente
destinato a scomparire o a essere affiancato dal suo omologo
intelligente. Un oggetto programmabile, cangiante e potenziabile
grazie ad aggiornamenti da remoto. Un po’ come accade oggi per i
dispositivi mobili, smartphone e smartwatch, e casalinghi, smart
speaker e smart tv; o ancora per i prodotti elettronici che promettono di
migliorare il nostro benessere come i braccialetti, “smartband”, che
monitorano l’attività fisica e la qualità del sonno, gli spazzolini da
denti intelligenti, le calze, “smart socks”, che controllano la salute dei
piedi. Il settore della salute è sicuramente quello più pronto a
introdurre elementi digitali in beni fisici, ma anche quello
dell’abbigliamento sembra essere interessato a questi aspetti
innovativi. Pionieri sono stati Levi’s e Google nello sviluppo di
Jacquard, una giacca in denim sensorizzata, ma indistinguibile da
prodotti simili e completamente lavabile. I sensori cuciti nella stoffa
sono in grado di agire da attuatori di comandi e ricevitori di impulsi.
Per esempio, all’arrivo di una chiamata o di una notifica da
un’applicazione, il tessuto vibra leggermente. Nelle maniche è
posizionato un touchpad che si può gestire attraverso diversi gesti delle
dita che producono azioni specifiche, programmabili, come la risposta,
il controllo della musica, l’attivazione della fotocamera o di Google
Assistant.
In una direzione simile sta andando Apple che ha presentato dei
brevetti per “AirTags”, piccoli dischetti circolari contenenti una
tecnologia, ultra-wideband o Bluetooth, in grado di comunicare in
modalità wireless con altri device. L’uso più ovvio è quello di
accoppiarli ad altri oggetti, come chiavi o borse, in modo da sapere
sempre dove si trovano. Ma potrebbero essere anche posizionati
all’ingresso di un centro commerciale e attivarsi all’arrivo di un
visitatore per mostrargli la mappa sullo smartphone oppure in
prossimità dei prodotti di un negozio per attirare l’attenzione con suoni
o offerte speciali al passaggio del cliente. La cosa più curiosa è che la
richiesta di brevetto mostra anche la possibilità di posizionare questi
sensori su diverse parti del corpo, in modo da monitorare la postura o i
movimenti in maniera molto precisa. Le applicazioni potrebbero
riguardare l’ambito medico e l’uso del corpo controllare un gioco,
attivare un avatar virtuale o un robot da comandare a distanza.
Le auto sono un altro prodotto fisico che sta subendo una profonda
trasformazione digitale: non più animate solo da meccanica ed
elettronica, ma da software che ne governano il funzionamento. Ciò
consente al proprietario di comandarle da remoto e alla casa
costruttrice di ampliarne le funzionalità attraverso aggiornamenti
periodici, a distanza di anni dall’acquisto. Si pensi a Tesla, nota per i
suoi veicoli elettrici, che aggiunge o elimina funzioni a seconda dei
mercati e introduce miglioramenti, anche sostanziali, col passare del
tempo.
Oggi si parla anche di “digital twin” per descrivere la possibilità di
generare una rappresentazione virtuale molto dettagliata di un oggetto
o di un sistema fisico, sulla quale poter agire da remoto. Una casa, un
ponte, un motore, un’auto possono essere collegati, attraverso sensori,
al simulacro digitale e dunque permettere all’azienda di rilevare
eventuali segnali di malfunzionamento prima che si verifichino,
rilasciare correzioni e aggiornamenti, sviluppare personalizzazioni. Tra
i primi ad adottare questo modo di lavorare vi è General Electric, che
ha creato oltre un milione di “gemelli digitali” di sue proprietà fisiche.
Tra queste una “Digital Wind Farm”, ossia un modello cloud based di
un parco eolico. Di ogni pala eolica è possibile capire come interagisce
in un dato momento con le condizioni atmosferiche e ottimizzare la
sua configurazione dinamicamente. Addirittura la città stato di
Singapore ha costruito un suo modello digitale, con l’aiuto di Dassault
Systèmes, per simulare i possibili interventi di gestione e verificarne
l’impatto (per esempio, migliorare il consumo di energia elettrica o la
mobilità urbana).
In alcuni casi, la tecnologia “digital twin” viene potenziata da quella
della realtà virtuale, che permette di migliorare la visualizzazione
dell’oggetto e la sua “manipolazione”. Al momento, l’utilizzo delle
repliche digitali si concentra soprattutto nelle industrie che producono
prodotti complessi e critici, che richiedono un controllo continuo e in
tempo reale dei dati sullo stato di salute e di efficienza. In futuro,
queste repliche potrebbero riguardare anche prodotti destinati ai
consumatori. I sensori ne garantirebbe l’autenticità, l’unicità e il
collegamento al gemello digitale. L’azienda potrebbe monitorarne
l’utilizzo, prevedere i guasti, aggiungere funzioni e programmare
azioni di marketing personalizzate, per esempio dopo un certo numero
di esposizioni del prodotto al pubblico (impression), potrebbero
scattare delle promozioni oppure, dopo un periodo di utilizzo intenso,
si potrebbe offrire uno sconto per un nuovo acquisto. Anche il
supporto tecnico migliorerebbe perché sarebbe più facile risolvere i
problemi a distanza, collaborando con l’utilizzatore, visualizzando il
prodotto e accedendo ai dati dei suoi sensori. Ciò avrebbe un notevole
impatto sul livello di soddisfazione del cliente e la sua fedeltà nel
tempo, ma anche sulla creazione di prodotti migliori perché basati sui
dati reali di utilizzo.
Tra i prodotti aumentati che il marketing dovrebbe contribuire a
progettare si possono comprendere anche quelli estensibili nel
territorio dei servizi. A qualcosa di simile aveva pensato Nike quando
nel lontano 2006 lanciò la linea Nike+, ovvero un sensore da inserire
all’interno della scarpa per monitorare le distanze percorse e il ritmo di
allenamento. Poi il sensore venne reso inutile da smartphone e
smartwatch ed è rimasta l’applicazione “Nike Run Club” che funge da
manutentrice della relazione col cliente, attraverso la condivisione di
contenuti utili (programmi di allenamento), l’invio di stimoli
all’esercizio quotidiano e l’esposizione di novità di prodotto.
L’applicazione raccoglie anche i dati personali del runner, il suo livello
di preparazione, le sue preferenze di abbigliamento. Insomma, in
cambio di una serie di servizi, il cliente offre all’azienda informazioni
che potrebbero essere utilizzate per migliorare l’esperienza
complessiva e rafforzare la fedeltà al marchio.
Quando l’azienda produce prodotti fisici, il modo più semplice per
estendere l’esperienza utente è quello di legarvi un servizio in
abbonamento. Oppure si può provare a immaginare come la tecnologia
può aumentare l’esperienza dell’acquirente. Per esempio LEGO, per
evitare la bancarotta, ha sperimentato diverse innovazioni in grado di
combinare prodotto fisico e tecnologie, già dal 2011 quando introdusse
il gioco “Life of George” che richiedeva l’uso di mattoncini e di
un’applicazione per smartphone per risolvere problemi costruttivi
(l’app proponeva il modello che l’utente doveva replicare e poi
fotografare per passare il livello). Oggi l’azienda usa la realtà
aumentata per ampliare le possibilità creative dei suoi mattoncini: con
Lego Hidden Side il giocatore deve prima costruire un antico maniero
e poi attivare l’applicazione per usarlo come piattaforma per la caccia
ai fantasmi. Contemporaneamente, l’azienda sta investendo anche in
ambienti di gioco completamente digitali, dopo essersi fatta soffiare
l’idea di un mondo basato su mattoncini dal videogame Minecraft.
Quando, invece, si vendono prodotti digitali, bisognerebbe
progettarli in maniera modulare, come composti da tanti micro servizi,
o almeno sviluppare delle API che permettano ai servizi offerti di
essere richiamati e utilizzati da sviluppatori di terze parti. Questo
aumenta la diffusione e la scalabilità del prodotto, generando un
ecosistema di partner che produrrà valore per tutti. Stripe, per esempio,
anziché accontentarsi di essere un sistema di pagamento per il Web ha
progettato il suo software per diventare un’infrastruttura di pagamenti,
semplice da implementare. Il suo cliente principale sono gli
sviluppatori di applicazioni e siti che possono facilmente usare le API
di Stripe per accettare pagamenti, gestire l’emissione di fatture,
emettere carte di credito, gestire spese aziendali e tanto altro. Si sta
sviluppando una vera e propria economia di aziende “API-first”,
progettate con lo scopo di dare ai propri clienti dei “superpoteri” che
altrimenti non riuscirebbero ad avere. È questa la definizione di Grace
Isford, investitrice di Canvas Ventures, secondo la quale queste
aziende semplificano la complessità di funzionalità “business critical”,
ma che non rappresentano il core business dei loro clienti
(https://medium.com/canvas-ventures/the-third-party-api-economy-891b2a774fa5),
come la gestione delle identità, della messaggistica e dei pagamenti.

Figura 4.5 Una categorizzazione dei servizi “API-first” di Grace Isford.


L’intelligenza artificiale al servizio del marketing
Intelligenza artificiale è il nome col quale si indica comunemente
una vasta gamma di tecniche avanzate di sviluppo del software, che
stanno prendendo sempre più piede. Oggi un software è evoluto se fa
uso di queste tecniche che si rendono necessarie per compiti complessi
o per i quali non è possibile prevedere in anticipo le
istruzioni/condizioni necessarie per risolvere un certo problema. Ormai
tutte le aziende di qualunque settore, in qualche misura, ricorrono
all’intelligenza artificiale e lo fanno in tutti i reparti in cui si renda
necessario un’ottimizzazione dei costi o un incremento della
produttività. Probabilmente il marketing è l’area che può trarre
maggiore beneficio da un surplus di intelligenza perché il suo campo
d’azione è diventato sempre più esteso e complesso. Ma ancora siamo
solo all’inizio di un percorso.
Secondo la CMO Survey di Deloitte del 2020 i marketer indicano
l’implementazione dell’intelligenza artificiale o del machine learning
nelle proprie attività con un valore di 2,1, dove 1 è il valore più basso e
7 il più alto
(https://www2.deloitte.com/content/dam/Deloitte/us/Documents/CMO/us-cmo-survey-
highlights-and-insights-report-feb-2020.pdf). Nonostante questo risultato,

condizionato anche dalla pandemia, lasciano ben sperare le previsioni


per i prossimi anni che portano il valore a 3,5. Al di là delle medie, si
nota che le aziende più grandi e che usano molto la Rete come fonte di
ricavi dimostrano un tasso di adozione più elevato, così come le
aziende B2C sono più avanti di quelle B2B e, tra le prime, sono meglio
posizionate quelle che offrono servizi rispetto a quelle che vendono
prodotti. Queste aziende più innovative sono anche quelle che hanno
capito prima delle altre l’importanza di assumere data scientist e
tecnologie per comprendere e migliorare la customer experience e
generare ricavi aggiuntivi.
I più frequenti campi di applicazione delle tecniche di intelligenza
artificiale nel marketing sono la generazione di contenuti
personalizzati (citata dal 56,5% dei CMO) e di insight predittivi sui
comportamenti dei clienti (56,5%). La metà dei rispondenti ha
dichiarato di usare queste tecniche per intercettare i momenti in cui il
cliente decide
(https://www2.deloitte.com/content/dam/Deloitte/us/Documents/CMO/us-the-cmo-
survey-fall-2019.pdf).

Secondo Peter Gentsch, è possibile individuare diverse fasi di


sviluppo di un’impresa rispetto all’uso che fa dell’intelligenza
artificiale (Peter Gentsch, AI in Marketing, Sales and Service, Palgrave
Macmillan, 2018). Ci sono quelle “non-algoritmiche” dove dati e
algoritmi non sono critici o comunque non vengono utilizzati per
prendere decisioni strategiche. L’utilizzo di qualche forma di analisi
dei dati, strutturati, è presente, ma è di competenza dell’area sistemi
informativi, che non impiega data scientist.
Le imprese “semi-automatizzate” sono quelle nelle quali si
intravede una qualche forma rudimentale di strategia orientata dai dati,
per questioni di business. I dati possono essere anche non strutturati.
L’analisi è sempre in capo all’IT che però coopera con i reparti
marketing, vendite e servizi per estrapolare le informazioni più utili a
prendere decisioni data-driven. Le imprese automatizzate sono quelle
che si fondano su strategie progettate dopo aver analizzato i dati
provenienti da tutti i settori aziendali, ovviamente ricorrendo alle
tecniche più avanzate di intelligenza artificiale. L’organizzazione ha
una mentalità data-driven diffusa per cui la collezione e l’analisi dei
dati sono continuative. C’è un ampio ricorso all’automazione dei
processi aziendali, non solo del marketing e delle vendite.
Gentsch si spinge a descrivere anche un ultimo stadio di maturità,
alquanto futuribile, che chiama “Super Intelligence Enterprise” e che
potrebbe avere due manifestazioni: una positiva, nella quale gli umani
controllano il corretto funzionamento di un’intelligenza artificiale in
grado di imparare da sola e prendere decisioni autonome; una negativa,
nella quale l’uomo perde il controllo e l’intelligenza artificiale conduce
l’impresa senza vincoli e condizionamenti umani.
Lo stesso autore propone una matrice delle applicazioni di
intelligenza artificiale al marketing, divise tra quelle pensate per
automatizzare processi (automation) e quelle utili a supportare e
potenziare le attività umane (augment). Queste sono poi messe in
relazione all’impatto che hanno sul business aziendale e ne viene
indicato il grado di maturità e di effettivo utilizzo. Come si può vedere
dal grafico della Figura 4.6, le applicazioni di mera automazione, come
la pianificazione e il bidding pubblicitario, sono già molto mature e
utilizzate in pratica. Al contrario, le attività che aumentano le capacità
aziendali sono ancora acerbe e poco usate.

Figura 4.6 AI Marketing Matrix.


GPT, l’intelligenza artificiale che scrive testi e codice
La ricerca nel campo dell’intelligenza artificiale negli ultimi anni sta subendo
un’accelerazione che impone un po’ di attenzione se si vuole intuirne la traiettoria.
Tra i centri di ricerca più attivi c’è OpenAI (https://openai.com/), gestito
dall’omonima no profit e finanziato anche da Microsoft e Reid Hoffman
(cofondatore di LinkedIn). Nel 2020 ha fatto molto discutere il rilascio di GPT-3, la
terza generazione del loro “Generative Pretrained Transformer”.
Un transformer è una rete neurale che usa tecniche di natural language
processing per eseguire un compito. In altri termini, si tratta di un modello
computazionale linguistico pensato per generare sequenze di parole, codice o
altri dati, partendo da un input. La tecnica fu introdotta da Google
(https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html)
nel 2017 e usata nella traduzione automatica per prevedere, statisticamente,
sequenze di parole. Questi modelli statistici per produrre risultati rilevanti hanno
bisogno di allenarsi con grandi quantità di dati. Il primo GPT del 2018 usava 110
milioni di parametri di apprendimento (i valori che una rete neurale prova a
ottimizzare durante il training). Un anno dopo GPT-2 arrivò a usarne 1,5 miliardi.
Oggi GPT-3 ne utilizza ben 175 miliardi.
Il dibattito tra sostenitori e detrattori è partito dopo che alcuni sviluppatori, che
hanno avuto accesso alla beta del modello, hanno condiviso i primi risultati
strabilianti. Manuel Araoz (https://maraoz.com/2020/07/18/openai-gpt3/) ha fatto
scrivere un intero blog post su GPT-3 a GPT-3. Gli è bastato dare all’IA una breve
descrizione testuale di quello che avrebbe dovuto argomentare. Il risultato è stato
che l’articolo sembrava scritto da un umano. Mario Klingemann è riuscito a
produrre uno scritto immaginario sull’importanza di essere su Twitter, nello stile di
Jerome K. Jerome, uno scrittore dell’Ottocecento. Sharif Shameem ha postato
una serie di esperimenti di generazione di codice, per esempio quello atto a
riprodurre la pagina principale di Google, partendo da semplici istruzioni scritte in
linguaggio naturale (del tipo “voglio una pagina con il logo Google, un campo di
ricerca e due pulsanti grigi con su scritto “cerca con Google” e “mi sento
fortunato”).
Va detto che, per quanto straordinari, questi risultati non sono neanche
lontanamente vicini al concetto di intelligenza generale, tanto paventato (in primis
da Elon Musk che ha lasciato OpenAI per questo motivo). Qui il complesso
algoritmo, grazie alla miriade di informazioni ingerite e a modelli statistici, prevede
la più probabile sequenza di termini, senza comprenderne il significato. In
definitiva il modello lavora sulla sintassi, ma non sulla semantica. Ecco perché
potrebbe dar luogo anche alla scrittura di testi razzisti, come ha dimostrato
Jerome Pesenti
(https://twitter.com/an_open_mind/status/1284487376312709120?s=20), oppure
senza senso, come negli esempi di Kevin Lacker.
GPT, che sicuramente migliorerà con l’utilizzo e grazie alle attività di ricerca,
sembra molto buono per automatizzare alcuni compiti, che non richiedono
necessariamente comprensione semantica, per esempio per sintetizzare testi
esistenti, mixarli generando prospettive interessanti, o anche per la creazione di
codice. In futuro potrebbe sicuramente mettere a rischio il lavoro di sviluppatori,
giornalisti, avvocati, contabili, copywriter, marketer poco creativi.
Secondo Luciano Floridi e Massimo Chiriatti, “Nonostante le lacune matematiche,
semantiche ed etiche – ossia nonostante non sia stato progettato per affrontare
questioni matematiche, semantiche ed etiche – GPT-3 scrive meglio di molte
persone” (https://link.springer.com/article/10.1007/s11023-020-09548-1).
L’impatto sul marketing di modelli di intelligenza artificiale di questo tipo non è da
sottovalutare, perché contribuirà a trasformare ulteriormente il lavoro del
marketer, già molto contaminato dalla tecnologia. Tra i possibili scenari che mi
vengono in mente:
verrà velocizzata la creazione di contenuti (testi e immagini), partendo da
ipotesi di lavoro generate dal sistema di machine learning, che il marketer
dovrà solo scegliere o modificare;
aumenteranno le “piattaforme no-code”, ossia quelle che permetteranno ai
marketer di creare applicazioni per automatizzare compiti ripetitivi, partendo
da comandi dati in linguaggio naturale (scritto o parlato);
diventeranno più sofisticati i sistemi di intelligence e di analytics in grado di
individuare pattern non immediatamente percepibili da enormi quantità di
dati;
miglioreranno i sistemi di marketing conversazionale (chatbot) e di
knowledge management in grado di migliorare il contatto tra persone e
aziende.

IA per l’analisi dei dati


Alla base dello sviluppo di software intelligenti c’è la disponibilità
di dati sufficienti da dare in pasto agli algoritmi. Le aziende non sono
mai state a corto di dati, ma non hanno mai avuto la capacità di
sfruttarli completamente. Secondo una ricerca di IDC, i manager
dichiarano di collezionare solo il 56% dei dati disponibili. Di questi,
poi, solo poco più della metà viene utilizzato. Questo vuol dire che
solo il 32% dei dati dell’impresa viene usato
(https://www.seagate.com/it/it/our-story/rethink-data/)
Quello che manca spesso è l’attitudine a raccoglierli e selezionare
quelli più adatti per essere trasformati in informazioni utili. La fase
iniziale è quella che non va sottovalutata. Qui l’analista si occupa di
censire i dati, strutturati e non, disponibili nei vari sistemi informatici
sparsi tra le diverse aree aziendali (CRM, ERP, social media,
contabilità ecc.). Spesso le aziende creano appositi luoghi per
conservarli e interrogarli. Possono essere “data warehouse” o “data
lake”. I primi sono magazzini di dati già rifiniti ed elaborati dai sistemi
dai quali provengono, che vengono resi accessibili anche a un ampio
pubblico aziendale. I secondi, invece, sono “laghi” che contengono
dati grezzi, strutturati e non, la cui finalità non è stata ancora definita e
che possono essere interrogati solo da data scientist. Sono loro a dargli
valore attraverso la scrittura di algoritmi in grado di far emergere
pattern non immediatamente percepibili.
Qualunque sia il metodo di storage scelto dall’azienda, una delle
attività più critiche è quella della pulizia dei dati, altrimenti qualunque
elaborazione risulterebbe viziata, come ci ricorda la famosa formula
informatica “garbage in, garbage out”.
A questo punto si possono distinguere tre possibili attività di analisi
dei dati, che possono rappresentare anche tre diversi stadi di maturità
aziendale (Hurwitz J., Morris H., Sidner C., Kirsch D., Augmented
Intelligence, CRC Press, 2020).
Analisi dei trend: la prima cosa che l’analista può fare con i dati
storici a disposizione è costruire modelli di analisi per individuare
delle linee di tendenza. Il risultato tenderà a essere predittivo solo
nell’ipotesi in cui il problema sia stato ben strutturato e che si
ripresenti alle stesse condizioni nel futuro, quindi in presenza di
mercati stabili e non turbolenti. Una catena di abbigliamento
potrebbe voler individuare la tendenza delle vendite di un certo
prodotto in modo da prevedere il giusto livello di rifornimenti. Il
modello statistico potrà considerare le vendite precedenti e una
serie di variabili come il clima, la posizione dei negozi e le
caratteristiche demografiche degli acquirenti. L’azienda può usare
un’analisi “What If” per aggiustare le previsioni di vendita in
base alla modifica delle variabili. Per esempio cosa accadrà se
nevicherà di più dell’anno scorso? Il problema di questi modelli è
che non sono in grado di prevedere cambiamenti nei
comportamenti di consumo e nei gusti delle persone.
Analisi predittiva: le aziende che si trovano in questo stadio
utilizzano soluzioni statistiche, ossia algoritmi che possono essere
applicati a dati sia strutturati sia non strutturati, come le analisi
con alberi di decisione, le analisi di regressione logistica e lineare,
le tecniche di data mining e di natural language processing. Nei
casi più sofisticati, i data scientist riescono a incorporare i modelli
predittivi nel processo decisionale aziendale, in modo da
migliorare i risultati. L’obiettivo delle aziende, in questo stadio, è
di anticipare i fenomeni prima che accadano al fine di
minimizzare i rischi imprenditoriali. I modelli vengono progettati
per analizzare le relazioni tra differenti variabili ed esprimere
previsioni basate sulla probabilità di accadimento. Ovviamente
vengono utilizzati per prevedere i comportamenti dei consumatori
sia in fase di acquisto che di esplorazione, per esempio per
introdurre specifici consigli a un certo punto del customer
journey.
Analisi prescrittiva: in questo caso l’azienda usa l’intelligenza
artificiale non solo per prevedere fenomeni futuri, ma anche per
ottenere raccomandazioni su come affrontarli o per progettare
azioni automatiche al verificarsi di certe condizioni. I modelli più
sofisticati sono pensati per acquisire dati costantemente e dunque
continuare ad apprendere per adattarsi a comportamenti inediti e
quindi dare migliori risultati. Per esempio, vengono usati per
prevedere il momento nel quale il cliente sta abbandonando
l’azienda, come quando sta decidendo di disdire un abbonamento
ai suoi servizi (magari basandosi anche su informazioni
provenienti da social post). In quel momento il sistema,
analizzando le caratteristiche del cliente, può essere anche in
grado di proporgli un’offerta migliore per evitare di perderlo.
L’analisi dei dati è alla base di qualunque applicazione
dell’intelligenza artificiale alle attività di marketing. Senza pretesa di
esaustività, vi propongo tre esempi di tecniche di machine learning
applicate a problemi tipici del marketer, estrapolati dal testo Zero to
AI: la segmentazione, la previsione del churn rate e l’upselling (Mauro
G., Valigi N., Zero to AI, Manning Pubns Co, 2020).

IA per la segmentazione
I marketer sanno che i clienti non sono tutti uguali e, di
conseguenza, che le azioni progettate devono essere differenziate
rispetto al segmento (gli uomini di età 30-45 che vivono in città sono
diversi da quelli della stessa età ma che vivono nei piccoli paesi). La
segmentazione è stata per lungo tempo un’attività basata sulle
caratteristiche demografiche, socio-demografiche o, al limite, psico-
grafiche, spesso derivate da indagini di mercato. Ma per quanto micro
possa essere, la segmentazione si traduce sempre nell’individuazione
di pochi gruppi che hanno caratteristiche similari, ma anche molte
differenze. L’intelligenza artificiale può svolgere un lavoro più
raffinato dell’uomo, avendo a disposizione una grande mole di dati. Il
punto di partenza è un insieme di clienti con determinate
caratteristiche (features) e il punto di sbocco non è definito, nel senso
che non sappiamo secondo quali caratteristiche è meglio raggruppare i
dati. In questi casi, si può applicare la tecnica di machine learning nota
come “apprendimento non supervisionato”, pensata per individuare le
similarità tra i dati.
Immaginiamo di avere un sito di e-commerce e di voler individuare
dei cluster di clienti. La prima cosa da fare è decidere quante
caratteristiche considerare per la definizione del cluster e quanti cluster
si vogliono ottenere. Per semplicità consideriamo tre caratteristiche
(l’età, il genere e la spesa media mensile sul nostro sito di e-
commerce) e tre cluster risultanti. Ma ovviamente le dimensioni da
dare in pasto all’algoritmo potrebbero essere molte di più.
Tabella 4.1 5 clienti con 3 caratteristiche estratti dal database aziendale.
ID Età Genere Spesa mensile
1 18 M 14,67
2 21 M 15,67
3 28 M 18,02
4 27 F 34,61
5 32 F 30,66

L’algoritmo potrebbe produrre una tabella di questo tipo, nella quale


i clienti sono stati qualificati e inseriti nei rispettivi cluster.
Tabella 4.2 L’algoritmo di un apprendimento non supervisionato identifica un cluster
per ogni cliente.
ID Età Genere Spesa mensile ($) Cluster
1 18 M 14,67 1
2 21 M 15,67 1
3 28 M 18,02 3
4 27 F 34,61 2
5 32 F 30,66 2

Ma per avere un risultato più leggibile è più utile individuare i


“cluster centers”, ossia le caratteristiche medie che accomunano i
cluster e che il marketer potrebbe considerare come “personas”.
Tabella 4.3 I 3 cluster individuati e il numero di clienti corrispondente.
Cluster Età % donne Spesa mensile ($) Numero clienti
1 18,2 20% 15,24 290
2 29,3 90% 28,15 120
3 22 40% 17,89 590

Nell’esempio vediamo che:


il cluster 1 è composto da uomini giovani (età media 18 anni),
non propensi a spendere molto (15,24$); sappiamo anche che
questo segmento rappresenta il 29% dei clienti;
il cluster 2 è composto da donne meno giovani (29 anni) che
spendono più degli altri cluster; il segmento rappresenta il 12%
degli acquirenti;
il cluster 3 è diviso quasi equamente tra donne e uomini con
un’età media di 22 anni, propensi a spendere meno del cluster 2 e
un po’ di più del 3; il segmento pesa il 59% dei clienti.
Sono informazioni sicuramente più utili rispetto a quelle
frammentarie che si avevano all’inizio. In questo modo i marketer
potranno impegnare il proprio tempo nella definizione delle tecniche
più adatte a stimolare i tre segmenti, facendo attenzione alle rispettive
caratteristiche.

IA per prevedere il churn


Una delle metriche più critiche del marketing è il tasso di
abbandono dei clienti, ossia la percentuale di clienti che
periodicamente smette di utilizzare il servizio/prodotto dell’azienda.
Per i marketer non è facile prevedere questa percentuale, né tantomeno
identificare i clienti che stanno per abbandonare. Anche in questo caso,
l’intelligenza artificiale può essere d’aiuto. In particolare, gli algoritmi
di apprendimento supervisionato sono quelli che possono riuscire a
discriminare i clienti in base alla probabilità di abbandono. Per farlo
però hanno bisogno di conoscere i fattori che possono rappresentare
degli indicatori di fedeltà o infedeltà, per esempio da quanto tempo
sono clienti, quanto hanno speso nell’ultimo periodo rispetto ai periodi
precedenti, se non cliccano più sulle newsletter aziendali. Ovviamente
sono fattori che cambiano a seconda del contesto aziendale, per cui è
compito del marketing manager individuare quelli più affidabili.
A questo punto bisogna raccogliere i dati storici di clienti fedeli e
infedeli, che serviranno ad allenare il modello di machine learning.
Dopodiché sarà possibile applicare il modello a dati nuovi per
prevedere i consumatori che “tradiranno” l’azienda (inferenza).
Figura 4.7 Le fasi di un processo per l’utilizzo di un modello di machine learning di
“apprendimento supervisionato”.

IA per le conversioni e l’upselling


Tra gli obiettivi del marketer c’è sempre più spesso quello di
trasformare persone interessate alle offerte aziendali in acquirenti. Per
farlo, si può usare la pubblicità per intercettare tutte le persone che
hanno visitato il sito o che hanno interagito con i post pubblicati sui
social. Ma per risparmiare denaro si potrebbe utilizzare, come nel caso
precedente, un algoritmo di apprendimento supervisionato per
individuare e agire solo su coloro che sono più propensi alla
conversione. Immaginiamo di avere un database fatto di clienti che
hanno usato il prodotto gratuito e che poi abbiano acquistato quello a
pagamento e di clienti che non hanno deciso di fare l’upgrade. Ora il
marketer deve identificare i possibili criteri predittivi della
conversione: per esempio, quante volte utilizza il servizio alla
settimana, con quanti dispositivi lo usa, quanto lo usa (se è vicino al
limite individuato per il passaggio al piano a pagamento). Potrebbero
essere segnali di interesse anche l’apertura delle email e la
partecipazione a un evento di presentazione dei vantaggi della versione
premium. A questo punto, avendo i dati storici sui clienti che hanno
convertito e su quelli che non l’hanno fatto, associati a tutte le altre
variabili utili, è possibile addestrare l’algoritmo per identificare i
criteri maggiormente predittivi della conversione. Infine, la fase
d’inferenza permetterà di applicare l’algoritmo ai dati nuovi, al fine di
stimare i clienti più predisposti all’acquisto.
Questo modo di procedere può essere seguito in qualunque
situazione in cui è possibile dividere i clienti o prospect in due
categorie. Nel caso in cui l’obiettivo sia massimizzare l’upsell di un
prodotto, si avranno clienti che hanno acquistato il prodotto base e
anche dei prodotti accessori, così come clienti che non l’hanno fatto.
Tabella 4.4 Alcuni algoritmi utilizzabili per diverse attività aziendali.
ID Algoritmi
Segmentazione dei clienti
Valutazione dei
Customer Lifetime Value
clienti
Profittabilità dei clienti
Previsioni di acquisto
Previsioni di abbandono e motivi
Customer journey Propensione a rivalutare l’azienda, dopo averla
abbandonata
Previsione sul grado di fedeltà dei clienti
Analisi dei feedback e del sentiment
Previsione nelle prossime azioni del cliente
Customer service
Previsione C-SAT
Classificazione delle problematiche
Programmazione dei contenuti da pubblicare sui social
media
Media e advertising Azioni di programmatic advertising
Comprensione delle audience
Ottimizzazione di campagne
Motori di suggerimenti
Offerte personalizzate
Prezzi dinamici sulla base delle offerte dei concorrenti
E-commerce
Previsione delle categorie merceologiche più richieste
Automazione sulle offerte dei fornitori
Ottimizzazione della logistica
Ottimizzazione dei copy
Produzione e ottimizzazione degli asset visivi
Creatività
Montaggio video automatico
Localizzazione automatica in diverse lingue

Il caso Target
Target, una delle più grandi catene di prodotti al dettaglio statunitense, ha iniziato
a sperimentare l’utilizzo del machine learning già dal 2012, quando Forbes portò
alla luce un caso curioso e degno di attenzione. L’azienda aveva creato un team
specifico, il “Guest Marketing Analytics Department”, guidato dallo statistico
Andrew Pole, per identificare comportamenti ricorrenti dei clienti (pattern).Ognuno
di essi veniva identificato con un “Guest ID number” collegato a informazioni
personali (nome, cognome, genere, carta di credito ecc.) e a tutte le attività di
contatto con l’azienda (acquisti, reclami, moduli compilati).
Dall’analisi di questi dati, Pole fu in grado di identificare circa 25 prodotti che,
analizzati congiuntamente, potevano consentire di assegnare a ogni acquirente
un punteggio rispetto alla probabilità di gravidanza. Non solo, egli provò a stimare
una finestra temporale di concepimento. In questo modo fu possibile inviare alle
future mamme coupon di sconto specifici per ogni periodo della gravidanza, in
modo da stimolare gli acquisti. In effetti, il modello predittivo generò un
incremento dei ricavi, ma fece anche inalberare un signore di Minneapolis furioso
perché a sua figlia, ancora al liceo, Target aveva inviato offerte per prodotti
prémaman. “Mia figlia è ancora al liceo e voi le spedite coupon per l’acquisto di
vestiti per neonati e culle? La state per caso incoraggiando a rimanere incinta?”,
sbottò il padre, secondo la ricostruzione di Forbes. Nel giro di qualche giorno,
l’ignaro genitore, dalle invettive fu costretto a passare alle scuse. La ragazza era
davvero incinta ed era stato un algoritmo a scoprirlo.
Da un punto di vista di marketing questo è un caso da manuale di utilizzo
dell’intelligenza artificiale per anticipare i concorrenti. Tipicamente tutti i retailer
mandano i coupon alle future mamme basandosi sui registri pubblici delle nascite.
Ma se lo fanno tutti non ha molto senso. Invece, grazie al machine learning,
Target è stata in grado di arrivare prima degli altri, anche a rischio di commettere
degli errori (cosa che andrebbe sempre considerata). In questo caso l’etichetta
“futura mamma”, sulla cui base costruire il modello, è stata assegnata partendo
da precedenti casistiche di clienti che avevano iniziato a comprare pannolini o
prodotti per neonati.

Le tecniche di intelligenza artificiale che ho sommariamente


descritto possono essere utilizzate dai data scientist aziendali per
creare algoritmi personalizzati rispetto ai bisogni d’impresa o si
possono anche sfruttare acquistando software che le incorporano e le
rendono disponibili attraverso un’interfaccia grafica, facilmente
utilizzabile. Si potrebbe parlare di intelligenza artificiale per le masse,
volendo descrivere quello che sta accadendo in un nuovo spazio di
mercato dedicato alle tecnologie per il marketing o martech.
Capitolo 5
Il marketing aumentato (parte II)

Nel precedente capitolo ho introdotto l’idea di un marketing


aumentato, un concetto che vuole provare a catturare l’evoluzione di
una disciplina e di una pratica in un ambiente di mercato
continuamente condizionato da dati e tecnologia. Un marketing nuovo,
che ha necessità di progettare esperienze rivolte non solo a persone,
ma anche a macchine intelligenti. Per farlo, deve imparare a sfruttare
le risorse hardware, ma anche e soprattutto le possibilità offerte
dall’intelligenza artificiale per comprendere il mercato e prevedere le
azioni del consumatore.
A questo punto è necessario guardarsi intorno e provare a delineare i
confini di uno spazio di mercato già esistente, col quale il marketer
moderno deve prendere confidenza. È quello del martech ossia dei
prodotti software creati per rendere più efficaci ed efficienti le
innumerevoli attività del marketing: i social media e la relazione con i
clienti, la pubblicità, le vendite, i contenuti e le esperienze, i dati e la
gestione dei processi. Anche senza entrare nel dettaglio delle singole
soluzioni, è importante avere un’idea di come possano essere estese e
potenziate le abilità del marketer con il supporto del software. La
scelta delle soluzioni più adatte non sarà facile e dovrà essere compiuta
valutando vantaggi e svantaggi di un acquisto o di una creazione “in
house”, naturalmente tenendo conto delle competenze a disposizione
dell’azienda.
Durante questo excursus, è importante tenere sempre presente che
l’automazione non è che il primo passo verso un nuovo modo di fare
marketing.
L’automazione delle attività di marketing
Negli ultimi anni, il ruolo del marketer è diventato più complesso
perché ha dovuto gestire sempre nuovi compiti, che sono emersi a
seguito dell’evoluzione tecnologica. Se cresce l’uso dei social media
nasce l’esigenza di doverli presidiare adeguatamente. Se lo smartphone
diventa un compagno inseparabile per miliardi di persone, non si può
non tenerne conto nelle strategie di marketing. A ogni nuova abitudine
delle persone è seguita una nuova tecnica di marketing. L’accumulo di
queste attività ha fatto sorgere l’esigenza di software progettati per
renderle più efficaci ed efficienti, alleggerendo i carichi di lavoro. È
nato, così, un grande spazio di mercato per le “marketing technology”.
BDO, WARC e l’Università di Bristol hanno stimato che esso vale
qualcosa come 121,5 miliardi di dollari, in crescita del 22% rispetto
all’anno precedente. Dalle interviste a 750 aziende acquirenti di
martech in Regno Unito, Stati Uniti, Europa e area Asia-Pacifica, è
emerso che la quota destinata al martech rappresenta il 26% del budget
di marketing (in linea con i risultati di Gartner visti in precedenza) e
che un terzo degli intervistati pensa di incrementare l’investimento il
prossimo anno (https://www.bdo.co.uk/en-gb/insights/industries/technology-
media-and-life-sciences/martech-2020-and-beyond). Questi investimenti sono

equamente distribuiti tra soluzioni create in house e comprate


all’esterno.
Ma quali sono le aree nelle quali vengono usate queste tecnologie?
Oltre tre quarti dei rispondenti ha indicato l’uso attuale
dell’automazione per gestire le email e i social media. Seguono il
content marketing (68%), il CRM e gli analytics (entrambi al 65%).
Per il prossimo anno il 30% dichiara che l’attenzione verrà posta sul
tracciamento del customer journey e sull’ottimizzazione delle
esperienze (test e personalizzazione).
Nei prossimi tre anni, invece, i marketer intervistati citano tre
opportunità: l’uso della marketing automation per migliorare
l’efficienza (27%), l’intelligenza artificiale e il machine learning
(16%), la realtà virtuale e la realtà aumentata (14%). Seguono la
possibilità di tracciare meglio i percorsi del consumatore (13%), di
consolidare i dati dei clienti in un’unica vista (12%) e di usare
tecnologie interattive come chatbot, wearable, Internet of Things
(12%).
Avere degli strumenti non sempre vuol dire riuscire a sfruttarli
appieno. Infatti, solo il 24% dei rispondenti dichiara di avere i tool
giusti e di utilizzarli completamente. Invece il 31% dice di averli ma di
non riuscire a utilizzarli e il 34% dice di non avere tutto ciò che gli
serve ma è contento del livello di utilizzo.
Un trend molto interessante che emerge riguarda il rapporto tra
marketer e fornitore di tecnologia. Rispetto all’anno precedente
aumentano i manager che scelgono di acquistare una piattaforma e non
una suite, ossia una soluzione estensibile in termini di funzioni da altri
sviluppatori rispetto a una soluzione composta di diversi software
sviluppati dallo stesso fornitore.
Tra le barriere principali all’adozione di tecnologie per il marketing,
i clienti finali indicano i limiti di budget, l’incapacità di capire quali
sono le tecnologie disponibili e la mancanza di skill e talenti per
utilizzarle. Al primo posto, le agenzie segnalano un problema di
awareness dei software disponibili: un elemento che evidenzia come la
consapevolezza dei manager sia ancora limitata e ci sia una forte
necessità di far crescere la cultura di un marketing aumentato.
Figura 5.1 Le aree del marketing interessate dalla tecnologia.
Il panorama martech
Scott Brinker è stato il primo a coniare il termine “martech” per
identificare l’incrocio tra la tecnologia, le persone che la utilizzano e i
processi sottostanti, necessari per raggiungere i fini aziendali. Inoltre è
stato anche il primo a raccontare l’evoluzione del martech attraverso
una infografica che, anno dopo anno, raccoglie e categorizza i software
di marketing per funzione (https://chiefmartec.com/2020/04/marketing-
technology-landscape-2020-martech-5000/). Nel 2011 i prodotti martech

censiti erano 150, nel 2020 hanno superato le 8.000 unità. Una crescita
che ancora non accenna a diminuire se rispetto al 2019 l’incremento è
stato del 13,6%. Si nota però l’inizio di un naturale consolidamento,
con applicazioni che vengono acquisite da vendor più grandi e altre
che non riescono a rimanere competitive.
Il maggior numero di soluzioni martech appartiene alle aree “Social
& Relationships” (1.969) e “Content & Experience” (1.936). Seguono
“Commerce & Sales” (1.314) e “Data” (1.258). Meno nutrite sono le
aree “Advertising & Promotions” (922) e “Management” (601). Le
soluzioni cresciute di più rispetto all’anno precedente sono state
“Data” (25,5%) in particolare per la gestione di attività di governance,
compliance e privacy, “Management” (15,2%) per la gestione di
progetti e workflow, e “Social & Relationships” (13,7%) per il tema
del conversational marketing e dei chatbot.
Una descrizione delle singole categorie può essere utile per avere
un’idea di come la tecnologia sia diventata indispensabile per gestire i
diversi processi sotto la responsabilità del marketer moderno.
Figura 5.2 L’intricata mappa del martech che mostra le migliaia di soluzioni disponibili.

Social & Relationships


I software della categoria “Social & Relationships” censiti da
chiefmartech.com nel 2020 sono 1.969. Rispetto all’anno precedente la
crescita è stata del 13,7%. La categoria che ha registrato un numero
maggiore di novità è stata quella del “conversational marketing”
(+70%). Per avere un’idea delle possibilità offerte da questo settore,
diamo un’occhiata alle singole sottocategorie.

ABM
ABM è l’acronimo di Account Based Marketing, che sta a indicare
una strategia di marketing tesa a individuare aziende target interessanti
(account), anziché singoli clienti. In pratica si tratta di un
rovesciamento della logica dell’inbound marketing, nella quale si cerca
di attrarre una moltitudine di persone per poi trasformarle in clienti. Di
conseguenza, le azioni intraprese sono rivolte ai top decision maker di
queste aziende target, attraverso un insieme di azioni sia di marketing
che di vendita che richiedono un’elevata personalizzazione. La chiave
è considerare le singole aziende come segmenti di mercato con
esigenze specifiche da soddisfare. L’ABM può essere utile sia per le
strategie di acquisizione di nuovi clienti, sia per il cross-selling e
l’upselling.
I software di questa categoria permettono di creare delle liste di
aziende e contatti che vengono arricchite dal maggior numero di dati di
profilazione. L’individuazione di segmenti omogenei di aziende da
targettizzare con attività specifiche può avvenire manualmente oppure
automaticamente, con l’aiuto di algoritmi di machine learning. Poi si
passa alla pianificazione delle azioni di “go to market,” che saranno
ben visibili ai team di marketing e vendite, in modo da evitare
disallineamenti. Le campagne attivabili con questi software sono
quelle di advertising, quelle di email marketing e quelle che prevedono
una personalizzazione del sito. Una volta generate, un sistema di
reportistica consente di misurarne l’impatto sui singoli account e
individuare i punti di miglioramento.

Influencer Marketing
Gli operatori della filiera dell’Influencer Marketing, storicamente,
sono stati poco attenti all’uso di tecnologie. Le aziende hanno quasi
sempre gestito gli influencer come gestivano i giornalisti, con un
foglio elettronico come rubrica e un telefono per il coordinamento.
Negli ultimi anni, però, anche questo mondo è diventato più
complesso. È aumentato il numero dei creator, di campagne attivate e
il rischio di frodi (acquisto di fake follower e fake engagement). Le
aziende hanno iniziato a sentire l’esigenza di un supporto tecnologico
per tutte le attività che compongono una campagna di influencer
marketing, dalla individuazione dei creator al loro pagamento.
Rientrano in questa categoria sia i software pensati per automatizzare
una fase del processo, sia l’intero workflow. Quelli single purpose
tipicamente si concentrano sulla fase iniziale, la più critica, ossia
quella che serve a facilitare la ricerca degli influencer giusti per
l’azienda. Si tratta di database che organizzano i profili per canale,
argomento trattato, nazione, lingua, audience. Per ognuno è possibile
vedere la scheda arricchita con informazioni di performance sui
differenti canali, l’eventuale uso di pratiche fraudolente e la tipologia
di contenuti prodotti.
Le piattaforme end to end, invece, permettono di gestire tutto il
processo, non solo l’identificazione, ma anche il contatto con gli
influencer, la contrattualistica, la gestione dei rapporti (dal brief alla
produzione dei contenuti), il controllo e l’approvazione dei contenuti,
l’analisi dei risultati della campagna e i pagamenti delle prestazioni.

Figura 5.3 Una soluzione per gestire il workflow dell’Influencer Marketing.

Social media marketing & Monitoring


Questo è un mondo molto variegato di software che permettono di
interagire con le varie piattaforme social da un’unica interfaccia. Nella
maggior parte dei casi, si tratta di software di gestione della
complessità derivante dal dover amministrare diversi profili aziendali,
con tutto ciò che questo comporta.
Solitamente permettono la programmazione e la pubblicazione di
post, le interazioni con le persone che commentano o contattano
l’azienda attraverso messaggi diretti, il monitoraggio di determinate
parole chiave, l’impostazione di semplici automatismi (per esempio
lasciare un like a ogni post che cita l’azienda). Inoltre è possibile fare
attività di community management, che in alcuni casi sconfinano con il
customer care: identificare i commentatori più attivi, coinvolgerli e
premiarli, creare delle schede personali con lo storico delle interazioni
e delle conversazioni attivate, misurare il grado di soddisfazione.
Questo tipo di tool ormai comprende anche funzioni di gestione
unificata di campagne di social advertising, attraverso l’integrazione
con i sistemi di adv management delle piattaforme. Di tutte le attività
svolte attraverso questi software di social media management è
possibile vedere i risultati, in modo da prendere le opportune azioni
correttive. Gli strumenti più avanzati permettono anche la
collaborazione tra colleghi e l’integrazione dei dati con il CRM
aziendale.
In questa categoria sono stati fatti rientrare anche i software dedicati
esclusivamente al monitoraggio delle conversazioni in Rete (siti, blog,
social media) al fine di tenere sotto osservazione le opinioni sul
proprio brand, sui competitor, ma anche argomenti di carattere
generale. Il funzionamento è basato sulla identificazione, da parte del
cliente, di parole chiave o insiemi di esse, che andranno a circoscrivere
il perimetro della raccolta di post che le contengono (con metodi di
scraping o via API). Solitamente è possibile impostare delle notifiche
che allertano il cliente al superamento di determinate soglie di
citazioni, che potrebbero indicare una criticità da gestire. I dati
raccolti, anche in tempo reale e per molteplici lingue, vengono
organizzati in dashboard in modo da facilitarne la lettura. Siccome i
social media sono sempre più visuali che testuali, i tool più sofisticati
usano sistemi di image recognition per etichettare le immagini. Inoltre
possono impiegare tecniche di natural language processing per
comprendere il sentiment dei post, ossia la loro polarità positiva o
negativa. Questi strumenti sono utilissimi per prevenire situazioni di
crisi, per scopi di intelligence sulle attività messe in campo dai
competitor o per monitorare trend socio-culturali. In ogni caso, il
lavoro di un buon analista è cruciale per offrire un’interpretazione dei
messaggi nel loro contesto culturale e sociale.

Community & Reviews


Le community di utenti interessati a uno stesso argomento e le
recensioni di prodotti e servizi possono essere un elemento decisivo
nel customer journey. Ecco perché sono nati software per permettere ai
marketer di gestire questi punti di contatto. Ci sono quelli pensati per
semplificare la realizzazione di vere e proprie community che ruotano
attorno a un tema, legato ovviamente al brand o ai suoi prodotti; quelli
che raccolgono le review in giro per il Web in un’unica interfaccia, in
modo che il manager possa vagliarle e rispondere; o ancora quelli che
stimolano gli utenti a lasciare una recensione via email o direttamente
online. Le migliori, magari quelle contenenti foto, possono poi essere
ospitate sulle property aziendali in modo da essere usate come “social
proof” (la riprova sociale come stimolo all’acquisto).
Alcuni vendor promuovono le review o i contenuti visivi del
prodotto anche su network esterni ai siti aziendali, in modo da
amplificare la possibilità di essere scoperti dalle persone. Altri
permettono di incorporare le domande degli utenti e le risposte degli
esperti nel sito aziendale. C’è chi trasforma i recensori in una
community di ambassador, mandando loro dei sample di prodotto, che
a loro volta generano ulteriori recensioni.
È sempre presente un pannello di valutazione dell’andamento dei
programmi di community e di review, che permette anche di
individuare i clienti più affezionati.

Advocacy, Loyalty e Referrals


Il compito dei marketer non si conclude con la conversione di un
potenziale in cliente, ma continua con il tentativo di trasformare un
cliente soddisfatto in un cliente ricorrente e in un promotore
dell’azienda. I software di questa categoria, che a volte sconfinano con
quelli del tipo “Community & Review”, supportano i manager proprio
nella gestione dei clienti attuali, fonti di valore futuro, aumentandone il
“lifetime value”. Ci sono piattaforme pensate per creare delle
ricompense da inviare al cliente all’atto di un determinato acquisto o al
compimento di una certa azione (es. citare il prodotto sui social media
o lasciare una recensione). Altre permettono di gestire i programmi
fedeltà, quindi l’accumulo di punti e la richiesta dei premi relativi al
raggiungimento di certe soglie. Spesso i programmi di loyalty vengono
contaminati con dinamiche di gioco (gamification) per intrattenere il
cliente nel tempo e stimolarlo a effettuare acquisti successivi. Infine, vi
sono quelle progettate per amministrare programmi di referral,
affiliation o partnership, nei quali si chiede a un soggetto (acquirente,
affiliato o partner) di proporre l’acquisto del prodotto/servizio ad altri
in cambio di un trattamento speciale (commissione, sconti, premi). Le
attività di referral marketing coinvolgono i clienti quindi risultano più
genuine. Quelle di affiliation, invece, prevedono un accordo tra
un’azienda e un affiliato che promuove il prodotto, per cui funzionano
solo se l’affiliato riesce a trasmettere fiducia. Nel terzo caso, i partner
fanno parte dell’ecosistema dell’impresa e quindi l’azienda li aiuta a
vendere il prodotto/servizio offrendo materiali promozionali ed
educativi, accessibili attraverso la piattaforma.
Qualunque sia il caso, un pannello di controllo permette di valutare
il successo dei vari programmi in termini di persone coinvolte,
capacità di coinvolgimento di altri soggetti, contributo alle vendite.
Anche questi prodotti solitamente hanno dei connettori con i software
più comuni di CRM, per permettere lo scambio di dati sui clienti.

Conversational Marketing & Chat


In questa categoria ricadono gli strumenti che permettono di fare
attività di marketing conversazionale, ossia che originano da
conversazioni tra persone e chatbot. Ormai le aziende devono
prepararsi a dialogare con potenziali clienti in qualunque momento essi
vogliano, con qualunque mezzo e attraverso qualsiasi canale, per non
perdere opportunità di business e migliorare la percezione complessiva
del rapporto. Il problema è che in un mercato globale e competitivo il
modello tradizionale di customer care non è né scalabile, né efficiente.
Ecco perché si tende a sostituire gli operatori umani con chatbot.
Attraverso questi software è possibile realizzare assistenti evoluti in
grado di rispondere 24 ore su 24 e 7 giorni su 7, su diversi canali (sito,
social, applicazioni, sms). Spesso offrono un pannello di progettazione
grafico, che non richiede la scrittura di codice, per la definizione dei
flussi conversazionali in base a regole di comportamento.
Ormai quasi tutti usano tecniche di intelligenza artificiale per
comprendere le parole e il contesto e per replicare usando il linguaggio
naturale (in passato ci si basava solo sulla presenza di determinate
parole chiave). Quando l’agente digitale capisce che il cliente vuole
parlare con una persona, può ridirigerlo all’operatore disponibile e più
appropriato. Il marketer può anche personalizzarlo dandogli una
specifica personalità. Il bot può raccogliere e ricordare le preferenze
dell’utente, predirne il comportamento, indirizzarlo a knowledge base
aziendali, proporre azioni di lead generation, portarlo a concludere un
acquisto, stimolarlo a dare un giudizio di soddisfazione.
Un pannello di analytics permetterà di capire se ci sono problemi
nella progettazione, così come il numero dei contatti gestiti, i nuovi
contatti, le conversioni realizzate, i problemi riscontrati, le richieste
più frequenti, il livello di customer satisfaction.

Events, Meeting & Webinars


Gli eventi online stanno diventando una modalità molto utile per
entrare in contatto con potenziali clienti o mantenere i rapporti con gli
attuali, offrendo contenuti di valore. Dopo le limitazioni degli
spostamenti imposti dalla diffusione della pandemia da coronavirus, le
soluzioni dedicate alla creazione e alla gestione di appuntamenti
digitali sono cresciute notevolmente. Possono essere meeting con
clienti, singoli eventi registrati o in streaming, privati o pubblici,
oppure manifestazioni che prevedono più appuntamenti. In ogni caso,
questi software permettono di sovraintendere a tutto il workflow
organizzativo. Prima dell’inizio, consentono di gestire l’invio degli
inviti, la generazione della landing page dell’evento per la
registrazione, la promozione, le email di reminder prima dell’inizio.
Successivamente facilitano l’invio delle email di follow up contenenti i
materiali presentati e quelle di stimolo ad azioni commerciali, oltre alla
creazione della pagina che conterrà il video dopo la messa in onda.
Durante l’evento, mettono a disposizione l’infrastruttura per sostenere
l’afflusso di partecipanti mantenendo alta la qualità, garantendo la
sicurezza. Inoltre, permettono di gestire le interazioni (domande,
sondaggi) e diverse modalità di collaborazione (chat, lavagne,
condivisioni di file). Questi tool permettono anche l’integrazione con
le più popolari piattaforme di email e marketing automation e di CRM,
in modo da trasformare gli spettatori in futuri clienti, attraverso
successive attività di nurturing.

Call Analytics & Management


Si tratta di strumenti che permettono il tracciamento e l’analisi delle
telefonate, in entrata e uscita, intercorse tra i clienti e i venditori o il
customer service. Nel momento in cui il cliente telefona, il sistema
inizia a registrare la voce e a trascriverla. Può rispondere anche con un
messaggio predefinito e personalizzabile. Poi raccoglie i dati del
chiamante e li unisce a quelli già presenti in database, smista
all’operatore disponibile, traccia il risultato e può far partire un
workflow di follow up. Questi tool possono prevedere un’integrazione
con diverse campagne di marketing per cui è possibile capire quale
attività (ricerca, sito, social) ha generato più chiamate. Spesso
permettono di generare un numero di telefono diverso a seconda della
keyword utilizzata nella campagna Google o per ogni nuovo visitatore
del sito Web. Prevedono l’integrazione con i CRM più diffusi, in modo
da consentire una visione più completa del cliente durante la
conversazione e conservare tutti i dati rilevanti per arricchire il suo
profilo.

Customer Experience, Services & Success


In questa categoria sono racchiusi gli strumenti che servono ad
ascoltare la voce del cliente in vari punti del customer journey, in
modo da permettere al marketer di migliorare l’esperienza complessiva
e anticipare i momenti di churn. Lo fanno attraverso la creazione di
sondaggi per collezionare i feedback dei prospect e dei clienti, da usare
su siti, app o nei chioschi elettronici. I tool più completi permettono di
gestire fonti multiple di interazione con i clienti: voce, chat testuali,
domande sui social media o via email. Molti danno la possibilità di
misurare la fedeltà alla marca (attraverso il Net Promoter Score), gli
sforzi fatti dall’azienda nell’offerta del servizio (attraverso il Customer
Effort Score), il grado di soddisfazione complessivo (con il Customer
Satisfaction Score).
Questi software vengono usati soprattutto per interrogare i clienti,
ma possono anche essere attivati verso i dipendenti e i partner
commerciali. Solitamente i testi raccolti vengono analizzati attraverso
tecniche di natural language understanding al fine di estrarre il
sentiment, i motivi di soddisfazione e di insoddisfazione. In alcuni
casi, l’uso di tecniche di intelligenza artificiale segnala
tempestivamente delle criticità alle quali provvedere e suggerisce le
misure da implementare.

CRM
La gestione delle relazioni con prospect e clienti oggi non può
prescindere dall’utilizzo di una piattaforma di Customer Relationship
Management. Si tratta di prodotti ormai maturi e spesso modulari nelle
funzioni, in modo da adattarsi ai bisogni e alle possibilità di spesa di
aziende eterogenee. Già oggi sono i prodotti enterprise più richiesti e,
secondo Gartner, nel 2021 costituiranno la principale spesa di martech.
Essenzialmente un CRM si sviluppa attorno a un database di
contatti. Ogni contatto ha una scheda arricchita con le informazioni più
disparate raccolte manualmente o automaticamente da diverse fonti.
Servono per conoscere le caratteristiche personali (email, telefono,
profili social ecc.), le preferenze, ma anche lo storico delle interazioni
avute con l’azienda (se ha visitato una specifica pagina del sito, se ha
scaricato un contenuto, se ha scritto al customer care e così via). Le
informazioni raccolte possono essere visualizzate in apposite
dashboard in modo da comprendere lo stadio di ogni relazione e le
potenzialità non sfruttate.
Attorno a questo nucleo principale, i contatti, vengono offerti servizi
utili per i team di marketing, vendite e customer care. Il marketing può
sollecitare i contatti progettando apposite campagne di inbound
marketing, basate sulla creazione di contenuti. Questi tool ormai
permettono di creare facilmente delle landing page, dei siti Web o dei
blog, che fungono da deposito centrale dei contenuti, o di pianificare le
pubblicazioni di post sui diversi social media. I contenuti diventano,
così, l’oggetto principale di campagne di email marketing, di nurturing
e di lead generation, che possono essere progettate facilmente
attraverso il disegno di diagrammi di flusso (secondo la logica
if...then). Inoltre, i contenuti social possono essere sponsorizzati
attraverso l’integrazione con gli strumenti di management delle diverse
piattaforme.
Il customer service usa il CRM per avere un punto unico di contatto
e conversazione con i clienti. Nel momento in cui una persona
interagisce con l’azienda (attraverso chat, social media, form di
contatto), un chatbot o l’operatore può gestire la richiesta, direttamente
o smistandola ad altri colleghi, avendo davanti la scheda personale e lo
storico delle interazioni. Ai ticket aperti si può associare un workflow
ossia una serie di automazioni, secondo regole definibili
dall’operatore. I chatbot possono essere progettati all’interno del tool,
utilizzando l’interfaccia grafica a diagrammi di flusso. Questi software
permettono di gestire e pubblicare anche la “knowledge base”, ossia
l’insieme delle risorse che possono aiutare le persone a risolvere un
dubbio o problema. Inoltre, ormai, contengono anche gli strumenti per
creare sondaggi da mandare ai contatti e ottenere feedback sul
supporto erogato (CES), sulla soddisfazione (CSAT), sulla fedeltà
(NPS).
Il team dei venditori può utilizzare il CRM per non perdere d’occhio
gli obiettivi, avere una conoscenza più profonda della pipeline
commerciale, automatizzare alcuni compiti (per esempio la creazione
di template di email per differenti occasioni). Le lead da contattare
vengono messe ben in evidenza e nei loro confronti si possono attivare
delle “sequenze” mirate (tre o quattro email inviate a distanza di alcuni
giorni, per stimolare l’interesse e stabilire un contatto). Questi tool
permettono anche di pianificare meeting facilmente e di conservare
documenti commerciali da condividere all’esterno (in modo da capire
anche quanti li hanno consultati).
Naturalmente i risultati di qualunque tipologia di attività effettuata
attraverso il CRM vengono sintetizzati e visualizzati in tempo reale
attraverso apposite dashboard. Oggi le funzioni di queste piattaforme
stanno crescendo a dismisura e incorporano algoritmi di machine
learning per aggiornare automaticamente le informazioni di contatto,
individuare nuove lead all’interno di database, ricordare di dar seguito
alle conversazioni con i prospect o analizzare dati di vendita e predirne
l’andamento.

Advertising & Promotions


I software della categoria “Advertising & Promotions” censiti da
chiefmartech.com sono 922. Rispetto all’anno precedente la crescita è
stata del 4%. La categoria che ha registrato un numero maggiore di
novità è stata quella della “stampa” (+25%). Per avere un’idea delle
possibilità offerte da questo mercato, diamo un’occhiata alle singole
sottocategorie.

Display & Programmatic Advertising


Il programmatic advertising punta all’automazione della
compravendita di pubblicità attraverso software che operano in tempo
reale e promettono di mostrare il messaggio giusto, alla persona giusta,
nel momento giusto. Più facile a dirsi che a farsi, ma ormai questi
strumenti sono indispensabili per le aziende che devono gestire
molteplici annunci e budget elevati. Il programmatic advertising
coinvolge diversi attori e diverse tecnologie, che possono essere fatti
ricadere nel più ampio mercato Ad Tech (advertising technology).
Gli inserzionisti usano piattaforme DSP (Demand Side Platform)
per fare la loro offerta di acquisto degli spazi pubblicitari e DMP (Data
Management Platform) che conservano dati riferiti a preferenze e
comportamento degli utenti (soprattutto di terze parti). Gli editori
usano piattaforme SSP (Supply Side Platform) per mettere a
disposizione e gestire gli spazi pubblicitari disponibili. La domanda e
l’offerta si incontrano su un prezzo, definito grazie a un Ad Exchange,
una sorta di borsa elettronica. Solitamente il prezzo viene deciso al
completamento di un’asta che avviene in tempo reale (Real Time
Bidding) nel giro di pochi millisecondi, il tempo del caricamento di
una pagina Web. In alternativa è possibile acquistare spazi
direttamente dagli editori (Programmatic Direct) o in mercati più
piccoli e a invito (Private Marketplace). Un altro tassello interessante
di questa categoria sono gli Ad Server che permettono alle aziende
inserzioniste di conservare le proprie creatività e confrontare i risultati
delle campagne effettuate.
In questa trattazione assumono particolare rilievo le Demand Side
Platform che si prefiggono di semplificare il testing delle creatività e il
processo di acquisto, di ottimizzare il budget, di offrire una
targetizzazione accurata (evitando sprechi dovuti a fake impression o
posizionamenti che potrebbero ledere la reputazione del brand).
Ovviamente l’andamento delle performance delle campagne può
essere seguito in tempo reale e, in alcuni casi, tecniche di machine
learning indirizzano le scelte di pianificazione sulla base
dell’esperienza.

Figura 5.4 Le fasi di un processo di programmatic advertising.

Native/Content Advertising
La pubblicità cosiddetta nativa è quella che dà al visitatore di un sito
l’impressione di essere organica al contenitore e quindi di non essere
pubblicità (ne fanno parte anche gli annunci “raccomandati” alla fine
dell’articolo di un sito di notizie). Di conseguenza dovrebbe avere più
possibilità di essere recepita o cliccata. Esistono degli strumenti per gli
editori e per gli inserzionisti che facilitano la diffusione di questi
contenuti pubblicitari mimetici. Attraverso un’interfaccia unica è
possibile effettuare la pianificazione rispetto agli obiettivi, al target e al
budget, partecipare all’asta per spuntare il prezzo migliore, gestire i
propri contenuti e verificare i risultati. La differenza tra questi
strumenti sta nella capacità di inserire la pubblicità giusta nel posto
giusto, in maniera automatica. Ecco perché alcuni di essi dichiarano
l’utilizzo di tecniche di intelligenza artificiale per farlo.

Mobile Marketing
Qui sono racchiusi tutti quei software che aiutano i marketer a
raggiungere e coinvolgere le persone quando usano i dispositivi
mobili. Comprende ad server, ad network, DSPS, mobile exchange,
editori e piattaforme di pubblicazione.
Gli ad server sono soluzioni che permettono di gestire assett creativi
e distribuire pubblicità di differenti formati, secondo varie logiche di
targeting. Gli ad network sono reti di siti e applicazioni sui quali far
transitare le pubblicità. I DSPS sono piattaforme che gestiscono il
bidding su diversi ad exchange, ossia mercati d’incontro della
domanda e dell’offerta di advertising.
Rientrano in questa sottocategoria anche i tool che facilitano la
creazione di decine di formati diversi, a partire da alcuni elementi
grafici, o le piattaforme che intercettano le persone che frequentano
determinati posti fisici (utilizzando geolocalizzazione, wifi, QR code,
NFC o speciali hardware ambientali detti beacon), proponendo sconti
o offerte.

Video Advertising
In questa sottocategoria sono comprese soluzioni software pensate
per supportare l’azienda in tutto il ciclo di creazione e distribuzione dei
video, sempre più spesso utilizzati a scopo pubblicitario. Ci sono
strumenti che fluidificano una parte del lavoro, per esempio facilitano
la creazione e il montaggio dei video oppure la distribuzione. Altri
coprono tutto il workflow, permettendo di pianificare la diffusione
verso specifici siti e audience (anche su cartelloni o televisioni
digitali), ottimizzare i formati e il budget, misurare i risultati. Molto
spesso i vendor hanno una doppia offerta, tool con funzioni pensate per
gli inserzionisti che vogliono raggiungere determinate persone, e altri
per i publisher che vogliono monetizzare i propri spazi editoriali.

Search & Social Advertising


Gli strumenti di search advertising aiutano i marketer a gestire la
complessità delle pianificazioni attraverso i motori di ricerca, in primis
Google. Riguarda sia la pubblicità basata su parole chiave e
incorniciata nella pagina dei risultati di ricerca, sia quella contestuale
che appare sotto forma di banner su determinati network di siti.
Solitamente il modello di pagamento è per click (PPC).
Gli strumenti di social advertising, invece, supportano i marketer
nella gestione di campagne pubblicitarie su diversi social media.
Grazie alla connessione API agli specifici ad manager, permettono di
utilizzare un unico pannello per definire e ottimizzare il budget, la
creatività e i formati, le audience, i risultati. Solitamente è possibile
collaborare a distanza con colleghi e agenzie, sincronizzare i dati con il
CRM aziendale e ovviamente analizzare l’andamento in tempo reale
delle campagne per apportare le modifiche del caso. I più evoluti
strumenti incorporano capacità predittive sulla possibile viralità di un
determinato contenuto, permettono di monitorare le pianificazioni
pubblicitarie della concorrenza e danno la possibilità di promuovere
automaticamente tutti i post pubblicati.

PR
Qui sono racchiusi tutti gli strumenti che permettono di
automatizzare le attività delle aziende di pubbliche relazioni che, per
anni, hanno fatto affidamento su liste e numeri di telefono per gestire
le proprie relazioni, manifestando una certa allergia alle soluzioni
tecnologiche.
Tra queste, i tool per la distribuzione di comunicati stampa ossia
quelli che permettono di creare, gestire e diffondere informazioni a
pioggia a giornalisti, blogger, investitori e siti di notizie. Solitamente
questi comprendono anche dashboard di monitoraggio dell’impatto
delle notizie diffuse, che tentano anche di valorizzare l’effetto
attribuendo un controvalore monetario.
Un’altra tipologia di vendor appartenenti a questa sottocategoria
sono quelli che offrono database di giornalisti, con tutte le
informazioni di contatto, le preferenze, lo storico delle comunicazioni
intercorse e dei comunicati ricevuti. In pratica dei piccoli CRM
specializzati per tenere in ordine le attività e organizzare il lavoro di
squadra.
C’è da dire che l’area delle PR ha forti elementi di sovrapposizione
con quella che comprende strumenti di monitoraggio delle notizie e
individuazione degli influencer (che in alcuni casi sono coinvolti da
queste agenzie).

Print
La stampa sembrerebbe un business fortemente ancorato alla realtà
fisica, ma oggi la progettazione dei materiali è completamente
digitalizzata. I software di questa categoria permettono la creazione
semplice, con l’uso di template, delle più svariate tipologie di oggetti
stampabili, dalle brochure ai biglietti da visita, passando per
cancelleria e merchandising personalizzati. La logica “print on
demand” comprende anche tool per la gestione del “direct mail
marketing” ossia quello che si basa sull’invio di posta cartacea,
coupon, regali. Essi permettono la creazione del materiale, la
determinazione delle liste alle quali inviare, secondo regole
personalizzabili, la verifica dei risultati (nella posta cartacea
solitamente è contenuto un link che viene tracciato). Spesso è prevista
un’integrazione con i CRM più utilizzati.

Content & Experience


I software della categoria “Content & Experience” censiti da
chiefmartech.com sono 1.936. Rispetto all’anno precedente la crescita
è stata del 5,6%. La categoria che ha registrato un numero maggiore di
novità è stata il “video marketing” (+26%). Per avere un’idea delle
possibilità offerte da questo mercato, diamo un’occhiata alle singole
sottocategorie.
Interactive Content
I marketer che vogliono creare contenuti interattivi hanno bisogno di
questi software per velocizzarne la realizzazione. Possono essere quiz,
sondaggi, animazioni, giochi, infografiche e video interattivi, mini
applicazioni da incorporare in siti Web o intranet. Attraverso
un’interfaccia grafica si possono progettare, anche in collaborazione
con colleghi, testare, utilizzare e misurarne l’effettivo utilizzo. Sono
utili anche per dare nuova vita a materiali già creati, attraverso piccole
modifiche o aggiungendo elementi interattivi.

Video Marketing
I video sono oggetti in grado di catturare l’attenzione delle persone e
generare interazioni. Il processo di creazione e gestione non è tra i più
facili. Ecco che i software di questa categoria nascono per semplificare
alcune o tutte le fasi dell’utilizzo dei filmati come elemento di
marketing. Ci sono quelli che si focalizzano sulla semplificazione della
creazione attraverso template predefiniti, altri sull’hosting e
l’amplificazione della diffusione, altri ancora sulla misurazione. Le
piattaforme più complete permettono di creare e gestire degli hub
video in white label ossia personalizzabili con l’identità di brand.

Email Marketing
Negli ultimi anni le email sono state rivalutate come strumento di
marketing. I tool di questa sottocategoria consentono di progettare le
attività, di eseguirle e monitorarle. Le email possono essere create
partendo da template e personalizzate con elementi drag and drop,
possono essere testate (A/B testing) e spedite a segmenti di contatti
(solitamente contenuti nel CRM aziendale) secondo regole definibili
dall’utente e, infine, misurate nella loro efficacia. Gli elementi che
compongono il corpo delle email possono anche essere dinamici e
cambiare a seconda del destinatario. I tool più moderni consigliano le
possibili ottimizzazioni per incrementare l’open rate e le interazioni
(es. l’oggetto più efficace e i momenti più adatti per l’invio). Inoltre
hanno un motore di workflow per creare sequenze di comportamento
del destinatario.

Mobile Apps
L’utilizzo di smartphone e tablet fa parte dell’esperienza di vita e
consumo di miliardi di persone. Questi software aiutano i marketer a
gestire l’incontro di azienda e consumatore in questo spazio critico
dell’esperienza di acquisto. Qui troviamo tool che offrono un ambiente
di uno sviluppo rapido delle applicazioni mobili, il testing, il
deployment su diverse piattaforme e l’analisi dell’utilizzo effettivo.
Molti di questi si possono qualificare come software “low code”
perché danno la possibilità di sfruttare componenti predefiniti e di
implementare logiche in modalità drag and drop. Alcuni di questi
software si concentrano di più sugli aspetti legati all’analisi delle
performance e dei competitor e all’ottimizzazione del posizionamento
delle applicazioni negli app store.

SEO
Nonostante i profeti di sventura di questi ultimi anni, il lavoro di
ottimizzazione per i motori di ricerca è ancora uno dei compiti
rilevanti per i marketer. Questi software supportano le strategie di
posizionamento attraverso molteplici funzionalità: comprensione delle
keyword usate per arrivare al sito, tracciamento della posizione
aziendale nelle SERP rispetto a determinate parole chiave, audit del
sito per individuare backlink, problemi e opportunità, ottimizzazione
delle pagine per contenuti e velocità, suggerimenti sulle occasioni di
link building e analisi della concorrenza, monitoraggio dei risultati.
Alcuni offrono l’utilizzo del natural language processing per generare
dei consigli di ottimizzazione dei testi usati sul sito e sul blog.

DAM, PIM & MRM


In questo calderone troviamo quei software che aiutano le aziende,
soprattutto grandi, a ottimizzare le strategie di “go to market” e a
conseguire efficienza e scalabilità, senza danneggiare il brand.
Con l’acronimo DAM (Digital Asset Management) ci si riferisce a
piattaforme che centralizzano in un unico punto tutte le risorse
aziendali (immagini, video, documenti, audio) e le rendono facilmente
rinvenibili dagli utilizzatori. La catalogazione può avvenire
manualmente, con l’aggiunta delle etichette più idonee, oppure con
algoritmi di intelligenza artificiale. A questi depositi viene spesso
agganciato un workflow che snellisce la revisione e l’approvazione dei
contenuti. Uno dei benefici di tali sistemi è quello di evitare l’utilizzo
di risorse vecchie, in quanto le nuove aggiunte vanno ad aggiornare le
vecchie. Spesso i DAM hanno dei connettori con i Content
Management System aziendali.
I PIM (Product Information Management) sono dei tool pensati per
collezionare e unificare le informazioni di prodotto, sparse in fogli
elettronici, database, presentazioni. Questi dati possono essere di
natura marketing (descrizioni per il sito, brevetti), tecnica
(funzionalità, descrizione di funzionamento e di componenti), logistica
(dimensioni, packaging, modalità di spedizione). Dunque
rappresentano una sorta di catalogo dal quale recuperare le
informazioni per il sito e-commerce, i social network, i venditori, i
distributori, i marketplace di terze parti.
I MRM (Marketing Resource Management) sono software dedicati
alle aziende che gestiscono un volume elevato di progetti e campagne
marketing. A differenza dei DAM, non centralizzano tutti i materiali
digitali, ma solo quelli relativi a progetti specifici. Ogni progetto
prevede un workflow di attività alle quali possono partecipare diversi
soggetti, secondo i diritti assegnati. L’idea è di fluidificare la
collaborazione e velocizzare i progetti.
Questa sottocategoria comprende sia vendor che offrono alcuni di
questi tool, sia quelli che vendono una piattaforma completa che
integra tutte e tre le tipologie.

Figura 5.5 Una soluzione di Digital Asset Management.

Web Experience Building & Management


In questa categoria trovano posto le piattaforme CMS (Content
Management System), che permettono di creare e gestire i contenuti
del sito Web, dell’e-commerce, della intranet e del blog. Generalmente
offrono un’installazione e una gestione semplificata, minimizzando
l’uso di codice. Alcuni integrano funzioni di collaborazione a distanza
tra team editoriali, che automatizzano le fasi di revisione e
pubblicazione. Spesso si integrano con CRM, DAM, DMP per la
condivisione delle risorse create. L’idea di molti vendor è quella di
creare un sistema di raccolta di contenuti che possono essere poi
riadattati per svariati utilizzi (pubblicità, social media, app). Tutti i
vendor pongono grande attenzione alla gestione della privacy e delle
preferenze degli utenti che visitano i siti, alla velocità e alla sicurezza.

Optimization, Personalization & Testing


Questa è una categoria molto eterogenea di prodotti pensati per
supportare i marketer nell’ottimizzazione, la personalizzazione e il
testing di siti Web e applicazioni. Alcune sono soluzioni per
l’ottimizzazione dei siti Web e la pubblicazione rapida di landing page,
che prevedono la possibilità di eseguire A/B test anche sofisticati e
l’analisi dei risultati. Altre sono pensate per aggiungere, a siti o app,
elementi di personalizzazione dell’esperienza utente in modo da
evitare abbandoni senza aver compiuto un’azione. Infine ci sono i tool
progettati per permettere di velocizzare i test di diversi prototipi,
coinvolgendo varie tipologie di utenti reali, erogando i questionari,
raccogliendo i loro suggerimenti migliorativi.

Content Marketing
Si tratta di una categoria molto ampia che comprende quei software
che supportano i marketer nella creazione e gestione di tutte le
tipologie di contenuto: video, testi, audio, immagini, grafica,
presentazioni. Alcuni di questi si concentrano solo sulla
semplificazione, attraverso template, della realizzazione dei contenuti.
Altre sono CMP (Content Management Platform) e quindi permettono
la gestione dell’intero ciclo di un contenuto, quindi anche
conservazione, distribuzione e analisi dei risultati. Qui trovano posto
anche i tool per specifici compiti come la traduzione di testi, ma anche
marketplace per l’individuazione di creatori di contenuti.
Commerce & Sales
I software della categoria “Commerce & Sales” censiti da
chiefmartech.com sono 1.314. Rispetto all’anno precedente, la crescita
è stata del 9%. La categoria che ha registrato un numero maggiore di
novità è stata il “retail proximity & IoT” (+15%). Per avere un’idea
delle possibilità offerte da questo mercato, diamo un’occhiata alle
singole sottocategorie.

Retail, Proximity & IoT Marketing


Il marketing di prossimità è quello che punta a intercettare il target
che si trova in una determinata zona, sfruttando una qualche tecnologia
di geolocalizzazione (wifi, bluetooth, NFC, GPS, Beacon). Per farlo
esistono piattaforme che permettono di progettare e far scattare certe
azioni di marketing (promo, sconti, messaggi pubblicitari) verso gli
smartphone delle persone che entrano in un’area geografica specifica
(geofencing). Le persone possono essere raggiunte prima di effettuare
un acquisto, durante la visita a un punto vendita e anche dopo, a scopo
di fidelizzazione. Ovviamente i software di questa categoria
permettono di consultare risultati di queste attività di proximity
marketing e di individuare nuove opportunità inesplorate.
Alcune soluzioni, utili per i negozi molto ampi, permettono di usare
lo smartphone per conoscere le offerte in corso ed essere guidati verso
gli scaffali giusti, grazie alla realtà aumentata. Tra questi c’è chi è
specializzato nella mappatura delle superfici di vendita interne e la
creazione di mappe personalizzate.
In questa sottocategoria sono comprese anche le piattaforme per
ottimizzare le attività dei retailer: prevedere i flussi di clienti e le
vendite di singoli prodotti, gestire l’inventario, le ordinazioni e i
pagamenti via POS delle catene al dettaglio.
Alcune aziende usano tecniche di machine learning per prevedere
accuratamente i giorni e le ore di maggiore traffico in modo da
migliorare l’organizzazione del personale e stimare le vendite rispetto
a diverse ipotesi di campagne attivabili.

Affiliate Marketing & Management


Il marketing di affiliazione si basa su un accordo tra l’azienda che
vuole promuovere prodotti/servizi e un singolo che vuole guadagnare
una commissione dalla promozione e vendita. I software progettati per
gestire questi rapporti, che possono essere molto numerosi, permettono
al marketer di coinvolgere un network di affiliati, generare i link da
utilizzare (su qualunque sito e profilo social), misurare le performance,
pagare le commissioni. Un elemento critico di questi programmi è il
rischio di frodi, pertanto alcune soluzioni usano tecniche di machine
learning per individuare comportamenti anomali o conversioni poco
realistiche.

Channel, Partner & Local Marketing


In questa categoria ricadono i software che supportano le aziende di
grandi dimensioni a rendere omogeneo e coerente il marketing dei
singoli territori, dei canali di vendita e dei partner. Queste piattaforme
permettono di creare un unico punto di accesso per i materiali di
marketing (listini, volantini, grafica social), per le linee guida da
applicare a livello locale, per gli standard di performance. Inoltre
permettono di gestire la relazione con i partner: l’onboarding, la
formazione, i programmi di marketing, la gestione della loro pipeline,
l’analisi dei risultati e le opportunità di miglioramento. Alcuni prodotti
si focalizzano più sui meccanismi di engagement del canale, altri sui
processi di lead generation. Quasi tutti offrono l’integrazione dei dati
con il CRM.
e-Commerce Platforms & Carts
Queste piattaforme offrono la possibilità di implementare facilmente
delle soluzioni di e-commerce. Possono essere più o meno estese e
comprendere: la creazione del sito di vendita (desktop e mobile),
l’ottimizzazione del motore di ricerca, la gestione del catalogo e dei
contenuti, degli ordini, del carrello e dei pagamenti. Le più avanzate
permettono la personalizzazione dinamica di elementi del sito a
seconda delle caratteristiche degli utenti che lo utilizzano
(localizzazione, nuovi o di ritorno, già interessati da una campagna o
meno) e la creazione di promozioni e offerte, che possono scattare
secondo regole predefinibili.
I fattori critici sono la semplicità di sviluppo (anche senza supporto
IT), la scalabilità, la sicurezza (protezione dei dati e da frodi) e
l’analisi dei comportamenti degli utenti sul sito (fondamentali per
aumentare le conversioni).

e-Commerce Marketing
Una volta costruito il sito di e-commerce bisogna sviluppare delle
strategie per generare traffico che si trasformi in vendite. Una buona
strategia può risultare efficace se supportata da software di marketing
automation specifici per e-commerce. Questi comprendono la gestione
delle email collegate ai comportamenti degli utenti (abbandono del
carrello, acquisti precedenti, abitudini di navigazione), la
visualizzazione di recensioni di utenti (a scopo di social proof),
l’utilizzo di chatbot come assistenti all’acquisto, la costruzione di
programmi fedeltà, la distribuzione di sconti e offerte.
Alcuni tool sono specializzati nella realizzazione di motori di ricerca
che mettono in risalto risultati rilevanti e sistemi di raccomandazioni,
personalizzati per tipologia di utenti; altri nella generazione di
immagini di catalogo ad alto impatto come le versioni 3D dei prodotti,
che possono essere ruotate e modificate dagli utenti. Altri tool sono
dedicati a fornire intelligence sui prodotti e i prezzi dei competitor, in
modo da modificare automaticamente la propria offerta. Altri si legano
alle piattaforme di advertising, in primis Amazon, per pianificare
annunci specifici in particolari momenti.

Figura 5.6 Un software di raccomandazione di prodotti basato su tecniche di IA.

Sales Automation, Enablement, Intelligence


Si tratta di una categoria molto nutrita di soluzioni, abbastanza
vicine a quelle di CRM. Qui, però, le attività non si sviluppano attorno
a un database di contatti. Ci sono software che permettono di costruire
pipeline sulla base di dati interni ed esterni o ingaggiare prospect con
sequenze di attività scaglionate nel tempo (non solo email, ma anche
messaggi in segreteria o su LinkedIn). Per ogni lead vengono fornite
analisi approfondite dell’efficacia delle precedenti azioni.
Altri software sono specializzati nel velocizzare le proposte o
rendere più efficiente la fase di presales che spesso richiede la gestione
di numerose live demo di prodotto. In questi casi, la soluzione offerta è
quella di demo interattive e preregistrate che si compongono a seconda
delle esigenze dichiarate dall’utente.
I prodotti di sales enablement sono pensati per generare contenuti
utili per la formazione e l’aggiornamento costante dei venditori sul
campo.
I tool di intelligence sono quelli che utilizzano i dati su prospect e
clienti per prevedere il churn, generare forecasting delle vendite o
consigli sulle azioni da intraprendere.

Data
I software della categoria “Data” censiti da chiefmartech.com sono
1.258. Rispetto all’anno precedente la crescita è stata del 25,5%. La
categoria che ha registrato un numero maggiore di novità è stata
“Governance, Compliance & Privacy” (+68%). Per avere un’idea delle
possibilità offerte da questo mercato, diamo un’occhiata alle singole
sottocategorie che, a dire il vero, tendono a sovrapporsi.

Dashboards & Data Visualization


In questa sottocategoria sono stati raccolti i software che permettono
ai marketer di creare facilmente dei cruscotti per la visualizzazione e la
rapida comprensione dei dati disponibili (strutturati e non).
Generalmente consentono la connessione con molteplici fonti (Google
Analytics, CRM, Ads Manager, fogli di calcolo, database, social
media) e la creazione di diverse dashboard destinate a specifici usi,
attraverso il drag and drop della tipologia di grafici (widget) che si
ritengono più adatti a rappresentare una certa informazione. Alcuni
sono più indicati per la business intelligence, altri per il marketing. I
primi si focalizzano sulla rilevazione di opportunità commerciali, i
secondi sul miglioramento delle attività di comunicazione. I più
avanzati permettono di creare degli automatismi all’accadimento di
certi eventi (per esempio al superamento di un certo volume soglia
inviano un’email di alert) e di applicare algoritmi di intelligenza
artificiale per far emergere relazioni nascoste o generare previsioni.

Audience/Marketing Data & Data Enhancement


Sotto questa etichetta sono stati censiti i vendor che offrono alle
aziende enormi database di consumatori, arricchiti da informazioni
provenienti da svariate fonti. Si tratta di dati contenuti in archivi
pubblici (reddito, proprietà), dati sui comportamenti dei consumatori
acquisiti da analisi delle ricerche online, delle attività social e dell’uso
dello smartphone, o ancora dati provenienti da sondaggi demoscopici.
Alcune aziende sono specializzate nelle profilazioni di audience sulla
base della presenza in certi luoghi fisici o digitali (siti Web e app). Ma
qui ricadono anche le società di ricerche di mercato.

Mobile & Web Analytics


Qui sono raccolti tool che offrono soluzioni avanzate per
comprendere cosa succede sui siti e sulle applicazioni aziendali. Ci
sono quelli che permettono di registrare i movimenti fatti dagli utenti
durante le visite (degli occhi o del puntatore), di analizzare ogni
singolo clic o tap, di comprendere il flusso del customer journey
(attraverso tag ossia linee di codice da inserire nei punti di contatto).
Anche questi strumenti provano a rendere i dati acquisiti di facile
lettura e a proporre azioni migliorative.

Marketing Analytics, Performance, Attribution


Si tratta di una categoria nella quale sono raccolti solo quegli
strumenti di analisi dei dati che dovrebbero semplificare le decisioni
sulla base di dati. In particolare quelli che mirano a calcolare le
performance delle campagne di marketing, a chiarire il flusso di lead
acquisition/conversion e a identificare il canale cui attribuire le
conversioni. L’obiettivo è quello di permettere una valutazione
complessiva delle attività, per ottimizzare l’allocazione del budget di
marketing e aumentare i ricavi. Spesso sono potenziati da sistemi di
intelligenza artificiale che raccomandano le azioni correttive da
intraprendere.

Business, Customer Intelligence & Data Science


Siamo ancora nei territori dell’analisi dei dati per estrarre
informazioni azionabili di business, ma questi tool hanno un livello di
sofisticazione molto elevato. Coprono la raccolta, la pulizia, l’analisi e
la visualizzazione dei dati per evidenziare problemi e opportunità,
quindi sia gli aspetti di front end che quelli di back end (soprattutto
l’integrazione con molteplici fonti di dati strutturati e non). La
promessa è quella di dare ai marketer una piattaforma unica nella quale
confluiscono tutti i dati utili a prendere decisioni informate e
tempestive. La focalizzazione è sulla gestione e interrogazione di Big
Data, attraverso modelli di machine learning predefiniti o creabili da
zero.

CDP
I software conosciuti come Customer Data Platform sono quelli che
permettono di avere un unico database con i dati dei clienti,
provenienti da diversi canali, e accessibile da altri sistemi aziendali. È
il sogno proibito di ogni marketer quello di poter accedere a una vista
unica e completa dei clienti, attraverso dati che affluiscono
incessantemente, in tempo reale, e avere una scheda dettagliata con le
informazioni di contatto, la propensione all’acquisto, le preferenze, le
interazioni effettuate. Spesso il problema è quello della pulizia dei dati
e della coerenza, ma anche quello della loro interpretazione. Questi
sistemi provano a estrarre valore permettendo di segmentare meglio i
clienti, comprenderne i comportamenti e i bisogni, migliorare la loro
esperienza omnicanale. La connessione con fonti esterne permette, per
esempio, di utilizzare i segmenti individuati per attività di retargeting
sui social media o altre azioni di marketing.

Figura 5.7 Un esempio di CDP.

DMP
Le Data Management Platform sono sistemi utili per raccolta,
organizzazione e analisi di dati sui comportamenti degli utenti, in
modo da suddividerli in gruppi omogenei (cluster) utilizzabili come
target nelle attività di marketing. Nei fatti sono usate soprattutto per il
programmatic advertising. I dati raccolti possono essere di prima parte
(quelli provenienti da fonti controllate dall’azienda come le campagne
di marketing), di seconda parte (dati provenienti da un’altra azienda) o
di terza parte (dati trattati da più soggetti). Oggi le aziende tendono a
raccogliere in particolare dati di navigazione su siti e app e di
comportamento sui social media. Algoritmi di intelligenza artificiale
vengono impiegati per estrarre valore dai dati e clusterizzare le
audience.

Governance, Compliance, Privacy


Si tratta di tutti quei software che aiutano le aziende a gestire la
complessità derivante dal trattamento dei dati, dovendo ottemperare
alle legislazioni di diverse parti del mondo. Permettono di avere
un’idea precisa dei consensi e dei permessi concessi dagli utenti che
sono venuti in contatto con l’azienda, di monitorare i dati e proteggerli
da intrusioni. Sono anche utili nel caso si debba affrontare un audit
esterno o quando l’utente richiede una cancellazione dei propri dati.
Alcuni tool offrono anche form già pronti per collezionare i dati, nel
rispetto della legge, o controlli per abilitare eventuali tracker sul sito
solo dopo che l’utente ha dato il consenso.

iPaaS, Cloud/Data Integration, RPA, Tag Management


Qui troviamo diverse tipologie di software. Con l’acronimo iPaaS
(Integration Platforms as a Service) s’intendono quei servizi software
che permettono di collegare diverse applicazioni cloud al fine di
effettuare determinati compiti. In questo modo viene velocizzato lo
sviluppo di soluzioni complesse, senza la necessità di dotarsi di
hardware o middleware proprietario. Di conseguenza anche i dati
relativi a diverse applicazioni possono comunicare. Solitamente
offrono una semplice dashboard per progettare e gestire le integrazioni
applicative e di dati.
Poi ci sono software pensati soltanto per integrare dati, provenienti
da diverse fonti, sempre in cloud, per un successivo utilizzo con
strumenti di business intelligence o data science.
Sotto l’etichetta RPA (Robotic Process Automation) ricadono
software che utilizzano agenti digitali (bot) per automatizzare compiti
ricorrenti, tipicamente svolti dai dipendenti. Per realizzarli offrono un
ambiente di sviluppo semplificato, utilizzabile anche dai marketer, per
progettare i comportamenti (in alcuni casi si può usare come base la
registrazione del processo seguito da un umano). Qualche forma di
intelligenza artificiale può essere usata per migliorare le decisioni del
bot.
Infine, i software di Tag Management servono a gestire i codici che
vengono inseriti nei siti e nelle app per raccogliere i dati
comportamentali degli utilizzatori.

Management
I software della categoria “Management” censiti da
chiefmartech.com sono 601. Rispetto all’anno precedente la crescita è
stata del 15%. La categoria che ha registrato un numero maggiore di
novità è stata “Projects & Workflow” (+41%). Per avere un’idea delle
possibilità offerte da questo mercato, diamo un’occhiata alle singole
sottocategorie.

Agile & Lean Management


Sono i software che servono a organizzare e gestire il lavoro di team
dislocati in più punti, secondo le metodologie agile e lean. Permettono
la visualizzazione e il tracciamento dei compiti e dei carichi di lavoro,
facilitano la collaborazione, il calcolo dei tempi di svolgimento dei
compiti assegnati, i risultati raggiunti. Le piattaforme più complete
offrono software specifici per la pianificazione e il monitoraggio di
progetti, il tracciamento di problemi, la collaborazione. Sono molto
utili anche per aumentare la trasparenza dei processi aziendali, dei
compiti assegnati e dei risultati ottenuti.

Collaboration
Qui troviamo diverse tipologie di software pensati per migliorare la
collaborazione tra appartenenti a team di lavoro. Possono essere tool
specifici, per esempio dedicati alla progettazione di siti e applicazioni,
che incorporano funzioni di collaborazione di gruppo, oppure possono
essere ambienti intranet che integrano la gestione collaborativa di task
e progetti, con chat, sale per videoconferenze, condivisione di lavagne
e file.

Figura 5.8 Un esempio di software per la collaborazione da remoto.

Talent Management
Sono software utili a supportare l’intero arco delle attività svolte dai
professionisti delle risorse umane. Permettono di individuare i
candidati ideali, di collezionare i documenti richiesti, di monitorare le
performance e il loro sviluppo, di progettare i percorsi di carriera, di
gestire le richieste (ferie, malattie ecc.) e gli stipendi.

Budgeting & Finance


Questa sottocategoria comprende i software che servono a gestire la
pianificazione delle risorse economiche e finanziarie. Permettono di
abbandonare i fogli di calcolo e costruire budget in maniera semplice,
ma anche di operare simulazioni di scenario e previsioni finanziarie,
anticipare problemi di cassa prima che si verifichino. Di solito hanno
funzioni per automatizzare la reportistica e per collaborare con
colleghi.

Product Management
Sono software pensati per le aziende che hanno un prodotto da
sviluppare e tenere costantemente aggiornato. Servono a raccogliere le
idee di sviluppo (provenienti da clienti e colleghi), pianificare la
roadmap per condividerla internamente, gestire le priorità dei task,
controllare i compiti assegnati, i risultati e i tempi di lavoro. A volte
questi software sconfinano nella categoria del project management.

Project & Workflow


Ricadono in questa sezione i software indicati per migliorare la
produttività dei team di lavoro, attraverso la definizione chiara dei
progetti e la creazione di precisi flussi di lavoro. Solitamente hanno
svariate funzionalità: creazione di progetti e allocazione delle risorse,
gestione dei carichi di lavoro e delle interdipendenze tra task,
monitoraggio dei compiti e dei tempi. Includono calendari, diagrammi
di Gantt e cruscotti per visualizzare i progressi, l’utilizzo di risorse, la
produttività individuale.
Qui sono compresi anche i software che servono a progettare e
gestire workflow, ossia procedure aziendali di qualunque tipo. Possono
prevedere l’automazione di alcuni compiti.

Vendor Analysis
Questa categoria è dedicata alle società che offrono consulenza sulla
scelta dei fornitori di tecnologia e a quei servizi Web che raccolgono
informazioni sui fornitori di software, li catalogano e aiutano a
confrontarli. Spesso raccolgono le recensioni e le esperienze d’uso
degli utenti, le caratteristiche, i pregi, i difetti e le informazioni di
prezzo. In alcuni casi svolgono anche un lavoro editoriale di analisi
delle soluzioni e delle novità di mercato.
Esistono anche software progettati per tracciare e ottimizzare gli
investimenti in tecnologie effettuati dai diversi team aziendali.
Le fasi di adozione del martech in azienda
Oggi l’adozione di tecnologie per il marketing si presenta molto
differenziata da azienda ad azienda. Scott Brinker individua quattro
situazioni o fasi di un processo evolutivo per descrivere lo stato del
martech.
Martech come supporto al marketing: l’uso della tecnologia è
limitato alla semplificazione di alcuni compiti specifici, che sono
alla portata di qualunque team tradizionale (es.: gestione email
marketing, costruzione di landing page per la lead generation).
Per tutto il resto ci si rivolge ad agenzie esterne.
Martech incorporato nel marketing: ossia riconosciuto come
essenziale per facilitare la maggior parte delle attività, ma
circoscritto ad alcune persone. Tipicamente le attività di martech
vengono affidate a un esperto interno (un “marketing
technologist” o “tecnologo del marketing”) che sa come usare gli
strumenti giusti per rendere più efficienti ed efficaci le azioni.
Martech assorbito dal marketing: quando tutto il team usa la
tecnologia per migliorare qualunque attività svolta. Qui si assiste
proprio a un cambiamento della mentalità di approccio al
marketing e tutti i membri del team sono anche in grado di
scrivere codice per adattare gli strumenti al fine di raggiungere gli
obiettivi di business.
Le tecnologie dominano il marketing: è uno stadio futuribile nel
quale gli algoritmi riusciranno a dare migliori risultati rispetto alle
operazioni manuali in tutti gli aspetti del marketing (ottimizzare
la spesa in pubblicità, monitorare le performance e il sentiment,
predire il churn, individuare anomalie nei siti e così via).
La situazione europea, secondo uno studio BCG su Regno Unito,
Germania e Francia, mostra che le aziende fanno ancora molto
affidamento sul supporto delle agenzie e dei centri media per lo
svolgimento delle attività di marketing. L’80% dei marketer inglesi e il
60% di quelli francesi e tedeschi si rivolgono a servizi esterni, anche se
BGC stima una decrescita lenta di questo fenomeno a favore di
un’acquisizione di strumenti martech per uso interno. Attualmente
l’ecosistema marketing e comunicazione è fortemente sbilanciato: in
Regno Unito e Francia sono il 5% le aziende del comparto che
producono soluzioni martech, in Germania sono il 4%. C’è anche da
registrare che in questi anni le agenzie, le società di consulenza e i
centri media hanno iniziato ad acquisire aziende tecnologiche per
ovviare a una carenza di capacità e conoscenze
(https://www.bcg.com/publications/2020/leveraging-european-marketing-
ecosystem).
Martech: make or buy?
In un ecosistema complesso e dinamico di soluzioni martech, il
CMO è chiamato a trovare un equilibrio tra compiti da seguire
internamente o da esternalizzare e tecnologie da sviluppare in house o
comprare sul mercato. Bisognerebbe ragionare pensando ai partner
esterni come un’estensione del proprio team di lavoro, e dunque
mantenere la testa all’interno e le braccia all’esterno. Ovviamente con
misura perché moltiplicare i partner vuole dire anche aumentare, di
conseguenza, gli sforzi di coordinamento.
Per quanto riguarda i software martech, sicuramente bisogna partire
dal presupposto che sarebbe stupido e inefficiente sviluppare tutto in
casa e reinventare la ruota. Invece sarebbe necessario un assessment
approfondito delle esigenze aziendali e delle offerte di mercato, senza
dimenticare il livello di sviluppo delle capacità professionali dei
dipendenti. Vale a dire che se mancano le competenze interne per
l’utilizzo efficace di un certo software, non ha senso acquistarlo. Un
approccio sensato è quello graduale, che prevede l’acquisto di
programmi modulari che crescono con il livello di conoscenza e di
complessità aziendale.
La decisione di sviluppare internamente una soluzione dovrebbe
essere ben ponderata, coinvolgendo il reparto IT per valutarne i tempi
e i costi di produzione e di mantenimento a medio lungo termine. Ma
soprattutto dovrebbe essere presa in esame solo per lo sviluppo di
software in grado di offrire un vantaggio competitivo all’azienda (per
esempio migliorare la comprensione dei clienti e le decisioni data
driven o rendere più efficaci ed efficienti le azioni di marketing).
Proviamo a considerare tre livelli di competenze atte ad abilitare il
marketing aumentato: l’architettura dati (la capacità di raccogliere,
integrare, pulire, uniformare i dati di prima, seconda e terza parte),
l’intelligence sui dati (la capacità di estrarre valore dai dati attraverso
l’applicazione di modelli di intelligenza artificiale) e l’esecuzione delle
azioni di marketing (lo sfruttamento dei dati per catturare l’attenzione
delle persone e stimolare comportamenti). Di queste, le prime due
competenze sono quelle che le aziende dovrebbero puntare a
sviluppare in casa, perché vanno ad alimentare quel giacimento di
conoscenza necessario a prendere decisioni complete e accurate. La
fase di esecuzione, invece, può essere supportata da tool esterni, alcuni
dei quali stanno diventando commodity e che cambiano continuamente
al mutare del panorama Web e social.
Lomit Patel propone un framework per valutare le diverse capacità
dei fornitori di marketing technology, che può essere utile anche per
capire il livello della tecnologia di marketing automation disponibile
sul mercato. La tassonomia è mutuata dalla scala di autonomia usata
per i veicoli dalla SAE (Society of Automobile Engineers), che parte da
un livello 0 per le auto tradizionali e arriva al livello 5, usato per
descrivere quelle completamente automatiche (Patel L., Lean AI,
O’Reilly Media, 2020).
Livello 0: nessuna automazione. I marketer gestisco tutte le
attività usando strumenti basilari e sistemi di CRM che non
prevedono automazioni di sorta, ma fungono da depositi di dati di
marketing e generatori di reportistica (dashboard o sistemi di
“business intelligence”).
Livello 1: automazione delle raccomandazioni. I marketer
utilizzano sistemi in grado di generare raccomandazioni al fine di
ottimizzare i risultati di marketing. Esse sono basate su regole
personalizzabili, per esempio dashboard interattive che mostrano
consigli su come aggiustare la spesa per canale. Sarà poi il
planner a dover modificare il budget sulla pianificazione.
Livello 2: automazione basata su regole. Sulla base delle regole
di business definite dal marketer nel livello precedente, qui si fa
un passo in avanti e l’intervento umano scompare. Riprendendo
l’esempio precedente sarà il software a modificare la
pianificazione senza un intervento umano (via applicazione o
API). Le regole rimangono nel dominio del marketer, per cui
questi sistemi non sono molto flessibili o adattabili in tempo
reale.
Livello 3: autonomia computazionale. Si tratta di sistemi che
usano tecniche di machine learning per osservare, imparare e
migliorare i risultati assegnati, sulla base di analisi statistiche
combinate con automazioni di marketing. Nessun intervento
umano è richiesto, a parte impostare un obiettivo o parametri
generali come le date o i paesi della campagna digitale da
pianificare.
Livello 4: autonomia nella comprensione. A questo livello si
annoverano sistemi in grado di comprendere il significato
contestuale delle interazioni degli utenti, i contenuti, i
comportamenti, i dati di performance e tanto altro, al fine di
generare e pubblicare messaggi personalizzati su diversi canali e
migliorare le performance.
Livello 5: autonomia totale. L’ultimo livello è quello di sistemi
che, dopo aver compreso i contesti di lavoro, riescono a generare
autonomamente test, variazioni creative, parametri di targeting e
tanto altro.
Secondo l’autore, la maggior parte dei team di marketing non va
oltre il livello 2, ma le grandi opportunità si trovano accedendo ai
livelli successivi.
L’evoluzione dell’offerta martech
Secondo Scott Brinker, dopo una prima fase di espansione del
mercato, dal 2012 al 2018, definita “prima era d’oro del martech”,
siamo arrivati a un momento di maturità che sta portando al
consolidamento delle offerte e a una scelta più oculata delle aziende
acquirenti. Nei prossimi anni si dovrebbe entrare nella “seconda era
d’oro del martech” caratterizzata da tre elementi.
Ecosistemi: si passerà da un’offerta caratterizzata da suite di
prodotti software creati da un unico fornitore che ne controlla la
coerenza e l’integrazione a ecosistemi di piattaforme. Saranno
soprattutto i grandi player come Salesforce, Adobe, Oracle,
Microsoft, Hubspot, Google a progettare le proprie soluzioni
aprendole, via API, allo sviluppo esterno. Ovviamente si tratta di
soluzioni Software As A Service, che a loro volta sfruttano le
piattaforme cloud (AWS, Google Cloud, Azure). In pratica, ogni
vendor gestirà anche un marketplace di applicazioni esterne,
assicurando al cliente la complementarietà e l’integrazione con la
piattaforma madre. Questo vuol dire nuove opportunità di
business per gli sviluppatori di terze parti, competizione tra
piattaforme per coinvolgere gli sviluppatori migliori, ma anche
scelta più ampia per i marketer;
Esperti: da un modello nel quale da un lato c’erano le aziende di
software e da un altro le società di consulenza di servizi, si
passerà a un modello misto. Già oggi, se si scorre la lista delle
applicazioni di un qualsiasi marketplace, si notano software creati
da società che poi li integrano e li personalizzano offrendo i
propri servizi. Per esempio Blue Green, società di servizi per
l’ottimizzazione delle conversioni, ha creato Blue Green
Analytics, un’app per Hubspot che visualizza i dati del customer
journey dei clienti.
Ingegneri: nella seconda era del martech le aziende, anziché
scegliere tra comprare una soluzione tecnologica o produrla da
zero in casa, potranno comprare una piattaforma commerciale sul
mercato e poi personalizzarla con applicazioni create e gestite dai
propri sviluppatori. In questo modo, anziché spendere soldi e
tempo per creare software già disponibili (piattaforme di
applicazioni e servizi o applicazioni single purpose), si potranno
concentrare nella progettazione di custom app integrate con
l’ecosistema esistente, fatto di altre app che estendono le
funzionalità della piattaforma e dunque le possibilità degli
utilizzatori. In questo modo verrà alla luce un nuovo fenomeno,
quello delle aziende non software che diventeranno, in qualche
misura, anche aziende software. Accadrà che le esperienze
progettate dai marketer per i consumatori saranno sempre più
racchiuse e veicolate attraverso applicazioni custom, integrate
nell’intero “martech stack” aziendale (Figura 5.9). Questo modo
di lavorare dei “marketer aumentati” si inserisce in un trend più
ampio che è quello della democratizzazione dello sviluppo, che
ha dato luogo al cosiddetto “low code/no code software”.
Figura 5.9 L’architettura delle soluzioni martech a disposizione delle aziende.

Low Code/No Code Software


Dalla sua nascita, la Rete ha favorito la diffusione di strumenti
necessari a consentire, a un pubblico sempre più ampio, la creazione di
oggetti digitali: foto, video, testi, prima difficili da produrre per i non
esperti. Un simile movimento di democratizzazione degli strumenti di
produzione si sta verificando anche nell’ambito del software. Da
qualche anno si stanno moltiplicando le soluzioni, Web based, che
permettono a coloro che non sono sviluppatori di creare facilmente del
codice per risolvere problemi specifici. Per i marketer, questo vuol dire
riuscire a svolgere più velocemente il proprio lavoro senza dover
aspettare l’aiuto di qualche collega del reparto IT. Di fatto ciò
aumenterà drasticamente la produzione di soluzioni martech “dal
basso”.
Il primo prodotto che, in qualche modo, ha contribuito a trasformare
i marketer in piccoli sviluppatori è stato Excel. Il foglio elettronico di
Microsoft con le sue caratteristiche di programmabilità (le macro) ha
trasformato i marketer più volenterosi in creatori di dashboard e
funzioni avanzate. Poi è arrivato Google Sheets che ha offerto la
possibilità di collaborare sullo stesso documento e di estendere le sue
funzionalità con altri software o add-on. Per esempio si possono usare
i Google Forms per raccogliere i dati su un qualunque fenomeno e
aggiungerli automaticamente a Google Sheet, per poi poterli
trasformare in grafici. Operazioni che fino a qualche anno fa
richiedevano il tempo e le competenze di uno sviluppatore.
Oggi, però, è possibile anche fare di più con software definiti “low
code” o “no code” (LCNC) ossia pensati con lo scopo principale di
dare ai non sviluppatori gli strumenti per costruire applicazioni, quindi
logica, senza programmare o con un minimo uso di codice. Delimitare
questo spazio di mercato non è facile, ma si possono individuare tre
tipologie di soluzioni applicative che lo caratterizzano: quelle che
aiutano a generare automatismi, quelle che consentono di manipolare
dati e quelle che servono a costruire elementi grafici.
Tra i software che permettono di far dialogare tra di loro servizi
diversi, attraverso regole impostabili dall’utente, troviamo IFTTT,
Zapier, Parabola. Si tratta di prodotti iPaaS (integration Platform as a
Service) con i quali si possono creare vere e proprie “ricette” o
sequenze di istruzioni per uno o più servizi collegati. Per farlo basta
usare un’interfaccia grafica, quindi senza necessità di scrivere codice,
e definire un evento scatenante (trigger) che coinvolge un servizio e
un’azione risultante generata in un altro servizio. Alcuni esempi:
trasformare gli eventi creati in calendario in post da pubblicare
automaticamente sui social media qualche giorno prima
dell’evento, in modo da generare interesse;
raccogliere tutti i nomi degli account che citano il nome del brand
in un Google Docs, per poi poterli utilizzare in attività di
coinvolgimento;
inviare un’email ai colleghi venditori ogni volta che mettiamo un
tweet interessante tra i preferiti, al fine di stimolarli a leggere
notizie utili o a retwittarle;
salvare le email dei contatti LinkedIn nella propria rubrica di
Google;
archiviare ogni link condiviso sui social media in un Foglio
Google.
Inoltre si possono creare anche dei workflow più complessi fatti di
più fasi generate da un singolo evento scatenante, in una sequenza del
tipo if...then (detta “event-driven programming”). Per esempio, quando
una persona scarica una risorsa aziendale, e risponde a determinati
requisiti di qualificazione, è possibile aggiornare automaticamente il
CRM e allertare un commerciale via email o instant messenger.
Un’altra categoria è quella dei software che consentono di
manipolare dati partendo da quelli contenuti in un foglio elettronico o
ibridando la logica degli spreadsheet con quella dei database. In
pratica, i dati inseriti dall’utente in righe e colonne vengono
trasformati in applicazioni per scopi specifici. Per esempio:
Appsheet, acquisita da Google, o Glide utilizzano i dati presenti
in qualsiasi foglio elettronico per creare un’app mobile da far
utilizzare ai propri dipendenti;
Sheet2Site permette di trasformare i dati di un Foglio Google in
un sito Web perfettamente funzionante;
Airtable combina la logica dei fogli elettronici e dei database, per
creare soluzioni utili a gestire e organizzare le attività di gruppi di
lavoro partendo da template.
La terza categoria è quella dei software che vengono in aiuto di
coloro che non sono a proprio agio con la grafica o che non hanno un
graphic designer in azienda. Tra questi annoveriamo:
Outgrow e Ceros permettono di creare contenuti interattivi,
immagini animate, video per qualunque destinazione;
TypeForm è utile per la creazione immediata di moduli per
questionari, sondaggi, quiz e lead generation;
WiX, Webflow, Unstack e Carrd sono pensati per velocizzare la
realizzazione di siti Web e landing page;
Landbot, Voiceflow e Shoutworks consentono di costruire chatbot
e skill per gli assistenti vocali.
Siccome il mondo del software si presta alle ibridazioni, alcuni
strumenti hanno caratteristiche di più categorie. Per esempio Bubble,
Betty Blocks, Budibase e Thunkable permettono di progettare,
sviluppare e lanciare applicazioni mobile e Web senza toccare codice.

Figura 5.10 I tool Low Code No Code mappati da Scott Brinker.


La logica che sta dietro queste applicazioni Low Code No Code si
ritrova incorporata nella maggior parte dei software che costituiscono
il panorama martech. Quindi potremmo dire che tutti i software di
marketing automation sono da considerarsi dei prodotti per generare
altro codice (applicazioni) senza mettere mano al codice.
Nei prossimi anni, probabilmente, i software Low Code No Code
non saranno neanche da considerare una categoria a sé stante, ma
diventeranno un cambio di paradigma nell’uso delle interfacce di tutti i
software. È quello che hanno sostenuto due importanti esponenti di
CapitalG, l’equity fund di Alphabet, dalle colonne di Techcrunch:
“Così come i PC hanno democratizzato l’uso del software, le API
hanno democratizzato la connettività tra le applicazioni e il cloud ha
democratizzato l’acquisto e il deployment del software, il no code darà
avvio alla prossima ondata di innovazioni enterprise, democratizzando
le abilità tecniche. I software no code stanno abilitando gli utenti
aziendali a padroneggiare funzioni da sempre rientranti nel dominio
dei tecnici, astraendo complessità e puntando su workflow visuali.
Questo profondo cambiamento generazionale ha il potere di interessare
ogni mercato del software e ogni utente aziendale”
(https://techcrunch.com/2020/07/07/no-code-will-define-the-next-generation-of-
software/).

Secondo Forrester Research, l’84% delle aziende di grandi


dimensioni ha già iniziato a usare tecnologie di questo tipo e Gartner
prevede che entro il 2024 questi software rappresenteranno il 65% di
tutte le app sviluppate.
Capitolo 6
Gestire il marketing aumentato

L’ultima parte di questo percorso nel nuovo marketing è quella che


affronta i temi più gestionali e organizzativi. Integrare la tecnologia nel
lavoro quotidiano non è cosa semplice. Richiede una forma mentis
elastica e un’apertura verso il nuovo che non è da tutti. C’è bisogno di
un progetto e di un responsabile in grado di scegliere i software più
adatti e di guidare l’adozione in azienda. Ciò spesso si accompagna
anche a un ripensamento della struttura organizzativa del marketing
che da centralizzata può diventare decentralizzata, con i pro e i contro
che questo comporta.
Inoltre, c’è anche un tema di gestione dei processi di marketing che
potrebbe mutare seguendo il percorso già fatto dai processi di sviluppo
del software. Negli ultimi anni si è passati da uno sviluppo a cascata a
uno sviluppo “agile”. Questa pratica, fatta di ritualità e tecniche
operative, può essere adottata anche dai team di marketing che
vogliono reagire più velocemente ai cambiamenti di mercato.
Infine, proverò a ragionare sugli argomenti etici che il marketing
aumentato pone. I progressi scientifici innescano sempre questioni
etiche molto profonde, ma l’unione con le ragioni e le finalità del
marketing può generare danni enormi. Perché aumentare le possibilità
di conoscere ed entrare in contatto con potenziali clienti vuol dire
aumentare i rischi di un uso maldestro dei nuovi poteri acquisiti. Si
tratta di un campo nuovo da esplorare insieme al futuro del marketing.
Nell’ultimo paragrafo mi abbandonerò alla fantasia, provando a
immaginare cosa potremmo aspettarci da questa disciplina mutevole e
affascinante.
Organizzazione del marketing
Alla luce di quanto detto finora sulla crescente complessità della
gestione aziendale in un ecosistema ipercompetitivo e anche degli
imprevisti esogeni che possono interessare l’azienda (si pensi
all’irruzione della pandemia del 2020) è evidente che un marketing
aumentato richiede un ripensamento dell’organizzazione e dei
processi. In altre parole, esiste un modo nuovo per riorganizzare il
lavoro di gruppo in modo da rispondere meglio a circostanze
impreviste e cambiamenti di mercato repentini?
Le aziende più dinamiche e ambiziose sono affascinate dall’idea del
decentramento delle risorse di marketing, per disseminarle tra gruppi
governati localmente (per le aziende multinazionali) o a livello di
divisione. Ciò può determinare una maggiore agilità e un maggiore
adattamento delle azioni al contesto specifico, ma il rischio è quello di
proiettare all’esterno un’immagine aziendale poco uniforme. Al
contrario, una gestione accentrata può permettere di gestire meglio le
risorse e governare la coerenza delle attività, ma può rivelarsi incapace
di adattarsi al cambiamento e di fornire risposte rapide al mercato.
Un’idea evolutiva si può ricavare dalla ricerca “Marketing
Organization Survey 2020” di Gartner, su 429 responsabili marketing
di grandi aziende di Stati Uniti, Regno Unito, Canada, Francia e
Germania
(https://emtemp.gcom.cloud/ngw/globalassets/en/marketing/documents/marketing_or
ganizations_survey_research.pdf). La prima evidenza emergente è che

crescono i marketer che operano in strutture funzionali, ossia


organizzate per tipologia di attività svolta: operation, creatività, e-
commerce, analytics. Diminuiscono invece quelli che lavorano nelle
organizzazioni per prodotto, canale o nazione. Rispetto allo scorso
anno c’è una ricerca della stabilità, forse nella consapevolezza che
l’efficienza operativa si può raggiungere in qualunque configurazione,
in quanto maggiormente legata a processi e persone. Certo è che le
nuove metodologie di lavoro agile, che esploreremo in seguito, si
sposano molto bene con il modello funzionale.
La seconda evidenza è che il 66% degli interpellati dichiara di
operare in strutture marketing completamente (29%) o primariamente
centralizzate (37%). Il 23% si trova in organizzazioni ibride, mentre
solo l’11% lavora in strutture decentralizzate. Si scopre anche che le
aziende che hanno un Marketing Operation Leader sono più propense
a realizzare strutture centralizzate verso le quali accentrare risorse,
controllabili dal responsabile.
Il modello operativo attualmente imperante nel marketing è quello
che poggia sul supporto esterno di una o più agenzie. Addirittura il
70% dei marketer le usa con più o meno frequenza. L’ideale approdo
futuro sarebbe quello di ridurre questa dipendenza esterna (destinarla
soltanto a sopperire temporaneamente a competenze mancanti) e
sviluppare talenti all’interno dell’azienda. Ovviamente ciò richiede un
approccio strategico e una disponibilità a investire, che spesso viene
scoraggiata perché si privilegiano risultati finanziari di breve periodo.
L’internalizzazione di alcuni servizi di marketing in una struttura
specifica può assumere diverse forme: il 49% dei marketer usa servizi
condivisi, il 48% usa un “centro di eccellenza”, il 34% una vera e
propria agenzia interna di supporto e il 23% i cosiddetti “Pod”.
Figura 6.1 Le strutture di marketing oggi e in futuro.

Il modello che prevede servizi condivisi è utilizzato soprattutto nelle


grandi organizzazioni con gruppi diffusi di marketing operation che,
per esempio, hanno bisogno costante di servizi creativi e sviluppo di
contenuti che possono essere erogati da un’unità specializzata. Tali
unità di lavoro si trovano a dover affrontare molteplici richieste
continue, quindi la loro sfida è mantenere un elevato livello di qualità e
livelli accettabili di reattività.
Il COE (Center of Excellence) è un centro fisico o virtuale di
conoscenza, che si incarica di assorbire professionalità e risorse sulle
novità del mercato e di erogare formazione agli altri dipendenti, in
modo da sostenere il loro aggiornamento professionale. È costituito
dagli elementi migliori dell’azienda, i super esperti di una determinata
materia. La sua costituzione è utile quando l’azienda ritiene di avere
un gap di competenze e di non riuscire a stare al passo con
l’evoluzione del mercato.
Le agenzie interne, al pari di quelle esterne, forniscono tutta una
serie di servizi, che poi fatturano secondo il tempo impiegato e la
complessità dell’attività svolta. Permettono di ridurre i costi
garantendo consistenza del lavoro offerto ai vari team. Per riuscirci,
però, hanno bisogno di aver accesso alle migliori tecnologie e ai
migliori talenti. Il rischio è di non riuscire ad accontentare i clienti
interni, con conseguente perdita di credibilità e, dunque, valore.
I Pod sono gruppi di lavoro interfunzionali, spesso dedicati a un
prodotto, a un’unità di business o una regione. Spesso sono collegati
alle pratiche di “agile marketing” che prevedono poche persone
altamente focalizzate su compiti specifici, anche solo per periodi brevi.
La survey del 2019 delineava anche una metamorfosi tra i gruppi
dedicati specificamente alle “marketing operation”. Se in passato essi
curavano soltanto gli aspetti più operativi, sempre più spesso vengono
incaricati anche di gestire quelli più strategici. I due aspetti più citati
sono la pianificazione finanziaria (il cosiddetto “budgeting”) e la
misurazione delle performance. Seguono la gestione delle campagne e
delle lead e lo sviluppo dei talenti e delle capacità individuali. Alla
richiesta di elencare le capacità più importanti da sviluppare nel futuro,
i marketer citano quelle che riguardano la strategia di “marketing
technology” tesa all’adozione e all’uso dei software di supporto,
l’estrazione di dati analitici sui clienti e le attività di marketing, la
gestione delle esperienze dei clienti. Purtroppo queste stesse capacità
critiche, insieme al digital commerce, sono anche citate come quelle
nelle quali l’azienda si sente meno pronta. Il problema principale
individuato quando si tratta di riuscire a migliorare l’acquisizione di
clienti e la loro fedeltà è proprio la mancanza di una strategia
“martech”.
Ma come vengono gestite le attività di marketing dalle grandi
organizzazioni? Dalla “Marketing Operations Survey” di Gartner
emerge che il 43% degli intervistati dichiara di non usare strumenti
tecnologici moderni per gestire le attività chiave. L’8% dice di non
usare software, mentre il 35% dichiara candidamente di usare solo
strumenti tradizionali come fogli di calcolo, email e gestione
documentale. Insomma solo il 57% usa qualche forma di “martech”
(https://emtemp.gcom.cloud/ngw/globalassets/en/marketing/documents/marketing-
operations-survey-2020.pdf).
I processi di marketing aumentato
Il marketing management classico comprende quattro attività
gestionali, che a loro volta possono essere viste come composte da
specifici processi: l’analisi, la pianificazione strategica, l’esecuzione
operativa, la misurazione.

Figura 6.2 Le fasi del marketing aumentato.

Queste fasi rimangono valide anche in un contesto moderno di


marketing aumentato. Quello che cambia è l’utilizzo di dati e
tecnologia per supportare tutti i processi sottostanti, in ogni momento.
Il processo non è più sequenziale ma circolare, e l’attività di
misurazione corre parallela a tutte le altre fasi.

Analisi
L’analisi è quel processo che ha l’obiettivo di comprendere prima di
pianificare e agire, fornendo elementi fattuali di valutazione. Tale
comprensione riguarda la definizione dei contorni e delle variabili
dell’ambiente nel quale l’azienda si trova a operare. Quindi, vuol dire
anzitutto analizzare i clienti attuali e potenziali, ai quali l’azienda
intende rivolgere la propria offerta, e i concorrenti diretti e allargati.
Tali analisi possono essere svolte con diversi strumenti, quelli più
consolidati (ricerche di mercato quantitative e qualitative promosse
dall’azienda o da altre entità) e quelli più nuovi, sui quali mi concentro
in questa esposizione.
Una ricognizione dell’operato dei concorrenti può essere eseguita
efficacemente attraverso diverse tecniche che possono permettere di
valutare la loro presenza online.
Il sito può rivelare le offerte in corso, i punti di forza e le attività
pubbliche più rilevanti, ma anche la produzione di newsletter e
risorse utili usate come “lead magnet” (white paper, casi di studio,
infografiche).
I social media mettono in luce lo stile di comunicazione e il tono
di voce nei confronti del pubblico di riferimento, la capacità di
produzione di contenuti di valore, la reazione alle richieste.
Inoltre, possono emergere le campagne pubblicitarie effettuate e
gli influencer coinvolti. Poi, con strumenti di “social analytics”, è
possibile confrontare le performance delle pagine/profili dei
concorrenti sui diversi social media (in termini di crescita di
follower, engagement ecc.).
Se i competitor hanno sviluppato un’app, sarebbe opportuno
avere un’idea di quanto e da chi viene utilizzata.
Tool specifici possono indicare l’efficacia del posizionamento sui
motori di ricerca e le parole chiave associate.
Uno strumento di monitoraggio può essere utile per identificare la
quota di conversazioni su quell’azienda (share of voice), il tenore
delle stesse (reputazione) e gli argomenti correlati.
L’analisi dei clienti può indagare diverse dimensioni, le preferenze
di consumo, le abitudini d’acquisto, il comportamento online oltre che
le caratteristiche socio demografiche. Un modo per farlo è attraverso
strumenti di ascolto delle conversazioni in rete, che raccolgono i
contenuti pubblicati nei luoghi pubblici da chi usa Internet. Per
recuperare tali post, è necessario definire un perimetro di analisi, ossia
scegliere le parole chiave più usate nelle conversazioni che si intende
recuperare. Lo strumento scelto, di conseguenza, le catalogherà e le
esporrà per permettere all’analista di ricavarne gli spunti più utili. I
software più evoluti riescono ad analizzare i testi, ad attribuire una
polarità alle frasi (sentiment analysis) e a etichettare opportunamente
le immagini (image recognition), operazione utile in assenza di una
descrizione. Qui l’automazione è un riduttore di complessità, perché
sarebbe molto difficoltoso rintracciare conversazioni specifiche nel
mare magnum della Rete, ma l’attribuzione dei significati e la
comprensione dei fenomeni dall’osservazione di singole
manifestazioni del pensiero rimane compito dell’analista.
Quest’analisi, che alcuni chiamano “netnografica”, può anche essere
utile per scoprire le persone che, più di altre, condizionano
comportamenti e opinioni, i cosiddetti “influencer”. Generalmente
sono quelli più citati nelle conversazioni o che riescono a stimolare più
interazioni (soprattutto commenti e condivisioni).

Strategia
La strategia non è un piano, ma una cornice di principi che guidano
le scelte e indirizzano la pianificazione. La pianificazione strategica
consiste nella definizione di obiettivi di marketing, coerenti con gli
obiettivi aziendali, e di attività strategiche da perseguire a medio-lungo
termine. Per farlo, il CMO, sulla base delle analisi effettuate ha
bisogno di suddividere il mercato in segmenti specifici
(segmentazione), scegliere quelli verso i quali indirizzare la propria
azione (targeting) e definire un sistema di offerta in grado di
soddisfare, meglio della concorrenza, le esigenze del target di
riferimento (posizionamento).
Probabilmente questo è il processo rimasto più simile ai dettami del
marketing classico e nel quale le tecnologie possono essere meno
d’aiuto. Sicuramente possono indicare percorsi alternativi, tracce
nascoste, evidenze che stimolino il ragionamento, ma solo l’essere
umano può decidere dove arrivare e come arrivarci.
Quello che il mondo digitale ha modificato sono i tempi e
l’ampiezza della strategia, che non riguarda più il lungo periodo. Non
ha più molto senso immaginare attività che possono essere corrette e
ottimizzate solo dopo un anno. Bisogna prevedere azioni misurabili
costantemente, per apportare le opportune correzioni in un’ottica di
agilità. Anche l’ampiezza della pianificazione è cambiata nel senso che
le attività da considerare sono aumentate e con esse anche la
complessità derivante dalle interazioni reciproche.

Esecuzione
L’esecuzione è la fase di implementazione operativa degli obiettivi
stabiliti nel piano strategico. È il momento in cui si passa alla
definizione del marketing mix più efficace, nel perimetro determinato
dal budget a disposizione, per portare sul mercato la propria value
proposition.
In questo processo la tecnologia può essere di enorme aiuto, nella
realizzazione di attività digitali riguardanti i diversi punti di contatto
tra azienda e persone: la creazione di contenuti, la pubblicazione nel
luogo e nel posto giusto, la diffusione, l’ottimizzazione dei risultati, la
gestione dei rapporti con prospect e clienti. I software di marketing
automation, illustrati nel precedente capitolo, se scelti attentamente
possono contribuire a migliorare i risultati delle singole azioni,
liberando tempo per le attività a più alto valore aggiunto.
Quindi oggi la “marketing execution” è, in realtà, una co-execution:
l’uomo e le macchine che operano per soddisfare i bisogni dei clienti.
Si tratta di pensare diversamente l’agire del marketing e il team di
lavoro, per includere solo i software più adatti a potenziare il pensiero
e l’azione.

Misurazione
La fase di misurazione consta dei processi di controllo delle attività
svolte, per comprendere se gli obiettivi sono stati raggiunti e
individuare eventuali scostamenti da essi. È un momento che non si
improvvisa, ma va pianificato accuratamente in anticipo. Inoltre oggi,
vale la pena ribadirlo, la misurazione non è neanche più la fase
conclusiva dei processi di marketing, ma è una costante di tutte le
attività. Si potrebbe anche sostenere che il confine tra l’analisi e la
misurazione si va facendo sempre più sfumato. I marketer dovrebbero
misurare sempre, ancora prima di iniziare l’esecuzione delle attività.
Può sembrare un paradosso, ma è necessario impostare
immediatamente un framework di misurazione, in grado di diventare la
bussola del lavoro successivo. Come raccontato nel mio libro
precedente, bisognerebbe partire dagli obiettivi di business aziendali e
individuare le relative metriche di business che li rappresentano.
Infine, da queste bisogna far discendere gli indicatori di performance
specifici per ogni singola attività messa in campo (Cosenza V., Social
Media ROI, Apogeo, 2014).
Secondo la “CMO Spend Survey” di Gartner, i Key Performance
Indicator tenuti in maggiore considerazione dai CMO sono il ROI
(19%), le Marketing Qualified Leads (18%), le Sales Qualified Leads
(15%) generate con le attività messe in campo online e offline, il
Conversion Rate (14%) e il CSAT per misurare la soddisfazione dei
clienti (14%).
La misurazione non è solo un’attività passiva, ma può diventare
fonte di reale vantaggio competitivo. È quello che emerge da una
ricerca di Bain & Company che ha evidenziato come l’approccio alla
misurazione si rifletta sui risultati di business. Le organizzazioni poco
mature misurano le performance dei singoli canali e interpretano i
risultati campagna per campagna. Hanno pochi strumenti di analisi e di
automazione, con team che lavorano per compartimenti stagni. Le
aziende più mature, invece, analizzano i dati riferiti ai singoli
touchpoint, ma li legano insieme e li leggono congiuntamente per
comprendere come e quanto hanno inciso sui risultati economici
complessivi. La misurazione è considerata la base per assumere
decisioni critiche e, per questo motivo, gli strumenti utilizzati sono
sofisticati (automazione e machine learning). Il modo di lavorare è
agile, con team cross-funzionali incentrati sulla soddisfazione del
cliente attraverso test e apprendimento continui
(https://www.bain.com/insights/the-measurement-advantage/).
Dunque il processo di misurazione può beneficiare, forse più degli
altri, dei vantaggi derivanti dall’utilizzo di software dedicato a
monitorare e rilevare il raggiungimento degli obiettivi di ogni singola
azione di marketing, comunemente chiamati “analytics”. Negli anni
questi software di analisi hanno subito un’evoluzione dovuta alla
disponibilità di molti più dati rispetto al passato (in alcuni casi Big
Data) e al miglioramento delle tecniche di estrazione di valore
(intelligenza artificiale nelle sue varie forme). Gli analytics possono
essere classificati in quattro categorie: descriptive, diagnostic,
predictive, prescriptive. Ciascuna categoria è descritta dai valori
crescenti di due parametri, il valore generato e la complessità o
intensità di dati e tecnologie utilizzati (vedi Figura 6.3).

Figura 6.3 L’evoluzione degli analytics.

Descriptive Analytics
Gli strumenti di analytics si dicono descrittivi quando fanno luce sul
passato e, se sono di tipo “real time”, anche su quanto sta accadendo
nel momento in cui il fenomeno è in corso di svolgimento. Permettono
di raffrontare momenti diversi del passato e individuare le attività che
hanno apportato benefici e quelle che non lo hanno fatto. L’idea è che,
comprendendo il passato e il presente, sia possibile programmare
meglio le azioni future. Ma sta all’analista farlo, il software si limita a
esporre i dati. Per esempio, le analisi descrittive possono rispondere a
domande come “qual è stato il periodo in cui ci sono state più visite al
sito?” o anche “quanto ha speso questo cluster di clienti nel periodo
natalizio?”.

Diagnostic Analytics
Gli strumenti di analytics diagnostici sono un’estensione di quelli
descrittivi che permettono di far luce sul perché. Quindi dall’analisi del
passato si passa alla ricerca delle cause dei fenomeni accaduti. Il
software lo fa utilizzando metodi statistici tesi a capire l’incidenza di
una serie di variabili. Le domande alle quali può rispondere un’analisi
diagnostica sono del tipo “perché questo cluster di clienti ha speso di
più in questo periodo?”.

Predictive Analytics
I software di analisi attuali, sempre più spesso, non si limitano a
esporre i fenomeni passati e a comprendere per quale motivo sono
accaduti, ma fanno un passo ulteriore, provano a predire il futuro, o
meglio stimano probabilisticamente cosa succederà in futuro in uno
scenario simile a quello passato.
Può essere la cosa più semplice, come l’estrapolazione di una
tendenza lineare, o più complessa, come lo sviluppo di algoritmi di
machine learning. L’obiettivo del praevidere è di “comprendere in
anticipo” in modo da identificare rischi e opportunità di business. Nel
marketing si può applicare a svariate operazioni critiche, come
l’analisi dell’andamento della domanda in determinati periodi e
mercati o la previsione dei clienti che sono più propensi ad
abbandonare l’azienda (churn), in modo da progettare per tempo le
contromosse per evitare che accada.

Prescriptive Analytics
I software di analisi più evoluti sono quelli che oltre a comprendere
il passato, diagnosticare le cause e predire il futuro, suggeriscono cosa
fare nel caso in cui si verificasse un fenomeno previsto. In alternativa
possono rispondere anche alla domanda “Cosa dovrei fare per far
accadere questa cosa o se dovesse accadere?”. In altre parole,
combinano la scienza delle previsioni con l’arte del prendere le
decisioni.
Tutto ciò è possibile solo utilizzando enormi quantità di dati
eterogenei e modelli avanzati di machine learning in grado di proporre
le azioni più appropriate da compiere (Gartner parla di tecniche come
il “complex event processing”, l’analisi dei grafi, la simulazione,
l’euristica, le reti neurali, https://www.gartner.com/en/information-
technology/glossary/prescriptive-analytics).

Tipicamente questi suggerimenti vengono valutati dal manager che


potrebbe combinarli con la sua conoscenza di informazioni di mercato
ulteriori non elaborate dal software, come indiscrezioni e segnali
deboli.
Ma se la macchina è in grado di fare una previsione e proporre
l’azione migliore possibile, quanto tempo ci vorrà affinché faccia tutto
da sola? In alcuni scenari meno critici per l’azienda, in realtà, già
accade. Per esempio, il sistema può riconoscere un cliente di valore
propenso a comprare e proporgli automaticamente l’offerta più adatta
al suo profilo.
La realtà però è amara: secondo una ricerca Forrester solo il 49% di
tutte le decisioni di business sono basate su informazioni quantitative,
solo tre punti in più rispetto al 2018.
Agile marketing
I primi gruppi aziendali ad aver affrontato la questione della
riorganizzazione del lavoro in modo da rispondere meglio a
circostanze impreviste e cambiamenti di mercato repentini sono stati
gli sviluppatori di software. Per anni essi avevano seguito una
metodologia di sviluppo a cascata, detta “waterfall”, caratterizzata da
una pianificazione precisa di obiettivi e specifiche prima dell’inizio del
lavoro, da un susseguirsi rigido di fasi lunghe di sviluppo (ogni fase
inizia solo al termine della precedente), da test e feedback possibili
solo al completamento del lavoro.
Nel 2011 viene pubblicato il “Manifesto for agile software
development” che espone alcuni principi generali dello sviluppo
“agile”, senza consigliare una specifica metodologia di gestione. Tra
questi vi sono il valore delle persone e delle interazioni tra loro,
nonché l’importanza di rispondere velocemente a modifiche di
requisiti non previsti in fase di progettazione.
Agile Software Manifesto
Stiamo scoprendo modi migliori di creare software, sviluppandolo e aiutando gli
altri a fare lo stesso. Grazie a questa attività siamo arrivati a considerare
importanti:
gli individui e le interazioni più che i processi e gli strumenti;
il software funzionante più che la documentazione esaustiva;
la collaborazione col cliente più che la negoziazione dei contratti;
la risposta al cambiamento più che il rispetto di un piano.
Ovvero, fermo restando il valore delle voci a destra, consideriamo più importanti
le voci a sinistra (https://agilemanifesto.org/).

Oggi, i marketing leader delle grandi aziende ritengono i metodi


“agile” più efficaci per la gestione dei progetti. In particolare gli
intervistati della “Marketing Organizations Survey 2020” di Gartner
hanno dichiarato che i metodi “agile” sono utilissimi per intercettare e
rispondere rapidamente ai cambiamenti di business, per gestire,
priorizzare e coordinare le attività di marketing, per i progetti che
hanno scadenze stringenti e budget ben definiti, per adattare i contenuti
ai cambiamenti di opinione dei clienti.

Figura 6.4 L’efficacia degli approcci di project management.

In merito alle metodologie utilizzate nella gestione dei progetti, il


75% degli intervistati dichiara l’utilizzo di tecniche “agili”, ma solo il
7% si attiene alle regole formali delle metodologie “agile”. Gli altri
dicono di eseguire test rapidi e conseguente apprendimento (32%) e di
usare una versione personalizzata del metodo (36%).
Le metodologie di gestione agile sono diverse, ma le più influenti
sono state quelle identificate con le etichette Scrum e Kanban. Sono
entrambe caratterizzate da flessibilità di lavoro, trasparenza e
allineamento tra i lavoratori, consegne continue, numero ristretto di
task e tempi di lavoro ben calcolati, ma soprattutto da una filosofia di
fondo che è quella dell’apprendimento continuo. La differenza
principale tra le due metodologie è il grado di flessibilità: Kanban è
molto flessibile e permette di alterare il processo di produzione in
corso d’opera, sia per quanto riguarda i ruoli, sia per quanto riguarda i
singoli task e le loro priorità.
Scrum prevede flessibilità ma solo tra un’iterazione e l’altra, non nel
corso dei cosiddetti “sprint”. Gli sprint sono cicli di sviluppo di durata
fissa, generalmente da una a quattro settimane, preceduti da una
riunione di pianificazione in cui vengono identificati gli obiettivi, i
task e i tempi. I task vengono attinti da una lista di requisiti, ordinata
secondo una priorità (backlog). L’andamento e il controllo delle
attività avviene durante riunioni quotidiane e alla fine di ogni sprint.
Altro metodo è il Kanban, ispirato al già noto sistema di
programmazione “just in time” introdotto da Taiichi Ohno nelle
fabbriche della Toyota nel 1980. Il Kanban si basa su cinque aspetti:
visualizzare i flussi di lavoro, limitare i work in progress, misurare e
gestire il flusso, esplicitare le politiche di processo, utilizzare modelli
per riconoscere le opportunità di miglioramento. Qui non ci sono ruoli
predefiniti come nello Scrum. Una board pubblica mostra i task da
completare, in progress e completati. Tutti vedono lo stato della
situazione e chiunque può prendere la responsabilità di completare un
task. Kanban è considerata una metodologia di “lean management”,
più che di “agile management”.
Spesso questi due termini vengono considerati intercambiabili, ma
non dovrebbero. L’aggettivo “lean” viene usato per gestioni che si
preoccupano soprattutto dell’ottimizzazione dei processi e
dell’eliminazione degli sprechi di risorse. Il concetto di “agile
management”, invece, pone l’accento più sulla velocità e adattabilità di
un progetto attraverso un approccio più iterativo, che accoglie
feedback in itinere e procede alle modifiche migliorative. Si tratta di
metodologie complementari tanto che qualcuno le ha ibridate, creando
lo “Scrumban”.
Le tecniche di sviluppo agile cominciano a diffondersi nei
dipartimenti IT all’inizio del 2000. Qualcuno ne inizia a parlare anche
con riferimento alle attività di marketing, ma bisognerà attendere il
2012 per veder apparire la prima formulazione formale. L’“Agile
Marketing Manifesto” (https://agilemarketingmanifesto.org/), frutto del
lavoro di diversi marketer, prevedeva sette valori e dieci principi per
una gestione più snella delle attività verso prospect e clienti. Gli
elementi più interessanti che impattano sulla gestione dei processi di
marketing sono quelli che riguardano l’approccio mentale al lavoro: i
valori dell’apprendimento continuo, della collaborazione con clienti e
colleghi di altri reparti, la flessibilità. Ciò si traduce in tante piccole
campagne continuative e sperimentali dalle quali imparare
velocemente, anziché campagne straordinarie, che richiedono lunghi
tempi di preparazione e si esauriscono in poco tempo.
Agile Marketing Manifesto
L’Agile Marketing Manifesto del 2012 prevedeva sette valori principali e dieci
principi.
Valori
1. Insegnamenti validati più che opinioni e convenzioni.
2. Collaborazione col cliente più che silos e gerarchia.
3. Campagne adattive e iterative più che campagne Big-Bang.
4. Processo di scoperta del cliente e non previsioni statiche.
5. Flessibilità versus rigida pianificazione.
6. Rispondere al cambiamento più che seguire un piano.
7. Tanti piccoli esperimenti più che poche grandi scommesse.
Principi
1. La nostra priorità è soddisfare il cliente attraverso rapide e continue
soluzioni di marketing.
2. Accogliamo e pianifichiamo il cambiamento. Crediamo che la nostra
capacità di rispondere rapidamente al cambiamento sia fonte di vantaggio
competitivo.
3. Produciamo frequenti programmi di marketing, da un paio di settimane a un
paio di mesi, preferendo una tempistica più breve.
4. Un grande marketing richiede uno stretto allineamento con le persone che
gestiscono il business, con chi vende e chi sviluppa il mercato.
5. Costruisci programmi di marketing intorno a individui motivati. Dagli
l’ambiente e il supporto di cui hanno bisogno, e riponi in loro la tua fiducia.
6. Imparare, attraverso il circolo virtuoso “costruisci-misura-impara”, è la
misura principale del progresso.
7. Il marketing sostenibile richiede di tenere un ritmo costante e una pipeline
di attività.
8. Non aver paura di fallire; solo non fallire due volte nello stesso modo.
9. Attenzione continua ai fondamentali del marketing e una buona
progettazione migliorano l’agilità.
10. La semplicità è essenziale.

Nella pratica, tra le idee mutuate dallo sviluppo software c’è quella
di adottare cicli di rilascio brevi e continui, strutturati per fasi circolari.
Tutto parte con la creazione di una lista di task, ordinata per priorità,
che rappresentano le attività da svolgere. La riunione detta “Sprint
Planning” è necessaria per esaminare i task prioritari, stimare il tempo
richiesto e decidere quali saranno completati nello sprint. Le attività
non vengono assegnate dal manager ai team di lavoro, ma sono i
singoli componenti ad autoresponsabilizzarsi, scegliendo i task che
pensano di essere in grado di portare a termine nel tempo previsto. La
riunione può avere durate variabili, ma non superiori alle due ore.
Lo sprint è il periodo di lavoro necessario a compiere le attività che
sono state preventivate. Ogni giorno i team sono soliti riunirsi alla
stessa ora per uno “stand up meeting”. Il nome deriva dalla modalità di
stare in piedi per la breve durata dell’incontro (circa 15 minuti). Ogni
membro è stimolato a rispondere a tre domande, utili per allineare tutti
gli altri, in uno spirito costruttivo e di massima trasparenza: “Cosa ho
fatto ieri?”, “Cosa farò oggi?”, “Ci sono ostacoli che possono impedire
di completare il lavoro previsto?”. Eventuali problemi complessi non
vengono affrontati in questa sede, ma assegnati a qualcuno per una
risoluzione successiva.
Concluse le lavorazioni viene organizzata la “Sprint Review” che si
concentra su cosa è stato fatto, si controllano i materiali prodotti e si
valutano i risultati. Per esempio gli asset creati per una campagna sui
social media, fatti di foto, video, copy, landing page. Questo è anche il
momento nel quale si ricevono feedback dagli stakeholder per cui è
utile allargare questa riunione anche a rappresentanti di team esterni,
per esempio venditori e account manager.
Subito dopo si organizza una “Sprint Retrospective” riservata solo ai
membri del team che hanno lavorato allo sprint, per approfondire come
è andata. Ci si chiede: cosa è andato bene, cosa non è andato bene e
cosa si può fare di diverso per migliorare il prossimo sprint. Lo spirito
non è mai punitivo, ma propositivo. È il team che riflette sulle ipotesi
di miglioramento, non un capo che le impone. Anzi il marketing
manager, o la persona più alta in grado, cerca di facilitare il confronto
ed evita di condizionarlo.
Questi cicli di lavoro brevi e frequenti sono fondamentali per stare
al passo con le novità di mercato e non farsi travolgere, anzi provare a
introdurle nell’attività se possono essere utili. Per esempio, se
Instagram lancia un nuovo formato pubblicitario, il team ne potrebbe
tener conto per testarlo prima dei competitor. Con cicli di lavoro
lunghi si rischierebbe di arrivare in ritardo ed essere percepiti come dei
follower.
Figura 6.5 Il ciclo degli sprint.

Ma cosa succede quando un’emergenza richiede un’azione non


programmata? Quando la gestione è fatta senza processi ben definiti,
anche la più piccola deviazione dall’ordinario viene vissuta,
psicologicamente e operativamente, come una crisi da gestire. I lavori
in corso di svolgimento vengono fermati e tutti i membri del team di
marketing sono chiamati a dare una mano per risolvere la situazione.
Sono almeno due i problemi generati da questo comportamento. Il
primo e più ovvio è che l’abbandono improvviso dell’attività che si
stava svolgendo porterà a un allungamento dei tempi di realizzazione,
aggravati dal “costo di commutazione”, ossia dal tempo in più che ci
vorrà per focalizzare nuovamente l’attenzione sul lavoro interrotto, una
volta conclusa l’emergenza. Il secondo problema è che, spesso,
l’attività improvvisa richiesta al team non viene coordinata con il resto
dell’azienda e può produrre ripercussioni impreviste che potrebbero
generare altre situazioni emergenziali. In questi casi la capacità di
rispondere immediatamente a problematiche improvvise non va
confusa con l’agilità.
Come vengono gestite le urgenze nel caso di una gestione agile? Lo
stand-up meeting quotidiano è il luogo nel quale affrontare gli
imprevisti di qualunque tipo. È il team congiuntamente a valutare il
singolo caso e a decidere come gestirlo. In alcuni casi, si pensi a
problematiche che coinvolgono la reputazione aziendale, potrebbe
riuscire a rispondere immediatamente con minimi aggiustamenti sul
lavoro già preventivato, in altri potrebbe aggiungere il nuovo task al
backlog per una gestione durante lo sprint successivo (se si fanno
sprint di 2 settimane, il tempo di risoluzione potrebbe non risultare
molto elevato). Con questo tipo di gestione tutti gli stakeholder
coinvolti sono forzati a prendere coscienza di un problema e delle
conseguenze derivanti, a considerare che c’è un ordine nello
svolgimento del lavoro e che nuovi task vanno a sostituire quelli
previsti. L’imposizione di una breve riflessione in ogni momento
cruciale, che sarà più profonda in occasione della retrospettiva, è un
elemento cruciale di questo metodo, in contrasto con le corse continue
e faticose di una gestione non organizzata.
In sintesi ogni sprint offre la possibilità di:
valutare nuove informazioni ed eventi imprevisti e pianificare la
risposta più efficace;
eseguire progetti nel minor tempo possibile (campagne, contenuti,
pubblicità ecc.);
aggiustare l’attività in base ai feedback interni o esterni;
abbandonare le attività inutili per non perdere tempo;
sperimentare idee innovative velocemente.
L’agilità sta proprio in questa frequente valutazione del lavoro e
nella conseguente riallocazione dinamica delle risorse.
È importante capire che l’approccio da seguire è incrementale e
iterativo.
Incrementale vuol dire che anche l’esecuzione di grandi idee viene
progettata come se fosse composta da tanti piccoli progetti. Pensiamo
al rifacimento del sito Web aziendale, che di solito deve accogliere le
richieste di numerosi stakeholder e richiede un ampio periodo di
realizzazione. Questo progetto può essere diviso in fasi intermedie
corrispondenti a moduli del sito. Per esempio si può prima lavorare al
rilascio di poche sezioni perfettamente funzionanti (la pagina
principale, quella relativa all’offerta e al profilo aziendale), per poi
implementare le successive incrementalmente (l’area risorse, il blog, il
chatbot e così via). Le lavorazioni intermedie possono essere tenute
private, per poter essere valutate internamente, oppure possono essere
rese pubbliche al fine di valutare l’impatto con un’audience più ampia.
Oltre che incrementale, l’approccio ai progetti dev’essere iterativo,
ossia orientato al miglioramento continuo. Ogni sprint può essere
utilizzato per apportare piccole correzioni o per implementare nuove
funzioni. Nel caso del sito Web può voler dire ottimizzare il peso degli
elementi grafici, aggiungere un motore di ricerca o gli script per
tracciare le visite. Volendo fare un parallelismo con la
programmazione di software, le azioni iterative sono quelle che
permettono di passare dalla versione 1.0 alla versione 1.1, mentre le
azioni incrementali sono quelle che determinano il passaggio alla
versione 2.0 (convenzionalmente i rilasci di software sono indicati con
numeri che crescono di unità decimali o intere a seconda degli
interventi migliorativi apportati).
L’approccio iterativo si sposa bene con il valore espresso nell’Agile
Manifesto che predilige tanti piccoli esperimenti rispetto a poche
grandi scommesse e anche i dati rispetto alle convenzioni (“abbiamo
fatto sempre così”). Oggi proprio gli strumenti digitali rendono
semplice testare centinaia di soluzioni in poco tempo e verificare quali
sono quelle che incontrano il favore del pubblico di riferimento. Ma
sperimentare non è un’attitudine innata nelle persone, per cui il
marketing manager deve stimolare il proprio team a pensare a ogni
attività come a un’opportunità di sperimentazione.

Visualizzare le attività
Quando dei grandi progetti vengono spezzettati in tanti lotti
progettuali è facile perdere traccia delle attività da svolgere. Per
ovviare a questo problema i tre principali metodi di gestione agile,
Scrum, Kanban e Scumban, hanno adottato la stessa soluzione. Scrum
Board o Kanban Board è una sorta di lavagna divisa in colonne,
rappresentanti lo stadio di sviluppo dei task. La più semplice ne ha tre:
da fare, in lavorazione, fatto. I compiti possono essere scritti su un
post-it (chiamato card), che viene mosso da una colonna alla
successiva dopo ogni fase di lavorazione. La lavagna è visibile a tutti,
pertanto serve anche come strumento di trasparenza, ma allo stesso
tempo funge da stimolo perché in ogni momento mostra il reale
andamento del lavoro e gli eventuali ritardi.
La difficoltà nella costruzione di queste “board” è riuscire a ottenere
una rappresentazione grafica che sia immediatamente comprensibile,
ma anche accurata. Si può iniziare con le tre colonne suddette o
disegnare un processo che preveda le fasi principali dello svolgimento
del lavoro, per esempio con cinque colonne: da fare, creazione,
revisione, test e completamento. Nella prima colonna vengono raccolti
tutti i compiti ancora da svolgere, che magari provengono da
precedenti sprint. Appena inizia la lavorazione, il task viene spostato
nella colonna “creazione”, una fase che può essere più o meno lunga e
prevedere il coinvolgimento di più persone. La fase di revisione è
critica per assicurare un controllo di qualità del lavoro. Può essere
svolta dal manager o in modalità di “peer review”, quando coinvolge i
propri colleghi che sono chiamati a dare un giudizio sul “manufatto”
realizzato e richiedere correzioni. Questo metodo è preferibile quando
si accumulano svariate attività per le quali attendere il parere del
manager potrebbe determinare blocchi e ritardi. Spesso vengono
definite a priori delle linee guida o degli standard di qualità. Per
esempio, in un contesto di marketing, i materiali prodotti dovranno
rispettare le linee guida e il tono di voce definiti in un manuale di
“brand identity”.
Infine, la fase di test potrebbe essere necessaria solo in alcuni casi,
per esempio quando si tratta di verificare la funzionalità di un
workflow di email o di un’applicazione. Se il test o la revisione
vengono eseguiti con successo, il task potrà essere spostato nell’ultima
colonna.
Figura 6.6 Un esempio di Kanban Board per il marketing.

L’utilizzo della bacheca è regolato dal “Pull Principle” secondo il


quale a spostare il task da una fase all’altra non è chi ha concluso la
lavorazione di quella fase, ma colui che si incarica di proseguirla nella
fase successiva (le fasi sono distinte da linee continue verticali). Si
tratta di un principio teso a responsabilizzare chi dovrà fare il lavoro
successivo, che sa quando ha il tempo di eseguirlo e dunque decide di
prenderlo in carico autonomamente. Ma come fa a sapere quando si
può spostare il post-it? La regola è che quando un team ha concluso
un’attività, la sposta nella colonna che serve a segnalare che è pronta
per la fase successiva (in questo caso la segnalazione avviene con linee
tratteggiate verticali).
Nell’ipotesi della gestione di progetti complessi che richiedono più
lavorazioni modulari, affidate a gruppi diversi, è possibile aggiungere
delle righe alla bacheca, che andranno a identificare i diversi moduli.
Lo stesso si può fare se non si vogliono tenere più bacheche per ogni
campagna o iniziativa di marketing, ma si vuole avere una visione
unica di quello che sta accadendo.
Sulla lavagna si può decidere di visualizzare anche quelle attività
che esulano dal flusso di lavoro programmato: i task urgenti dei quali
discutere durante le riunioni di gruppo, le attività lasciate in sospeso
durante uno sprint, i compiti interrotti.

Suddividere le attività
Finora ho citato i task per definire unità di lavoro specifiche, ma non
tutti i task sono uguali. Ci possono essere attività semplici oppure
complesse, che richiedono poco o molto tempo. Ecco perché nella
metodologia di sviluppo agile si è stimolati a ragionare anzitutto in
termini di “Storie Utente”, più che di task. Ogni nuova richiesta al
team o attività che si vuole portare avanti deve essere giustificata da
una Storia, che mette al centro un bisogno dell’utente. Sembra un
dettaglio rispetto alla semplice richiesta, invece è un punto centrale del
processo: obbliga l’incaricato a mettersi nei panni di una persona reale
e dei suoi bisogni.
In pratica, la Storia è una breve e chiara descrizione di un’attività
desiderata, raccontata dal punto di vista di un individuo (che
rappresenta il pubblico di riferimento dell’azienda o l’utente di un
prodotto). La sintassi è molto semplice e in un contesto aziendale
potrebbe assumere questa forma: come [cliente X, rappresentativo di
un cluster di clienti], desidero [funzione/attività], in modo da
[valore/beneficio che si vuole ottenere]. Per esempio: “come cliente
B2B, desidero una sezione risorse del sito, in modo da poter accedere a
casi di studio aziendali”. Il cliente può essere anche interno
all’azienda, per esempio: “come venditore vorrei avere la possibilità di
accedere alle statistiche delle mie sequenze di email, al fine di poter
comprendere meglio l’utilità delle mie azioni”.
Dunque si tratta di una frase, che può avere anche più dettagli, in
grado di spiegare la motivazione di una richiesta ed evitare
fraintendimenti. In un contesto di marketing aumentato, l’ideale
sarebbe che la motivazione fosse supportata da dati e ricerche che
giustificano quella richiesta.
Se le storie sono complesse vanno suddivise in task. Per esempio, la
realizzazione di un white paper da rendere scaricabile si compone di:
scrittura, impaginazione e grafica, creazione della landing page,
attivazione del workflow di lead generation, blog post e social post di
lancio, promozione di vario tipo. Questa suddivisione permette anche
di capire quante persone diverse possono lavorare in parallelo oltre che
le interdipendenze tra i task.
Siccome c’è un limite al numero di attività che è possibile
completare in un singolo sprint, è utile stimare la complessità di ogni
storia per stabilire quante storie possono essere gestite volta per volta.
Questa stima, nella metodologia Scrum, viene fatta assegnando a ogni
storia un numero di punti (“story points”) che ne rappresenta la
difficoltà di realizzazione. Per convenzione, il punteggio segue la
progressione di Fibonacci, quindi 1, 2, 3, 5, 8 o 13. Per esempio, una
storia da 1 punto potrebbe corrispondere alla pubblicazione di un blog
post; una da 13 potrebbe adattarsi al caso della realizzazione del white
paper, di cui sopra. Volendo si possono assegnare punti anche ai task.
Le storie andranno a riempire il backlog delle cose da fare, in ordine
di priorità. In alto troveranno posto le storie più urgenti. La ratio è che
non ci può essere spazio per ambiguità, è necessario fare delle scelte.
Di fronte a progetti complessi, scomponibili in sottoprogetti, come
la realizzazione di un’applicazione mobile o di un sito, non si parla più
di storie, ma di “epiche”. Un’epica è rappresentata da storie diverse
che condividono una stessa missione. Invece quando più progetti
complessi rispondono a uno stesso obiettivo si parla di “temi”. Per
esempio, lanciare una campagna di comunicazione nel Regno Unito
può essere un tema, che comprende più epiche come la creazione di un
sito ad hoc per il mercato inglese e la pianificazione advertising
multipaese. Siccome questi strati progettuali differiscono sia per
complessità che per tempi di realizzazione, potrebbero rappresentare
una sorta di “marketing roadmap” delle attività da portare a termine
durante l’anno.
Figura 6.7 Gerarchia di epiche, storie e attività.

Gestire i team
L’importanza degli individui e delle interazioni tra loro è il valore
principale della gestione agile. Il lavoro creativo e intellettuale viene
agevolato dalla creazione di gruppi di lavoro poco numerosi, in grado
di stimolare gli scambi di idee. Quanto poco numerosi? Famoso è il
concetto “two-pizza teams” espresso da Jeff Bezos, fondatore di
Amazon, per descrivere gruppi composti da persone sfamabili con due
pizze. Si tratta di una semplificazione, ma serve a dare l’idea che
gruppi troppo ampi possono minare l’armonia del lavoro. Ovviamente
se nelle aziende piccole l’intero team di marketing rappresenta un
singolo team agile, nelle grandi ci sarà la necessità di costituire più
gruppi.
I modi di comporre queste unità possono essere i più vari e
dipendono dagli obiettivi del CMO. Potrebbero essere organizzati per
ambito territoriale, per prodotto, per segmento di audience o stadio del
customer journey (awareness/demand generation,
consideration/nurturing, conversion/vendita, post vendita/advocacy). O
ancora si potrebbe scegliere un criterio multifunzionale per permettere
una contaminazione tra professionalità differenti (es. un copy, un
grafico, un analista, un esperto di advertising) e una relativa
autosufficienza nel completamento delle attività.
La specializzazione delle professionalità è importante, ma è gradito
anche un certo grado di adattabilità alle situazioni. Si parla a tal
proposito di “persone a forma di T”, dove la linea verticale rappresenta
la specializzazione tecnica, mentre quella orizzontale indica la capacità
di avere una visione ampia e di svolgere compiti non necessariamente
legati alla propria area di expertise. Il concetto è che in un team
nessuno deve stare con le mani in mano quando ha finito di svolgere il
proprio task. Viene apprezzato e incoraggiato lo spirito propositivo e la
voglia di dare una mano. Per esempio, l’esperto di advertising
potrebbe essere d’aiuto nella scelta delle fotografie da utilizzare in un
post o potrebbe rileggere il testo della newsletter da inviare, a caccia di
eventuali refusi o incongruenze.
Da un punto di vista strutturale, gli “agile team” sono piatti, nel
senso che non c’è molta gerarchia tra i membri o almeno non emerge
nello svolgimento del lavoro. Le decisioni sono prese collegialmente.
In ambienti di sviluppo software ci sono due ruoli peculiari: lo Scrum
Master che funge da facilitatore e coordinatore dei processi e il
Product Owner che fa le veci del cliente e decide le priorità. Nell’agile
marketing non c’è bisogno di due figure, solitamente il marketing
manager può incaricarsi di dare una priorità alle storie contenute nel
backlog e, allo stesso tempo, di supervisionare i flussi e sovraintendere
alle riunioni. L’importante è che lo faccia togliendosi il cappello del
capo e indossando quello del fluidificatore di decisioni e processi. Una
leadership sfumata e diffusa permette di responsabilizzare i singoli,
spingendoli a lavorare con un orientamento al risultato e a mostrare
uno spirito proattivo nella risoluzione dei problemi.
D’altronde in un mondo dinamico, dove cambiano le regole e le
situazioni di mercato, il decisionismo dall’alto può rischiare di
diventare un collo di bottiglia. Invece la gestione dal basso può essere
più efficace perché elabora più velocemente i feedback che riceve e ne
tiene conto per lo svolgimento del lavoro. Per esempio chi gestisce i
social media aziendali è in grado, più del manager, di percepire gli
umori del pubblico e capire se è meglio produrre un certo contenuto
anziché un altro. In questo modo, il marketing manager potrà
occuparsi di decidere quale priorità dare alle storie e individuare nuove
linee di sviluppo del lavoro. Insomma potrà guardare oltre la
quotidianità.
Perché questo modello di autonomia funzioni c’è bisogno di
trasparenza. Il meccanismo principale di trasparenza è l’uso delle
bacheche o di software dedicati, che mostrano sempre chiaramente a
tutti chi sta facendo cosa, lo stato di avanzamento dei lavori ed
eventuali intoppi (dei quali si può ricostruire l’origine perché ogni
comunicazione dei membri del team viene tracciata digitalmente). Un
ulteriore meccanismo di trasparenza è lo stand up meeting, nel quale
ognuno è chiamato a dire chiaramente cosa ha fatto il giorno prima,
cosa farà oggi e quali ostacoli ha incontrato nello svolgimento del suo
compito.

Marketing in beta perpetua


La metodologia agile, come visto, favorisce l’implementazione
incrementale e iterativa di idee, nonché la riflessione sui lavori
compiuti e il continuo miglioramento. Ovviamente alla base ci
dovrebbe essere un management che non ha paura di rischiare e di
fallire e una cultura d’impresa caratterizzata dal motto “fail fast, fail
often”. Scott Brinker nel suo Hacking Marketing stressa il parallelismo
tra il lavoro degli sviluppatori e quello dei marketer, parlando di un
“marketing in beta perpetua”, riprendendo concetti tratti dal libro
seminale The Lean Startup di Eric Ries.
Il concetto centrale della metodologia “lean” descritta nel libro è
quello che riguarda il circuito virtuoso “Build-Measure-Learn”. In
sintesi, il primo passo di ogni startup è quello di immaginare come un
bisogno può essere soddisfatto e sviluppare un “Minimum Viable
Product” per iniziare il fondamentale processo di apprendimento. Un
MVP è la più piccola e semplice incarnazione di un prodotto, o
servizio, che l’azienda crede possa essere interessante per una certa
audience, o meglio quella versione di un nuovo prodotto che permette
di collezionare il maggior numero di insegnamenti convalidati sui
clienti con il minimo sforzo. Quindi l’obiettivo è creare velocemente
una soluzione che abbia le funzioni indispensabili, utilizzando il minor
dispendio di energie umane e risorse economiche e misurando
scientificamente l’apprezzamento del pubblico cui è rivolto.
Innescando il circuito “Build-Measure-Learn” è possibile testare più
idee, verificarne la risposta del mercato e capire se continuare a
migliorare il prodotto o cambiare strada, provando una nuova idea
(“pivoting”).
Nel marketing si può provare a utilizzare lo stesso metodo e pensare
a ogni risultato concreto come a un MVP. Per esempio una landing
page può essere costruita con gli elementi minimi essenziali per
riuscire a generare conversioni, evitando fronzoli e abbellimenti.
Naturalmente questo non vuol dire fare un lavoro frettoloso e poco
professionale. Le domande da farsi al concepimento di un MVP sono:
Quali sono le ipotesi di marketing che questo MVP mi permette
di verificare?
Quali sono le metriche che dovrò usare per capire se il test ha
avuto successo?
Quale valore offre l’MVP all’audience per la quale è stato
pensato?
La qualità di questo MVP riflette il nostro brand?
Le prime due domande sono fondamentali perché evitano di
progettare soluzioni alla cieca, senza avere un chiaro obiettivo e un
minimo framework di misurazione in grado di fungere da bussola del
successo. Le altre due domande servono a garantire che il prodotto sia
utile per il pubblico cui è destinato e mantenga gli standard di qualità
ai quali tale pubblico è abituato. In altre parole, siccome il prodotto
non sarà creato per un test limitato, l’esperienza offerta non dovrà
essere inferiore a quella offerta da prodotti completi.

Figura 6.8 Build-Measure-Learn.

Se l’MVP riesce a superare la prova del cliente e a raggiungere gli


obiettivi quantitativi che erano stati prefissati potrà continuare a essere
sviluppato con successivi aggiornamenti migliorativi, entrando così
nella fase di “beta perpetua”. Così come i software che sono sempre in
continua evoluzione, anche nel marketing si può abbandonare l’idea di
un prodotto finito. È un cambio di mentalità che presuppone una
concezione dinamica delle aspettative del proprio pubblico di
riferimento e, dunque, di ogni prodotto che viene realizzato, sia esso
un blog post o la sezione risorse del sito Web.
Nello sviluppo software, l’MVP è solo il punto di arrivo di un
processo di creazione che parte dal prototipo, ossia da un prodotto
“proof of concept” (PoC) che serve solo a dimostrare la fattibilità di
un’idea agli stakeholder interni all’azienda. In pratica anziché dibattere
sulla fattibilità, gli sviluppatori tendono a creare qualcosa di
funzionante.
Nel marketing, un prototipo potrebbe essere realizzato attraverso la
creazione di un mock-up visivo che dà l’idea della campagna
pubblicitaria che si intende realizzare, un wireframe del sito Web che
si andrà a sviluppare o un diagramma di flusso del workflow di lead
generation che si intende attivare. In un mondo di touchpoint digitali,
ogni esperienza può essere simulata in anticipo con strumenti software
appositi. Tipicamente vengono creati diversi prototipi, ma solo quello
più apprezzato dai decisori interni inizia a essere realizzato
effettivamente. Successivamente entra nella fase di “alpha test”, ossia
viene fatto utilizzare a un numero limitato di persone che dovranno
fornire i propri feedback, utili per l’ulteriore miglioramento. Dopo le
correzioni si è pronti per rilasciare l’MVP oltre i confini aziendali, in
modo da permettere un beta testing più ampio. Questo processo di
sviluppo dei prodotti software può essere visto come una “pipeline” di
innovazione continua e può essere replicato anche per le iniziative di
marketing. In tale ottica, il compito del marketer è di alimentare
costantemente, con idee nuove, questo serbatoio in modo da avere
sempre qualche innovazione da portare sul mercato.
Figura 6.9 Pipeline dell’innovazione del marketing.

Ma come si può riuscire a favorire l’innovazione in azienda? Uno


dei metodi più conosciuti è quello introdotto da Google che stimola i
propri dipendenti a destinare il 20% del proprio tempo a progetti
collaterali, che non sono stati contemplati nei piani aziendali. È così
che sono nati prodotti come Gmail, Google Maps, Adsense, che sono
diventati macchine da soldi invidiabili. Altre aziende preferiscono
destinare una parte del budget di marketing ad attività più innovative:
per esempio, Coca-Cola utilizza il 70% degli investimenti a
programmi usuali, il 20% a quelli innovativi e il 10% alle idee più
azzardate, per intraprendere strade non battute.
Un altro modo per favorire l’innovazione è quello di incoraggiare la
collaborazione tra persone di diversi team. Un metodo usuale nelle
agenzie creative e nello sviluppo è quello noto come “Design Studio”.
Esistono diverse varianti ma tutte prevedono una sessione di lavoro
nella quale un gruppo eterogeneo di persone si ritrova per la
risoluzione di un problema. Nel caso di un progetto di marketing, il
gruppo potrebbe essere composto da marketer, venditori, persone delle
operation che lavorano a stretto contatto col cliente, sviluppatori di
software. La sessione inizia con un moderatore che spiega il problema
o il servizio che si intende progettare (magari per migliorare la
customer experience). Dopo di che ogni membro del gruppo ha un
tempo prefissato (5/15 minuti, ma può variare a seconda dei metodi)
per tratteggiare le sue idee su carta. L’obiettivo è generare quante più
idee possibile, anche molto acerbe, in poco tempo. Poi ognuno ha
qualche minuto per esporre le sue idee e gli altri sono stimolati a dare i
propri feedback costruttivi, che vengono annotati. A questo punto tutti
i partecipanti, facendo tesoro delle critiche, affrontano un nuovo giro
di rappresentazione delle proprie idee. Il metodo si basa proprio
sull’iterazione delle varie fasi per cui si può anche arrivare a fare
quattro cicli di progetto al fine di trovare una soluzione condivisa.
Ma forse l’elemento più importante per innovare è quello di
coltivare la propensione a privilegiare i test e i dati rispetto alle
opinioni e alle convenzioni. Si tratta di un processo che deve partire
dall’alto e che deve essere incoraggiato in qualunque modo. Il
problema è che spesso i capi amano agire secondo le proprie opinioni e
non lasciarsi contraddire dai fatti. La cultura del dato dovrebbe essere
usata non solo per eseguire test di piccola entità volti
all’ottimizzazione dei propri prodotti di marketing, ma anche per
testare idee più ambiziose. Naturalmente gli A/B test quando sono
sistematici e magari di ampia portata sono utilissimi. Per esempio,
Google nel 2019 ha eseguito più di 464.000 esperimenti
esclusivamente finalizzati a perfezionare la qualità dei risultati di
ricerca, che hanno portato a 3.620 miglioramenti.
Allo stesso tempo i test su idee che sfidano lo status quo sono più
rischiosi, ma potenzialmente più dirompenti. Anni fa in Microsoft si
dibatteva sulla giusta dimensione degli spazi pubblicitari su Bing.
C’era chi propendeva per permettere pochi spazi ma di maggiore
dimensione, per avere call to action più visibili, e c’era chi sosteneva
fosse meglio consentirne di più, ma di minore dimensione, per non
irritare i navigatori. Dopo le sperimentazioni opportune si scoprì che la
prima soluzione era la più valida e infatti determinò un incremento dei
ricavi di 50 milioni di dollari l’anno, senza peggiorare l’esperienza
utente. Va considerato che solo una piccola parte delle idee apporta un
qualche valore. In Google e Bing solo una quota compresa tra il 10% e
il 20% degli esperimenti genera risultati positivi. Ecco perché è
importante testare tante idee, ma farlo sistematicamente richiede una
progettazione attenta fatta di strumenti, dati e data scientist, altrimenti i
costi marginali dei test saranno alti e i manager saranno riluttanti a
supportare la cultura del dato (Kohavi R., Thomke S., “The Suprising
Power of Online Experiments”, Harvard Business Review, 2017,
https://hbr.org/2017/09/the-surprising-power-of-online-experiments).
Le persone
Come in ogni attività, anche nel marketing il fattore critico di
successo è rappresentato dalle persone. In un contesto di mercato così
dinamico e con una disciplina che si arricchisce continuamente di
nuove attività, probabilmente non esiste una univoca e ottima struttura
del team di marketing. Ma a mio avviso si può rintracciare una
configurazione minima in grado di garantire risultati soddisfacenti.
Ovviamente aziende più complesse tenderanno ad avere gruppi più
nutriti, composti da persone più specializzate su specifici aspetti,
cruciali per gli obiettivi di business.

Marketing Operation Leader


Negli ultimi anni, nelle organizzazioni di grandi dimensioni sta
prendendo piede la figura del Marketing Operation Leader. Secondo i
risultati della “Marketing Operations Survey” di Gartner del 2020, il
51% dei marketer di grandi aziende intervistati afferma di avere un
marketing operations leader nella propria organizzazione
(https://emtemp.gcom.cloud/ngw/globalassets/en/marketing/documents/marketing-
operations-survey-2020.pdf). Questa figura agisce da braccio operativo del

CMO, ma non ha contorni ben definiti; ogni azienda decide un


assortimento di compiti e responsabilità che la caratterizzano: tra
questi, la gestione del budget e la pianificazione finanziaria,
l’intelligence di mercato, lo stimolo a una cultura di collaborazione, la
gestione delle campagne, la misurazione delle performance, fino
all’organizzazione delle tecnologie di marketing. Sembra, insomma,
che sia un jolly ritenuto necessario nelle organizzazioni complesse. È
interessante analizzare il mandato che gli è stato affidato per i prossimi
12/24 mesi, che comprende la gestione e il consolidamento dei dati, la
misurazione delle performance, l’allineamento e la pianificazione
strategica, la gestione del martech.
La ricerca di un “riduttore di complessità” non deve sorprendere se,
come emerge dal sondaggio, i problemi che minano il raggiungimento
degli obiettivi di marketing vengono individuati nella carenza di
comunicazione e collaborazione (35%), nella incapacità di utilizzare
appieno le tecnologie esistenti (34%), nell’allineamento tra strategia ed
esecuzione (33%), nella mancanza di processi ben definiti (32%) e di
flessibilità e agilità (31%).
Queste debolezze sono accentuate nelle organizzazioni di marketing
decentralizzate. Per esempio, il 46% dei marketer di tali strutture
afferma che il problema maggiore è “il collegamento inefficace tra la
strategia di marketing e l’esecuzione” e il 39% cita la “carenza di
competenze dei dipendenti”. Nelle organizzazioni centralizzate la
prima percentuale scende al 30% e la seconda al 26%. Al contrario, il
tema della flessibilità e agilità è accentuato nelle strutture
centralizzate.

Core Marketing Team


Tralasciando la figura apicale, sia esso un Chief Marketing Officer,
un Marketing Operation Leader o un Marketing Manager, che deve
tracciare la strada, dialogare col top management, coordinare il lavoro,
stimolare le persone, ecco le figure indispensabili in un team di
marketing.
Content specialist: se il marketing è ormai un’attività che
anziché infastidire le persone ne stimola l’interesse, il contenuto
diventa il prodotto principale del marketer. Molte aziende hanno
investito in vere e proprie strutture editoriali, anche assumendo
giornalisti professionisti, col compito di raccontare storie
coinvolgenti e interessanti per il proprio pubblico di riferimento.
Nel cosiddetto “brand journalism” il prodotto, scomparendo dallo
storytelling, lascia spazio ai valori che legano il brand al suo
pubblico. Si pensi a Red Bull che ha trasformato il sito in una
sorta di magazine per appassionati di sport adrenalinici, con tanto
di televisione per trasmettere gli eventi sportivi in diretta. In altri
casi, le storie trovano posto in una sezione apposita del sito e
vengono utilizzate per arricchire i propri spazi sui social media
(Cennamo D., Fornaro C., Professione Brand Reporter, Hoepli,
2017). Anche senza creare una struttura giornalistica, il team di
marketing ha bisogno di un content specialist, un professionista
della comunicazione che si occupa della progettazione della
strategia di contenuti e dell’esecuzione della stessa. Dovrà essere
in grado di immaginare un piano editoriale coerente con gli
obiettivi del marketing e di produrre, con l’aiuto del designer ed
eventualmente di professionisti esterni, i contenuti (report, white
paper, casi di studio, blog post, social post, newsletter, email,
materiali di supporto nella fase di pre-sales).
Graphic designer: il miglior modo per catturare la fugace
attenzione delle persone che abitano la Rete è l’utilizzo di
immagini statiche o in movimento. Qualunque contenuto
immaginato dal content manager deve essere realizzato con
l’aiuto del graphic designer. La frequente interazione tra questi
due membri del team di marketing per confezionare contenuti
quotidiani rende difficile appaltare all’esterno questa figura. Non
solo, il creativo contribuisce attivamente a dare una identità
riconoscibile al brand, in tutte le sue manifestazioni esterne. Un
graphic designer con estese competenze può riuscire a coprire un
ampio spettro di esigenze aziendali, dalla progettazione del sito
Web alla realizzazione di landing page, dalla creazione di
presentazioni aziendali a quella di materiali per il team di vendita,
per non parlare dei contenuti per i social media e la pubblicità.
Quest’ultimo ambito è diventato particolarmente stimolante
perché foriero di novità relative ai formati espressivi. Si pensi
all’utilizzo dei video, delle gif animate, degli sticker o all’uso dei
filtri, anche tridimensionali: elementi che possono essere plasmati
per comunicare la marca a un pubblico giovane e che richiedono
l’apprendimento di tecniche specifiche. Un’area interessante del
marketing dei contenuti è quella del “data storytelling”, ossia il
racconto di storie attraverso l’analisi e la opportuna
visualizzazione di dati, un racconto che può risultare più credibile
se attinge a dati prodotti dall’azienda o recuperati grazie a
strumenti aziendali. In questi casi è richiesto il supporto del data
scientist per l’estrazione dei dati, il lavoro del content manager
per trasformarli in informazioni utili a creare un filo narrativo e
l’apporto creativo del designer che dovrà visualizzare
opportunamente la storia.
Marketing analyst: in un contesto di marketing aumentato dai
dati, l’analista svolge un ruolo cruciale in tutti i processi di
marketing. Nella fase di analisi, presupposto per la pianificazione
strategica, è colui che raccoglie tutte le informazioni di mercato
sui competitor e sulle loro attività, comprende i bisogni dei
clienti, scopre i trend rilevanti. Nella fase di esecuzione monitora
costantemente i social media per rilevare criticità, opportunità e
iniziative dei concorrenti, rileva le performance di tutte le azioni
messe in campo dal marketing, ricostruisce il customer journey.
Infine compila la reportistica riassuntiva periodica e la arricchisce
con raccomandazioni per future attività, sulla base dei trend
rilevati. Se in azienda non esiste un analista del CRM e delle
attività di vendita, può anche essere incaricato di comprendere le
opportunità nascoste nel database dei clienti/prospect e nel
portafoglio dei venditori.
Lead generation/advertising specialist: una figura che sta
diventando fondamentale per le aziende che operano in mercati
dinamici è quella che ha l’obiettivo di progettare e ottimizzare le
attività di promozione allo scopo di generare traffico e
conversioni. È la persona che utilizza i contenuti per disegnare i
workflow di lead generation, nurturing e conversion, per esempio
attraverso l’invio delle DEM (email contenenti offerte
commerciali mirate) e delle newsletter aziendali. Inoltre si occupa
della gestione del budget media e della pianificazione delle
campagne di pubblicità sui motori di ricerca e sui social media,
coordinandosi con il content specialist per i testi e il designer per
le immagini.
Ognuno di questi è uno specialista nel suo ramo, ma sarebbe
importante che avesse anche due attitudini di base indispensabili per
chi vuole fare marketing oggi. Tralasciando la passione, che dovrebbe
essere il motore di ogni agire umano, il mio consiglio è di assumere
persone curiose e attente alla misurazione.
La curiosità è attitudine che denota dinamismo e mobilità di
pensiero. Spinge le persone a cercare autonomamente le novità che
potrebbero migliorare il proprio lavoro e nuovi punti di vista che
stimolano lo spirito critico. Le persone curiose sono in grado di
spingere il team a sperimentare nuove attività di marketing e a
esplorare nuovi territori. Inoltre un individuo curioso è predisposto per
l’apprendimento continuo.
L’attenzione alla misurazione dovrebbe permeare l’agire di tutti i
componenti del team marketing, ma senza diventare un’ossessione.
Nei fatti vuol dire imparare a pensare alle attività da fare, avendo ben
chiaro l’obiettivo e il modo di misurarlo. Nel marketing ci sono anche
azioni difficilmente misurabili, ma l’importante è scegliere persone
che sappiano stabilire delle ipotesi di lavoro e verificarne la
realizzazione, sfidando le proprie convinzioni, quindi persone in grado
di cambiare idea di fronte all’evidenza dei numeri.

Marketing technologist
Un marketing sempre più ibridato dalla tecnologia fa nascere
l’esigenza, almeno nelle organizzazioni grandi, di uno specialista a
cavallo tra due mondi lontani come quello dell’IT e quello del
marketing. La sua missione dovrebbe essere quella di facilitare
l’utilizzo delle migliori tecnologie per supportare le attività di
soddisfazione del pubblico di riferimento dell’azienda.
Dovrebbe essere un agente del cambiamento e un promotore
dell’innovazione in tutti i dipartimenti aziendali. Inoltre, dovrebbe
aiutare il reparto IT a capire come orientare il proprio lavoro e le
tecnologie usate agli obiettivi reali di business. Un compito difficile
che richiede un mandato chiaro dal top management e la capacità di
muoversi con cautela tra i diversi reparti, sviluppando relazioni di
fiducia con le persone (Zarantonello G., Marketing Technologist:
trasformare l’azienda con il cliente al centro, Franco Angeli, 2020).
Secondo i risultati della Martech Salary Survey del 2019
(https://chiefmartec.com/2019/03/marketing-technology-job-responsibilities/),
un marketing technologist dovrebbe fare quanto segue.
Individuare le tecnologie più adatte a supportare specifiche
attività di marketing che l’azienda intende portare avanti. Per
farlo, deve sviluppare una vasta conoscenza delle soluzioni
esistenti ed eseguire gli opportuni confronti di costi e benefici. Il
suo ruolo si giustifica solo se la scelta della singola soluzione
viene fatta coerentemente con quella delle altre (passate e future),
in modo da assicurare una coerenza complessiva e
un’armonizzazione degli strumenti adottati.
Amministrare le soluzioni tecnologiche acquistate, monitorarne le
performance nel tempo e gli aggiornamenti.
Insegnare l’uso degli strumenti al team di marketing e supportarlo
nell’utilizzo. Si tratta di una fase critica perché è sempre difficile
far entrare nuovi strumenti nella propria routine e acquisire un
nuovo modo di lavorare.
Integrare le soluzioni tecnologiche aziendali tra di loro, quelle
sotto il dominio del marketing innanzitutto, ma non solo, in modo
da perseguire un obiettivo di efficienza complessiva. È un lavoro
molto importante soprattutto nel caso di strutture di marketing
decentrate. Richiede necessariamente la collaborazione del
reparto IT, ma è il marketing technologist a dover progettare e
guidare gli interventi.
Monitorare la qualità dei dati prodotti dalle tecnologie utilizzate
al fine di identificare e correggere errori o anomalie. In questo
compito si può far rientrare anche la revisione della correttezza
del trattamento dei dati effettuato dai tool comprati e la
supervisione di eventuali problemi di sicurezza.
Indubbiamente il marketing technologist è una figura nascente e non
poco problematica in termini di collocazione all’interno
dell’organigramma. Per alcuni dovrebbe essere a diretto riporto del
CMO, in modo da occuparsi della gestione del budget destinato ai
software di supporto al marketing, ma in stretto coordinamento con il
reparto IT. Per altri dovrebbe dipendere dal Chief Information Officer
e occuparsi di supervisionare tutte le tecnologie di front end e di back
end che coinvolgono l’operatività dell’intera azienda. In questo caso,
dovrebbe coordinarsi con il team di marketing per recepire le sue
esigenze e individuare le soluzioni più adatte. Una terza via potrebbe
essere quella di un soggetto che risponda gerarchicamente al CMO, ma
con un riporto funzionale al CIO. Le configurazioni potrebbero essere
diverse e questa difficoltà di collocazione potrebbe portare a chiedersi
se davvero ci sia bisogno di un marketing technologist o se, invece,
non basterebbe attribuire le sue funzioni a una figura già esistente. Ha
le caratteristiche del classico ruolo di traghettatore, che risulta
importante nelle fasi di passaggio, per contribuire alla digitalizzazione
del marketing, ma che poi può, col tempo, sciogliersi in un ruolo già
esistente.

Data scientist
La figura del data scientist ha iniziato a essere presa in
considerazione quando le aziende hanno realizzato di avere enormi
quantità di dati, di diversa natura, sparsi in molteplici database e
soprattutto inutilizzati. In questi anni, il gran parlare di Big Data,
spesso a sproposito, ha avuto il grande merito di accendere i riflettori
su questa professione che ha il compito di valorizzare il patrimonio
informativo aziendale.
Il percorso di un data scientist solitamente comincia con una laurea
in matematica, statistica o informatica e prosegue con una serie di
corsi di specializzazione tesi all’apprendimento dei linguaggi e delle
tecnologie più usate. Negli ultimi anni i linguaggi più popolari sono
stati Python, R, SQL e Scala, tra le tecnologie per l’analisi dei Big
Data hanno preso piede Spark e Hadoop, per il deep learning si sono
affermati i framework Tensor Flow e Torch. Le abilità più richieste a
un data scientist sono quelle necessarie per padroneggiare le tecniche
di machine learning, i modelli statistici e la programmazione in
Python. Le tecniche di machine learning più utilizzate dalle aziende
sono il deep learning, il clustering e il natural language processing
(https://365datascience.com/data-scientist-job-descriptions/). Tra i software
più usati per processare i dati strutturati ricordo Knime, Orange e
Weka (Celli F., Data Science Marketing, Maggioli Editore, 2020).
Ma pur conoscendo i linguaggi di programmazione, il data scientist
non è solo un programmatore. Allo stesso modo non va confuso con il
marketing analyst che estrapola e organizza dati strutturati per renderli
intellegibili. Egli agisce come un vero scienziato, ma lavora con i dati
anche non strutturati. Generalmente opera nel seguente modo.
Identifica le domande di business, ossia parte dalla formulazione
di ipotesi di lavoro e domande di ricerca, per poi interrogare i dati
attraverso modelli statistici e algoritmi che potranno confermare o
smentire l’ipotesi e, comunque, rispondere alla domanda iniziale.
Sembra la fase più semplice ma è la più scivolosa. Senza porsi le
domande giuste è impossibile ottenere risposte utili dai dati.
Nell’identificazione delle domande di business può farsi guidare
da qualcuno che conosce meglio il mercato.
Individua, tra i tanti dati disponibili, quelli funzionali a rispondere
alla sua ipotesi di ricerca.
Pulisce, convalida, normalizza e aggrega i dati per eseguire un
lavoro accurato.
Elabora e applica modelli e algoritmi sui data set individuati.
Analizza i dati per identificare pattern ricorrenti e tendenze.
Interpreta i dati alla luce del contesto di business per individuare
opportunità per l’azienda.
Presenta i risultati, meglio se utilizzando tecniche di
visualizzazione in modo da consentire ai manager di prendere
decisioni informate e conseguenti.
Il data scientist solitamente lavora nel reparto IT, ma sarebbe molto
utile ai team che si occupano di marketing. Perché? Innanzitutto
perché i team di marketing sanno porre le corrette domande di
business, in quanto conoscono, meglio di altri, il contesto di mercato, i
concorrenti, i partner e i consumatori. Con le domande giuste si
possono ottenere risposte trasformabili in azioni concrete, altrimenti il
rischio è di far lavorare il data scientist su progetti interessanti, ma
senza ricadute immediate sul miglioramento delle azioni d’impresa.
L’altro motivo è che chi lavora nel marketing progetta i processi che
generano i dati su prospect e clienti, quindi non solo sa dove si
trovano, ma anche a quali esigenze rispondono. Un data scientist
inserito nel team di marketing può migliorare il disegno di questi
processi in modo che restituiscano dati ben organizzati e più utili per
capire i comportamenti delle persone che interagiscono con l’azienda.
La motivazione principale però è un’altra e dovrebbe essere ben
chiara alla fine di questo percorso: se il marketing aumentato si fonda
su dati e tecnologia per potenziare l’agire del marketer e acquisire un
vantaggio competitivo, chi sa dare valore ai dati e farli parlare diventa
un componente cruciale del team e dell’intera azienda.
Il suo lavoro di analisi e previsione potrà essere molto utile in una
miriade di operazioni che compongono i processi di marketing, tra cui:
analisi delle dinamiche del mercato (prezzi, concorrenza);
comprensione dei clienti potenziali (personas) e del percorso di
acquisto;
segmentazione dei clienti per individuare quelli di maggior valore
ai fini di attività di upsell e quelli in fase di abbandono per azioni
di fidelizzazione;
ottimizzazione della lead acquisition attraverso test multipli per
individuare soluzioni di acquisizione alternative;
gestione dinamica degli investimenti media a seconda dei canali
che performano meglio;
miglioramento del prodotto, attraverso l’analisi dei pattern di
utilizzo e la sperimentazione di funzioni personalizzate.
In realtà queste sono solo alcune delle attività che un data scientist
può fare in un contesto di marketing. Molte altre emergono dalla
contaminazione di idee tra chi ha a cuore la soddisfazione del cliente e
chi ha l’impulso di sperimentare, senza timore di sbagliare. Insomma,
se il prossimo anno aveste il budget per assumere una persona nel
vostro gruppo di lavoro, dovreste investirlo in un data scientist.
Etica
Il marketing aumentato dà grandi poteri all’azienda per il suo uso
intensivo di dati e informazioni personali, ecco perché porta con sé
grandi responsabilità. Siccome può avere un impatto molto profondo
sulla vita delle persone e può essere fonte di abusi, richiede un surplus
di attenzione da parte delle aziende, anzi un vero e proprio approccio
etico.
I primi utilizzatori di dati sono i grandi giganti della tecnologia che
già hanno lasciato intravedere le possibili conseguenze negative di un
uso distorto del patrimonio informativo degli utenti. Allo stesso tempo,
gli scandali che li hanno coinvolti stanno anche rendendo le persone e
le autorità più consapevoli e pronte a pretendere comportamenti
corretti. Queste forme di pressione, politiche e sociali, premieranno le
aziende che dimostreranno con i fatti, al di là dei proclami, di essere
attente all’uso etico dei dati personali.
Un tema di fondo è quello della sicurezza dei dati, ossia la garanzia
che l’azienda metta in campo tutte le iniziative e i processi atti a
proteggere i dati da intrusioni interne ed esterne. Si tratta di un aspetto
che richiede attenzione, ma che non pone particolari problemi etici.
Il tema del trattamento dei dati personali è già più delicato: implica
trasparenza nei confronti dell’utente al quale si chiedono informazioni.
L’Unione Europea ha affrontato la questione imponendo, dal 2018, il
regolamento generale sulla protezione dei dati (GDPR) che poggia sui
seguenti sei principi.
1. Liceità, correttezza e trasparenza, che si estrinsecano nella
predisposizione di una informativa sulla privacy, chiara, concisa e
completa sulle finalità di raccolta dei dati.
2. Limitazione della finalità, ossia i dati devono essere raccolti per
uno scopo specifico e non essere usati per altro.
3. Minimizzazione dei dati ovvero chiedere i dati essenziali per la
finalità che si vuole ottenere.
4. Esattezza, nel senso che l’azienda deve “adottare tutte le misure
ragionevoli per cancellare o rettificare tempestivamente i dati
inesatti” su richiesta dell’interessato.
5. Limitazione della conservazione a un periodo prestabilito e
congruo alla finalità.
6. Integrità e riservatezza sono i principi che attengono alla garanzia
di “un’adeguata sicurezza dei dati personali, compresa la
protezione, mediante misure tecniche e organizzative adeguate, da
trattamenti non autorizzati o illeciti e dalla perdita, dalla
distruzione o dal danno accidentali”.
Oggi però le aziende tendono a utilizzare tecnologie che permettono
di approfondire la conoscenza dei prospect e dei clienti attraverso il
collegamento dei dati di prima parte, forniti direttamente dall’utente al
marketer, con quelli di terze parti, raccolti da “data broker” (aziende
che acquisiscono e vendono dati di diversa natura, online e offline,
come Acxiom, Experian e Oracle, che hanno informazioni su centinaia
di migliaia di persone). È quello che fanno le cosiddette Data
Management Platform che provano a costruire profili quanto più
accurati delle persone, correlando informazioni da diverse fonti al fine
di mostrare loro pubblicità iperpersonalizzate, al momento giusto e nel
posto più visibile. Al momento la precisione non è così elevata e
paradossalmente questo diventa un problema. Se lo fosse, il
consumatore potrebbe vedere pubblicità sempre in linea con i suoi
interessi. Ma quando si creano dei vuoti nell’identikit della persona, gli
algoritmi sono addestrati per completare tali mancanze e questo può
aprire questioni inedite e interessanti.
Quanto è giusto inferire un profilo psico-comportamentale di una
persona a sua insaputa? Quali distorsioni possono verificarsi nella
ricostruzione algoritmica di questo puzzle? Quali pregiudizi possono
essere contenuti nei modelli di machine learning progettati? Casi di
discriminazione algoritmica per status socio-economico, colore della
pelle o orientamento sessuale si sono già verificati in attività della
pubblica amministrazione e sono oggetto di approfondimento
soprattutto nell’Unione Europea (un osservatorio puntuale sul sito
https://algorithmwatch.org/).

In ambito privato, dei casi eclatanti si sono avuti nei processi di


erogazione dei servizi assicurativi e di concessione del credito, dove
sistemi automatizzati hanno assegnato un profilo di rischio elevato a
determinate categorie sulla base di pregiudizi. È una situazione
esemplificata bene dalla disavventura di Kevin Johnson, imprenditore
di Atlanta che, pur essendo sempre stato solvibile, un giorno si è visto,
di punto in bianco, abbassare il tetto del suo credito American Express
da 10.800 a 3.800 dollari. La motivazione? L’algoritmo aveva dedotto
un futuro rischio di insolvenza perché i punti vendita scelti
dall’imprenditore, coincidevano con quelli scelti da altri clienti che poi
si erano rivelati insolventi. È un caso di inferenza di un futuro
comportamento basata su informazioni di cluster di persone reputate
simili (Cosenza V., La società dei dati, 40K, 2012). Tipicamente il
problema può risiedere nelle regole impostate dall’uomo oppure nei
dati sui quali l’algoritmo è stato addestrato, che possono risultare
parziali, incompleti o discriminatori.
Dal punto di vista del consumatore finale, la verità è che sta
diventando sempre più difficile capire se si è stati vittima di una
discriminazione. In teoria un’azienda potrebbe segmentare i suoi
clienti in modo da riservare la giusta attenzione soltanto a quelli
potenzialmente più predisposti ad acquistare, trascurando invece gli
altri, che potrebbero vedere prezzi meno vantaggiosi e ricevere un
trattamento differenziato dal customer care. Uber, per esempio, ha
testato in alcune città un sistema dinamico di prezzo in base alla
propensione a pagare di più per un certo percorso in un certo
momento, come andare in una zona ricca della città. Per estensione
sarebbe possibile accedere allo status dello smartphone e applicare un
sovrapprezzo a chi è a corto di batteria
(https://crackedlabs.org/dl/CrackedLabs_Christl_DataAgainstPeople.pdf).
In futuro le possibilità offerte dalla tecnologia si moltiplicheranno,
di pari passo con le sue capacità estrattive, ovvero quelle che le
permettono di raccogliere automaticamente dati dal suo utilizzo. I
dispositivi per la realtà virtuale, in apparenza così innocui, sono in
grado di tracciare una serie molto estesa di informazioni che
riguardano i movimenti del corpo. Marketer senza scrupoli potrebbero
trovarli allettanti e darli in pasto a speciali algoritmi in grado di
identificare segni di specifiche patologie come la demenza
(https://www.nature.com/articles/s41598-020-74486-y).
I più coscienziosi dovranno pretendere trasparenza interna nei
meccanismi di funzionamento degli algoritmi utilizzati, proprietari o
meno, e imporre trasparenza esterna, esponendo al cliente i parametri
utilizzati a fronte di una decisione aziendale.
Inoltre sarebbe compito di tutti impegnarsi affinché le persone
aumentino il loro livello di consapevolezza rispetto ai benefici e ai
rischi della tecnologia, in modo da essere in grado, di volta in volta, di
equilibrarli, secondo le proprie convenienze. Non è un compito facile
perché spesso i vantaggi delle nuove tecnologie oscurano i possibili
rischi derivanti dal loro uso.
Il futuro del marketing
Alla fine di questa disamina si potrebbe rimanere un po’ intontiti
dalle sfide che attendono gli uomini e le donne di marketing. Ho
provato a sistematizzare in una cornice concettuale che ho chiamato
“marketing aumentato” i movimenti tellurici che stanno sollecitando
una disciplina non recentissima, ma che sta diventando sempre più
centrale nella vita delle aziende e dei consumatori.
Difficile descrivere con certezza come sarà il marketing del futuro,
ma alcuni fenomeni sembrano inarrestabili. La tecnologia continuerà a
contaminare le nostre esistenze e noi continueremo a produrre
innumerevoli dati comportamentali. E questi sono proprio i due pilastri
del nuovo modo di intendere il marketing che ho provato a raccontare.
Ma a cambiare potrebbe anche essere il modello di interazione tra
azienda e consumatore. Il primo modello “human to human” era basato
sul contatto fisico tra venditore e compratore, nel mercato, nel negozio,
attraverso discussioni di persona o mediate da lettere e telefonate. Il
secondo modello è quello “human to machine”, nel quale degli umani
interagiscono con macchine. I compratori sbirciano i prodotti presenti
nei siti e-commerce, verificano la convenienza con apposite app,
chiedono informazioni ad assistenti digitali, acquistano attraverso uno
smartphone. I venditori usano software per intercettare la domanda,
offrire esperienze personalizzate, ottimizzare i rapporti con i fornitori.
Il terzo modello sarà del tipo “machine to machine”, nel quale il
consumatore aumentato e il marketer aumentato useranno agenti
software per ottimizzare la compravendita di prodotti e servizi. I
compratori delegheranno alcuni acquisti al proprio assistente
intelligente, che proverà a spuntare il prezzo migliore dopo aver
negoziato con gli agenti software programmati dai venditori.
L’interazione diventerà computazionale, sempre più basata su
tecnologia e dati.

Figura 6.10 Evoluzione delle interazioni tra venditori e compratori.

In definitiva le capacità cognitive delle persone saranno sempre più


potenziate da innovazioni hardware e software e il viaggio del
consumatore sarà percorso con nuovi mezzi (device abilitanti) e
incrocerà nuove strade (realtà estese). Anche se secondo modalità
inedite, il compito del marketer rimarrà sempre quello di riuscire a
intercettare i bisogni delle persone e di soddisfarli, offrendo soluzioni
in grado di far prosperare la propria azienda. Per farlo, però, dovrà
riuscire a cambiare il proprio modo di fare marketing, facendo leva su
dati, software e hardware. Non si tratterà solo di imparare a usare
nuovi strumenti, seguendo le regole imposte dai loro produttori, ma di
capire come combinare opportunamente questi nuovi mezzi di
produzione per creare soluzioni generatrici di un vantaggio
competitivo e valore per le persone.
Ciò implicherà l’acquisizione di nuove competenze e l’ampliamento
dei propri orizzonti di pensiero, ma servirà anche coltivare una nuova
sensibilità etica perché il marketing di domani sarà più pervasivo. Le
tecnologie che i consumatori useranno saranno molto più connesse, ai
limiti dell’inscindibile, al corpo e alla mente, vere estensioni dei suoi
sensi. Starà a noi non abusarne.
Abbiamo l’opportunità di salvare una professione che si sta
impigrendo a traino dell’ultima novità dei social media e che rischia di
appiattirsi sull’intrattenimento fine a se stesso, sulla trovata effimera,
sul copy “acchiappalike”.
Colonizzare mondi virtuali con la vecchia mentalità predatoria,
tappezzando i muri del nuovo mondo con cartelloni pubblicitari, ci
condannerà all’irrilevanza.
Urge cambiare il marketing prima che lo faccia la tecnologia. Non
adagiarsi sugli automatismi imposti da sempre nuovi e scintillanti
strumenti di lavoro, ma governarli, imparando a comprenderne il
funzionamento di fondo.
I software martech automatizzeranno molte attività manuali, ma
libereranno anche tempo utile per il pensiero strategico e creativo.
Starà a noi evitare di sprecarlo. Proviamo a trattare la tecnologia come
“sparring partner”, come pungolo per la mente, e non come un
servizievole maggiordomo, che asseconda soltanto il nostro impulso a
farci servire, rimanendo comodamente immobili.
Manifesto per un marketing aumentato
Un po’ per sintetizzare, un po’ per riordinare i pensieri, ho provato a
elencare alcuni imperativi che possono essere utili per indirizzare
l’operato del marketer moderno.
1. L’obiettivo del marketing è ancora soddisfare i bisogni delle
persone, in armonia con lo scopo aziendale. Ma la tecnologia ha
trasformato radicalmente le dinamiche di mercato e i
comportamenti degli attori coinvolti. Al marketing non resta che
cambiare assorbendo l’innovazione o rassegnarsi a un ruolo
ancillare.
2. Il consumatore è aumentato perché, grazie all’uso della
tecnologia, ha ridotto l’asimmetria informativa rispetto
all’azienda ed è diventato più consapevole e sfuggente.
3. L’ecosistema mediale nel quale sono immersi aziende e
consumatori si è arricchito di stimoli che condizionano l’acquisto.
Si sono moltiplicati sia gli spazi che le occasioni di contatto tra
persone e brand.
4. Il brand, scudo simbolico in grado di ridurre l’incertezza dei
mercati e la complessità delle scelte, fa fatica a garantire
unitarietà e coerenza. Le esperienze, le conversazioni e le
aspettative delle persone ne plasmano il senso.
5. Il prodotto come output immutabile del processo produttivo ha
perso significato. Le aziende dovrebbero progettare esperienze di
valore, prodotti aumentati dal contributo degli utilizzatori.
6. Il marketing deve diventare il cuore dell’innovazione aziendale,
generatore di valore, altrimenti è destinato a rimanere una mera
macchina da promozione.
7. Il marketing aumentato non è semplicemente marketing
automation, ma è un marketing potenziato dall’uso strategico di
dati e tecnologie. In altri termini, la tecnologia non deve essere
usata solo come uno strumento per eseguire compiti più
velocemente, ma come una risorsa trasformativa dell’agire del
marketer.
8. Il marketing aumentato è capace di progettare soluzioni per le
persone, ma anche per le macchine e gli spazi di relazione
digitale, nuovi diaframmi tra brand e consumatori;
9. I dati sono un mezzo prezioso per aumentare le capacità del
marketer, ma non devono diventare un’ossessione.
10. L’intelligenza artificiale distruggerà il marketing, ma solo quello
pigro, che rimarrà ancorato a vecchi schemi mentali o che si farà
telecomandare dalla tecnologia. L’intelligenza artificiale
migliorerà il marketing che ne saprà cogliere i benefici.
Appendice
Strumenti

Abbiamo visto che il marketing automatizzato è lo stadio che


precede il marketing aumentato. Si tratta di una fase necessaria allo
sviluppo di una cultura della tecnologia e del dato, caratterizzata
dall’utilizzo esteso di software di supporto all’attività del marketer.
Pertanto, ho pensato che potesse essere opportuno selezionare, dalla
miriade di prodotti martech esistenti sul mercato, gli strumenti più utili
per potenziare il lavoro quotidiano.
Ho dato precedenza alle soluzioni SaaS (Software as a Service)
gratuite o dal prezzo irrisorio, vendute con formula freemium (un
pacchetto base gratuito e funzioni aggiuntive a pagamento), più adatte
ad aziende di piccole e medie dimensioni, evitando di prendere in
esame le soluzioni più ricche e costose di fornitori come Salesforce,
Adobe e Oracle.
Strumenti per la creazione di contenuti

Canva
Canva è uno strumento che permette di creare elementi grafici per
ogni tipo di esigenza: flyer, biglietti da visita, menu, gift card, inviti,
documenti, infografiche, post per i diversi social media. La sua forza è
la semplicità perché il sistema mette a disposizione dei template, molto
ben fatti, dai quali partire per la personalizzazione. Per esempio, quelli
per i social media post rispettano le dimensioni imposte dalle
piattaforme, facilitando il lavoro del marketer che non può contare sul
supporto di un graphic designer.
Insieme ai template vengono forniti milioni di immagini, icone,
elementi grafici e centinaia di caratteri tipografici. Il software permette
anche di modificare le foto con filtri predefiniti e strumenti di editing
avanzati.
Nella sua versione gratuita, Canva è perfettamente funzionante, ma
alcune feature sono disponibili solo nei piani a pagamento: la
possibilità di invitare altre persone a collaborare in tempo reale,
l’implementazione di workflow di approvazione, l’uso degli elementi
della “visual identity” aziendale e un incremento delle risorse grafiche
disponibili.
Altri software simili sono: Adobe Spark, Stencil, Fotojet, Crello.

Magisto
I video sono uno dei contenuti più stimolati del Web, ma la loro
realizzazione richiede professionisti specifici e tanto tempo. Magisto è
un’applicazione pensata per chi ha bisogno di velocizzare
quest’operazione. L’utente può partire da centinaia di template a
seconda della tipologia di risultato che vuole ottenere: video per una
determinata occasione, per i post dei social media, per presentazioni
aziendali. Il sistema parte dal caricamento di filmati grezzi e li analizza
grazie a tecniche di intelligenza artificiale. L’analisi visiva serve a
determinare quali parti sono le più interessanti (valutando i tempi di
permanenza sull’inquadratura e i movimenti di camera) e quali
necessitano di correzioni (stabilizzazione, correzione di colore).
L’analisi audio individua le parti parlate e la musica per capire le fasi
del racconto. Infine il software, anche sulla base di altre informazioni
che l’utente fornirà come lo stile di editing desiderato, monterà
automaticamente il filmato.
Altri software simili sono: Animoto, Biteable, Lumen5, Moovly,
PowToon, Vyond e Invideo.

Descript
Descript è un software strabiliante che facilita il lavoro di
montaggio di contenuti audio, come i podcast, e video. Lo strumento
permette di registrare nativamente le attività svolte al computer (screen
recording), le conferenze fatte con altri software e i podcast. L’uso di
tecniche di “speech to text” permette di catturare la voce e di
trasformarla in testo, in tempo reale. A questo punto, l’utente può
effettuare un montaggio rapido, semplicemente cancellando le parole
dal testo. Come per magia, esse scompariranno anche dalla
registrazione, audio o video che sia. Il sistema riconosce anche gli
intercalari fastidiosi che spesso puntellano i discorsi a braccio, come
“uh” e “uhm”, e dà la possibilità di cancellarli automaticamente,
rendendo tutto più fluido.
Le trascrizioni possono essere anche pubblicate sul Web e, da esse, è
possibile creare piccoli video con stralci del contenuto, da incorporare
sui social media (“Audiograms”).
Nella versione a pagamento, Descript permette anche il cosiddetto
Overdub, ossia la creazione di un modello “text to speech” della
propria voce. In parole povere, il sistema clona la voce dell’utente e la
usa per correggere, all’occorrenza, il contenuto audio. Per esempio, se
durante la registrazione si è sbagliato un termine, basta cancellarlo
nella trascrizione, sostituirlo con quello esatto e il sistema lo leggerà
con la voce dell’utente.

Figura A.1 Descript.

Carrd
Carrd è un servizio gratuito, dedicato a chi ha non ha nel proprio
team un Web designer e ha bisogno di creare landing page moderne,
responsive e d’impatto. Direttamente dall’interfaccia Web, l’utente può
immediatamente partire con la personalizzazione dei template messi a
disposizione, suddivisi tra quelli pensati per mostrare il profilo di una
persona, quelli per esporre un portfolio o landing page per raccogliere
lead commerciali. Basta semplicemente cliccare su ogni elemento del
wireframe per modificarlo. La versione a pagamento permette di
pubblicare la pagina usando un dominio specifico, aggiungere il
tracciamento di Google Analytics e altre integrazioni.
Tra i servizi simili vi sono Instapage, Unbounce, Leadpage.
Se invece si vogliono realizzare siti Web più complessi, sempre
partendo da modelli predefiniti, si possono prendere in considerazione
servizi come Wix, Webflow e Squarespace. Tra i CMS non si può non
citare Wordpress ma, per sfruttarlo al meglio, bisogna farsi aiutare da
qualche sviluppatore che sappia come personalizzare i template di
partenza, altrimenti il rischio è di clonare siti già esistenti.

Typeform
Typeform è la soluzione per chi ha bisogno di realizzare, senza
sforzo, dei moduli per il proprio sito Web. Il software fornisce i
template più svariati da personalizzare col proprio stile: per i contatti, i
feedback, la registrazione a un evento, l’e-commerce. Sempre partendo
da modelli predefiniti, il servizio permette anche di creare velocemente
dei quiz per stimolare i propri clienti e dei sondaggi online per
raccogliere opinioni interne o esterne all’azienda. Tra i punti di forza
vi è l’integrazione con una moltitudine di prodotti di marketing
automation, collaborazione, produttività. Altri prodotti simili sono:
JotForm, Formsite, Wufoo, Formstack, SurveyMonkey.
Strumenti per l’automazione di campagne e attività

Mailchimp
Mailchimp nasce con l’obiettivo di aiutare i professionisti e le
piccole imprese a sfruttare la potenza dell’email marketing. Il software
semplifica la creazione di DEM e newsletter accattivanti, pensate per
stimolare l’interesse di prospect o clienti. Funge anche da database per
la raccolta e la segmentazione dei contatti. Una volta inviate le lettere
digitali, il sistema permette di comprendere le performance
dell’attività, attraverso una serie di metriche molto granulari. Il tool
prevede la gestione di A/B test e di invii automatici, secondo specifici
“trigger” condizionali, definiti dall’utente o basati sul comportamento
dei destinatari.
Nel tempo il software si è evoluto ed è diventato una suite di
marketing automation, potenziata dall’uso di tecniche di intelligenza
artificiale. Un assistente intelligente consiglia le azioni migliorative da
implementare, sulla base dei risultati delle campagne. Inoltre genera
automaticamente delle creatività per contenuti da usare sui social
media o all’interno delle email. Le sue capacità predittive vengono
applicate alla comprensione dei dati demografici delle audience.
Il sistema permette anche di progettare visivamente, con l’uso di
elementi grafici, il percorso che il consumatore dovrebbe fare per
arrivare alla conversione.

Active Campaign
Active Campaign è una soluzione di marketing automation che offre
tutti gli strumenti utili per raggiungere i contatti attraverso qualunque
canale (email, social, sms, chat, Web). L’obiettivo dichiarato è
l’ottimizzazione della customer experience, attraverso una serie di
funzioni che semplificano la progettazione dei flussi di campagna. Un
editor visivo permette, anche ai neofiti, di disegnare i workflow,
scegliendo i trigger, le azioni e le condizioni (si può partire da
centinaia di “ricette” già preimpostate).
Tra le tante capacità del software: la segmentazione avanzata dei
contatti, in modo da raggrupparli per invii specifici, il lead e il contact
scoring, per individuare i prospect prossimi all’acquisto,
l’impostazione di obiettivi di marketing che, una volta raggiunti,
possono modificare il flusso dell’automazione.
Il sistema sfrutta anche alcune tecniche di machine learning, che
permettono di spedire email quando è più probabile che vengano
aperte e modificare automaticamente i contenuti a seconda del
destinatario.
Active Campaign offre anche funzioni di sales automation: un vero
e proprio CRM permette alla forza vendite di gestire la pipeline, curare
i propri contatti, gestire i task e sfruttare la funzione di “win
probability”, che stima la probabilità di chiudere un contratto.

Hubspot
Hubspot è l’azienda che ha contribuito a rendere popolare il
concetto di inbound marketing, ossia di tutte quelle attività non
invasive che servono ad attirare visitatori e convertirli in clienti. Allo
stesso tempo è anche l’organizzazione che è arrivata sul mercato
proponendo un software di supporto all’inbound marketing. Col tempo
si è trasformata in una “full CRM platform”: il suo fulcro è la gestione
dei contatti aziendali, attorno ai quali si sviluppano diverse
componenti software, dette hub. Queste possono essere acquistate
singolarmente, in funzione delle esigenze dell’azienda.
Il Marketing Hub racchiude tutte le funzioni di marketing e
automazione che ci si potrebbe aspettare: la gestione delle email, dei
moduli, delle landing page, delle campagne di lead generation. Mette a
disposizione anche strumenti per la SEO, la creazione di blog e la
programmazione dei contenuti sui social media.

Figura A.2 Hubspot.

Il Sales Hub è pensato per rafforzare le capacità della forza vendite.


Permette di tracciare tutte le comunicazioni con i contatti, di
organizzarli opportunamente, di programmare sequenze di email a
distanza di tempo, di gestire pipeline multiple e attivare un “predictive
lead scoring”.
Il Service Hub è dedicato agli operatori del customer care. Con esso
si possono tenere sotto controllo tutte le richieste in arrivo dall’esterno
e gestire ordinatamente le pipeline dei ticket. È possibile anche
progettare, con semplicità, un chatbot per automatizzare le risposte di
primo livello. Un altro strumento personalizzabile è la knowledge base
per raccogliere le domande più frequenti. Inoltre, lo strumento di
“customer feedback” permette di erogare survey per comprendere il
grado di soddisfazione dei clienti (C-SAT), l’efficacia del supporto
(CES), il livello di fedeltà (NPS).
Il CMS Hub raccoglie una serie di servizi per le aziende che
vogliono creare facilmente un sito o un blog e ottimizzare la strategia
di contenuti e gli aspetti SEO.

Zapier
Zapier (https://zapier.com/) è uno strumento di workflow automation.
Permette di connettere tra loro diverse applicazioni in modo da creare
un flusso di lavoro automatizzato. Senza mettere mano al codice, e
senza ricorrere al lavoro di uno sviluppatore, è possibile far lavorare
tra loro oltre 2.000 app pensate per eseguire un solo compito. Lo si fa
creando uno Zap, ossia una ricetta che dice al sistema le app da
collegare e quali azioni far eseguire loro nel momento in cui accade
qualcosa (trigger). In questo modo si possono automatizzare noiose
attività come l’inserimento manuale di dati o il raggruppamento di
informazioni da più fonti in un unico posto. Per esempio, legando i
propri account aziendali di Instagram e Twitter, si può fare in modo
che ogni foto pubblicata venga twittata automaticamente. Oppure
collegando Facebook alla posta si potrebbe ricevere un’email ogni
volta che un contatto compila il modulo di Facebook Lead Ads.
Altri prodotti simili sono: IFTTT, Automate.io, Parabola e Huginn.

Asana
Asana è un prodotto finalizzato al task & project management, di
supporto anche a chi volesse implementare la metodologia agile.
Molto utile per organizzare e gestire trasparentemente le attività del
proprio gruppo di lavoro. Ogni progetto può essere organizzato in
compiti e sottocompiti, per poi essere visualizzato in modalità lista,
Kanban board o timeline, per individuare anche le interdipendenze tra i
lavori. In questo modo risulta immediato capire se il progetto sta
avanzando nei tempi previsti e se i carichi di lavoro tra i membri del
team sono bilanciati.
Con questo strumento, il remote working risulta molto più agevole,
perché i compiti e gli obiettivi di tutti sono chiari e documentati.
Inoltre è possibile collaborare a distanza, dando feedback e
approvando i materiali prodotti.
Asana contiene anche funzioni di automazione: per esempio, si
possono creare delle regole in base alle quali assegnare i nuovi compiti
direttamente al lavoratore più libero, oppure assegnare un task non
appena il lavoro precedente è stato completato. O ancora, se un
progetto ritarda si può far partire una notifica agli stakeholder
interessati.
Il software mette a disposizione una serie di template per
velocizzare la creazione di progetti nuovi. Infine, permette
l’integrazione con diversi tool, come Gmail, Slack, Dropbox,
Salesforce e Tableau.
Altri software simili sono: Monday.com, Jira, Trello, Basecamp e
Airtable.
Figura A.3 Asana.
Strumenti per l’analisi dei dati

Tableau
Tableau è una piattaforma per la business intelligence, ossia la
combinazione di analisi e visualizzazione di dati, al fine di poter
prendere decisioni aziendali data-driven. In passato la gestione dei dati
era esclusivo dominio del reparto IT, oggi, con strumenti come
Tableau, anche i marketer possono acquisire dati da diverse fonti e,
attraverso la funzione drag & drop, organizzarli in cruscotti utili,
scegliendo tra decine di grafici. Tutte le dashboard create sono
interattive e possono essere condivise all’interno dell’azienda o
all’esterno. Le soluzioni di business intelligence non sono nuove, ma
quelle di ultima generazione permettono di usare i dati per far
emergere storie, oltre che per comprenderne il valore.
Tra gli strumenti simili vi sono: Looker, acquisito da Google, Domo,
Databox, Chartio, Grow e Klipfolio.

Obviously AI
Obviously AI è uno strumento che permette di utilizzare tecniche di
machine learning senza sporcarsi le mani con il codice o senza
aspettare l’intervento di un data scientist. L’utente si limita a caricare i
suoi dataset da fogli CSV o a integrare quelli provenienti da database o
CRM (PostgreSQL, MySQL, BigQuery, Redshift, Hubspot,
Salesforce). Poi, come se usasse un motore di ricerca, può interrogare
l’“oracolo” usando il linguaggio naturale. Il sistema comprende la
domanda, intercetta i dati utili, li pulisce e costruisce alcuni algoritmi
di machine learning. Infine, sceglie quello migliore e genera un report
con le previsioni per diversi scenari. Nel marketing può essere utile per
prevedere il churn rate, il customer lifetime value, i comportamenti dei
clienti e creare modelli di attribuzione multicanale personalizzati.
Tra i tool simili vi sono Intersect Labs e Metranx, mentre Lobe e
Teachable Machine sono più adatti per addestrare modelli di machine
learning per il riconoscimento di oggetti, persone, immagini, suoni.

Figura A.4 Obviously AI.


Bibliografia e Sitografia
Bibliografia
Accoto C., Il mondo dato, Egea, 2017.
Accoto C., “Il business di imprese e piattaforme tra archivi e
oracoli”, Harvard Business Review, dicembre 2018.>
Accoto, C. Il mondo ex machina, Egea, 2019.
Accoto C., Sensor e Algorithm society: le macchine decideranno
per noi?, Changes #5, 2020.
Anderson P. , Tushman M., “Technological discontinuities and
dominant designs: a cyclical model of technological change”,
Administrative Science Quarterly 35, 1990.
Arvidsson A., “The Ethical Economy of Customer
Coproduction”, Journal of Macromarketing, 2008.
Bharadwaj A., El Sawy O. A., Pavlou P. A., Venkatraman N.,
“Digital business strategy: toward a next generation of insights”,
MIS Quarterly, 2013.
Boccia Artieri G., Stati di connessione. Pubblici, cittadini e
consumatori nella (Social) Network Society, FrancoAngeli, 2012.
Boccia Artieri G., Gemini L., Pasquali F., Carlo S., Farci M.,
Pedroni, M., Fenomenologia dei Social Network. Presenza,
relazioni e consumi mediali degli italiani online, Guerini
Scientifica, 2017.
Brinkler S., Hacking Marketing, Apogeo, 2016.
Castells M., The Rise of the Network Society, The Information
Age: Economy, Society and Culture, Vol. I, Cambridge, MA;
Oxford, UK, Blackwell: 1996.
Celli F., Data Science Marketing, Maggioli Editore, 2020.
Cennamo D., Fornaro C., Professione Brand Reporter, Hoepli,
2017.
Chandler Jr. A. D., “The computer industry - The first half
century” in Yoffie D. B., Competing in the age of digital
convergence, Boston, Harvard Business School Press, 1997.
Chiriatti M., #Humanless, Hoepli, 2019.
Cosenza V., La società dei dati, 40K, 2012.
Cosenza V., Social Media ROI, Apogeo, 2014.
Cusumano M. A., Yoffe D. B., Competere al tempo di Internet,
Etas Libri, 1999.
Cusumano M. A., The Business of Software: What Every
Manager, Programmer, and Entrepreneur Must Know to Thrive
and Survive in Good Times and Bad, Free Press, 2004.
Cusumano M. A., Gawer A., Yoffie D. B., The business of
platforms: strategy in the age of digital competition, innovation,
and power, Harper Business, 2019.
D’Aveni R., Hypercompetition, Simon & Schuster, 1994.
Davenport T. H., Barth P., Bean R., “How’Big Data’ Is
Different”, MIT Sload Management Review, 2012,
https://www.hbs.edu/faculty/Publication%20Files/SMR-How-Big-Data-Is-

.
Different_782ad61f-8e5f-4b1e-b79f-83f33c903455.pdf

Floridi L., La quarta rivoluzione. Come l’infosfera sta


trasformando il mondo, Raffaello Cortina Editore, 2017.
Gawer A. R., Cusumano, M. A. Platform Leadership: How Intel,
Microsoft, and Cisco Drive Industry Innovation, Harvard
Business School Press, 2002.
Gentsch P., AI in Marketing, Sales and Service: How Marketers
without a Data Science Degree can use AI, Big Data and Bots,
Palgrave Macmillan, 2018.
Gilchrist A., Industry 4.0: The Industrial Internet of Things,
Apress, 2016.
Godin S., Permission Marketing: Turning Strangers into Friends
and Friends into Customers, Simon & Schuster, 1999.
Greenwold S., Spatial Computing, MIT graduate thesis, 2003.
Guzman A. L., Human-Machine Communication: Rethinking
Communication, Technology, and Ourselves, Peter Lang
Publishing, Incorporated, 2018.
Hurwitz J., Morris H., Sidner C., Kirsch D., Augmented
Intelligence, CRC Press, 2020.
Iansiti M., Levien R., The Keystone Advantage: What the New
Dynamics of Business Ecosystems Mean for Strategy, Innovation
and Sustainability, Harvard Business School Press, 2004.
Jenkins H., Cultura convergente, Apogeo, 2007.
Kelly K., Quello che vuole la tecnologia, Codice Edizioni, 2000.
Kelly K., The Inevitable, Viking Pr, 2016.
Kim W. C., Mauborgne R., “Knowing a winning business idea
when you see one”, Harvard Business Review (settembre-
ottobre), 2000.
Kohavi R., Thomke S., “The Suprising Power of Online
Experiments”, Harvard Business Review, 2017,
https://hbr.org/2017/09/the-surprising-power-of-online-experiments.

Kotler et al., Marketing Management, Pearson, 2014.


Kotler P., Kartajaya H., Setiawan I., Marketing 4.0: Dal
tradizionale al digitale, Hoepli, 2017.
Kurtzweil R., La singolarità è vicina, Apogeo 2000.
Lusch R. F., Varg S. L., The Service-Dominant Logic of
Marketing: Dialog, Debate, and Directions, Routledge, 2006.
Mandelli A., Big Data Marketing. Creare valore nella platform
economy con dati, intelligenza artificiale e IoT, SDA Bocconi,
2017.
Mandelli A., Intelligenza artificiale e marketing. Agenti invisibili,
esperienza, valore e business, Egea, 2018.
Manovich L., Software Takes Command, Bloomsbury USA
Academic, 2013.
Marmo R., Algoritmi per l’Intelligenza artificiale, Hoepli, 2020.
Mauro G., Valigi N., Zero to AI, Manning Pubns Co, 2020.
Moore G., Crossing the chasm: Marketing and Selling High-tech
Products to Mainstream Customers, 1991.
Norman D. A., The Invisible Computer, MIT Press, 1998.
Patel L., Lean AI, O’Reilly Media, 2020.
Pellegrino B., Zingales L., Diagnosis the Italian desease, 2017,
https://faculty.chicagobooth.edu/luigi.zingales/papers/research/Diagnosin

g.pdf.
Peretti P., Marketing digitale, Apogeo, 2011.
Porter M., Competitive Advantage: Creating and Sustaining
Superior Performance, 1985.
Posner E. A., Weyl E. G., Radical Markets: Uprooting Capitalism
and Democracy for a Just Society, Princeton University Press,
2018.
Prahalad C. K., Ramaswamy V., Il futuro della competizione, Co-
creare valore eccezionale con i clienti, Il Sole 24 Ore, 2004.
Prandelli E., Verona G., Human Digital Enterprise. Creare e co-
creare valore in un contesto omni-data, Egea Editore, 2020.
Ries E., The Lean Startup, Currency, 2011.
Rogers E., Diffusion of innovations, Free Press of Glencoe, 1962.
Schilling M. A., Gestione dell’innovazione, McGraw-Hill, 2005.
Schivardi F., Schmitz T., The IT Revolution and Southern
Europe’s Two Lost Decades, 2019,
http://www.eief.it/eief/images/Schivardi_Schmitz_JEEA_2019.pdf.
Scoble R., Cronin I., The Infinite Retina, Packt Publishing, 2020.
Scoble R., Israel S., Naked Conversations, John Wiley & Sons
Inc, 2006.
Surowiecki J., The Wisdom of Crowds: Why the Many Are
Smarter than the Few and How Collective Wisdom Shapes
Business, Economies, Societies, and Nations, Doubleday & Co.,
2004.
Utterback J. M., Abernathy W. J., “A dynamic model of process
and product innovation”, Omega, the international journal of
management science 3, 1975.
Utteback J. M., Suarez F. F., “Innovation, competition and
industry structure”, Research Policy 22, 1993.
Venier F., Trasformazione digitale e capacità organizzativa: le
aziende italiane e la sfida del cambiamento, EUT Edizioni
Università di Trieste, 2017.
Westerman G., Bonnet D., McAfee A., Leading digital: turning
technology into business transformation, Harvard Business
Review Press, 2014.
Zarantonello G., Marketing Technologist: trasformare l’azienda
con il cliente al centro, Franco Angeli, 2020.
Zwick D., Dholakia N., “Consumer Subjectivity in the Age of
Internet: The Radical Concept of Marketing Control Through
Customer Relationship Management”, Information and
Organization, 14(3): 211–236, 2004a.
Sitografia
Andreessen Horowitz: https://a16z.com/
ARtillery Intelligence: https://artillry.co/intelligence/
Benedict Evans: https://www.ben-evans.com/essays
Chief Martech: https://chiefmartec.com/
Cosimo Accoto: https://cosimoaccoto.com/
eMarketer: https://www.emarketer.com/
Gartner Blog: https://www.gartner.com/en/blog
Google AI: https://blog.google/technology/ai/
Harvard Business Review: https://hbr.org/
Hubspot Blog: https://blog.hubspot.com/marketing
Internet Manager Blog: https://internetmanagerblog.com/
Marketing Land: https://marketingland.com/
Martech Advisor: https://www.martechadvisor.com/
Martech Vibe: https://www.martechvibe.com/
Martech Zone: https://martech.zone/
Mathew Sweezey: https://mathewsweezey.com/category/future-of-
marketing-blog/

Matthew Ball: https://www.matthewball.vc/


MiniMarketing: https://www.minimarketing.it/
MIT Technology Review: https://www.technologyreview.com/
NewZoo: https://newzoo.com/insights/articles/
Stratechery: https://stratechery.com/
The Technium: https://kk.org/thetechnium/
Think with Google: https://www.thinkwithgoogle.com/
Indice
Introduzione
Ringraziamenti
Capitolo 1 - La tecnologia
Le fasi della tecnologia in azienda
L’impatto delle tecnologie digitali e di rete in azienda
La tecnologia entra nelle case e nelle tasche
L’impatto della tecnologia su società e persone
Capitolo 2 - Le traiettorie tecnologiche
La curva a S
L’evoluzione tecnologica
Le forze della tecnologia
Il software si è mangiato il mondo
Le traiettorie del prossimo paradigma tecnologico
Capitolo 3 - Il marketing
Evoluzione del concetto di marketing
Evoluzione del digital marketing
Evoluzione dei modelli decisionali
Le sfide del marketing
Il ruolo centrale del marketing
Il punto di vista del CMO
Capitolo 4 - Il marketing aumentato (parte I)
Marketing aumentato: una definizione
Marketing per le macchine
L’intelligenza artificiale al servizio del marketing
Capitolo 5 - Il marketing aumentato (parte II)
L’automazione delle attività di marketing
Il panorama martech
Le fasi di adozione del martech in azienda
Martech: make or buy?
L’evoluzione dell’offerta martech
Capitolo 6 - Gestire il marketing aumentato
Organizzazione del marketing
I processi di marketing aumentato
Agile marketing
Le persone
Etica
Il futuro del marketing
Manifesto per un marketing aumentato
Appendice - Strumenti
Strumenti per la creazione di contenuti
Strumenti per l’automazione di campagne e attività
Strumenti per l’analisi dei dati
Bibliografia e Sitografia
Bibliografia
Sitografia

Potrebbero piacerti anche