Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Vincenzo Cosenza
© Apogeo - IF - Idee editoriali Feltrinelli s.r.l.
Socio Unico Giangiacomo Feltrinelli Editore s.r.l.
Nomi e marchi citati nel testo sono generalmente depositati o registrati dalle
rispettive case produttrici.
Seguici su Twitter
L’impatto interno
Oggi chiunque lavori in un’azienda ha chiaro come i software
permettano di ottimizzare i processi interni: velocizzare l’accesso alle
informazioni o il compimento di attività ripetitive e agevolare la
comunicazione e la condivisione di risorse utili tra colleghi e partner
per espletare un compito, anche in maniera collaborativa. Ciò ha
migliorato il modo di lavorare, singolarmente e in gruppi, in presenza e
a distanza, e ha esteso le possibilità di comprensione e risoluzione dei
problemi.
In tutti i reparti, ormai, hardware e software sorreggono e
fluidificano, velocizzano e ottimizzano i processi di lavoro, dalla
produzione alle vendite, dall’amministrazione alle risorse umane. A
quello che succede nel marketing dedicherò un intero capitolo, qui è
interessante accennare al potenziale impatto a livello sistemico.
Per descriverlo si stanno utilizzando due buzzword molto abusate
come “Industria 4.0” e “Digital Transformation”.
Il termine “Industria 4.0” prova a descrivere il fenomeno della
digitalizzazione, differenziandolo dalla terza rivoluzione industriale,
caratterizzata dall’automazione di mezzi e processi.
Nell’Industria 4.0 la digitalizzazione pervade tutta l’organizzazione,
uomini, macchine e processi. Fa coesistere il mondo fisico e quello
virtuale, modellando un ecosistema totalmente digitale (Gilchrist A.,
Industry 4.0: The Industrial Internet of Things, Apress, 2016).
Sono i dati e le informazioni, che fluiscono in tempo reale, a
garantire soluzioni e scelte produttive più efficaci ed efficienti.
Uno degli scopi principali che la quarta rivoluzione industriale si
prefigge è quello di creare sistemi completamente integrati
verticalmente, in cui tutte le unità di un’impresa, da quella di ricerca e
sviluppo a quelle di produzione, marketing e servizio post vendita,
siano legate tra loro e interconnesse. Tale integrazione riguarda anche i
sistemi orizzontali, quindi la supply chain, coinvolgendo altre imprese,
fornitori e clienti attraverso la creazione di reti di comunicazione per lo
scambio d’informazioni e attività di collaborazione.
Il concetto di “digital transformation” non ha una definizione unica
e universalmente accettata, ma generalmente viene utilizzato per
definire un fenomeno nel quale la tecnologia non è meramente di
supporto all’agire aziendale, ma offre la possibilità di una
trasformazione profonda di processi, strutture, competenze, in grado di
abilitare nuovi tipi di innovazione. La digital transformation dovrebbe
rendere la disruption un evento gestito, non inatteso. Dunque essa è
condizionata dallo stile di leadership del vertice aziendale, che non
dovrebbe puntare al dirigismo, ma a un empowerment dei dipendenti,
finalizzato alla costruzione di una “digital readiness” diffusa
(Westerman G., Bonnet D., McAfee A., Leading digital: turning
technology into business transformation, Harvard Business Review
Press, 2014).
Per Venier, la digital transformation è “un processo di cambiamento
dei principali fattori di business, deciso e gestito consapevolmente
dalla direzione aziendale, determinato dall’impiego di nuove
tecnologie e servizi digitali e dallo sviluppo di organizational
capability digitale” (Venier F., Trasformazione digitale e capacità
organizzativa: le aziende italiane e la sfida del cambiamento, EUT
Edizioni Università Di Trieste, 2017). Dunque si tratta di un
cambiamento che interessa l’intera azienda (il suo modello operativo, i
processi aziendali, le relazioni tra i dipendenti, il modello di business),
frutto di una strategia voluta e guidata dall’alto.
Ma il cambiamento digitale non è qualcosa di casuale o di
deterministico, che accade solo perché si sceglie di adottare
determinate tecnologie. Al contrario, è un processo che deve essere
progettato, guidato, monitorato, altrimenti non riuscirà a pervadere
tutta l’organizzazione. Ecco perché sono importanti le capacità
organizzative: la capacità di analisi del contesto tecnologico, di
progettazione organizzativa, di implementazione del cambiamento
basato sulla tecnologia.
La tecnologia offre la possibilità di andare oltre la rigida
progettazione dell’organizzazione aziendale, ma richiede un
allineamento dinamico delle variabili organizzative rispetto ai
mutevoli fabbisogni dell’impresa.
Ma c’è una domanda che serpeggia quando si parla dell’impatto
delle tecnologie in un’azienda e riguarda l’eventuale incremento della
produttività che determinano. La risposta non è univoca. Quel che è
certo è che l’investimento in tecnologia non genera automaticamente
un incremento della produttività.
Come dimostrano alcune ricerche quantitative, per realizzare il
pieno impatto delle tecnologie digitali c’è bisogno non solo di un
investimento in “digital skills”, ma di una cultura manageriale
dell’innovazione (Schivardi F., Schmitz T., The IT Revolution and
Southern Europe’s Two Lost Decades, 2019,
http://www.eief.it/eief/images/Schivardi_Schmitz_JEEA_2019.pdf). Si tratta di
L’impatto esterno
L’impatto più dirompente è quello che le tecnologie digitali e di rete
possono avere sul modo di fare business delle imprese moderne, con
ciò comprendendo sia i modi di stare sul mercato che i modelli di
business. Il motivo è che esse abilitano l’economia digitale
caratterizzata dalla produzione e distribuzione di beni e servizi che
incorporano informazione e conoscenza.
I flussi informativi prodotti dall’azienda nelle sue molteplici attività
subiscono un’accelerazione causata dalla dematerializzazione. Il
collegamento con fornitori e partner diventa più agevole e meno
costoso. Le informazioni, che nella catena del valore tradizionale erano
funzionali ai processi di trasferimento dei prodotti, diventano esse
stesse generatrici di valore. Ciò, però, crea nuovi processi che vanno
gestiti diversamente. In altre parole, la digitalizzazione ha separato la
funzione logistica e quella informativa, consentendo a quest’ultima di
raggiungere autonomamente persone e aziende senza l’obbligo di
legarsi al flusso fisico della merce (Prandelli E., Verona G., Human
Digital Enterprise. Creare e co-creare valore in un contesto omni-
data, Egea Editore, 2020).
Di conseguenza l’opportunità di creare, gestire e trasferire
informazioni fa emergere la necessità di relazioni sempre più
collaborative tra imprese anche concorrenti, che cooperano per
acquisire e mantenere una forte posizione competitiva attraverso un
continuo processo di apprendimento, condivisione e sviluppo di
conoscenza ed esperienza Si parla a tal proposito di “coopetition” in
contrapposizione alla “competition” e di un modello “value network”
contrapposto a quello di “value chain” di Porter (Porter M.,
Competitive Advantage: Creating and Sustaining Superior
Performance, 1985) in cui il valore veniva creato attraverso un
processo sequenziale che trasforma gli input in prodotti. Nelle aziende
di rete il valore emerge dalle attività distribuite di tutte le altre aziende
che fanno parte della rete.
Piattaforme
Esistono due metafore prevalenti per descrivere il modello operativo
aziendale al tempo di Internet: piattaforme ed ecosistemi.
Di piattaforma iniziarono a parlare Gawer e Cusumano per
descrivere il pensiero strategico di Bill Gates, che accettò la proposta
di IBM di scrivere il sistema operativo per PC ma tenne per sé la
possibilità di licenziarlo ad altri costruttori di computer (Gawer A. R.,
Cusumano M. A., Platform Leadership: How Intel, Microsoft, and
Cisco Drive Industry Innovation, Harvard Business School Press,
2002). Il fondatore di Microsoft aveva previsto le potenzialità della
nascente industria del software, con la sua azienda al centro. Poi,
sempre seguendo lo stesso “pensiero di piattaforma”, sviluppò
l’alleanza con Intel che gli garantì il dominio del mercato consumer
per decenni.
Per Gates “siamo di fronte a una piattaforma quando il valore
economico di chi la usa eccede il valore della compagnia che l’ha
creata”.
Un’azienda piattaforma è quella che riesce a connettere individui e
organizzazioni per uno scopo comune o per la condivisione di risorse.
A livello di industria, le piattaforme hanno la funzione di far interagire
individui e organizzazioni in modo che possano innovare, sfruttando il
“network effect”, e ottenere valore e utilità crescenti.
Dunque un’azienda può definirsi piattaforma quando realizza le
seguenti tre condizioni.
1. Produce prodotti o servizi mettendo in relazione e generando
valore per due o più attori del mercato che altrimenti non si
sarebbero incontrati o che non avrebbero interagito facilmente:
per esempio, compratori e venditori oppure utenti e sviluppatori
di applicazioni.
2. Riesce a innescare l’effetto rete, che si realizza quando il valore
che ottiene un utente dal prodotto/servizio creato aumenta
esponenzialmente all’ingresso di nuove persone nella rete. Il
classico esempio è quello del fax, la cui utilità aumenta
esponenzialmente al crescere degli utilizzatori di fax.
3. Riesce a risolvere l’annoso problema dell’uovo e della gallina.
Questo tipo di aziende, per avere successo, deve riuscire a
convincere una parte del mercato, facendole intuire il vantaggio
che potrebbe avere nel momento in cui anche la rimanente parte si
convincerà della bontà dell’offerta. Per esempio, Uber per
prosperare ha dovuto coinvolgere un numero sufficiente di autisti
per far decollare la sua app dedicata ai passeggeri, ma
contemporaneamente ha dovuto far iscrivere tanti passeggeri con
la promessa che presto ci sarebbe stato un numero sufficiente di
autisti tale da rendere utile l’app.
Le piattaforme possono essere classificate in due tipologie:
transaction platform e innovation platform (Cusumano M. A., Gawer
A., Yoffie D. B., The business of platforms: strategy in the age of
digital competition, innovation, and power, Harper Business, 2019).
Le prime sono sostanzialmente degli intermediari (definiti anche
online marketplace) per scambi di prodotti, servizi e informazioni tra
le parti coinvolte. Più partecipanti entrano nel mercato, più cresce
l’utilità per tutti. Queste piattaforme creano valore abilitando scambi
che sarebbero stati difficili senza di esse. Catturano valore attraverso
forme di pubblicità o incamerando una percentuale sulla transazione
avvenuta (transaction fee) o impiegando forme miste. Pinterest ha un
modello di business basato sul primo metodo, in cui pagano solo gli
inserzionisti pubblicitari ma non gli utenti (che, si potrebbe
argomentare, pagano con la loro attenzione). Booking, invece, chiede
una percentuale del valore della transazione al proprietario
dell’albergo. Etsy chiede ai venditori di pagare una piccola quota per
esporre i propri prodotti e poi anche una percentuale sul venduto.
Le seconde creano una base tecnologica fatta di “building blocks”
su cui altre aziende sviluppano innovazioni complementari. Al
crescere del numero e del valore di tali innovazioni, cresce l’attrattività
della piattaforma per altri attori. Queste piattaforme tipicamente danno
e catturano valore vendendo o affittando un prodotto/servizio digitale
come nei business tradizionali. Se sono ad accesso gratuito, possono
monetizzare vendendo pubblicità o servizi ancillari. Pensiamo ai
sistemi operativi per smartphone o agli applicativi enterprise che
consentono a sviluppatori terzi di creare plugin che hanno lo scopo di
estendere l’utilità dell’app ospitante. Salesforce, software per il CRM e
marketing automation, ospita oltre 5.000 plugin nel suo AppExchange.
Ma esistono anche compagnie ibride come Apple, Google,
Microsoft, Salesforce, Facebook, Tencent, Amazon che hanno aspetti
di entrambe le tipologie di piattaforma e magari anche aspetti tipici di
un’impresa tradizionale. Apple rimane tradizionale nel suo business
dei portatili, ma l’App Store è una “transaction platform” e iOS è una
“innovation platform”.
Si può dire che il modello piattaforma sia garanzia di successo in
un’economia digitale? No, perché non tutte le aziende riescono a
sfruttare l’effetto rete e a soddisfare i bisogni di tutti gli attori del
mercato che si vuole creare. Ma quelle che ce la fanno riescono a
raggiungere lo stesso livello di ricavi di aziende concorrenti non
piattaforma, ma con la metà dei dipendenti. Inoltre, risultano due volte
più profittevoli, crescono due volte più velocemente e hanno una
valutazione di mercato doppia.
Figura 1.2 Tipologie di aziende-piattaforma in “The Business of Platforms: strategy in
the age of digital competition, innovation and power” (Harper Business, 2019).
Ecosistemi
Alcuni autori hanno preferito utilizzare la metafora ecologista per
definire le nuove catene del valore abilitate dalle tecnologie digitali e
di rete. Negli ecosistemi dell’innovazione tende a svilupparsi la
presenza di un’azienda dominante che funge da specie chiave, in
quanto assume la responsabilità di agevolare e preservare la
collaborazione sulla piattaforma a beneficio dell’intero ecosistema
(Iansiti M., Levien R., The Keystone Advantage: What the New
Dynamics of Business Ecosystems Mean for Strategy, Innovation and
Sustainability, Harvard Business School Press, 2004).
In natura la specie chiave o chiave di volta (keystone species) è una
specie che ha un effetto sull’ecosistema molto più grande rispetto a
quanto potrebbe far immaginare la sua presenza numerica. Infatti, ha il
ruolo fondamentale di preservare la stabilità dell’ambiente. Per
esempio, la lontra di mare, principale predatore dei ricci marini, è
essenziale all’intero ecosistema. In sua assenza, i ricci si
moltiplicherebbero incontrollati distruggendo le alghe che, a loro
volta, ospitano una grande varietà di altre specie viventi.
Per l’azienda chiave la salute dell’ecosistema diventa una priorità di
business: senza di essa non ci sarà crescita né futuro. Il ruolo del leader
è quello di offrire agli attori del sistema una visione del futuro coerente
e opportunità concrete di sviluppo per tutti. Queste opportunità
vengono amplificate quando i membri esistenti riescono a innovare
partendo dai prodotti complementari sviluppati dagli altri, ma anche
quando entrano membri diversi.
Quanto più la piattaforma tecnologica è aperta, tanto più attrae terze
parti in grado di portare novità e innovazioni e dunque di aumentare il
valore complessivo. Ma un’apertura eccessiva e indiscriminata
potrebbe attrarre anche attori poco interessati al bene comune. È
compito dell’azienda chiave individuare il giusto grado di apertura e
definire le condizioni per l’accesso alle risorse della piattaforma. Tali
condizioni, da un punto di vista tecnologico, assumono spesso la forma
di API (Application Programming Interface), ossia interfacce di
programmazione applicativa che permettono alle altre aziende
dell’ecosistema di accedere a specifiche risorse comuni, secondo
determinate regole. Tale accesso è funzionale alla creazione di
applicazioni che andranno a estendere le funzioni della piattaforma.
Altre risorse di confine sono i Software Development Kit (SDK),
software progettati dall’azienda chiave per agevolare lo sviluppo di
software ulteriore, gli Integrated Development Environment (IDE),
programmi creati per supportare gli sviluppatori nella
programmazione, le Decentralized Application (DApp) ossia le
applicazioni che vengono eseguite su un sistema di elaborazione
distribuito (BitTorrent e Tor vengono eseguiti su una rete peer to peer,
mentre altre DApp lavorano su reti blockchain).
Da quello che abbiamo visto finora, la differenza tra piattaforme ed
ecosistemi è molto sottile. Secondo il prof. Marshall Van Alstyne, nelle
piattaforme le parti accettano di giocare secondo delle regole di
governance (imposte da un’azienda chiave o negoziate di comune
accordo). Gli ecosistemi, invece, possono includere anche giocatori
che non accettano di giocare secondo le regole, come i competitor (una
disamina è contenuta nel briefing paper del World Economic Forum
“Platforms and Ecosystems: enabling the digital economy”,
http://www3.weforum.org/docs/WEF_Digital_Platforms_and_Ecosystems_2019.pdf).
2020-2023-gaming-report/ ).
Figura 1.5 Utenti attivi mensili dei social media principali (* stime).
Figura 1.6 Utenti attivi mensili degli instant messenger nel mondo.
L’impatto della tecnologia su società e persone
L’accesso a risorse computazionali esorbitanti sempre a disposizione
e la possibilità di intrattenere relazioni in tempo reale con persone
distanti ha portato a una trasformazione complessiva della società.
Alcuni hanno battezzato tale mutamento come “società
dell’informazione” e “società della conoscenza”, altri hanno
evidenziato gli aspetti filosofici parlando di “infosfera”, altri ancora
hanno rilevato il riequilibrio nei rapporti di forza tra aziende e
consumatori.
Infosfera
Luciano Floridi, professore di filosofia ed etica dell’informazione
all’Università di Oxford, per descrivere l’impatto delle ICT sul mondo
ha parlato di una “quarta rivoluzione” (Floridi L., La quarta
rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello
Cortina Editore, 2017). Nel Cinquecento la prima rivoluzione, quella
Copernicana, spodestò la Terra dal centro dell’universo, lasciando
l’uomo al centro del suo mondo. La seconda rivoluzione, quella
innescata da Darwin nella seconda metà dell’Ottocento, gli tolse quella
centralità, facendo luce sull’origine della specie. L’uomo è l’ultimo
tassello di un processo, ma è l’essere più evoluto, padrone delle
proprie azioni. Questo almeno fino al Novecento, quando Freud
insinua il dubbio che non abbiamo il pieno potere sulla mente, ma
siamo in balia dell’inconscio.
La quarta rivoluzione è quella innescata dal pensiero geniale di Alan
Turing, padre delle macchine programmabili. Prima il termine
“computer” veniva usato per riferirsi a una persona in grado di
“scrivere, ricopiare, comporre lettere, fare calcoli”. Il lavoro del
matematico inglese ci ha privato anche della posizione privilegiata ed
esclusiva che avevamo nel regno del ragionamento logico, della
capacità di processare informazioni e di agire in modo intelligente.
Secondo Floridi, “Al pari delle tre precedenti, la quarta rivoluzione ha
rimosso l’erroneo convincimento della nostra unicità e ci ha offerto gli
strumenti concettuali per ripensare la nostra comprensione di noi
stessi. Stiamo lentamente accettando l’idea, che si fa strada a partire da
Turing, per cui non siamo agenti newtoniani, isolati e unici, come una
sorta di Robinson Crusoe su un’isola. Piuttosto, siamo organismi
informazionali (inforg), reciprocamente connessi e parte di un
ambiente informazionale (l’infosfera), che condividiamo con altri
agenti informazionali, naturali e artificiali, che processano
informazioni in modo logico e autonomo”. Questa infosfera è stata
costruita dall’uomo per migliorare la sua esistenza, ma seguendo i
limiti delle tecnologie, al fine cioè di permettere alle ICT di entrare
nella nostra vita sempre più pervasivamente. Ovviamente ciò produce
delle tensioni e impone scelte, anche etiche, sul governo della
tecnologia.
Un altro neologismo coniato dal filosofo è “onlife”, per descrivere
lo stato non binario (online/offline) in cui ci troviamo, in quanto
organismi informazionali. L’essere connessi è, di fatto, diventato il
nostro stato primario, per cui non ha senso la distinzione tra online e
offline oppure tra reale e virtuale: “Ciò che è reale è informazionale e
ciò che è informazionale è reale.”
Da un punto di vista filosofico, la tecnologia è un “essere-tra”, un
elemento che si frappone tra due elementi. Ci sono tecnologie di primo
ordine, che stanno tra l’uomo e la natura (l’ascia è la tecnologia che si
pone tra uomo e natura), di secondo ordine, che collegano l’uomo con
un’altra tecnologia o manufatto (il cacciavite si pone tra noi e la vite) e
di terzo ordine. In questo caso, abbiamo una tecnologia che mette in
relazione altre due tecnologie, escludendo completamente l’essere
umano. Nelle reti conosciute come “Internet delle cose” abbiamo
sensori e software che comunicano tra loro, compiendo
autonomamente delle azioni.
Lo sviluppo e la diffusione di queste tecnologie di terzo ordine è una
delle caratteristiche di quella che Floridi identifica come “iperstoria”.
Se la scrittura, la produzione di contenuti e la loro conservazione è lo
spartiacque tra le società preistoriche e quelle storiche, la forza delle
ICT produce società iperstoriche. Si tratta di comunità sociali in cui le
tecnologie sono la condizione essenziale per assicurare e promuovere
il benessere sociale, la crescita individuale e lo sviluppo generale. Per
esempio, i paesi più industrializzati, facenti parte del G7, sono società
iperstoriche poiché, in ciascuno di essi, almeno il 70% del prodotto
interno lordo dipende da beni intangibili, fondati sull’uso
dell’informazione, piuttosto che da beni materiali, che sono il prodotto
di processi agricoli o manifatturieri.
Network society
Già il sociologo Manuel Castells, in anticipo sugli altri, aveva capito
che la nostra società è sicuramente una società dell’informazione, ma
in qualche misura lo sono state anche le altre (Castells M., The Rise of
the Network Society, The Information Age: Economy, Society and
Culture, Vol. I, Cambridge, MA; Oxford, UK: Blackwell, 1996). La
differenza sostanziale starebbe nella capacità delle tecnologie di
informazione e comunicazione di organizzare la società tramite reti in
vasta scala. Infatti, anche le vecchie società erano organizzate in reti
sociali, ma interessavano la dimensione privata dei cittadini. Inoltre, le
sfere di potere erano occupate da istituzioni e organizzazioni che
agivano verticalmente. La “network society” di Castells è la struttura
sociale dell’era dell’informazione, dove con il termine “struttura
sociale” si intende quell’insieme di “disposizioni che organizzano gli
umani in rapporti di produzione/consumo, esperienza e potere”. Per
disposizioni egli intende le tecnologie che mediano tali rapporti. Ciò
favorisce le seguenti tendenze principali.
La comunicazione tra persone e tra organizzazioni avviene a
livello locale, ma anche globale, quindi aumenta la scala e il
numero dei messaggi scambiati.
La comunicazione non è più centralizzata, ma diventa
decentralizzata. Si sposta dal centro alle periferie; non più
verticale, ma orizzontale e polidirezionale. Ciò determina uno
spostamento del potere che interessa tutti gli ambiti.
Forme di comunicazione diversa per contenuti, stili e scopi
(alta/bassa, ironica/seriosa, personale/istituzionale) fruite negli
stessi ambiti mediali tendono a confondere i codici simbolici e a
mescolare i significati.
Nel 2007 Castells definirà questa comunicazione basata sulle reti
digitali come “mass self-communication” ossia una comunicazione che
resta di massa (in quanto può teoricamente raggiungere audience
globali), ma è autogenerata per quanto riguarda i contenuti, autodiretta
per quanto riguarda i meccanismi di emissione e autoselezionata per
quanto attiene la ricezione.
Con l’uso di massa degli smartphone, l’essere online non è più
un’eccezione, ma una condizione diffusa. In questo stato di
connessione permanente e di immersione negli ambienti della Rete, le
persone si appropriano dei loro codici e linguaggi, delle estetiche e
delle retoriche. Si fanno media e acquisiscono la consapevolezza di
non essere più oggetto passivo di comunicazione, ma protagonisti
attivi (Boccia Artieri G., Stati di connessione. Pubblici, cittadini e
consumatori nella (Social) Network Society, FrancoAngeli, 2012).
Cambia quindi il modo in cui l’individuo percepisce la propria
posizione, il proprio ruolo nell’ecosistema della comunicazione
(Boccia Artieri G., Gemini L., Pasquali F., Carlo S., Farci M., Pedroni
M., Fenomenologia dei Social Network. Presenza, relazioni e consumi
mediali degli italiani online, Guerini Scientifica, 2017). Eravamo
abituati a essere (e pensarci come) pubblico, consumatori, cittadini.
All’interno delle reti sociali si è portati a commentare, fare domande,
chiamare in causa aziende e politici, organizzare gruppi di pressione e
protesta, ma anche ad autorappresentarsi ossia a mostrarsi nella propria
quotidianità (il privato diventa pubblico) o elaborando ciò che accade
nel proprio mondo, con linguaggi simili a quelli dei mass media, ma in
un ambiente di rete.
Un aspetto interessante è proprio quello che vede le persone
diventare produttori e distributori di contenuti, grazie a software
sempre più semplici e alla potenza amplificativa dei social media.
Produzioni amatoriali, ma non poco sofisticate, che incontrando
pubblici generano interazioni, condivisioni e remix. La cultura dal
basso si contrappone e mescola alla cultura delle corporation
generando una “cultura convergente” per dirla con Jenkins (Jenkins H.,
Cultura convergente, Apogeo, 2007).
Il Cluetrain Manifesto
Il nuovo ruolo dell’individuo in Rete venne rivendicato con forza
nel 1999 da un manipolo di pensatori: Rick Levine, Christopher
Locke, Doc Searls e David Weinberger. Le 95 tesi esposte nel seminale
Cluetrain Manifesto si aprivano con una dichiarazione quasi
belligerante verso le corporation: “Non siamo spettatori, né occhi, né
utenti finali, né consumatori. Siamo esseri umani e la nostra influenza
va al di là della vostra capacità di presa. Cercate di capirlo”. Si rivelerà
un manifesto per certi aspetti profetico, per altri troppo ottimistico
(https://cluetrain.com/, traduzione
).
http://www.mestierediscrivere.com/articolo/tesi.html
Intelligenza artificiale
Basta leggere queste due parole e immediatamente il nostro cervello
immagina gli androidi di Philip K. Dick o Hal 9000 di Stanley
Kubrick. Non è sbagliato, perché il campo denominato “intelligenza
artificiale” (IA) è davvero molto vasto e si sposta in avanti col passare
del tempo. Già nel 2017 Sundar Pichai, CEO di Alphabet, annunciò il
passaggio da un mondo “mobile first” a un mondo “AI first”.
Oggi il concetto di intelligenza artificiale serve a indicare alcune
tecniche avanzate di sviluppo del software, che si rendono necessarie
quando il programmatore non riesce a prevedere le
istruzioni/condizioni necessarie per risolvere un certo problema.
Queste tecniche sono quelle che rientrano nella cosiddetta intelligenza
artificiale specialistica o debole, ben distinta da quella generale o forte.
Quest’ultima è quella prospettata dallo scienziato Ray Kurzweil, che
sostiene che la tecnologia stia progredendo esponenzialmente verso la
“Singolarità”, un momento nel futuro, individuato nell’anno 2045, in
cui intelligenze artificiali forti saranno in grado di automigliorarsi e
superare l’intelligenza umana (Kurzweil R., La singolarità è vicina,
Apogeo 2008).
Il machine learning consiste nella creazione di algoritmi pensati per
indurre il software a imparare dall’esperienza. Lo si fa non partendo da
una serie di passi predefiniti per raggiungere una soluzione, ma da
modelli statistici attraverso i quali apprendere le regole giuste per
risolvere il problema dato (come ben spiegato da questa grafica
dinamica: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/).
Gli algoritmi di apprendimento automatico
(https://it.wikipedia.org/wiki/Apprendimento_automatico) sono
tradizionalmente divisi in cinque principali tipologie: apprendimento
supervisionato, non supervisionato, con rinforzo, con apprendimento
continuo, con addestramento preventivo. Le prime due sono quelle più
largamente utilizzate.
Big Data
Le connessioni stimolano la generazione di dati. Queste connessioni
sono operate sia da persone che da macchine. Entro il 2023, oltre 5
miliardi di persone saranno collegati a Internet, pari al 66% della
popolazione. Inoltre, saranno 29,3 miliardi i dispositivi connessi alla
Rete (3,6 connessioni a testa) e 14,7 miliardi di oggetti intelligenti
(facenti parte della cosiddetta Internet Of Things) connessi tra di loro,
che scambieranno dati su reti a 110 Mbps medi
(https://blogs.cisco.com/sp/annualinternetreport2020). A questi dati creati
dinamicamente e digitalmente si vanno ad aggiungere quelli
provenienti da altre fonti. Se pensiamo ai dati presenti in un’azienda, si
potrebbe immaginare una catalogazione del tipo seguente.
Archivi di documenti scannerizzati: dati interni non strutturati.
Documenti elettronici (xls, pdf, email, word, html, xml, json
ecc.): dati che possono essere interni ed esterni, mediamente
strutturati e molto vari per tipologia.
Media (immagini, video, audio, flash, live stream ecc.): dati
interni ed esterni, mediamente strutturati, che raggiungono volumi
elevati e ad alta velocità.
Social media (Twitter, Facebook, Instagram ecc.): dati interni ed
esterni non strutturati, in tempo reale e a volumi elevati.
Web (dati governativi, meteo, censuari, wikipedia ecc.): dati
esterni differenziati, in alcuni casi strutturati, che possono
raggiungere moli elevate.
Applicazioni di business (CRM, ERP, portali intranet ecc.): dati
interni ed esterni, strutturati.
Data storage (SQL, NoSQL, Hadoop, file system ecc.): dati
interni strutturati ma ingenti.
Log di sistema (da server, dispositivi mobili ecc.): dati interni ed
esterni strutturati, ma che presentano i massimi livelli di
variabilità, volumi e velocità.
Dati da sensori (pubblici e privati): dati interni ed esterni
strutturati, con i massimi livelli di variabilità, volumi e velocità.
Per avere un’idea della quantità di questi dati, basti pensare che nel
2010 si contavano in 800 exabyte (miliardi di gigabyte). Alla fine del
2020 si prevede che arriveranno a 59 zettabyte (trilioni di gigabyte).
Siamo immersi in una “sfera di dati” costituita per il 40% da
entertainment data e per il 29% da productivity/embedded data, la
categoria che cresce di più (https://www.idc.com/getdoc.jsp?
containerId=IDC_P38353). Come se non bastasse, le previsioni dicono che
nei prossimi tre anni saranno prodotti più dati di quanti ne sono stati
generati nei precedenti 30 anni.
Siccome le unità di misura sembrano cambiare ogni anno, è
diventato di uso comune un termine indefinito, ma sufficientemente
evocativo come “Big Data”. Usato per la prima volta alla fine del 2008
dal Computing Community Consortium, serve a definire dati che
hanno le seguenti tre caratteristiche peculiari.
Volume: nel senso di ingenti quantitativi di data set non gestibili
con i database tradizionali (per esempio un aereo di linea genera
10 terabyte di dati ogni 30 minuti di volo).
Velocity: dati che affluiscono e necessitano di essere processati a
ritmi sostenuti o in tempo reale. La velocità a volte è un fattore
mission critical per garantire la soddisfazione del cliente.
Variety: ossia dati di diversa natura e non strutturati come testi,
audio, video, flussi di clic, segnali provenienti da RFID, cellulari,
sensori, transazioni commerciali di vario genere.
Successivamente, alle 3V IBM ne ha aggiunto una quarta, Veracity,
per porre l’accento sull’importanza di avere dataset puliti, accurati e
affidabili, condizione necessaria per ottenere un’elaborazione
fruttuosa.
Figura 2.5 I Big Data nella rappresentazione di Kapow Software.
), come descritto di
Different_782ad61f-8e5f-4b1e-b79f-83f33c903455.pdf
seguito.
Prestano attenzione ai dati che fluiscono in tempo reale, più che a
quelli immagazzinati: si pensi alle analisi delle transazioni per
individuare frodi, a quelle del funzionamento di un sistema per
valutare eventuali anomalie, al tracciamento dei comportamenti
online per generare suggerimenti.
Impiegano “data scientist” più che data analyst, ossia
professionisti che hanno competenze di programmazione,
statistica e matematica, in grado di scrivere gli algoritmi più adatti
a interrogare i dati.
Stanno spostando le attività di analisi dei dati dalla funzione IT a
quelle di “core business”. Che si tratti delle operation, della
produzione o del marketing, è importante che la responsabilità
dell’analisi sia più vicino a chi conosce il business. Solo in questo
modo verranno poste le domande di ricerca più pertinenti a
orientare l’analisi e dunque a ottenere le risposte utili.
Le traiettorie del prossimo paradigma tecnologico
È estremamente difficile individuare la prossima discontinuità
tecnologica nella vita delle persone perché, come abbiamo accennato,
entrano in gioco numerose variabili dal lato dell’offerta e della
domanda, i benefici reali, ma anche quelli soggettivi e attesi, le spinte
legislative, il know how accumulato, il grado di maturità di tecnologie
abilitanti.
Provo a sintetizzare alcune traiettorie che potrebbero rappresentare
gli strati sui quali si fonderà il prossimo paradigma tecnologico dopo i
computer, Internet e gli smartphone.
Infrastruttura di comunicazione. Al momento quella più
promettente per le reti mobili è la tecnologia 5G, che garantisce
un aumento della banda di dieci volte, una latenza di pochi
millisecondi (il ritardo di risposta della Rete dopo un qualsiasi
input) e la possibilità di avere un numero maggiore di dispositivi
serviti da un’antenna telefonica. Anche le connessioni casalinghe
continueranno a migliorare, il recente Wi-Fi 6 (802.11 ax)
promette il 40% di velocità in più rispetto al precedente (fino a 2
gigabit al secondo), migliori performance nelle aree affollate,
minori consumi energetici.
Computazione. Abbiamo visto che la legge di Moore è arrivata
al capolinea; anche se il silicio, con cui si costruiscono i
microprocessori, non è ancora spacciato, ormai non permette
significativi salti di performance. La ricerca in tale campo punta
su tre ambiti: il quantum computing, i nanotubi di grafene e
carbonio, la logica nanomagnetica.
Architetture computazionali. Negli scorsi anni siamo passati
dall’avere server di proprietà in ogni azienda a non averne, per
effetto del cloud computing, che virtualizza e rende disponibili
risorse di elaborazione e storage senza avere la proprietà
dell’hardware. Nei prossimi anni queste risorse si avvicineranno
ai luoghi in cui servono per aumentare la velocità dei pacchetti,
ridurre la latenza e ottimizzare i costi. Si parla di “fog
architecture” per indicare piccoli data center che sono più vicini
all’utilizzatore e di “edge” per quelli che sono in casa, in ufficio o
nel device. Con un’architettura a tre livelli le applicazioni
software di qualunque tipo potranno essere più efficaci ed
efficienti.
Software: l’evoluzione del software oggi viene identificata col
termine ambiguo di intelligenza artificiale. Si tratta di nuove
forme di codificazione che permettono ai programmi e
all’hardware di rispondere meglio alle richieste dell’utente, anche
in maniera autonoma, ossia riuscendo a individuare pattern di
comportamento. In tale ambito rientrano le nuove tecniche di
Computer Vision che permettono alle macchine di vedere ossia
trasformare ciò che viene visto in istruzioni finalizzate a generare
un output e a prendere decisioni.
Queste traiettorie potrebbero convergere nella prossima forma di
interazione uomo-macchina (human-computer interaction) detta
“spatial computing” che, secondo Robert Scoble e Irena Cronin, arriva
dopo tre paradigmi: il personal computer, le interfacce grafiche e il
mobile (Scoble R., Cronin I., The Infinite Retina, Packt Publishing,
2020).
A questo quarto paradigma, oltre alle traiettorie suddette,
contribuiscono le innovazioni che si stanno avendo in altri tre campi:
quello delle ottiche/display, quello dei meccanismi di controllo e
quello della sensoristica che permette la mappatura dello spazio.
Display: costituisce il sistema visivo dei dispositivi che abilitano
l’esperienza. È la finestra per guardare il mondo virtuale o
aumentato. Tale sistema può risiedere in un casco (head mounted
display) o in un occhiale. Esistono sistemi “video-see-through” in
cui sono le videocamere a generare la “parte reale” dell’ambiente
aumentato. I display optical-see-through utilizzano specchi
semitrasparenti per permettere la visione sia della realtà che delle
grafiche virtuali sovrapposte, dando una percezione molto più
naturale. In entrambi i casi il grosso problema è renderli leggeri e
al tempo stesso performanti.
Meccanismi di controllo: il controllo di questa nuova forma di
interazione uomo-macchina può prendere diverse direzioni. La
voce già oggi funziona bene per dare comandi, grazie ai passi
avanti nel campo del riconoscimento vocale, anche in ambienti
rumorosi. Più spesso, nelle esperienze di realtà virtuale si usano
joystick specifici che permettono di intercettare i gesti dell’utente
e interagire con gli oggetti e il mondo circostante. Ma si stanno
studiando anche sistemi avanzati in grado di rilevare i gesti del
corpo senza l’aiuto di periferiche (il tracciamento del movimento
delle mani è già disponibile su Oculus). Inoltre, c’è chi come
Varjo usa sistemi di tracciamento dell’occhio per rendere più
realistica l’esperienza visiva.
Sensori: per permettere alle macchine di “vedere” il mondo
circostante c’è bisogno di sensori adeguati o videocamere e
software in grado di trasformare i dati rilevati in mappe.
Un’azienda come 6D.ai, acquisita da Niantic, usa le videocamere
degli smartphone per ricostruire lo spazio reale (detto “digital
twin”) che costituisce la base per l’integrazione con gli oggetti
virtuali. Oculus utilizza cinque videocamere. Il nuovo iPad Pro
usa uno scanner LIDAR (Laser Imaging Detection and Ranging)
che spara dei raggi laser intorno e misura la velocità dei fotoni di
ritorno per capire la profondità delle cose.
Spatial computing
Il termine “spatial computing” è stato coniato da Simon Greenwold,
che lo definisce come “interazione con una macchina in cui la
macchina conserva e manipola referenti a oggetti reali e spazi”,
portando come esempi un sistema che permette all’utente di creare
forme virtuali e “installarle” nello spazio che lo circonda, o un sistema
che permette di trasformare oggetti fisici in virtuali. In termini più
ampi, sostiene Greenwold, la “computazione spaziale o ambientale” si
ottiene quando le macchine nello spazio e lo spazio nelle macchine si
confondono. A volte ciò significa portare lo spazio nel computer, altre
volte significa iniettare computazione negli oggetti fisici.
Principalmente vuol dire progettare sistemi che vanno oltre i confini
tradizionali di schermo e tastiera (Greenwold S., Spatial Computing,
MIT graduate thesis, 2003).
Nel 1988, Mark Weiser, Chief Technologist del mitico Xerox Parc
Research Lab, aveva usato il concetto di “ubiquitous computing” per
indicare un mondo in cui la tecnologia sarebbe diventata invisibile,
contenuta nello spazio circostante (https://www.youtube.com/watch?
v=7jwLWosmmjE). Mentre nel 1998 Donald Norman introdusse il concetto
Realtà aumentata
Oggi abbiamo una certa confidenza con la realtà aumentata grazie
ad alcune applicazioni pratiche che sono diventate molto note. Su tutti
il popolarissimo gioco Pokémon Go della Niantic, lanciato nel 2016,
che spinge i giocatori a catturare creature virtuali nascoste in contesti
reali e visibili solo attraverso lo schermo del proprio smartphone.
Dunque le applicazioni di realtà aumentata permettono di fondere
oggetti digitali nello spazio circostante. Tra le prime app commerciali
sperimentate ricordo Layar che, già nel 2009, permetteva di far
apparire schede informative sui monumenti inquadrati con il cellulare.
Ma ovviamente la sperimentazione parte negli anni Cinquanta, nei
laboratori militari che svilupparono i primi “head-up display” (HUD),
schermi in grado di proiettare dati aggiuntivi nel campo visivo dei
piloti di aerei, in modo da evitare distrazioni.
Tutti i grandi player tech stanno esplorando le possibilità offerte da
questo nuovo modo di leggere la realtà, ma Google e Apple sono in
prima linea anche perché possono controllare il dispositivo di accesso
e il software abilitante.
Google aveva già intuito le potenzialità della realtà aumentata,
fallendo, però, nell’individuazione del mezzo più opportuno per
promuoverne l’adozione di massa. Gli occhiali “Google Glass”, pur
essendo un prodotto di valore, non si sono dimostrati essere il miglior
cavallo di Troia per portare la realtà aumentata ai consumatori privati
(poi sono stati riposizionati come strumento di lavoro).
Lo smartphone, invece, può diventarlo perché è già nelle tasche di
tutti e perché potrebbe avere la potenza computazionale e l’hardware
necessari (CPU, GPU, sensori) richiesti da tale tecnologia. Per questo,
un gruppo di ingegneri di Mountain View dal 2014 aveva iniziato a
lavorare su Project Tango (https://get.google.com/tango/), una piattaforma
di sviluppo di applicazioni AR, che usa la fotocamera e i sensori del
cellulare per mappare lo spazio fisico. Poi nel 2018 il progetto ha dato
vita ad ARCore, un set di strumenti, framework e API che gli
sviluppatori possono utilizzare per velocizzare lo sviluppo di
applicazioni di realtà aumentata. ARCore sfrutta Java/OpenGL e i due
motori grafici Unity e Unreal, utilizzati soprattutto nella produzione di
videogame. Un anno prima Apple aveva lanciato ARKit, il suo
framework per la creazione di applicazioni che possono girare
immediatamente sulla maggior parte dei dispositivi iOS. Questo
perché l’azienda di Cupertino ha il pieno controllo anche
dell’hardware, a differenza del concorrente di Mountain View.
Sia ARCore che ARKit si basano sui seguenti tre componenti di
base.
Motion tracking: la fotocamera determina sia la posizione che
l’orientamento del cellulare in movimento. In questo modo
permette agli oggetti virtuali di adattarsi coerentemente con il
punto di osservazione.
Environmental understanding: è la capacità di comprendere
l’ambiente circostante, rilevando le superfici orizzontali.
Light estimation: la rilevazione della luce ambientale, per far sì
che gli oggetti virtuali si adattino alla luce esistente per apparire
realistici.
Un ruolo nella popolarizzazione della realtà aumentata ce l’hanno
sicuramente i social media. Snapchat è stata la prima app a proporre
effetti in realtà aumentata da applicare al viso nel 2015. Un anno dopo
anche Facebook ha iniziato a farlo e poi ha esteso questa possibilità
anche a Instagram. Entrambe le piattaforme mettono a disposizione
degli ambienti di sviluppo, Spark AR Studio e Lens Studio, per creare
elementi virtuali da usare nelle rispettive app.
In ambito enterprise, la tecnologia AR viene utilizzata da alcune
grandi aziende per facilitare il lavoro nelle fabbriche. Boing, per
esempio, la usa per permettere agli ingegneri di capire, attraverso
appositi visori, come collegare i cavi giusti delle varie componenti
dell’aereo. Ciò ha determinato una velocizzazione del 30% dei tempi
di installazione e una riduzione del 90% degli errori
(https://www.boeing.com/features/2018/01/augmented-reality-01-18.page).
I Google Glass Enterprise Edition vengono usati alla AGCO
(http://www.agcocorp.com/), produttore mondiale di macchine agricole, per
visualizzare le istruzioni di montaggio e ottenere supporto video
remoto, evitando spostamenti
(https://www.blog.google/products/hardware/glass-enterprise-edition-2/). Ciò
avrebbe ridotto i tempi di produzione del 25%. Li usano anche i
dipendenti della DHL in Germania per ricevere istruzioni visive su
dove consegnare i pacchi, avendo le mani libere.
In ambito ludico, le applicazioni della realtà aumentata attuali più
popolari sono: i giochi (Pokèmon Go, Wizard Unite, Knightfall AR,
The Walking Dead: Our World, o quelli più semplici come NBA AR),
gli effetti per modificare il proprio volto o il paesaggio all’interno di
una social app, le applicazioni per attività specifiche (Ikea Place,
BMW iVisualizer), la ricerca visiva per identificare oggetti attraverso
lo smartphone (Google Lens), applicazioni di tipo educativo (Monster
Park, Night Sky) e varie “utility” come le app per misurare le distanze
(https://arinsider.co/2019/04/23/what-types-of-content-do-ar-users-engage-
most/).
Realtà virtuale
Si parla di realtà virtuale per descrivere una simulazione digitale di
un ambiente, reale o immaginario, che l’utente può abitare,
interagendo con esso, attraverso specifiche periferiche hardware
(visore, auricolari, guanti o joystick e in alcuni casi una tuta). Le
esperienze di realtà virtuale si caratterizzano per essere immersive,
perché ci si sente parte di un ambiente esplorabile muovendosi, e
interattive, perché è possibile entrare in contatto e controllare gli
oggetti virtuali. In estrema sintesi, se nella realtà aumentata si
mantiene sempre una percezione dell’ambiente fisico, nella realtà
virtuale tale percezione svanisce, si entra in uno spazio generato dal
computer.
Le sperimentazioni iniziarono negli anni ’60, ma è del 1995 il primo
casco commercializzato, il Forte VFX1 di cui nessuno si ricorda. Poi,
nel 2010, Palmer Luckey sviluppa il primo prototipo di Oculus Rift,
chiedendo soldi su Kickstarter, e attira l’attenzione di Mark
Zuckerberg che acquisirà l’azienda nel 2014 per 2 miliardi. È il
segnale che non si tratta di una moda passeggera. In quel periodo,
aziende come Google e Samsung provano a testare il mercato con
prodotti leggeri, visori poco costosi che richiedevano solo uno
smartphone per poter funzionare. Ma l’esperienza era talmente povera
che oggi i produttori si stanno orientando verso hardware più potenti.
I mondi virtuali si possono fruire attraverso visori collegati a un
PC/consolle (in tethering) o con visori stand-alone. La prima soluzione
permette poca libertà di movimento ma il massimo delle prestazioni e
della fluidità perché l’elaborazione viene svolta da un PC. La seconda
soluzione è più economica e permette di muoversi liberamente, al
costo di una minore risoluzione.
I visori si possono distinguere in base ai “gradi di libertà”. I 3DOF
(Degree of Freedom) permettono di tracciare il movimento rotatorio
della testa, quelli 6DOF anche la posizione nell’ambiente, per cui
danno la possibilità di muoversi in tutte le direzioni. Il mercato sta
andando verso questi ultimi, che possono avere caratteristiche diverse
a seconda della fascia di utenza cui si rivolgono:
visori stand-alone come l’Oculus Quest (entro i 500 euro);
visori di fascia media che vanno collegati a PC/consolle come
Valve Index, HTC Cosmos, Playstation VR (entro i 1.000 euro);
visori di fascia alta ad alta risoluzione e bassa latenza, come i
Varjo (intorno ai 10.000 euro); ottimi per attività di progettazione
avanzata e simulazioni.
Solitamente al visore si accompagnano anche dei “controller” per
interagire meglio con gli oggetti e l’ambiente. In alcuni casi, per
migliorare l’esperienza, è possibile comprare dei sensori esterni, che
vengono piazzati nella stanza e che assicurano una corrispondenza più
precisa tra movimento reale e movimento nel mondo virtuale.
Oggi la realtà virtuale viene principalmente fruita in casa attraverso
i videogiochi e, meno frequentemente, in luoghi pensati per
l’intrattenimento come i parchi tematici Sandbox VR, The Void,
Dreamscape Immersive (Location Based Entertainment). Inoltre, ci
sono aziende come Sansar che scommettono su un futuro nel quale non
sarà considerato strano immergersi in eventi e in party virtuali.
Ma l’utilizzo professionale viene già sperimentato con successo
dalle grandi aziende per determinate casistiche.
L’addestramento del personale è uno degli ambiti più usuali.
Anziché spostare persone in luoghi di addestramento specifici, la realtà
virtuale permette l’insegnamento a distanza, anche in applicazioni
critiche. Per esempio, Boeing usa la realtà virtuale per addestrare
l’equipaggio del programma Starliner, SAAB per i piloti di aerei da
combattimento e Flight Safety International per quelli di voli
commerciali (https://varjo.com/boeing-starliner/).
Altro campo di applicazione è quello della progettazione
tridimensionale e la realizzazione di oggetti reali, componenti o
prodotti completi, che si possono testare in ambienti realistici,
riuscendo a valutare anche i colori e i materiali giusti. Audi già lavora
in questo modo per realizzare le auto future, Siemens lo fa per
progettare ambienti industriali.
Infine in campo medico la realtà virtuale può aiutare
nell’esplorazione di dettagliati modelli umani, nella preparazione pre
operatoria e in futuro anche nella telemedicina.
Realtà mista e realtà estesa
Tra le esperienze di realtà aumentata e virtuale si inseriscono quelle
di “realtà mista”. In questo caso, l’utente è immerso in una
riproduzione quasi esatta dello spazio fisico circostante, insieme agli
oggetti virtuali, con i quali può interagire. Microsoft è quella che più di
tutti ha promosso questo concetto, associandolo al suo visore
HoloLens. In realtà, l’azienda lo definisce “computer olografico”
perché crea elementi digitali, chiamati ologrammi, rendendoli parte
dell’ambiente circostante, anch’esso una riproduzione digitale. Un
vantaggio è quello di funzionare senza l’uso di controller dedicati, ma
solo attraverso i gesti e la voce.
In questo mercato, rivolto principalmente a un utilizzo
professionale, compete anche l’azienda finlandese Varjo che ha
sviluppato un dispositivo estremamente potente, chiamato XR-1. Qui
l’etichetta commerciale usata è quella di Extended Reality perché il
visore permette di passare istantaneamente da un’esperienza di “realtà
mista” a una di “realtà virtuale” e viceversa. Inoltre qui, a differenza di
HoloLens, gli oggetti non sono proiezioni tridimensionali trasparenti,
ma appaiono quasi indistinguibili da quelli reali. Merito di una
tecnologia “video pass-through” (alternativa alla “optical see-
through”) che fa uso di hardware e software avanzati. In particolare,
due videocamere a raggi infrarossi attivi generano una mappatura
costante dell’ambiente, due display ad alta risoluzione permettono di
vedere la realtà mista con un campo visivo di 87 gradi (doppio rispetto
ai concorrenti), un sistema di tracciamento oculare simula lo sguardo
per creare esperienze più realistiche. Secondo Volvo Cars, che utilizza
la soluzione Varjo, la realtà mista permette ai progettisti e agli
ingegneri di “guidare” le auto del futuro e valutare tutte le loro
caratteristiche in un ambiente di simulazione molti anni prima che
queste esistano, identificando priorità ed eliminando strozzature nel
processo di progettazione che incidono sui costi di sviluppo. Inoltre, il
tracciamento dei movimenti oculari permette di valutare potenziali
elementi di distrazione e testare i dispositivi di sicurezza. Bohemia
Interactive Simulation ha creato un programma di formazione per
piloti efficace ed efficiente, nel quale i piloti possono collaborare in
una cabina di pilotaggio reale, ma in uno scenario fotorealistico.
È facile intuire che queste nuove esperienze, prima o poi,
passeranno dal dominio esclusivo degli early adopter alla maggioranza
delle persone. Già oggi i prezzi stanno diminuendo sensibilmente dato
che Facebook, di fatto, sta finanziando Oculus con i proventi
pubblicitari delle sue social platform. A quel punto si imporrà un
nuovo modo di pensare al marketing. Un marketing aumentato per
esperienze aumentate, che però non coincide completamente col
concetto di marketing aumentato che voglio proporre in questo libro e
che approfondirò più avanti.
Abbiamo tracciato la strada della tecnologia, ora vediamo come
questa strada incontra quella del marketing.
Capitolo 3
Il marketing
Figura 3.9 Il funnel e l’importanza dei contenuti nel B2B (dati FocusVision). I contenuti
evidenziati in grassetto sono i più visti.
Nel 2020 emerge una forte pressione sui budget che spinge i
manager a portare in casa alcune delle attività di marketing, prima
esternalizzate ad agenzie e centri media. Questo movimento riguarda il
32% dei compiti (in particolare quelli relativi al social media
marketing e alla produzione di contenuti) e ci si aspetta continui nei
prossimi dodici mesi. Il risparmio non è l’unica ragione
dell’internalizzazione. L’obiettivo è quello di assicurare una maggiore
consistenza nelle attività del brand e un maggior controllo.
Nonostante i tagli, gli investimenti in tecnologia rappresentano la
fetta maggiore del budget di marketing (26,2%), rispetto alla spesa in
paid media (24,8%), agenzie (23,7%) e lavoro (24,5%). Inoltre la
maggioranza dei manager prevede che l’investimento in martech
aumenterà nel prossimo anno. I marketer statunitensi e inglesi, però,
sostengono di riuscire a usare solo il 58% delle funzioni delle
tecnologie acquistate. La sfida è riuscire a sfruttare il loro pieno
potenziale, ma per farlo sarebbe necessario assumere nuovi talenti.
Il digitale domina tra gli investimenti per canale. Il 13,5% è
destinato alla pubblicità digitale, l’11,3% ai social media marketing, il
10,4% ai siti, il 9,9% in SEO e il 9,8% in mobile marketing. Le
promozioni offline pesano per il 9,4%, mentre gli eventi, che hanno
subito il taglio maggiore causa Covid-19, si attestano al 9%. Allo
stesso livello anche il marketing di canale e l’email marketing. Poco
più in basso le attività di promozione sui motori di ricerca (8,6%).
In media il 74% degli intervistati prevede un aumento degli
investimenti nel digital advertising e il 66% un aumento nel paid
search. Va considerato che i marketer delle aziende B2C mostrano un
maggiore ottimismo rispetto a quelli del B2B.
Alla richiesta di elencare le capacità strategiche per l’azienda, il
33% dei CMO cita la strategia di brand, che probabilmente ha assunto
un’importanza maggiore dopo il Coronavirus. Al secondo posto c’è la
capacità di analizzare il mercato affidandosi a dati e tecnologia (29%)
e quella delle “marketing operation” (28%). Il 26% ha a cuore l’e-
commerce, il 25% le ricerche di mercato e le analisi competitive. Le
attività relative all’implementazione delle tecnologie di marketing,
strategia, adozione e utilizzo viene citata dal 22% dei CMO.
Se volessimo tracciare l’identikit del CMO moderno potremmo
utilizzare i cinque archetipi individuati da Deloitte
(https://www2.deloitte.com/us/en/pages/chief-marketing-officer/articles/five-
roles-of-the-cmo.html).
Smart contract
La curiosità suscitata dalla moneta elettronica nota come bitcoin, da
qualche anno, ha acceso i riflettori sulla tecnologia sottostante, detta
blockchain. Si tratta di una particolare tecnologia (Distributed Ledger
Technology) che consente la creazione e gestione di un grande registro
di transazioni, di qualunque natura, replicato tra più nodi su una rete
peer to peer. Il registro è strutturato in blocchi, contenenti più
transazioni. Tali blocchi sono collegati tra loro per far sì che ogni
transazione scritta in passato non possa essere modificata (da qui il
concetto di “catena di blocchi”). La validazione della transazione
avviene con il consenso di tutti i nodi, ma solo quello che avrà risolto
lunghi calcoli matematici (“mining”) potrà trascriverla sul registro. Il
sistema, di fatto, permette di effettuare transazioni senza la necessità di
intermediari o autorità centrali che verifichino e registrino i dati.
Ecco le principali caratteristiche delle tecnologie blockchain.
Decentralizzazione: le informazioni vengono registrate e
replicate tra più nodi (rete peer to peer) per garantire la sicurezza
e la resilienza del sistema.
Tracciabilità: ogni informazione scritta sul registro è tracciabile
e se ne può risalire alla provenienza.
Disintermediazione: la rete non necessita di autorità centrali.
Trasparenza: il contenuto del registro è visibile a tutti ed è
facilmente verificabile.
Immutabilità: una volta scritti sul registro, i dati non possono
essere modificati senza il consenso di tutti i nodi.
Programmabilità dei trasferimenti: è possibile programmare
specifiche azioni che vengono eseguite al verificarsi di
determinate condizioni.
Figura 4.4 Il funzionamento semplificato degli smart contract su blockchain.
IA per la segmentazione
I marketer sanno che i clienti non sono tutti uguali e, di
conseguenza, che le azioni progettate devono essere differenziate
rispetto al segmento (gli uomini di età 30-45 che vivono in città sono
diversi da quelli della stessa età ma che vivono nei piccoli paesi). La
segmentazione è stata per lungo tempo un’attività basata sulle
caratteristiche demografiche, socio-demografiche o, al limite, psico-
grafiche, spesso derivate da indagini di mercato. Ma per quanto micro
possa essere, la segmentazione si traduce sempre nell’individuazione
di pochi gruppi che hanno caratteristiche similari, ma anche molte
differenze. L’intelligenza artificiale può svolgere un lavoro più
raffinato dell’uomo, avendo a disposizione una grande mole di dati. Il
punto di partenza è un insieme di clienti con determinate
caratteristiche (features) e il punto di sbocco non è definito, nel senso
che non sappiamo secondo quali caratteristiche è meglio raggruppare i
dati. In questi casi, si può applicare la tecnica di machine learning nota
come “apprendimento non supervisionato”, pensata per individuare le
similarità tra i dati.
Immaginiamo di avere un sito di e-commerce e di voler individuare
dei cluster di clienti. La prima cosa da fare è decidere quante
caratteristiche considerare per la definizione del cluster e quanti cluster
si vogliono ottenere. Per semplicità consideriamo tre caratteristiche
(l’età, il genere e la spesa media mensile sul nostro sito di e-
commerce) e tre cluster risultanti. Ma ovviamente le dimensioni da
dare in pasto all’algoritmo potrebbero essere molte di più.
Tabella 4.1 5 clienti con 3 caratteristiche estratti dal database aziendale.
ID Età Genere Spesa mensile
1 18 M 14,67
2 21 M 15,67
3 28 M 18,02
4 27 F 34,61
5 32 F 30,66
Il caso Target
Target, una delle più grandi catene di prodotti al dettaglio statunitense, ha iniziato
a sperimentare l’utilizzo del machine learning già dal 2012, quando Forbes portò
alla luce un caso curioso e degno di attenzione. L’azienda aveva creato un team
specifico, il “Guest Marketing Analytics Department”, guidato dallo statistico
Andrew Pole, per identificare comportamenti ricorrenti dei clienti (pattern).Ognuno
di essi veniva identificato con un “Guest ID number” collegato a informazioni
personali (nome, cognome, genere, carta di credito ecc.) e a tutte le attività di
contatto con l’azienda (acquisti, reclami, moduli compilati).
Dall’analisi di questi dati, Pole fu in grado di identificare circa 25 prodotti che,
analizzati congiuntamente, potevano consentire di assegnare a ogni acquirente
un punteggio rispetto alla probabilità di gravidanza. Non solo, egli provò a stimare
una finestra temporale di concepimento. In questo modo fu possibile inviare alle
future mamme coupon di sconto specifici per ogni periodo della gravidanza, in
modo da stimolare gli acquisti. In effetti, il modello predittivo generò un
incremento dei ricavi, ma fece anche inalberare un signore di Minneapolis furioso
perché a sua figlia, ancora al liceo, Target aveva inviato offerte per prodotti
prémaman. “Mia figlia è ancora al liceo e voi le spedite coupon per l’acquisto di
vestiti per neonati e culle? La state per caso incoraggiando a rimanere incinta?”,
sbottò il padre, secondo la ricostruzione di Forbes. Nel giro di qualche giorno,
l’ignaro genitore, dalle invettive fu costretto a passare alle scuse. La ragazza era
davvero incinta ed era stato un algoritmo a scoprirlo.
Da un punto di vista di marketing questo è un caso da manuale di utilizzo
dell’intelligenza artificiale per anticipare i concorrenti. Tipicamente tutti i retailer
mandano i coupon alle future mamme basandosi sui registri pubblici delle nascite.
Ma se lo fanno tutti non ha molto senso. Invece, grazie al machine learning,
Target è stata in grado di arrivare prima degli altri, anche a rischio di commettere
degli errori (cosa che andrebbe sempre considerata). In questo caso l’etichetta
“futura mamma”, sulla cui base costruire il modello, è stata assegnata partendo
da precedenti casistiche di clienti che avevano iniziato a comprare pannolini o
prodotti per neonati.
censiti erano 150, nel 2020 hanno superato le 8.000 unità. Una crescita
che ancora non accenna a diminuire se rispetto al 2019 l’incremento è
stato del 13,6%. Si nota però l’inizio di un naturale consolidamento,
con applicazioni che vengono acquisite da vendor più grandi e altre
che non riescono a rimanere competitive.
Il maggior numero di soluzioni martech appartiene alle aree “Social
& Relationships” (1.969) e “Content & Experience” (1.936). Seguono
“Commerce & Sales” (1.314) e “Data” (1.258). Meno nutrite sono le
aree “Advertising & Promotions” (922) e “Management” (601). Le
soluzioni cresciute di più rispetto all’anno precedente sono state
“Data” (25,5%) in particolare per la gestione di attività di governance,
compliance e privacy, “Management” (15,2%) per la gestione di
progetti e workflow, e “Social & Relationships” (13,7%) per il tema
del conversational marketing e dei chatbot.
Una descrizione delle singole categorie può essere utile per avere
un’idea di come la tecnologia sia diventata indispensabile per gestire i
diversi processi sotto la responsabilità del marketer moderno.
Figura 5.2 L’intricata mappa del martech che mostra le migliaia di soluzioni disponibili.
ABM
ABM è l’acronimo di Account Based Marketing, che sta a indicare
una strategia di marketing tesa a individuare aziende target interessanti
(account), anziché singoli clienti. In pratica si tratta di un
rovesciamento della logica dell’inbound marketing, nella quale si cerca
di attrarre una moltitudine di persone per poi trasformarle in clienti. Di
conseguenza, le azioni intraprese sono rivolte ai top decision maker di
queste aziende target, attraverso un insieme di azioni sia di marketing
che di vendita che richiedono un’elevata personalizzazione. La chiave
è considerare le singole aziende come segmenti di mercato con
esigenze specifiche da soddisfare. L’ABM può essere utile sia per le
strategie di acquisizione di nuovi clienti, sia per il cross-selling e
l’upselling.
I software di questa categoria permettono di creare delle liste di
aziende e contatti che vengono arricchite dal maggior numero di dati di
profilazione. L’individuazione di segmenti omogenei di aziende da
targettizzare con attività specifiche può avvenire manualmente oppure
automaticamente, con l’aiuto di algoritmi di machine learning. Poi si
passa alla pianificazione delle azioni di “go to market,” che saranno
ben visibili ai team di marketing e vendite, in modo da evitare
disallineamenti. Le campagne attivabili con questi software sono
quelle di advertising, quelle di email marketing e quelle che prevedono
una personalizzazione del sito. Una volta generate, un sistema di
reportistica consente di misurarne l’impatto sui singoli account e
individuare i punti di miglioramento.
Influencer Marketing
Gli operatori della filiera dell’Influencer Marketing, storicamente,
sono stati poco attenti all’uso di tecnologie. Le aziende hanno quasi
sempre gestito gli influencer come gestivano i giornalisti, con un
foglio elettronico come rubrica e un telefono per il coordinamento.
Negli ultimi anni, però, anche questo mondo è diventato più
complesso. È aumentato il numero dei creator, di campagne attivate e
il rischio di frodi (acquisto di fake follower e fake engagement). Le
aziende hanno iniziato a sentire l’esigenza di un supporto tecnologico
per tutte le attività che compongono una campagna di influencer
marketing, dalla individuazione dei creator al loro pagamento.
Rientrano in questa categoria sia i software pensati per automatizzare
una fase del processo, sia l’intero workflow. Quelli single purpose
tipicamente si concentrano sulla fase iniziale, la più critica, ossia
quella che serve a facilitare la ricerca degli influencer giusti per
l’azienda. Si tratta di database che organizzano i profili per canale,
argomento trattato, nazione, lingua, audience. Per ognuno è possibile
vedere la scheda arricchita con informazioni di performance sui
differenti canali, l’eventuale uso di pratiche fraudolente e la tipologia
di contenuti prodotti.
Le piattaforme end to end, invece, permettono di gestire tutto il
processo, non solo l’identificazione, ma anche il contatto con gli
influencer, la contrattualistica, la gestione dei rapporti (dal brief alla
produzione dei contenuti), il controllo e l’approvazione dei contenuti,
l’analisi dei risultati della campagna e i pagamenti delle prestazioni.
CRM
La gestione delle relazioni con prospect e clienti oggi non può
prescindere dall’utilizzo di una piattaforma di Customer Relationship
Management. Si tratta di prodotti ormai maturi e spesso modulari nelle
funzioni, in modo da adattarsi ai bisogni e alle possibilità di spesa di
aziende eterogenee. Già oggi sono i prodotti enterprise più richiesti e,
secondo Gartner, nel 2021 costituiranno la principale spesa di martech.
Essenzialmente un CRM si sviluppa attorno a un database di
contatti. Ogni contatto ha una scheda arricchita con le informazioni più
disparate raccolte manualmente o automaticamente da diverse fonti.
Servono per conoscere le caratteristiche personali (email, telefono,
profili social ecc.), le preferenze, ma anche lo storico delle interazioni
avute con l’azienda (se ha visitato una specifica pagina del sito, se ha
scaricato un contenuto, se ha scritto al customer care e così via). Le
informazioni raccolte possono essere visualizzate in apposite
dashboard in modo da comprendere lo stadio di ogni relazione e le
potenzialità non sfruttate.
Attorno a questo nucleo principale, i contatti, vengono offerti servizi
utili per i team di marketing, vendite e customer care. Il marketing può
sollecitare i contatti progettando apposite campagne di inbound
marketing, basate sulla creazione di contenuti. Questi tool ormai
permettono di creare facilmente delle landing page, dei siti Web o dei
blog, che fungono da deposito centrale dei contenuti, o di pianificare le
pubblicazioni di post sui diversi social media. I contenuti diventano,
così, l’oggetto principale di campagne di email marketing, di nurturing
e di lead generation, che possono essere progettate facilmente
attraverso il disegno di diagrammi di flusso (secondo la logica
if...then). Inoltre, i contenuti social possono essere sponsorizzati
attraverso l’integrazione con gli strumenti di management delle diverse
piattaforme.
Il customer service usa il CRM per avere un punto unico di contatto
e conversazione con i clienti. Nel momento in cui una persona
interagisce con l’azienda (attraverso chat, social media, form di
contatto), un chatbot o l’operatore può gestire la richiesta, direttamente
o smistandola ad altri colleghi, avendo davanti la scheda personale e lo
storico delle interazioni. Ai ticket aperti si può associare un workflow
ossia una serie di automazioni, secondo regole definibili
dall’operatore. I chatbot possono essere progettati all’interno del tool,
utilizzando l’interfaccia grafica a diagrammi di flusso. Questi software
permettono di gestire e pubblicare anche la “knowledge base”, ossia
l’insieme delle risorse che possono aiutare le persone a risolvere un
dubbio o problema. Inoltre, ormai, contengono anche gli strumenti per
creare sondaggi da mandare ai contatti e ottenere feedback sul
supporto erogato (CES), sulla soddisfazione (CSAT), sulla fedeltà
(NPS).
Il team dei venditori può utilizzare il CRM per non perdere d’occhio
gli obiettivi, avere una conoscenza più profonda della pipeline
commerciale, automatizzare alcuni compiti (per esempio la creazione
di template di email per differenti occasioni). Le lead da contattare
vengono messe ben in evidenza e nei loro confronti si possono attivare
delle “sequenze” mirate (tre o quattro email inviate a distanza di alcuni
giorni, per stimolare l’interesse e stabilire un contatto). Questi tool
permettono anche di pianificare meeting facilmente e di conservare
documenti commerciali da condividere all’esterno (in modo da capire
anche quanti li hanno consultati).
Naturalmente i risultati di qualunque tipologia di attività effettuata
attraverso il CRM vengono sintetizzati e visualizzati in tempo reale
attraverso apposite dashboard. Oggi le funzioni di queste piattaforme
stanno crescendo a dismisura e incorporano algoritmi di machine
learning per aggiornare automaticamente le informazioni di contatto,
individuare nuove lead all’interno di database, ricordare di dar seguito
alle conversazioni con i prospect o analizzare dati di vendita e predirne
l’andamento.
Native/Content Advertising
La pubblicità cosiddetta nativa è quella che dà al visitatore di un sito
l’impressione di essere organica al contenitore e quindi di non essere
pubblicità (ne fanno parte anche gli annunci “raccomandati” alla fine
dell’articolo di un sito di notizie). Di conseguenza dovrebbe avere più
possibilità di essere recepita o cliccata. Esistono degli strumenti per gli
editori e per gli inserzionisti che facilitano la diffusione di questi
contenuti pubblicitari mimetici. Attraverso un’interfaccia unica è
possibile effettuare la pianificazione rispetto agli obiettivi, al target e al
budget, partecipare all’asta per spuntare il prezzo migliore, gestire i
propri contenuti e verificare i risultati. La differenza tra questi
strumenti sta nella capacità di inserire la pubblicità giusta nel posto
giusto, in maniera automatica. Ecco perché alcuni di essi dichiarano
l’utilizzo di tecniche di intelligenza artificiale per farlo.
Mobile Marketing
Qui sono racchiusi tutti quei software che aiutano i marketer a
raggiungere e coinvolgere le persone quando usano i dispositivi
mobili. Comprende ad server, ad network, DSPS, mobile exchange,
editori e piattaforme di pubblicazione.
Gli ad server sono soluzioni che permettono di gestire assett creativi
e distribuire pubblicità di differenti formati, secondo varie logiche di
targeting. Gli ad network sono reti di siti e applicazioni sui quali far
transitare le pubblicità. I DSPS sono piattaforme che gestiscono il
bidding su diversi ad exchange, ossia mercati d’incontro della
domanda e dell’offerta di advertising.
Rientrano in questa sottocategoria anche i tool che facilitano la
creazione di decine di formati diversi, a partire da alcuni elementi
grafici, o le piattaforme che intercettano le persone che frequentano
determinati posti fisici (utilizzando geolocalizzazione, wifi, QR code,
NFC o speciali hardware ambientali detti beacon), proponendo sconti
o offerte.
Video Advertising
In questa sottocategoria sono comprese soluzioni software pensate
per supportare l’azienda in tutto il ciclo di creazione e distribuzione dei
video, sempre più spesso utilizzati a scopo pubblicitario. Ci sono
strumenti che fluidificano una parte del lavoro, per esempio facilitano
la creazione e il montaggio dei video oppure la distribuzione. Altri
coprono tutto il workflow, permettendo di pianificare la diffusione
verso specifici siti e audience (anche su cartelloni o televisioni
digitali), ottimizzare i formati e il budget, misurare i risultati. Molto
spesso i vendor hanno una doppia offerta, tool con funzioni pensate per
gli inserzionisti che vogliono raggiungere determinate persone, e altri
per i publisher che vogliono monetizzare i propri spazi editoriali.
PR
Qui sono racchiusi tutti gli strumenti che permettono di
automatizzare le attività delle aziende di pubbliche relazioni che, per
anni, hanno fatto affidamento su liste e numeri di telefono per gestire
le proprie relazioni, manifestando una certa allergia alle soluzioni
tecnologiche.
Tra queste, i tool per la distribuzione di comunicati stampa ossia
quelli che permettono di creare, gestire e diffondere informazioni a
pioggia a giornalisti, blogger, investitori e siti di notizie. Solitamente
questi comprendono anche dashboard di monitoraggio dell’impatto
delle notizie diffuse, che tentano anche di valorizzare l’effetto
attribuendo un controvalore monetario.
Un’altra tipologia di vendor appartenenti a questa sottocategoria
sono quelli che offrono database di giornalisti, con tutte le
informazioni di contatto, le preferenze, lo storico delle comunicazioni
intercorse e dei comunicati ricevuti. In pratica dei piccoli CRM
specializzati per tenere in ordine le attività e organizzare il lavoro di
squadra.
C’è da dire che l’area delle PR ha forti elementi di sovrapposizione
con quella che comprende strumenti di monitoraggio delle notizie e
individuazione degli influencer (che in alcuni casi sono coinvolti da
queste agenzie).
Print
La stampa sembrerebbe un business fortemente ancorato alla realtà
fisica, ma oggi la progettazione dei materiali è completamente
digitalizzata. I software di questa categoria permettono la creazione
semplice, con l’uso di template, delle più svariate tipologie di oggetti
stampabili, dalle brochure ai biglietti da visita, passando per
cancelleria e merchandising personalizzati. La logica “print on
demand” comprende anche tool per la gestione del “direct mail
marketing” ossia quello che si basa sull’invio di posta cartacea,
coupon, regali. Essi permettono la creazione del materiale, la
determinazione delle liste alle quali inviare, secondo regole
personalizzabili, la verifica dei risultati (nella posta cartacea
solitamente è contenuto un link che viene tracciato). Spesso è prevista
un’integrazione con i CRM più utilizzati.
Video Marketing
I video sono oggetti in grado di catturare l’attenzione delle persone e
generare interazioni. Il processo di creazione e gestione non è tra i più
facili. Ecco che i software di questa categoria nascono per semplificare
alcune o tutte le fasi dell’utilizzo dei filmati come elemento di
marketing. Ci sono quelli che si focalizzano sulla semplificazione della
creazione attraverso template predefiniti, altri sull’hosting e
l’amplificazione della diffusione, altri ancora sulla misurazione. Le
piattaforme più complete permettono di creare e gestire degli hub
video in white label ossia personalizzabili con l’identità di brand.
Email Marketing
Negli ultimi anni le email sono state rivalutate come strumento di
marketing. I tool di questa sottocategoria consentono di progettare le
attività, di eseguirle e monitorarle. Le email possono essere create
partendo da template e personalizzate con elementi drag and drop,
possono essere testate (A/B testing) e spedite a segmenti di contatti
(solitamente contenuti nel CRM aziendale) secondo regole definibili
dall’utente e, infine, misurate nella loro efficacia. Gli elementi che
compongono il corpo delle email possono anche essere dinamici e
cambiare a seconda del destinatario. I tool più moderni consigliano le
possibili ottimizzazioni per incrementare l’open rate e le interazioni
(es. l’oggetto più efficace e i momenti più adatti per l’invio). Inoltre
hanno un motore di workflow per creare sequenze di comportamento
del destinatario.
Mobile Apps
L’utilizzo di smartphone e tablet fa parte dell’esperienza di vita e
consumo di miliardi di persone. Questi software aiutano i marketer a
gestire l’incontro di azienda e consumatore in questo spazio critico
dell’esperienza di acquisto. Qui troviamo tool che offrono un ambiente
di uno sviluppo rapido delle applicazioni mobili, il testing, il
deployment su diverse piattaforme e l’analisi dell’utilizzo effettivo.
Molti di questi si possono qualificare come software “low code”
perché danno la possibilità di sfruttare componenti predefiniti e di
implementare logiche in modalità drag and drop. Alcuni di questi
software si concentrano di più sugli aspetti legati all’analisi delle
performance e dei competitor e all’ottimizzazione del posizionamento
delle applicazioni negli app store.
SEO
Nonostante i profeti di sventura di questi ultimi anni, il lavoro di
ottimizzazione per i motori di ricerca è ancora uno dei compiti
rilevanti per i marketer. Questi software supportano le strategie di
posizionamento attraverso molteplici funzionalità: comprensione delle
keyword usate per arrivare al sito, tracciamento della posizione
aziendale nelle SERP rispetto a determinate parole chiave, audit del
sito per individuare backlink, problemi e opportunità, ottimizzazione
delle pagine per contenuti e velocità, suggerimenti sulle occasioni di
link building e analisi della concorrenza, monitoraggio dei risultati.
Alcuni offrono l’utilizzo del natural language processing per generare
dei consigli di ottimizzazione dei testi usati sul sito e sul blog.
Content Marketing
Si tratta di una categoria molto ampia che comprende quei software
che supportano i marketer nella creazione e gestione di tutte le
tipologie di contenuto: video, testi, audio, immagini, grafica,
presentazioni. Alcuni di questi si concentrano solo sulla
semplificazione, attraverso template, della realizzazione dei contenuti.
Altre sono CMP (Content Management Platform) e quindi permettono
la gestione dell’intero ciclo di un contenuto, quindi anche
conservazione, distribuzione e analisi dei risultati. Qui trovano posto
anche i tool per specifici compiti come la traduzione di testi, ma anche
marketplace per l’individuazione di creatori di contenuti.
Commerce & Sales
I software della categoria “Commerce & Sales” censiti da
chiefmartech.com sono 1.314. Rispetto all’anno precedente, la crescita
è stata del 9%. La categoria che ha registrato un numero maggiore di
novità è stata il “retail proximity & IoT” (+15%). Per avere un’idea
delle possibilità offerte da questo mercato, diamo un’occhiata alle
singole sottocategorie.
e-Commerce Marketing
Una volta costruito il sito di e-commerce bisogna sviluppare delle
strategie per generare traffico che si trasformi in vendite. Una buona
strategia può risultare efficace se supportata da software di marketing
automation specifici per e-commerce. Questi comprendono la gestione
delle email collegate ai comportamenti degli utenti (abbandono del
carrello, acquisti precedenti, abitudini di navigazione), la
visualizzazione di recensioni di utenti (a scopo di social proof),
l’utilizzo di chatbot come assistenti all’acquisto, la costruzione di
programmi fedeltà, la distribuzione di sconti e offerte.
Alcuni tool sono specializzati nella realizzazione di motori di ricerca
che mettono in risalto risultati rilevanti e sistemi di raccomandazioni,
personalizzati per tipologia di utenti; altri nella generazione di
immagini di catalogo ad alto impatto come le versioni 3D dei prodotti,
che possono essere ruotate e modificate dagli utenti. Altri tool sono
dedicati a fornire intelligence sui prodotti e i prezzi dei competitor, in
modo da modificare automaticamente la propria offerta. Altri si legano
alle piattaforme di advertising, in primis Amazon, per pianificare
annunci specifici in particolari momenti.
Data
I software della categoria “Data” censiti da chiefmartech.com sono
1.258. Rispetto all’anno precedente la crescita è stata del 25,5%. La
categoria che ha registrato un numero maggiore di novità è stata
“Governance, Compliance & Privacy” (+68%). Per avere un’idea delle
possibilità offerte da questo mercato, diamo un’occhiata alle singole
sottocategorie che, a dire il vero, tendono a sovrapporsi.
CDP
I software conosciuti come Customer Data Platform sono quelli che
permettono di avere un unico database con i dati dei clienti,
provenienti da diversi canali, e accessibile da altri sistemi aziendali. È
il sogno proibito di ogni marketer quello di poter accedere a una vista
unica e completa dei clienti, attraverso dati che affluiscono
incessantemente, in tempo reale, e avere una scheda dettagliata con le
informazioni di contatto, la propensione all’acquisto, le preferenze, le
interazioni effettuate. Spesso il problema è quello della pulizia dei dati
e della coerenza, ma anche quello della loro interpretazione. Questi
sistemi provano a estrarre valore permettendo di segmentare meglio i
clienti, comprenderne i comportamenti e i bisogni, migliorare la loro
esperienza omnicanale. La connessione con fonti esterne permette, per
esempio, di utilizzare i segmenti individuati per attività di retargeting
sui social media o altre azioni di marketing.
DMP
Le Data Management Platform sono sistemi utili per raccolta,
organizzazione e analisi di dati sui comportamenti degli utenti, in
modo da suddividerli in gruppi omogenei (cluster) utilizzabili come
target nelle attività di marketing. Nei fatti sono usate soprattutto per il
programmatic advertising. I dati raccolti possono essere di prima parte
(quelli provenienti da fonti controllate dall’azienda come le campagne
di marketing), di seconda parte (dati provenienti da un’altra azienda) o
di terza parte (dati trattati da più soggetti). Oggi le aziende tendono a
raccogliere in particolare dati di navigazione su siti e app e di
comportamento sui social media. Algoritmi di intelligenza artificiale
vengono impiegati per estrarre valore dai dati e clusterizzare le
audience.
Management
I software della categoria “Management” censiti da
chiefmartech.com sono 601. Rispetto all’anno precedente la crescita è
stata del 15%. La categoria che ha registrato un numero maggiore di
novità è stata “Projects & Workflow” (+41%). Per avere un’idea delle
possibilità offerte da questo mercato, diamo un’occhiata alle singole
sottocategorie.
Collaboration
Qui troviamo diverse tipologie di software pensati per migliorare la
collaborazione tra appartenenti a team di lavoro. Possono essere tool
specifici, per esempio dedicati alla progettazione di siti e applicazioni,
che incorporano funzioni di collaborazione di gruppo, oppure possono
essere ambienti intranet che integrano la gestione collaborativa di task
e progetti, con chat, sale per videoconferenze, condivisione di lavagne
e file.
Talent Management
Sono software utili a supportare l’intero arco delle attività svolte dai
professionisti delle risorse umane. Permettono di individuare i
candidati ideali, di collezionare i documenti richiesti, di monitorare le
performance e il loro sviluppo, di progettare i percorsi di carriera, di
gestire le richieste (ferie, malattie ecc.) e gli stipendi.
Product Management
Sono software pensati per le aziende che hanno un prodotto da
sviluppare e tenere costantemente aggiornato. Servono a raccogliere le
idee di sviluppo (provenienti da clienti e colleghi), pianificare la
roadmap per condividerla internamente, gestire le priorità dei task,
controllare i compiti assegnati, i risultati e i tempi di lavoro. A volte
questi software sconfinano nella categoria del project management.
Vendor Analysis
Questa categoria è dedicata alle società che offrono consulenza sulla
scelta dei fornitori di tecnologia e a quei servizi Web che raccolgono
informazioni sui fornitori di software, li catalogano e aiutano a
confrontarli. Spesso raccolgono le recensioni e le esperienze d’uso
degli utenti, le caratteristiche, i pregi, i difetti e le informazioni di
prezzo. In alcuni casi svolgono anche un lavoro editoriale di analisi
delle soluzioni e delle novità di mercato.
Esistono anche software progettati per tracciare e ottimizzare gli
investimenti in tecnologie effettuati dai diversi team aziendali.
Le fasi di adozione del martech in azienda
Oggi l’adozione di tecnologie per il marketing si presenta molto
differenziata da azienda ad azienda. Scott Brinker individua quattro
situazioni o fasi di un processo evolutivo per descrivere lo stato del
martech.
Martech come supporto al marketing: l’uso della tecnologia è
limitato alla semplificazione di alcuni compiti specifici, che sono
alla portata di qualunque team tradizionale (es.: gestione email
marketing, costruzione di landing page per la lead generation).
Per tutto il resto ci si rivolge ad agenzie esterne.
Martech incorporato nel marketing: ossia riconosciuto come
essenziale per facilitare la maggior parte delle attività, ma
circoscritto ad alcune persone. Tipicamente le attività di martech
vengono affidate a un esperto interno (un “marketing
technologist” o “tecnologo del marketing”) che sa come usare gli
strumenti giusti per rendere più efficienti ed efficaci le azioni.
Martech assorbito dal marketing: quando tutto il team usa la
tecnologia per migliorare qualunque attività svolta. Qui si assiste
proprio a un cambiamento della mentalità di approccio al
marketing e tutti i membri del team sono anche in grado di
scrivere codice per adattare gli strumenti al fine di raggiungere gli
obiettivi di business.
Le tecnologie dominano il marketing: è uno stadio futuribile nel
quale gli algoritmi riusciranno a dare migliori risultati rispetto alle
operazioni manuali in tutti gli aspetti del marketing (ottimizzare
la spesa in pubblicità, monitorare le performance e il sentiment,
predire il churn, individuare anomalie nei siti e così via).
La situazione europea, secondo uno studio BCG su Regno Unito,
Germania e Francia, mostra che le aziende fanno ancora molto
affidamento sul supporto delle agenzie e dei centri media per lo
svolgimento delle attività di marketing. L’80% dei marketer inglesi e il
60% di quelli francesi e tedeschi si rivolgono a servizi esterni, anche se
BGC stima una decrescita lenta di questo fenomeno a favore di
un’acquisizione di strumenti martech per uso interno. Attualmente
l’ecosistema marketing e comunicazione è fortemente sbilanciato: in
Regno Unito e Francia sono il 5% le aziende del comparto che
producono soluzioni martech, in Germania sono il 4%. C’è anche da
registrare che in questi anni le agenzie, le società di consulenza e i
centri media hanno iniziato ad acquisire aziende tecnologiche per
ovviare a una carenza di capacità e conoscenze
(https://www.bcg.com/publications/2020/leveraging-european-marketing-
ecosystem).
Martech: make or buy?
In un ecosistema complesso e dinamico di soluzioni martech, il
CMO è chiamato a trovare un equilibrio tra compiti da seguire
internamente o da esternalizzare e tecnologie da sviluppare in house o
comprare sul mercato. Bisognerebbe ragionare pensando ai partner
esterni come un’estensione del proprio team di lavoro, e dunque
mantenere la testa all’interno e le braccia all’esterno. Ovviamente con
misura perché moltiplicare i partner vuole dire anche aumentare, di
conseguenza, gli sforzi di coordinamento.
Per quanto riguarda i software martech, sicuramente bisogna partire
dal presupposto che sarebbe stupido e inefficiente sviluppare tutto in
casa e reinventare la ruota. Invece sarebbe necessario un assessment
approfondito delle esigenze aziendali e delle offerte di mercato, senza
dimenticare il livello di sviluppo delle capacità professionali dei
dipendenti. Vale a dire che se mancano le competenze interne per
l’utilizzo efficace di un certo software, non ha senso acquistarlo. Un
approccio sensato è quello graduale, che prevede l’acquisto di
programmi modulari che crescono con il livello di conoscenza e di
complessità aziendale.
La decisione di sviluppare internamente una soluzione dovrebbe
essere ben ponderata, coinvolgendo il reparto IT per valutarne i tempi
e i costi di produzione e di mantenimento a medio lungo termine. Ma
soprattutto dovrebbe essere presa in esame solo per lo sviluppo di
software in grado di offrire un vantaggio competitivo all’azienda (per
esempio migliorare la comprensione dei clienti e le decisioni data
driven o rendere più efficaci ed efficienti le azioni di marketing).
Proviamo a considerare tre livelli di competenze atte ad abilitare il
marketing aumentato: l’architettura dati (la capacità di raccogliere,
integrare, pulire, uniformare i dati di prima, seconda e terza parte),
l’intelligence sui dati (la capacità di estrarre valore dai dati attraverso
l’applicazione di modelli di intelligenza artificiale) e l’esecuzione delle
azioni di marketing (lo sfruttamento dei dati per catturare l’attenzione
delle persone e stimolare comportamenti). Di queste, le prime due
competenze sono quelle che le aziende dovrebbero puntare a
sviluppare in casa, perché vanno ad alimentare quel giacimento di
conoscenza necessario a prendere decisioni complete e accurate. La
fase di esecuzione, invece, può essere supportata da tool esterni, alcuni
dei quali stanno diventando commodity e che cambiano continuamente
al mutare del panorama Web e social.
Lomit Patel propone un framework per valutare le diverse capacità
dei fornitori di marketing technology, che può essere utile anche per
capire il livello della tecnologia di marketing automation disponibile
sul mercato. La tassonomia è mutuata dalla scala di autonomia usata
per i veicoli dalla SAE (Society of Automobile Engineers), che parte da
un livello 0 per le auto tradizionali e arriva al livello 5, usato per
descrivere quelle completamente automatiche (Patel L., Lean AI,
O’Reilly Media, 2020).
Livello 0: nessuna automazione. I marketer gestisco tutte le
attività usando strumenti basilari e sistemi di CRM che non
prevedono automazioni di sorta, ma fungono da depositi di dati di
marketing e generatori di reportistica (dashboard o sistemi di
“business intelligence”).
Livello 1: automazione delle raccomandazioni. I marketer
utilizzano sistemi in grado di generare raccomandazioni al fine di
ottimizzare i risultati di marketing. Esse sono basate su regole
personalizzabili, per esempio dashboard interattive che mostrano
consigli su come aggiustare la spesa per canale. Sarà poi il
planner a dover modificare il budget sulla pianificazione.
Livello 2: automazione basata su regole. Sulla base delle regole
di business definite dal marketer nel livello precedente, qui si fa
un passo in avanti e l’intervento umano scompare. Riprendendo
l’esempio precedente sarà il software a modificare la
pianificazione senza un intervento umano (via applicazione o
API). Le regole rimangono nel dominio del marketer, per cui
questi sistemi non sono molto flessibili o adattabili in tempo
reale.
Livello 3: autonomia computazionale. Si tratta di sistemi che
usano tecniche di machine learning per osservare, imparare e
migliorare i risultati assegnati, sulla base di analisi statistiche
combinate con automazioni di marketing. Nessun intervento
umano è richiesto, a parte impostare un obiettivo o parametri
generali come le date o i paesi della campagna digitale da
pianificare.
Livello 4: autonomia nella comprensione. A questo livello si
annoverano sistemi in grado di comprendere il significato
contestuale delle interazioni degli utenti, i contenuti, i
comportamenti, i dati di performance e tanto altro, al fine di
generare e pubblicare messaggi personalizzati su diversi canali e
migliorare le performance.
Livello 5: autonomia totale. L’ultimo livello è quello di sistemi
che, dopo aver compreso i contesti di lavoro, riescono a generare
autonomamente test, variazioni creative, parametri di targeting e
tanto altro.
Secondo l’autore, la maggior parte dei team di marketing non va
oltre il livello 2, ma le grandi opportunità si trovano accedendo ai
livelli successivi.
L’evoluzione dell’offerta martech
Secondo Scott Brinker, dopo una prima fase di espansione del
mercato, dal 2012 al 2018, definita “prima era d’oro del martech”,
siamo arrivati a un momento di maturità che sta portando al
consolidamento delle offerte e a una scelta più oculata delle aziende
acquirenti. Nei prossimi anni si dovrebbe entrare nella “seconda era
d’oro del martech” caratterizzata da tre elementi.
Ecosistemi: si passerà da un’offerta caratterizzata da suite di
prodotti software creati da un unico fornitore che ne controlla la
coerenza e l’integrazione a ecosistemi di piattaforme. Saranno
soprattutto i grandi player come Salesforce, Adobe, Oracle,
Microsoft, Hubspot, Google a progettare le proprie soluzioni
aprendole, via API, allo sviluppo esterno. Ovviamente si tratta di
soluzioni Software As A Service, che a loro volta sfruttano le
piattaforme cloud (AWS, Google Cloud, Azure). In pratica, ogni
vendor gestirà anche un marketplace di applicazioni esterne,
assicurando al cliente la complementarietà e l’integrazione con la
piattaforma madre. Questo vuol dire nuove opportunità di
business per gli sviluppatori di terze parti, competizione tra
piattaforme per coinvolgere gli sviluppatori migliori, ma anche
scelta più ampia per i marketer;
Esperti: da un modello nel quale da un lato c’erano le aziende di
software e da un altro le società di consulenza di servizi, si
passerà a un modello misto. Già oggi, se si scorre la lista delle
applicazioni di un qualsiasi marketplace, si notano software creati
da società che poi li integrano e li personalizzano offrendo i
propri servizi. Per esempio Blue Green, società di servizi per
l’ottimizzazione delle conversioni, ha creato Blue Green
Analytics, un’app per Hubspot che visualizza i dati del customer
journey dei clienti.
Ingegneri: nella seconda era del martech le aziende, anziché
scegliere tra comprare una soluzione tecnologica o produrla da
zero in casa, potranno comprare una piattaforma commerciale sul
mercato e poi personalizzarla con applicazioni create e gestite dai
propri sviluppatori. In questo modo, anziché spendere soldi e
tempo per creare software già disponibili (piattaforme di
applicazioni e servizi o applicazioni single purpose), si potranno
concentrare nella progettazione di custom app integrate con
l’ecosistema esistente, fatto di altre app che estendono le
funzionalità della piattaforma e dunque le possibilità degli
utilizzatori. In questo modo verrà alla luce un nuovo fenomeno,
quello delle aziende non software che diventeranno, in qualche
misura, anche aziende software. Accadrà che le esperienze
progettate dai marketer per i consumatori saranno sempre più
racchiuse e veicolate attraverso applicazioni custom, integrate
nell’intero “martech stack” aziendale (Figura 5.9). Questo modo
di lavorare dei “marketer aumentati” si inserisce in un trend più
ampio che è quello della democratizzazione dello sviluppo, che
ha dato luogo al cosiddetto “low code/no code software”.
Figura 5.9 L’architettura delle soluzioni martech a disposizione delle aziende.
Analisi
L’analisi è quel processo che ha l’obiettivo di comprendere prima di
pianificare e agire, fornendo elementi fattuali di valutazione. Tale
comprensione riguarda la definizione dei contorni e delle variabili
dell’ambiente nel quale l’azienda si trova a operare. Quindi, vuol dire
anzitutto analizzare i clienti attuali e potenziali, ai quali l’azienda
intende rivolgere la propria offerta, e i concorrenti diretti e allargati.
Tali analisi possono essere svolte con diversi strumenti, quelli più
consolidati (ricerche di mercato quantitative e qualitative promosse
dall’azienda o da altre entità) e quelli più nuovi, sui quali mi concentro
in questa esposizione.
Una ricognizione dell’operato dei concorrenti può essere eseguita
efficacemente attraverso diverse tecniche che possono permettere di
valutare la loro presenza online.
Il sito può rivelare le offerte in corso, i punti di forza e le attività
pubbliche più rilevanti, ma anche la produzione di newsletter e
risorse utili usate come “lead magnet” (white paper, casi di studio,
infografiche).
I social media mettono in luce lo stile di comunicazione e il tono
di voce nei confronti del pubblico di riferimento, la capacità di
produzione di contenuti di valore, la reazione alle richieste.
Inoltre, possono emergere le campagne pubblicitarie effettuate e
gli influencer coinvolti. Poi, con strumenti di “social analytics”, è
possibile confrontare le performance delle pagine/profili dei
concorrenti sui diversi social media (in termini di crescita di
follower, engagement ecc.).
Se i competitor hanno sviluppato un’app, sarebbe opportuno
avere un’idea di quanto e da chi viene utilizzata.
Tool specifici possono indicare l’efficacia del posizionamento sui
motori di ricerca e le parole chiave associate.
Uno strumento di monitoraggio può essere utile per identificare la
quota di conversazioni su quell’azienda (share of voice), il tenore
delle stesse (reputazione) e gli argomenti correlati.
L’analisi dei clienti può indagare diverse dimensioni, le preferenze
di consumo, le abitudini d’acquisto, il comportamento online oltre che
le caratteristiche socio demografiche. Un modo per farlo è attraverso
strumenti di ascolto delle conversazioni in rete, che raccolgono i
contenuti pubblicati nei luoghi pubblici da chi usa Internet. Per
recuperare tali post, è necessario definire un perimetro di analisi, ossia
scegliere le parole chiave più usate nelle conversazioni che si intende
recuperare. Lo strumento scelto, di conseguenza, le catalogherà e le
esporrà per permettere all’analista di ricavarne gli spunti più utili. I
software più evoluti riescono ad analizzare i testi, ad attribuire una
polarità alle frasi (sentiment analysis) e a etichettare opportunamente
le immagini (image recognition), operazione utile in assenza di una
descrizione. Qui l’automazione è un riduttore di complessità, perché
sarebbe molto difficoltoso rintracciare conversazioni specifiche nel
mare magnum della Rete, ma l’attribuzione dei significati e la
comprensione dei fenomeni dall’osservazione di singole
manifestazioni del pensiero rimane compito dell’analista.
Quest’analisi, che alcuni chiamano “netnografica”, può anche essere
utile per scoprire le persone che, più di altre, condizionano
comportamenti e opinioni, i cosiddetti “influencer”. Generalmente
sono quelli più citati nelle conversazioni o che riescono a stimolare più
interazioni (soprattutto commenti e condivisioni).
Strategia
La strategia non è un piano, ma una cornice di principi che guidano
le scelte e indirizzano la pianificazione. La pianificazione strategica
consiste nella definizione di obiettivi di marketing, coerenti con gli
obiettivi aziendali, e di attività strategiche da perseguire a medio-lungo
termine. Per farlo, il CMO, sulla base delle analisi effettuate ha
bisogno di suddividere il mercato in segmenti specifici
(segmentazione), scegliere quelli verso i quali indirizzare la propria
azione (targeting) e definire un sistema di offerta in grado di
soddisfare, meglio della concorrenza, le esigenze del target di
riferimento (posizionamento).
Probabilmente questo è il processo rimasto più simile ai dettami del
marketing classico e nel quale le tecnologie possono essere meno
d’aiuto. Sicuramente possono indicare percorsi alternativi, tracce
nascoste, evidenze che stimolino il ragionamento, ma solo l’essere
umano può decidere dove arrivare e come arrivarci.
Quello che il mondo digitale ha modificato sono i tempi e
l’ampiezza della strategia, che non riguarda più il lungo periodo. Non
ha più molto senso immaginare attività che possono essere corrette e
ottimizzate solo dopo un anno. Bisogna prevedere azioni misurabili
costantemente, per apportare le opportune correzioni in un’ottica di
agilità. Anche l’ampiezza della pianificazione è cambiata nel senso che
le attività da considerare sono aumentate e con esse anche la
complessità derivante dalle interazioni reciproche.
Esecuzione
L’esecuzione è la fase di implementazione operativa degli obiettivi
stabiliti nel piano strategico. È il momento in cui si passa alla
definizione del marketing mix più efficace, nel perimetro determinato
dal budget a disposizione, per portare sul mercato la propria value
proposition.
In questo processo la tecnologia può essere di enorme aiuto, nella
realizzazione di attività digitali riguardanti i diversi punti di contatto
tra azienda e persone: la creazione di contenuti, la pubblicazione nel
luogo e nel posto giusto, la diffusione, l’ottimizzazione dei risultati, la
gestione dei rapporti con prospect e clienti. I software di marketing
automation, illustrati nel precedente capitolo, se scelti attentamente
possono contribuire a migliorare i risultati delle singole azioni,
liberando tempo per le attività a più alto valore aggiunto.
Quindi oggi la “marketing execution” è, in realtà, una co-execution:
l’uomo e le macchine che operano per soddisfare i bisogni dei clienti.
Si tratta di pensare diversamente l’agire del marketing e il team di
lavoro, per includere solo i software più adatti a potenziare il pensiero
e l’azione.
Misurazione
La fase di misurazione consta dei processi di controllo delle attività
svolte, per comprendere se gli obiettivi sono stati raggiunti e
individuare eventuali scostamenti da essi. È un momento che non si
improvvisa, ma va pianificato accuratamente in anticipo. Inoltre oggi,
vale la pena ribadirlo, la misurazione non è neanche più la fase
conclusiva dei processi di marketing, ma è una costante di tutte le
attività. Si potrebbe anche sostenere che il confine tra l’analisi e la
misurazione si va facendo sempre più sfumato. I marketer dovrebbero
misurare sempre, ancora prima di iniziare l’esecuzione delle attività.
Può sembrare un paradosso, ma è necessario impostare
immediatamente un framework di misurazione, in grado di diventare la
bussola del lavoro successivo. Come raccontato nel mio libro
precedente, bisognerebbe partire dagli obiettivi di business aziendali e
individuare le relative metriche di business che li rappresentano.
Infine, da queste bisogna far discendere gli indicatori di performance
specifici per ogni singola attività messa in campo (Cosenza V., Social
Media ROI, Apogeo, 2014).
Secondo la “CMO Spend Survey” di Gartner, i Key Performance
Indicator tenuti in maggiore considerazione dai CMO sono il ROI
(19%), le Marketing Qualified Leads (18%), le Sales Qualified Leads
(15%) generate con le attività messe in campo online e offline, il
Conversion Rate (14%) e il CSAT per misurare la soddisfazione dei
clienti (14%).
La misurazione non è solo un’attività passiva, ma può diventare
fonte di reale vantaggio competitivo. È quello che emerge da una
ricerca di Bain & Company che ha evidenziato come l’approccio alla
misurazione si rifletta sui risultati di business. Le organizzazioni poco
mature misurano le performance dei singoli canali e interpretano i
risultati campagna per campagna. Hanno pochi strumenti di analisi e di
automazione, con team che lavorano per compartimenti stagni. Le
aziende più mature, invece, analizzano i dati riferiti ai singoli
touchpoint, ma li legano insieme e li leggono congiuntamente per
comprendere come e quanto hanno inciso sui risultati economici
complessivi. La misurazione è considerata la base per assumere
decisioni critiche e, per questo motivo, gli strumenti utilizzati sono
sofisticati (automazione e machine learning). Il modo di lavorare è
agile, con team cross-funzionali incentrati sulla soddisfazione del
cliente attraverso test e apprendimento continui
(https://www.bain.com/insights/the-measurement-advantage/).
Dunque il processo di misurazione può beneficiare, forse più degli
altri, dei vantaggi derivanti dall’utilizzo di software dedicato a
monitorare e rilevare il raggiungimento degli obiettivi di ogni singola
azione di marketing, comunemente chiamati “analytics”. Negli anni
questi software di analisi hanno subito un’evoluzione dovuta alla
disponibilità di molti più dati rispetto al passato (in alcuni casi Big
Data) e al miglioramento delle tecniche di estrazione di valore
(intelligenza artificiale nelle sue varie forme). Gli analytics possono
essere classificati in quattro categorie: descriptive, diagnostic,
predictive, prescriptive. Ciascuna categoria è descritta dai valori
crescenti di due parametri, il valore generato e la complessità o
intensità di dati e tecnologie utilizzati (vedi Figura 6.3).
Descriptive Analytics
Gli strumenti di analytics si dicono descrittivi quando fanno luce sul
passato e, se sono di tipo “real time”, anche su quanto sta accadendo
nel momento in cui il fenomeno è in corso di svolgimento. Permettono
di raffrontare momenti diversi del passato e individuare le attività che
hanno apportato benefici e quelle che non lo hanno fatto. L’idea è che,
comprendendo il passato e il presente, sia possibile programmare
meglio le azioni future. Ma sta all’analista farlo, il software si limita a
esporre i dati. Per esempio, le analisi descrittive possono rispondere a
domande come “qual è stato il periodo in cui ci sono state più visite al
sito?” o anche “quanto ha speso questo cluster di clienti nel periodo
natalizio?”.
Diagnostic Analytics
Gli strumenti di analytics diagnostici sono un’estensione di quelli
descrittivi che permettono di far luce sul perché. Quindi dall’analisi del
passato si passa alla ricerca delle cause dei fenomeni accaduti. Il
software lo fa utilizzando metodi statistici tesi a capire l’incidenza di
una serie di variabili. Le domande alle quali può rispondere un’analisi
diagnostica sono del tipo “perché questo cluster di clienti ha speso di
più in questo periodo?”.
Predictive Analytics
I software di analisi attuali, sempre più spesso, non si limitano a
esporre i fenomeni passati e a comprendere per quale motivo sono
accaduti, ma fanno un passo ulteriore, provano a predire il futuro, o
meglio stimano probabilisticamente cosa succederà in futuro in uno
scenario simile a quello passato.
Può essere la cosa più semplice, come l’estrapolazione di una
tendenza lineare, o più complessa, come lo sviluppo di algoritmi di
machine learning. L’obiettivo del praevidere è di “comprendere in
anticipo” in modo da identificare rischi e opportunità di business. Nel
marketing si può applicare a svariate operazioni critiche, come
l’analisi dell’andamento della domanda in determinati periodi e
mercati o la previsione dei clienti che sono più propensi ad
abbandonare l’azienda (churn), in modo da progettare per tempo le
contromosse per evitare che accada.
Prescriptive Analytics
I software di analisi più evoluti sono quelli che oltre a comprendere
il passato, diagnosticare le cause e predire il futuro, suggeriscono cosa
fare nel caso in cui si verificasse un fenomeno previsto. In alternativa
possono rispondere anche alla domanda “Cosa dovrei fare per far
accadere questa cosa o se dovesse accadere?”. In altre parole,
combinano la scienza delle previsioni con l’arte del prendere le
decisioni.
Tutto ciò è possibile solo utilizzando enormi quantità di dati
eterogenei e modelli avanzati di machine learning in grado di proporre
le azioni più appropriate da compiere (Gartner parla di tecniche come
il “complex event processing”, l’analisi dei grafi, la simulazione,
l’euristica, le reti neurali, https://www.gartner.com/en/information-
technology/glossary/prescriptive-analytics).
Nella pratica, tra le idee mutuate dallo sviluppo software c’è quella
di adottare cicli di rilascio brevi e continui, strutturati per fasi circolari.
Tutto parte con la creazione di una lista di task, ordinata per priorità,
che rappresentano le attività da svolgere. La riunione detta “Sprint
Planning” è necessaria per esaminare i task prioritari, stimare il tempo
richiesto e decidere quali saranno completati nello sprint. Le attività
non vengono assegnate dal manager ai team di lavoro, ma sono i
singoli componenti ad autoresponsabilizzarsi, scegliendo i task che
pensano di essere in grado di portare a termine nel tempo previsto. La
riunione può avere durate variabili, ma non superiori alle due ore.
Lo sprint è il periodo di lavoro necessario a compiere le attività che
sono state preventivate. Ogni giorno i team sono soliti riunirsi alla
stessa ora per uno “stand up meeting”. Il nome deriva dalla modalità di
stare in piedi per la breve durata dell’incontro (circa 15 minuti). Ogni
membro è stimolato a rispondere a tre domande, utili per allineare tutti
gli altri, in uno spirito costruttivo e di massima trasparenza: “Cosa ho
fatto ieri?”, “Cosa farò oggi?”, “Ci sono ostacoli che possono impedire
di completare il lavoro previsto?”. Eventuali problemi complessi non
vengono affrontati in questa sede, ma assegnati a qualcuno per una
risoluzione successiva.
Concluse le lavorazioni viene organizzata la “Sprint Review” che si
concentra su cosa è stato fatto, si controllano i materiali prodotti e si
valutano i risultati. Per esempio gli asset creati per una campagna sui
social media, fatti di foto, video, copy, landing page. Questo è anche il
momento nel quale si ricevono feedback dagli stakeholder per cui è
utile allargare questa riunione anche a rappresentanti di team esterni,
per esempio venditori e account manager.
Subito dopo si organizza una “Sprint Retrospective” riservata solo ai
membri del team che hanno lavorato allo sprint, per approfondire come
è andata. Ci si chiede: cosa è andato bene, cosa non è andato bene e
cosa si può fare di diverso per migliorare il prossimo sprint. Lo spirito
non è mai punitivo, ma propositivo. È il team che riflette sulle ipotesi
di miglioramento, non un capo che le impone. Anzi il marketing
manager, o la persona più alta in grado, cerca di facilitare il confronto
ed evita di condizionarlo.
Questi cicli di lavoro brevi e frequenti sono fondamentali per stare
al passo con le novità di mercato e non farsi travolgere, anzi provare a
introdurle nell’attività se possono essere utili. Per esempio, se
Instagram lancia un nuovo formato pubblicitario, il team ne potrebbe
tener conto per testarlo prima dei competitor. Con cicli di lavoro
lunghi si rischierebbe di arrivare in ritardo ed essere percepiti come dei
follower.
Figura 6.5 Il ciclo degli sprint.
Visualizzare le attività
Quando dei grandi progetti vengono spezzettati in tanti lotti
progettuali è facile perdere traccia delle attività da svolgere. Per
ovviare a questo problema i tre principali metodi di gestione agile,
Scrum, Kanban e Scumban, hanno adottato la stessa soluzione. Scrum
Board o Kanban Board è una sorta di lavagna divisa in colonne,
rappresentanti lo stadio di sviluppo dei task. La più semplice ne ha tre:
da fare, in lavorazione, fatto. I compiti possono essere scritti su un
post-it (chiamato card), che viene mosso da una colonna alla
successiva dopo ogni fase di lavorazione. La lavagna è visibile a tutti,
pertanto serve anche come strumento di trasparenza, ma allo stesso
tempo funge da stimolo perché in ogni momento mostra il reale
andamento del lavoro e gli eventuali ritardi.
La difficoltà nella costruzione di queste “board” è riuscire a ottenere
una rappresentazione grafica che sia immediatamente comprensibile,
ma anche accurata. Si può iniziare con le tre colonne suddette o
disegnare un processo che preveda le fasi principali dello svolgimento
del lavoro, per esempio con cinque colonne: da fare, creazione,
revisione, test e completamento. Nella prima colonna vengono raccolti
tutti i compiti ancora da svolgere, che magari provengono da
precedenti sprint. Appena inizia la lavorazione, il task viene spostato
nella colonna “creazione”, una fase che può essere più o meno lunga e
prevedere il coinvolgimento di più persone. La fase di revisione è
critica per assicurare un controllo di qualità del lavoro. Può essere
svolta dal manager o in modalità di “peer review”, quando coinvolge i
propri colleghi che sono chiamati a dare un giudizio sul “manufatto”
realizzato e richiedere correzioni. Questo metodo è preferibile quando
si accumulano svariate attività per le quali attendere il parere del
manager potrebbe determinare blocchi e ritardi. Spesso vengono
definite a priori delle linee guida o degli standard di qualità. Per
esempio, in un contesto di marketing, i materiali prodotti dovranno
rispettare le linee guida e il tono di voce definiti in un manuale di
“brand identity”.
Infine, la fase di test potrebbe essere necessaria solo in alcuni casi,
per esempio quando si tratta di verificare la funzionalità di un
workflow di email o di un’applicazione. Se il test o la revisione
vengono eseguiti con successo, il task potrà essere spostato nell’ultima
colonna.
Figura 6.6 Un esempio di Kanban Board per il marketing.
Suddividere le attività
Finora ho citato i task per definire unità di lavoro specifiche, ma non
tutti i task sono uguali. Ci possono essere attività semplici oppure
complesse, che richiedono poco o molto tempo. Ecco perché nella
metodologia di sviluppo agile si è stimolati a ragionare anzitutto in
termini di “Storie Utente”, più che di task. Ogni nuova richiesta al
team o attività che si vuole portare avanti deve essere giustificata da
una Storia, che mette al centro un bisogno dell’utente. Sembra un
dettaglio rispetto alla semplice richiesta, invece è un punto centrale del
processo: obbliga l’incaricato a mettersi nei panni di una persona reale
e dei suoi bisogni.
In pratica, la Storia è una breve e chiara descrizione di un’attività
desiderata, raccontata dal punto di vista di un individuo (che
rappresenta il pubblico di riferimento dell’azienda o l’utente di un
prodotto). La sintassi è molto semplice e in un contesto aziendale
potrebbe assumere questa forma: come [cliente X, rappresentativo di
un cluster di clienti], desidero [funzione/attività], in modo da
[valore/beneficio che si vuole ottenere]. Per esempio: “come cliente
B2B, desidero una sezione risorse del sito, in modo da poter accedere a
casi di studio aziendali”. Il cliente può essere anche interno
all’azienda, per esempio: “come venditore vorrei avere la possibilità di
accedere alle statistiche delle mie sequenze di email, al fine di poter
comprendere meglio l’utilità delle mie azioni”.
Dunque si tratta di una frase, che può avere anche più dettagli, in
grado di spiegare la motivazione di una richiesta ed evitare
fraintendimenti. In un contesto di marketing aumentato, l’ideale
sarebbe che la motivazione fosse supportata da dati e ricerche che
giustificano quella richiesta.
Se le storie sono complesse vanno suddivise in task. Per esempio, la
realizzazione di un white paper da rendere scaricabile si compone di:
scrittura, impaginazione e grafica, creazione della landing page,
attivazione del workflow di lead generation, blog post e social post di
lancio, promozione di vario tipo. Questa suddivisione permette anche
di capire quante persone diverse possono lavorare in parallelo oltre che
le interdipendenze tra i task.
Siccome c’è un limite al numero di attività che è possibile
completare in un singolo sprint, è utile stimare la complessità di ogni
storia per stabilire quante storie possono essere gestite volta per volta.
Questa stima, nella metodologia Scrum, viene fatta assegnando a ogni
storia un numero di punti (“story points”) che ne rappresenta la
difficoltà di realizzazione. Per convenzione, il punteggio segue la
progressione di Fibonacci, quindi 1, 2, 3, 5, 8 o 13. Per esempio, una
storia da 1 punto potrebbe corrispondere alla pubblicazione di un blog
post; una da 13 potrebbe adattarsi al caso della realizzazione del white
paper, di cui sopra. Volendo si possono assegnare punti anche ai task.
Le storie andranno a riempire il backlog delle cose da fare, in ordine
di priorità. In alto troveranno posto le storie più urgenti. La ratio è che
non ci può essere spazio per ambiguità, è necessario fare delle scelte.
Di fronte a progetti complessi, scomponibili in sottoprogetti, come
la realizzazione di un’applicazione mobile o di un sito, non si parla più
di storie, ma di “epiche”. Un’epica è rappresentata da storie diverse
che condividono una stessa missione. Invece quando più progetti
complessi rispondono a uno stesso obiettivo si parla di “temi”. Per
esempio, lanciare una campagna di comunicazione nel Regno Unito
può essere un tema, che comprende più epiche come la creazione di un
sito ad hoc per il mercato inglese e la pianificazione advertising
multipaese. Siccome questi strati progettuali differiscono sia per
complessità che per tempi di realizzazione, potrebbero rappresentare
una sorta di “marketing roadmap” delle attività da portare a termine
durante l’anno.
Figura 6.7 Gerarchia di epiche, storie e attività.
Gestire i team
L’importanza degli individui e delle interazioni tra loro è il valore
principale della gestione agile. Il lavoro creativo e intellettuale viene
agevolato dalla creazione di gruppi di lavoro poco numerosi, in grado
di stimolare gli scambi di idee. Quanto poco numerosi? Famoso è il
concetto “two-pizza teams” espresso da Jeff Bezos, fondatore di
Amazon, per descrivere gruppi composti da persone sfamabili con due
pizze. Si tratta di una semplificazione, ma serve a dare l’idea che
gruppi troppo ampi possono minare l’armonia del lavoro. Ovviamente
se nelle aziende piccole l’intero team di marketing rappresenta un
singolo team agile, nelle grandi ci sarà la necessità di costituire più
gruppi.
I modi di comporre queste unità possono essere i più vari e
dipendono dagli obiettivi del CMO. Potrebbero essere organizzati per
ambito territoriale, per prodotto, per segmento di audience o stadio del
customer journey (awareness/demand generation,
consideration/nurturing, conversion/vendita, post vendita/advocacy). O
ancora si potrebbe scegliere un criterio multifunzionale per permettere
una contaminazione tra professionalità differenti (es. un copy, un
grafico, un analista, un esperto di advertising) e una relativa
autosufficienza nel completamento delle attività.
La specializzazione delle professionalità è importante, ma è gradito
anche un certo grado di adattabilità alle situazioni. Si parla a tal
proposito di “persone a forma di T”, dove la linea verticale rappresenta
la specializzazione tecnica, mentre quella orizzontale indica la capacità
di avere una visione ampia e di svolgere compiti non necessariamente
legati alla propria area di expertise. Il concetto è che in un team
nessuno deve stare con le mani in mano quando ha finito di svolgere il
proprio task. Viene apprezzato e incoraggiato lo spirito propositivo e la
voglia di dare una mano. Per esempio, l’esperto di advertising
potrebbe essere d’aiuto nella scelta delle fotografie da utilizzare in un
post o potrebbe rileggere il testo della newsletter da inviare, a caccia di
eventuali refusi o incongruenze.
Da un punto di vista strutturale, gli “agile team” sono piatti, nel
senso che non c’è molta gerarchia tra i membri o almeno non emerge
nello svolgimento del lavoro. Le decisioni sono prese collegialmente.
In ambienti di sviluppo software ci sono due ruoli peculiari: lo Scrum
Master che funge da facilitatore e coordinatore dei processi e il
Product Owner che fa le veci del cliente e decide le priorità. Nell’agile
marketing non c’è bisogno di due figure, solitamente il marketing
manager può incaricarsi di dare una priorità alle storie contenute nel
backlog e, allo stesso tempo, di supervisionare i flussi e sovraintendere
alle riunioni. L’importante è che lo faccia togliendosi il cappello del
capo e indossando quello del fluidificatore di decisioni e processi. Una
leadership sfumata e diffusa permette di responsabilizzare i singoli,
spingendoli a lavorare con un orientamento al risultato e a mostrare
uno spirito proattivo nella risoluzione dei problemi.
D’altronde in un mondo dinamico, dove cambiano le regole e le
situazioni di mercato, il decisionismo dall’alto può rischiare di
diventare un collo di bottiglia. Invece la gestione dal basso può essere
più efficace perché elabora più velocemente i feedback che riceve e ne
tiene conto per lo svolgimento del lavoro. Per esempio chi gestisce i
social media aziendali è in grado, più del manager, di percepire gli
umori del pubblico e capire se è meglio produrre un certo contenuto
anziché un altro. In questo modo, il marketing manager potrà
occuparsi di decidere quale priorità dare alle storie e individuare nuove
linee di sviluppo del lavoro. Insomma potrà guardare oltre la
quotidianità.
Perché questo modello di autonomia funzioni c’è bisogno di
trasparenza. Il meccanismo principale di trasparenza è l’uso delle
bacheche o di software dedicati, che mostrano sempre chiaramente a
tutti chi sta facendo cosa, lo stato di avanzamento dei lavori ed
eventuali intoppi (dei quali si può ricostruire l’origine perché ogni
comunicazione dei membri del team viene tracciata digitalmente). Un
ulteriore meccanismo di trasparenza è lo stand up meeting, nel quale
ognuno è chiamato a dire chiaramente cosa ha fatto il giorno prima,
cosa farà oggi e quali ostacoli ha incontrato nello svolgimento del suo
compito.
Marketing technologist
Un marketing sempre più ibridato dalla tecnologia fa nascere
l’esigenza, almeno nelle organizzazioni grandi, di uno specialista a
cavallo tra due mondi lontani come quello dell’IT e quello del
marketing. La sua missione dovrebbe essere quella di facilitare
l’utilizzo delle migliori tecnologie per supportare le attività di
soddisfazione del pubblico di riferimento dell’azienda.
Dovrebbe essere un agente del cambiamento e un promotore
dell’innovazione in tutti i dipartimenti aziendali. Inoltre, dovrebbe
aiutare il reparto IT a capire come orientare il proprio lavoro e le
tecnologie usate agli obiettivi reali di business. Un compito difficile
che richiede un mandato chiaro dal top management e la capacità di
muoversi con cautela tra i diversi reparti, sviluppando relazioni di
fiducia con le persone (Zarantonello G., Marketing Technologist:
trasformare l’azienda con il cliente al centro, Franco Angeli, 2020).
Secondo i risultati della Martech Salary Survey del 2019
(https://chiefmartec.com/2019/03/marketing-technology-job-responsibilities/),
un marketing technologist dovrebbe fare quanto segue.
Individuare le tecnologie più adatte a supportare specifiche
attività di marketing che l’azienda intende portare avanti. Per
farlo, deve sviluppare una vasta conoscenza delle soluzioni
esistenti ed eseguire gli opportuni confronti di costi e benefici. Il
suo ruolo si giustifica solo se la scelta della singola soluzione
viene fatta coerentemente con quella delle altre (passate e future),
in modo da assicurare una coerenza complessiva e
un’armonizzazione degli strumenti adottati.
Amministrare le soluzioni tecnologiche acquistate, monitorarne le
performance nel tempo e gli aggiornamenti.
Insegnare l’uso degli strumenti al team di marketing e supportarlo
nell’utilizzo. Si tratta di una fase critica perché è sempre difficile
far entrare nuovi strumenti nella propria routine e acquisire un
nuovo modo di lavorare.
Integrare le soluzioni tecnologiche aziendali tra di loro, quelle
sotto il dominio del marketing innanzitutto, ma non solo, in modo
da perseguire un obiettivo di efficienza complessiva. È un lavoro
molto importante soprattutto nel caso di strutture di marketing
decentrate. Richiede necessariamente la collaborazione del
reparto IT, ma è il marketing technologist a dover progettare e
guidare gli interventi.
Monitorare la qualità dei dati prodotti dalle tecnologie utilizzate
al fine di identificare e correggere errori o anomalie. In questo
compito si può far rientrare anche la revisione della correttezza
del trattamento dei dati effettuato dai tool comprati e la
supervisione di eventuali problemi di sicurezza.
Indubbiamente il marketing technologist è una figura nascente e non
poco problematica in termini di collocazione all’interno
dell’organigramma. Per alcuni dovrebbe essere a diretto riporto del
CMO, in modo da occuparsi della gestione del budget destinato ai
software di supporto al marketing, ma in stretto coordinamento con il
reparto IT. Per altri dovrebbe dipendere dal Chief Information Officer
e occuparsi di supervisionare tutte le tecnologie di front end e di back
end che coinvolgono l’operatività dell’intera azienda. In questo caso,
dovrebbe coordinarsi con il team di marketing per recepire le sue
esigenze e individuare le soluzioni più adatte. Una terza via potrebbe
essere quella di un soggetto che risponda gerarchicamente al CMO, ma
con un riporto funzionale al CIO. Le configurazioni potrebbero essere
diverse e questa difficoltà di collocazione potrebbe portare a chiedersi
se davvero ci sia bisogno di un marketing technologist o se, invece,
non basterebbe attribuire le sue funzioni a una figura già esistente. Ha
le caratteristiche del classico ruolo di traghettatore, che risulta
importante nelle fasi di passaggio, per contribuire alla digitalizzazione
del marketing, ma che poi può, col tempo, sciogliersi in un ruolo già
esistente.
Data scientist
La figura del data scientist ha iniziato a essere presa in
considerazione quando le aziende hanno realizzato di avere enormi
quantità di dati, di diversa natura, sparsi in molteplici database e
soprattutto inutilizzati. In questi anni, il gran parlare di Big Data,
spesso a sproposito, ha avuto il grande merito di accendere i riflettori
su questa professione che ha il compito di valorizzare il patrimonio
informativo aziendale.
Il percorso di un data scientist solitamente comincia con una laurea
in matematica, statistica o informatica e prosegue con una serie di
corsi di specializzazione tesi all’apprendimento dei linguaggi e delle
tecnologie più usate. Negli ultimi anni i linguaggi più popolari sono
stati Python, R, SQL e Scala, tra le tecnologie per l’analisi dei Big
Data hanno preso piede Spark e Hadoop, per il deep learning si sono
affermati i framework Tensor Flow e Torch. Le abilità più richieste a
un data scientist sono quelle necessarie per padroneggiare le tecniche
di machine learning, i modelli statistici e la programmazione in
Python. Le tecniche di machine learning più utilizzate dalle aziende
sono il deep learning, il clustering e il natural language processing
(https://365datascience.com/data-scientist-job-descriptions/). Tra i software
più usati per processare i dati strutturati ricordo Knime, Orange e
Weka (Celli F., Data Science Marketing, Maggioli Editore, 2020).
Ma pur conoscendo i linguaggi di programmazione, il data scientist
non è solo un programmatore. Allo stesso modo non va confuso con il
marketing analyst che estrapola e organizza dati strutturati per renderli
intellegibili. Egli agisce come un vero scienziato, ma lavora con i dati
anche non strutturati. Generalmente opera nel seguente modo.
Identifica le domande di business, ossia parte dalla formulazione
di ipotesi di lavoro e domande di ricerca, per poi interrogare i dati
attraverso modelli statistici e algoritmi che potranno confermare o
smentire l’ipotesi e, comunque, rispondere alla domanda iniziale.
Sembra la fase più semplice ma è la più scivolosa. Senza porsi le
domande giuste è impossibile ottenere risposte utili dai dati.
Nell’identificazione delle domande di business può farsi guidare
da qualcuno che conosce meglio il mercato.
Individua, tra i tanti dati disponibili, quelli funzionali a rispondere
alla sua ipotesi di ricerca.
Pulisce, convalida, normalizza e aggrega i dati per eseguire un
lavoro accurato.
Elabora e applica modelli e algoritmi sui data set individuati.
Analizza i dati per identificare pattern ricorrenti e tendenze.
Interpreta i dati alla luce del contesto di business per individuare
opportunità per l’azienda.
Presenta i risultati, meglio se utilizzando tecniche di
visualizzazione in modo da consentire ai manager di prendere
decisioni informate e conseguenti.
Il data scientist solitamente lavora nel reparto IT, ma sarebbe molto
utile ai team che si occupano di marketing. Perché? Innanzitutto
perché i team di marketing sanno porre le corrette domande di
business, in quanto conoscono, meglio di altri, il contesto di mercato, i
concorrenti, i partner e i consumatori. Con le domande giuste si
possono ottenere risposte trasformabili in azioni concrete, altrimenti il
rischio è di far lavorare il data scientist su progetti interessanti, ma
senza ricadute immediate sul miglioramento delle azioni d’impresa.
L’altro motivo è che chi lavora nel marketing progetta i processi che
generano i dati su prospect e clienti, quindi non solo sa dove si
trovano, ma anche a quali esigenze rispondono. Un data scientist
inserito nel team di marketing può migliorare il disegno di questi
processi in modo che restituiscano dati ben organizzati e più utili per
capire i comportamenti delle persone che interagiscono con l’azienda.
La motivazione principale però è un’altra e dovrebbe essere ben
chiara alla fine di questo percorso: se il marketing aumentato si fonda
su dati e tecnologia per potenziare l’agire del marketer e acquisire un
vantaggio competitivo, chi sa dare valore ai dati e farli parlare diventa
un componente cruciale del team e dell’intera azienda.
Il suo lavoro di analisi e previsione potrà essere molto utile in una
miriade di operazioni che compongono i processi di marketing, tra cui:
analisi delle dinamiche del mercato (prezzi, concorrenza);
comprensione dei clienti potenziali (personas) e del percorso di
acquisto;
segmentazione dei clienti per individuare quelli di maggior valore
ai fini di attività di upsell e quelli in fase di abbandono per azioni
di fidelizzazione;
ottimizzazione della lead acquisition attraverso test multipli per
individuare soluzioni di acquisizione alternative;
gestione dinamica degli investimenti media a seconda dei canali
che performano meglio;
miglioramento del prodotto, attraverso l’analisi dei pattern di
utilizzo e la sperimentazione di funzioni personalizzate.
In realtà queste sono solo alcune delle attività che un data scientist
può fare in un contesto di marketing. Molte altre emergono dalla
contaminazione di idee tra chi ha a cuore la soddisfazione del cliente e
chi ha l’impulso di sperimentare, senza timore di sbagliare. Insomma,
se il prossimo anno aveste il budget per assumere una persona nel
vostro gruppo di lavoro, dovreste investirlo in un data scientist.
Etica
Il marketing aumentato dà grandi poteri all’azienda per il suo uso
intensivo di dati e informazioni personali, ecco perché porta con sé
grandi responsabilità. Siccome può avere un impatto molto profondo
sulla vita delle persone e può essere fonte di abusi, richiede un surplus
di attenzione da parte delle aziende, anzi un vero e proprio approccio
etico.
I primi utilizzatori di dati sono i grandi giganti della tecnologia che
già hanno lasciato intravedere le possibili conseguenze negative di un
uso distorto del patrimonio informativo degli utenti. Allo stesso tempo,
gli scandali che li hanno coinvolti stanno anche rendendo le persone e
le autorità più consapevoli e pronte a pretendere comportamenti
corretti. Queste forme di pressione, politiche e sociali, premieranno le
aziende che dimostreranno con i fatti, al di là dei proclami, di essere
attente all’uso etico dei dati personali.
Un tema di fondo è quello della sicurezza dei dati, ossia la garanzia
che l’azienda metta in campo tutte le iniziative e i processi atti a
proteggere i dati da intrusioni interne ed esterne. Si tratta di un aspetto
che richiede attenzione, ma che non pone particolari problemi etici.
Il tema del trattamento dei dati personali è già più delicato: implica
trasparenza nei confronti dell’utente al quale si chiedono informazioni.
L’Unione Europea ha affrontato la questione imponendo, dal 2018, il
regolamento generale sulla protezione dei dati (GDPR) che poggia sui
seguenti sei principi.
1. Liceità, correttezza e trasparenza, che si estrinsecano nella
predisposizione di una informativa sulla privacy, chiara, concisa e
completa sulle finalità di raccolta dei dati.
2. Limitazione della finalità, ossia i dati devono essere raccolti per
uno scopo specifico e non essere usati per altro.
3. Minimizzazione dei dati ovvero chiedere i dati essenziali per la
finalità che si vuole ottenere.
4. Esattezza, nel senso che l’azienda deve “adottare tutte le misure
ragionevoli per cancellare o rettificare tempestivamente i dati
inesatti” su richiesta dell’interessato.
5. Limitazione della conservazione a un periodo prestabilito e
congruo alla finalità.
6. Integrità e riservatezza sono i principi che attengono alla garanzia
di “un’adeguata sicurezza dei dati personali, compresa la
protezione, mediante misure tecniche e organizzative adeguate, da
trattamenti non autorizzati o illeciti e dalla perdita, dalla
distruzione o dal danno accidentali”.
Oggi però le aziende tendono a utilizzare tecnologie che permettono
di approfondire la conoscenza dei prospect e dei clienti attraverso il
collegamento dei dati di prima parte, forniti direttamente dall’utente al
marketer, con quelli di terze parti, raccolti da “data broker” (aziende
che acquisiscono e vendono dati di diversa natura, online e offline,
come Acxiom, Experian e Oracle, che hanno informazioni su centinaia
di migliaia di persone). È quello che fanno le cosiddette Data
Management Platform che provano a costruire profili quanto più
accurati delle persone, correlando informazioni da diverse fonti al fine
di mostrare loro pubblicità iperpersonalizzate, al momento giusto e nel
posto più visibile. Al momento la precisione non è così elevata e
paradossalmente questo diventa un problema. Se lo fosse, il
consumatore potrebbe vedere pubblicità sempre in linea con i suoi
interessi. Ma quando si creano dei vuoti nell’identikit della persona, gli
algoritmi sono addestrati per completare tali mancanze e questo può
aprire questioni inedite e interessanti.
Quanto è giusto inferire un profilo psico-comportamentale di una
persona a sua insaputa? Quali distorsioni possono verificarsi nella
ricostruzione algoritmica di questo puzzle? Quali pregiudizi possono
essere contenuti nei modelli di machine learning progettati? Casi di
discriminazione algoritmica per status socio-economico, colore della
pelle o orientamento sessuale si sono già verificati in attività della
pubblica amministrazione e sono oggetto di approfondimento
soprattutto nell’Unione Europea (un osservatorio puntuale sul sito
https://algorithmwatch.org/).
Canva
Canva è uno strumento che permette di creare elementi grafici per
ogni tipo di esigenza: flyer, biglietti da visita, menu, gift card, inviti,
documenti, infografiche, post per i diversi social media. La sua forza è
la semplicità perché il sistema mette a disposizione dei template, molto
ben fatti, dai quali partire per la personalizzazione. Per esempio, quelli
per i social media post rispettano le dimensioni imposte dalle
piattaforme, facilitando il lavoro del marketer che non può contare sul
supporto di un graphic designer.
Insieme ai template vengono forniti milioni di immagini, icone,
elementi grafici e centinaia di caratteri tipografici. Il software permette
anche di modificare le foto con filtri predefiniti e strumenti di editing
avanzati.
Nella sua versione gratuita, Canva è perfettamente funzionante, ma
alcune feature sono disponibili solo nei piani a pagamento: la
possibilità di invitare altre persone a collaborare in tempo reale,
l’implementazione di workflow di approvazione, l’uso degli elementi
della “visual identity” aziendale e un incremento delle risorse grafiche
disponibili.
Altri software simili sono: Adobe Spark, Stencil, Fotojet, Crello.
Magisto
I video sono uno dei contenuti più stimolati del Web, ma la loro
realizzazione richiede professionisti specifici e tanto tempo. Magisto è
un’applicazione pensata per chi ha bisogno di velocizzare
quest’operazione. L’utente può partire da centinaia di template a
seconda della tipologia di risultato che vuole ottenere: video per una
determinata occasione, per i post dei social media, per presentazioni
aziendali. Il sistema parte dal caricamento di filmati grezzi e li analizza
grazie a tecniche di intelligenza artificiale. L’analisi visiva serve a
determinare quali parti sono le più interessanti (valutando i tempi di
permanenza sull’inquadratura e i movimenti di camera) e quali
necessitano di correzioni (stabilizzazione, correzione di colore).
L’analisi audio individua le parti parlate e la musica per capire le fasi
del racconto. Infine il software, anche sulla base di altre informazioni
che l’utente fornirà come lo stile di editing desiderato, monterà
automaticamente il filmato.
Altri software simili sono: Animoto, Biteable, Lumen5, Moovly,
PowToon, Vyond e Invideo.
Descript
Descript è un software strabiliante che facilita il lavoro di
montaggio di contenuti audio, come i podcast, e video. Lo strumento
permette di registrare nativamente le attività svolte al computer (screen
recording), le conferenze fatte con altri software e i podcast. L’uso di
tecniche di “speech to text” permette di catturare la voce e di
trasformarla in testo, in tempo reale. A questo punto, l’utente può
effettuare un montaggio rapido, semplicemente cancellando le parole
dal testo. Come per magia, esse scompariranno anche dalla
registrazione, audio o video che sia. Il sistema riconosce anche gli
intercalari fastidiosi che spesso puntellano i discorsi a braccio, come
“uh” e “uhm”, e dà la possibilità di cancellarli automaticamente,
rendendo tutto più fluido.
Le trascrizioni possono essere anche pubblicate sul Web e, da esse, è
possibile creare piccoli video con stralci del contenuto, da incorporare
sui social media (“Audiograms”).
Nella versione a pagamento, Descript permette anche il cosiddetto
Overdub, ossia la creazione di un modello “text to speech” della
propria voce. In parole povere, il sistema clona la voce dell’utente e la
usa per correggere, all’occorrenza, il contenuto audio. Per esempio, se
durante la registrazione si è sbagliato un termine, basta cancellarlo
nella trascrizione, sostituirlo con quello esatto e il sistema lo leggerà
con la voce dell’utente.
Carrd
Carrd è un servizio gratuito, dedicato a chi ha non ha nel proprio
team un Web designer e ha bisogno di creare landing page moderne,
responsive e d’impatto. Direttamente dall’interfaccia Web, l’utente può
immediatamente partire con la personalizzazione dei template messi a
disposizione, suddivisi tra quelli pensati per mostrare il profilo di una
persona, quelli per esporre un portfolio o landing page per raccogliere
lead commerciali. Basta semplicemente cliccare su ogni elemento del
wireframe per modificarlo. La versione a pagamento permette di
pubblicare la pagina usando un dominio specifico, aggiungere il
tracciamento di Google Analytics e altre integrazioni.
Tra i servizi simili vi sono Instapage, Unbounce, Leadpage.
Se invece si vogliono realizzare siti Web più complessi, sempre
partendo da modelli predefiniti, si possono prendere in considerazione
servizi come Wix, Webflow e Squarespace. Tra i CMS non si può non
citare Wordpress ma, per sfruttarlo al meglio, bisogna farsi aiutare da
qualche sviluppatore che sappia come personalizzare i template di
partenza, altrimenti il rischio è di clonare siti già esistenti.
Typeform
Typeform è la soluzione per chi ha bisogno di realizzare, senza
sforzo, dei moduli per il proprio sito Web. Il software fornisce i
template più svariati da personalizzare col proprio stile: per i contatti, i
feedback, la registrazione a un evento, l’e-commerce. Sempre partendo
da modelli predefiniti, il servizio permette anche di creare velocemente
dei quiz per stimolare i propri clienti e dei sondaggi online per
raccogliere opinioni interne o esterne all’azienda. Tra i punti di forza
vi è l’integrazione con una moltitudine di prodotti di marketing
automation, collaborazione, produttività. Altri prodotti simili sono:
JotForm, Formsite, Wufoo, Formstack, SurveyMonkey.
Strumenti per l’automazione di campagne e attività
Mailchimp
Mailchimp nasce con l’obiettivo di aiutare i professionisti e le
piccole imprese a sfruttare la potenza dell’email marketing. Il software
semplifica la creazione di DEM e newsletter accattivanti, pensate per
stimolare l’interesse di prospect o clienti. Funge anche da database per
la raccolta e la segmentazione dei contatti. Una volta inviate le lettere
digitali, il sistema permette di comprendere le performance
dell’attività, attraverso una serie di metriche molto granulari. Il tool
prevede la gestione di A/B test e di invii automatici, secondo specifici
“trigger” condizionali, definiti dall’utente o basati sul comportamento
dei destinatari.
Nel tempo il software si è evoluto ed è diventato una suite di
marketing automation, potenziata dall’uso di tecniche di intelligenza
artificiale. Un assistente intelligente consiglia le azioni migliorative da
implementare, sulla base dei risultati delle campagne. Inoltre genera
automaticamente delle creatività per contenuti da usare sui social
media o all’interno delle email. Le sue capacità predittive vengono
applicate alla comprensione dei dati demografici delle audience.
Il sistema permette anche di progettare visivamente, con l’uso di
elementi grafici, il percorso che il consumatore dovrebbe fare per
arrivare alla conversione.
Active Campaign
Active Campaign è una soluzione di marketing automation che offre
tutti gli strumenti utili per raggiungere i contatti attraverso qualunque
canale (email, social, sms, chat, Web). L’obiettivo dichiarato è
l’ottimizzazione della customer experience, attraverso una serie di
funzioni che semplificano la progettazione dei flussi di campagna. Un
editor visivo permette, anche ai neofiti, di disegnare i workflow,
scegliendo i trigger, le azioni e le condizioni (si può partire da
centinaia di “ricette” già preimpostate).
Tra le tante capacità del software: la segmentazione avanzata dei
contatti, in modo da raggrupparli per invii specifici, il lead e il contact
scoring, per individuare i prospect prossimi all’acquisto,
l’impostazione di obiettivi di marketing che, una volta raggiunti,
possono modificare il flusso dell’automazione.
Il sistema sfrutta anche alcune tecniche di machine learning, che
permettono di spedire email quando è più probabile che vengano
aperte e modificare automaticamente i contenuti a seconda del
destinatario.
Active Campaign offre anche funzioni di sales automation: un vero
e proprio CRM permette alla forza vendite di gestire la pipeline, curare
i propri contatti, gestire i task e sfruttare la funzione di “win
probability”, che stima la probabilità di chiudere un contratto.
Hubspot
Hubspot è l’azienda che ha contribuito a rendere popolare il
concetto di inbound marketing, ossia di tutte quelle attività non
invasive che servono ad attirare visitatori e convertirli in clienti. Allo
stesso tempo è anche l’organizzazione che è arrivata sul mercato
proponendo un software di supporto all’inbound marketing. Col tempo
si è trasformata in una “full CRM platform”: il suo fulcro è la gestione
dei contatti aziendali, attorno ai quali si sviluppano diverse
componenti software, dette hub. Queste possono essere acquistate
singolarmente, in funzione delle esigenze dell’azienda.
Il Marketing Hub racchiude tutte le funzioni di marketing e
automazione che ci si potrebbe aspettare: la gestione delle email, dei
moduli, delle landing page, delle campagne di lead generation. Mette a
disposizione anche strumenti per la SEO, la creazione di blog e la
programmazione dei contenuti sui social media.
Zapier
Zapier (https://zapier.com/) è uno strumento di workflow automation.
Permette di connettere tra loro diverse applicazioni in modo da creare
un flusso di lavoro automatizzato. Senza mettere mano al codice, e
senza ricorrere al lavoro di uno sviluppatore, è possibile far lavorare
tra loro oltre 2.000 app pensate per eseguire un solo compito. Lo si fa
creando uno Zap, ossia una ricetta che dice al sistema le app da
collegare e quali azioni far eseguire loro nel momento in cui accade
qualcosa (trigger). In questo modo si possono automatizzare noiose
attività come l’inserimento manuale di dati o il raggruppamento di
informazioni da più fonti in un unico posto. Per esempio, legando i
propri account aziendali di Instagram e Twitter, si può fare in modo
che ogni foto pubblicata venga twittata automaticamente. Oppure
collegando Facebook alla posta si potrebbe ricevere un’email ogni
volta che un contatto compila il modulo di Facebook Lead Ads.
Altri prodotti simili sono: IFTTT, Automate.io, Parabola e Huginn.
Asana
Asana è un prodotto finalizzato al task & project management, di
supporto anche a chi volesse implementare la metodologia agile.
Molto utile per organizzare e gestire trasparentemente le attività del
proprio gruppo di lavoro. Ogni progetto può essere organizzato in
compiti e sottocompiti, per poi essere visualizzato in modalità lista,
Kanban board o timeline, per individuare anche le interdipendenze tra i
lavori. In questo modo risulta immediato capire se il progetto sta
avanzando nei tempi previsti e se i carichi di lavoro tra i membri del
team sono bilanciati.
Con questo strumento, il remote working risulta molto più agevole,
perché i compiti e gli obiettivi di tutti sono chiari e documentati.
Inoltre è possibile collaborare a distanza, dando feedback e
approvando i materiali prodotti.
Asana contiene anche funzioni di automazione: per esempio, si
possono creare delle regole in base alle quali assegnare i nuovi compiti
direttamente al lavoratore più libero, oppure assegnare un task non
appena il lavoro precedente è stato completato. O ancora, se un
progetto ritarda si può far partire una notifica agli stakeholder
interessati.
Il software mette a disposizione una serie di template per
velocizzare la creazione di progetti nuovi. Infine, permette
l’integrazione con diversi tool, come Gmail, Slack, Dropbox,
Salesforce e Tableau.
Altri software simili sono: Monday.com, Jira, Trello, Basecamp e
Airtable.
Figura A.3 Asana.
Strumenti per l’analisi dei dati
Tableau
Tableau è una piattaforma per la business intelligence, ossia la
combinazione di analisi e visualizzazione di dati, al fine di poter
prendere decisioni aziendali data-driven. In passato la gestione dei dati
era esclusivo dominio del reparto IT, oggi, con strumenti come
Tableau, anche i marketer possono acquisire dati da diverse fonti e,
attraverso la funzione drag & drop, organizzarli in cruscotti utili,
scegliendo tra decine di grafici. Tutte le dashboard create sono
interattive e possono essere condivise all’interno dell’azienda o
all’esterno. Le soluzioni di business intelligence non sono nuove, ma
quelle di ultima generazione permettono di usare i dati per far
emergere storie, oltre che per comprenderne il valore.
Tra gli strumenti simili vi sono: Looker, acquisito da Google, Domo,
Databox, Chartio, Grow e Klipfolio.
Obviously AI
Obviously AI è uno strumento che permette di utilizzare tecniche di
machine learning senza sporcarsi le mani con il codice o senza
aspettare l’intervento di un data scientist. L’utente si limita a caricare i
suoi dataset da fogli CSV o a integrare quelli provenienti da database o
CRM (PostgreSQL, MySQL, BigQuery, Redshift, Hubspot,
Salesforce). Poi, come se usasse un motore di ricerca, può interrogare
l’“oracolo” usando il linguaggio naturale. Il sistema comprende la
domanda, intercetta i dati utili, li pulisce e costruisce alcuni algoritmi
di machine learning. Infine, sceglie quello migliore e genera un report
con le previsioni per diversi scenari. Nel marketing può essere utile per
prevedere il churn rate, il customer lifetime value, i comportamenti dei
clienti e creare modelli di attribuzione multicanale personalizzati.
Tra i tool simili vi sono Intersect Labs e Metranx, mentre Lobe e
Teachable Machine sono più adatti per addestrare modelli di machine
learning per il riconoscimento di oggetti, persone, immagini, suoni.
.
Different_782ad61f-8e5f-4b1e-b79f-83f33c903455.pdf
g.pdf.
Peretti P., Marketing digitale, Apogeo, 2011.
Porter M., Competitive Advantage: Creating and Sustaining
Superior Performance, 1985.
Posner E. A., Weyl E. G., Radical Markets: Uprooting Capitalism
and Democracy for a Just Society, Princeton University Press,
2018.
Prahalad C. K., Ramaswamy V., Il futuro della competizione, Co-
creare valore eccezionale con i clienti, Il Sole 24 Ore, 2004.
Prandelli E., Verona G., Human Digital Enterprise. Creare e co-
creare valore in un contesto omni-data, Egea Editore, 2020.
Ries E., The Lean Startup, Currency, 2011.
Rogers E., Diffusion of innovations, Free Press of Glencoe, 1962.
Schilling M. A., Gestione dell’innovazione, McGraw-Hill, 2005.
Schivardi F., Schmitz T., The IT Revolution and Southern
Europe’s Two Lost Decades, 2019,
http://www.eief.it/eief/images/Schivardi_Schmitz_JEEA_2019.pdf.
Scoble R., Cronin I., The Infinite Retina, Packt Publishing, 2020.
Scoble R., Israel S., Naked Conversations, John Wiley & Sons
Inc, 2006.
Surowiecki J., The Wisdom of Crowds: Why the Many Are
Smarter than the Few and How Collective Wisdom Shapes
Business, Economies, Societies, and Nations, Doubleday & Co.,
2004.
Utterback J. M., Abernathy W. J., “A dynamic model of process
and product innovation”, Omega, the international journal of
management science 3, 1975.
Utteback J. M., Suarez F. F., “Innovation, competition and
industry structure”, Research Policy 22, 1993.
Venier F., Trasformazione digitale e capacità organizzativa: le
aziende italiane e la sfida del cambiamento, EUT Edizioni
Università di Trieste, 2017.
Westerman G., Bonnet D., McAfee A., Leading digital: turning
technology into business transformation, Harvard Business
Review Press, 2014.
Zarantonello G., Marketing Technologist: trasformare l’azienda
con il cliente al centro, Franco Angeli, 2020.
Zwick D., Dholakia N., “Consumer Subjectivity in the Age of
Internet: The Radical Concept of Marketing Control Through
Customer Relationship Management”, Information and
Organization, 14(3): 211–236, 2004a.
Sitografia
Andreessen Horowitz: https://a16z.com/
ARtillery Intelligence: https://artillry.co/intelligence/
Benedict Evans: https://www.ben-evans.com/essays
Chief Martech: https://chiefmartec.com/
Cosimo Accoto: https://cosimoaccoto.com/
eMarketer: https://www.emarketer.com/
Gartner Blog: https://www.gartner.com/en/blog
Google AI: https://blog.google/technology/ai/
Harvard Business Review: https://hbr.org/
Hubspot Blog: https://blog.hubspot.com/marketing
Internet Manager Blog: https://internetmanagerblog.com/
Marketing Land: https://marketingland.com/
Martech Advisor: https://www.martechadvisor.com/
Martech Vibe: https://www.martechvibe.com/
Martech Zone: https://martech.zone/
Mathew Sweezey: https://mathewsweezey.com/category/future-of-
marketing-blog/