Sei sulla pagina 1di 39

Capitolo 1 – Introduzione

L'importanza dell'innovazione tecnologica


In molti settori l'innovazione tecnologica è il fattore determinante del successo competitivo. Spesso ciò è
dovuto alla globalizzazione, in quanto la pressione esercitata dai concorrenti di tutto il mondo spinge le aziende
a innovare per cercare di differenziarsi. Introdurre nuovi prodotti consente di mantenere i propri margini,
mentre le innovazioni di processo generalmente consentono di ridurre i costi di produzione.

L'impatto dell'innovazione tecnologica sulla società


L'innovazione tecnologica ha quasi sempre effetti positivi (nonostante la corsa ad innovare renda più difficile
raggiungere il successo). L'innovazione ha consentito a persone in tutto il mondo di raggiungere una gamma
molto più ampia di prodotti e servizi, oltre ad aumentare l'efficienza della produzione di generi alimentari e
altri beni di prima necessità.

Un indicatore dell'impatto dell'innovazione è il PIL (Prodotto Interno Lordo). Si tratta del valore complessivo di
beni e servizi prodotti sul territorio nazionale nell'arco di un anno misurato al prezzo d'acquisto per il
consumatore finale.

A volte però l'innovazione tecnologica produce anche delle esternalità negative. Parliamo dell'inquinamento,
della distruzione di habitat naturali, per le conseguenze impreviste di alcune tecnologie.

Ad investire nell'innovazione sono quasi sempre le imprese, con una quota minore di investimenti da parte
dello Stato. In Italia la situazione è capovolta: le imprese investono poco in innovazione e la maggior parte delle
risorse provengono dallo Stato.

Innovazione e impresa: l'importanza di una strategia


Molte aziende avviano processi di sviluppo di nuovi prodotti senza una strategia: questo fa portare avanti più
progetti di quanti se ne possano sostenere e spesso il tasso di fallimento è molto elevato.

Il modello a imbuto dell'innovazione


Solo qualche idea su un migliaio si trasforma
in un prodotto di successo. Per questo motivo
il processo di innovazione viene spesso
rappresentato con la metafora dell'imbuto
dell'innovazione.

Occorre dunque una strategia per migliorare il


tasso di successo di un'impresa. I progetti di
innovazione devono essere coerenti con le
risorse e gli obiettivi dell'impresa, facendo leva
sulle core competency (competenze chiave) dell'azienda.

Capitolo 2 – Le fonti dell’innovazione


2.2 Creatività
Il primo passo per creare innovazione è la creatività, in grado di produrre qualcosa di utile, nuovo e
sorprendente. Il grado di innovatività di un prodotto è funzione sia della differenza dai prodotti che l’hanno
preceduto che delle esperienze passate del mercato.
Creatività individuale
Le capacità creative di un individuo sono funzione di:

- Capacità intellettuale,
- Conoscenze possedute,
- Forma mentis,
- Personalità,
- Motivazione,
- Ambiente circostante.

La conoscenza influisce sia positivamente che negativamente sulla creatività: una conoscenza troppo limitata
non permette un’adeguata comprensione di un problema, mentre una conoscenza troppo specifica potrebbe
restare intrappolata in determinati schemi logici. Spesso chi non possiede determinate conoscenze specifiche è
più incline a trovare soluzioni più originali e funzionali.

Creatività di un’organizzazione
La creatività di un’organizzazione è funzione sia, ovviamente, della creatività dei suoi componenti, che della
struttura organizzativa, che può incentivare o ostacolare l’innovazione.

Il metodo più comune adottato dalle imprese per mettere a frutto la creatività dei propri dipendenti è la
cassetta dei suggerimenti. Per quanto semplici e dai costi contenuti, i sistemi per la raccolta delle idee non
sono il metodo migliore per “raccogliere” l’innovazione. Aziende più grosse investono in programmi di training
creativo.

Inizialmente, i dipendenti che proponevano suggerimenti ottenevano dei compensi in denaro, ma una
dimostrazione di rispetto e considerazione verso il personale si è mostrata più efficace dei compensi pecuniari,
che possono compromettere la creatività individuale.

2.3 Dalla creatività all’innovazione


Per avere innovazione bisogna far sì che la creatività generi dei prodotti utili, oltre che a semplici novità.

Inventore
L’inventore di successo, secondo uno studio durato oltre dieci anni, possiede le seguenti caratteristiche:

- Buona padronanza degli strumenti e dei processi produttivi fondamentali del settore in cui operano, che
però non è l’unico campo in cui sono specializzati (di solito tendono a dedicarsi ad almeno due campi di
attività);
- Curiosità e interesse più per i problemi che per le soluzioni;
- Attitudine a mettere in discussione le ipotesi e i modelli di pensiero esistenti;
- Percezione della conoscenza come sapere integrato e ricerca di soluzioni globali anziché particolari.

Molti inventori non posseggono anche capacità imprenditoriali e spesso non sono realmente interessati a
brevettare le loro scoperte. Tanti inventori famosi, invece, possedevano anche spiccate doti imprenditoriali
(Bell, Edison, Einstein o Marconi).

Innovazioni ideate dagli utilizzatori


Spesso un’innovazione proviene dall’utilizzatore di un prodotto alla ricerca di soluzioni che rispondano meglio
alle sue esigenze.
L’utilizzatore possiede sia un’elevata conoscenza dei propri bisogni che l’incentivo per escogitare nuove
soluzioni capaci di soddisfarli. Ciò li spinge ad apportare modifiche a prodotti già esistenti.

Le innovazioni ideate dagli utilizzatori possono anche far nascere nuovi settori, come nel caso degli snowboard.

Attività di ricerca e sviluppo nelle imprese


Una delle naturali fonti di innovazione all’interno dell’impresa è costituita dall’impegno e dagli investimenti in
ricerca e sviluppo.

La ricerca comprende sia la ricerca base, consistente nell’approfondimento della conoscenza di un’area
scientifica senza considerarne le applicazioni commerciali immediate, che la ricerca applicata, orientato
all’aumento della comprensione di un problema allo scopo di soddisfare un particolare bisogno.

Per sviluppo si intendono le attività che consentono di applicare la conoscenza alla realizzazione di nuovi
prodotti, materiali o processi.

Le imprese considerano la R&D interna come fonte principale dell’innovazione. Inoltre, l’intensità della R&D di
un’impresa è fortemente correlata, positivamente, con il tasso di aumento dei ricavi, le vendite generate dai
nuovi prodotti e la redditività dell’impresa.

Negli anni Cinquanta gli esperti avevano posto l’accento su un approccio science push, secondo il quale
l’innovazione seguiva un percorso lineare del tipo scoperta scientifica-invenzione-progettazione-produzione-
marketing. Poiché questo modello si è rivelato poco reale, verso la metà degli anni Sessanta si è diffuso il
modello demand pull, secondo il quale le esigenze e i problemi dei clienti funzionano da incentivo per ricercare
nuove scoperte scientifiche.
Entrambi i modelli sono troppo semplicistici e ogni fase del processo di innovazione può essere caratterizzata
da diversi livelli di science push e demand pull.

In realtà, le imprese innovatrici di successo si avvalgono di un’ampia varietà di fonti di informazioni e di idee,
tra cui la R&D interna, le relazioni con i clienti, con i network esterni di imprese (concorrenti, produttori
complementari e fornitori), università e centri di ricerca pubblici.

Relazioni dell’impresa con clienti, fornitori, concorrenti e produttori di beni complementari


Spesso le imprese formano alleanze con clienti, fornitori, produttori e persino con i concorrenti per collaborare
insieme a un progetto di innovazione. La collaborazione può avvenire attraverso varie modalità di accordo, con
relativi vantaggi e svantaggi.

Le imprese possono scegliere anche di collaborare con produttori di beni complementari, ad esempio un
produttore di lettori DVD può collaborare con i produttori dei DVD stessi o dei software per l’hardware. Spesso
il confine tra produttore di bene complementare e concorrente è molto sottile. Samsung, fino al 2011, ha
collaborato con Nokia per installare sui propri dispositivi portatili il sistema operativo Symbian; ma Nokia era
anche la stessa azienda che faceva da concorrente nella produzione dei dispositivi.

Fonti di innovazione interne ed esterne


A volte le imprese sono accusate di acquisire l’innovazione tecnologica da fonti esterne anziché investire in
ricerca originale. Tuttavia emerge da dati empirici che le imprese che più investono nel settore R&D interno
sono anche quelle che fanno maggiore utilizzo di fonti esterne. Questo può essere dovuto al fatto che un
proficuo settore R&D possiede un maggior grado di assorbimento della conoscenza.
Università e ricerca con finanziamenti pubblici
Un’altra fonte di innovazione è rappresentata da università, EPR, e incubatori di imprese. Molte imprese
indicano che la ricerca finanziata da questi enti assieme a fondazioni private ha consentito sviluppo di
innovazioni altrimenti impossibili.

Università
Le università stimolano il proprio corpo docente a intraprendere attività di ricerca votate ad innovazioni utili. La
protezione della proprietà intellettuale universitaria comprende innovazioni sia brevettabili che non.
L’università conserva l’esclusiva sui diritti di commercializzazione e di norma divide i proventi con i singoli
inventori.

Per rafforzare i legami fra ricerca e sviluppo di innovazioni, molte università hanno istituito strutture per il
trasferimento tecnologico (liason office o technology transfer office).

Ricerche con finanziamenti pubblici


I governi di molti Paesi investono attivamente nella ricerca con la creazione di laboratori, science parks e
incubatori di imprese, oppure finanziando enti di ricerca pubblici e privati.

In Paesi come l’Italia, dove la capacità delle imprese di investire in ricerca appare ancora lontana dai livelli
raggiunti da Israele, sud-est asiatico, Stati Uniti e nord Europa, il ruolo pubblico rimane fondamentale.

I fondi pubblici possono sostenere i fondi di R&D attraverso la creazione di parchi scientifici e incubatori di
imprese. I parchi scientifici promuovono la collaborazione tra enti pubblici di ricerca, università e imprese
private. Quando queste strutture sono votate alla creazione e sviluppo di nuove realtà imprenditoriali,
prendono il nome di incubatori di imprese. Gli incubatori concorrono ad attenuare i rischi di imperfezioni del
mercato, che possono verificarsi quando un’innovazione, pur avendo ottimi potenziali, presenta un alto grado
di incertezza in termini di rendimento degli investimenti.

I parchi e gli incubatori costituiscono un terreno fertile per lo start-up di nuove attività e un nodo cruciale per le
attività di collaborazione di imprese già consolidate con istituzioni di ricerca.

Organizzazioni non profit


Le organizzazioni private non profit sono gli istituti di ricerca privati, gli ospedali non profit, le fondazioni
private, le associazioni professionali o tecniche, i consorzi accademici o industriali e le associazioni
imprenditoriali. Esse contribuiscono alle attività di innovazione con modalità differenti. Molte svolgono
programmi di ricerca e sviluppo in-house, altre finanziano le attività di R&D di diverse organizzazioni, altre
ancora realizzano entrambe le attività.
In Italia due grossi esempi sono l’AIRC e la Fondazione Telethon.

2.4 Innovazione nei network collaborativi


I network collaborativi di ricerca e sviluppo svolgono un importante ruolo nella realizzazione di idee innovative.
Queste collaborazioni possono essere impostate secondo:

- Joint venture,
- Concessione di licenze,
- Associazioni di ricerca
- Programmi di ricerca congiunti finanziati da:
o Stato
o Regioni
o Unione Europea
- Network per lo scambio di conoscenze tecniche e scientifiche
- Network informali.

La ricerca collaborativa assume estrema importanza nei settori high-tech. Fornendo alle imprese che ne fanno
parte l’accesso a una gamma più ampia di informazioni e risorse, i network inter-organizzativi possono
consentire alle imprese di ottenere prestazioni e risultati superiori a quelli ottenibili individualmente. Per
questo motivo, i network collaborativi sono un potente motore di innovazione.

Cluster tecnologici
A volte la prossimità geografica riveste un ruolo decisivo i fini della creazione di network collaborativi e della
loro capacità innovativa. Anche la istituzioni regionali e nazionali possono essere interessati alla creazione di
reti geograficamente raccolte, al fine di aumentare l’occupazione, il gettito fiscale e ottenere altri benefici
economici.

Un cluster tecnologico è una rete di imprese connesse fra loro e di istituzioni associate, concentrate
territorialmente, operanti in determinati campi, dove competono e al tempo stesso cooperano, collegate da
elementi di condivisione e di complementarità. L’ambito territoriale può variare da regionale a nazionale fino
ad essere in condivisione tra più Paesi (come il complesso biotecnologico dell’Øresund tra Danimarca e Svezia).

Nonostante i progressi delle tecnologie di comunicazione abbiano reso la trasmissione di informazioni a grande
distanza più semplice, rapida ed economica, la conoscenza complessa o tacita richiede un’interazione
ravvicinata e frequente per essere trasferita.

La vicinanza e la frequenza dell’interazione possono influenzare la predisposizione dell’impresa a scambiare le


proprie conoscenze a causa del formarsi di un rapporto di fiducia e della conseguente istituzione di norme e
consuetudini reciproche.

La presenza di questi cluster genera a sua volta altri vantaggi di natura geografica, stimolando la nascita di
nuove imprese nell’area e attirando nella stessa altre imprese già esistenti. Alcune unità organizzative o
dipendenti con capacità imprenditoriali potrebbero distaccarsi e originare nuove imprese. A livello locale si ha
un aumento di occupazione e proventi fiscali che incoraggiano il miglioramento di infrastrutture e servizi.
Questi benefici sono stati definiti come economie di agglomerazione. Tuttavia la concentrazione geografica
delle imprese può determinare anche effetti negativi. La presenza nello stesso territorio di molti concorrenti
rischia di indebolire il potere contrattuale delle imprese. In secondo luogo aumenta la probabilità che un
concorrente riesca ad accedere a conoscenze proprietarie di altre imprese: questo meccanismo è detto spill-
over tecnologico. Infine si possono avere ripercussioni negative sul territorio, come l’aumentare
dell’inquinamento atmosferico, dei prezzi delle case e del traffico automobilistico.

Uno dei motivi principiali per cui la conoscenza tende a radicarsi geograficamente è che le persone, veicoli della
conoscenza, presentano una certa resistenza agli spostamenti.

L’intensità del processo di clustering dipende da fattori quali:

- La natura della tecnologia, che può richiedere un certo grado di prossimità per essere scambiata,
- Le caratteristiche del settore nella zona,
- Il contesto culturale della tecnologia, ossia la densità di risorse umane specializzate o di clienti esigenti
(basti pensare a come l’industria dell’abbigliamento proliferi in Italia mentre quella farmaceutica in Regno
Unito e Francia).
Spill-over tecnologici
Gli spill-over tecnologici si manifestano quando i benefici delle attività di ricerca di un’impresa si riversano su
altre imprese. Sono quindi esternalità positive dell’impegno nell’R&D. Dati empirici suggeriscono che gli spill-
over tecnologici esercitino un’influenza significativa sulle attività innovative.

Lo spill-over, ovviamente, dipende anche dall’efficacia dei meccanismi di protezione dell’innovazione (brevetti,
copyright, segreto industriale). Poiché la forza dei meccanismi di protezione varia notevolmente con i settori e i
Paesi, anche la probabilità di spill-over presenta ampi margini di variazione. Tale probabilità è influenzata anche
dalla natura delle conoscenze di base (se sono tacite, è difficile che si diffondano all’esterno) e dal grado di
mobilità del capitale umano.

Una figura importante è il Knowledge broker. I Knowledge broker sono individui o organizzazione che
trasferiscono informazioni da un contesto a un altro, là dove le conoscenze possano essere impiegate con
successo, sperimentando nuove applicazioni industriali. Sono coloro che mettono in contatto diverse reti di
imprese, connettendo nodi che altrimenti rimarrebbero isolate. Si trovano nella posizione ideale per combinare
conoscenze possedute da cluster differenti: questo vantaggio lo rende un formidabile promotore dei processi
di innovazione. La ricerca suggerisce che la maggior parte delle innovazioni non è determinata, infatti, dalla
scoperta di qualcosa di nuovo, ma è il risultato di nuove combinazioni di concetti e materiali giù conosciuti.

Capitolo 3 – Forme e modelli dell’innovazione


Il percorso di un’innovazione tecnologica nel tempo viene definito traiettoria tecnologica. Spesso è utilizzata
per rappresentare il miglioramento della performance di una determinata tecnologia o il suo processo di
adozione da parte del mercato. Nonostante la dipende da molteplici fattori, è possibili identificare alcuni
modelli evolutivi validi in vari contesti settoriali e temporali differenti.

3.2 Forme dell’innovazione


Di norma si adoperano 4 dimensioni per classificare le innovazioni tecnologiche:

- Natura dell’innovazione (di prodotto/di processo)


- Intensità e grado di ampiezza (radicali/incrementali)
- Effetto sulle competenze possedute dall’impresa (competence enhancing/competence destroying)
- Ambito di destinazione (architetturali/modulari)

Innovazioni di prodotto e di processo


Le innovazioni di prodotto comprendono i beni o i servizi realizzati da un’azienda. Le innovazioni di processo
sono invece dei cambiamenti nelle modalità in cui un’impresa svolge le sue attività (le tecniche di produzione,
le strategie di marketing). Le innovazioni di processo sono spesso orientate al miglioramento dell’efficienza o
dell’efficacia dei sistemi di produzione.

Spesso innovazioni di processo e di prodotto sono simultanee e collegate. Nuovi processi possono determinare
la nascita di nuovi prodotti: i progressi nella lavorazione del metallo hanno consentito la produzione di ruote
dentate e catene leggere, facendo nascere la bicicletta. Viceversa, anche nuovi prodotti possono far nascere
nuovi processi: lo sviluppo di stazioni informatiche di lavoro ha consentito alle aziende l’adozione di sistemi
CAM (Computer-Aided Manufacturing). Infine, un’innovazione di prodotto per un’impresa può essere
un’innovazione di processo per un'altra: dei sistemi di spedizione postale più efficienti sono innovazioni di
prodotto per le compagnie di spedizione e di processo per i loro clienti.

D’ora in poi, con il termine innovazione si intenderanno indistintamente sia quelle di prodotto che di processo.
Innovazioni radicali e incrementali
Le definizioni di innovazione radicale e innovazione incrementale sono basate sulla distanza dell’innovazione
da un prodotto o processo preesistente. Un’innovazione radicale può essere intesa come una combinazione di
novità e differenziazione.

Una tecnologia potrebbe rappresentare una novità assoluta oppure risultare nuova solo in un determinato
contesto. Potrebbe invece differenziarsi molto dai prodotti preesistenti oppure mostrare differenze solo
marginali.

Le innovazioni radicali per eccellenza dovrebbero presentare un carattere di novità assoluta e risultare
differenti in modo significativo dai prodotti e processi già esistenti.
Il carattere radicale di un’innovazione viene talvolta definito anche in termini di rischio poiché le innovazioni
radicali comportano la necessità di nuove competenze.

Infine, quando si considera la radicalità di un’innovazione, va tenuta in conto una certa relatività. Può essere
radicale in un certo periodo di tempo o secondo una certa prospettiva di analisi. La macchina a vapore,
innovazione radicale nel momento della sua invenzione, ora ovviamente è di semplice realizzazione. Inoltre
un’innovazione radicale per un’azienda può essere incrementale per un'altra. Quando Kodak nel 1995 lanciò la
sua prima macchina digitale (che tra l’altro fu la causa del suo fallimento), per l’azienda americana, che si
occupava principalmente di processi chimici, era un’innovazione radicale. Ma quando l’anno dopo la Sony mise
sul mercato la Cyber Shot, per l’azienda nipponica si trattava di un’innovazione incrementale, in quanto
elettronica, grafica e memorizzazione digitale erano già i suoi campi di specializzazione.

Innovazioni competence enhancing e competence destroying.


Dalla prospettiva di una particolare azienda, un’innovazione è detta competence enhancing quando la sua
introduzione consiste in un’evoluzione delle competenze e delle conoscenze di base preesistenti.

Un’innovazione invece è detta competence destroying se la nuova tecnologia non scaturisce dalle competenze
già posseduta dall’azienda o se addirittura le rende inadeguate.

Riprendendo il caso della macchina fotografica digitale, essa fu competence enhancing per la Sony ma
competence destroying per la Kodak.

Innovazioni architetturali e modulari


La maggior parte dei prodotti e dei processi è un sistema nidificato e gerarchico. In altre parole, a qualsiasi
livello lo si analizzi, è composto da parti più elementari interconnesse tra loro (un PC è composto dalle sue
periferiche e componenti, così come la CPU è composta da memorie e unità di elaborazione, le quali a loro
volta sono composte di transistor e resistenze e così via).

Quando un’innovazione prevede il cambiamento di un singolo prodotto che non altera l’architettura e la
composizione di cui ne fa parte, l’innovazione è detta modulare. Un esempio potrebbe essere un nuovo
modello di processore prodotto dalla Intel, che non cambierà necessariamente l’intera architettura dei
calcolatori che lo montano.

Se invece il cambiamento riguarda la struttura generale del sistema o il modo in cui le sue componenti
interagiscono, l’innovazione è detta architetturale. Questa potrebbe non cambiare i singoli componenti del
sistema ma solo in modo in cui sono interconnessi. La maggior parte delle innovazione architetturali, però,
comporta cambiamenti del sistema che si ripercuotono sul progetto nel suo complesso, implicando modifiche
nei componenti e non solo nei meccanismi di interazione. Spesso le innovazione architetturali esercitano
profonde e complesse influenze sui concorrenti e sugli utilizzatori di quella tecnologie e tendono a essere per
loro natura innovazioni radicali e competence destroying (ancora una volta, si faccia riferimento al caso
Kodak/Sony).

Tutti i criteri di classificazione enunciati, seppure utili, risultano labili e vanno sempre considerati relativamente
all’istante di tempo, alla particolare aziende o alla regione geografica. Numerosi studi hanno rilevato l’esistenza
di modelli ricorrenti nel processo evolutivo di una nuova tecnologia, dalla sua introduzione fino a quando viene
sostituita da nuove tecnologie emergenti.

3.3 Curve tecnologiche a S


È stato osservato che sia il tasso di miglioramento della performance di una tecnologia sia il suo tasso di
diffusione nel mercato tendono a seguire un andamento riproducibile con una curva a S.

Curve a S del miglioramento tecnologico


Molte tecnologie presentano un andamento a forma di S,
durante il loro ciclo di vita, per quanto riguarda il processo di
miglioramento delle performance.

Nella fase iniziale, il miglioramento della performance è lento


perché i principi base sono stati compresi solo parzialmente e
molte energie andranno perse nell’esplorazione di percorsi
alternativi. Se la tecnologia è un’innovazione radicale si
potrebbe non disporre degli strumenti di valutazione adatti per stimare il progresso e lo sviluppo. Inoltre, fino a
quando la tecnologia non acquisisce una certa legittimità, potrebbe essere difficile attrarre altri ricercatori
interessati a partecipare allo sviluppo.

Quando la conoscenza si fa più approfondita, si entra nella fase intermedia in cui il miglioramento inizia a
essere più rapido. Si selezionano le attività che a parità di impegno producono il maggior incremento delle
performance.

Nella fase finale la tecnologia si avvicina al proprio limite naturale e i miglioramenti diventano marginali ed
estremamente costosi a livello di impegno.

La curva tende a essere rappresentata con il rapporto performance/impegno anziché performance/tempo per
evitare distorsioni dovute ad un impegno scostante durante il tempo.

Non sempre le tecnologie raggiungono i propri limiti, perché potrebbero essere rimpiazzate prima del tempo
da tecnologie discontinue, cioè che rispondono a una richiesta di mercato simile a quella già soddisfatta dalla
tecnologia preesistente ma che hanno basi di conoscenza completamente diverse. Inizialmente una
discontinuità tecnologica può avere performance inferiori (come le prime macchine fotografiche digitali o le
prime automobili, più lente e meno governabili dei carri trainati da cavalli).

Nelle fasi iniziali il rendimento dell’impegno per una nuova tecnologia è solitamente inferiore a quello
dell’investimento per un miglioramento marginale di una tecnologia esistente, rendendo le aziende riluttanti
all’abbandono delle vecchie tecnologie. Ma se la nuova tecnologia presenta una curva più ripida o con un limite
naturale più alto, vi è un punto in cui gli investimenti per la nuova tecnologia diventano più redditizi rispetto a
quelli per la vecchia.
Curve a S della diffusione di una tecnologia
Le curve a S sono adoperate anche per descrivere il processo di diffusione di una tecnologia: queste
rappresentano il rapporto tra il numero di utilizzatori e il tempo.

In una fase iniziale l’adozione di una nuova tecnologia è lenta poiché ancora poco conosciuta. Quando gli
utilizzatori acquisiscono una conoscenza più approfondita il prodotto si diffonde e la fase intermedia vede un
ripido innalzamento delle adozioni. Nella fase finale, quando il mercato tende a saturarsi, il tasso di adozioni
diminuisce. In altre parole, ad un certo punto tutti posseggono o utilizzano il prodotto e non rimane più nessun
potenziale nuovo cliente.

La diffusione di una tecnologia richiede spesso tempi molto più lunghi rispetto alle conoscenze a essa legate.
Spesso le aziende continuano a non adottare una data tecnologia, nonostante i suoi evidenti vantaggi, perché
essa necessità, per essere utilizzata, di nuove conoscenze che possono anche essere tacite ed attende
l’apprendimento di queste prima di procedere all’adozione. Questo è il caso dei robot industriali.

Inoltre, molte tecnologie acquisiscono valore per molti utilizzatori solo dopo la comparsa di risorse
complementari: sebbene la luce elettriche fosse stata scoperta nel 1809, bisogna aspettare la lampadina e il
suo perfezionamento da parte di Edison nel 1880 prima che fosse realmente utilizzabile.

Infine è bene tener conto che le curve a S per la diffusione sono in parte funzione delle curve a S del
miglioramento tecnologico. Inoltre, minore è il costo di un prodotto con una data tecnologia, maggiore è
l’adozione da parte dell’utenza.

Curve a S come strumento di pianificazione


I manager possono avvalersi dei modelli con curva a S per prevedere il momento in cui una tecnologia
raggiungerà i sui limiti naturali e decidere se e quando passare a una tecnologia innovativa o perfino radicale.
Ci si può servire dei dati relativi agli investimenti e alle performance sia della propria azienda che del settore
nel suo complesso e così decidere quando spostarsi su una nuova curva con una nuova tecnologia.

Limite del modello della curva a S quale strumento di pianificazione


Innanzitutto è raro che si conoscano in anticipo i limiti effettivi di una nuova tecnologia. In secondo luogo, la
forma a S non è una regola matematica obbligatoria. Spesso cambiamenti inattesi del mercato o innovazione
complementari possono accorciare a allungare il ciclo di vita di una tecnologia.

A seconda del momento di adozione, rispetto alla curva, di una nuova tecnologia, Rogers suddivide gli adottanti
in 6 categorie:
- Innovatori: gli avventurosi che non temono la complessità e l’incertezza associate di norma ai nuovi
prodotti. Rappresentano il canale attraverso cui le nuove idee si trasferiscono nella società. Rappresentano
il 2,5% dei consumatori.
- Primi adottanti: solitamente sono ben integrati nel proprio sistema sociale ed esercitano molta influenza
sul comportamento di altri (opinion leadership). Sono i missionari del prodotto o processo innovativo e
sono stimati come il 13,5% dei consumatori.
- Maggioranza anticipatrice: lenta e prudente nel processo di adozione, anticipa di poco il consumatore
medio del mercato. Sebbene non siano opinion leadership, godono di numerose relazioni. Rappresentano
il 34% dei consumatori.
- Maggioranza ritardataria: rivela un atteggiamento scettico verso l’innovazione e non adotta il nuovo
prodotto finché non avverte una pressione sociale da parte dei propri pari. Spesso dispone di minori
risorse finanziarie. Rappresenta anch’essa il 34%
- Ritardatari: rappresentano il restante 16% dei consumatori e non adottano un prodotto finché non hanno
la certezza della loro utilità.

3.4 Cicli tecnologici


Il modello della curva a S lascia presupporre che i cambiamenti tecnologici presentino un andamento ciclico:
quando giungono vicine al loro limite naturale vengono sostituite da una nuova tecnologia che seguirà lo stesso
percorso. L’emergere di una discontinuità tecnologica può rovesciare la struttura competitiva del settore,
creando un processo di “distruzione creativa”.

Uno dei modelli più noti e consolidati è quello di Utterback e Abernathy. Secondo il modello, l’innovazione
tecnologica attraversa due fasi:

- Fase fluida: caratterizzata da una condizione di forte incertezza sulla tecnologia e sul mercato. I prodotti
possono essere ancora grezzi, inaffidabili o troppo costosi. Le aziende sperimentano differenti fattori di
forma e combinazioni di caratteristiche valutando la risposta del mercato.
- Fase specifica: si afferma un disegno o modello dominante, nel quale convergono gli attributi ideali del
prodotto. Fissa i principi dell’architettura e ci si può concentrare sulle innovazioni marginali e di processo.

Basandosi su questo modello, Anderson e


Tushman hanno definito due fasi del ciclo
tecnologico. Hanno riscontrato che ciascuna
discontinuità tecnologica innesca un periodo di
turbolenza, definito era di fermento. Mentre la
nuova tecnologia rimpiazza la vecchia,
operando una sostituzione, si accende
un’intensa competizione fra modelli alternativi
differenti. Quando un disegno diventa
dominante tende a coprire gran parte delle quote di mercato e spesso non coincide col modello originario con
cui la tecnologia è stata presentata.
Il successo di un modello dominate segna la transizione nella fase denominata era di cambiamento
incrementale dove le aziende si concentrano sull’efficienza del prodotto e sulla penetrazione del mercato.
Questo periodo, in cui si cerca di migliorare la tecnologia a piccoli passi, si protrae fino alla successiva
discontinuità tecnologica.
In questa fase le aziende tendono a concentrare i loro sforzi sull’architettura dominante e a creare dei “filtri”
atti a selezionare le informazioni più rilevanti ai fini della comprensione del progetto dominate. Spesso questo
diventa un ostacolo nel riconoscere una nuova architettura tecnologica, abbassando le capacità di risposta.

Alcuni settori fanno eccezione, in quanto esistono business in cui le maggiori pressioni competitive spingono
verso l’innovatività e soprattutto verso le capacità di differenziazione.

Capitolo 6 – Definizione dell’orientamento strategico


Il primo passo che il management deve compiere per formulare una strategia di innovazione tecnologica
consiste nel valutare la posizione attuale dell’impresa e definire l’orientamento strategico per il futuro.

I risultati che emergono dall’applicazione corretta degli strumenti di analisi presentati in questo capitolo sono
elementi decisivi per un uso efficace di valutazione dei progetti di innovazione.

La formulazione di una strategia richiede una valutazione corretta della posizione ricoperta dall’impresa e
l’identificazione di una sfida competitiva in grado di creare tensione tra presente e futuro.

6.2 Valutazione della posizione competitiva dell’impresa


Per valutare la strategia di innovazione prima di tutto bisogna valutare l'attuale posizione competitiva
dell'azienda e ciò si fa studiando l'ambiente esterno e quello interno.

Analisi dell’ambiente esterno


Gli strumenti usati sono il modello delle cinque forze di Porter e l'analisi degli stakeholder.
Il modello delle cinque forze di Porter
In questo modello il grado di attrattività di un settore è valutato attraverso l’analisi di cinque forze competitive.
Inizialmente il modello era applicato per la valutazione dell’attrattività di un settore, ma ora spesso è utilizzato
per identificare l’impatto delle variabili che rappresentano l’ambiente competitivo nella prospettiva di una
determinata impresa. Ci concentreremo sul secondo aspetto.

1) Grado di rivalità competitiva: il grado di rivalità è


influenzato innanzitutto dal numero e dalla dimensione dei
concorrenti. Più concorrenti, in generale, implica più rivalità.
Questo non vale per i mercati oligopolistici, in cui poche
aziende molto forti possono avere un’enorme rivalità. In
secondo luogo è influenzata dalla differenziazione dei prodotti
esistenti, che abbassa il grado di rivalità. Infine dal livello della
domanda, che innalzandosi abbassa la rivalità. Eventualmente,
ad aumentare la rivalità possono esserci elevate barriere
all’uscita (investimenti di capitale fisso, coinvolgimento
emotivo nel settore ecc.)
2) Minaccia di entranti potenziali: l’ingresso di nuove
aziende nel mercato è ovviamente una minaccia. Basse barriere all’entrata e alta attrattività del
mercato aumentano il livello di minaccia.
3) Il potere contrattuale dei fornitori: il numero dei fornitori e la loro differenziazione può
rispettivamente diminuire e aumentare il potere contrattuale dei fornitori. Anche il valore di prodotto
acquistato o venduto influisce sul potere contrattuale: se un fornitore rappresenta un’elevata quota di
acquisti per un’azienda, il suo potere contrattuale sarà elevato. Viceversa, se un’azienda rappresenta
una grossa quota di vendite del fornitore, il potere contrattuale scende. Il potere contrattuale di un
fornitore aumenta anche in presenza di switching cost. Infine, un’integrazione verticale (o una sua
credibile minaccia) a monte da parte dell’azienda diminuisce il potere contrattuale del fornitore, così
come un’integrazione verticale a valle lo aumenta.
4) Il potere contrattuale dei clienti: si comporta analogamente a quello dei fornitori: questa volta il
fornitore è l’azienda stessa, che dovrà vendere ai suoi clienti.
5) La minaccia dei prodotti sostitutivi: maggiore è il numero dei potenziali prodotti sostitutivi e quanto
più la loro funzione è simile a quella del prodotto o servizio offerto, maggiore è la minaccia dei sostituti.
La distinzione tra un concorrente e un prodotto sostitutivo è relativa: nell’ambito del trasporto aereo, il
trasporto ferroviario è un prodotto sostitutivo, ma se l’ambito preso in considerazione è quello dei
trasporti in generale, allora il trasporto ferroviario diventa un concorrente

Nel 2001 Porter aggiunge una sesta forza: i prodotti complementari. La disponibilità, la qualità e il prezzo dei
complementi esercitano una chiara influenza sul quadro di opportunità e di minacce per le imprese che
operano nel settore.

Analisi degli stakeholder

Il management può seguire due differenti approcci per l'analisi degli stakeholder:

- L’analisi strategica pone l'accento su quegli aspetti della gestione degli stakeholder che potrebbero
influenzare le performance economiche e finanziarie dell'impresa.
- L'analisi normativa si focalizza sugli aspetti della gestione degli
stakeholder che l'impresa dovrebbe tenere sotto controllo per ragioni
etiche o morali.

Il primo passo nella stakeholder analysis consiste nell'individuare gli


attori. Per ciascuno degli stakeholder, il management deve
identificare gli interessi, le attese, le risorse, le possibili rivendicazioni.
Bisogna poi identificare quali di questi interessi, risorse,
rivendicazioni assumano un ruolo determinante nelle prospettive
dell'impresa.

Analisi dell’ambiente interno


L’analisi dell’ambiente interno si apre con
l’individuazione dei punti di forza e debolezza
dell’impresa. A volte il management procede
valutando singolarmente ciascuna attività della
catena di valore dell’impresa. In figura, il modello
di catena di valore sviluppato da Porter nel 1985.

Il modello può essere adattato ai vari tipi di


azienda: ad esempio un’azienda di biotecnologie
l’R&D è un’attività primaria mentre la logistica
interna è un’attività secondaria.

Ogni attività viene valutata in base a quanto contribuisce alla creazione di valore complessivo per l'impresa. Per
ogni attività si valutano punti di forza e di debolezza. Queste valutazioni guideranno l'impresa
nell'individuazione delle risorse con maggiore potenziale, quelle che saranno cruciali nella definizione
dell'intento strategico. Le risorse per essere una potenziale fonte di vantaggio devono essere rare, di valore,
durevoli e difficilmente imitabili.

Alcune risorse non sono facilmente riproducibili: un esempio è il talento, che è una risorsa tacita. Altri esempi
sono le risorse socialmente complesse, cioè quelle date dall'interazione di più individui. Difficilmente
riproducibili sono anche le risorse che presentano una path dependency, cioè quelle che derivano da una
successione di eventi.

L’analisi dell'ambiente interno pone le basi per l'individuazione delle core competency (competenze chiave) e
per la definizione dell'intento strategico.

6.3 Individuazione delle capacità e delle competenze chiave


Le core competency sono le competenze distintive che differenziano un'azienda sotto il profilo strategico.
Nascono dalla capacità dell'azienda di combinare e integrare una molteplicità di capacità primarie in cui
eccelle. La combinazione di queste capacità rende le core competency difficili da imitare. Ad esempio, una core
competency di Sony è la miniaturizzazione. La combinazione di capacità primarie da cui scaturisce questa core
competency deriva dalle capacità maturate negli schermi a cristalli liquidi e nei semiconduttori.

Secondo Prahalad e Hamel per stabilire se le competenze individuate sono competenze chiave, il management
deve porsi le seguenti domande:
• Sono una fonte significativa di differenziazione rispetto ai concorrenti? Rendono unica l'impresa?
Permettono al cliente di percepire il valore del prodotto finale?
• Possono essere sfruttate in più business sia esistenti che nuovi?
• Sono difficili da imitare per i concorrenti?

Gli stessi Prahalad e Hamel paragonano le core competency alle radici di un albero che genera i prodotti chiave.
Questi a loro volta danno origine alle business unit i cui frutti sono destinati al mercato finale. Affermano
inoltre che l'elenco di competenze chiave in cui un'azienda può assumere la leadership sono 5 o 6, dunque se
dall'analisi risulta un elenco molto più grande probabilmente bisogna ancora individuare le vere competenze
chiave.

Proprio le aree di competenza possono rappresentare una minaccia se l'azienda si irrigidisce su quel mercato. Il
rischio è che risulti troppo ancorata ad abilità del passato e ciò può ostacolare la formazione di nuove core
competency. Questo è ciò che si chiama rischio di core rigidity.

In mercati segnati da rapidi processi di evoluzione, l'impresa può trarre vantaggi dallo sviluppo di una core
competency in grado di rispondere al cambiamento. L’insieme di capacità che rende l’impresa più flessibile e
pronta a rispondere ai cambiamenti del mercato sono le capacità dinamiche e consentono di adattarsi
rapidamente all'emergere di nuovi mercati o all'introduzione di discontinuità tecnologiche. Al contrario delle
core competency, non sono legate a determinati prodotti chiave.

6.4 Intento strategico


Lo scopo dell'azienda è quello di creare valore. Si deve far leva sulle risorse per offrire performance migliori al
cliente e garantire maggiori ricavi per gli azionisti. Per fare ciò è essenziale lasciarsi guidare dall'intento
strategico, un obiettivo a lungo termine molto ambizioso che si origina dalle competenze chiave estese al limite
e che coinvolge tutti i livelli dell'organizzazione, motivandoli. L'intento strategico prevede di solito un orizzonte
temporale di 10-20 anni e degli obiettivi intermedi da raggiungere.

Avere un intento strategico è fondamentale per scongiurare il rischio di rimanere ancorati ai mercati su cui già
opera soddisfacendo le richieste dei mercati esistenti, ma non le esigenze dei mercati futuri. Ad esempio,
Canon ha come intento strategico superare Xerox nel mercato delle fotocopiatrici.

Una volta definito l’intento strategico, l’impresa dovrebbe essere in grado di identificare le risorse e le capacità
necessarie a colmare il gap tra questo e la sua posizione attuale. L’elaborazione dell’intento strategico
consente all’impresa di focalizzare l’impegno e gli investimenti nell’evoluzione di tecnologie innovative.

Capitolo 9 – Meccanismi di protezione dell’innovazione


Applicare dei meccanismi di protezione assoluti (wholly proprietary strategy) può non essere sempre la
migliore idea. A volte si sceglie volontariamente di non proteggere (wholly open strategy) una determinata
innovazione al fine di favorire l’espansione più rapida di questa e di permettere una penetrazione più profonda
nel mercato.

9.2 Appropriabilità
Con appropriabilità intendiamo la capacità dell'impresa di acquisire e trattenere per sé le rendite generate dai
processi innovativi. Il grado di appropriabilità di un'innovazione è determinato dalla facilità e rapidità con cui i
concorrenti riescono ad imitarla (e quest'ultimo fattore a sua volta dipende dalla natura della tecnologia e da
come viene protetta).
Alcune aziende possiedono dei team di ricercatori che rappresentano un capitale, una base di conoscenza
difficile da imitare. Importanti sono i rapporti fra i membri del team, le loro conoscenze ed il loro talento. E
sebbene si possa cercare di ricreare lo stesso tipo di formazione, sicuramente non si può infondere il talento.
Dunque questa è una base di conoscenza difficile da imitare. Trattandosi di interazioni sociali, parliamo di
risultati path-dependent. Questo vale per tutte le conoscenze tacite e socialmente complesse.

Alcune conoscenze sono però facili da imitare, per


questo sono previsti dei meccanismi per la tutela
della proprietà intellettuale: brevetti, marchi,
copyright, segreto industriale.

L’appropriabilità è quindi funzione sia del grado di


imitabilità dell’innovazione che dei diritti di
proprietà intellettuale applicati.

9.3 Brevetti, marchi e copyright


Un brevetto protegge un’invenzione, un marchio
parole o simboli distintivi, il copyright il diritto
dell’autore.

Brevetti
In Italia, come nella maggior parte dei paesi, un brevetto è un titolo di proprietà a tutela dell'inventore che
concede a chi lo ha ottenuto il diritto esclusivo di realizzazione dell'invenzione. Consente di detenere il
monopolio su un'invenzione vietando agli altri di copiarla. Garantisce perciò un'esclusiva sullo sfruttamento
commerciale.

I brevetti sono suddivisi in categorie diverse a seconda dell'oggetto da proteggere. Fra queste categorie
troviamo:

• Invenzioni industriali: nuovi metodi o processi di lavorazione, un prodotto o il risultato di una ricerca
con un'applicazione industriale. I suoi requisiti sono novità, originalità e applicazione industriale;
• Modelli di utilità: invenzioni che conferiscono ad uno strumento una particolare efficacia;
• Disegni e modelli: protegge prodotti con particolari forme o combinazioni di linee o di colori;
• Nuove varietà vegetali: protegge la creazione di una nuova specie vegetale, diversa da quelle già
conosciute;
• Topografie dei prodotti a semiconduttori: una serie di prodotti correlati che rappresentano lo schema
tridimensionale degli strati di cui si compone un circuito integrato.

Come si ottiene un brevetto?


L'inventore deve depositare una richiesta all'Ufficio Brevetti e Marchi a Roma e agli uffici delle Camere di
Commercio situati in ogni provincia. La richiesta deve contenere:

• Titolo: presenta il prodotto senza anticiparne le caratteristiche innovative;


• Riassunto: descrive le caratteristiche dell'innovazione in modo sommario;
• Descrizione: spiega lo stato dell’arte, il problema tecnico, il funzionamento. Dunque contiene
informazioni tecniche;
• Rivendicazioni: delimitano l'ambito della tutela. È un elenco numerato di caratteristiche strutturali,
geometriche, tecniche (ma non funzionali). Se un concorrente non le copia tutte è in regola;
• Disegni: aiutano la comprensione del testo.
Chi ha diritto al brevetto?
Se è un privato o un ricercatore universitario a richiedere il brevetto, allora sarà lui stesso il titolare. Se invece il
brevetto viene richiesto da un lavoratore dipendente, allora il detentore del brevetto sarà l'azienda.

Iter per la concessione del brevetto


Una volta presentata la richiesta, il brevetto viene concesso in 3 o 4 anni, ma già dopo 18 mesi dal deposito vi è
la pubblicazione (momento da cui diventa possibile agire legalmente). La durata del brevetto è di 20 anni dalla
data del deposito e non può essere prorogata o rinnovata. Entro 12 mesi dalla data del deposito, il richiedente
può richiedere l'estensione della protezione brevettuale all'estero. Dal 2008 le domande di brevetto diventano
oggetto di ricerca di anteriorità da parte dell'EPO (Ufficio Europeo dei Brevetti) per l'estensione della
protezione negli altri Paesi.

La ricerca di anteriorità accerta che le differenze rispetto allo stato della tecnica anteriore siano meritevoli di
copertura. Questa ricerca è pagata dallo Stato italiano con le tasse di mantenimento dei brevetti. L'esito
dell'esame di anteriorità è importante ad esempio per proteggersi da casi di contraffazioni.

E' interessante sottolineare che mentre solitamente il brevetto è soggetto ad un esame di merito, l'Italia è
l'unico Paese in cui l'esame di merito non viene effettuato. È sufficiente che la domanda sia correttamente
compilata, le tasse siano state pagate e l'oggetto sia brevettabile per ottenere il brevetto.

L'Italia aderisce alla Convenzione del Brevetto Europeo. La domanda di brevetto europeo è conforme a quella
italiana, ma va redatta in inglese, francese o tedesco e va consegnata in una delle tre sedi dell'EPO: Monaco di
Baviera, Berlino o L'Aia. Entro tre mesi dal rilascio del brevetto, il richiedente deve regolarizzare la richiesta nei
vari Stati presentando la versione tradotta nella lingua di quello Stato.

Un brevetto può essere annullato se si dimostra che al momento del deposito non vi erano le condizioni di
brevettabilità.

Cosa è brevettabile?
I requisiti affinché' un prodotto/processo sia brevettabile sono:

• Novità: dev'essere nuovo, non deve esistere niente di identico allo stato della tecnica e non deve
essere un oggetto già reso pubblico;
• Essere frutto di un processo inventivo: cioè non dev'essere qualcosa di ovvio;
• Prevedere un'applicazione industriale;
• Non essere già stata brevettato.

Dove conviene brevettare?


Conviene brevettare l’oggetto ovunque vi siano dei concorrenti purché' in quel Paese il prodotto/processo sia
brevettabile.

Conviene brevettare o usare il segreto industriale?


I costi di brevetto sono ingenti, immaginarsi poi il costo per mantenere un portafogli di brevetti. Questo perché
per ogni brevetto bisogna pagare i costi di scrittura, quelli di deposito, quelli per l'esame di merito, le tasse di
concessione, le tasse di mantenimento... Bisogna allora valutare varie situazioni:

• Se è necessaria una protezione di durata limitata basterà il segreto industriale perché' i tempi per la
concessione del brevetto sono troppo lunghi;
• Se esiste solo un modo per risolvere il problema che risolve il nostro prodotto, allora va bene il
brevetto, altrimenti no perché' sarebbe facilmente aggirabile;
• Se si tratta di un'innovazione di prodotto è preferibile un brevetto, mentre per un'innovazione di
processo è solitamente sufficiente il segreto industriale;
• Se è difficile individuare le contraffazioni, i costi sostenuti per il brevetto rischiano di essere inutili;
• Se si è in un ambito molto frammentato, con molti concorrenti, non conviene il brevetto;
• Se vogliamo dare in licenza l'invenzione è fondamentale il brevetto.

Gestione strategica dei brevetti


I brevetti possono essere usati come strumento di difesa, oppure lo si può vendere, darlo in licenza o ancora lo
si può utilizzare come strumento finanziario per facilitare l'accesso a finanziamenti pubblici o come strumento
di negoziazione in accordi di cross-licensing.

Spesso un'azienda concede in licenza i suoi brevetti. Lo può fare per generare dei proventi subito, oppure per
entrare più facilmente in mercati stranieri o ancora per ridurre i costi di sviluppo di nuovi prodotti. Esistono tre
tipi di licenza:

• Licenza esclusiva: il licenziatario è l'unico a poter commercializzare quella tecnologia;


• Sole-license: anche l'innovatore mantiene il diritto di commercializzare l'invenzione;
• Licenza non-esclusiva: il brevetto è in licenza a più licenziatari.

Disegni e modelli
Anche per il design di un prodotto si può richiedere la tutela. Il design consta delle linee, dei contorni, della
forma, dei colori, dei materiali, degli ornamenti della struttura superficiale purché' si rispettino i requisiti di
novità e carattere individuale.

Per ottenere la registrazione del design bisogna presentare una domanda di registrazione. Dopo l'esame da
parte della commissione competente si può ottenere la registrazione che può essere rinnovata ogni 5 anni fino
a un massimo di 25.

Per tutelare una forma è sufficiente una serie di immagini in bianco e nero. Se l'oggetto da tutelare è
bidimensionale basta un'immagine, mentre se è tridimensionale ovviamente serviranno più viste. Il deposito
deve essere invece a colori se si vuole tutelare ad esempio un accostamento cromatico.

Marchi
Il marchio (trademark) è costituito da una parola, una frase, un simbolo o un qualunque elemento distintivo
utilizzato dall'azienda come strumento di identificazione della provenienza di un bene e a garanzia sia del
produttore che del consumatore.

Il marchio di servizio serve invece a contraddistinguere il fornitore di un servizio. Quando si parla di marchio in
generale si intende sia l'uno che l'altro.

Un marchio è un qualunque elemento percepibile attraverso i sensi, dunque potrebbe essere un jingle (e
coinvolgere l'udito) o un logo (vista) o un profumo (olfatto)...

La registrazione del marchio consente all'azienda il diritto di uso esclusivo per 10 anni (rinnovabile) ed
impedisce a chiunque di utilizzare emblemi/denominazioni/simboli tanto simili da destare confusione nel
consumatore. Quasi tutti i Paesi prevedono un meccanismo di registrazione del marchio tramite uffici nazionali
o regionali. In realtà per non dover effettuare singole registrazioni presso Paesi o regioni diversi esiste
l'Organizzazione Mondiale per la tutela della Proprietà Intellettuale (WIPO).
I requisiti di un marchio sono la malleabilità, originalità, innovazione e distinguibilità. Un marchio non deve
dare informazioni su cosa produce/offre, ma nemmeno informazioni sbagliate.

Ad esempio Harley-Davidson ha richiesto un marchio per il sound delle sue motociclette. RedBull e T-Mobile
hanno richiesto un marchio per l'accostamento cromatico blu-argento e per il colore magenta (e questo è stato
molto controverso).

Copyright
Il copyright è una forma di protezione applicabile alle opere soggette a diritto d'autore. In Italia si tratta di
oggetti a carattere creativo che appartengono alle scienze, alla letteratura, alla musica, alle arti figurative,
all'architettura, al teatro ed alla cinematografia. L'autore ha il diritto esclusivo di utilizzare economicamente
l'opera in ogni forma e modo (nei limiti di legge), può rivendicare la paternità dell'opera e opporsi a qualsiasi
uso che possa pregiudicare la sua reputazione.

A differenza dei brevetti, per il copyright la protezione è automaticamente garantita nel momento in cui
un'opera viene creata. Non è richiesta alcuna pubblicazione o registrazione, ma quest'ultima può risultare
vantaggiosa perché' rappresenta un documento pubblico dell'esistenza del copyright.

Segreto industriale
Spesso si ricorre al segreto industriale per non dover rivelare, all'atto di rilascio del brevetto, delle informazioni
tecniche dettagliate su un prodotto o processo. Le informazioni rimangono così ignote al di fuori dell'azienda.
Non dovendo rispondere a tutti i requisiti necessari per l'ottenimento del brevetto, i segreti industriali coprono
una fascia più ampia di attività.

Un insieme di informazioni può essere considerato segreto industriale solo se:

• Genera un vantaggio distintivo per l'azienda;


• Conserva il proprio valore rimanendo confidenziale.

Ad esempio, la formula di una bevanda non è brevettabile, ma può essere protetta dal segreto industriale.

Capitolo 11 – La gestione del team per lo sviluppo di un nuovo prodotto


Per favorire il coordinamento e la collaborazione fra le unità organizzative, molte imprese costituiscono team
interfunzionali a cui affidare la responsabilità di guidare e gestire il progetto di sviluppo di un nuovo prodotto.
La composizione e le modalità operative variano a seconda delle strategie delle imprese e della natura dei
progetti.

11.2 La creazione dei team di sviluppo di nuovi prodotti


Le dimensioni del team
Organizzare lo sviluppo di nuovi prodotti in gruppi di persone porta generalmente a risultati migliori di quelli
che potrebbe ottenere un singolo individuo. Cruciale è il dimensionamento del team. I team possono contare
pochi elementi o arrivare anche a centinaia di individui. Spesso però la scelta migliore è quella di non eccedere
con le dimensioni del gruppo (il team creatore del pc era di 19 persone, sebbene in IBM la dimensione media
per team fosse di 200).

Un gruppo molto grande ha costi maggiori, maggiori difficoltà di comunicazione e nell'instaurare un’identità
condivisa e inoltre è soggetto alla cosiddetta inerzia sociale, cioè gli individui non sentono adeguatamente
riconosciuti i propri sforzi individuali e ciò fa diminuire l'impegno.
La composizione del team
L'approccio ormai più diffuso è la
creazione di team interfunzionali, cioè
team composti da persone provenienti da
aree diverse dell'azienda e vediamo
subito perché.

- La collaborazione fra R&S e marketing


è fondamentale affinché' si sviluppino
prodotti sempre più vicini alle esigenze
del mercato.
- La collaborazione fra R&S e produzione
è importante per creare prodotti
dall'assemblaggio semplice che riduce i
costi finali e rischi di malfunzionamenti.

Ecco quindi perché è importante creare


team che raffigurino le varie aree
dell'azienda. È inoltre favorito lo scambio
di idee e vi è una varietà di informazioni
più ricca da cui attingere per la ricerca di
nuove opportunità.

Le opportunità e le capacità di problem


solving sono tanto maggiori quanto più
eterogenei sono i gruppi dal unto di vista
del sesso, della cultura, dell’età.
Potrebbero essere maggiori i costi di
coordinamento o le difficoltà iniziali (specie considerando che ogni soggetto tende a interagire più
frequentemente con gli individui che ritiene più simili – omofilia – ma ciò tende a ridursi col tempo).

Un'analisi svolta da Kichuk e Wiesner ha calcolato l'influenza di cinque fattori della personalità sulle probabilità
di successo di un progetto. I cinque fattori sono: estroversione, irritabilità, disponibilità, responsabilità e
apertura alle nuove esperienze. Alta disponibilità ed estroversione unite ad una bassa irritabilità portano ad
alte probabilità di successo.

11.3 La struttura dei team di sviluppo di nuovi prodotti


I team possono essere organizzati in vario modo, ma fondamentalmente le scelte ricadono su quattro
strutture:

• Struttura funzionale: i dipendenti continuano ad operare nelle loro aree funzionali (produzione, R&S,
...). Il referente continua ad essere il responsabile delle rispettive unità. Il rapporto con gli altri membri
si limita ad incontri periodici.
Non vi è generalmente un project manager o un responsabile ad-hoc.
Si tratta di team temporanei e di immediata costruzione, ma che offrono poche garanzie sull'efficacia
del coordinamento. I soggetti del team sono comunque più coinvolti nella loro area funzionale che nel
progetto nuovo (il sistema premiante a cui afferiscono è la loro unità funzionale), il tempo che ogni
soggetto dedica al nuovo progetto non è superiore al 10%, pertanto questa tipologia di team è
consigliata per progetti di sviluppo che interessano un'unica funzione aziendale.
• Struttura lightweight: anche qui ogni individuo rimane nella propria unità funzionale, ma vi è un
project manager e sono anche presenti delle figure di collegamento, liason personnel, che favorisce lo
scambio di informazioni e la collaborazione fra i membri.
Solitamente sono guidati da junior manager che sono di livello inferiore rispetto ai responsabili di
funzione (e quindi il sistema premiante a cui afferiscono è la loro unità funzionale).
Il tempo dedicato al nuovo progetto da ogni soggetto non è superiore al 25%, i vantaggi rispetto ai
team funzionali sono limitati. Si tratta di team adatti a progetti che non richiedono un alto grado di
comunicazione e coordinamento.
• Struttura heavyweight: anche questo è un tipo di team temporaneo e anche qui abbiamo un project
manager, ma è un senior manager, generalmente superiore ai responsabili di funzione.
Segue che il project manager può valutare i membri e definire i criteri del sistema premiante.
Il nucleo centrale del progetto si dedica ad esso a tempo pieno. Questa combinazione di fattori assicura
che vi sia un'intensa comunicazione ed un forte coinvolgimento verso il progetto. Ciò fa sì che sia il più
adatto per lo sviluppo dei progetti piattaforma.
• Struttura autonoma: i membri vengono separati dalle loro aree funzionali ed assegnati formalmente al
progetto.
Si partecipa a tempo pieno al progetto che a volte avrà carattere permanente. Il project manager è un
senior manager con un ruolo di primo piano nell'organizzazione. Oltre ad avere un controllo sulle
risorse provenienti dalle aree funzionali, ha anche pieno controllo sulla valutazione dei membri e sulla
definizione degli incentivi al team.
Il team agisce in maniera completamente indipendente, risultando come un’unità staccata,
pienamente responsabile del progetto. Proprio per questo grado di libertà potrebbe risultare difficile la
gestione delle risorse assegnate. Il rischio è inoltre che si perseguano obiettivi in contrasto con quelli
delle unità funzionali. I team a struttura autonoma sono particolarmente adatti per progetti
piattaforma di alta importanza e per progetti breakthrough.

11.4 La gestione dei team di sviluppo di nuovi prodotti


Per raggiungere degli obiettivi, un team di sviluppo deve poter contare su una leadership e su linee guida
gestionali coerenti con la propria struttura.

La leadership del team


Il team leader guida le attività del team, mantiene il gruppo allineato agli obiettivi del progetto e funge da
collegamento fra il team ed il vertice aziendale. Nei team heavyweight e autonomi è anche il responsabile
principale della valutazione, della definizione del sistema premiante e dell'avanzamento di carriera dei membri
del gruppo.

Le sorti di un team leader sono molto più legate al successo del progetto di quanto non lo siano le sorti del
vertice aziendale o del project champion a causa delle maggiori interazioni col gruppo. Il team manager di un
team autonomo o pesante dev'essere una persona molto stimata nell'azienda, in grado di difendere il suo team
al pari di un champion e deve parlare la lingua delle varie unità funzionali.
La gestione del team
Spesso ad un team, specie se pesante o autonomo, si chiede la redazione di un project charter. Questo
documento racchiude la missione del progetto, descrive gli obiettivi da raggiungere e indica i criteri di
valutazione. Nel documento vi può essere anche una missione a lungo termine, detta vision statement.

Nel project charter possono inoltre essere indicati i membri del progetto, la durata prevista, il budget e le
scadenze intermedie. Lo scopo di questo documento è assicurarsi che i membri del team abbiano ben chiari gli
obiettivi del progetto e creare un senso di responsabilità all'interno del gruppo.

Dopo il project charter, il nucleo centrale del team ed il vertice aziendale negoziano il contract book. Questo
definisce nel dettaglio il piano di massima per il raggiungimento degli obiettivi enunciati nel project charter,
una stima delle risorse necessarie, un programma dei tempi di sviluppo ed una rassegna dei risultati da
conseguire. Rappresenta uno strumento di monitoraggio e valutazione del team in quanto offre una serie di
benchmark di performance e di scadenze programmate per valutare il rendimento effettivo del team. Ha lo
scopo di responsabilizzare il team.

La gestione dei team virtuali


Il progresso ha reso possibile la formazione di team composti anche da elementi che operano a grande distanza
tramite strumenti di video conferenza, email, chat... Questi sono detti team virtuali. Il virtual teaming
garantisce alle aziende che operano su scala globale di metter su dei team senza sostenere dei costi
elevatissimi di trasporti, superando dunque il vincolo della distanza geografica.

Vi sono però delle difficoltà da affrontare: ad esempio la comunicazione è molto favorita dalla vicinanza, così
come la collaborazione. Si devono scegliere per i team virtuali persone che sono avvezze alla tecnologia, dotati
di forte etica di responsabilità, autonomi, estroversi.

Capitolo 12 – La gestione del processo di sviluppo di un nuovo prodotto


Spesso, nonostante nelle industrie informatiche, elettroniche e delle telecomunicazioni, i prodotti sviluppati
negli ultimi cinque anni rappresentano oltre la metà del fatturato, i progetti innovativi falliscono. Si stima un
95% di fallimenti tra progetti che muoiono durante lo sviluppo o che stentano una volta entrati nel mercato.

È quindi indispensabile per le aziende operare delle scelte e controllare i progetti in sviluppo, così da migliorare
l’efficacia e l’efficienza del processo di sviluppo.

12.2 Gli obiettivi del processo di sviluppo di un nuovo prodotto


Obiettivi del processo di sviluppo di un nuovo prodotto

I tre obiettivi principali che il processo di sviluppo di un nuovo prodotto deve raggiungere sono:

• Massimizzare la soddisfazione del cliente: il nuovo prodotto deve risultare interessante per i clienti
per le sue caratteristiche o per una maggiore qualità o per un prezzo più conveniente rispetto ai
concorrenti. In molti casi però le aziende falliscono nel perseguimento di questi obiettivi perché' o
considerano importanti caratteristiche che per l'utente non lo sono o ad esempio sopravvalutano la
propensione a spendere del cliente. Esempio: il Newton MessagePad di Apple fallì perché' al momento
del lancio sul mercato non presentava ancora un'ottima qualità pur avendo una dotazione tecnologica
di livello superiore ai concorrenti.
• Ridurre la durata del ciclo di sviluppo: i prodotti introdotti per primi sul mercato tendono ad acquisire
dei vantaggi: acquisiscono più clienti perché' non si sono ancora instaurati rapporti di fiducia verso altri
prodotti analoghi. Inoltre vi sono vantaggi in termini di base di disponibilità di beni complementari
perché' vi è più tempo per sviluppare (ad esempio) accessori che ne aumentino l’attrattività.
Se invece il bene entra sul mercato troppo tardi c’è il rischio che i potenziali clienti siano già legati ad
altri prodotti simili o addirittura che la clientela si stia già orientando verso una tecnologia successiva.
Dobbiamo poi considerare i costi del processo di sviluppo ed il costo del capitale investito che
aumentano col tempo. Le imprese più veloci sono di solito in grado di godere dei vantaggi sia del first
mover che dei follower.
Bisogna tuttavia non essere frettolosi nel rilasciare i nuovi prodotti evitando di sacrificare il testing o il
design.
• Controllare i costi di sviluppo: a volte le imprese si impegnano talmente tanto nello sviluppo di nuovi
prodotti da arrivare a sostenere costi che non sono poi ripagati dal mercato. E' importate dunque che i
processi di sviluppo siano non solo efficaci, ma anche efficienti.

12.3 I processi di sviluppo sequenziali e paralleli


Fino a metà anni '90, la maggior parte delle aziende procedeva con uno sviluppo sequenziale. Il percorso di
sviluppo di un nuovo prodotto era intervallato da una serie di cancelli (gate) ai quali il prodotto veniva vagliato
dal management che decideva se farlo passare avanti, reiterare la fase o addirittura interrompere lo sviluppo.

Questo modello è stato però soppiantato dal simultaneous engineering, cioè da un processo di sviluppo
parallelo in cui alcune fasi del processo produttivo si sovrappongono. Ciò evita la reiterazione di molte fasi e i
tempi di sviluppo si comprimono. Non sempre questo modello risulta vantaggioso, a volte può portare ad un
aumento dei costi o dei rischi.

12.4 I project champion


All'interno delle imprese è consigliabile istituire la figura del project champion, una figura che ha l’autorità ed il
potere di sostenere un progetto e battersi affinché' questo venga realizzato. I project champion devono
assicurarsi che il progetto mantenga lo slancio necessario superare le difficoltà che sorgono durante il processo
di sviluppo.

I rischi del project champion


Il rischio introdotto da tali figure è però che abbiano una visione offuscata dell'effettivo valore del progetto. Già
di per se' i progetti all'inizio devono essere lanciati con ottimismo, poi il project champion indubbiamente li
vede in maniera ancora più ottimistica e se il management si fa coinvolgere sempre più si rimane intrappolati in
una spirale definita escalating commitment. Questo può portare al rischio di fallimento perché' si perdono di
vista le reali condizioni del progetto.

Potrebbe essere necessario contrastare il project champion con l'antichampion (una sorta di avvocato del
diavolo). Il management inoltre dovrebbe incoraggiare una cultura aziendale aperta al dissenso e al confronto
di opinioni contrastanti

12.5 Il coinvolgimento dei clienti e dei fornitori nel processo di sviluppo


Il coinvolgimenti del clienti
Il cliente meglio di chiunque altro è in grado di indicare le sue esigenze ed aspettative in merito ad un nuovo
prodotto, pertanto o si coinvolgono i clienti nel team di sviluppo o si permette ad alcuni di essi di accedere alle
versioni di prova del prodotto realizzando una fase di beta testing. Tramite il beta testing l'azienda comunica al
mercato quali sono le caratteristiche del nuovo prodotto riuscendo in alcuni casi anche a bloccare i clienti
dall'acquistare prodotti alternativi per attendere quello in testing. Gli utenti che si occupano di sperimentare i
nuovi prodotti (e che ovviamente avranno una particolare propensione in questo) vengono detti lead user. I
lead user spesso riescono ad anticipare di mesi/anni le richieste degli altri utenti. Esempio: Nokia ha
inaugurato i Beta Labs con l'applicazione Sports Tracker e ha potuto usufruire dei commenti degli utenti beta.

Il coinvolgimento dei fornitori


La logica che riguarda l'inserimento dei fornitori nel processo produttivo è analoga a quella dei clienti. Un
fornitore può ad esempio suggerire una nuova risorsa a cui attingere. Inoltre coordinare i processi operativi
dell'azienda con le attività dei fornitori può portare ad una riduzione dei tempi di sviluppo. Esempio: Boeing ha
coinvolto sia fornitori che clienti, ma anche personale di United Airlines, nello sviluppo del 777.

12.6 Gli strumenti per il miglioramento del processo di sviluppo dei nuovi prodotti
Adesso vediamo alcuni strumenti il cui utilizzo può accelerare di molto il processo di sviluppo e allo stesso
tempo massimizzare la capacità di risposta e di adattamento del prodotto alle richieste ed esigenze del cliente.

Processi stage-gate
Per non cadere nella trappola dell'escalating commitment, si introducono dei punti di sbarramento, detti
anche go/kill decision point. Il modello più diffuso che fa ciò è il processo produttivo stage-gate. In ogni fase,
un team guidato da un project team leader, grazie a delle informazioni critiche di carattere tecnico raccolte in
ogni stadio, intraprende delle decisioni che consistono nel portare avanti il progetto (go), terminarlo (kill),
sospenderlo o modificarlo.

Gli sbarramenti agiscono da filtri per eliminare il più presto possibile dei progetti non validi. Ad ogni
sbarramento si arriva con delle informazioni di base, si valutano dei criteri e si formulano i risultati della
valutazione.

Le fasi del processo stage-gate sono:

1. Rapida analisi del progetto e definizione del concept;


2. Definizione del prodotto, analisi di mercato che ne giustifichi il lancio, piano d'azione dettagliato per le
fasi successive;
3. Si intraprende il processo di design e sviluppo stabilendo il modello di produzione, il lancio sul mercato
ed il testing;
4. Verifica e validazione del prodotto, messa a punto delle attività di marketing e produzione;
5. Prodotto pronto per il lancio, si avviano la produzione e la vendita.
La casa della qualità – Il Quality
Function Deployment
E' un modello che guida i manager lungo
un processo strutturato di problem solving.
Al centro del meccanismo della casa della
qualità vi è una matrice che mette a
confronto le preferenze, esigenze e
richieste del cliente con gli attributi e le
caratteristiche del prodotto. La costruzione
della matrice prevede le seguenti fasi:

1. Identificare le preferenze ed esigenze


del cliente;
2. Valutare le preferenze ed esigenze del
cliente;
3. Individuare le caratteristiche tecniche
che determinano la performance del
prodotto;
4. Inserire nella matrice il grado di
importanza delle caratteristiche tecniche del prodotto;
5. Compilare la tabella: ogni cella centrale rappresenta il legame fra una caratteristica del prodotto ed
un'esigenza;
6. Per ogni cella moltiplichiamo l'elemento con quello contenuto nella prima colonna, stessa riga. La
somma di ogni elemento di una colonna ci dà l'importanza di quella colonna e va nell'ultima riga;
7. Confrontare ciò che offre la concorrenza;
8. Stabilire dei valori target per ciascun elemento progettuale;
9. Valutare il nuovo design progettato alla luce dei target inserendo un punteggio nell'ultima colonna

Il punto di forza sta nella capacità di offrire uno schema integrato ed un linguaggio condiviso con cui i membri
del progetto sono in grado di dialogare ed interagire. Rende esplicita la relazione fra caratteristiche del
prodotto e richieste del cliente.

Il metodo DFM (Design For Manufacturing)


Il DFM è una tecnica elementare in grado di tracciare un percorso strutturato per il processo di sviluppo. Le
regole base sono:

- Minimizzare il numero di componenti


- Minimizzare il numero delle parti fisse
- Eliminare gli adattamenti e le parti variabili
- Eliminare i dispositivi di fissaggio
- Eliminare le maschere di montaggio e le installazioni fisse

Queste regole semplificano il montaggio, riducono la manodopera, gli oneri di gestione dei materiali e i costi di
magazzino. Aumentano la produttività, l’economia di scala e i costi di conversione delle linee produttive.

In altre parole si abbassano i costi e si aumenta la qualità del prodotto.


La produzione e il design informatizzati (CAD e CAM)
Il sistema CAD (Computer-Aided Design) consiste nell’utilizzo del computer per la progettazione e il testing del
prodotto. Si possono creare e simulare modelli virtuali senza perdere tempo in prototipi e modelli fisici.

Il sistema CAM (Computer-Aided Manufacturing) consiste, invece, nell’introduzione di processi automatizzati


nella fase di produzione. Rende la produzione più veloce e flessibile e immediato il passaggio alle varianti di
prodotto.

12.7 Gli strumenti per la misurazione della performance di nuovi prodotti


Una valutazione della performance dei processi di sviluppo può offrire al management un valido contributo in
più campi. Può essere utile sia effettuare revisioni periodiche a cadenza regolare, sia controlli progressivi al
raggiungimento di determinati obiettivi, sia analisi retrospettive come il post mortem di Microsoft.

È importante adottare più misure di valutazione perché qualunque metodo, singolarmente, potrebbe fornire
una rappresentazione imperfetta dell’efficacia del processo di sviluppo.

I sistemi di valutazione del processo di sviluppo di nuovi prodotti


Per utilizzare adeguatamente i metodi di valutazione occorre stabilire con precisione l’arco di tempo da
analizzare. L’analisi potrebbe prevedere domande del tipo:

1. Qual era la durata media del ciclo di sviluppo o del time to market? Come posso variare le durate di
processi per i vari tipi di progetto?
2. In che percentuale i progetti di sviluppo degli ultimi cinque anni hanno raggiunto la maggior parte delle
scadenze?
3. E in che percentuale sono rimasti nel budget previsto?
4. E in che percentuale si sono conclusi con la realizzazione di un prodotto finito per il mercato?

La performance di innovazione complessiva


Per avere una visione generale del rapporto costi/benefici del processo di sviluppo dei nuovi prodotti possono
essere utili le seguenti domande:

1. Qual è il ritorno per l’impresa dei suoi processi innovativi? (Ossia, il rapporto fra i profitti globali e tutte
le spese)
2. In che misura i progetti raggiungono gli obiettivi di vendita prefissati?
3. Quale quota del fatturato deriva dai prodotti sviluppati negli ultimi cinque anni?
4. Qual è il tasso di successo dei progetti in portafoglio?

Capitolo 13 – La formulazione di una strategia di marketing per l’innovazione


Le strategie di marketing non rappresentano soltanto un mezzo per trarre profitto dalle innovazioni, ma anche
un elemento chiave del processo di sviluppo innovativo.

I cinque elementi fondamentali di una strategia di marketing dell’innovazione sono: timing, licensing e grado di
compatibilità, prezzo, distribuzione e comunicazione.

13.2 Timing
Il tempo di ingresso in un mercato gioca un ruolo fondamentale nelle strategie di marketing.
Il timing d’ingresso: una scelta strategica
Le aziende non si affrettano necessariamente per lanciare sul mercato i loro prodotti il più presto possibile.
Spesso attendono il momento opportuno per presentare sul mercato il nuovo prodotto. Un chiaro esempio è
l’attesa delle festività natalizie da parte dei produttori di console per lanciare sul mercato i nuovi prodotti.

Un'ulteriore motivo per non affrettarsi è che immettere sul mercato un prodotto quando ancora la
distribuzione non è efficiente ed i beni complementari non sono disponibili potrebbe decretare un fallimento.
Ad esempio è dannoso lanciare in fretta una nuova console se mancano i videogiochi.

Inoltre, se il lancio avviene troppo presto e vicino alla generazione tecnologica precedente, l’accoglienza da
parte del mercato potrebbe rivelarsi tiepida, perché i clienti hanno da poco acquistato il prodotto precedente e
potrebbero non essere disposti a spendere ulteriore denaro. Se il lancio al contrario avviene troppo tardi, si
rischia di perdere l’immagine di leader tecnologico e concedere un vantaggio troppo elevato ai concorrenti già
presenti sul mercato.

Ottimizzazione dei flussi di cassa o cannibalizzazione?


Fondamentale poi è gestire i rischi di cannibalizzazione. Se un'azienda deve presentare sul mercato
un'innovazione che copre una fascia da lei già coperta con un altro prodotto, deve valutare bene cosa fare. Se i
profitti del vecchio prodotto sono ancora molto buoni deve valutare se è il caso di aspettare che calino (ma
senza far sì che la nuova tecnologia diventi obsoleta prima dell'ingresso sul mercato) o se accettare il rischio di
cannibalizzazione, scelta che dà l'immagine di un'azienda forte disposta a sacrificare i prodotti esistenti.

13.3 Licensing e compatibilità


Non impedire l'accesso ad una tecnologia proprietaria, ad esempio con accordi di licensing o non utilizzando
meccanismi rigidi di protezione, è un modo per aiutarne la diffusione. Tuttavia l'apertura assoluta comporta dei
rischi, i concorrenti possono abbassare talmente tanto i prezzi da ridurre il nostro margine di guadagno oppure
potrebbero modificare la piattaforma creando frammentazione. Anche una totale chiusura è controproducente
perché allontana i fornitori di beni complementari. Ci vuole la giusta misura.

Un altro fattore da tenere presente è la compatibilità della nuova tecnologia con le alternative proposte dal
mercato o con le tecnologie precedenti (retro compatibilità'). Questo permette di sfruttare la base di
installazione di altre tecnologie, di sfruttare la disponibilità di beni complementari e rendere maggiormente
appetibile la tecnologia ai clienti. Si può anche pensare di adottare dei meccanismi di protezione per far sì che i
concorrenti non possano avvalersi di tali vantaggi.

13.4 Le strategie di prezzo


Il prezzo influenza il posizionamento sul mercato, il tasso di adozione ed i flussi di cassa dell'impresa. Prima di
stabilire la strategia di prezzo, bisogna fissare gli obiettivi. In un mercato con un'intensa concorrenza l'obiettivo
potrebbe essere la sopravvivenza. Nel caso delle innovazioni tecnologiche, gli obiettivi da raggiungere sono di
solito due e alternativi: scrematura del mercato e massimizzazione della quota di mercato. A questi fanno
riferimento le seguenti strategie:

• Strategia di scrematura: si impone un prezzo iniziale elevato per segnalare al mercato il grande
potenziale innovativo rispetto ai concorrenti. Un alto prezzo iniziale può far recuperare in fretta i costi
di sviluppo iniziali (se la domanda è elevata), ma può far correre il rischio che l'adozione sia lenta.
• Strategia di penetrazione: si punta su un prezzo basso che stimoli una rapida adozione da parte del
mercato. Bisogna avere già un'elevata capacità produttiva al momento del lancio sul mercato. E' per
questo pericolosa. Questa strategia è di solito utilizzata in mercati in cui vi sono rendimenti crescenti
(esternalità di rete ad esempio). Esempio: molti produttori di console hanno lanciato i propri prodotti
con prezzi addirittura inferiori al costo di produzione (perché' potevano compensare grazie alle royalty
sui videogiochi) e in questo modo hanno potuto sfondare sul mercato.

Quando la reazione del cliente ad un determinato prezzo non è prevedibile, si preferisce specificare che il
prezzo di lancio è solo temporaneo in modo da testarne la reazione.

13.5 Le strategie di distribuzione


La vendita diretta e tramite intermediari
L'azienda può adottare la vendita diretta oppure la vendita tramite intermediari (rappresentanti, grossisti,
dettaglianti...).

La vendita diretta presenta molti vantaggi in quanto consente di controllare maggiormente il processo di
vendita, le strategie di prezzo e di servizio, raccogliere maggiori informazioni sui clienti e sulle
personalizzazioni. Può tuttavia risultare troppo costosa e poco pratica.

Il ricorso agli intermediari fornisce il beneficio del frazionamento degli stock: il produttore preferisce vendere
grandi quantità di pochi prodotti, il cliente vuole acquistare piccole quantità di una varietà di prodotti. Grossisti
e dettaglianti riescono a conciliare queste esigenze. Inoltre gli intermediari si occupano di trasporto,
stoccaggio, relazioni con il cliente finale, aumentando la praticità. Si può ottenere così una capillarità della rete
di distribuzione maggiore (importante se il mercato non è composto da una stretta cerchia di persone).

Un ruolo importante, oltre agli intermediari, lo ricoprono gli OEM (Original Equimpent Manufacturer), coloro
che acquistano dei prodotti, li assemblano in altri prodotti e li rivendono. Molto diffusi nel campo
dell'informatica. Gli OEM sono anche detti rivenditori a valore aggiunto (VAR – Value Added Reseller).
Esempio: Dell è il più famoso esempio di OEM.

In alcuni settori si sono manifestati processi di disintermediazione. Ad esempio i broker on line hanno
riconfigurato il ruolo degli intermediari nel mercato degli investimenti. Grazie a loro l'investitore può fare le sue
transazioni direttamente via Internet. In realtà Internet ha portato a questa rivoluzione rendendo disponibile a
tutti quei prodotti che possono essere trasferiti digitalmente (i giornali o la musica ad esempio). Questo per
molte aziende ha significato semplicemente aumentare l'offerta.

Per stabilire se e di quali intermediari avvalersi è bene porsi le seguenti domande:

1. Il nuovo prodotto presenta le stesse esigenze di distribuzione delle linee di prodotto esistenti? Se
l'azienda ha già un buon canale di diffusione e ben si adatta al nuovo prodotto, allora il problema è
risolto in partenza. Altrimenti bisogna trovare un'alternativa.
2. Quanti sono e dove sono i clienti? Quanta formazione all'uso del prodotto dovranno ottenere e quanti
servizi? Il prodotto necessita di prove pre-acquisto o di installazione da parte di personale specializzato?
Se il prodotto necessita di training o di prove prima dell'acquisto si può pensare di ricorrere agli
intermediari (se i clienti sono sparsi nel mondo) o di fornire il servizio in prima persona (se sono
concentrati in una zona). In caso contrario si può affidare la vendita a Internet.
3. Come vengono venduti i prodotti concorrenti o sostitutivi? E' fondamentale vedere cosa fanno i
concorrenti, anche per valutare a cosa sono abituati i clienti.
Le strategie per accelerare il processo di distribuzione
Alleanze con i distributori
Ci si può avvalere di alleanze strategiche o contratti di esclusiva. Si possono incoraggiare i distributori offrendo
una partecipazione al successo della nuova tecnologia, facendo loro adottare una strategia di promozione più
aggressiva.

Accordi di bundling
Abbinare un'innovazione ad un prodotto già molto diffuso in modo che possa sfruttare il suo successo e una
base di installazioni già consolidata. Gli switching cost che si potrebbero creare per il cliente potrebbero
dissuaderlo dal passare a un prodotto concorrente.

Sponsorizzazioni
Le aziende possono stringere accordi contrattuali con distributori, produttori di beni complementari e persino
grandi utilizzatori finali, come le università.

Garanzie e contratti di vendita in conto deposito


In mercati caratterizzati da incertezza è possibile offrire agli intermediari delle garanzie, ad esempio il diritto di
reso, come ha fatto Nintendo con il NES nel mercato statunitense dopo la crisi dei videogiochi degli anni ’80.

13.6 Le strategie di comunicazione


Le strategie di comunicazione dovranno tenere conto sia della natura del target di mercato sia delle
caratteristiche dell’innovazione.

Le principali strategie di comunicazione


Pubblicità
Spesso ci si rivolge ad agenzie specializzate. Il messaggio deve raggiungere un equilibrio fra l'essere divertente
e semplice da ricordare e fornire un elevato contenuto informativo.

Promozione
Si ricorre a riduzioni di prezzo, vendite con premi ed omaggi, giochi e concorsi, esposizioni dimostrative presso i
punti vendita per incoraggiare l’acquisto o la prova del prodotto.

Relazioni esterne
Si promuove la pubblicazione di articoli in giornali o si regala qualche prodotto a personaggi famosi in modo da
generare un passaparola.

L’adeguamento del piano di marketing alle categorie di adottanti


Il piano di marketing va adattato alle categorie di adottanti. Abbiamo visto che la diffusione di una tecnologia
segue una curva ad S. Gli adottanti si possono dunque suddividere in:

• Innovatori e primi adottanti: coloro che adottano subito la nuova tecnologia o sono sulla fase di
accelerazione; solitamente sono più sensibili a messaggi pubblicitari dal contenuto tecnico, sono
disposti ad accettare prezzi elevati o prodotti incompleti, ma spesso richiedono forti personalizzazioni o
un buon supporto tecnico.
• Maggioranza anticipatrice: sono quelli posti sulla fase della distribuzione di massa. Il management
deve puntare sulla facilità d'impiego, sulla sintonia con lo stile di vita, sulla globalità del prodotto. Gli
adottanti di questa categoria potrebbero ancora ritenere troppo complessa o costosa l'innovazione e
questo genera una frattura nella curva di diffusione del mercato (chasm): si tratta di un punto critico in
cui i ricavi subiscono un arresto poiché il segmento degli adottanti iniziali è saturo ma quello della
maggioranza anticipatrice non è ancora pronto.
• Maggioranza ritardataria e ritardatari: si procede come per la maggioranza anticipatrice, ma
riducendo i costi per contatto. Non è più necessario trasmettere messaggi con un alto contenuto
informativo.

Spesso porta buoni risultati una strategia di brand community, ovvero creare una comunità di utenti attorno al
marchio che crei una relazione affettiva fra il cliente ed il marchio stesso. Il legame che si crea fra i consumatori
che sentono di appartenere a una comunità si rivela più forte e duraturo della relazione fra l’impresa e il
singolo consumatore.

L’impiego strategie di comunicazione per influenzare percezioni ed aspettative


Il valore che clienti e fornitori attribuiscono ad un'innovazione è dato non soltanto dal valore effettivo, ma
anche dalla percezione che si ha di esso. La percezione può essere influenzata tramite la comunicazione.

Strategia dell'annuncio
Tramite un'aggressiva campagna pubblicitaria è possibile far percepire una base di installazioni molto maggiore
di quella reale. Questo è un preludio ad una crescita reale della base di installazioni perché' un soggetto,
vedendo un gran numero di adozioni, tenderà a convertirsi anch'esso.

E' questo alla base del vaporware, in cui si pubblicizza in grande un prodotto che ancora non esiste per dare
all'utente l'impressione che già esista e sia largamente adottato.

Reputazione dell'impresa
I successi passati dell'azienda influiscono sulle aspettative che il cliente si crea sul nuovo prodotto. Clienti,
distributori e produttori di beni complementari si lasceranno guidare dagli esiti delle precedenti innovazione
tecnologiche, dalla striscia di risultati operativi (il track record dell’impresa) come indicatori delle potenzialità e
del valore del nuovo prodotto.

Irreversibilità degli impegni strategici


Per dimostrare il proprio impegno in un settore, un'azienda può effettuare ad esempio un ingente
investimento difficilmente reversibile. Esempio: Sony ha fatto un investimento di oltre 500 milioni di dollari per
sviluppare la playstation, dando un segnale inequivocabile al mercato.

Lettura 1 – Strumenti di pianificazione e controllo di tempi e risorse


Pianificazione dei tempi
WBS
La WBS (Work Breakdown Structure) è uno degli
strumenti operativi di pianificazione più utilizzati.
Una buona WBS è un'ottima premessa per una
schedulazione di progetto efficace ed efficiente.
La schedulazione di progetto dovrebbe essere
sempre basata sulla WBS.

Tramite la WBS si definisce il lavoro da svolgere


nell'ambito di un progetto. Il progetto viene scomposto in sottosistemi sempre più piccoli fino ad arrivare a
pacchetti di attività sufficientemente significativi, cioè identificabili e quantificabili. Lo scopo della WBS è
quello di identificare e collocare all'ultimo livello gerarchico pacchetti di lavoro chiaramente gestibili e
attribuibili ad un unico responsabile affinché' possano essere programmati, schedulati, budgetati, controllati e
valutati.

Sviluppare una WBS significa seguire una metodologia caratterizzata dai seguenti elementi:

1. Struttura: come detto si tratta di una struttura gerarchica ad albero in cui ogni livello è dipendente dal
livello precedente.
2. Criteri di scomposizione: i criteri e le logiche di disaggregazione di un progetto possono essere più di
uno. Una WBS per essere efficace deve contenere tutte le voci consegnabili (deliverables) e le attività
principali per definire, progettare, realizzare, assemblare, testare e consegnare le suddette voci
consegnabili. Un modo di procedere è la logica per obiettivi: un sottolivello del progetto è costituito
dai macro blocchi di attività necessari a perseguire un obiettivo. Un altro modo è la logica dei processi
di lavoro. Qui il progetto viene disaggregato in base ai processi che dovranno essere posti in atto per la
realizzazione dei deliverables. Un altro metodo è la logica per localizzazione in cui la suddivisione è
connessa allo spazio fisico dove verrà realizzato il bene. Un'altra logica è la logica per fase o ciclo di
vita. Di solito non si definisce a priori quale logica adottare, ma se ne provano diverse fino a individuare
quella desiderata.
3. Descrizione dei blocchi e delle attività: ogni blocco dev'essere caratterizzato da una descrizione chiara
e concisa, priva di ambiguità. Accanto a tale descrizione si aggiungerà un codice a cui si farà riferimento
nelle tecniche reticolari e per l'attribuzione di responsabilità. Tramite questo codice WBS è possibile
riaggregare i blocchi in base alla logica che può essere più funzionale in un dato momento.
4. Numero di livelli e livello di dettaglio: l'ultimo livello è detto pacchetto di lavoro (work package). I suoi
blocchi rappresentano i pacchetti a cui corrispondono le unità elementari in cui il lavoro viene
effettivamente svolto. Le caratteristiche di un blocco dell'ultimo livello sono:
• È distinto da ogni altro pacchetto di lavoro
• È programmabile in termini di tempi (inizio e fine definiti) e di costi e risorse (umane e non)
• È assegnabile ad un solo responsabile
• La durata è limitata a periodi brevi o suddivisa in unità temporali discrete per facilitare il controllo
del lavoro effettuato.
• Per definire l'albero si procede top down, ma per definire cosa contiene un pacchetto di lavoro si
procede bottom up.

Normalmente il numero di livelli si colloca fra tre e quattro. Non c’è alcun vincolo che impedisca di
usare più di cinque livelli, ma la definizione dei pacchetti di lavoro diverrebbe eccessivamente onerosa
e si perderebbe in sintesi.
Ritornando ai pacchetti di lavoro, per ognuno si dovranno esplicitare:

• La descrizione del lavoro da svolgere


• Tempi, costi e risorse presunte
• Responsabili
• Input richiesti provenienti da altri pacchetti di lavoro
• Riferimenti a specifiche condizioni contrattuali o documenti pertinenti
• Risultati da ottenere
5. Modalità di aggregazione: tutte le informazioni inerenti i costi, i tempi e le risorse sono contenute nei
pacchetti di lavoro (ultimo livello). Ad un livello intermedio i tempi, i costi e le risorse necessarie si
ricavano tramite aggregazione logica dei livelli sottostanti (roll-up). Questa è solo una delle possibili
modalità di aggregare dati, ma se ne possono individuare altre, ad esempio in base al responsabile, agli
obiettivi di lavoro ecc.

Tramite la sola WBS non si è in grado di collocare le attività nel tempo, ne' individuare le relazioni di
precedenza. La WBS costituisce il legame logico per l'applicazione delle tecniche reticolari. Queste infatti
richiedono la lista completa delle attività del progetto e questa deriva proprio dalla WBS, dai pacchetti di
lavoro.

Le tecniche reticolari
L'obiettivo delle cosiddette tecniche reticolari è di facilitare lo scheduling di un progetto specificando le
relazioni logico/temporali fra le attività, usando appunto un reticolo orientato.

I vantaggi di queste tecniche sono la sintesi e la leggibilità, le relazioni tra attività ed il supporto che apportano
alle decisioni. I problemi consistono nell'enfasi sui tempi e nella struttura deterministica.

Il CPM
Il metodo del cammino critico (CPM) è un tipo di analisi reticolare che ha lo scopo di prevedere la durata di un
progetto tramite l’individuazione della sequenza di attività che possiede il margine più ristretto di flessibilità
nella schedulazione (il “cammino critico”). Ne consegue che se un’attività sul cammino critico ritarda, può fare
ritardare l’intero progetto.

Prima di potere effettuare un’analisi CPM è necessario definire le durate e i vincoli di precedenza di tutte le
attività del progetto. Il modo più comune è quello di tracciare il diagramma dei predecessori. In questo grafo i
cerchi rappresentano le attività e le frecce i vincoli di precedenza. I tipi di vincolo con cui abbiamo a che fare
sono Finish to Start (FS), Start to Finish (SF), Start to Start (SS) e Finish to Finish (FF).

Oltre a definire il diagramma dei predecessori bisogna tracciare una tabella con una riga per ogni attività e due
colonne, una che indichi i predecessori ed una la durata.

Definiamo percorso una qualunque sequenza che collega gli eventi inizio e fine del progetto. La sua durata è la
somma delle durate delle attività che lo compongono. Il più lungo fra i percorsi determinerà la durata del
progetto. Per trovare i percorsi bisogna effettuare due passi di schedulazione tramite cui sarà possibile
calcolare ES (early start, istante di primo inizio), EF (early finish, istante di prima fine), LS (late start, istante di
ultimo inizio) e LF (late finish, istante di ultima fine):

• Schedulazione in avanti: si parte dalle attività senza predecessori posizionandole nell'istante 0. Tutte le
altre attività si posizionano nel tempo secondo la regola di farle iniziare non appena tutti i suoi input
siano disponibili.
Si calcolano ES ed EF come:
𝐸𝐸𝐸𝐸𝐸𝐸 = 𝐸𝐸𝑆𝑆1 = 0
𝐸𝐸𝐹𝐹𝑖𝑖 = 𝐸𝐸𝑆𝑆𝑖𝑖 + 𝑑𝑑𝑖𝑖
𝐸𝐸𝑆𝑆𝑖𝑖 = max 𝐸𝐸𝐹𝐹𝑝𝑝 𝑝𝑝 = 1, … , 𝑛𝑛 attività precedenti i
𝑝𝑝
• Schedulazione all'indietro: si parte dalle attività senza successori posizionate all'istante finale e si
procede all'indietro posizionando le altre attività nel tempo seguendo la regola che devono iniziare
all'ultimo momento possibile.
Si calcolano LS e LF come:
𝐿𝐿𝐿𝐿𝐿𝐿 = 𝐿𝐿𝐹𝐹𝑛𝑛 = 𝐸𝐸𝐹𝐹𝑛𝑛
𝐿𝐿𝑆𝑆𝑖𝑖 = 𝐿𝐿𝐹𝐹𝑖𝑖 − 𝑑𝑑𝑖𝑖
𝐿𝐿𝐹𝐹𝑖𝑖 = min 𝐿𝐿𝑆𝑆𝑝𝑝 𝑝𝑝 = 1, … , 𝑛𝑛 attività seguenti i
𝑝𝑝

Per ogni attività si può calcolare il total float (margine di scorrimento) tramite la differenza:
𝑇𝑇𝑇𝑇 = 𝐿𝐿𝐿𝐿 − 𝐸𝐸𝐸𝐸 = 𝐿𝐿𝐿𝐿 − 𝐸𝐸𝐸𝐸.
Le attività con total float nullo sono attivita' critiche. Inoltre bisogna valutare anche il free float, cioè quanto
può scorrere un’attività senza far ritardare le attività che seguono.

Esistono altri due tipi di float:

- Dipendenti float: differenza tra TF e FF


- Indipendente float: l’ampiezza dell’intervallo temporale entro il quale può variare la data minima di inizio
o di fine dell’attività se tutte le attività precedenti terminano alla loro data massima di fine e tutte le
attività successive iniziano alla loro data minima di inizio.

I diagrammi temporali
I diagrammi di Gantt
Il più noto diagramma temporale è il diagramma di Gantt, anche detto diagramma a barre schedulato. E'
molto usato perché' fornisce tutte le informazioni relative alla pianificazione dei tempi ed è lo strumento più
immediato ed efficace per la pianificazione operativa perché' è facilmente interpretabile ed esaustivo.

Il diagramma di Gantt è così organizzato: sulle ascisse i tempi, sulle ordinate le attività. Le attività sono delle
barre colorate che a seconda del posizionamento indicano la data minima di inizio e di fine. Le attività prive di
durata si rappresentano con un simbolo particolare (un rombo nero, ma anche un quadrato rosso…). Più in
generale il rombo nero indica un’attività cardine, una milestone.

Nel diagramma di Gantt non sono indicate le relazioni di precedenza fra le attività. Questo implica che se
un’attività viene ritardata o accelerata, non è sempre possibile comprendere che effetti avrà sulle altre attività.
Segue che impiegato da solo, il diagramma di Gantt non si rivela uno strumento efficace. Pertanto, è utile
integrare il diagramma di Gantt con delle frecce indicanti le dipendenze e magari un report tabellare simile a
quello per il CPM.

Pianificazione delle risorse


Finora abbiamo considerato risorse illimitate, ma nella maggior parte dei casi le risorse sono limitate e
condivise con altri progetti. Le date schedulate devono essere quindi valutate anche in termini di come e
quando utilizzare le risorse con disponibilità limitata.

Bisogna tradurre lo scopo dell’attività in unità misurabili: ore-uomo, ore-macchina, ore di elaborazione dati, ore
di ingegneria per unità-tempo e così via.

Integrare tempi e risorse non è immediato. Bisogna capire se sono le risorse a determinare la durata delle
attività (resource-driven) o se sono i tempi che determinano il fabbisogno di risorsa (time-driven).

Possiamo definire due situazioni limite:

- Situazione time-limited: il tempo di fine progetto non può essere allungato e ogni sovrassegnazione di
risorsa deve essere soddisfatta.
- Situazione resource-limited: la variabile critica e la risorsa e il progetto deve essere terminato al più presto
nel rispetto dei vincoli sulle risorse.
Se, nell’ordine, si stabiliscono prima tempi e i costi e poi le risorse, queste ultime risulteranno già di fatto
vincolate. Una volta stimata la quantità di risorsa necessaria per svolgere le singole attività nei tempi richiesti,
si valuta qual è l’impiego totale della risorsa considerata per unità-tempo all’interno del progetto, il cosiddetto
carico risorsa, la quantità di risorsa che la schedulazione richiede in un definito intervallo di tempo.

Per ogni attività si definiscono i seguenti attributi:

- Descrizione della risorsa;


- Quantità impiegata per unità tempo, detta anche intensità di utilizzo, ed è la modalità di impiego della
risorsa sull’unità di tempo definita nel calendario standard di progetto;
- Durata della risorsa, cioè per quanto tempo la risorsa p impegna sull’attività;
- Lead time, la differenza fra la data schedulata di inizio attività e la data di inizio di impiego della risorsa.

Le tecniche di livellamento delle risorse


Se esistono vincoli effettivi all’impiego e all’allocazione delle risorse, a questo punto, devono essere inseriti nel
piano di progetto. Si determina l’overload delle risorse, cioè quanto queste eccedono la disponibilità. Per i
problemi di allocazione esistono sistemi di risoluzione euristici e ottimizzati. I primi riescono dove si è in
presenza di problemi complessi e non lineari, dove gli approcci algoritmici di ottimizzazione falliscono.

Per questo si stabilisce un diagramma di carico delle risorse e tramite questo si effettua una comparazione fra
previsioni di utilizzo e disponibilità con relativo calcolo di sovraccarichi e sottoutilizzi. A questo punto si
definisce il progetto sul quale effettuare simulazioni what-if e si giunge al livellamento delle risorse tramite
definizione di priorità:

- Prima le attività più brevi


- Prima le attività che hanno minore impatto sulla durata finale del progetto
- Prima le attività con minore data minima di fine
- Prima le attività che utilizzano la medesima risorsa
- Prima le attività che hanno la domanda più elevata;
- Prima le attività con minimo scorrimento totale;
- Prima le attività con maggior numero di attività critiche successive (cioè le attività che appartengono ad
un percorso critico);
- Prima le attività con maggior numero di attività successive
- Prima le attività con data massima di fine più elevata.

Non è detto che bisogna seguire per forza un solo criterio, ma se ne può stilare una gerarchia.

Infine si sviluppano le ipotesi “estreme” time-limited e resource-limited.

Il controllo dei tempi e delle risorse


Una volta avviato il progetto è importante valutare come il lavoro e le attività stanno effettivamente
procedendo. Ad ogni milestone si attesta se il piano baseline si è svolto o meno in linea con il pianificato. Ci si
trasferisce quindi alla fase di “esecuzione/controllo”.

Una delle qualifiche fondamentali di un project manager è essere un buon controller più che un buon
pianificatore. Nella gestione dei progetti risulta più importare saper gestire l’impresto che prevedere
l’imprevedibile.

La revisione rappresenta un feedback nel processo di sviluppo che può revisionare o stravolgere il progetto. La
frequenza del ciclo di feedback dipende dal tipo di progetto e non può essere definita a priori.
Misure dello stato di avanzamento
Dati utili a fornire informazioni sullo stato di avanzamento sono:

- Data effettiva di inizio e fine


- Percentuali di completamento del lavoro o durate rimanenti
- Approvvigionamenti effettuati
- Ore-uomo liquidate
- Consumo materiali e servizi acquistati

Il controllo degli stati di avanzamento del progetto si dota così di strumenti esaustivi e immediatamente
leggibili per monitorare i seguenti aspetti:7

- Percentuale di completamento rispetto allo schedulato


- Scorrimenti esistenti
- Sequenze delle attività
- Risorse impiegate
- Riferimento ai responsabili delle attività.

Queste informazioni possono essere allegate al diagramma di Gantt per rendere più chiaro lo stato di
avanzamento.

Lettura 2 – Il finanziamento dell’innovazione


Dove si trovano le risorse finanziarie necessarie per poter investire nella nuova tecnologia? Ci sono vari
problemi che si possono incontrare nel reperire le risorse, e sono dovuti principalmente ai fallimenti del
mercato. Inoltre altre problematiche sono:

• Il risultato finale di un’attività di R&S è sostanzialmente nuova conoscenza. Per il paradosso di Arrow,
nel momento in cui condividiamo le nuove idee (che son costose da generare), queste perdono di
valore perché' possono essere replicate a costo zero. La conoscenza è dunque un bene difficilmente
appropriabile.
• L’asimmetria informativa, cioè il fatto che l'inventore ne sa sicuramente più dell'investitore sulle
potenzialità dell'invenzione e può sfruttare queste sue conoscenze per un moral hazard, ovvero per
promettere all'investitore ritorni molto più ottimistici.

Le possibilità di finanziamento che si possono adottare sono:

• Autofinanziamento: reinvestire gli utili;


• Cedere al mercato azionario (mercato dei capitali): questa è un'opzione meno comune in Italia e
consiste nel ricorrere a capitale di rischio;
• Finanziamenti pubblici: possono essere incentivi fiscali (cioè meno imposte da pagare) o sussidi alle
imprese (contributi dati alle imprese);
• Private Equity: vedremo principalmente questi. Si tratta di soggetti privati o pubblici che in modo
professionale investono nelle nuove imprese ad alta tecnologia. A questo dedichiamo un'intera
sezione.

Perché non le banche?


Non abbiamo citato le banche tra i vari canali di finanziamento. Questo perché' le banche non sono un canale
di finanziamento tipico a cui si rivolgono le piccole imprese. Le attività di ricerca e sviluppo da parte delle
imprese presuppongono spesso investimenti significativi e che prospettano ritorni molto lontani nel tempo,
peraltro con un elevato grado di rischio. Ecco perché' le banche non finanziano facilmente tali attività. Le
banche richiedono garanzie su cui rivalersi se l'impresa non riesce a pagare le rate del mutuo e gli interessi, ma
le piccole imprese non riescono a dare grandi garanzie.

I mercati azionari
I mercati azionari sono luoghi fisici o virtuali nei quali sono scambiate azioni, che rappresentano quote di
capitale di rischio dell’impresa. Un’impresa emette azioni che sono collocate normalmente attraverso una
banca d’affari sul mercato e acquistate dagli investitori, ricevendo in questo modo nuove risorse finanziarie.
Successivamente le azioni acquistate dagli investitori possono essere rivendute ad altri investitori attraverso
broker che effettuano le operazioni di compravendita dei titoli.

Private equità
In particolare si tratta di venture capital. Si tratta di un canale importante per il finanziamento di nuove
imprese ad alta tecnologia. Il venture capital è l'apporto di capitale di rischio da parte di un investitore per
finanziare l'avvio o la crescita di un’attività in settori ad elevato potenziale di sviluppo. Spesso lo stesso nome è
dato ai fondi creati appositamente, mentre i soggetti che effettuano queste operazioni sono detti venture
capitalist. Si tratta di investitori attivi. Investono in modo specifico in imprese startup (nelle fasi di avvio o
sviluppo, insomma nelle fasi iniziali del ciclo di vita).

I fondi di venture capital sono diversi dai fondi di buyout (che sono private equità in senso stretto) i quali
investono in imprese mature. I venture capitalist finanziano le imprese con elevata potenzialità di crescita negli
stadi iniziali attraverso una significativa partecipazione nel capitale di proprietà. Essi hanno poi voce in capitolo
nell'aiutare/indirizzare la gestione.

Il ritorno finanziario dell'investimento dei venture capital è massimo quando l'impresa viene quotata.

Come funziona il venture capital?


Si tratta di intermediari finanziari che in una prima fase raccolgono capitali da soggetti diversi (ad esempio da
banche, fondazioni, fondi d'investimento, investitori individuali) in modo da costituire il fondo, e in una
seconda fase cercano le imprese in cui investire.

Perché' i venture capital sono più adeguati ad essere investiti in imprese a più alto livello di rischio?
Ci sono dei meccanismi particolari che consentono ai venture capitalist di fronteggiare il rischio:

• Investono in un portafoglio di imprese: cioè non investono tutto il fondo in una sola impresa, ma in più
imprese.
• Investono in fasi successive.
• Investono in forma consortile con altri fondi di venture capital, in modo da distribuire il rischio tra più
partner.

Simili ai venture capitalist sono i business angels che però sono singoli investitori, imprenditori coraggiosi e
dotati di denaro da investire. Lo fanno per sfida personale oltre che per un ritorno.

Lettura 3 – La valutazione economica dei progetti di innovazione


Un qualsiasi progetto di investimento produce flussi monetari in entrata e in uscita. Il suo valore dovrebbe
essere funzione di quattro variabili:

- L’ammontare dei flussi di cassa;


- Il momento in cui sono disponibili;
- La durata dell’investimento;
- Il costo opportunità del capitale impiegato per il finanziamento, rappresentato dal tasso di rendimento
atteso da un investimento sul mercato finanziario che presenta uguale rischiosità.

Il Valore Attuale Netto (VAN) rappresenta uno strumento che rispetta il principio del valore finanziario del
tempo, penalizzando i flussi di cassa più distanti a favore di quelli più vicini nel tempo.

Il VAN all’anno N è definito come:


𝑁𝑁
𝐹𝐹𝑡𝑡 𝑉𝑉𝑅𝑅𝑁𝑁
𝑉𝑉𝑉𝑉𝑉𝑉 = � +
(1 + 𝑟𝑟)𝑡𝑡 (1 + 𝑟𝑟)𝑁𝑁
𝑡𝑡=0
𝐹𝐹𝑡𝑡 = Flusso di cassa netto all'anno 𝑡𝑡
𝑟𝑟 = Tasso di attualizzazione rappresentativo del costo opportunità del capitale
𝑉𝑉𝑅𝑅𝑁𝑁 = Valore residuo all'anno 𝑁𝑁

In assenza di vincoli di finanziamento, conviene investire in qualsiasi investimento con VAN positivo. In
presenza di vincoli, l’azienda implementerà i progetti con il VAN più alto.

Flusso di cassa netto operativo (FCNO)


Per calcolare l’FCNO si parte dal NOPAT (Net Operating Profit After Taxes) che è il reddito operativo al netto
delle imposte. A questo si aggiungono gli ammortamenti e si sottraggono gli incrementi del capitale circolante
netto e il flusso netto per gli investimenti.

Weighted average cost of capita


Il WACC è il costo medio ponderato delle fonti finanziarie dell’impresa.
𝐷𝐷 𝐸𝐸
𝑊𝑊𝑊𝑊𝑊𝑊𝑊𝑊 = 𝑟𝑟𝐷𝐷 (1 − 𝑇𝑇) + 𝑟𝑟𝐸𝐸
𝑉𝑉 𝑉𝑉
𝐷𝐷 = Valore di mercato del debito dell'impresa
𝐸𝐸 = Valore di mercato capitale netto (equity)
𝑉𝑉 = 𝐷𝐷 + 𝐸𝐸 = Valore di mercato di tutte le fonti finanziarie
𝑟𝑟𝐷𝐷 = Costo del debito dell'impresa
𝑟𝑟𝐸𝐸 = Costo del capitale azionario dell'impresa
𝑇𝑇 = Aliquota sul reddito societario
Per determinare il costo del capitale azionario dell’impresa è possibile ricorrere al modello del Capital Asset
Pricing Model (CAPM):

𝑟𝑟𝐸𝐸 = 𝑟𝑟𝑓𝑓 + 𝛽𝛽𝐸𝐸 �𝑟𝑟𝑚𝑚 + 𝑟𝑟𝑓𝑓 �


𝑟𝑟𝐸𝐸 = Tasso di rendimento atteso sull'equity azionario dell'impresa
𝑟𝑟𝑓𝑓 = Tasso di rendimento dell'attività priva di rischio
𝑟𝑟𝑚𝑚 = Tasso di rendimento atteso del portafoglio di mercato
𝑟𝑟𝑚𝑚 − 𝑟𝑟𝑓𝑓 = Premio al rischio del portafoglio di mercato
𝛽𝛽𝐸𝐸 = Beta delle azioni della società
Per il calcolo del beta, si fa riferimento normalmente ai dati storici sulla correlazione tra i rendimenti
dell’azione dell’impresa e i rendimenti presenti nel portafoglio di mercato.
Costo di opportunità e hurdle rates
Come tasso di attualizzazione, in alternativa al WACC, si può preferire stimare il costo di opportunità dello
specifico progetto da valutare. Si utilizza 𝑟𝑟𝐸𝐸 calcolato con il CAPM di imprese quotate simili e i rendimenti
storici degli investimenti in R&D dell’impresa stessa.

Se nemmeno il costo di opportunità può essere applicato, si ricorre agli hurdle rates, basati sull’esperienza
pratica, che indichino il tasso annuo di rendimento minimo richiesto dall’impresa per avviare un determinato
progetto.
Le soglie minime di tasso annuo di rendimento richiesto dall’impresa per avviare un progetto sono:

- 30% per venture speculativi


- 20% per nuovi prodotti
- 15% per l’espansione di rischi esistenti

Valore di recupero
Il valore di recupero è il valore attuale di una rendita perpetua che cresce all’infinito ad un tasso costante. È
possibile esprimere il valore residuo all’anno N come segue:
𝐹𝐹𝐹𝐹𝐹𝐹𝑂𝑂𝑁𝑁+1
𝑉𝑉𝑅𝑅𝑁𝑁 =
𝑊𝑊𝑊𝑊𝑊𝑊𝑊𝑊 − 𝑔𝑔′

𝑔𝑔 = Tasso di crescita annuo costante del FCNO a partire dall'anno 𝑁𝑁 + 1
Il VAN presenta ovviamente dei limiti:

- Considerazione del rischio


- Difficoltà nell’effettuare proiezioni finanziarie
- Focus su risultati di natura finanziaria, non strategica
- Come tenere conto dei vincoli sulle risorse (ad esempio Productivity Index)
- Non considera le opzioni successive incorporate nel progetto

Albero delle decisioni


Un progetto di innovazione è rappresentato come una sequenza di eventi incerti e di momenti decisionali.
Eventi e decisioni rappresentano un nodo dell’albero e a ogni evento incerto è assegnata una probabilità ex-
ante. Si calcola quindi il VAN procedendo da destra verso sinistra, a ritroso.

Vantaggi e limiti dell’albero delle decisioni


Vantaggi:

– Permette di formalizzare la complessità decisionale di un progetto di innovazione


– Considera l’effetto di eventi incerti e delle decisioni manageriali sul valore del progetto

Limiti:

– Determinazione delle probabilità ex-ante


– Determinazione del tasso di attualizzazione (ogni ramo è un singolo progetto con rischio diverso)

Il mistero, a.k.a. il Metodo Delphi


Si svolge attraverso l’interazione di un gruppo (panel) di individui (esperti, testimoni privilegiati,
rappresentanti, cittadini) che interagiscono, argomentano attivamente un problema complesso creando così un
processo di comunicazione di gruppo virtuoso.
Una delle motivazioni all'origine di questa procedura sono i limiti attribuiti al confronto di opinioni attraverso la
comunicazione non strutturata, ritenuta insufficiente per far emergere un punto di accordo già con gruppi di
piccola dimensione (dieci partecipanti), a causa della sua scarsa sistematicità e degli effetti psicologici implicati
dai pregiudizi reciproci (differenze ideologiche e di status, tendenza all’autoaffermazione, ecc.).

Il metodo Delphi standard nasce, dunque, dal tentativo di superare i limiti dell'interazione diretta attraverso un
processo di comunicazione controllata, stabilito a distanza e in condizioni di anonimato.

L’obiettivo principale del metodo Delphi è lo studio, la convergenza di opinioni attendibili del panel intervistato
e l’elaborazione di informazioni utili per un processo decisionale.

Esso consente di sviluppare approfondimenti su determinate tematiche, valutare la fattibilità di varie


alternative, contribuendo alla risoluzione di un problema (anche nel caso questo sia connotato da condizioni di
incertezza) ed è per questa ragione che è utilizzato con successo in molteplici ambiti lavorativi.

Lo scopo principale del metodo D. è di combinare l'opinione di un campione di persone intervistandole più
volte (rounds) al fine di facilitare il flusso di idee e di informazioni, permettendo ad ogni partecipante di avere
uguale peso decisionale.

Tale metodo permette di comprendere le assunzioni e le opinioni che stanno alla base dei giudizi su un
argomento specifico. Alla fine di ogni round si procede ad un’analisi dei risultati offrendo così ai partecipanti la
possibilità di seguire lo svolgimento della ricerca leggendo le opinioni degli altri nel pieno rispetto
dell’anonimato di ognuno.

Presupposti del metodo Delphi


- Gli individui bene informati, usando i loro approfondimenti e la loro esperienza, sono meglio dotati per
predire il futuro dei metodi teorici o dell’estrapolazione delle tendenze
- Problema complesso
- Gli esperti che partecipano non hanno mai comunicato in passato
- Gli esperti dovrebbero rappresentare diversi ambiti di provenienza riguardo esperienza e perizia
- Lo scambio di idee in una riunione è impossibile o poco pratico
- I disaccordi sono gravi o politicamente sgraditi

Le fasi del metodo


– Fase 1: i partecipanti esprimono in modo anonimo su un questionario o altro documento la loro opinione in
materia
– Fase 2: si raccolgono i pareri raccolti e sono sintetizzati in forma aggregata in un unico documento
– Fase 3: i partecipanti rianalizzano i pareri emersi confrontandola con la loro iniziale opinione
– Fase 4: -> Fase 1.

Pregi del metodo Delphi


- Consenso veloce
- I partecipanti possono risiedere ovunque nel mondo
- Copre una vasta gamma di perizia
- Evita il “pensiero di gruppo”
- Prevede una specifica domanda monodimensionale
Limiti del metodo Delphi
Il successo del metodo dipende dalla qualità dei partecipanti, possono essere presenti preconcetti ed è un
metodo costoso da applicare.