Sei sulla pagina 1di 129

STRATEGIA E INNOVAZIONE

È rilevante una strategia dell’innovazione?

La strategia è il modo in cui si traduce denaro nelle menti più evolute.


CASO Coca-Cola vs Pepsi vs RC-Cola. Rc Cola è l’innovatore che inventa la
coca dietetica (1980), senza sodio, coca e pepsi dal punto di vista
innovativo risultano molto indietro rispetto a RC-Cola ma Coka-Cola e
Pepsi hanno conquistato il mercato mentre RC-Cola no perché non è
stata capace di tradurre l’innovazione in denaro a causa dell’assenza di
alcuni asset complementari (Brand, Rete di distribuzione, Catena
commerciale etc…).

SCELTA DEL TEMPO D’INGRESSO NEL MERCATO

Nei settori caratterizzati da rendimenti crescenti, la scelta del tempo di ingresso (il timing) può essere
decisiva.

1- First mover. Sono coloro che offrono per primi una nuova categoria di prodotto o servizio.
Innovano, sostengono alti costi di ricerca, hanno alte competenze tecniche, scelgono le traiettorie
tecnologiche e creano il project concept.
2- Early follower. Innovano, ma cercando soprattutto i miglioramenti incrementali lungo le traiettorie
tecnologiche scelte dai first mover, contengono i costi di R&D (reverse engineering, evitano i binari
morti).
3- Late entrant. Imitatori, si focalizzano su innovazioni di processo che consentono strategie di prezzo,
o su innovazioni incrementali, tese ad allargare la domanda (es. facilità d’uso).

Vantaggi del First Mover:

- Brand loyalty e leadership tecnologica. L’impresa che per prima introduce una nuova tecnologia
può guadagnare una reputazione di lunga durata quale leader di un determinato dominio
tecnologico. L’acquisizione di tale status permette all’impresa di rafforzare la sua immagine,
estendere la brand loyalty e allargare la quota di mercato anche dopo l’introduzione di prodotti
analoghi da parte dei concorrenti. La leadership tecnologica permette di consolidare i bisogni
specifici del cliente. Se le caratteristiche della tecnologia non sono imitabili (es. perché protette da

1
copyright o brevetti) allora garantirà al first mover una rendita da monopolio, se invece sono
imitabili permetterà al first mover di fidelizzare il cliente.
- Il diritto di opzione su risorse scarse. Le imprese che entrano nel mercato per prime godono di un
vantaggio di prelazione o di opzione nell’acquisizione di risorse scarse, come una localizzazione in
una posizione strategica, le concessioni governative, l’accesso esclusivo ai canali di distribuzione o i
rapporti privilegiati con i fornitori.
- Sfruttamento degli switching cost dell’acquirente. Una volta adottata una determinata tecnologia
o anche dopo l’acquisto di un bene, il passaggio a una tecnologia differente o l’acquisto di un altro
bene comporta spesso dei costi per il cliente, definiti switching cost. (es. prodotto complesso, se il
cliente cambia dovrà perdere del tempo per imparare il nuovo). L’impresa che conquista i clienti in
una fase embrionale del ciclo di vita del mercato potrebbe riuscire a conservarli anche se saranno
introdotte in futuro tecnologie con una proposizione di valore superiore. Uno dei casi più noti
riguarda la diffusione e l’affermazione come dominant design del layout di tastiera QWERTY; la
configurazione della tastiera QWERTY attribuisce un carico di lavoro molto superiore alla mano
sinistra rispetto alla mano destra, rallentando così la velocità di digitazione delle combinazioni più
frequenti e riducendo quindi i rischi di incastro dei tasti. (tastiera Dvorak layout che sforza meno e
permette digitazione più rapida ma non ha preso piede a causa degli switching cost).
- Vantaggi dei rendimenti crescenti. Nei settori caratterizzati da rendimenti crescenti, gli entranti
iniziali possono acquisire e accumulare vantaggi collegati all’esperienza e alle esternalità di rete. È il
caso di Intel che supportando il BASIC ha permesso agli sviluppatori di realizzare applicazioni
dedicate, oppure IBM quando introdusse i suoi PC assicurò una posizione dominante a Intel.

Svantaggi del first mover:

- I costi di ricerca e sviluppo. Lo sviluppo di una nuova tecnologia comporta spesso costi di R&S
notevoli, quasi sempre a carico soprattutto delle imprese che per prime sviluppano la tecnologia e
la introducono nel mercato. Al termine del processo di sviluppo, l’impresa avrà sostenuto non solo i
costi relativi alla tecnologia introdotta, ma anche i costi di sperimentazione di quei percorsi
alternativi che però non hanno condotto alla realizzazione di un prodotto con una validità di
mercato. I first mover dovranno assumere su di sé il fardello dei costi di sviluppo sia dei processi di
produzione sia dei beni complementari non presenti nel mercato. I concorrenti che entrano in
tempi successivi spesso non devono affrontare i costi della ricerca esplorativa e, una volta che il
prodotto è stato introdotto nel mercato, potrebbero perfino riuscire a risalire alle modalità e alle
tecniche di produzione adoperate. Chi entra in un secondo tempo, inoltre, ha l’opportunità di poter
osservare la risposta del mercato e determinate caratteristiche della tecnologia e di decidere su
quali elementi concentrare i propri sforzi di sviluppo. (il follone può fare un prodotto più vicino alle
preferenze dei consumatori).
- Lo sviluppo dei canali di fornitura e distribuzione. Un ostacolo non trascurabile è rappresentato
dall’assenza o dall’inadeguatezza del sistema di fornitori o distributori esistenti. All’impresa che per
prima introduce la tecnologia spetta quindi l’ingrato compito di sviluppare e realizzare per proprio
conto i servizi di fornitura e distribuzione, o almeno di contribuire allo sviluppo della
filiera industriale a monte e a valle. (es. Deka Research sviluppo la sedia rotelle auto
bilanciata Ibot, per lo sviluppo era necessario un nuovo tipo di cuscinetto a sfera e
allora fu costretta a sviluppare in casa una tecnologia in grado di realizzare questo
particolare cuscinetto). Più il prodotto è innovativo, più richiede componenti

2
specializzati. Nella fase di apertura del mercato, non esistono produttori dei componenti allora
l’impresa può:
o Produrre da se tutti i componenti del prodotto (integrazione verticale: alto investimento,
alto rischio)
o Convincere i produttori di beni simili a dedicare una linea di produzione (problema di hold-
up)
- Lo sviluppo delle tecnologie abilitanti e dei beni complementari. Il grado di sfruttamento del
potenziale di alcune tecnologie è condizionato dal contemporaneo sviluppo di altre tecnologie (es.
PDA con modem e carica della batteria), spesso quindi il first mover deve impegnare risorse di R&D
per lo sviluppo di queste tecnologie abilitanti.
- L’incertezza nelle condizioni della domanda. L’impresa non conosce ancora quali caratteristiche
dell’innovazione desteranno un effettivo interesse nei clienti, né quale prezzo questi potenziali
clienti saranno disposti a pagare per l’acquisto. Spesso quindi i first mover devono modificare
l’offerta iniziale in base alle preferenze che il mercato inizia a manifestare. I first mover hanno
l’opportunità di indirizzare e plasmare le preferenze del mercato, qualora siano in grado di stabilire
un modello di riferimento per il design del prodotto, di fissare un primo standard tecnologico in un
mercato ancora emergente, nonché di investire nella formazione del consumatore. Se difatti i ricavi
generati dal nuovo prodotto tardano ad arrivare, l’impresa rischia di rimanere soffocata dai costi di
R&D e di marketing.

FATTORI CHE DETERMINANO LA STRATEGIA DI ENTRATA OTTIMALE

In base a quali criteri l’impresa decide se rischiare l’ingresso nel mercato come pioniere o attendere
piuttosto l’ingresso dei concorrenti? La risposta a questo interrogativo dipende da una molteplicità di
fattori:

- Il consolidamento delle preferenze del cliente. i clienti potrebbero incontrare delle difficoltà nel
comprendere la tecnologia, i suoi vantaggi e il ruolo che questa potrebbe assumere nella vita
quotidiana. Individuare il momento in cui le preferenze del cliente si stanno “coagulando” attorno
ad un dominant design ma non sono ancora consolidate. A parità di condizioni, una minore
incertezza sulle richieste del cliente favorisce o rende probabile un’entrata anticipata o comunque
un ingresso rapido nel mercato.
- La necessità di tecnologie abilitanti e di supporto. Le tecnologie abilitanti e di supporto risultano
fondamentali poiché mettono in grado (ovvero “abilitano”) una determinata innovazione
tecnologica di garantire le prestazioni promesse. (es. un TV hd non possiede alcun valore se non ho
una sorgente hd). Se le tecnologie di supporto sono ritenute “mature”, l’impresa potrà entrare nel
mercato in una fase iniziale, altrimenti converrà attendere che raggiungano uno stadio di sviluppo
più avanzato.
- L’influenza dei beni complementari e add-ons sul valore dell’innovazione. Se il valore di
un’innovazione dipende dalla disponibilità e dalla qualità dei beni complementari, saranno le
caratteristiche di questi a determinare le probabilità di successo dell’entrata nel mercato. Se
l’innovazione richiede nuove risorse complementari, non ancora disponibili nel mercato, e
l’impresa non è in grado di
fornirli, un’entrata anticipata
nel mercato offre ben poche
possibilità di successo. Una

3
tecnologia con un ampia base di clienti attrae i produttori di beni complementari; a sua volta, la
disponibilità dei beni complementari attrae gli utilizzatori, aumentando la base clienti.
- Beni complementari e utilità tecnologica. A che punto è l’innovazione (es. motorola 8700 era
all’inizio dei cellulari). Per imporsi sul mercato, un’innovazione dovrà essere in grado di offrire un
valore complessivo superiore:
o Migliorando in maniera radicale l’utilità tecnologica (stand-alone)
o Mantenendo la compatibilità con la base di installazioni e i beni complementari esistenti

- La minaccia di nuovi entranti. Come in una corsa ciclistica, sono tutti pronti per la volata. Se il
settore presenta elevate barriere all’entrata e sono pochi i potenziali concorrenti che dispongono
delle risorse e delle capacità necessarie all’ingresso, l’imprese potrebbe attendere l’evoluzione
della tecnologia e il
consolidamento delle
richieste del cliente
prima di entrare nel
nuovo mercato. (il
consolidarsi delle
preferenze potrebbero
attrarre nuovi
entranti). Se la
minaccia di nuovi
ingressi da parte dei
concorrenti è alta,
l’impresa potrebbe
preferire un ingresso
anticipato, che
consenta di creare un immagine di marca (brand image), di conquistare una buona quota di
mercato e di stabilire rapporti privilegiati con fornitori e distributori.

- Rendimenti crescenti di adozione (esternalità di rete). Nei settori che presentano rendimenti
crescenti di adozione, determinati da effetti significativi della curva di esperienza o dalle esternalità
di rete, lasciare che i concorrenti compiano la prima mossa e comincino a costruire la propria base
4
di clienti potrebbe rivelarsi una strategia estremamente rischiosa. Se meccanismi di protezione
quali i brevetti impediranno in futuro l’introduzione di nuove tecnologie compatibili con la prima,
l’impresa rischia persino di restare esclusa dal mercato. I differenti gradi di utilità offerti da una
tecnologia e rendimenti determinati dalle esternalità di rete, se confrontati con la quota di
mercato, esercitano
un’influenza significativa
sulla competizione fra
standard tecnologici per
assicurarsi la posizione
dominante in un mercato.
Le figure riportate di
seguito mostrano, in
primo luogo, che le
pressioni esercitate dalle
esternalità di rete possono essere tali da imporre la scelta di un unico dominant design oppure tali
da consentire la coesistenza di un piccolo numero di standard differenti, ciò dipenderà dal tasso di
crescita del valore della tecnologia all’aumentare della dimensione della base clienti. Dalle figure si
comprende anche quanto dovrà essere estesa la base di installazioni, ovvero la soglia di adozione,
perché possano manifestarsi i benefici delle esternalità di rete. La figura a) rappresenta
l’incremento dei benefici
delle esternalità di rete di
una tecnologia
all’aumentare della sua
quota di mercato. Nella
figura b) è stato aggiunto il
valore dell’utilità
tecnologica, con l’effetto di
spostare l’intera curva
verso l’alto. Questo aspetto
diventa rilevante quando si
confrontano (e si rappresentano) due tecnologie con valori differenti nel livello di base dell’utilità
tecnologica. La seconda figura rappresenta due tecnologie A e B, che offrono un’utilità tecnologica
simile e presentano curve di rendimento delle esternalità di rete pressochè analoghe. La curva della
tecnologia B è stata tracciata invertendo il senso di direzione lungo l’asse della quota di mercato,
così da poter comparare il valore offerto dalle due tecnologie alternative a livelli differenti di
posizione nel mercato. Quindi fra due tecnologie che competono per la posizione dominante, è
possibile individuare per quali livelli della quota di mercato cumulata (base installazioni) ciascuna
tecnologia genera un valore complessivo superiore.
- Disponibilità di risorse finanziarie.
o la capacità di assorbire le perdite iniziali. Ad esempio sky aveva le spalle larghe per
perdere utili iniziali. Il first mover deve sostenere la maggior parte delle spese e dei rischi
associati allo sviluppo e all’introduzione di un’innovazione. In più il first mover deve essere
in grado di far fronte a un periodo (non sempre breve) in cui i ricavi generati dalle vendite
del nuovo prodotto saranno esigui. La lentezza della fase di decollo (take-off) di un mercato
a causato la cessazione di molte imprese ancora in fase di startup.

5
o il sostegno finanziario alle strategie di ingresso. Un impresa con un’ampia disponibilità di
risorse finanziarie ha la possibilità non solo di resistere a un take-off che dovesse
prolungarsi nel tempo, ma anche di investire tali risorse per accelerare il decollo del
mercato. (es. investimenti per educare il consumatore e accelerare il consolidamento delle
preferenze).
- la reputazione dell’impresa e l’incertezza del mercato. è evidente che un’impresa come Apple invia
segnali ai suoi consumatori delle potenzialità di successo di una nuova tecnologia. Al crescere del
brand dell’impresa si affretta il momento dell’ingresso. Il primo prodotto solitamente non è
perfetto, se lo fa uscire Toshiba può sostenere i costi di reputazione mentre se è uno sconosciuto
rischia di non vendere più nulla.

ENTRARE IN UN NUOVO MERCATO SE E QUANDO

Mitchell ha analizzato 30 anni di dati del settore della diagnostica per immagini, per individuare quali
fattori influenzano la decisione di un’impresa già presente in un’area di business di entrare in un altro
segmento emergente nel medesimo settore:

- se soltanto un impresa è in grado di realizzare un prodotto impossibile o difficile da imitare, essa


può entrare nel nuovo mercato se e quando lo desidera.
- Se invece, sono più di una le imprese che realizzano il prodotto difficile da imitare potrebbe
scattare una “corsa” verso il mercato per tentare di catturare per primi la maggior quota di
potenziali clienti.
- Quando si prevede che un prodotto potrà essere imitato facilmente, alcune imprese attendono,
rimandando l’ingresso; altre decidono di introdurre il prodotto sostenendo i costi di sviluppo del
mercato.
- Le imprese che dispongono di asset complementari molto specializzati, utili nei nuovi segmenti,
sono quelle con maggiore probabilità di entrata nei nuovi segmenti industriali
- Anche le imprese i cui prodotti attuali sono seriamente minacciati da nuovi prodotti molto
probabilmente decideranno di entrare nel nuovo segmento.
- Le imprese incumbent hanno alta probabilità di entrare velocemente quando i loro prodotti chiave
sono minacciati da nuove tecnologie alternative ed esistono numerosi sostanziali rivali.

LE STRATEGIE PER MIGLIORARE LE OPZIONI DI TIMING

Per avere maggiore probabilità di successo nella scelta del timing, l’impresa deve possedere le competenze
chiave necessarie per realizzare un’innovazione coerente con le aspettative del consumatore, oppure deve
poterle sviluppare o acquisire in tempi rapidi. Se l’impresa decide di perfezionare la tecnologia di un primo
entrante così da sorpassarlo con una nuova versione della stessa tecnologia, deve disporre di processi di
sviluppo a cicli veloci. In definitiva, un’impresa con processi di sviluppo a cicli veloci dovrebbe essere
avvantaggiata sia come first mover sia come secondo entrante.

6
DEFINIZIONE DI INNOVAZIONE

L’innovazione è il miglioramento di un trade-off (es. a parità di peso dura più la batteria), essa può essere
definita mediante due punti di vista:

- Punto di vista del prodotto. Si definisce l’innovazione utilizzando come unità di analisi il prodotto,
l’innovazione secondo questa definizione può offrire nuove/migliori prestazioni/funzionalità
oppure nuovi significati.
o Nuove/migliori prestazioni. Si intende un prodotto che, rispetto ai beni simili offerti dalla
stessa impresa o dai competitori, ha funzionalità superiori oppure ha costi inferiori, in
termini reali, cioè tangibili, concreti. Per prodotto si intende sia il risultato di un
innovazione di prodotto, sia di processo. (es. motore common rail della bosch)
o Nuovi significati. Innovazione di tipo semantico. Il prodotto rispetto ai beni simili offerti
dalla stessa impresa o dai competitori, può avere funzionalità materiali o costi paragonabili
in termini reali, ma soddisfa in misura superiore una serie di esigenze immateriali
(percettivo, psicologico), che vengono percepiti dal consumatore come nuova utilità. (es. I-
pod vs lettore mp3)

- Punto di vista dell’impresa. Il processo innovativo è visto dall’impresa secondo due forme:
o Cambiamento tecnologico. È costituito da nuove conoscenze e nuove competenze a
riguardo del come fare i prodotti sono acquisite o sviluppate internamente. Si tratta di
possedere il know-how che permette di realizzare il cambiamento tecnologico. (es. Pasta
Barilla che non scuoce).
o Cambiamento organizzativo. È l’acquisizione nuove conoscenze o competenze a riguardo
del chi e del cosa fare sono acquisite o sviluppate internamente. Su tale base vengono
ridisegnati i processi aziendali: nuovi obiettivi e nuovi compiti per le persone; nuove forme
di controllo e di comunicazione tra i manager e lavoratori, tra funzioni e divisioni
dell’impresa (es. Iveco che decentralizza R&D). Cambiamento organizzativo, ad esempio
Fiat prima faceva la logistica all’interno ora la fa fare a TNT, l’internet banking per le banche
è un cambiamento di organizzazione. Quando un organizzazione spinge all’estremo le
modifiche organizzative allora si tratta di una Business Model Innovation, un esempio
tipico sono “Ryanair”, “Amazon”.

Incrociando le due dimensioni di ragionamento


si ottiene la matrice a fianco riportata. Si può
vedere che l’innovazione semantica è
trasparente alle 2 dimensioni di analisi
(prodotto e impresa). Se l’innovazione riguarda
nuove funzionalità allora questo può
comportare nuovi cambiamenti tecnologici (
innovazione tecnologica) oppure cambiamenti
organizzativi ( innovazione organizzativa).

7
TIPI DI INNOVAZIONE

- Innovazione di Prodotto. Le innovazioni di prodotto sono incorporate nei beni o servizi realizzati da
un impresa. (migliora le funzionalità o le caratteristiche del prodotto) .. Un esempio di innovazione
di prodotto è la realizzazione di nuovo farmaco.
- Innovazioni di processo sono cambiamenti nelle modalità con cui l’impresa svolge le sue attività,
relativi ad esempio alle tecniche di produzione, al controllo di qualità, al marketing.Ll’innovazione
di processo può essere un nuovo algoritmo per la ricerca di target genetico.

- Radical Innovation. Sono salti, rivoluzioni nelle prestazioni del prodotto determinati da
un’evoluzione delle competenze e delle conoscenze tecnologiche dell’impresa, ovvero da una
crescita delle capacità che si innesta in maniera organica sul patrimonio di risorse dell’azienda. Un
innovazione radicale non implica talvolta un immediato miglioramento delle prestazioni, ciò che
conta è che il nuovo sistema presenti un più elevato potenziale di miglioramento. Secondo gli
economisti, l’innovazione radicale modifica la struttura di mercato, mentre quella incrementale
non modifica la struttura di mercato. (es. passaggio dalla telefonia analogica a quella digitale)
- Incremental Innovation. Piccoli miglioramenti, frutto di un evoluzione delle competenze e delle
conoscenze tecnologiche dell’impresa, ovvero da una crescita organica delle capacità dell’azienda.
- Modular innovation. Cambiamenti di uno o più componenti del prodotto/processo che non variano
l’architettura del prodotto (es. gel nel sellino della bicicletta). Ovvero i cambiamenti non provocano
modifiche sostanziali alla configurazione generale del sistema.
- Architectural innovation . Intuitivamente un innovazione architetturale modifica sostanzialmente
la configurazione generale del sistema. (es. passaggio dal velocipede alla bicicletta). Generalmente
si manifestano come innovazioni competence destroying ovvero distrugge le competenze (es. la
calcolatrici ha distrutto le competenze di chi produceva regoli, Google con il Page Rank ha distrutto
le competenze di altavista).
- Il processo d’innovazione è un processo di feedback, iterativo talvolta caratterizzato da serendipità
(per caso, non intenzionale, in maniera inaspettata si ottiene un’innovazione rilevante es. Motore a
vapore noto prima del principio della termodinamica).

8
LE CURVE TECNOLOGICHE A S

È stato osservato che sia il tasso di miglioramento della performance di una tecnologia sia il suo tasso di
diffusione nel mercato tendono a seguire un andamento graficamente riproducibile con una curva a S.
Sebbene le due curve siano correlate fra loro i due processi devono essere considerati sostanzialmente
distinti e separati.

Le curve a S del miglioramento tecnologico

Ponendo a confronto l’incremento delle prestazioni con il volume d’investimenti e l’impegno organizzativo,
di norma si riscontra un andamento iniziale più lento, quindi un accelerazione e infine un rallentamento nel
processo di miglioramento. Nella fase iniziale il miglioramento della performance è lento perché i principi di
base della tecnologia sono stati compresi in modo ancora parziale. Quando però i ricercatori e
l’organizzazione nel suo complesso hanno acquisito una conoscenza più approfondita della tecnologia, il
miglioramento incomincia a essere più rapido. Durante lo sviluppo, l’attenzione è posta in tutte quelle
attività che producono i maggiori miglioramenti a parità d’impegno, garantendo un rapido incremento delle
performance. A un certo punto però, il rendimento delle risorse e delle energie impegnate per lo sviluppo
della tecnologia si avvicina al proprio limite naturale, il costo marginale di ciascun miglioramento aumenta,
mentre la curva tende ad appiattirsi. La curva ad S del miglioramento viene tracciata in base al rapporto tra
la performance e il tempo. (nb. Se l’impegno di risorse e di energie nel tempo non è stato costante la curva
può essere fuorviante). Non sempre però le tecnologie raggiungono i propri limiti, perché già prima
potrebbero essere rimpiazzate dall’avvento di nuove tecnologie discontinue. Un’innovazione si dice
discontinua quando risponde a una richiesta di mercato simile a quella già soddisfatta da una tecnologia
preesistente, partendo da una base di conoscenze completamente nuova (es. passaggio dalla fotografia
chimica a quella digitale). Negli stadi iniziali, il rendimento degli sforzi orientati allo sviluppo di una nuova
tecnologia di solito risulta inferiore a quello degli investimenti destinati al miglioramento di una tecnologia
esistente, e le imprese sono spesso riluttanti da abbandonare una tecnologia già conosciuta e adottata da
tempo per passare a una tecnologia nuova o non familiare. Tuttavia, se quest’ultima presenta una curva a S
più ripida, ovvero con un tasso più rapido nel miglioramento delle prestazioni oppure raggiunge un limite di
performance più elevato, vi è un punto dal quale il rendimento che deriva dagli investimenti nella nuova
tecnologia comincerà a superare di gran lunga quello derivante dagli investimenti nella tecnologia
attualmente adottata. Di norma le imprese nuove che entrano in un mercato tendono ad optare per una
tecnologia discontinua mentre le aziende già sul mercato si ritrovano davanti a una scelta difficile.

Le curve a S della diffusione di una tecnologia

Le curve ad S della diffusione di una tecnologia esprimono il rapporto tra il numero complessivo degli
utilizzatori di una tecnologia e il tempo. In una fase iniziale quando una tecnologia ancora poco conosciuta
viene introdotta nel mercato, l’adozione è lenta; poi, quando gli utilizzatori ne acquisiscono una
comprensione più approfondita, si diffonde nel mercato di massa così da far aumentare il tasso di adozione,
infine, quando il mercato tenderà a saturarsi, il tasso di nuove adozioni comincerà a diminuire. Una
caratteristica piuttosto curiosa della diffusione di una tecnologia è che solitamente richiede tempi molto
più lunghi rispetto alla diffusione delle informazioni ad essa collegate. Il motivo di questo ritardo è dovuto
al fatto che esistono delle conoscenze essenziali per il pieno sfruttamento del potenziale dell’innovazione
che possono essere acquisite solo con l’esperienza. Una parte di queste conoscenze può rimanere tacita e
può essere trasmessa solo attraverso relazioni personali, lungo una fitta rete di contatti. Molti potenziali
9
utilizzatori, pur conoscendo la tecnologia in questione e i suoi potenziali vantaggi, non decideranno di
adottarla fino a quando non disporranno anche di tale parte di conoscenze. Infine, dovrebbe essere chiaro
che le curve a S che descrivono la diffusione di una tecnologia sono in parte funzione delle curve a S
tracciate dal processo di miglioramento della tecnologia: al crescere del suo grado di perfezionamento, i
suoi benefici diventano più evidenti e la sua utilità si manifesta con maggiore chiarezza agli utilizzatori
potenziali, incoraggiando così il processo di adozione. E ancora, quando gli effetti della curva di esperienza
e i vantaggi delle economie di scala trasferiscono valore alla tecnologia, il prezzo dei prodotti per il
consumatore finale tende a diminuire, accelerando ancor più il processo di adozione da parte degli
utilizzatori.

La diffusione dell’innovazione e le categorie di adottanti

Innovatori. Sono i primi individui ad adottare l’innovazione, essi giocano un ruolo decisivo nella diffusione
dell’innovazione, poiché rappresentano il “canale” attraverso cui le nuove idee si trasferiscono nella
società.

Primi adottanti. Esercita un alto potenziale di influenza sul comportamento degli altri, essi possono
trasformarsi in eccellenti “missionari” per un prodotto o un processo innovativo.

Maggioranza anticipatrice. Lenta e prudente nel processo di adozione, essa anticipa di poco il consumatore
medio del mercato.

Maggioranza ritardataria. È una categoria che vale circa un terzo della domanda potenziale complessiva.
Chi vi appartiene rivela un atteggiamento scettico verso l’innovazione e di solito non adotta il nuovo
prodotto fin quando non avverte una pressione sociale da parte dei propri pari.

Ritardatari. Essi basano le proprie decisioni soprattutto sulle esperienze passate piuttosto che sulle
influenze delle reti sociali. Non adottano un nuovo prodotto fino a quando non hanno la certezza della sua
utilità.

10
In termini più formali e meno discorsivi possiamo dire che il tasso di adozione ha questo andamento
perché:

- Asimmetria tecnologica.
- Bassa esternalità di rete.
- Prezzo elevato inizialmente.
- Costi di apprendimento.
- Prestazione del prodotto.
- Incertezza sugli standard.

La prestazione del prodotto è tipicamente ad S. Nel


primo tratto è bassa perché non si è ancora definito il
dominant design. Nella seconda parte della curva emerge il dominant design, molte imprese iniziano a
investire su quello e il prodotto migliora sempre di più. Ovviamente al crescere delle prestazioni, risulta che
il miglioramento incrementale costa sempre di più (rendimenti decrescenti dell’attività di ricerca e
sviluppo). Nel momento che le prestazioni sono buone e il prezzo adeguato allora il mercato si satura e le
vendite iniziano a decrescere.

Spiegazione del fenomeno curva ad S

Diffusione epidemica. La diffusione dell’informazione può essere messa in analogia con la diffusione di un
“virus” dove le modalità di contagio sono determinate dal passaparola. Diffusione iniziale del virus bassa
perché vi sono pochi infetti, aumentando gli infetti questi contagiano la maggioranza, molti infetti e poca
gente da infettare allora il tasso di adozione decresce.

In sintesi individuiamo tre elementi chiave:

- Informazione. Diffusione epidemica dell’informazione


- Eterogeneità. I consumatori non sono tutti uguali e quindi danno un valore diverso allo stesso
prodotto

11
- Incertezza. Non si sa in che punto della curva ad S ci si ritrova e le imprese decidono quindi di
entrare nel mercato in momenti diversi.

DINAMICA INDUSTRIALE
Ciclo di vita di una nuova tecnologia

Il percorso di innovazione tecnologica nel tempo viene definita traiettoria tecnologica, la quale rappresenta
il miglioramento della performance di una determinata tecnologia o il suo processo di adozione da parte
del mercato. Le fasi iniziali nello sviluppo di un nuovo prodotto sono caratterizzate da forte incertezza
riguardo:

- Tecnologia (es. tubo catodico vs transistor..)


- Prodotto
- Utenti (militare vs civili; imprese vs utenti singoli..)
- Design (mainframe vs pc, paper output vs monitor)
- Architettura (modulare vs integrate)
- Processo (integrato vs component)

Questo perché tutte le curve a S cominciano con un periodo di turbolenza, proseguono quindi con un
rapido miglioramento, poi registrano una fase di rendimenti decrescenti per chiudersi infine con il
superamento e la sostituzione della tecnologia: effetti conseguenti all’avvento di una nuova discontinuità
tecnologica. Il processi di innovazione tecnologica attraversa un percorso costituito da una successione di
fasi. La prima fase, definita fase fluida, è caratterizzata da una condizione di forte incertezza sia sulla
tecnologia sia sul mercato. I prodotti e i servizi basati sull’innovazione tecnologica potrebbero essere
ancora grezzi, inaffidabili o troppo costosi, anche se magari sono già in grado di soddisfare la richiesta di
alcune nicchie di mercato. In questa fase, le aziende sperimentano differenti fattori di forma e differenti
combinazioni di caratteristiche del prodotto allo scopo di valutare la risposta del mercato. Alla fine,
comincia a delinearsi un’area di convergenza riguardo agli attributi ideali del prodotto, incrociando le
soluzioni suggerite dai produttori e le esigenze manifestate dai clienti, fino a quando emerge un dominant
design. Una volta affermatosi, il dominant design fissa i principi dell’architettura che sostiene la tecnologia,
consentendo alle imprese di concentrare il proprio impegno sulle innovazioni di processo che renderanno la
produzione di quel disegno più efficace ed efficiente, oppure sulle innovazioni incrementali volte a
migliorare i singoli componenti all’interno dell’architettura complessiva. Questo stadio si definisce fase
specifica perché le innovazioni nei prodotti, nei materiali e nei processi sono tutte collegate in maniera
specifica al modello dominante.

12
Il dominant design quindi segna la crescita delle performance, delle vendite e il momento di numero
massimo di aziende che investono, dal momento che si consolida allora viene identificato uno specifico
modello di business in cui le grandi aziende iniziano a investire e assorbono le aziende più piccole potendo
sfruttare economie di scala. A questo punto non entrano più aziende fino alla prossima innovazione
tecnologica che fa partire una nuova curva ad S caratterizzata da un nuovo dominant design. (i palmari ad
esempio rappresentavano una turbolenza non una diffusione perché il dominant design che si è affermato
è stato lo smartphone).

DOMINANT DESIGN

Un dominant design emerge perché:

- Domina tecnologicamente. (es. il motore a scoppio a prestazioni migliori degli altri)


- Contestuale diffusione dei prodotti complementari. (es. la benzina è più facile distribuirla rispetto
all’idrogeno, allora se si diffonde la benzina si afferma ancor più il motore a scoppio)
- Reputazione. Spesso a parità di caratteristiche la reputazione del produttore o dei produttori è
fondamentale.

Un dominant design rimane stabile perché:

- Specializzazione. I produttori sfruttano economie di apprendimento e gli utenti imparano a


utilizzare la tecnologia (diventa familiare). I costi di produzione diminuiscono (con un tasso
decrescente) al crescere delle unità prodotte. Il tasso di apprendimento, misurato dalla pendenza
della curva, varia molto da impresa a impresa e da settore a settore. Per effetto della capacità di
assorbimento, le imprese che per prime sperimentano e sviluppano nuove tecnologie potranno
godere di un vantaggio competitivo:
o Creazione di un monopolio temporaneo
o Reputazione (immagine di impresa innovatrice), definizione degli standard e conseguente
fidelizzazione dei clienti, controllo dei canali di distribuzione.
- Economie di scala. Aumentando i volumi di produzione l’impresa può sfruttare economie di scala.
- Esternalità di rete. Il beneficio che deriva dall’utilizzo di un bene aumenta al crescere del numero
degli utilizzatori. Il numero di utilizzatori di una particolare tecnologia prende la denominazione di
base di installazioni o base di clienti. (es. scelgo Windows invece di Leopard perché i file sono
compatibili con la maggior parte delle persone, ma non mi sto basando su un criterio di scelta
13
basato su benefici derivanti da caratteristiche tecniche). I prodotti che possiedono una larga base di
clienti attirano un maggior numero di produttori di beni complementari, e poiché la disponibilità di
beni complementari (es. programmi per Windows) condiziona la scelta dell’utilizzatore tra
piattaforme tecnologiche concorrenti, a sua volta la presenza di beni complementari influenza la
dimensioni della base di installazioni, innescando così un circolo vizioso.
- Asset complementari.

REGIME TECNOLOGICO

In diversi paesi le stesse industrie, in diverse fasi del ciclo di vita e con diverse strutture di mercato
producono la stessa organizzazione delle attività innovative, che a propria volta sottende alla stessa
dinamica industriale. Evidentemente vi è un fattore comune che contribuisce a determinare in modo
rilevante l’organizzazione delle attività innovative: alcune specifiche caratteristiche della tecnologia propria
dell’industria, oppure in senso più esteso le caratteristiche della conoscenza scientifica e tecnologica
propria di una specifica industria. La letteratura più recente ha identificato queste caratteristiche nella
nozione di regime tecnologico. L’idea fondamentale è che siano principalmente i regimi tecnologici a
determinare l’organizzazione delle attività innovative. Il regime tecnologico è l’insieme delle caratteristiche
distintive di una tecnologia, della conoscenza ad essa associata, dei relativi processi di apprendimento ed in
generale delle condizioni informative che essa determina negli agenti economici coinvolti nella sua
produzione o nel suo scambio.

- Appropriabilità. Si intende la capacità dell’impresa di acquisire e trattenere per sé le rendite


generate dai propri processi innovativi. Il grado di appropri abilità di un innovazione è determinato
dalla facilità e dalla rapidità con cui i concorrenti riescono a imitarla. Il grado di limitabilità a sua
volta è funzione sia della natura della tecnologia sviluppata sia dell’efficacia dei meccanismi di
protezione adottati. Da qui si può intuire che più una tecnologia è facilmente brevettabile più è
appropriabile. Se non c’è appropriabilità il settore è concentrato perché l’incentivo a entrare è
basso.
- Opportunità. Rappresenta il potenziale di salto innovativo, rapporto tra rendimento e sforzo
innovativo. Riflette la facilità di innovare per un dato ammontare di investimento in ricerca. Se vi
sono alte opportunità tecnologiche, un piccolo investimento permette di ottenere grandi
miglioramenti innovativi: quindi, sono alti i tassi di entrata, c’è instabilità e bassa concentrazione. È
ad esempio il caso delle biotecnologie. Poi vi è un appiattimento per cui è necessario investire
molto per un piccolo incremento innovativo: bassi tassi di entrata, stabilità e elevata
concentrazione. (es. settore dell’auto)
- Cumulatività. I progetti innovativi hanno la caratteristica di essere cumulativi; alcune risorse non
possono essere acquisite attraverso semplici decisioni di investimento ma richiedono di essere
generate endogenamente attraverso processi di accumulazione. Lo spazio delle decisioni
dell’impresa in un determinato punto è definito dalla storia e dal percorso con cui è giunta a quel
punto.
- Conoscenza. Skill di tipo scientifico esplicite. La conoscenza nell’impresa è tacita e non codificata
quindi con il turnover va via anche la conoscenza. I settori dove c’è molta ricerca di base sono poco
concentrati, perché la ricerca di base non è cumulativa e ciò stimola l’entrata  settore molto
dinamico. Dove c’è poca ricerca di base, sono poche le imprese che hanno accesso all’innovazione
 mercato concentrato e stabile.

STRUTTURA DEL MERCATO E INNOVAZIONE


14
[Tratto da Appunti] Esiste una relazione
biunivoca fra struttura di mercato e
incentivi all’innovazione: la forma di
mercato determina l’intensità dell’attività
innovativa, e viceversa, l’intensità
dell’attività innovativa determina la forma
di mercato. Né il monopolio, né la
concorrenza perfetta sono strutture che
incentivano al massimo l’attività
d’innovazione. L’oligopolio è la struttura di mercato in cui si osserva la massima attività innovativa. Esistono
due posizioni contrastanti:

Monopolio:

- Favorisce l’appropriabilità. Il monopolio favorisce l’appropriabilità perché l’impresa è da sola, ha


grandi dimensioni e/o possiede asset complementari. La presenza di appropri abilità è un incentivo
a innovare (perché riesce a trattenerne il rendimento generato).
- Garantisce extra profitti
- Genera economie di scala nelle attività di R&D
- Favorisce l’accesso a risorse finanziarie. Ha accesso privilegiato ai mercati finanziari del credito
perché essendo grosso, consolidato, diversificato e inoltre l’impresa non basa i suoi profitti
sull’innovazione  maggiore fiducia da parte delle banche

Correlazione tra monopolio e attività innovativa

Esiste una correlazione positiva tra potere monopolistico e attività innovativa poiché:

- Il monopolista ha più possibilità di rallentare il processo imitativo


- Il monopolista può estendere il suo potere monopolistico a prodotti nuovi, generando profitti più
elevati.

Inoltre l’attività innovativa richiede consistente autofinanziamento (le altre forme di finanziamento
soffrono di fallimenti del mercato, quali short termism, moral hazard, selezione avversa, paradosso
dell’informazione)  tanto più l’impresa gode di potere monopolistico tante più risorse ha per finanziarsi. Il
monopolista ha poi la possibilità di accaparrarsi personale qualificato poiché il mercato del lavoro è
imperfetto. Quindi un monopolista ha molto extraprofitto che gli consente di autofinanziarsi e fare più
innovazione. Ma l’evidenza ci dice che la curva ha un tratto decrescente quindi, ci devono essere effetti
contrari:

a- Quiet life: l’impresa si accontenta di mantenere lo status quo, comportamento satisficing e non
massimizza.
b- Incentivo a sottrarsi dalla pressione competitiva ed appropriarsi degli extra-profitti
c- Fast second. Un soggetto con potere monopolistico oltre ad essere un buon innovatore potrebbe
essere un buon imitatore: minori incentivi ad innovare perché sa di poter imitare bene (es.lattina,
calcolatrice in cui Bowmar è stato l’innovatore e la Texas Instrument l’imitatore..)

15
Secondo la posizione Schumpeteriana, il monopolio garantisce gli extra-profitti che vengono usati per R&D,
il problema è che il monopolista non è incentivato a fare R&D (non basa i suoi profitti sull’innovazione).
Infatti il monopolista fa meno ricerca, perché non ottimizza la sua funzione di produzione, cosa che avviene
nel mercato concorrenziale. Il monopolista si accontenta ed inoltre aspetta che qualcun altro innovi per poi
appropriarsene perché solo lui possiede gli asset necessari. Telecom ad esempio quando era monopolista
aveva i laboratori “Xelt” in cui faceva ricerca con un orizzonte temporale a lungo termine. Nel ’98 con la
liberalizzazione delle telecomunicazioni, Telecom ha dovuto basare la ricerca su orizzonti temporali
estremamente più brevi, perché si è ritrovata in competizione. La ricerca viene fatta con lungo respiro da
imprese monopoliste (tranquille). L’innovazione incrementale, lo sviluppo di nuovi prodotti viene fatta da
chi ha il fiato sul collo (competizione).

Competizione (concorrenza perfetta)

- Stimola l’innovazione per “sbarazzarsi” della pressione competitiva. Le imprese innovano per
andare a cercare delle rendite da monopolio tecnologico.
- Non consente la quiet life al monopolio.
- Fast second. Le imprese in competizione sono pronte a imitare per appropriarsi dell’innovazione.

Correlazione tra dimensione dell’impresa e attività innovativa

[Tratto dal libro] Schumpeter osservava che il mercato dei capitali è imperfetto e che per le grandi
imprese è più agevole accedere a finanziamenti per i progetti di R&D e che le imprese con
maggiori volumi di vendita sui cui ripartire gli elevati costi di R&D ottengono di regola
performance superiori. È probabile inoltre che una grande disponga al proprio interno attività
complementari. Un altro vantaggio delle dimensioni deriva dagli effetti di scala e di
apprendimento, sono inoltre in grado di assumere uno staff di ricerca dotato di capacità superiori
e acquistare attrezzature più sofisticate da impiegare nei processi innovativi. La grande impresa
“impara” a selezionare i progetti più adatti alle proprie capacità e competenze così da garantirsi
maggiori probabilità di successo. Rispetto alle piccole imprese, le grandi imprese sono
avvantaggiate anche nell’intraprendere progetti di innovazione rischiosi o di grandi proporzioni.
Nei settori caratterizzati da significativi effetti di scala nei processi di sviluppo e da soglie minime
di efficienza, le grandi imprese tendono a superare i concorrenti di dimensioni inferiori nelle
performance di innovazione. Per contro è anche vero che, con la crescita dimensionale, l’efficienza
della R&D potrebbe diminuire a causa di una perdita di controllo manageriale, difficoltà nel
motivare le persone e controllare le attività. In una grande impresa diventa difficile anche per i
singoli ricercatori poter beneficiare e appropriarsi dei risultati determinati dal proprio impegno nei
processi innovativi. La maggior parte degli studi converge nel ritenere che le piccole imprese
dispongano di una struttura più flessibile e di uno spirito imprenditoriale diffuso rispetto alle
organizzazioni di grandi dimensioni e che siano gravate e appesantire da una pluralità di livelli
amministrativi.

[Tratto da appunti]Esiste una correlazione positiva tra dimensione dell’impresa ed attività innovativa,
legata alla struttura dei costi. Le ragioni sono:

- Economie di scala. I costi di R&D sono elevati e vi è indivisibilità delle


risorse. L’attività di ricerca è caratterizzata da zero profitti fino a quando
16
non viene raggiunta la massa critica (funzione a gradino)  un impresa di grosse dimensione
sfruttare economie di scala.
- Economie di rete. Forte attività di ricerca su larga scala garantisce superadditività. Se si è grandi ci si
può specializzare senza basarsi su competenze puramente generaliste  effetti sinergici derivanti
da:
o Cross-fertilization fra persone con competenze diverse
o Selezione postitiva delle risorse
o Specializzazione
- Serendipity. L’imbattersi casualmente in qualcosa di appropriabile, se l’impresa è di grandi
dimensioni e diversificata è più probabile incontrarla, riconoscerla e sfruttarla.
- Diversificazione del rischio tecnologico. A causa della skewness nella distribuzione dei risultati
dell’attività di ricerca. Un impresa di grandi dimensioni può sviluppare molte attività innovative
diversificando così il rischio (se sono piccolo, dedico tutte le mie energie su una sola innovazione, il
rischio di fallire è molto alto, es. Google agli inizi essendo di piccole dimensioni ha puntato tutto sul
PageRank se non andava in porto avrebbe chiuso).
- Asset complementari è evidente che un innovazione fata da Apple che ha la rete di distribuzione,
un forte brand identity è più appropriabile rispetto a quella fatta da un piccolo innovatore.

Vi sono però anche dei problemi legati alle grandi dimensioni dell’impresa:

- Incremento dei costi di coordinamento.


- Gerarchizzazione e selezione avversa. Un impresa grande ha molti ricercatori, quelli bravi scalano i
livelli gerarchici (dalla ricerca passano a ruoli manageriali) e quindi c’è selezione avversa (chi fa
ricerca se è bravo non la fa più con il risultato che rimangono solo quelli non bravi).

L’ORGANIZZAZIONE DEI PROCESSI D’INNOVAZIONE

Il grado di formalizzazione, di standardizzazione e di accentramento sono fra le variabili strutturali di


maggior influenza nel condizionare la propensione dell’impresa a innovare e l’efficacia dei processi
innovativi.

- Formalizzazione. Si intende il grado di regolazione del comportamento dei membri di


un’organizzazione attraverso regole, procedure e documentazioni prodotte in forma scritta o
ufficiale. Un alto grado di formalizzazione favorisce la standardizzazione dei compiti e delle attività
dell’impresa e contribuisce a disciplinare la condotta del personale. La formalizzazione permette di
attenuare l’intensità dei meccanismi di controllo organizzativo, consentendo alle grandi imprese di
conservare l’efficienza gestionale anche con uno staff manageriale ridotto (leggi box 3M p.323). Un
alto grado però rischia di diventare una fonte di rigidità. Se l’impresa codifica tutte le proprie
attività con procedure prestabilite fin nei dettagli, potrebbe soffocare la creatività del personale,
non incoraggiandolo e privandolo del potere discrezionale di introdurre soluzioni innovative.
- Standardizzazione. può garantire il regolare svolgimento di tutte le attività e il conseguimento di
risultati prevedibili, ma rischia di soffocare lo slancio innovativo. Per standardizzazione si intende il
grado di codificazione delle attività dell’impresa secondo procedure, regole comporta mententi
predeterminati. Un elevato grado di standardizzazione dovrebbe garantire lo svolgimento di
prestazioni e il raggiungimento di livelli di qualità prefissati, nonché una capacità di risposta
costante e coerente nei confronti dei clienti e fornitori. Per contro, comprimendo la varietà e la

17
variabilità dei comportamenti e delle prestazioni, la standardizzazione rischia di limitare la
creatività e la sperimentazione, determinanti al fine della creazione di idee innovative.
- Accentramento. Si intende il grado di concentrazione
del potere decisionale al vertice dell’impresa, in
contrapposizione al decentramento, ossia alla
distribuzione di tale potere all’interno di tutta la
struttura organizzativa. L’accentramento può riferirsi sia
alla localizzazione geografica delle attività (indicando la
misura in cui l’impresa svolge le proprie attività in un
unico luogo), sia alle sedi da dove si esercitano il potere
e l’autorità sopra tali attività. Affidando i compiti di R&S
alle singole divisioni o business unit (strategia di
decentramento. Fig. b) l’impresa consente a ciascuna unità di sviluppare nuovi prodotti o di
introdurre processi più vicini alle esigenze da soddisfare nonché di elaborare soluzioni adatte alla
propria struttura operativa e coerenti con le richieste del proprio target di clienti. La strategia di
decentramento può rivelarsi vantaggiosa per i progetti di sviluppo dell’innovazione (vicinissimo alle
richieste dell’utente finale), ma presenta il rischio di
ridondanza e della duplicazione di funzioni. Quando più
unità si dedicano alle medesime attività di R&S,
aumenta il rischio per l’impresa di non riuscire a cogliere
il beneficio potenziale che offre una tecnologia
sviluppata in una qualsiasi unità in termini di creazione
di valore per tutta l’azienda. Al contrario, concentrando
le attività di R&S in un'unica unità o dipartimento
centrale, l’impresa potrebbe riuscire a massimizzare le
economie di scala, ripartendo i compiti tra i ricercatori
specializzati in ciascun campo, e beneficiare degli effetti della curva di apprendimento attraverso lo
sviluppo di un’ampia varietà di progetti. Questa strategia consente inoltre all’unità centrale di R&S
di coordinare l’impiego e la diffusione delle nuove tecnologie in tutta l’organizzazione, rafforzando
il grado di coesione dei processi di sviluppo dei nuovi prodotti oltre a evitare il rischio che nuove
tecnologie valide non vengano valorizzate come dovrebbero. Una strategia accentrata è meno
vicina all’operatività quindi l’R&S porta a innovazioni più radicali orientate al medio-lungo periodo,
mentre l’R&S di una strategia decentrata essendo molto vicina all’operatività innova per risolvere
problemi incrementali di breve periodo. Nella strategia decentralizzata concentro gli sforzi di R&S
sul processo mentre nella strategia centralizzata sul prodotto.

Strutture meccaniche vs organiche

La combinazione di formalizzazione e standardizzazione configura una struttura definita in letteratura


meccanica, di norma in grado di garantire alti livelli di efficienza, soprattutto in caso di volumi di
produzione elevati. Rende l’impresa una macchina efficiente che funziona con un andamento regolare
e affidabile. Le strutture meccaniche però sono giudicate inadatte/incompatibili con strategie che
incoraggino l’innovazione; alla base della loro efficacia, infatti, vi sono il rigido rispetto degli standard e
la “compressione” di varietà e variabilità dei comportamenti, con il rischio di soffocare la creatività
all’interno dell’organizzazione.

18
Le strutture di tipo organico, invece, che concedono maggiore libertà di decisione e sono caratterizzate
da bassi livelli di formalizzazione e dall’assenza di standard di comportamento, sono considerate più
adatte per attività creative e innovative e negli ambienti competitivi dinamici. È una struttura più
coerente con i processi d’innovazione a scapito di una perdita di efficienza.

Spesso le grandi imprese ricorrono alla formalizzazione e alla standardizzazione perché con la crescita
dimensionale, diventa sempre più difficile esercitare un controllo manageriale, diretto, mentre
l’adozione di tali sistemi sembra in grado di ridurre i costi di coordinamento, pur rendendo la struttura
organizzativa più “meccanica”.

Organizzazione ibrida (“ambidestra”)

La maggior parte delle imprese è chiamata a conciliare la gestione delle linee di prodotto esistenti (che
richiede efficienza, un impegno costante e un’innovazione incrementale) con lo sviluppo di nuove linee
di prodotto, che impone invece di rispondere al cambiamento tecnologico con un’innovazione radicale.
Thshman e O’Reilly sostengono che per soddisfare simultaneamente le due esigenze, occorre
trasformare l’impresa in un organizzazione ibrida, una forma organizzativa complessa, costituita da una
molteplicità di “architetture interne” non coordinate fra loro, che però, come insieme, possono
perseguire e raggiungere obiettivi di efficacia nel breve termine e di innovazione nel lungo termine. In
tali modelli organizzativi, il management potrebbe adottare strutture meccaniche in alcuni contesti o
aree aziendali, e strutture organiche in altri. In ciascuna area o unità, gli incentivi potrebbero essere
ridisegnati per focalizzarsi su obiettivi particolari, incoraggiando l’adozione di modelli differenti di
comportamento del personale di ciascuna unità. Ad esempio Apple negli anni 80 intraprese il progetto
Machintosh e Steve Jobs decidette di creare un’unità ad-hoc separata dal mondo Apple, con una
cultura aziendale propria e ben distinta (ricreare l’atmosfera di una start-up tecnologica). Se le grandi
imprese dispongono di strutture interne alle quali sia consentito adottare modelli di comportamento
tipici delle piccole organizzazioni, sostenuti da meccanismi coerenti di incentivazione, allora la natura
della relazione fra dimensioni dell’impresa e capacità di innovazione tecnologica diventa una questione
controversa. Per combinare i vantaggi delle strutture meccaniche e organiche, le imprese possono
anche ricorrere ad un’alternanza di questi modelli nel tempo.

Organizzazione e Budget

Il budget che viene destinato a R&D può avere:

- Quota fissa del fatturato. Ciclica perché viaggia assieme alla crisi/non crisi dell’impresa. È molto
cautelativa perché garantisce di non eccedere però ha un difetto cioè si innesco un circolo virtuoso
quando le cose vanno bene, ma si innesca un circolo vizioso quando le cose vanno male, e questo è
contrario alla teoria economica (se sono in crisi, investo in R&D proprio per uscire dalla crisi invece
con quota fissa del fatturato io investo meno).
- Quota fissa in assoluto. è pro ciclica cioè se le cose vanno bene la quota di R&D peserà in maniera
relativa meno rispetto a quando le cose vanno male che è proprio ciò che la teoria economica
consiglia.

Una volta allocato il budget bisogna gestirlo:

Esistono due approcci:

19
I approccio. Ad ogni business unit è associato un profitto. I profitti vengono riportati alla direzione
generale che né alloca una quota parte alfa all’R&D. R&D è quindi un centro di costo. Inoltre la
direzione generale deve dire all’R&D cosa fare con quel budget. Decisione in maniera pianificata cioè le
business unit possono solo provare a influenzare la direzione generale in merito alla scelta di
allocazione del budget. Visione quindi di medio-lungo periodo ma risulta lontana dal mercato ed è
caratterizzata da costi d’influenza.

II approccio. La direzione generale non alloca nessuna


quota per l’R&D, è la stessa R&D che deve cercarsi le
risorse sul mercato interno. Quindi R&D non è più solo
un centro di costo ma è anche un centro di ricavo. Il
vantaggio di questo secondo approccio è che se le BU
pagano con una quota dei loro profitti l’R&D, ne faranno
un uso più efficiente. Viene ad emergere però il
problema del free riding sui beni comuni. (es. Barilla, le
varie divisioni aspettano che qualcun altro investa in R&D
per un conservante comune nessuno investe).

Modularità e le organizzazioni loosely coupled

Un altro metodo impiegato dalle imprese per trovare equilibrio tra efficienza e flessibilità consiste
nell’adozione di comportamenti standard o piattaforme di produzione e tecnologiche condivisibili che
possano essere combinati all’interno di un sistema di produzione modulare. Questo approccio consente
di godere dei vantaggi della standardizzazione (efficienza e affidabilità) senza rinunciare alla varietà e
alla flessibilità del prodotto finale (vedi. Librerie IKEA, lo stesso scaffale monta su N tipi di librerie). Per
modularità si intende il grado di scomponibilità e ricombinazione dei componenti di un sistema. La
modularità organizzativa è descrivibile per analogia alla modularità di prodotto. I prodotti possono
essere modulari a diversi livelli, ad esempio i prodotti IKEA sono modulari a livello di utilizzatore finale,
Sony con il walkman a livello di produzione (l’utente finale non può scomporlo e ricomporlo, ma in fase
di produzione Sony può utilizzare gli stessi componenti iniziali per fare un altro tipo di walkman magari
che differisce per dimensioni e colore). La modularità di prodotto consente un più ampio ventaglio di
configurazioni finali partendo da un insieme di componenti di base e rappresenta una soluzione
economicamente vantaggiosa per rispondere all’eterogeneità della domanda di mercato.

Un approccio modulare nella progettazione del prodotto può consentire la creazione di un’architettura
modulare per l’organizzazione: una forma definita loosely-coupled. In tali modelli organizzativi, le
attività di sviluppo e di produzione non sono strettamente integrate e il coordinamento fra i due
processi avviene piuttosto attraverso l’adesione a obiettivi condivisi e a standard comuni. Sono rese
possibili dall’utilizzo di tecnologie dell’informazione, che garantiscono l’integrazione anche fra
configurazioni flessibili. Es. outsourcing. Un impresa può acquisire una maggiore specializzando
concentrando il suo impegno solo su alcuni elementi chiave dell’innovazione tecnologica, strettamente
correlati alle proprie competenze distintive, affidandosi invece ad operatori esterni attraverso alleanze
o accordi di outsourcing per le atre attività. Questo tipo di organizzazioni non sono adatte per attività
che richiedono frequenti scambi di conoscenza tacita o complessa o quando c’è un elevato rischio di
conflitti.

Gestione dei processi internazionali di innovazione

20
La scelta delle modalità di organizzazione dei processi innovativi è diventata un’area critica nelle
strategie delle grandi imprese ad alta tecnologia. In particolare, assume un ruolo decisivo
l’identificazione della combinazione ideale fra integrazione globale e adattamento ai mercati locali.
Ciascun mercato nazionale o regionale potrebbe però manifestare esigenze particolari e presentare un
quadro normativo specifico. In questo caso, le imprese potrebbero essere spinte a considerare
strategie di decentramento della R&D per cogliere i benefici di una presenza locale, sia per attingere
alle informazioni di mercato, sia per adattare i processi d’innovazione alla domanda locale. Tuttavia le
innovazioni sviluppate in un organizzazione decentrata potrebbero anche non essere mai trasferite alle
altre divisioni dell’impresa. A causa della sindrome del “Not invented here” (NIH) le business unit
ostacolano l’adozione di processi sviluppati dalle altre business unit perché vi è un pregiudizio di base:
“ le innovazioni non sviluppate localmente non sono adatte né in grado di soddisfare i bisogni e le
esigenze del mercato locale”.

Per lungo tempo le imprese internazionali hanno privilegiato un approccio definito da Bartlett e
Ghoshal center-for-global, dove l’unità centrale di R&D sviluppa sia le innovazioni che le varianti adatte
per i mercati locali. Un secondo approccio è il local-for-local dove ogni unità locale sviluppa le
innovazioni per la domanda del mercato locale. Con i vantaggi/svantaggi che ne consegueno rispetto
alla prima soluzione più accentrata e la seconda meno accentrata. Negli ultimi anni tuttavia i due
approcci tradizionali sono stati mitigati da un maggior tentativo di integrazione fra i nodi della rete
organizzativa. Sono nate quindi altre due strutture di R&D per le imprese internazionali: locally
leverage, ogni unità locale sviluppa innovazioni, ma i risultati raggiunti vengono trasferiti all’intera
organizzazione; globally linked, ogni unità di R&D locale contribuisce con la sua dotazione di risorse e
competenze allo sviluppo dell’innovazione mediante un coordinamento globale.

Bartlett e Goshal hanno osservato che l’obiettivo fondamentale da perseguire per un’impresa
internazionale dovrebbe essere di rendere più eficaci le attività centralizzate di R&D, rafforzando la
capacità di soddisfare una varietà ampia di esigenze espresse dai differenti mercati locali, e al
contempo più efficienti le attività decentrate, eiliminando per esempio i casi di ridondanza e sfruttando
le opportunità di condivisione di risorse e competenze che potrebbero emergere. Per raggiungere tale
obiettivo, è però indispensabile l’azione di un set di meccanismi flessibili di collegamento e di
coordinamento cross-unit - in grado di consentire di condividere risorse di conoscenza , di cogliere i
benefici di un apprendimento globale, di conseguire economie di ampiezza -, una persuasiva volntà del
management tesa a rafforzare l’identità dell’impresa e ad abbracciare una prospettiva transazionale.
Approccio transazionale: le risorse e le competenze presenti in qualunque parte dell’impresa vengono
sfruttate per cogliere le opportunità che sorgono in qualunque mercato geografico.

21
-

STANDARD E ESTERNALITA’ DI RETE

La storia del bidone della spazzatura

In una piccola città nel deserto è domenica sera. Il giorno dopo, all’apertura dei negozi, i
consumatori troveranno in vendita tre nuovi modelli di playstation:

- L’industria non si è coordinata e i tre modelli sono incompatibili, cioè i giochi non
funzionano se non sulla playstation per cui sono stati progettati.
- Ci sono quindi tre tipi di playstation incompatibili A,B,C.

In città abitano 6 ragazzi, tutti appassionati di videogiochi: Alan, Bud, Charlie, David, Eliah e Frank.
La loro funzione di utilità è caratterizzata da esternalità: le loro preferenze dipendono dal valore
intrinseco della playstation più un bonus che dipende dal numero di altri amici che posseggono la
stessa playstation. Venerdì i 6 ragazzi hanno ricevuto i cataloghi con le presentazioni tecniche delle
playstation. Domenica sera, a letto, i 6 ragazzi sfogliano i cataloghi, assegnano le loro preferenze (il
valore intrinseco XK) e prendono le loro decisioni di consumo. Assegneranno diverse preferenze in
quanto sono sensibili a diverse caratteristiche del prodotto.

Quando si addormentano, la domenica sera, la loro


struttura delle preferenze è riportata in tabella a lato
(nb. NK = 0 perché nessuno ha ancora comprato, quindi
non c’è esternalità fino a quando qualcuno non
compra).

Figura 1. Struttura del mercato alla domenica sera

Charlie però prima di andare a dormire si è dimenticato di dare da


mangiare al gatto. Al mattino alle 7.00 il gatto affamatissimo
rovescia il bidone della spazzatura e sveglia Charlie. Gli altri ragazzi
dormono ancora ma Charlie pensa “già che sono sveglio faccio che
andare a comprarmi la playstation”. Alle 9 in punto è davanti al
negozio e si compra la playstation C. Immediatamente entra in
gioco l’esternalità di rete cioè nella funzione di utilità non c’è più

22
solo il valore intrinseco Xk del prodotto ma c’è anche la componente w*Nk che fa variare le
preferenze. Il mercato è locked-in. Il problema è evidente: e se Charlie fosse un po “stupido” e
avesse scelto la playstation per il colore nonostante sia la peggiore? E le imprese A e B si trovano
bene in un modello di competizione così rischiosa (winner takes it all). O preferirebbero spartire il
mercato? E come reagiscono? Le imprese A e B erano convinte di avere un terzo del mercato a
testa e si ritrovano senza più nulla cioè il vincitore ha vinto tutto.

Questo esempio evidenzia come il caso fortuito (bidone della spazzatura che sveglia Charlie,
evento esogeno dalla qualità dei prodotti) fa diventare standard un prodotto piuttosto che un
altro.

[Tratto dal libro] Un impresa in grado di affermare la propria tecnologia quale disegno dominante,
di norma guadagna enormi vantaggi e potrebbe riuscire a conservare la posizione dominante in
quella categoria di prodotto anche per il futuro. Quando un impresa vede la sua tecnologia scelta
dalle pressioni selettive del mercato come dominant design, non solo può cogliere l’opportunità di
acquisire delle rendite di quasi-monopolio nel breve termine, ma dispone anche della possibilità di
modellare l’evoluzione del settore e di esercitare una forte influenza sulle future generazioni di
prodotto. Sebbene la qualità e la sua superiorità tecnica influiscano senza dubbio nel successo di
una tecnologia, altri fattori indipendenti dal grado di superiorità tecnica possono giocare un ruolo
importante. La scelta del tempo d’ingresso sul mercato, per esempio, può essere, decisiva, il
potere degli sponsor etc.. Nei mercati winner takes all, non sempre vincono quei produttori che
vantano tecnologie superiori. Le imprese di successo si rivelano le organizzazioni in grado di
gestire le molteplici dimensioni del valore che guidano la scelta del disegno dominante. La
tecnologia ha due tipi di valore: il valore stand-alone (intrinseco della tecnologia) e il valore dato
dalle esternalità di rete. Nei mercati caratterizzati da esternalità di rete, il valore di un innovazione
tecnologica per gli utilizzatori sarà funzione non solo del costo e dei benefici stand-alone della
tecnologia in sé, ma anche del valore generato dalla dimensione della base dei clienti e dalla
disponibilità di beni complementari. Concepire e raffigurare in questo modo il valore
dell’innovazione tecnologiche spiega bene perché talune innovazioni, pur offrendo miglioramenti
significativi in termini di funzionalità tecnologica, spesso non riescano a prendere il posto di
tecnologie esistenti che già vantano un ampia diffusione. Anche se una nuova innovazione
presenta benefici funzionali rilevanti, il suo valore complessivo potrebbe essere di molto inferiore
rispetto allo standard corrente. Qualora l’impresa volesse competere puntando esclusivamente
sull’utilità stand-alone, il suo valore dovrà essere tanto elevato da compensare almeno il valore
combinato dell’utilità stand-alone, della base di clienti e dei beni complementari delle tecnologie
già esistenti. In alcuni casi, la nuova tecnologia potrebbe essere compatibile con la base di
installazione o con i beni complementari esistenti.

[Tratto da Appunti] Quando ci sono dei processi di diffusione


caratterizzati da esternalità di rete è possibile che la
tecnologia che si diffonda non sia la migliore. Un impresa che
ha un bene caratterizzato da esternalità di rete desidera che
la rete sia il più grande possibile poiché aumenta l’utilità
23
associata al bene e quindi riesce a far margini superiori alzando il prezzo poiché il valore percepito
dall’acquirente è superiore. Riprendendo l’esempio della playstation, il pianificatore sociale
desidera che tutti i ragazzi riescano a giocare insieme (compatibilità quindi rete più grande
possibile) ma per riuscire a fare questo è necessaria l’introduzione degli standard.

Esempio pratico:

Tre soggetti A, B, C collegati tra loro da una linea telefonica è chiaro che la componente stand-
alone qui non c’è nella funzione d’utilità perché se io ho un telefono ma non sono collegato a
nessuno allora il telefono perde tutta la sua utilità.

Immaginiamo ora il caso che un


quarto soggetto “C” voglia
entrare a far parte della rete
telefonica. Per entrare gli viene
chiesto un costo fisso CJ = 0.4. Il
soggetto si accorge che se entra
non avrà nessuna utilità visto il
costo fisso (ui=0.4 – 0.4) e decide di non entrare. Questa soluzione però non è pareto efficiente Se
il soggetto fosse entrato l’utilità dei soggetti A,B,C sarebbe passata a 0.4 (avrebbero guadagnato
0.1 ciascuno) possiamo quindi affermare che ciascun soggetto sarebbe disposto a tassarsi (fino ad
un max di 0.0999999) pur di incentivare l’ingresso al quarto soggetto. Ad esempio se A, B, C si
autotassano di 0.05 pagando quindi parte di Cj per il soggetto C  A , B, C avrebbero un utilità pari
a 0.35 mentre il soggetto C avrebbe un utilità pari a 0.4 – (0.4 - 0.15) = 0.15 e quindi sarebbe
incentivato ad entrare.

È da sottolineare però che coordinare una rete di 3 individui è semplice ma in una rete enorme il
fatto che gli individui si tassano non è scontato. Possiamo quindi affermare che dove vi è
esternalità di rete vi sono fallimenti del mercato perché o non ci si coordina o ci si coordina su
soluzioni di equlibrio pareto inefficienti (battaglia dei sessi). Ora dal punto di vista delle imprese:

l’impresa è conscia che lo standard è un qualcosa che allarga la rete e quindi un bene comune tra
le imprese. Le imprese sono quindi coscienti di questo beneficio comune ma nasce un conflitto di
interessi (ogni impresa desidera che venga adottata la sua tecnologia come standard). Definiamo
vested interest, l’interesse incorporato in una specifica tecnologia. Per avere presto uno standard
occorre che ci sia incentivo a standardizzare alto e basso vested interest. (es. telefono cellulare).
Paragonabile alla battaglia dei sessi. Nella battaglia dei sessi una coppia che vuole passare il
pomeriggio insieme può andare al cinema o allo stadio.
C’è una componente dell’utilità che deriva dal piacere
di passare il pomeriggio insieme (voglia di adottare uno
standard) ed una parte che deriva dall’andare a vedere
l’evento preferito (che venga adottata la mia tecnologia
come std). Il paradigma di un gioco di coordinamento è

24
che i soggetti scelgono separatamente, ma hanno beneficio se riescono a fare la stessa scelta.

Il vested interest è esattamente il quanto i 2 attori sono innamorati.

Se sono molto innamorati (vested interest basso) cioè ci tengono ad uno standard comune  non
importa dove andiamo l’importante che andiamo insieme.

Se invece i 2 attori sono poco innamorati (figura 2)  vested


interest alto  c’è poco incentivo a uno standard comune 
non riescono a coordinarsi.

I tipi di standard sono:

- De jure. Ovvero imposto dal governo, ha il vantaggio che non si perde tempo e non ci sono degli
“angry orphan” ovvero che hanno comprato il prodotto che poi non è divenuto standard. Lo
svantaggio è che nel decidere, l’autorità chiede aiuto alle imprese che influenzano quindi la scelta.
- De facto. Nessuno lo impone ma lo diventa.

I processi di coordinamento per la determinazione dello standard sono:

- Market driver. La definizione dello standard viene lasciata al mercato. È possibile che il mercato
non riesca a definire un solo standard e quindi vi siano più standard incompatibili fra loro.
- Centrally driven. Viene imposta dal pianificatore centrale. Ha il rischio di farsi influenzare dalle
imprese.
- Spontaneous coalitions. È una via di mezzo fra mercato e pianificazione. Le imprese coinvolte nel
processo di standardizzazione si aggregano spontaneamente in un consorzio per decidere lo
standard. Il rischio è legato all’antitrust, perché è necessario coinvolgere tutti i soggetti.

Network industries

Le network industries includono la telefonia, mail, internet, computer hw, computer sw, lettori
musicali, brani audio, film, servizi bancari, servizi aerei etc..

Le principali caratteristiche di questi mercati sono:

- Complementarità, compatibilità e standards. Complementarità significa che i consumatori in


questi mercati comprano dei sistemi (es. computer + monitor, lettore cd + brani musicali etc..), ciò
implica che i vari prodotti devono operare con lo stesso standard (es. un lettore mp3 opera con lo
standard mp3 con cui sono stati codificati i brani che caricheremo sopra). Sorge quindi un problema
di coordinamento tra le imprese che producono i prodotti complementari con quelle che
producono il prodotto ma appena si parla di coordinamento tra imprese nasce sempre un
problema di antitrust.

25
- Esternalità. Se io sottoscrivo un contratto telefonico, questo ha valore solo se possono comunicare
con il resto dei contatti della rete. Che senso avrebbe comprare un fax se poi nessuno ha la
macchina per inviarmeli o riceverli? Quindi l’utilità derivante da questi beni è “affetta” dal numero
di persone che adoperano gli stessi prodotti o almeno compatibili.
- Switching cost and lock-in. L’utente abituato ad uno standard, su sui ha speso ore per imparare una
certa tecnologia, non è incentivato a cambiare. In questi casi si dice che l’utente è in lock-in a causa
dei costi che deve sopportare per il cambiamento (swtching cost). Gli switching cost sono ad
esempio uno dei motivi principali per cui gli utenti Windows non passano a Ubuntu nonostante sia
gratuito e riparato da virus. Gli switching cost influenzano il prezzo:
o se l’utente è in condizione di lock-in allora le imprese possono alzare il prezzo di un delta
minore uguale agli switching cost.
o se l’utente non è in condizione di lock-in allora le imprese faranno promozione di prezzo
per attrarre il consumatore e portarlo in condizione di lock-in con la loro tecnologia.
- Significanti economie di scala. Il costo medio decrementa all’aumentare dei volumi.

Consideriamo ora il caso in cui due agenti devono scegliere tra due tecnologie, una vecchia e
una nuova. Dato che sono presenti esternalità di rete, entrambi preferiscono adottare la
medesima tecnologia. Una tale relazione può venire espressa attraverso il gioco mostrato in
figura.

Entrambi gli utenti esibiscono esternalità di rete per entrambe le tecnologie. Formalmente,
assumiamo che α > δ e β > γ
Questo significa che usando la stessa tecnologia si ha una maggiore utilità rispetto all'utilizzo di
una tecnologia da soli. se gli utenti esibiscono esternalità di rete,
allora esistono due equilibri di Nash per il gioco statico e sono dati da (Nuova tecnologia - Nuova
tecnologia) e (Vecchia tecnologia - Vecchia tecnologia). L'esistenza di equilibri multipli in questo
gioco fa emergere il problema di coordinamento, cioè di come i due agenti coordinano le loro
azioni. Farrell e Saloner (1985) fornirono la seguente terminologia per due fallimenti di mercato
comunemente osservati.
1- Se (Vecchia tecnologia - Vecchia tecnologia) è
l'esito del gioco e il payoff derivante dalla
combinazione (Nuova tecnologia - Nuova
tecnologia) è dominante in senso di Pareto
allora siamo in una situazione di eccesso di
inerzia.
In particolare si ha eccesso di inerzia quando una nuova
tecnologia fornisce una maggiore utilità ad entrambi gli
utenti, ma questi ultimi continuano ad utilizzare la vecchia
tecnologia.
26
2- Se (Nuova tecnologia - Nuova tecnologia) è
l'esito del gioco e il payoff derivante dalla
combinazione (Vecchia tecnologia - Vecchia
tecnologia) è dominante in senso di Pareto
allora siamo in una situazione di eccesso di
momento.

In particolare, si ha eccesso di momento quando una


nuova tecnologia rimpiazza la tecnologia vecchia, ma
la vecchia tecnologia fornisce una maggiore utilità ad
entrambi gli utenti rispetto alla nuova.

Formalmente se β > α e viene giocata la combinazione (Nuova tecnologia - Nuova tecnologia)


allora siamo in una situazione di eccesso di momento; se invece β < α e viene giocata la
combinazione (Vecchia tecnologia - Vecchia tecnologia) allora siamo in una situazione di eccesso di
inerzia. Ci sono molti esempi che rispecchiano queste situazioni, soprattutto per quanto riguarda
l'eccesso di inerzia. In questo caso, si continuano ad adottare tecnologie vecchie e inferiori perchè
queste godono di un'ampia base installata: gli agenti non riescono a coordinarsi verso l'equilibrio
superiore dal punto di vista paretiano. È invece più difficile trovare esempi di eccesso di momento.

27
PROTEGGERE IL VALORE DELL’INNOVAZIONE
I beni intangibili sono un insieme piuttosto vario di beni la cui possibilità di creare valore
economico non è legata alla sua consistenza materiale (es. marchi, disegni tecnici..). Gli standard
contabili non sono adatti a rappresentare fedelmente il valore degli asset intangibili . la proprietà
intellettuale protegge i beni intangibili ed essa stessa è un bene intangibile.
Definiamo intellectual asset la proprietà intellettuale e intellectual capital tutti gli intangibles che
non sono proprietà intellettuale.
Vi sono diverse strade per appropriarsi del valore dell’innovazione:
- Industrial secret. Tengo segreto come realizzo l’innovazione (difficile da realizzare per
l’innovazione di un prodotto perché questo circola). Per l’innovazione di processo (es.
formula della coca-cola) è più semplice.
- Economie di rapidità. Uscire prima di tutti, si cattura il valore dell’innovazione nella
finestra temporale che intercorre da quando esco a quando escono i competitors. Si
realizza mantenendo la distanza innovativa dai competitors continuando a investire in
R&D.
- Asset complementari. Mi approprio del valore dell’innovazione sfruttando (grazie a) gli
asset complementari a disposizione (brand, forza vendita, assistenza, rete di distribuzione).
L’assenza di asset complementari ad esempio non ha permesso a RC-Cola di appropriarsi
dell’innovazione.
- Lock-in. Sfrutto gli swtiching cost. Es. Tim prima azienda di telefonia mobile in Italia, si è
creata una base clienti e al momento dell’ingresso di Omnitel, i suoi clienti oltre a guardare
le tariffe dovevano considerare che non vi era la portabilità del numero.
- Intellectual property rights (brevetti, marchi e copyright). Il valore economico
dell’innovazione risiede tipicamente nell’idea innovativa che ha dato origine al nuovo
prodotto/processo o nella conoscenza sviluppata attraverso le attività di R&D. l’analisi
economica tradizionale quindi vede l’innovazione o la conoscenza sviluppata come
informazione pura. Questa visione implica:
o all’output del processo innovativo possono essere attribuite le caratteristiche di bene
pubblico. Tale definizione incorpora le caratteristiche di non rivalità (l’utilizzo della risorsa
da parte di qualcuno non esclude o limita l’utilizzo del bene stesso da parte di qualcun
altro) e non escludibilità (non è possibile escludere dal godimento di taluni beni coloro che
non partecipano all’investimento che determina la loro produzione) del bene.
o Paradosso dell’infomazione. (se io ho un segreto che vale tanto e voglio venderlo, per
concludere la transazione devo rivelarlo ma dal momento che lo rivelo nessuno è
più disposto a pagarlo). È quindi estremamente difficile che possa esistere un mercato
per beni che abbiano la caratteristica di informazione pura  in presenza di tale paradosso
vengono a mancare gli incentivi economici minimi.
La combinazione della proprietà di non rivalità e non escludibilità è alla base del cosidetto problema
del free riding per cui gli agenti economici tendono a sotto investire in un bene pubblico, nella
consapevolezza che essi potranno sfruttare gli investimenti fatti da altri. Evidentemente ciò
determina un’inefficienza allocativa.
La proprietà di un bene incentiva il singolo a investire e a farne il miglior uso possibile.
Quando i beni sono comuni lo sviluppo non viene incentivato. (Tragedia dei commons: se i
cittadini rispondono solo a incentivi privati, i beni pubblici non verranno prodotti in
maniera sufficiente e le risorse pubbliche saranno sovrautilizzate. Le risorse comuni sono
sovrautilizzate perché ogni soggetto tiene conto soltanto dei propri incentivi e non
dell’effetto delle proprie azioni sugli altri). L’obiettivo degli strumenti di tutela giuridica è
28
quello di evitare i fallimenti del mercato dovuti al carattere di bene pubblico di talune
forme di conoscenza tecnologica. Inoltre l’istituto della proprietà intellettuale garantisce la
diffusione delle idee innovative, attraverso l’obbligo della disclosure del contenuto
tecnologico dell’innovazione.

COS’E’ LA PROPRIETA’ INTELLETTUALE


Oggetto della proprietà intellettuale sono tutte le creazioni intellettuali. Esse si dividono in due
grandi categorie:
- Quelle a contenuto tecnologico (la mente umana ha inventato qualcosa che si apprezza per
le sue funzioni). In base al contenuto innovativo questa categoria si scompone in:
o Invenzioni. Alto contenuto innovativo esse sono protette dai brevetti. Le invenzioni
devono essere nuove, inventive, avere un’applicazione industriale ed essere lecite:
 Novità. Un invenzione non è nuova se è già nello stato della tecnica
 Originalità. L’invenzione deve avere altezza inventiva.
 Industrialità. Ripetibilità del processo di fabbricazione.
 Liceità. L’invenzione non deve essere contraria all’ordine e al buon costume.
o Modelli di utilità.(invenzioni a basso contenuto innovativo, sono degli accorgimenti
che vengono aggiunti a qualcosa di già esistente che permette di rendere più utile
l’oggetto)
o Modelli decorativi. Ridisegno qualcosa di già esistente sotto il profilo estetico (es.
una particolare lampada).
- Quelle a contenuto estetico (atto di creazione di qualcosa che appaga i sensi: il bello
contrapposto all’utile): una canzone, un quadro, una poesia..soggette alla tutela del diritto
d’autore.

La tutela della proprietà intellettuale è quindi finalizzata ad attribuire diritti di proprietà sui beni
che non sarebbero altrimenti appropriabili,
fornendo in questo modo incentivi ex-ante
all’attività innovativa. Tale attribuzione ha un
costo; essa assegnando diritti di monopolio
all’innovatore seppur temporanei, può
produrre una distorsione di prezzi che
allontana il sistema dalla condizione in cui il
benessere collettivo è massimizzato. Il
29
problema economico si traduce quindi in un trade-off: pagare un costo tollerando una distorsione
monopolistica dei prezzi per assicurare all’innovatore gli incentivi ex ante all’attività innovativa, o
rinunciare al surplus generato dall’innovazione. Il caso è quello di un innovazione di processo,
finalizzata a ridurre il costo unitario c di produzione, in un mercato perfettamente competitivo,
dove il prezzo eguaglia i costi i costi marginali (P=cm) allora le imprese fanno extra-profitti nulli.
L’impresa investe risorse nel processo innovativo ottenendo una riduzione del costo marginale di
produzione unitario al livello c e diventando monopolista. Assumendo che le altre imprese non
siano in grado di abbassare il costo (perché non possono appropriarsi dell’innovazione) allora al
monopolista basterà fare un prezzo p di un infinitesimo più piccolo di quello dei concorrenti (p =
cm) per restare solo lui sul mercato e avere profitti positivi pari a M(gli altri farebbero profitti
negativi). In conseguenza dell’innovazione, il surplus collettivo aumenta:
Prima dell’innovazione ST = area S (triangolo rosso in figura)
Dopo l’innovazione ST = area S + area M (triangolo rosso + giallo ) = surplus del consumatore più il
profitto del monopolista.
Tuttavia, la collettività non si appropria interamente del surplus generato dall’innovazione. L’area
DL rappresenta la perdita di surplus (perdita secca) associata alla concessione del potere di
monopolio all’innovatore. Se le altre imprese potessero appropriarsi dell’innovazione e produrre
anch’esse al nuovo livello di costo di produzione c allora esse (compreso l’innovatore) si
ritroverebbero di nuovo in una situazione di concorrenza perfetta, farebbero quindi tutti
(compreso l’innovatore) extra-profitti nulli e il surplus del consumatore sarebbe massimizzato
(somma delle 3 aree). Ma l’aspettativa da parte dell’innovatore di vedersi revocare il diritto di
esclusiva sull’innovazione annullerebbe gli incentivi ex-ante all’attività innovativa. (con il risultato
che non si farebbe l’innovazione e il surplus del consumatore sarà sempre pari all’area S). in
sinteso, il livello di surplus S+M+DL non è mai raggiungibile. La società è costretta a rinunciare a
una quota di surplus pari a DL pur di ottenere almeno l’aumento di surplus M. La soluzione
adottata dal pianificatore sociale è stata quella di dare il brevetto per un tempo limitato
(consentendo all’innovatore di diventare monopolista) e poi tramite la disclosure aprire
l’innovazione al mercato (tornando in concorrenza).
Monopoly and R&D, Drastic vs Non-drastic innovation
Per innovazione drastica s’intende che l’innovatore
grazie alla sua innovazione di processo è riuscito a
ridurre il costo di produzione da co a c1 . la riduzione di
costo è tale da consentire all’innovatore di fare profitti
positivi proponendo un prezzo che è inferiore di un
infinitesimo al costo marginale a cui producono i
competitors (il costo prima dell’innovazione).
L’innovatore riesce quindi a diventare monopolista
perché i competitori farebbero profitti negativi se
proponessero un prezzo inferiore al loro costo
marginale.
Per innovazione non drastica ( o incrementale)
s’intende un innovazione che permette
all’innovatore di produrre a un costo inferiore
rispetto ai competitors ma il prezzo corrispondente è
superiore a quello che fanno i competitors ( è
monopolista ma non può comportarsi da tale)
l’innovatore farà lo stesso prezzo dei competitors ma

30
sarà l’unico a fare profitti positivi (gli altri fanno extraprofitti nulli).
Brevetti, marchi e copyright costituiscono tutti i metodi di protezione della proprietà intellettuale,
ma ciascuno è predisposto per la tutela di innovazioni differenti. Un brevetto protegge un
invenzione, un marchio protegge parole o simboli distintivi della fonte di provenienza o della
proprietà di un bene; infine; il copyright protegge dal diritto d’autore.
Il brevetto assicura all’inventore il diritto di utilizzazione esclusiva dell’invenzione per un certo
periodo di tempo. Perché una certa conoscenza non venga però effettivamente monopolizzata per
sempre ed in maniera assoluta, l’esclusiva che viene concessa col brevetto è limitata nel tempo,
nello spazio e nello scopo (= applicazione cioè non è necessario dare l’innovatore l’esclusiva su
qualunque applicazione dell’innovazione). Ogni forma di proprietà intellettuale ha una durata
limitata: 20 anni per il brevetto d’invenzione, 50 anni dopo la morte dell’autore per il diritto
d’autore. Allo spirare della protezione, l’oggetto del brevetto diviene di pubblico dominio ed
ognuno è libero di utilizzarlo. I limiti spaziali della protezione sono dati dai confini geografici dello
stato che concede l’esclusiva.
In generale i benefici del sistema brevettuale son o così riassumibili:
- Incentivo all’attività inventiva.
- Disseminazione della conoscenza. La rivelazione dell’informazione impedisce la
duplicazione degli sforzi e degli investimenti in R&D; l’assegnazione di diritti di proprietà
intellettuale incentiva la R&D successiva, individuando chiare traiettorie tecnologiche.
- Sostegno al trasferimento e alla commercializzazione. Si riducono i costi di transazione
per le attività di licensing della tecnologia e si favorisce l’emergere di un mercato della
conoscenza e delle innovazioni.

Per contro i critici del sistema brevettuale sostengono:

- È infondata l’ipotesi che il monopolio (anche temporaneo) sia il miglior incentivo


all’innovazione.
- Il brevetto protegge realmente solo un numero limitato di innovazioni.
- La diffusione dell’innovazione saraebbe più rapida senza brevetto.

Il problema di determinare quanto i benefici del sistema brevettuale eccedano i costi dello stesso
dipende in larga misura dalle caratteristiche con cui il sistema stesso è progettato. In particolare,
sue aspetti sono importanti: l’estensione temporale della protezione brevettuale ed i requisiti di
brevettabilità.

La durata ottima del brevetto:

- È limitata nel tempo: una sommatoria finita di profitti M è sufficiente a garantire


all’innovatore incentivi sufficienti all’investimento.
- È inversamente proporzionale all’impatto economico (a parità di spesa in R&D)
dell’innovazione: le innovazioni radicali hanno minor bisogno di protezioni estese 
generano profitti attesi abbastanza alti da fornire sufficienti incentivi all’attività inventiva
anche in assenza di un periodo di sfruttamento particolarmente lungo.
- Dipende dalle caratteristiche specifiche del settore e della tecnologia: la validità della
protezione brevettuale è condizionata al pagamento di una tassa annuale di rinnovo;
l’accorciarsi del ciclo di vita del prodotto e la rapidità del progresso tecnico fanno sì che
31
sempre più spesso la decisione di mantenere in vita il brevetto non raggiunga il periodo di
validità dello stesso ma si esaurisca con notevole anticipo  l’effettiva durata del brevetto
è quindi determinata dalle caratteristiche del settore e della tecnologia in oggetto  ciò
suggerirebbe di differenziare l’estensione in base alle diverse caratteristiche settoriali.

Il secondo aspetto rilevante in merito alla progettazione del sistema brevettuale è legato ai
requisiti di brevettabilità imposti.

- Portata (scope):
o Ampiezza (breadth): numero di varianti dell’idea-base protette dal brevetto; un
ampiezza eccessiva determina un brevetto troppo generico che inibisce l’attività
inventiva di terzi.
o Larghezza (width): numero di settori di applicazione in cui l’idea riceve protezione;
una larghezza eccessiva estende inutilmente posizioni di monopolio; una larghezza
troppo limitata può diminuire gli incentivi ex-ante all’innovazione.
o Altezza (height): grado di novità minimo richiesto all’idea per ottenere protezione;
il requisito di un altezza inventiva eccessiva può scoraggiare la produzione di piccole
innovazioni incrementali, per le quali, è più necessaria la tutela brevettuale.
- Divulgazione (Disclosures): informazioni minime richieste per la concessione. I requisiti
minimi di divulgazione sono legati al problema della verifica della novità, dell’utilità e
dell’anteriorità da parte degli uffici competenti. Una disclosure ampia ha il vantaggio di
consentire, alla scadenza, l’immediata imitazione e favorire il progresso scientifico e
tecnologico; d’altra parte però eccessive pretese di disclosure possono costituire un
disincentivo all’utilizzo dello strumento brevettuale come forma di protezione (vedi Coca-Cola)

Caratteristiche dei brevetti

1- Nei brevetti non esiste una medaglia d’argento cioè il primo vince tutto (“patent race”)
2- Quando uno fa un invenzione nascono 2 diritti:
a. Diritto morale di essere l’inventore , è inalienabile
b. Il diritto a brevettare è alienabile cioè l’applicant del brevetto non è per forza l’inventore.
Tra i diritti patrimoniali dell’applicant:
i. Diritto di privativa al titolare del brevetto
ii. Diritto di concedere in licenza il brevetto
iii. Diritto di vendere il brevetto

Identificare l’inventore non è semplice ci sono 2 regimi: First to fail (In america) e first to invent (in
Europa)

3- Il brevetto non ha valore all’inizio, è il mercato che gli assegnerà il valore


4- Il brevetto è concesso a patto che chi brevetta documenti (disclosure) con lo scopo di aumentare la
conoscenza e minimizzare i costi di duplicazione.
5- Il sistema brevettuale ha un costo di entrata e di mantenimento con lo scopo di disincentivare a
brevettare “a caso” e incentivano le imprese a sfoltire il portafoglio brevetti. (Nokia come barriera
all’entrata detiene molti brevetti di tecnologie che non sviluppa…).
32
Tuttavia il diritto che nasce con l’attribuzione del brevetto comporta non solo il diritto di utilizzo esclusivo
ma anche la possibilità di trasmettere tale diritto. Il titolare del brevetto può quindi decidere di concedere i
diritti che gli sono attribuiti, fondamentalmente in 2 forme:

- Cessione. Il titolare si spoglia del diritto di brevetto a favore di un altro soggetto.


- Licenza. Il titolare del brevetto conservando la titolarità autorizza un terzo ad utilizzare
l’innovazione brevettata. I contratti di licenza sono solitamente associati a contratti di assistenza,
chi riceve la licenza deve impegnarsi a tener riservate informazioni che riceve nei periodi di licenza.
I vantaggi per un impresa che decide di concedere in licenza sono:
o Ottenimento di profitti sotto forma di di royalties a fronte della concessione.
o Risoluzione del problema dell’imperfect commitment: attraverso la concessione della
licenza, l’impresa s’impegna credibilmente verso i clienti a valle a non sfruttare la propria
posizione di monopolio tecnologico, sostenendo in tal modo la domanda dei propri
prodotti. (sto riducendo il rischio per il consumatore)
o Raggiungimento di mercati che la mia dimensione d’impresa non mi consente di
raggiungere.
Gli svantaggi:
o Può erodere la posizione di monopolio creando una posizione di concorrenza tra
licenziatario e licenziante;
o Spesso la concessione della licenza si accompagna a più complessi accordi di trasferimento
tecnologico e di cessione del know-how, che comportano elevati costi di rivelazione.

Le strategie di licenza si manifestano quando l’impresa non voglia o non possa (per mancanza di
competenze o asset complementari) sfruttare la tecnologia da una posizione monopolistica ma
valuti più conveniente estendere ad altri il diritto a sfruttare la tecnologia in oggetto:

o Massimizzazione delle royalties. Cioè massimizzare i ricavi attraverso l’imposizione di una


percentuale sulle vendite del licenziatario. La determinazione delle royalty avviene
tipicamente attraverso una libera contrattazione tra le parti. In particolari contesti
tecnologici la possibilità di mettere in atto strategie di inventing around non è scontata:
l’impresa a valle potrebbe venire a conoscenza in ritardo, rispetto al proprio processo di
sviluppo prodotto, dell’esistenza del brevetto a monte. Ragione per cui si verifica questo:
 l’esplosione del numero di brevetti rende difficile l’esplorazione dell’intero
portafoglio delle imprese del settore; molte imprese gonfiano deliberatamente il
proprio portafoglio di proprietà intellettuale col preciso intento di trovarsi nella
posizione di potere contrattuale sopra descritta (strategia del campo minato);
 lo stesso elevatissimo numero di applicazioni brevettuali comporta un ritardo nel
processo di esame e di assegnazione del brevetto; il lasso di tempo entro cui
valgono i vincoli di segretezza è pertanto talvolta estremamente lungo e
considerevolmente superiore al lead time necessario allo sviluppo di una nuova
applicazione. Si configura pertanto come estremamente verosimile il caso in cui
uno sviluppatore realizzi la sua innovazione durante il periodo di segretezza della
domanda di brevetto e venga a conoscenza dell’esistenza dei diritti di proprietà
intellettuale solo dopo aver affrontato ingenti ed irreversibili sunk cost.

33
in entrambe le situazioni l’innovatore viene a trovarsi in una situazione di hold-up che lo
mette in una posizione contrattuale molto debole, sarà quindi disposto a pagare royalties
elevate (caso estremo fino a quando queste non superano i costi gia sostenuti).

o Cross-licensing es. Nokia e Ericsson hanno due brevetti che servono entrambi per realizzare
un prodotto  scambio di licenze incrociate mediante licenze
o Patent pooling. Riunire brevetti molteplici in un unico pacchetto cedendo i diritti di utilizzo
in una sola soluzione; ciò è spesso ottenuto conferendo i brevetti ad una società terza
appositamente creata. Attraverso la creazione di un patent pool l’innovatore a valle può
acquisire il diritto all’utilizzo di tecnologie protette da diritti multipli attraverso il così detto
one-stop-shopping. Es. cellulare ha circa 1800 brevetti, occorrerebbero 1800 x 1800
operazioni di cross-licensing e quindi un innovatore che vorrebbe scrivere un applicazione
per cellulare sarebbe disincentivato. L’antitrust verifica che i brevetti siano complementari
e non sostitutivi per evitare che i detentori dei brevetti (le varie imprese) colludano.
o Free licensing. Concessione gratuita della licenza sulla tecnologia protetta finalizzata a:
 politiche per l’imposizione di un proprio standard tecnologico, in mercati
caratterizzati da esternalità di rete dirette o indirette, l’imposizione di uno standard
proprietario avviene attraverso la capacità di raggiungere un base installata della
tecnologia prima che i competitors possano fare altrettanto.
 Entrare in una coalizione spontanea di imprese finalizzata alla definizione di uno
standard.
 Segnalare credibilmente la propria volontà di non sfruttare opportunisticamente la
condizione di monopolio tecnologico. Incentivare attori a valle del processo
produttivo a investire rassicurandoli che non finiranno in una condizione di hold-up
o Licenze di trasferimento tecnologico. Trasferisce insieme al diritto di utilizzo del brevetto,
anche la fornitura di know-how, assistenza tecnica e altre modalità di servizio.
Caratteristico di situazioni dove l’invenzione non è costituita solo da conoscenza esplicita
trasferibile unicamente dal brevetto.

La licenza può essere imposta per legge a (compulsory licensing) per la mancata attuazione di
un’invenzione brevettata o perché blocca la traiettoria tecnologica innovativa (caso di un
innovazione in cui è necessario disporre per poter realizzare a valle un’innovazione dipendente
dalla prima. Per scegliere a che prezzo fissare la licenza il giudice applica il criterio del F.R.A.N.D.
(Fair reasonable and Non Discriminatory). Un altro caso in cui si fa licensing-out è nei comitati di
standardizzazione. Fino ad ora abbiam parlato di un impresa che fa licensing-out ma ovviamente
l’impresa può anche decidere di fare licensing-in. I vantaggi del licensing-in sono:

- Risparmiare in R&D
- Velocizzare l’innovazione di processo/prodotto
- Espandere la gamma di prodotto
- Evitare la c.d litigations (per evitare infringment che potrebbe farmi entrare in un processo
giuridico che mi blocca).

In Italia si brevetta poco questo è dovuto a:

34
a- Scarsa innovatività del sistema italiano a causa di politiche pubbliche e atteggiamenti industriali
poco propensi a investire in ricerca e a valorizzare il nuovo prodotto rispetto all’incremento
dell’innovazione del processo.
b- Il costo del brevetto spesso incide in maniera sostanziale rispetto ai costi sostenuti per la ricerca e
lo sviluppo.
c- La scarsa valutazione sulle opportunità di business del brevetto.
d- La difficile protezione legale (difficile e costoso)

I sistemi brevettuali

Data un’idea di brevetto, si va all’ufficio nazionale che ne controlla semplicemente la correttezza


amministrativa (non ancora la validità dell’idea) e ne mantiene il segreto per 18 mesi, superati i quali c’è la
disclosure. Dopo il deposito nazionale, si hanno 18 mesi per andare a depositarlo all’EPO, estendendo la
protezione ai 30 paesi aderenti (costo 40.000 euro). Se ora ci copiano in Francia o Olanda..etc..è necessario
andare a denunciare nelle singole corti nazionali  aumento dei costi e difficoltà. Dal 2010 il problema
dovrebbe risolversi con l’introduzione del brevetto comunitario che prevede una corte sovranazionale che
si occuperà del tutto. (nb. Non sono obbligato a passare dall’ufficio nazionale per il brevetto europeo). Se in
vari paesi ci copiano la fase di difesa (enforcement) costa circa 500.000 euro motivo per cui le imprese
arrivano solitamente a un accordo prima.

Caratteristiche del brevetto europeo

Compare l’inventore e l’applicant, un titolo e una descrizione tecnica. Poi ci sono le citations di altri
brevetti, letteratura scientifica, documenti tecnici per riconoscere la prior art, per escludere che ci siano
anteriorità nel nostro brevetto. Le citazioni servono a valutare il valore economico del brevetto: un
brevetto che citi pochi altri brevetti e molta letteratura scientifica è tipicamente di valore e di base.
Compaiono poi i claims, le rivendicazioni che definiscono la portata del brevetto.

35
Brevetti vs Copyright

Il copyright è una forma di protezione per contenuti artistici/estetici. Il brevetto sorge per un atto inventivo
mentre nel copyright si crea non si inventa. Il brevetto consente di vietarne agli altri l’uso mentre il
copyright vieta le modifiche e la riproduzione senza consenso. La protezione nel brevetto nasce al
momento del deposito, il copyright inizia con la creazione.

Le Creative Commons Public Licenses (CCPL) sono delle licenze di diritto d'autore che si basano sul principio
de "alcuni diritti riservati". Creative commons, permette di scegliere il livello di protezione (es. posso
liberarne la riproduzione ma non la modifica). Dura fino a 50 anni dopo la morte dell’autore. Il SW è
protetto dal diritto d’autore .

Funzioni del brevetto

I brevetti vengono usati tantissimo dalle imprese anche se non sono l’unico strumento di protezione il
motivo risiede nelle sue diverse funzioni:

- Signal / information. Vengono utilizzati come “segnale”, i brevetti sono degli intangibles asset, per
segnalare che un impresa utilizza tecnologia all’avanguardia, avanzata etc.. i brevetti sono un
buono strumento per rivelare la conoscenza/capacità tecnologica. Permettono di evidenziare e
aumentare la reputazione. (es. se nel settore della chimica ci sono 100 brevetti e io ne detengo 90
sto segnalando che ho una forte conoscenza del settore). Per le imprese quotate in borsa, gli
36
analisti spulciano i brevetti per stimarne i rispettivi valori. Danno concretezza a una cosa molto
sfuggente come la capacità tecnologica.
- Bargaining chips. Sfruttamento opportunista della litigation (spero che qualcuno abbia bisogno del
mio brevetto). Ci sono due strade:
o Brevetto una tecnologia specifica nel massimo dettaglio in modo da renderla esclusiva.
o Brevetto il bene complementare (motivo per cui solitamente chi brevetta una tecnologia,
brevetta anche i beni complementari).
- Cooperation. Le realizzo attraverso licensing.
- Financial. Per lo IAS38 io sono limitato nel capitalizzare i costi di R&D, questo perché c’è diffidenza
sulle spese che vengono effettuate:
o Essendo una materia impalpabile c’è scetticismo da parte dell’autorità di controllo che
l’impresa “traveste” dei costi sostenuti come R&D per poterli capitalizzare e quindi
aumentare il valore dell’impresa (travestimento possibile a causa dell’asimmetria
informatica che caratterizza l’R&D). Allora lo IAS 38 ti dice di mettere tutto in conto
economico come costo così viene evidenziata la perdita. L’audit e i manager tendono a
spesare tutto in conto economico proprio perché non sanno i frutti che porterà la R&D (gli
azionisti invece vorrebbero capitalizzare tutto).
o Il diritto di proprietà invece lo posso mettere nell’attivo a stato patrimoniale.

L’uso strategico dei brevetti

Le imprese utilizzano numerosi brevetti per proteggere le loro innovazioni; tali brevetti sono tra loro
collegati secondo logiche ben precise e si distribuiscono nel tempo in modo non casuale. Gli utilizzi che le
imprese fanno dei loro brevetti sono estremamente diversi (un brevetto può essere utilizzato per sfruttare
la posizione di monopolio relativamente ad un prodotto innovativo, non concedendo quindi alcuna licenza;
o per massimizzare i ricavi offrendo licenze a terzi ed incassare le relative royalties; o per scambiare licenze
con altre imprese quando quest’ultime siano in possesso di tecnologie complementari alle proprie).

Strategie di brevettazione:

- Barriere tecnologiche. Attività di R&D molto orientata per aggirare brevetti altrui o realizzare
blocchi tecnologici specifici, che costringano i concorrenti ad aggirare i propri. In parole povere
brevetto il mio prodotto e tutto attorno per scoraggiare possibili entranti che vogliono imitare il
mio prodotto.
- Fencing. Strategia estrema che circonda il brevetto. Azione più forte della precedente per
mantenere l’esclusività. Brevetto il prodotto, tutto quello che c’è attorno più tutti i beni
complementari.
- Flooding. Brevettare tutti i possibili esiti di un processo di R&D (idee base, varianti, complementi
tecnologici) così si presidia un’intera area tecnologica che diviene proprio dominio esclusivo o co-
abitata con alte imprese, delle cui invenzioni però si detengono pezzi o componenti fondamentali
(se io ho brevettato tutto, tu vuoi entrare per realizzare un innovazione devi chiedermi in licenza
qualcosa).
- Besieging (assedio). Brevetto tutti i prodotti complementari di una specifica tecnologia
- Torpedo patent. Come la precedente ma lo scopo non è difendersi ma attaccare cioè, brevetto
tutti i possibili asset complementari di una specifica tecnologia che non possiedo. Il possessore del
brevetto per tradurlo in processo/prodotto dovrà chiedermi in licenza i brevetti da me posseduti. È

37
da sottolineare che il brevetto è stato inventato per il benessere sociale ma questo comporta dei
costi sociali perché una strategia di torpedo punta a bloccare le traiettorie innovative. (se sono un
piccolo innovatore della telefonia e mi scontro con Nokia è molto probabile che non riesca a
sostenere nemmeno i costi legali e quindi abbandono prima).

OPEN SOURCE

L’idea base dietro l’open source è semplice: quando i


programmatori possono leggere, ridistribuire e
modificare il sorgente di un software, il software
evolve. Le persone lo migliorano, lo adattano e
mettono a posto i bug, e tutto ciò può capitare a una
velocità impressionante rispetto al convenzionale
modo di sviluppare software. L’open source ha dato
luogo a Linux, Wikipedia, CAMBIA project, etc.. L’open
source software non è escludibile (chiunque può
scaricarlo e usarlo) e non vi è rivalità nel consumo (sw

38
è informazione). Il software open source è soggetto al problema del free-riding (essendo un bene
collettivo), la cui produzione prende la forma di una serie di azioni collettive. Ma allora perché una persona
dovrebbe prendere parte alla realizzazione di un software open source?

- Motivazione intrinseca. È divertente programmare


- Motivazione estrinseca. Carriera (segnalo cosa so fare avendo partecipato alla realizzazione di un
sw), compensi monetari indiretti.

Il modello open source è adatto a prodotti dove il costo della prima copia è molto alto e le altre
praticamente a costo nullo. Questo perché io coinvolgo una comunità di innovatori che mi permettono di
sostenere il costo di produzione della prima copia e poi ovviamente non si appropria dei diritti di privativa
ma conta di fare business con i servizi ad esso connessi. Il modello open source è adatto per le piccole
imprese perché abbassa i costi fissi.

È da sottolineare che non tutti i programmatori in un progetto open source lavorano gratis, non tutti i
progetti riescono ad aggregare grandi numeri di persone. I programmatori che contribuiscono sono
principalmente europei e nord americani. Non tutte le traiettorie innovative open source sono su base
volontaria (alcune imprese decidono di aderire a modelli di business open perché si aspettano ritorni
maggiori rispetto ad un modello chiuso). La comunità open source non rigetta l’uso dell’OSS a scopi
commerciali. Il sw open deve essere indipendente dal tipo di HW e network su cui lavora. NB. L’open source
non esclude la proprietà intellettuale un esempio lampante è che l’oss viene sviluppato tramite HW
(brevettato) quindi senza la proprietà intellettuale nessuno avrebbe avuto l’incentivo a sviluppare HW e
quindi l’oss non esisterebbe.

Open innovation

Il concetto d’impresa aperta continua a evolversi e la Rete è utilizzata dalle aziende non più solo come
fonte di talenti e d’innovazione, ma anche come bacino di reclutamento di collaboratori esterni per
sviluppare e realizzare progetti in tempi rapidi e a basso costo.
Crowdsourcing. Il termine (crowd + outsourcing) è un neologismo che definisce un modello di business nel
quale un’azienda o un’istituzione richiede, attraverso internet, lo sviluppo di un progetto, di un servizio o di
un prodotto, a un insieme distribuito di persone non già organizzate in un team.
Crowd sourcing è un modello di open innovation, dove uso il mondo (la “folla”) come fonte di innovazione.
La Procter&Gamble non ha più grandi investimenti di ricerca, ma il suo laboratorio è il mondo. Ci sono poi
aziende che fanno da intermediario di open innovation (es, InnoCentive). Un esempio equilibrato di
Crowdsourcing si ritrova, ad esempio, nella proposta di InnoCentive, che coinvolge circa
90mila ricercatori di materie diverse che concorrono alla soluzione di quesiti tecnici molto complessi. La
media dei successi è del 30%, e i compensi ottenibili sono accettabili, variando dai 10 a 100 mila dollari. Il
futuro del crowdsourcing, infatti, si regge sull'equilibrio tra i vantaggi per l'impresa e quelli per il
contributor: deve essere una soluzione “win-win”, in cui entrambi le parti alla fine traggono vantaggi
sufficienti a spingerli a continuare nell'iniziativa.\

39
40
LE STRATEGIE DI COLLABORAZIONE
Molte volte le imprese devono scegliere se svolgere le proprie attività innovative da sole o in collaborazione
con partner. La collaborazione potrebbe consentire all’impresa di raggiungere obiettivi più ambiziosi con
maggior rapidità e con minori costi e rischi. Le strategie di collaborazione però comportano:

- Condivisione del potere di controllo


- Ripartizione dei profitti
- Rischio di comportamenti opportunistici del partner

Le imprese collaborano perché:

- Economie di scala. In molti settori i costi di R&D sono molto alti (es. settore farmaceutico) ed è
quindi difficile per un impresa sola reperire le risorse necessarie.
- Economie di sviluppo. le attività di R&D possono sottendere alla creazione di una base da cui
sviluppare strategie multi prodotto e multi mercato. La diversificazione del rischio è un problema di
economie di scopo. La serendipità, verticalizzazione cross (collaborazione con aziende con
competenze diverse dalle mie).
- Gestione del rischio. la collaborazione consente di sviluppare portafogli di innovazione, riducendo
l’entità dell’investimento in una singola applicazione.
- Allargamento competenze. Consente di accedere a competenze che la singola impresa non
possiede.
- Economie di specializzazione. la collaborazione consente a ciascun partner di focalizzarsi sulle sue
core competence. Collaborando riesco a concentrarmi sulle attività che son fare bene senza
spalmare le mie competenze su un insieme di attività più ampio.
- Economie di rete. La collaborazione può coadiuvare le strategie di un imposizione di uno standard o
ridurre il rischio di ingresso in un mercato con alte economie di rete. La collaborazione con imprese
che fanno prodotti complementari potrebbe accelerare il mio dominant design. (es. faccio auto ad
idrogeno mi accordo con agip per la distribuzione)
- Riduzione di duplicazioni inefficienti. La collaborazione consente di ridurre i costi complessivi di
R&D evitando duplicazioni di sforzi fra i partners. 2 imprese non si accordano in una competizione
winner takes it all allora una delle due spreca l’investimento in R&D. accordandosi cambia il tipo di
competizione.
- Conoscenza tacita – comunità pratica. Facilita l’interazione face to face fra comunità di pratica e lo
scambio di conoscenza tacita, che non può avvenire sotto forma di scambio puramente
commerciale (compravendita di brevetti)

Definiti i vantaggi della collaborazione occorre definire che criteri deve adottare l’impresa per la
selezione dei partner:

- Compatibilità delle risorse. Il potenziale partner offre risorse coerenti con il fabbisogno di risorse
del progetto? Fa riferimento alla potenziale disponibilità nei partner di risorse che si prestano a
essere integrate e combinate in modo efficace nell’ambito di una strategia per la creazione di
valore. Le risorse dei partner possono essere:
o Complementari. Collaboro per il bisogno di accedere a risorse delle quali non dispongo.

41
o Supplementari. Le imprese ricercano stock di risorse supplementari simili alle proprie con
l’obiettivo di acquisire potere di mercato o sfruttare economie di scala.
- Compatibilità strategica. gli obiettivi, gli stili imprenditoriali, i comportamenti organizzativi del
partner sono coerenti? Fa riferimento al grado di allineamento degli obiettivi e degli stili
imprenditoriali dei partner. Tali obiettivi non devono necessariamente coincidere, purchè possano
essere perseguiti e raggiunti senza recare danno all’alleanza o agli altri partner. Es. General Motor e
Daewoo strinsero un alleanza che fallì dopo poco tempo perché l’obiettivo di GM era orientato a
ridurre i costi mentre Daewoo puntava a fare tecnologie innovative (R&D).
- Impatto sulle opportunità e sulle minacce dell’ambiente competitivo. Quale influenza eserciterà la
strategia di collaborazione sul potere contrattuale di clienti e fornitori, sul grado di rivalità
competitiva, sulla minaccia di nuovi ingressi o di prodotti sostitutivi?
- Impatto sulle forze e sulle debolezze dell’organizzazione. La collaborazione rafforza le competenze
dell’impresa? Attenua i punti di debolezza? Crea un vantaggio competitivo?
- Impatto sull’orientamento strategico. La collaborazione è in linea con l’intento strategico
dell’impresa?

Abbiamo definito i vantaggi della collaborazione, abbiamo definito come scelgo il partner ma rimane da
definire quando conviene collaborare.. Secondo il modello di Von Hippel: analizzando il contesto di
riferimento, è possibile individuare quali fasi della catena del valore si concentrano gli incentivi a
collaborare:

quando:

- è difficile per gli innovatori adottare nuove relazioni funzionali rispetto alle loro innovazioni (es. non
possono integrarsi efficacemente a monte o a valle)
- gli innovatori hanno poche possibilità di ottenere profitti cedendo in licenza ad altri l’innovazione
- gli innovatori hanno poche possibilità di appropriarsi direttamente dei benefici dell’innovazione.

In molti casi, le collaborazioni sono funzionali ad accedere a risorse che l’impresa da sola non possiede,
non necessariamente in ambito tecnologico, ma anche sotto forma di risorse complementari.

Costi di transazione

Il management può governare e mantenere sotto controllo in modo efficace solo un numero limitato
di collaborazioni, l’efficacia di gestione diminuisce all’aumentare del numero di collaborazioni nelle
quali l’impresa è coinvolta. Tale condizione oltre a determinare con maggiori probabilità una
diminuizione dei rendimenti per ciascuna collaborazione, rischia di generare delle perdite qualora il
numero di collaborazioni in cui è simultaneamente impegnata, dedicare particolare attenzione alla
scelta del partner e definire meccanismi appropriati di monitoraggio e di governo della relazione con lo
scopo di attenuare il pericolo di comportamenti opportunistici da parte dei suoi alleati. I costi di
transazione quindi si distinguono in:

- ex-ante. Legati alla negoziazione e alla definizione preventiva della transazione.


- Ex-post. Legati al monitoraggio e all’enforcement della transazione

A seconda del peso dei costi di transazione totali, le strategie di collaborazione costituiscono una
soluzione intermedia (organizzazione ibrida) che si colloca nello spazio ideale fra i 2 estremi (mercato

42
vs. gerarchia). All’aumentare della complessità della transazione io mi affido sempre meno al mercacto
e sempre più alla gerarchia.

Gli accordi sono forme ibride tra impresa e mercato, un esempio di accordo è la subfornitura (il
subfornitore è un erogatore esterno di prodotti o servizi che sottostà completamente alle direttive del
committente anche per quanto riguarda la progettazione del prodotto), essa è molto vicina all’impresa
perché è paragonabile a un dipartimento dell’impresa.

MODALITA’ di COLLABORAZIONE

- Accordi verticali. Si realizzano fra imprese posizionate sulla stessa


filiera verticale (es. accordi di commercializzazione o fornitura).
- Accordi orizzontali. Si realizzano fra imprese concorrenti (sono
particolarmente difficili , sia dal punto di vista strategico, perché le
imprese hanno interessi direttamente concorrenti, sia dal punto di
vista delle autorità di controllo, perché possono facilmente degenerare
in cartelli e accordi anticoncorrenziali).
- Accordi trasversali. Si realizzano fra imprese di settori e filiere diverse.
Spesso riguardano l’utilizzo di una risorsa generica (es. co-branding..Lancia-Dolce Gabbana). Quelli
di natura tecnologica sono frequenti nelle fasi di nascita di nuovi settori (es. robotica e
meccatronica).

FORME DI COLLABORAZIONE

- Accordi di paternariato. Formulati per singole transazioni, si definiscono comportamenti


standardizzati ma non si ricorre a nessuna forma contrattuale.
- Licensing. È un accordo contrattuale che conferisce a un’organizzazione (o a un individuo) i diritti
d’uso di una proprietà intellettuale di un’altra organizzazione, generalmente a fronte del
pagamento di una royalty.
- Joint Venture. Creazione di una nuova organizzazione in cui i partner collaborano. Richiede una
struttura formale, generalmente una nuova entità giuridicamente separata e dotata di capitale
proprio. Il capitale e le altre risorse da investire come anche la distribuzione di qualunque profitto
generato dall’iniziativa, sono stabiliti in modo specifico da accordi contrattuali sottoscritti prima
che il rapporto di collaborazione cominci.
- Outsourcing. È una formula in base alla quale un impresa trasferisce all’esterno determinati
processi piuttosto di realizzarli al proprio interno. Una formula di outsourcing molto diffusa
consiste nel contract manufacturing che consente all’impresa di soddisfare il mercato, rispondendo
alle variazioni della domanda, senza dover sostenere investimenti di capitale a lungo termine o

43
aumentare la propria forza lavoro. Il contratto di produzione permette all’impresa di specializzarsi
nelle attività fondamentali per la costruzione del proprio vantaggio competitivo, acquisendo invece
dall’esterno le risorse specializzate e di supporto delle quali non dispone. Il ricorso al contract
manufacturing consente inoltre all’impresa di beneficiare delle maggiori economie di scala e dei
tempi di risposta più rapidi di un produttore specializzato, riducendo i costi e incrementando la
capacità di reazione ai cambiamenti dell’ambiente di mercato. (es. Fiat ha stipulato accordi con TNT
per la logistica). Dare in outsourcing attività core è molto pericoloso perché rinunciare a investire
nella creazione e nello sviluppo e nel rinnovo di capacità interne potrebbe svuotare del know-how
l’impresa con una conseguente perdita del suo valore, inoltre vi è un alto rischio di espropriazione
della tecnologia da parte dell’outsourcer (quindi alti costi di transazione).
- Organizzazioni di ricerca. Sono organizzazioni costituite per favorire la collaborazione fra un
gruppo di soggetti, per esempio le imprese ed enti pubblici di ricerca.

L’importanza crescente degli accordi technology based:

- Indivisibilità delle risorse. Quando ci sono dei costi fissi indivisibili le imprese sono “spinte” ad
accordarsi. (es. Tre medici non possono permettersi uno studio con una segretaria allora si
accordano per utilizzare la stessa struttura condividendo così i costi fissi).
- Multipolarità del progresso tecnico.

44
- Traiettorie tecnologiche convergenti. Ad esempio sistemi contabili bancari e sistemi informativi,
negli anni ’90 erano due traiettorie tecnologiche convergenti. San Paolo fa accordi con società
informatica per innovare i sistemi contabili. Due traiettorie tecnologiche convergenti in questo
momento sono l’informatica e la mobilità intelligente.
- Crescente incertezza. Imprese in cui alta probabilità di fallimento ma alti profitti se va bene, per
diversificare il rischio rinuncio ad una parte dei profitti ma condivido il rischio con qualcuno.
- Importanza della standardizzazione. Più soggetti interessati sullo standard, per evitare di bloccare
la traiettoria tecnologica si accordano. (concetto di vested interest e battaglia dei sessi).
- Riduzione dei cicli di vita del prodotto. la rapidità dell’innovazione è fondamentale, è ovvio che ci
metto di più a integrarmi verticalmente che a fare accordi.
- Ibridazione delle competenze.

Il fatto che due imprese si accordano cambia il potere contrattuale con i fornitori, le barriere all’entrata,
etc..allora è necessario effettuare un analisi tramite le 5 forze di Porter prima e dopo l’accordo.
L’interazione con l’ambiente, l’accordo non ha effetti statici nell’ambiente che li circonda. Es. 4 imprese, 2
fanno un accordo allora le altre 2 sentendosi minacciate si accordano con le altre. L’alternativa a
collaborare e lo sviluppo autonomo:

Esistono diversi motivi per i quali un impresa può decidere di avviare lo sviluppo di un progetto in totale
autonomia. Innanzitutto, può non avvertire alcun bisogno di collaborare con altre organizzazioni in quanto
già in possesso di tutte le competenze, le capacità e le risorse necessarie per lo sviluppo del progetto.
Oppure benché interessata ad acquisire competenze, capacità o risorse complementari da un ipotetico
partner può non trovare alcuna organizzazione in grado o disponibile a collaborare. Il management può
decidere, altresì, di non ricorrere a una strategia di collaborazione e proseguire lungo la strada dello
sviluppo autonomo nel timore che un accordo con un operatore esterno possa mettere a repentaglio le
tecnologie proprietarie dell’impresa, oppure qualora intenda mantenere il pieno controllo dello sviluppo
del progetto e appropriarsi in maniera esclusiva delle rendite potenziali future che attende di realizzare.
Possiamo quindi sintetizzare i fattori che influenzano la decisione di un possibile sviluppo autonomo in:

- Disponibilità di competenze. L’impresa dispone del fabbisogno di risorse e di competenze al


proprio interno? E un potenziale partner?
- Volontà di protezione delle tecnologie proprietarie. Quanto importante è per l’impresa mantenere
il controllo esclusivo della tecnologia?
- Controllo dello sviluppo e dell’utilizzo della tecnologia. Quanto importante è per l’impresa
orientare il processo di sviluppo e le applicazioni che potrebbero essere generate?
- Creazione e rinnovamento delle competenze. Il progetto è in grado di promuovere lo sviluppo e il
rinnovamento delle competenze dell’impresa?

FORME DI COOPERAZIONE MISTA

Open innovation è la forma estrema di


cooperazione perché la cooperazione è molto
aperta. L’altra forma di cooperazione è quella
mista o ibrida, forme do cooperazione
agevolate o forzate dal sistema pubblico. Il sistema pubblico rispetto
all’innovazione agisce a livelli di governo molto diversi. La commissione
europea ha una parte del proprio budget che alloca in ricerca e innovazione.

45
La commissione europea fa un bando per un’innovazione tecnologica e le imprese rispondono per
effettuare una collaborazione con queste. L’art.81 del Trattato agli accordi di cooperazione orizzontale
consente la collaborazione tra imprese laddove l’oggetto della collaborazione è la ricerca e sviluppo.

PIATTAFORME TECNOLOGICHE comuni anche dette JTI: Join Technology Initiative note perché ci sono
traiettorie innovative dove la commissione europea non riesce nemmeno a definire dei bandi specifici, cioè
ha bisogno di alcune grandi imprese che l’aiutano a definire le traiettorie tecnologiche su cui investire. Per
agevolare la cooperazione l’unione europea a tutti i tre livelli di governo utilizza diversi strumenti:

Modi diretti.

- Finanza agevolata. Il sistema pubblico riconosce nella cooperazione tra A e B del benessere sociale
allora può mettere a disposizione della finanza agevolata.
o A fondo perduto non richiede nulla in cambio ad A e B
o A tasso d’interesse agevolata

Modi indiretti.

Di sostegno alla cooperazione il sistema pubblico non da direttamente dei soldi, ma mette a disposizione
delle infrastrutture che servono per la collaborazione:

- Distretto tecnologico. Far cooperare orizzontalmente le imprese, no contiguità fisica ma servizi a


disposizione.
- Parco scientifico. Contiguità fisica, disposizione di infrastrutture per far “colare” la conoscenza.
- Living labs.

Il distretto tecnologico e il parco scientifico sono forme di collaborazione estesa e il catalizzatore di questa
collaborazione è il sistema pubblico. Aree con grandi potenzialità di ricerca, il sistema pubblico si applica
per mettere insieme queste potenzialità (asset) e far uscire qualcosa di innovativo.

Sistema a tripla elica:

- Sistema pubblico
- Accademia
- Industria

I distretti tecnologici fanno in modo che gli appartenenti diventino bravi e l’Italia diventi forte in quel
settore industriale. Mentre nei distretti industriali (di produzione) la
localizzazione geografica (esser vicini) era fondamentale, nei distretti
tecnologici la condivisione oggetto della cooperazione è la conoscenza
il cui trasferimento è poco correlato con la vicinanza geografica. (es.
videoconferenza tokyo-NY)

46
I parchi scientifici sono sempre un sistema a tripla elica dove solitamente in mezzo c’è un centro scientifico
(es. un università). La conoscenza scientifica nutre il sistema industriale che sta attorno ad essa. Il ruolo del
sistema pubblico è attrezzare fisicamente il luogo con infrastrutture comuni che attirano le imprese. (un es.
Cambridge,MIT,Sofi en Polis). È sottointeso che è necessaria una grande massa critica di conoscenza.

Living Labs. Pubblica amministrazione, imprese, utente finale. La pubblica amministrazione non è il
catalizzatore ma è anch’essa l’innovatore insieme alle imprese e all’utente finale. Ad esempio la mobilità
intelligente gli attori sono Telecom, Nokia e la Pubblica amministrazione. La PA mette a disposizione alle 2
imprese il quadrilatero, come area geografica di sperimentazione, le imprese osservano il feedback
dell’utente e migliorano l’innovazione. Un altro esempio sono i servizi di telemedicina dove l’ambiente di
sviluppo è un reparto ospedaliero. Insomma, in tutti quei casi dove l’utente finale dà il contributo
innovativo  deve essere immerso in un laboratorio vivente.

47
STRATEGIA

La visione strategica è un insieme di azioni che consentono di attivare determinati asset, che consentono
all’impresa di fare profitti con ordini di grandezza superiori. La strategia è quella categoria di
comportamento che crea valore e risulta sostenibile. Per sostenibilità di una strategia si intende che un
competitors non sia in grado di espropriarla imitandola.

Che cos’è una strategia aziendale?

È la creazione di una posizione unica, che crea valore e sostenibile che coinvolge differenti attività
dell’impresa. La definizione riassume il concetto chiave:

- Adottare una posizione la quale differisce dall’attuale e da quella dei potenziali competitors.
- Identificare un punto specifico nella catena del valore.
- Creare e sfruttare i drivers del vantaggio competitivo, il quale deve durare nel tempo e non può
essere emulato.
- L’unità di analisi sono le attività dell’impresa
- Sviluppare produrre e mettere in commercio nuovi prodotti e servizi , che rappresentano l’unità
base del vantaggio competitivo.

Una fondamentale differenza fondamentale:

- Efficienza operativa. Migliora le attività di base dell’impresa (minimizzare i costi di magazzino,


ottimizzare il numero di risorse etc..). Un posizionamento basato unicamente sull’efficienza
operativa non risulta sostenibile in quanto data la diffusione della tecnologia e la globalizzazione
qualsiasi impresa nel mondo è in linea di principio diventare efficiente (strategia imitabile).
(concetto di competence convergence)
- Strategic Positioning. Consente di raggiungere un vantaggio competitivo sostenibile.
o fare attività diverse rispetto ai competitors
o fare le stesse attività dei competitors ma in maniera differente. (es. amazon vende libri su
internet)

I tre principi chiave di una strategia sono:

- creare una posizione che crea valore


- identificare e inseguire i trade-off del settore (in modo da renderla sostenibile)
- Creare strategic fit tra le attività dell’impresa

Es. le compagnie aeree a basso costo. Ryanair non ha cercato unicamente di migliorare l’efficienza
operativa rispetto alla Lufthansa ma hanno deciso di trovare un nuovo posizionamento strategico:

- Gestione della prenotazione su internet


- Vola solo su aeroporti piccoli per ridurre i costi di gestione
- Non serve i pasti (minori costi di gestione)
- Non assegna posti
- Check-in automatico

48
Ryanair ha quindi scelto di effettuare la stessa attività (basare il suo business sui viaggi aerei) ma in maniera
diversa. Per rendere il posizionamento strategico sostenibile ha dovuto valutare due trade-off principali:

- Rinuncia a business travelers (perché dovrebbe gestire la prenotazione, business class..)


- Non vola nei grandi aereoporti.

Il vantaggio competitivo è risultato sostenibile perché:

- Le grandi compagnie non possono rinunciare ai grandi aeroporti e ai clienti business.


- I nuovi entranti volessero imitare la strategia non avrebbero accesso agli aeroporti più piccoli vicini
ai grandi perché già occupati. (bergamo è vicino a malpensa, girona è vicino a Barcellona..).

Le attività intraprese da Ryanair sono coerenti (non si ostacolano tra di loro)  strategic fit.

Un approccio simile è stato seguito da ikea che ha effettuato reverse positioning togliendo cose ovvie nel
settore dei mobili e inserendone altre non ovvie. (introduce self-service, no servizio di trasporto e
montaggio, alta standardizzazione).

LE DIMENSIONI (fattori) DI UN POSIZIONAMENTO STRATEGICO.

- Vantaggio di costo
- Diversificazione di prodotto (verticale/orizzontale)
- Focalizzazione su una nicchia di mercato

Tre modelli di posizionamento:

- Variety based. (bassa variabilità). Produrre un sub-set di prodotti usando un insieme di attività (es.
tratto solo prodotti a basso rischio, produco solo utilitarie)
- Needs Based. (basata sui bisogni). Approccio vicino al tradizionale concetto di segmento di
mercato. Individuo un segmento di mercato e servo solo quello.
- Access based. Basato su considerazioni di tipo geografico. La strategia deve riflettere attività
peculiari. (es. chiosco a Varigotti sulla spiaggia, gli altri non possono averlo).

SOSTENIBILITA’ DI UN POSIZIONAMENTO STRATEGICO

Una posizione non è sostenibile se non genera dei trade-off, perché i trade-off costringono i competitor a
rinunciare a delle attività (un trade-off che io posso sopportare non è detto che un mio competitors possa,
si riveda l’esempio di Lufthansa e Ryanair)

49
In ogni caso ogni giorno viene evidenziata una differenza tra le strategie delle compagnie questo è dovuto a
due tipi di cause:

- Esterne. i rapidi e radicali cambiamenti nella tecnologia e i comportamenti competitivi portano a


strategie disallineate.
- Interne. Il desiderio di crescita, i profitti immediati portano a una visione sbagliata e a errori
dell’organizzazione.

Le principali difficoltà a implementare una strategia aziendale sono:

- Il management è continuamente sotto pressione, e la tentazione di appropriarsi dei profitti di breve


periodo è forte (strategic myopia)
- La scelta di servire solo un sub-set di clienti appare a prima vista a una perdita di profitti

LE 5 FORZE DI PORTER PER ANALIZZARE LA PROFITTABILITA’ DI UN MERCATO

Obiettivi:

1- Introdurre un set di strumenti per analizzare e interpretare i driver della profittabilità di uno
specifico mercato.
2- Sviluppare un frame work concettuale per selezionare le sorgenti potenziali del vantaggio
competitivo in uno specifico mercato.
3- Comparare differenti strategie per entrare in un mercato tenendo conto della competizione e
delle caratteristiche del mercato.
4- Identificare una strategia di breve termine e di lungo termine una volta entrato.

Ogni mercato o settore può essere interpretato attraverso 5 principali dimensioni (“forze”).

Il modo appropriato di valutare ciascuna forza è quello di chiedersi: abbastanza forte da ridurre o eliminare
i profitti dell’industria?

1- INTERNAL RIVALRY (rivalità interna). All’interno di uno specifico mercato, la rivalità tra le aziende
può prendere forma di:
o Price competition. I profitti sono erosi dalla contrazione dei margini (prezzo-costo). Il grado
di competizione di prezzo può essere stimato mediante l’elasticità della domanda.

50
o Non price competition. I profitti sono erosi dall’incremento dei costi fissi (per esempio
sviluppo nuovi prodotti) o marginali (es. miglioramento della qualità).

Le condizioni che tendono a intensificare la concorrenza di prezzo sono:

o Concentrazione del mercato. Se ci sono molti attori nel mercato è più probabile che almeno
uno voglia abbassare il prezzo per migliorare la propria posizione di mercato o che un
impresa con una quota minima concluda che i rivali non reagiranno se abbassa il prezzo
Al crescere del numero di imprese aumenta la competizione.
Per valutare la concentrazione del mercato di guarda l’indice
di Herfindal
o L’industria è stagnante o è in declino. Le imprese non possono agevolmente espandere la
propria produzione (la domanda è calante) se non sottraendola alla concorrenza.
o Le imprese hanno costi differenti. Le imprese a bassi costi potrebbero essere insoddisfatte
di un prezzo alto e convincersi che, se il prezzo scende, i rivali con costi elevati usciranno
dal mercato.
o Capacità in eccesso. Le imprese con eccesso di capacità potrebbero essere indotte ad
aumentare le vendite a danno dei rivali (per massimizzare i volumi abbassano i prezzi).
Potrei avere capacità in eccesso anche solo in certi periodi se la domanda è stagionale
allora agisco sul prezzo per destagionalizzarla.
o I prezzi e le condizioni di vendita non sono osservabili / i prezzi non possono essere
modificati rapidamente. Ciò aumenta il tempo di risposta dei rivali, consentendo
all’impresa che ribassa i prezzi di conseguire notevoli guadagni in termini di quota del
mercato, prima che i rivali imitino la diminuizione;
o Ordini di grandi dimensioni poco frequenti. Un impresa potrebbe tagliare i prezzi per
assicurarsi una commessa grande. NB. Se la frequenza delle transazioni di vendita è alta le
imprese sono portate a colludere (perché se io abbasso il prezzo, poi i competitors mi
puniscono su tutte le transazioni successive). Se invece la frequenza è bassa io sono tentato
ad abbassare il prezzo (fregare l’avversario in teoria dei giochi).
o L’industria non ha una storia di prezzi cooperativi.
o Forti barriere all’uscita
o Mancanza di differenziazione sui prodotti. Se i prodotti risultano omogenei allora le
imprese possono competere solo sui prezzi (Assenza di brand identity)
o Complessità informativa della transazione. Se la transazione è facilmente descrivibile
esempio la vendita di grano allora si compete sui prezzi, se invece la transazione è
complessa (es. vendita di una cucina con stesse funzioni ma di produttori diversi) allora non
si compete solo sul prezzo.
o Assenza di switching cost.
o Multi-market contact. Minore è il numero di contatti, maggiore è la competizione di
prezzo. (es. 2 aziende entrambe sui mercati A e B, è probabile che le imprese colludano
perché se una delle due abbassa il prezzo su un mercato l’altra punirà l’avversario su
entrambi i mercati)
2- ENTRY (La minaccia di entranti potenziali – barriere all’entrata)
L’entrata erode i profitti delle imprese esistenti perché gli entranti sottraggono volume d’affari e
fanno diminuire la concentrazione di mercato, inasprendo la concorrenza e riducendo i margini dei

51
prezzi sui costi. Normalmente la profittabilità di un mercato è più alta dove vi sono maggiori
barriere all’entrata.
Le condizioni che riducono la minaccia di potenziali entranti (alzano barriere all’entrata):
a. La produzione è caratterizzata da significative economie di scala, cioè settori con costi fissi
(es. di start up) molto elevati richiedono grandi livelli di produzione per abbatterli (quindi
solo imprese in grado di sostenere tali costi fissi riescono a entrare cioè grandi imprese). Il
volume di break-even point è spostato su volumi molto grandi.
b. Accesso degli entranti a input critici. Know-How tecnologico, materie prime, canali di
distribuzione. Ad esempio quando Omnitel ha deciso di entrare sapeva che dentro c’era
solo TIM (monopolio)  difficoltà nel reperire risorse umane qualificate e difficoltà di
accesso ai canali distributivi.
c. Curva di apprendimento. La diminuzione del costo medio in funzione dell’esperienza si
definisce curva d’apprendimento. Se è ripida pone in svantaggio gli entranti dal lato dei
costi (fiat ha 50 anni di esperienza che ha accumulato a furia di produrre, Fiat riesce quindi
ad avere un costo medio inferiore rispetto ad un nuovo entrante). Nelle biotecnologie son
si apprende grazie alla produzione, ma grazie ai libri, quindi avrà una curva di
apprendimento poco ripida allora avrà barriere all’entrata più basse. Nota bene il progresso
tecnico fa diventare obsoleta la conoscenza, inoltre vi sono innovazioni che possono essere
competence destroying.
d. Esternalità di rete. I profitti sono condizionati da un raggiungimento minimo della massa
critica.
e. Diritti di proprietà intellettuale. Colossi come Nokia ha miriadi di cause legali contro nuovi
entranti perché rivendica brevetti. Nokia però è in grado di sostenere le spese legali i nuovi
entranti magari no.
3- SUBSTITUTE PRODUCTS (Prodotti sostituti).
Maggiore è il numero dei potenziali prodotti sostitutivi e quanto più la loro funzione è simile a
quella del prodotto o servizio offerto dall’impresa, maggiore è la “minaccia dei sostituti”. L’intensità
della minaccia dipende anche dal prezzo relativo. (es. Treno vs Aereo)
I prodotti sostituti erodono i profitti come l’entrata potenziale, sottraendo giro d’affari ed
intensificando la rivalità interna.
I prodotti complementari (es. dvd e lettori dvd) accrescono invece la domanda del prodotto in
questione, migliorando le opportunità di profitto per l’intera industria.
I fattori da considerare sono:
a. Disponibilità di prodotti sostituti e/o complementari stretti.
b. Caratteristiche di prezzo-valore dei prodotti sostituti e/o complementari stretti. Sostituti
apparentemente stretti possono costituire una minaccia trascurabile se il loro prezzo è
troppo alto; così pure i prodotti complementari possono non accrescere la domanda se
hanno prezzi troppo alti.
c. Elasticità della domanda dell’industria rispetto al prezzo: misura della pressione che i
prodotti sostituti esercitano su un settore.
4- SUPPLIER POWER (Potere del fornitore). Il numero di fornitori presenti sul mercato influirà sul
potere negoziale dell’impresa di stipulare accordi favorevoli. Se i fornitori sono molti o poco
differenziati, l’impresa potrebbe costringerli a competere fra loro per presentare la migliore
offerta. Se gli acquisti dell’impresa rappresentano una quota significativa delle sue vendite, il
fornitore sarà fortemente vincolato alle scelte del suo cliente, non godendo di un elevato potere
contrattuale. Il quadro competitivo si rovescia qualora siano le vendite del fornitore a
52
rappresentare un alta percentuale degli acquisti dell’impresa, in questo caso sarà l’impresa a
dipendere dal fornitore e dunque a esercitare un potere contrattuale molto limitato. Il potere
contrattuale del fornitore aumenta anche quando l’impresa deve sostenere degli switching cost,
che rendono difficile e costoso il passaggio da un fornitore all’altro. Il potere contrattuale inoltre
diminuisce se l’impresa è in grado di realizzare (anche solo in maniera credibile) un integrazione
verticale a monte (ossia decide di prodursi essa stessa i beni che compra dai fornitori); tale potere
aumenta se è il fornitore a poter minacciare l’impresa di un integrazione verticale a valle.
5- BUYER POWER (Potere dell’acquirente)
Se l’impresa dipende da un numero limitato di clienti, maggiore sarà il loro potere contrattuale. Se
il prodotto offerto dall’impresa è estremamente differenziato, gli acquirenti disporranno di un
minore potere contrattuale. Se il passaggio a un altro prodotto comporta degli switching cost, il
potere contrattuale degli acquirenti tenderà a diminuire, se invece è l’impresa a dover sostenere
degli switching cost, per stabilire una relazione con altri acquirenti, sarà il suo potere contrattuale a
diminuire. Il potere contrattuale dell’acquirente dipende e viene influenzato da:
o Concentrazione e volume dei compratori. Nelle industrie più concentrate le imprese
possono avere maggiore potere di contrattazione e conseguire un prezzo cooperativo che
pone in svantaggio le imprese di un industria meno concentrata. (es. 1 venditore a monte
e 20 compratori a valle  il venditore ha alto potere contrattuale).
o Volume di acquisti delle imprese a valle. I fornitori di solito riservano un servizio migliore e
prezzi più bassi ai maggiori clienti.
o Disponibilità di input sostituti. Limitano il prezzo che i fornitori possono far pagare.
o Investimenti ad elevata specificità d’impiego da parte dell’industria e dei suoi fornitori. La
minaccia della sospensione delle forniture può ridistribuire le rendite tra l’industria ed i
suoi fornitori  problema dell’hold-up. Esempio di investimento
specifico: B compra un impianto per produrre il prodotto Y. Ma per
produrre Y gli serve il componente X prodotto solo da A. Quindi A finirà
per alzare il prezzo  B non farà mai l’investimento.

Lo schema delle 5 forze presenta varie limitazioni:

- Pone scarsa attenzione sui fattori che possono influire sulla domanda.
- Ignora i cambiamenti dei redditi dei consumatori, nei loro gusti e nelle strategie aziendali volte a
promuovere la domanda (pubblicità).
- Si concentra sull’industria nel suo complesso, piuttosto che sulle singole imprese che lo
compongono.
- È un’analisi qualitativa.

53
RESOURCE BASED STRATEGY

Il processo innovativo non nasce sempre nei laboratori di ricerca ma anche attraverso processi creativi.
L’analisi delle 5 forze si occupa prevalentemente di analizzare il contesto esterno, ma le ragioni di
profittabilità sono anche condizionate da fattori interni.

L’obiettivo primario di una strategia è creare una fonte per rendere un vantaggio competitivo sostenibile,
ma allora dobbiamo chiederci cos’è un vantaggio competitivo sostenibile. Esistono molte definizioni usate
da differenti soggetti in differenti contesti. Quella che segue è una descrizione pratica ma per comprendere
occorre definire alcuni elementi.

Un asset è un qualcosa che l’impresa possiede e controlla. Una risorsa per il manager è paragonabile ad un
asset per il contabile. Le risorse sono quindi degli asset manageriali.

TIPI DI ASSET:

- Fisici. Impianti, location, accesso a materie prime


- Umani. Training, esperienza, competenze
- Organizzativi. Cultura, sistemi di coordinazione.

Concetto di capacità (capability): è descrivibile come un “bundle” di asset o risorse che rendono un impresa
capace di portare avanti un certo processo del proprio business (composto da specifiche attività). Tutte le
imprese hanno capacità e ognuna si focalizza solo sulle capacità coerenti con la propria strategia aziendale.
(es. un azienda che vuole seguire una strategia di differenziazione di prodotto si concentrerà sulle capacità
riguardanti lo sviluppo di nuovi prodotti. Un azienda che adotta una low-cost strategy si focalizza sul
miglioramento del processo per renderlo efficiente. Le capacità più importanti per l’impresa vengono
definite competenze.

Competenza. Capacità che l’impresa svolge meglio rispetto alle altre.

- Core competency. Competenze centrali per la strategia intrapresa, determinano quindi la


competizione e la profittabilità dell’impresa.
- Distintive competency. Competenze in cui l’impresa si distingue dai rivali.

Fino ad ora abbiamo parlato di sostenibilità definendo i concetti di Asset  capabilities  competence
rimane da definire come si ottiene il vantaggio competitivo.

Un vantaggio competitivo è semplicemente un vantaggio che tu possiedi rispetto ai competitors. Una


competenza produrrà un vantaggio competitivo se:

- Produce valore per l’organizzazione


- Se la maniera con cui riesce a produrre valore non è imitabile dai competitors.

Per produrre un vantaggio competitivo sostenibile le capacità devono:

1- Produrre valore. Le capacità producono valore quando loro mettono in condizione l’impresa di
ideare o integrare strategie che migliorano l’efficacia e l’efficienza.

54
2- Essere rare. Se le capacità o le risorse a disposizione dall’impresa sono comuni (“possedute da un
gran numero d’imprese”) allora non potranno essere fonti di vantaggio competitivo sostenibile.
3- Imperfettamente imitabili. Per essere rare le imprese non devono essere in grado di
appropriarsene. A monte dell’imitabilità c’è il regime della proprietà intellettuale che rendono
impossibile ai competitors di imitare competenze distintive. Inoltre l’imitazione può essere evitata
in base a:
a. Condizioni storiche uniche. (contesto in cui si ottiene il vantaggio competitivo unico)
b. Causal Ambiguity. A volte le risorse che creano valore non sono comprese nemmeno da chi
le possiede.
c. Social Complexity. Il lavoro di gruppo, la dinamica delle relazioni, l’atmosfera che si viene a
creare all’interno del team di lavoro e spesso difficile da riprodurre.
4- Difficilmente sostituibili. Non devono avere risorse equivalenti che possono essere sfruttate per
implementare la stessa strategia. Tra le forme di sostituibilità evidenziamo:
a. Duplicazione. Sebbene si tratta di due management teams diversi loro possono essere
strategicamente uguali (fanno stesse attività strategiche) e produrre stessi risultati.
b. Sostituzione. Capacità completamente diverse possono essere sostituite e ottenere stesso
effetto produrre quindi risultati uguali seguendo strade (attività) diverse.
5- Essere sfruttate all’interno dell’organizzazione. La domanda che ci si deve porre è se l’impresa è in
grado di sfruttare il valore creato, la rarità, la non limitabilità e la non sostituibilità. (es. Xerox grazie
al franchising è riuscita a sfruttare la posizione di vantaggio competitivo sostenibile).

La sostituibilità non ha bisogno di essere riportata su una scala temporale inoltre la sostenibilità non
significa che il vantaggio competitivo durerà per sempre.

Definiamo le dynamic capabilities come le abilità dell’impresa di integrare, costruire e riconfigurare le


competenze interne ed esterne con l’obiettivo di adattarsi rapidamente ai vari scenari di mercato che le si
propongono davanti. L’assunzione di base è che la collezione di dynamic capabilities è quella che ti
permette di adattarti ai veloci cambiamenti di mercato in modo da rispondere velocemente ed essere
innovativo. In ordine definiamo quindi le 3 dynamic capabilities necessarie:

1- Man mano che si presentano nuove sfide organizzative i dipendenti devono avere le capacità di
imparare rapidamente e costruire asset strategici.
2- I nuovi asset strategici creati, es. conoscenza, tecnologia etc.., devono essere integrati all’interno
dell’impresa,
3- Asset strategici esistenti devono essere trasformati o reimpostati.

CRITERI DI RICONOSCIBILITA’ DEGLI ASSET

Riconoscimento di un asset significa poter scrivere questo asset a stato patrimoniale. IAS38 richiede che o
l’asset sia stato comprato,o iscritto al costo per la conoscenza creata dalla R&D. i principi contabili sono
estremamente prudenti perché sugli intangibles su fanno scritture di bilancio un po’ borderline. Lo IAS38 si
applica indiscriminatamente sui beni acquistati all’esterno o sviluppati internamente. Se acquistati
all’esterno allora la presenza di una fattura è la prova dell’esistenza dell’asset, ma se sono stati sviluppati
internamente l’impresa potrebbe gonfiare enormemente i costi sostenuti. Ad esempio posso dire che ho
fatto lavorare delle risorse per un tot di ore mentre in realtà hanno lavorato di meno, e ho fatto lavorare

55
degli stagisti e dico che hanno lavorato ricercatori senior aumentandono quindi il costo orario. I costi di
R&D vengono quindi trattati:

per non sbagliare tutti i costi di ricerca vengono trattati come spese (cioè spesati in conto economico),
allora prevale il pragmatismo contabile rispetto al principio di pluriennalità del bilancio. Sui costi di sviluppo
invece vengono capitalizzati solo se sono stati stabiliti in maniera dettagliata per la vendita commerciale
dell’asset o per l’uso (cioè se mi dimostri che è utile o che interessa a qualcuno sul mercato allora metto da
parte lo scetticismo). Nel caso di costi di ricerca e di sviluppo indistinguibili allora ancora maggior cautela,
spesando tutto in conto economico. (non capitalizzo nulla). Gli investitori istituzionali riconoscono in
maniera chiara gli asset tangibili ma faticano a valutare gli intangibles. Motivo per cui sono stati inventati
listini tecnologici come ad esempio il NASDAQ per valutare le imprese caratterizzate da quote consistenti di
intangibles.

Questione dell’ammortamento

- Deprecetion. Basata sulla vita utile dell’asset tangibile


- Ammortization. Vincolata da principi contabili perché riferita agli intangibles. La pratica contabile
contingenta a 5 anni il know-how a esclusione solo del SW e delle relative consulenze.

Sottostimare gli intangibles significa avere un’informazione distorta sul valore dell’impresa (book value) e
sulla sua capacità di creare ricchezza in futuro.

56
57
58
INVESTIMENTI

Le fonti di investimento:

- Cash folw generato internamente


- Accesso al mercato del credito
- Emissione di Obbligazioni
- Aumento di capitale
- Finanziamento pubblico
- Accesso al mercato dei capitali interni (“cash cow”)

Per gli asset tangibili le imprese italiane, utilizzano come


fonti di finanziamento per lo più cash flow,
indebitamento a lungo termine e leasing. Pochissimo
equità cioè ci sono pochi investitori specializzati.

Per quanto riguarda invece gli asset intangibili


risulta che il 79% delle imprese si finanzia con cash
flow e il 10% con indebitamento a lungo termine.

Dalle due tabelle di capitalia emerge un problema molto serio e cioè che le imprese non trovano investitori
che le finanziano e quindi non crescono. I motivi sono molteplici:

59
I- Asimmetria informativa. Se è il bene è intangibles, ad alto contenuto innovativo l’investimento è
più complesso in quanto:
a. investimento incerto (varianza larga)
b. non capisco su cosa sto investendo (chiedere dei soldi per comprare un bar la banca
capisce, chiedere soldi per un qualcosa di non ben definito la banca è scettica  faccio
prima ad autofinanziarmi.
c. Non ha garanzie reali. (se chiedo i soldi per un bar, la banca sa che se non gli ridò i soldi si
prende il bar mentre su un’intangibles ho più problemi)
d. Non vi è mercato secondario su cui rivendere (se investo in conoscenza sull’olio di palma
per produrre carburante, questo non ha mercato secondario)

Queste ragioni appena elencate si possono definire strutturali cioè sono caratteristiche dell’asset
intangibles. Ci sono inoltre ragioni dovute alla governance:

I manager preferiscono l’autofinanziamento e i finanziamenti a


breve termine. Ricorrere al capitale di debito genera attenzione da
parte degli intermediari finanziari (il manager preferisce ricorrere a
fonti interne per non attirare l’attenzione). I manager tendono a
preferire il progetto A perché nella loro permanenza in azienda
loro hanno cash-flow più elevati anche se per l’azienda sarebbe
meglio il progetto B. I manager preferiscono il debito all’equity
come fonti di finanziamento. L’azionista di maggioranza tenderà a
scegliere ciò che valorizza l’azienda per cui il progetto che
massimizza il valore dell’asset (il progetto b) mentre l’azionista di
minoranza interessato ai dividendi preferirà il progetto A.

Co-movimento tra l’intensità dell’investimento in R&D e il business cycle. Se tu basi i tuoi investimenti
su finanziamento derivante per lo più dal cash-flow  tu investi tanto in R&D quando le cose vanno
bene e poco quando vanno male, comportamento ciclico mentre la teoria economica dice che è
necessario avere comportamento anticiclico perché solo così puoi uscire dalla crisi. Il cash-flow non è
costante nel tempo sorge quindi un problema di modularità dell’investimento in R&D perché
basandomi sul cash-flow io investo quote non costanti (investimento a “scatti”). Il valore del cash-flow
può far cambiare i dividendi (quindi gli azionisti remano contro perché si vedono toccati i dividendi). Es.
Iridium: Motorola investiva in R&D per un telefono satellitare (iridium appunto), il cash-flow veniva
allocato per l’investimento in R&D  per anni non ha distribuito dividendi. Gli azionisti hanno tollerato
per un po’, poi hanno iniziato ad andarsene, le azioni iniziarono a perdere valore  per far riprendere
valore alle azioni si è dovuto togliere soldi dall’R&D per mantenere cash-flow e distribuire i dividendi. È
quindi un circolo vizioso basato sul breve-termine mentre la R&D ha obiettivi di medio-lungo periodo.

SOGGETTI

- Business angels. Soggetti (persone) imprenditori che offrono piccolissimi tagli di finanziamento a
imprese piccole ad alto contenuto innovativo  superano tutti i problemi in quanto investono
piccole quote e non hanno fretta di riaverli e non lo fanno per i dividendi ma solo per essere
coinvolti.
- Incubatori. Strutture pubbliche che mettono a disposizione strutture, network e servizi accessori.

60
- Fondi di private equity. Metto su una società gestione e risparmio (SGR), cioè chiedo i soldi al
pubblico in cambio di una promessa di dividendi.
- Merchant Bankings. Le banche comprano imprese a scopi speculativi.

Sulle righe della tabella ci sono le varie fasi dell’impresa mentre sulle colonne abbiamo in ordine:
l’incertezza, il bisogno finanziario e i soggetti che forniscono la finanza.

Per incertezza si intende il rischio che si divide in 2 componenti:

Rischio tecnologico. L’incertezza di non riuscire a risolvere tutti i problemi tecnologici.


Rischio del mercato. incertezza di trovare qualcuno che me lo compra dopo che ho risolto i
problemi tecnologici.

Seeds. Fase complessa data la sua forte incertezza ma basso fabbisogno finanziario in quanto i tagli sono
piccoli perché ho solo costi di ricerca (non ho marketing etc..). le fonti di finanziamento quindi possono
essere Business Angels, Incubatori o il sistema pubblico.

Startup. L’incertezza è sempre alta perché ho ancora qualche dubbio sul rischio tecnologico e tutto il rischio
di mercato. inoltre devo iniziare a investire su strutture, macchinari quindi il fabbisogno finanziario inizia a
essere importante. Questa è la fase più complicata perché i business angels hanno a disposizione tagli
troppo piccoli idem il sistema pubblico e gli incubatori..--> Venture Capitalist

Early-Growth. Mentre il rischio tecnologico è praticamente scongiurato ma ho ancora il rischio di mercato,


il fabbisogno finanziario raggiunge il suo massimo in quanto si investe in tutte le infrastrutture per
serializzare il processo. Banche e Venture capitalist

Growth. Le banche vedono che il prodotto è buono e che sai venderlo in quanto sei in una fase dove
l’incertezza è minima, allora arriva equity e capitale di debito.

61
Ma come lavorano i Venture capitalist? (vedere lettura allegata)

I venture capitalist raccolgono dei fondi promettendo dei rendimenti altissimi (25-35%). Il venture capitalist
seleziona industrie ad altissimo contenuto innovativo ad altissima crescita. Ha un tasso di apprendimento
molto elevato in quanto si specializza in un settore (es. “cleantech”) documentandosi approfonditamente e
riduce l’asimmetria informativa. Non compra semplicemente ma “accompagna” l’impresa, in quanto non
solo investe ma mette sue persone nei cda e nel management. Il ventures capitalist si specializza nella
valutazione degli intangibles.

IPO = Initial public offering: la quoto sui mercati finanziari. E’ un modo per i venture capitalist di uscirne
dopo aver accompagnato l’impresa fino alla fase di crescita.

Hanno un portafoglio composto da 8/10 imprese, e concludono l’investimento in 7/10 anni

62
VC: IL LIVELLO DEL RITORNO ATTESO DALL’INVESTIMENTO

Più della metà delle volte riescono a malapena a rientrare dell’investimento iniziale o nei peggiori dei casi
perdono tutto. Motivo per cui hanno un portfolio-approach.

63
CASI DI STUDIO

LA PILLCAMERA DI GIVEN IMAGING

Gavriel Iddan ingegnere elettro-ottico alle dipendenze dell’autorità israeliana per lo sviluppo di armi e
tecnologia militare aveva partecipato ad un progetto di un missile guidato da un occhio che lo conduceva
fino all’obiettivo. A causa della sua amicizia con un gastroenterologo di
nome Eitan Scapa inizia un progetto di una microcamera a CCD da
introdurre nell’apparato digerente e in grado di trasmettere senza fili
le immagini a un monitor esterno. Il passo successivo compiuto da
Iddan fu la realizzazione di un prototipo basato sulla tecnologia CMOS
(tecnologia successiva che permetteva di consumare minor energia
con una durata maggiore delle batterie). Nel 1994 richiese il rilascio di un primo brevetto collegato al nuovo
dispositivo. Nel 1995 presentò la sua idea a Gavriel Meron (amm.del. di Applitech una società che già
realizzava microcamere endoscopiche) e quest’ultimo decise di fondare Given Imaging per sviluppare e
commercializzare la nuova tecnologia. Nell’ottobre 1999 primo test su umano. Nell’agosto del 2001 il
dispositivo aveva ottenuto l’approvazione della FDA (Food and Drug Administration) e nell’ottobre dello
stesso anno Given Imaging fu quotata al NASDAQ raccogliendo 60 mln di dollari nell’offerta pubblica
iniziale. Given imaging ha introdotto la video capsula da ingoiare nel mercato, la Pillcam, come una
piattaforma integrata: una workstation, un SW proprietario e una cintura da indossare con un sistema per
la videoregistrazione e le capsule da ingoiare. Fino al 2005 Given Imaging ha beneficiato del vantaggio di
offrire una tecnologia medica di gran lunga superiore rispetto alle alternative esistenti ma nel 2005
olympus ha introdotto la propria telecamera in pillola nel mercato europeo con l’obiettivo di portarla negli
stati uniti, appena dopo l’approvazione della FDA. Given Imaging ha protetto la sua posizione nel mercato
statunitense creando un patent ticket, ovvero il deposito di un blocco di brevetti collegati e sovrapposti su
una medesima tecnologia che costringe i concorrenti che intendono introdurre tecnologie simili a ottenere
il rilascio di licenze per l’uso di una pluralità di brevetti. Al contempo, è impegnata a costruire rapidamente
la sua base installata di workstation Given Imaging negli ospedali e nelle cliniche (concetto di costi di
switch-off).

IL CASO BREMBO - Kilometro rosso -

Nel maggio del 2007, brembo ha inaugurato il suo nuovo centro ricerche e sviluppo. I laboratori sorgono
all’interno del parco scientifico e tecnologico Kilometro Rosso, a Stezzano (BERGAMO). Kilometro rosso si
stende su un’area di 40 ettari, il progetto era stato affidato ad un architetto francese molto rinomato che
aveva adoperato acciao rosso, vetro e calcestruzzo. Un lungo e avveniristico muro rosso in alluminio
estruso alto una decina di metri e
lungo mille. Lo scopo del parco era
favorire l’innovazione attraverso
processi di fertilizzazione incrociata
fra la rete di istituzioni e di imprese
che vi avrebbero trasferito attività di
ricerca e di sviluppo tecnologico: a
fianco del laboratorio brembo
(meccatronica e sensoristica) e del
centro di ricerca della joint-venture dell’impresa italiana con la tedesca Daimler (materiali compositi a base
ceramica), era sorto ITCLab il nuovo centro ricerca, innovazione e sviluppo di Italcementi, dedicato alla
64
chimica e ai materiali avanzati. E ancora i laboratori di farmacologia e biotecnologia dell’Istituto Mario
Negri di Milano oltre ai centri d’innovazione delle facoltà di economia e ingegneria dell’Univarsità di
Bergamo. Secondo le previsioni il polo avrebbe contato sulla presenza di 70-80 aziende, 300mln di
investimenti e avrebbe coinvolto 3000 ricercatori di cui 600 avrebbero lavorato per Brembo.

Brembo aveva sempre dedicato grande impegno alla formazione e puntato sullo sviluppo tecnologico, con
una capacità di innovazione in grado di generare una quarantina di brevetti all’anno. La strategia di brembo
si era nel tempo sempre più concentrata sull’espansione in nicchie di mercato specializzate, puntando sullo
sviluppo di prodotti e processi tecnologici innovativi. Il racing fin dalla metà degli anni settanta, dall’accordo
con Ferrari, aveva rappresentato per Brembo il laboratorio più avanzato di sperimentazione, con lo scopo di
valutare in condizioni estreme, l’innovazione del prodotto e dei materiali. Nel campo motociclistico e F1
praticamente tutti i costruttori utilizzavano brembo. Stretta collaborazione tra Brembo e i suoi clienti dal
co-design, alla scelta dei materiali per concludersi poi con test e simulazioni su pista. Gli accordi di co-
engineering con Porsche, Ferrari, Bmw e Mercedes avevano consentito di progettare e sviluppare assieme
nuovi sistemi frenanti. Le innovazioni sperimentate nel campo del racing per brembo avevano presto
scavalcato i confini delle piste da competizione. I risultati della ricerca, i benefici del lungo processo di
apprendimento erano stati trasferiti alle applicazioni per vetture da strada nel segmento dell’alto di gamma
e nel mercato del ricambio. La strategia competitiva di Brembo era chiara. Piuttosto di scontrarsi
frontalmente con i giganti del settore, come Bosh, Continental, aveva puntato sulla fascia più alta del
mercato, con sistemi frenanti ad alte prestazioni. Una strategia sostenibile solo con robusti investimenti in
R&D. la pressione delle case automobilistiche sui fornitori rendeva indispensabile non solo l’efficienza
produttiva, perseguita da Brembo ridisegnando la geografia della sua costellazione del valore, de
localizzando le produzioni standard e concentrando le fasi nobili della catena, ma anche l’innovazione di
prodotto: l’unica strada per essere sempre un passo avanti alla concorrenza e svincolarsi così dalla schiavitù
dei prezzi. Se Brembo vuole mantenere il vantaggio competitivo avrebbe dovuto incrementare le sue quote
nei segmenti ad alto valore aggiunto e ridurre il rischio insito nei prodotti indifferenziati. La scommessa sul
Kilometro Rosso era decisiva: erano stati concentrati in un solo sito i centri decisionali e tecnici di Brembo
con la volontà di sviluppare non solo prodotti nuovi, ma anche una nuova organizzazione, nonché
innovazione dei processi e dei metodi di produzione. Brembo aveva deciso anche di concentrare la
produzione di dischi freno in due impianti (in Italia e in Polonia) e di adottare un processo industriale
integrato verticalmente (unico fornitore europeo che realizzava il ciclo di lavorazione completo).

HONDA E I VEICOLI ELETTRICI IBRIDI

Honda fondata nel 1946 inizialmente come


produttore di biciclette poi motociclette e auto. La
sua strategia di glocalizzazione (globale+locale), che
consisteva nel costruire impianti di produzione in
tutto il mondo, in grado di soddisfare le esigenze dei
clienti locali, ma governati dal quartier generale
giapponese, aveva disegnato nel tempo una
configurazione planetaria con oltre 100 stabilimenti
in 33 paesi. Nel 1997 Honda motor company
introdusse in Giappone un veicolo ibrido
benzina/elettrico a due porte, con il nome di Insight.
Nel 1999 inizia a distribuire Insight negli stati uniti e

65
nel 2005 aveva venduto circa 100.000 macchine. I modelli di Honda erano progettati per raggiungere la
massima efficienza dei consumi. La Honda Insight era stata progettata come un sistema ibrido parallelo, in
cui il sistema di alimentazione elettrico e il sistema di alimentazione a benzina funzionano in parallelo:
entrambi i motori forniscono coppia alle ruote. Il motore elettrico della insight assisteva il motore a benzina
offrendo potenza aggiuntiva in fase di accelerazione o salita. (21-24 km al litro). Le batterie si ricavano
“catturando” energia durante la fase di frenata o quando si rallentava e attraverso la normale produzione
di energia dell’alternatore del motore (nessun collegamento a presa elettrica). L’adozione dei modelli ibridi
da parte dei consumatori e dei produttori automobilistici statunitensi è stata lenta soprattutto a causa
dell’incertezza riguardo all’orientamento che la progettazione del motore avrebbe seguito negli anni
successivi (forte incertezza riguardo al dominant design). La domanda che ci si pone è gli ibridi sarebbero
stati rapidamente sostituiti da altre tecnologie come le celle a combustibile o la combustione a idrogeno?
Questa incertezza non permetteva di abbassare i costi di produzione a causa dei limitati volumi (no
economie di scala né di apprendimento). La strategia di Honda aveva sempre enfatizzato l’innovazione,
l’indipendenza e la compatibilità ambientale. Nella ricerca e sviluppo dedicata al sistema di motore ibrido, il
management di Honda decise di limitare le relazioni di collaborazione (sviluppo autonomo) perseguendo
una strategia stand-alone; una scelta rischiosa, ma potenzialmente redditizia in caso di successo. La
decisione di mantenere lo sviluppo esclusivamente all’interno secondo il management di Honda imponeva
all’azienda di avere una visione globale di tutti gli aspetti della nuova tecnologia, i suoi punti di forza come i
suoi punti deboli: un processo interno di accumulazione di know-how che avrebbe guidato Honda a una
posizione di vantaggio competitivo e generato un patrimonio di competenze difficili da imitare per i
concorrenti. Riguardo le celle di combustibile a idrogeno e la combustione di idrogeno qusti sono stati
ostacolati fortemente dall’assenza di infrastrutture per la distribuzione (asset complementari), un’altra
preoccupazione era riguardo all’infiammabilità dell’Idrogeno pressurizzato (preoccupazione in termini di
sicurezza). Honda ha sempre sostenuto che l’attività di ricerca e sviluppo condotta nella tecnologia ibrida
ha consentito all’azienda di creare una base di conoscenza interna per la progettazione e la produzione dei
componenti, così da estendere le sue opzioni nel campo delle tecnologie a celle di combustibile. Alcuni
osservatori si sono domandati se avesse senso investire contemporaneamente in entrambe le
tecnologie.(una delle due è sicuramente un binario morto sull’altra c’è incertezza).

UNA PALESTRA OLIMPICA: IL CASO TECHNOGYM

A pechino nell’estate del 2008 Technogym poteva vantarsi di essere l’unico Exclusive partner non cinese dei
giochi olimpici, diventando la prima azienda al mondo in grado di aggiudicarsi un contratto esclusivo per 4
olimpiadi consecutive. Per Technogym il ritorno di immagine come
fornitore ufficiale ed esclusivo delle apparecchiature installate nelle
palestre dei giochi di Pechino era stato formidabile. Dal 1990 era
stata presente a tutti i Mondiali di calcio, la nazionale e i più
importanti club calcistici al mondo utilizzano i suoi attrezzi.

Nerio Alessandri è partito da un garagein Romagna fino a diventare


leader di mercato, l’idea era di differenziarsi da chi operava nel
segmento del fitness per puntare piuttosto sull’offerta di sistemi integrati per il benessere degli utilizzatori.
Diventata l’azienda di riferimento nella preparazione atletica dei campioni, come dimostrano le partnership
con Ferrari, il team di Alinghi e di Prada nella sfida dell’America’s Cup. Il vero motore della crescita è stata
da sempre l’innovazione a 360 gradi. Quando un azienda si accorge che i suoi prodotti non sono più
appetibili dal mercato, spesso è già tardi per reagire. Investiva ogni anno il 6% del fatturato nella ricerca
(aggancio teorico con l’allocazione del budget in R&D) diretta, mentre uno staff di 150 unità era dedicato a
66
sviluppare nuovi prodotti. Technogym aveva definito la sua strategia internazionale glocal (global + local):
globale nel processo dell’innovazione e nella promozione del brand, ma declinata in modo locale per
adattare prodotti e sviluppare servizi coerenti coerenti con le differenti aree geografiche. Ogni prodotto
traeva origine da approfondite ricerche mediche, mentre l’esecuzione era affidata a un team
interdisciplinare del centro ricerche Technogym composto da ingegneri, medici sportivi, ortopedici e
tecnici, impegnati a progettare attrezzature fisiologicamente perfette e sicure per differenti modalità d’uso.
Technogym fin dall’inizio, aveva condotto un’attenta politica di tutela e valorizzazione delle proprie
invenzioni, con oltre 80 brevetti registrati a livello mondiale e 48 marchi comunitari. “E’ necessario
inseguire e anticipare i bisogni dei clienti, lavorando duro e guardandosi le spalle attraverso la
“brevettazione”.

Il processo di innovazione incrementale aveva modificato le linee di prodotti e introdotto nuove macchine
per assecondare le strategie di crescita nel mercato dell’azienda, integrando servizi aggiuntivi e optional per
rispondere alle esigenze dei segmenti che nel tempo il management dell’impresa decideva di “colpire”.
Dalle palestre tradizionali ai club sportivi, l’orizzonte di mercato di Technogym si era allargato a
comprendere palestre aziendali, militari, universitarie, di squadre sportive, centri di riablitazione.. Una
seconda innovazione strategica di Technogym era stata di introdurre in un settore ormai stabile nelle
tecnologie usate, l’elettronica e le tecnologie dell’informazione e della comunicazione. Personalizzare gli
allenamenti, con un computer che poteva tenere traccia degli esercizi e monitorare i parametri fisiologici
dell’utilizzatore, e di arricchire l’esperienza a volte troppo noiosa della palestra. Progettare macchine ad
alto contenuto di design e massima funzionalità. Wellness Tv per il benessere psico-fisico. Accordo con sony
per installare la playstation2 a fianco del televisore, a uno stereo e a uno schermo al plasma per selezionare
un programma di aromaterapia. La collaborazione con Sony si estendeva dall’Italia al Giappone, dove le due
società avevano costituito la join-venture Technogym Japan. L’azienda italiana conferiva strumenti e know-
how nel campo del benessere e dello sport indoor, mentre Sony metteva a disposizione la propria
esperienza e conoscenza nel mercato nipponico allo scopo di conquistare il segmento delle palestre. Nel
2007 accordo con Apple per una nuova interfaccia per
collegamento I-POD. Collaborazione con Dolce&Gabbana per
far emergere il design, trasformando le attrezzature per
l’allenamento in casa in componenti d’arredo, con tessuti,
materiali e colori personalizzabili. Technogym aveva saputo
sviluppare nel corso degli anni prodotti innovativi e funzionali,
con servizi eccellenti post-vendita. Con l’evoluzione dei suoi
modelli, l’azienda aveva saputo integrare nei propri attrezzi
schermi tv, diffusori di aromi, materiali piacevoli al tatto,
lettori mp3, internet. Aveva stabilito una fitta rete di relazioni
con il mondo della ricerca per elevare gli standard di qualità.
Aveva acquisito una conoscenza non solo tecnica ma anche di
marketing che le consentiva di fornire ai differenti target di mercato un prodotto/servizio integrato, dalla
progettazione e fornitura di tecnologie alla formazione professionale dei tecnici per segmento del fitness,
dalla flessibilità d’uso al design per il segmento home.

67
L’ASCESA DI MICROSOFT

Fin dai primi anni ottanta dal lancio di Windows, Microsoft controlla una
quota schiacciante del mercato dei sistemi operativi per personal
computer. Poiché il sistema operativo condiziona anche la progettazione
di tutte le altre applicazioni, la posizione dominante di Microsoft nel
mercato dei sistemi operativi si è estesa anche nel segmento delle
applicazioni software. Eppure la scalata al successo di Microsoft si deve
in buona misura all’accadere di una serie di coincidenze: se gli stessi
eventi si fossero combinati in una differente sequenza, l’impero di
microsoft non sarebbe mai nato.

Nel 1980 il sistema operativo dominante nel settore dei personal


computer era il CP/M inventato da Gary Kildall (gli era stato
commissionato da Intel per interfacciarsi al microprocessore 4004). IBM, il maggiore produttore mondiale
di sistemi informati, a quel tempo riteneva che i personal computer non avrebbero mai preso piede. Nel
1984 le imprese iniziarono ad adottare computer Apple per svolgere semplici operazioni di calcolo, IBM si
rende conto della potenzialità e corre ai ripari (essendo in ritardo). Ritenendo di non aver tempo per
sviluppare un microprocessore e un sistema operativo IBM, il management decide di utilizzare
microprocessori Intel con sistema operativo CP/M. Ibm allora effettua una proposta a Kildall che rifiutò (sui
motivi sono nate leggende..) e visto l’incalzare dei tempi si rivolse a Bill Gates un giovane programmatore
che a 19 anni, con un compagno di liceo e dopo aver abbandonato Harvard, aveva fondato Microsoft, una
software house che forniva applicazioni per CP/M. Microsoft creò il DOS che venne venduto con le
macchine IBM. Le 250.000 unità vendute del primo anno attirarono gli altri produttori di pc che
“clonavano” i pc ibm e gli inserivano il dos per garantire la compatibilità con IBM. L’inserimento del
pacchetto dos nei pc ibm stimolò le sw house a fornire applicazioni dos-compatibili e così Microsoft DOS si
affermò ben presto come standard di settore e Microsoft divenne l’impresa di software con lo sviluppo più
rapido al mondo. Microsoft mantenendo dos in Windows è riuscita migrare la sua base clienti in un nuovo
sistema operativo. Eppure se killdal avesse siglato l’accordo o se Compaq e gli altri produttori non fossero
riusciti a clonare i pc ibm, probabilmente l’industria del sw sarebbe molto diversa.(vedi bidone della
spazzatura).

LA GARA DEI COSTUMI: Il caso Arena

nel 2008 Filippo Magnini campione mondiale dei 100


metri stile libero presentava il nuovo costume arena
(Powerskin r-evolution) in risposta al principale
competitors l’australiana Speedo che due mesi prima
aveva presentato LZR Racer, il costume tuta in grado
di battere una ventina di primati mondiali e chi lo
indossava aveva una maggior galleggiabilità e un
minor attrito. Era una rivoluzione o solo un
innovazione incrementale negli standard tecnologici
del nuoto? Il segmento di elitè i nuotatoti agonisti,
valeva secondo le stime degli analisti 15 mln di dollari

68
l’anno: una minuscola nicchia. Tuttavia, era il segmento che condizionava i comportamenti e dettava le
scelte di un mercato ben più ampio, costituito da amatori e da nuotatori non professionisti, dal valore
globale di 500 mln di dollari. 3 principali concorrenti in questo mercato: Speedo, Arena e Adidas. La ricerca
e sviluppo viene focalizzata principalmente su due percorsi di ricerca:

1- Come ridurre l’attrito del corpo con l’acqua attraverso materiali innovativi – la resistenza alla
superficie.
2- Come modificare l’assetto del corpo nel movimento in piscina – la resistenza alla forma

LZR racer è stato il primo costume da competizione senza cuciture. I bordi venivano fatti aderire l’uno
all’altro con una tecnologia a ultrasuoni, per creare una superficie completamente liscia senza perdere di
elasticità. La zip ultrapiatta non causava attrito perché nascosta all’interno del costume.
Contemporaneamente il team di progetto aveva affrontato la seconda sfida, il form-drag, nel tentativo di di
configurare l’assetto ottimale del corpo di un nuotatore in acqua per ridurre le resistenze idrodinamiche.
Speedo aveva davvero fissato un nuovo standard, stabilito un nuovo punto di arrivo per i costumi da
competizione, che in molti anni erano passati dalla lana al nylon fino al fastskin che imitava la pelle di
squalo. Per gli osservatori LZR Racer non appariva come la solita innovazione incrementale, aveva in sé
un’idea di rottura con il passato, sembrava davvero un salto tecnologico rispetto ai costumi tradizionali.
Nascono quindi polemiche in merito al così detto “doping tecnologico” che chiedevano alla FINA di vietare
l’uso del LZR racer. FINA liberalizzò la competizione tecnologica non definendolo doping. Il costume
progettato da Arena è pressoché uguale allo LZR Racer, sarà la vetrina delle olimpiadi a deciderne il
vincitore.

IL SETTORE DEI PERSONAL DIGITAL ASSISTANT

Tra il 1990 e il 1993, un piccolo drappello di imprese si era accostato al settore dei PDA per non lasciarsi
sfuggire le promettenti opportunità di un mercato che sembrava ormai maturo per decollare. Entrarono
nomi conosciuti fra i produttori di computer, come Apple, IBM, HP e
Motorola, così come società appena costituite come Go, Eo, Momenta. A
causa del particolare sistema di funzionamento (i dati erano acquisiti
attraverso una penna elettronica) e delle sue ridotte dimensioni, la chiave del
successo del PDA risiedeva nella contemporanea evoluzione di alcune
tecnologie abilitanti, tra cui il software per il riconoscimento della scrittura a
mano, il modem e la miniaturizzazione dei sistemi di alimentazione e
memorizzazione. Nel 1993 alcune tecnologie abilitanti, fondamentali per il
successo del PDA, non erano ancora pronte per essere incorporate nel
prodotto. il software per il riconoscimento della scrittura a mano aveva un
margine d’errore del 5% giudicato inaccettabile, il modem era ancora un
“mattone” e la capacità di elaborazione e la durata della batteria condizionavano le performance e le
dimensioni dei PDA. All’inizio degli anni novanta i PDA erano troppo costosi, non era ancora chiaro verso
quali segmenti di mercato era rivolto (manager? Logistica? Massa?), e gli utilizzatori erano cauti per dubbi
riguardo la compatibilità e la disponibilità dei sistemi esistenti. A fine 1993 Microsoft annunciò il proprio
ingresso nel settore con il proprio modello Winpad, la notizia provocò un ritiro degli ordini da parte di molti
clienti, che a quel punto preferirono aspettare l’uscita di Winpad. Microsoft rimase sulla soglia del settore
per molti anni, ma intanto il suo annuncio produsse l’effetto di frenare il decollo del mercato dei PDA. Molti
produttori cominciarono a vacillare già nel 1994 a causa dei progressi tecnologici significativi e
l’impossibilità di sfruttare economie di scala dovuta all’assenza di volumi consistenti di vendita. Alcune
69
imprese riuscirono a superare la crisi, ma il vero vincitore fù un’impresa che entrò relativamente tardi nel
mercato dei PDA: Palm Computing. L’idea di progettare un prodotto rapido, semplice e che si potesse
vendere a meno di 300$. Nel 1999 controllava il 77% del mercato mentre Microsoft deteneva solo il 13%.
Nel 2003 si prospettava una radicale innovazione: lo smartphone. Gli smartphone garantivano margini
superiori a quelli dei PDA. Comunque la convergenza dei due settori aveva di fatto messo in concorrenza
aziende produttrici di palmari con colossi come Nokia, Sony ericcson, Samsung.. nel 2005 le vendite dei PDA
si arrestarono.

IL TEMPO DELLE FATE: Il caso Winx

Un sogno per una piccola casa di produzione cinematografica italiana era esportare in Giappone e negli
Stati Uniti cartoni animati. Nessuno era mai riuscito nell’impresa ma Rainbow si. Nel 1996 l’azienda
marchigiana realizzava il primo cd rom animato dal titolo Tommy e Oscar. A parte qualche partecipazione
con la RAI, Rainbow si affermò come casa di animazione indipendente e l’anno
magico fu il 2004, l’anno delle Winx e della vera consacrazione internazionale di
Rainbow. Il successo della saga italiana che aveva espugnato Stati Uniti e Giappone,
era costruito in laboratorio, favorito dalla capacità di indovinare la scelta dei tempi
giusti per il lancio della serie. Il modello di creazione del valore di Rainbow era
particolare: realizzava al suo interno tutte le fasi del processo di produzione di un
cartone animato, dalla pre-produzione alla post-produzione. Le Winx avevano
presto conquistato 130 paesi nel mondo, esse rievocavano nelle movenze e nei
tratti personaggi dello star system (es. Britney Spears..). Il segreto del successo era
nella capacità di ricombinazione di elementi tradizionali in un concept innovativo destinato a un segmento
inesplorato con un timing perfetto, una combinazione fra creatività e studio scientifico. Sul piano
finanziario la chiave era il licensing, il business dei prodotti in licenza che generavano royalty a costo zero e
pesavano per il 70% di un giro d’affari nel 2007 superiore ai 40 mln di euro. Zaini, bambole, linee di
abbigliamento, cappellini, magliette, portapenne, merendine, gadget nei fast food etc..Rainbow ormai
comprendeva una società di distribuzione in Olanda, una società per le produzioni in 3D a Roma, la
Tridimensional per il publishing e la Entertainment per la fiction e il live action. In soli 12 anni era riuscita a
raggiungere la copertura totale del mercato europeo e americano, collaborando con creativi e disegnatori,
selezionati fra le risorse di maggior talento negli ambienti della computer graphic.

GENZYME E I FARMACI “ORFANI”

Genzyme è una delle maggiori imprese biotech del mondo, con un fatturato per il 2007 di 3,8 miliardi di
dollari, 25 prodotti in commercio in quasi 90 paesi. La strategia di Genzyme, fondata sull’applicazione della
tecnologia più avanzata alle scienze della vita, è focalizzata in
campi ben definiti: le malattie ereditarie rare, le patologie renali,
l’ortopedia, il cancro, i trapianti e le malattie immunitarie, oltre a
fornire servizi di analisi diagnostiche. Genzyme è stata fondata a
Boston nel 1981 da un piccolo gruppo di scienziati, focalizzandosi
su malattie rare scelta giudicata all’epoca un’eresia. Le società
farmaceutiche preferivano concentrarsi quindi su prodotti
blockbuster, quei farmaci, che potenzialmente, erano destinati a
un mercato costituito da milioni di clienti. Invece genzyme si sarebbe focalizzata su quei farmaci destinati a
poche persone, affette da malattie rare e quasi sempre con esiti mortali. Il ragionamento era che anche i
concorrenti sarebbero stati pochi, inoltre vista la gravità delle patologie le assicurazioni avrebbero opposto
70
meno resistenze per il pagamento delle spese mediche, per questi due principali motivi Genzyme riteneva
di poter fare margini superiori. Inoltre essendo focalizzata su una nicchia di mercato anche la forza vendita
poteva essere limitata (si interfacciano solo con pochi medici specializzati). Le scelte di timing di Genzyme si
rivelarono fortunate. Nel 1983 la FDA varò l’orphan drug act per incoraggiare lo sviluppo di farmaci per le
malattie rare . La norma prevedeva come incentivi per le imprese significativi sgravi fiscali sui costi di
ricerca oltre a garantire un periodo di sette anni di esclusiva di mercato a favore dell’azienda che avesse
introdotto un farmaco “orfano”. Il regime di esclusiva di mercato corrispondeva a una protezione nei
confronti della concorrenza di gran lunga superiore per efficacia rispetto alle forme di tutela garantite da un
classico brevetto. Un brevetto su un farmaco si limita a impedire la commercializzazione dello stesso
farmaco ad un’altra azienda però non vieta ad un concorrente di introdurne un altro con stesse funzionalità
e principio attivo differente. L’auspicio del regolatore attraverso la forma più ampia di tutela era di
consentire alle imprese di recuperare i costi di sviluppo, nonché di ottenere un tasso di rendimento degli
investimenti adeguato a rendere attrattiva l’attività di ricerca e la sperimentazione clinica. Per ottenere lo
status di farmaco “orfano” la malattia doveva colpire non oltre 200.000 persone in tutto il mondo. Le Big
Pharma continuarono a non mostrare interesse e anche la maggior parte delle Biotech trascurò di cogliere
le opportunità offerte dalla nuova normativa. Il primo prodotto messo in commercio da Genzyme fu il
Ceredase, una proteina sostitutiva progettata per curare una popolazione inferiore a 10.000 persone
affette da una malattia genetica mortale denominata malattia di Gaucher. La predisposizione della terapia
enzimatica per curare un paziente affetto dalla malattia di Gacucher richiedeva l’estrazione da tessuto
umano di proteine, di cui la placenta umana si dimostrò la fonte più ricca. La spesa e la difficoltà di
reperimento del materiale rappresentarono un’efficace barriera all’ingresso. Nel 1991 Genzyme non
riusciva a soddisfare tutta la domanda a causa delle difficoltà di reperimento di placenta. Nel 1993 riuscì a
sviluppare una forma ricombinante dell’enzima, Cerezyme, che senza ricorrere al tessuto umano consentiva
una produzione industriale efficiente. Nelle biotecnologie la maggior parte delle start-up percorreva un
sentioro evolutivo simile. Le aziende esordivano nel mercato come società di ricerca e sviluppo, se
riuscivano a sopravvivere agli anni di magra e mostravano prospettive interessanti per il futuro, con una
terapia commercialmente valida, allora avrebbero cercato di allearsi con una Big pharma per la produzione
e il marketing. La decisione di Genzyme di non lavorare con le grandi società farmaceutiche avrebbe
comportato da un lato dei rischi superiori ma avrebbe mantenuto con sé tutti i profitti. I pazienti che
assumevano il Cerezyme pagavano in media 170.000 $/year per le cure farmacologiche e con circa 4500
pazienti destinati ad assumere il farmaco a vita, il fatturato annuo generato soltanto da Cerezyme
ammontava a 800 milioni di dollari.

LA VIA EMILIA DELL’INNOVAZIONE: Il caso Ima

Ima l’azienda emiliana leader mondiale nella produzione di macchine automatiche per l’industria
farmaceutica e del tè. Focalizzata su segmenti di elitè del mercato mondiale, consapevoli che la
sopravvivenza e lo sviluppo erano determinati dalla capacità di sostenere e
rinnovare nel tempo il proprio vantaggio competitivo, offrendo al cliente servizi
personalizzati e superiori per qualità, investendo senza tregua nella R&S.
Deteneva una posizione dominante nel mercato delle macchine per imbustare e
imballare il tè oltre a figurare fra i leader nella costruzione di impianti e
macchinari per l’industria farmaceutica: nel suo ampio portafoglio prodotti,
c’erano macchine per liofilizzare medicine, schiacciare compresse, pressare
pillole e impacchettarle, inserire le capsule nei tubetti, le gocce nei flaconi, i
flaconi con le istruzioni nel pacchetto e i pacchetti nella scatola del farmaco. Ima

71
nata nel 1961 aveva cominciato a produrre macchine per imbustare il tè, un settore ad alta redditività, il
grande colpo arrivò però nel 1985 quando Ima decise di entrare nel segmento delle macchine per
l’industria farmaceutica. Ben presto le principali compagnie farmaceutiche divennero clienti di Ima,
contribuendo con le loro richieste di tecnologie e servizi tagliati “su misura” ad alimentare il processo di
innovazione continua di Ima. La volontà di Ima, per sottrarsi a una competizione sempre più serrata, era di
evolvere in fornitore di sistemi integrati e di salire a monte, nei segmenti di manipolazione e lavorazione
dei principi attivi. Quindi la leadership mondiale venne ottenuta anche attraverso joint-venture e
partnership con grandi società farmaceutiche, queste partnership avrebbero permesso a Ima di porsi al
fianco dei propri clienti con accordi di contract research e di contract manufacturing, allargando la propria
offerta di servizi anche nella fase clinica e pre-clinica dei prodotti farmaceutici.

IL SONIC CRUISER DI BOEING

Alla fine del 2002, tanto l’industria aeronautica quanto il trasporto aereo stavano affrontando un periodo
difficile. Ancora vacillante dopo il brusco crollo dovuto agli attacchi terroristici dell’11 settembre 2001,
l’intero settore sembrava crollasse su se stesso. In
questo scenario desolante, Boeing doveva decidere se
continuare lo sviluppo e il lancio del suo nuovo
modello di aereo destinato al traffico passeggeri, il
Sonic Cruiser. Il Sonic Cruiser era un jet di medie
dimensioni il cui lancio sul mercato era previsto per il
2006. Studiato per aumentare sia la velocità sia il
raggio di azione rispetto ai velivoli tradizionali. Il
nuovo modello pur potendo volare a velocità
superiori, presentava gli stessi consumi di carburante
per passeggero dei modelli tradizionali con analoga capacità di posti, raggiungendo livelli di performance
fino ad allora ritenuti impossibili. Potendo viaggiare ad altitudini ben più elevate rispetto agli aerei civili
tradizionali, i nuovi velivoli sarebbero stati meno influenzati dalla congestione del traffico aereo. Alcun
esperti avevano ipotizzato che, per far volare il nuovo velivolo, le compagnie aeree avrebbero dovuto
spendere – in termini di costi operativi – dal 12% al 15% in più rispetto al Boeing 767, del quale avrebbe
preso il posto. I principali clienti del mercato degli aerei civili sono le compagnie aeree e le società di
trasporto merci che acquistano direttamente i velivoli per le proprie flotte. Nel 2002 le maggiori compagnie
aeree degli Stati Uniti adottavano il modello hub&spoke, ossia un architettura di rotte costituita attorno a
un aeroporto centrale, situato in posizione strategica (hub), da cui smistare il traffico passeggeri e merci
verso scali periferici, disposti a raggiera (spoke). Far confluire la maggior parte del traffico aereo solo
attraverso determinati hub determinati hub consente alle compagnie aeree di raggiungere più destinazioni
finali impiegando lo stesso numero di velivoli: i clienti che partono da località a traffico aereo limitato
raggiungono un primo hub a bordo di un aereo più piccolo, per poi spostarsi, insieme ad altri viaggiatori
provenienti da altri aeroporti minori, alla volta di un secondo hub con velivoli di maggiori dimensioni. Per
contro, alcuni vettori americani e soprattutto le compagnie europee low cost sono organizzati secondo un
modello a trasferimenti diretti (il così detto point-to-point). Il sonic cruiser era un jet di medie dimensioni
con vantaggi di velocità e di costo sfruttabili appieno solo sulle grandi distanze, il suo target ideale sarebbe
stato proprio una compagnia con una strategia point-to-point. La complementarità dei modelli all’interno di
una stessa famiglia di aeromobili è un altro fattore che influenza la decisione d’acquisto. l’impiego di un
tipo di aerei comporta vantaggi notevoli per l’impresa: per ciascun modello in servizio nella propria flotta,
infatti, dovrà investire nella formazione continua dei piloti e dello staff di manutenzione etc.. Boeing era

72
stata molto attenta nel posizionare il Sonic Cruiser quale modello supplementare, un estensione delle linee
di prodotto già esistenti, e si era impegnata a continuare parallelamente la produzione della linea 7x7. Gli
ostacoli, di carattere tecnologico ed economico che il progetto doveva affrontare, erano impegnativi e
complesse le sfide. Il piano di investimenti richiedeva risorse finanziarie stimate intorno ai 10 miliardi di
dollari, ben al di sopra dei costi di sviluppo di un aereo tradizionale. Nel dicembre 2002, nessuna compagnia
aerea aveva ancora effettuato un ordine per il Sonic Cruiser e il management di Boeing era costretto a
riconoscere il fallimento del progetto, rinunciando a procedere con il programma di sviluppo del velivolo e
nel contempo decidendo di concentrare l’R&D su un nuovo modello il 787 Dreamliner.

LA CORSA AD OSTACOLI DEL BIOTECH: SEI CASI ITALIANI

Immaginate una corsa ad ostacoli che dura non meno di 10 anni e costa
in media 800 milioni di euro, con tre grandi ostacoli da saltare: la
scoperta della molecola, la sperimentazione clinica e la
commercializzazione. Il 90% delle molecole su cui si inizia a lavorare non
arriva alla commercializzazione.

Gentium. Fondata nel 2001 sul lago di Como, nel suo capitale erano
presenti una casa farmaceutica italiana “Sigma Tau” e investitori
istituzionali. Partnership e collaborazioni legavano Gentium a prestigiosi
istituti di ricerca e di sperimentazione clinica negli stati uniti e in
germania. Il suo farmaco di punta è il defibrodite giunto all’ultimo stadio di sperimentazione clinica presso il
Dana Faber Cancer Center di Harvard, in attesa di essere autorizzato alla commercializzazione dalla FDA.
Per la fase di testing aveva collaborato con 35 centri stranieri. Era la scommessa di Gentium: chiudere la
fase III e portare il defibrodite in farmacie e ospedali. In base a un accordo con Sigma Tau, la compagnia
farmaceutica avrebbe venduto il prodotto nel mercato americano garantendo royalty del 38%, mentre
Gentium avrebbe fatto da sola nel mercato europeo.

Bioxell. Fondata nel 2002, la società possedeva un know-how particolare nella famiglia dei VD3 (Vitamina
D3), ormoni con un ruolo molto importante nella regolazione del metabolismo del calcio. La molecola di
punta, l’elocalcitolo, utile nel trattamento delle patologie prostatiche, aveva deciso di percorrere la filiera
fino al mercato con la speranza di trasformare il prodotto in un blockbuster. Il mercato potenziale era di 4
miliardi di dollari l’anno ma per la sua commercializzazione nel 2011 Bioxell sta cercando un partner di
peso. Nel frattempo stringe accordi sulle altre molecole. Dal primo accordo sarebbero arrivate in forma di
royalty le risorse finanziarie da investire sul secondo fronte.

NiCox. Start-up biotech che aveva ceduto a Pfizer lo sviluppo dei farmaci in stadio pre-clinico sul glaucoma,
strategie analoghe con il Topigen per le malattie polmonari con Merck.. negli accordi viene inserita una
clausola di co-promozione: “gli informatori di Merck promuoveranno oltre alla molecola da noi ceduta in
licenza anche altri preparati interamente nostri”. “saremo pronti cosi per il lancio dei nostri prodotti di
punta l’Ncx4016 per il diabete e il Naproxcinod per il trattamento dell’osteoartrite. Brevetti depositati nel
2009 con un potenziale di mercato di 2-3 miliardi. Un primo passo verso la creazione di una rete di vendita
autonoma.

Newron. Era nata nel 1999 da uno spin-off della statunitense Pharmacia&Upjohn, quotata dal dicembre
2006 a Zurigo. Poco prima aveva ceduto per 200 mln di dollari a Merck i diritti sul safinamide per il
trattamento del Parkinson (un altro potenziale blockbuster). Nell’accordo con la big pharma, la piccola

73
biotech italiana aveva inserito una clausola che riservava a Newron l’opzione per la commercializzazione in
Italia e in Spagna.

Lay Line Genomics. Biotech nata per spin-off della scuola internazionale di studi superiore di Trieste, aveva
brevettato un anticorpo “HualphaD11” che aveva proprietà antidolorifiche (forse presto potrebbe sostituire
morfina e oppiacei come terapia per il dolore). A sviluppato il suo know-how anche grazie alla
collaborazione con Rita Levi Montalcini. Ha ceduto i diritti a Pangenetiscs (società olandese) che avrebbe
avviato lo sviluppo e la commercializzazione metre Lay Line Genomics avrebbe ottenuto royalty sulle
vendite. L’accordo avrebbe spianato la strada ad altri progetti in corso per applicazioni di anticorpi artificiali
in altre patologie come l’Alzheimer e la sclerosi multiple.

PharmaEste. Nata da uno spin-off dell’Università di Ferrara con l’avvio di un progetto per realizzare un
farmaco in grado di trattare il dolore neuropatico. I finanziamenti non bastavano e c’era il rischio di
vanificare tre anni di studi, finchè erano arrivati 3,2 mln da un gruppo di investitori: capofila era ZCube,
corporate venture di Zambon company, che aveva coinvolto nelle compagnie fondi di venture capital. Il
bacino potenziale sarebbe stato all’inizio di sette milioni di persone solo nell’area dei paesi industriali.

LO XENOMOUSE

Dopo aver investito sette anni e 40 milioni di dollari nelle sue attività di ricerca e sviluppo, Abgenix, una
biotech statunitense, era facilmente riuscita a realizzare un topo transgenico, battezzato XenoMouse, un
formidabile risultato per l’ingegneria genetica, in grado di produrre anticorpi con sequenze proteiche
umane. Abgenix aveva formulato due piani di azione per ottenere ricavi dallo XenoMouse. Il primo piano
prevedeva la concessione alle imprese farmaceutiche o di biotecnologie i diritti di utilizzo dello XenoMouse
per lo sviluppo di anticorpi contro una determinata malattia target indicata da ciascuna impresa. Il secondo
piano d’azione consisteva nello sviluppo di farmaci propri, mantenendo le fasi di testing iniziali all’interno
dell’organizzazione e solo in seguito cedendo i diritti di sviluppo e commercializzazione del nuovo farmaco
realizzato ad altre imprese. Il perseguimento contemporaneo delle due strategie consentiva ad Abgenix di
percepire sia pagamenti anticipati sia le royalty sui ricavi conseguiti da altre imprese, evitando al contempo
di dover sostenere elevati investimenti. Tra i programmi di sviluppo del farmaco di Abgenix, l’ABX-EGF si
era dimostrato molto promettente per il trattamento di alcune tipologie di tumori, tra cui il cancro del
colon retto. Il programma ABX-EGF aveva debellato la malattia
in tutti i topi. Abgenix era giunta al momento di dover
decidere se e con chi collaborare per lo sviluppo futuro del
anticorpi abx-egf. Il management aveva a disposizione tre
differenti alternative strategiche:

- Affidare il programma a una grande casa


farmaceutica. Una società farmaceutica aveva
mostrato il suo interessamento e aveva dichiarato di
essere disposta a corrispondere le royalty richieste
collocate al di sopra dei tassi standard.
- Costituire una joint-venture con una biotech. Una
biotech si era interessata per una joint-venture
paritetica, se il farmaco avesse avuto successo
avrebbero diviso anche i profitti. (maggiore

74
partecipazione ai profitti ma maggiori rischi rispetto alla prima alternativa).
- Sviluppo autonomo. Maggiori rischi ma avrebbe sfruttato in modo esclusivo tutti i ricavi.

Alla fine del 2001 Abgenix era intenzionata a perseguire la strada dello sviluppo autonomo, ma gli analisti di
settore notarono che stava rapidamente bruciando le proprie risorse di liquidità. Nel prendere la sua
decisione, Abgenix doveva tener conto anche dei fabbisogni di liquidità di breve termine, delle competenze
e delle capacità necessarie a condurre un processo di sviluppo e commercializzazione in tempi rapidi e del
potenziale di crescita a lungo termine. (altre biotech stavano lavorando allo sviluppo di nuovi farmaci
antitumorali).

ALLEANZE CON I CHICCHI DI CAFFE’: IL CASO ILLY

Ad aprile 2007 a Trieste è arrivata una telefonata da parte di Coca-Cola Company per costituire una Join
Venture con illy. Illycaffè avrebbe potuto cogliere nell’operazione con Coca-
Cola un’eccellente occasione per espandere rapidamente la notorietà del
proprio marchio in tutto il mondo. Tuttavia non doveva sottovalutare il
rischio di banalizzare la propria immagine con bevande e marchi che – dai
tradizionali consumatori dell’espresso – potevano essere percepite lontane
dall’autentica cultura dell’espresso italiano. Join-Venture denominata Ilko
Coffee International con sede a Milano avente come oggetto la produzione
di tre nuove bevande in lattina, a base di caffè freddo da lanciare nel
mercato a partire dalla primavera del 2008. La nuova bevanda sarebbe stata
lanciata con il marchio illy, mentre Coca-Cola si era riservata l’opzione di
introdurre in seguito un secondo marchio. Alla distribuzione avrebbe
pensato la multinazionale americana. La bibita sarebbe stata prodotta, sotto forma di estratto, da illycaffe
che avrebbe quindi provveduto a consegnarlo alle società che imbottigliavano bevande per conto di Coca-
Cola, le quali avrebbero ultimato il processo di lavorazione con la diluzione e il packaging. Il know-how di illy
nel caffè espresso si sarebbe combinato con le competenze di marketing e di distribuzione della
multinazionale di Atlanta. La lattina argentata e con disegni appena accennati e in alto il celebre marchio
rosso illy, elegante ed essenziale nella sua linea, ripercorreva il design dei barattoli a chiusura ermetica con
cui l’azienda triestina metteva in vendita la sua miscela distinguendosi negli scaffali dalle altre confezioni di
caffè. Il know-how di illy derivante da una ricerca scientifica continua, attività svolta in 5 laboratori ognuno
con un compito specifico (controllo qualità e materie prime, analisi sensoriale tra stimoli e sensazioni
evocate, tecniche per migliorare la miscela, valutazioni delle caratteristiche della pianta del caffè,
conservazione).

LA RIVOLUZIONE DELLA MUSICA DIGITALE

Nel 1991 l’istituto di ricerca Fraunhofer sviluppo un algoritmo di compressione per l’audio: mp3. La
crescente popolarità del formato dei file pose il Fraunhofer di fronte a un dilemma: doveva far valere i
propri diritti sul brevetto dell’algoritmo MP3 mirando a incassare le royalty per l’uso che concedeva,
oppure doveva consentire agli utilizzatori e ai produttori di
hw/sw di adoperarlo senza vincoli, lasciando che il nuovo
formato proseguisse nel suo momento magico fino ad
affermarsi come standard per la musica digitale? Se
avesse limitato l’uso dell’algoritmo, avrebbe dovuto
affrontare comunque il rischio che rivali agguerriti come

75
Microsoft e Sony decidessero di sviluppare formati concorrenti; se avesse concesso il libero uso del
formato, sarebbe stata però costretta a rinunciare a trarre profitto dalla sua invenzione. Il fraunhofer
decise di adottare nella concessione delle licenze un approccio strategico di apertura parziale, scegliendo
nel 1995 come partner Thomson Multimedia designata quale rappresentate con licenza esclusiva dei
brevetti MP3. A sua volta, Thomson negoziò numerosi accordi di licensing con società come Apple, Adobe,
Creative Labs, Microsoft. Sony e microsoft non rinunciarono a sviluppare dei loro algoritmi (Atrac e Mp3)
ma fu evidente già nel 1996 che mp3 aveva vinto la battaglia per il predominio nei formati audio compressi.
Nel 1999, uno studente della Northeastern university di Boston, Shawn Fanning, rese pubblico Napster. I
server napster non ospitavano i file mp3 ma un database con le informazioni relative ai membri della
comunità. I membri della comunità cominciarono a scaricare sempre di più materiale protetto da copyright.
La RIIA (Recording Industry Association of America) promosse un azione legale contro napster e nel 2001
napster fu messa off-line. Il peer-to-peer ormai però aveva preso piede, servizi analoghi a napster
spuntavano ogni giorno allora le case discografiche dovevano trovare una soluzione. (i tradizionali canali di
distribuzione risultavano cari, e scomodi, l’impossibilità di comprare il singolo brano ma l’intero album
etcc..). Steve Jobs allora corse in aiuto alla RIIA. Nel 2003 inaugurò l’itunes music store dopo aver raggiunto
una serie di accordi con le 5 principali case discografiche. Apple lanciò su Internet itunes con un catalogo
iniziale di 200.000 titoli, e un prezzo di acquisto di 99 centisimi di dollaro a canzone. Introdusse un sistema
di tutela dei diritti: “Fairplay”. Il sistema Fairplay è un sistema DRM che vincola l’utilizzo delle canzoni
acquistate: i file solo su 5 computer, gli mp3 potevano essere ascoltati solo su ipod, non inviati via mail o
diffusi via web. Il successo di itunes fu alimentato da una serie di fattori: Apple godeva di una reputazione
eccellente, offriva un prezzo interessante e gli accordi con le 5 case discografiche le consentivano di
presentarsi ai potenziali clienti come un unico mercato virtuale one-stop. Inoltre il successo di ipod accelerò
il successo di itunes. (e viceversa).

Un’organizzazione non-profit chiamata Creative Commons cominciò allora a sviluppare modelli contrattuali
che consentivano ai titolari di copyright, compresi i musicisti, di concedere in licenza le proprie opere a
gradi variabili di apertura e differenti livelli di condivisione. Gli artisti, come gli sviluppatori di software,
sanno che talvolta è preferibile rinunciare ai diritti e agli immediati guadagni, in cambio dell’opportunità di
ottenere visibilità, una base di fan e, a volte il successo nel mercato e la fama. I podcast sono simili a
trasmissioni radiofoniche, ma indipendenti, cioè ognuno con un microfono e un pc può registrare il suo
podcast e tramite creative commons diffonderlo in rete.

DIETRO UN BREVETTO: il caso Sisvel

A metà 2008, a un anno dalla promozione come standard unico europeo per la televisione mobile la strada
del dvb-h per raggiungere l’obiettivo era ancora lunga. France telecom, LG, Nokia, Samsung..avevano
deciso di realizzare un programma di concessione di
licenze congiunto per i brevetti essenziali. Ciascuna
impresa aveva sviluppato una parte delle soluzioni
tecnologiche necessarie allo sviluppo del dvb-h, e
insieme avevano stabilito un accordo per evitare
costi esorbitanti per l’utilizzo reciproco di soluzioni
proprietarie. A coordinare la complessa strategia di
patent pooling c’era Sisvel, un’azienda torinese che
operava nella valorizzazione e nella tutela di brevetti
nel settore dell’elettronica. Il lavoro di Sisvel era di

76
favorire la raccolta dei diritti proprietari e quindi occuparsi dell’amministrazione e della tutela (i licensee
acquisivano una licenza secondo una formula one-stop-shopping). Sisvel nata nel 1982 a None come società
per lo sviluppo dell’elettronica (spin-off da indesit). Era partita da tecnologie più semplici legate alla
televisione analogica e, in poco più di vent’anni era arrivata a proteggere e a valorizzare economicamente
buona parte dei brevetti che “vigilavano” sull’MP3. Quando a causa di difficoltà finanziarie, indesit cessò la
produzione di televisori nel 1983, Sisvel per una cifra modesta né acquistò l’intero portafoglio brevetti.
Nella prima manciata di brevetti vi era per esempio l’on-screen display, la tecnologia che consentiva di
visualizzare sullo schermo di tutti i televisori la regolazione del volume, per esempio, o del contrasto, in
pochi anni quell’invenzione sarebbe entrata in tutte le case. Sisvel è sempre in cerca di nuovi brevetti,
ricerca resa indispensabile dal vincolo temporale dei diritti di proprietà intellettuale, di norma con una
durata limitata a vent’anni. Per questi motivi, il compito principale dei collaboratori era di scandagliare ogni
giorno il mercato delle tecnologie per scovare innovazione d’acquistare. La scommessa per il futuro era
trovare il sostituto dell’MP3 il cui brevetto scade nel 2010, il dvb-h aveva le carte in regola?

IL PROGRAMMA ORGANIZATION 2005 DI PROCTER & GAMBLE

P&G consegue circa 3800 brevetti all’anno; ha sul mercato 29.000 prodotti protetti dal brevetto ed è tra le
imprese con il maggior numero di brevetti al mondo. P&G orienta da sempre i propri sforzi innovativi in due
direzioni: la definizione di nuovi standard di performance nelle
categorie di prodotto già esistenti e la creazione di nuove
categorie di prodotto. Nel 1999, P&G aveva intrapreso uno dei
più imponenti progetti di ristrutturazione organizzativa della sua
storia: il programma Organization 2005, costituito da una ricca
serie di iniziative ad ampio raggio con l’obiettivo di accelerare i
ritmi di innovazione e di crescita. Il programma prevedeva
cambiamenti di vasta portata nella struttura, nei sistemi operativi
e nei processi di gestione, oltre che nella cultura aziendale. Tra le
azioni più incisive vi era l’eliminazione di molti livelli organizzativi
della sede centrale di Cincinnati (Ohio) allo scopo di rendere l’impresa più agile e reattiva. Passaggio da
business unit geografiche (America settentrionale, Europa…) a business unit per linee di prodotto (prodotti
per l’infanzia, prodotti di bellezza, prodotti per la pulizia della casa..etc..). il programma di ristrutturazione
avrebbe inoltre semplificato i processi di produzione, riducendo le linee di produzione a poche piattaforme
standardizzate. Attività quali controllo di gestione, risorse umane, IT, etc.. sarabbero invece state
centralizzate in business service globale su base regionale. Il management prevedeva che una maggiore
centralizzazione dei servizi condivisibili avrebbe favorito la standardizzazione dei processi di gestione e la
semplificazione delle procedure, nonché il conseguimento di maggiori economie di scala. Inserito nel
programma un sistema di ricompense che legava la remunerazione dei manager alle scelte compiute e ai
risultati raggiunti. Nel 2000, tuttavia gli azionisti cominciarono a domandarsi se le promesse di Jager non
fossero state eccessive e irrealistiche. Dall’inizio dell’anno, i profitti continuavano a scendere, nel luglio
dello stesso anno il cda sollecitò le dimissioni dell’ad. Secondo alcuni osservatori il mercato non aveva
concesso al programma di ristrutturazione promosso da Jager il tempo necessario a produrre i primi
risultati. Gli azionisti non erano disposti ad aspettare la fine della difficile transizione di P&G, mentre il
valore di altri titoli spiccava il volo.

UN NETWORK GLOBALE DELLA RICERCA: Il caso Bracco

77
Bracco, fra le imprese leader mondiali della diagnostica medica, consolidava la sua posizione nel mercato
americano acquisendo E-Z-Em, uno dei principali player mondiali nella produzione di mezzi di contrasto e di
strumentazione medica. Per l’impresa italiana, che ricavava l’80-90% del suo fatturato dagli agenti imaging
(liquidi e prodotti di contrasto per la diagnostica), l’acquisizione di E-Z-Em non solo rafforzava la posizione
di mercato nel segmento del suo core business, ma segnava una tappa fondamentale nella costruzione del
suo network transnazionale di ricerca e sviluppo dell’innovazione per accedere alle competenze critiche
radicate nell’azienda americana. Nel 2004 aveva inaugurato a Pudong, non lontano da Shangai, un nuovo
impianto industriale, frutto della joint-venture costituita da un gruppo italiano con una delle principali
aziende farmaceutiche cinesi, Sine Pharmaceutical. Da Milano giungevano le sostanze di base del mezzo di
contrasto per prodotti iniettabili in vivo. A Pudong, invece, erano eseguite le operazioni necessarie a
ottenere il prodotto finale, destinato ai mercati della Cina territoriale, di Honk Hong e di Macao. La scelta
del partner era caduta su Sine perché si trattava di un partner industriale e non solo finanziario. Il gruppo
chimico farmaceutico e biomedicale, fondato nel 1927 come joint-venture con l’impresa farmaceutica
tedesca Merck. Bracco investiva il 16% del fatturato della diagnostica in ricerca, una ricerca nobilitata da
760 brevetti e da accordi di collaborazione con università e centri di ricerca in Europa, Stati uniti e
Giappone. L’approccio strategico era di acquisire piccole società per accedere alle competenze possedute,
detto approccio educational. Forte credenza nella potenzialità dei parchi scientifici: “nel parco abbiamo a
disposizione tutto il processo di ottenimento di un nuovo prodotto: dalla sua ideazione al prodotto finito
per essere testato. L’importanza della struttura risiede nella sua versatilità e nella sua integrazione fra
aziende e università, nonché fra gli specialisti che vi operano e i laboratori altamente specializzati. La nostra
convinzione è che un’impresa che lavora nella ricerca debba poter contare su un sistema a rete. Produrre
innovazione richiede competenze, un sistema formativo e una ricerca che preveda l’integrazione di
pubblico e privato e in questo senso i parchi possono giocare un ruolo fondamentale: sono infatti
incubatori di innovazione, centri di formazione, luoghi di consolidamento della ricerca per mezzo del
trasferimento tecnologico.” Era un esempio incoraggiante di come la collaborazione tra pubblico e privato

nella tecnologia e nell’innovazione potesse convertirsi in risultati concreti, mantenendo un elevato livello di
competitività.

DALLA TEORIA ALLA PRATICA


Dean Kamen

Dean Kamen un originale e brillante inventore statunitense ha svolto le maggior parte del scoperte nel
progresso delle tecnologie mediche. Nel 1988 inventò HomeChoice la prima macchina
per la dialisi a domicilio, nel 1999 la società di Kamen la DEKA Research, ha introdotto
l’IBOT Mobility system, una sedia a rotelle all’avanguardia dotata di un sofisticato
sistema bilanciamento che consente di salire le scale, affrontare terreni sabbiosi o
rocciosi e i marciapiedi. Nel 2001 Kamen rivelò al mondo la sua ultima invenzione il
Segway Human Transporter, in Italia noto come Gingeer. Segway era un monopattino

78
elettronico a due ruote che consentiva a chiunque montasse sopra di mantenersi in equilibrio, muoversi,
sterzare senza manubrio ma solo con il movimento del corpo.

La nascita del settore degli snowboard

A sviluppare i primi snowboard non sono stati i grandi produttori di attrezzature sportive ma gli ideatori
sono stati appassionati di sci e skateboard. Dall’evoluzione dei progetti sperimentali di questi pioneri
sarebbe disceso qualche decennio dopo lo snowboard moderno. Negli anni ’60
alcuni appassionati iniziarono a costruire a livello sperimentale snowboard in
legno (a volte la semplice unione degli sci), qualcuno di questi fondò anche
qualche società tra le più importanti quella di Jake Burton Carpenter nel Vermont
che divenne leader di mercato con lo “snurfer”. Verso la metà degli anni 80, lo
snowboard stava iniziando a diffondersi nei principali centri sciistici, mentre
produttori specializzati come Rossignol e K2 cominciarono a guardare con
interesse a questo mercato in forte crescita. Il picco della domanda degli sci si era
verificato negli anni ’70 e da li in poi aveva registrato una caduta, lo snowboard
era la soluzione ideale per avere una ripresa nel settore, attirando nuovi
appassionati .

L’ultimo scatto di Polaroid

Nel mese di febbraio 2008 tramontava un mito dell’industria americana come della cultura popolare.
Polaroid aveva deciso di abbandonare la pellicola che l’aveva resa famosa. La prima e rivoluzionaria
macchina per fotografie istantanee fu presentata nel 1948 da Land (studente di Harvard). Land era uno
specialista in polarizzazione, ovvero la concentrazione dei raggi elettromagnetici dispersi che compongono
la luce, e lavorava per le autorità militari statunitensi nello sviluppo di
occhiali per piloti e di filtri per mirini ottici d’aereo. Polaroid OneStep
divenne la machina fotografica più venduta di sempre. A wall entrò nei Nifty
Fifty, i 50 titoli precursori dell’exploit dell’alta tecnologia degli anni ’90
caratterizzati da straordinaria crescita, aumenti di dividendi ed elevati
rapporti fra utili e quotazioni azionarie. Nel 1994 dichiararono “la nostra
principale linea di prodotti era in pieno declino tecnologico”. Provarono delle
revisioni strategiche ma gli sforzi non poterono fare nulla contro
l’innovazione discontinua caratterizzata da competence destroyinng.

Le traiettorie tecnologiche e il “segmento zero”

Le imprese non poche volte aggiungono ulteriori caratteristiche ai propri prodotti con tempi troppo rapidi
se paragonati alle capacità dei consumatori di assorbire le novità. Questo accade a causa della
segmentazione del mercato e nelle strategie di pricing dei fornitori di una tecnologia. Oichp l’intensificarsi
della competizione in un settore tende a comprimere verso il basso prezzi e margini unitari, l’impresa
spesso cerca di sottrarsi alla trappola, provando a “spostare” le vendite dei propri prodotti verso i segmenti
“alti” del mercato. la fascia del mercato risulta non servita, questi hanno due scelte davanti a loro: pagare
anche per qualcosa in più che non vogliono o rinunciare, questa particolare zona del mercato è stata

79
definita da Andy Groove il “segmento zero”. Un impresa non deve trascurare il segmento zero del mercato
in cui opera perché potenziali entranti potrebbero entrare, ed essendo in termini di margini unitari di poco
valore ma comprende il mercato di massa potrebbe perdere rapidamente quote di mercato. (es. Intel pone
molta attenzione al segmento zero realizzando processori adatti al segmento in termini di prezzo e
caratteristiche)

Lo scontro fra standard nei formati digitali audio

Nel 1982 Sony e Philips unirono le forze per lo sviluppo del


compact disc. Il cd ha resistito come standard dominante
per oltre vent’anni permettendo a Sony e Philips di
incassare royalty per ogni cd player venduto. A fine anni ’90
il mercato risultò saturo e la tecnologia DVD aveva il
compito di sostituire lo standard dei cd offrendo musica ad alta fedeltà accompagnata da effetti surround.
Hitachi, Jvc, Matshuita, Mitsubishi,Piooner..fondarono un consorzio per sostenere lo standard DVD. Sony e
Philips per continuare a ottenere le royalty nel 1999 fecero uscire un format audio chiamato Super Audio
CD. In molti pensarono a una guerra simile a VHS e Betamax ma presto Pioneer, Yamaha introdussero
lettori universali in grado di leggere entrambi i formati.

Tubo catodico addio

Nel mese di marzo del 2008, Sony ha abbandonato per sempre la produzione dei suoi televisori Trintron per
dedicarsi solo ai televisori LCD. Era la fine di un’epoca iniziata nel 1927 (brevetto), sony dal 1965 aveva
venduto oltre 280 milioni di tubi catodici. Nel 2005 il tubo catodico era ancora
la tecnologia tv dominante nel mercato ma nel 2007 ci fù il sorpasso da parte
della nuova tecnologia LCD. Era cambiato il concetto di tv: più grande, meno
ingombrante, collegato a diversi apparati e il consumatore lo riteneva uno
status symbol da appendere al muro come un quadro.

Sony e la battaglia dei DVD

Il dvd di seconda generazione aveva finalmente un erede. A febbraio del 2008, Toshiba annunciava il suo
ritiro dalla guerra per l’alta definizione che l’aveva contrapposta negli ultimi anni a Sony. Lo standard
promosso da Toshiba, l’Hd-DVD sarebbe scomparso, lasciando
capo libero al Blu-Ray. Dal punto di vista tecnico si equivalevano,
il blue-ray con una maggiore capacità di archiviazione dati, l’Hd-
DVD più economico da produrre e con una resa audio
leggermente superiore. Il blu ray di Sony era stato sostenuto da
multinazionali e major cinematografiche del calibro di sharp,
Panasonic, Philips, Walt Disney e 20th Century Fox. Dall’altra,
l’hd-dvd di Toshiba, appoggiato da Universal, Paramount,
DreamWorks, Nec, Intel e Microsoft. Il dvd era una tecnologia
fondamentale per Hollywood, poiché rappresentava il 63% del
fatturato di un film contro il 21% del botteghino. La svolta ai primi di gennaio 2008, quando Warner aveva
dichiarato di voler abbandonare l’hd-dvd. A quel punto l’ago della bilancia si è spostato in favore del Blu-ray
in quanto la Warner a quel tempo possedeva titoli come harry potter e l’ultimo batman (titoli che avevano
80
sbancato al botteghino). Il colpo di grazia però era arrivato a Febbraio del 2008, per mano della catena di
supermercati Wal-Mart che aveva deciso di offrire nei suoi punti di vendita solo dvd di prima generazione e
blu ray. (“ e se wal-mart dice che hd-dvd è finito, allora significa che è vero”). Parte del merito è da
attribuire alla playstation3 che incorporava un lettore blu-ray (play3 più forte sul mercato rispetto a Xbx360
che monta hd-dvd). Il formato hd-dvd in effetti più economico da produrre con una qualità di alta
definizione analoga al blu-ray. Tuttavia lo standard sony vantava meccanismi di protezione superiore contro
la pirateria e maggiori capacità multimediali e di interattività. La guerra tra standard ha tardato l’adozione
dei dvd di seconda generazione che ora ci si domanda se non è una tecnologia già passata, cioè è ancora
necessario l’uso di lettori ottici quando al giorno d’oggi ci sono gli hard disk multimediali? Per un blu-ray
occorrono 20 dollari, mentre su itunes ne bastano 5 per scaricare un film in hd. Una storia analoga a quanto
era accaduto per dvd e super audio cd che dovevano rimpiazzare i cd, quando alla fine il vincitore è stato
ipod.

MP3: La sconfitta dei first mover

Il first mover fù un azienda coreana, Saehan Information Systems, che nel 1998 presentò ad Hannover
l’MPMan F10. L’MPMan F10 non fece successo né i fast follower come Diamond
Multimedia con il Rio PMP300 a causa dello scontro legale con le case
discografiche. Dopo qualche anno fù creative Labs a imprimere un’accelerazione
decisiva al mercato con i primi modelli dotati di disco fisso. La diffusione del
formato convinse le altre case a entrare. Nel 2001 Apple entrò nel mercato, il
debutto di ipod avveniva in un mercato ormai consolidato e in forte crescita.
Apple provò a reinterpretare il design del prodotto e, soprattutto a reinventare il
modello di business: sul primo fronte, introducendo un innovativo sistema di
navigazione del menù tramite una ghiera, sul secondo inaugurando l’itunes
music store il primo negozio di musica virtuale (metodo legale per l’acquisto di
canzoni su internet). Le ultime evoluzioni dell’hw hanno visto comparire interfacce di tipo touch e
l’abbandono dei modelli con disco fisso in favore delle memorie flash. Apple doveva ora misurarsi con il
ritorno aggressivo di case come Sony e con l’avvento della nuova generazione di cellulari.

La corsa ad ostacoli dell’economie all’idrogeno

L’idrogeno offre una fonte energetica pressoché inesauribile ed ecocompatibile. Le celle a combustibile
sono state sviluppate più di 150 anni fa, ma al principio erano troppo costose e ingombranti per essere
impiegate nelle automobili. La crisi energetica degli anni settanta determinò
una ripresa dello sviluppo delle celle a combustibile. Negli anni novanta case
come la Toyota e la Daimler-Benz avevano sviluppato progetti di automobili.
Numerosi sono stati però gli ostacoli posti lungo il cammino delle celle a
combustibile verso la diffusione nel mercato di massa. Il problema più grave
riguarda gli asset complementari come la rete di distribuzione. Mentre un
carburante liquido come la benzina è conservabile in quasi tutti i tipi di
contenitore, l’idrogeno si trova allo stato liquido solo in condizioni di alta
pressione e presenta una struttura molecolare particolare (svanirebbe se non
pressurizzato  contenitori appositi). Inoltre molte delle stazioni di servizio attuali sono di proprietà di
compagnie petrolifere. Occorre stanziare non solo massici investimenti in infrastrutture, ma anche risolvere
o superare gli interessi configgenti di numerosi stakeholder, fra cui governi nazionali, compagnie
petrolifere, imprese di public utilities, le case automobilistiche e naturalmente, i consumatori.
81
Musica libera

Musica libera era il titolo della lettera aperta pubblicata da Steve Jobs, il leader di Apple sul suo sito.
Mentre i mercati finanziari apprezzavano un modello di business che aveva consentito a Jobs di far
acquistare a Apple la leadership delle vendite di musica legale on-line e di
lettori, non tutte le legislazioni del mondo la gradivano per esempio, le
autorità francesi e norvegesi ritenevano di dover imporre l’interoperabilità
a Apple. Il motivo per cui il DRM era stato introdotto all’inizio
dell’avventura della musica on-line era semplice: la paura della pirateria, di
servizi come Napster avevano imposto al sistema, a Jobs e agli altri pioneri
l’introduzione di limitazioni sui file audio. Nonostante l’introduzione dei
DRM molti giovani continuavano a scaricare musica da internet
illegalmente. Recuperare fatturato per major, artisti significava andare alla
ricerca di nuove fonti di reddito: dalla pubblicità ai concerti; dal merchandising alle sponsorizzazioni. Se lo
scenario atteso corrispondeva a tale quadro, allora era preferibile abbattere le barriere alla circolazione
della musica on-line, eliminare il DRM e rendere interoperabili i sistemi di vendita e ascolto. In questo caso
forse Apple avrebbe perso quote di mercato, ma la grandezza della torta sarebbe cresciuta per tutti, in
assoluto sarebbe risultata maggiore. Nel mese di Aprile del 2007, Apple annunciava un accordo con EMI, in
base al quale la major rinunciava ai DRM in cambio di un prezzo superiore per consentrire ai clienti di
iTunes di acquistare brani musicali senza alcuna restrizione di utilizzo.

IBM e l’attacco ai cloni

Nel 1980 IBM si affrettava a introdurre il suo primo personal computer. IBM non sembrava preoccupata
degli imitatori perché la sua tecnologia proprietaria BIOS, il
codice che collegava l’hardware di un computer al suo
software, era protetto da copyright. In ogni caso aggirare il
copyright IBM si rivelò un operazione non così difficile. Il
copyright proteggeva la parte scritta del codice, ma non le
funzioni che questi codici svolgevano. Compaq per esempio, fu
in grado di riprogettare il codice BIOS nello spazio di pochi mesi
senza violare il copyright IBM. Compaq documentò ogni
funzione che il computer IBM svolgeva in risposta a un
determinato comando, senza registrare il codice che governava la funzione. Questa lista di funzioni fu
quindi trasferita a un gruppo di programmatori “vergini”, che erano in grado di dimostrare che non erano
mai entrati con il codice BIOS di IBM. Il risultato fu di un nuovo BIOS capace di emulare quello di IBM pur
senza violarne il copyright, ben presto seguirono una grande schiera di altri cloni.

I telefonini alla guerra dei brevetti

Research in Motion (blackberry) vs Motorola per la licenza della tecnologia Wi-Fi, Nokia vs Qualcomm per la
violazione dei brevetti sulla telefonia di terza generazione (vince
qualcomm per il chip CMDA), Research Foundation vs Nokia,
Samsung e Panasonic per violazione dei brevetti sulla tecnologia
Bluetooth. Concetto di cross-licensing. A perderci senza dubbio
erano i piccoli produttori di cellulari e alla fine qualcuno avrebbe
dovuto alzare bandiera bianca.

82
Brevetti all’asta

Nei settori high-tech, la protezione del capitale intellettuale attraverso i brevetti rappresentava un passo
necessario per capitalizzare gli sforzi di ricerca compiuti. Accanto a questa natura difensiva vi erano però
altre motivazioni, come il carattere offensivo che i brevetti potevano avere nei confronti dei concorrenti.
Nella prospettiva della domanda, esistevano simmetrici e speculari motivi di
interesse. Acquistare i brevetti permetteva di completare il portafoglio in aree
tecnologicamente molto ampie, accelerare i processi di sviluppo e di produzione
di nuova conoscenza, così come poter aggredire nuove nicchie di mercato dando
vita a nuove attività a partire da brevetti sviluppati da imprese che non
disponevano delle risorse necessarie per poter compiere i necessari
investimenti. In primo luogo l’elevata numerosità dei brevetti rendeva gli attori
“miopi”: era infatti impossibile rendersi “istantaneamente” conto di quanto
succedeva, sia per il tempo intercorrente tra l’atto di richiesta e quello di rilascio,
sia per la crescente numerosità – che avrebbe obbligato le imprese a
specializzare non poche risorse solo per rendersi conto di quanto accadeva; sia
per le difficoltà a valutare il reale valore dei brevetti. Una soluzione a questi problemi emergeva dai mercati
più avanzati dove erano nati intermediari o broker di brevetti. Il ruolo e la funzione di questi broker non
erano solo legati allo sfruttamento di rendite di posizione che derivavano dalla non conoscenza o non
raggiungibilità degli attori dell’offerta e della domanda. Il valore aggiunto dei broker dei brevetti dipendeva
piuttosto da conoscenze specifiche accumulate nel tempo e dall’abilità nel costruire progetti imprenditoriali
sia in modo trasversale (applicare una tecnologia al di fuori dell’ambito in cui era stata prodotta), sia
inserendoli, in modo innovativo, nelle catene del valore dei potenziali acquirenti. Ocean tomo la prima
merchant bank specializzata nella valutazione e vendita all’asta di marchi e brevetti, patenti, processi unici
e nomi a dominio. La società era un ibrido ben riuscito di strategie di vendita anche e moderne, un ebay
della proprietà intellettuale con alcuni correttivi, come quello di operare sul web in via non esclusiva. Il
potenziale cliente poteva inoltrare subito la sua proposta d’acquisto: se veniva superato il prezzo di riserva
e l’offerta era accettata dal titolare del brevetto la transazione si concludeva direttamente on-line, in caso
contrario si poteva giocare al rialzo dal vivo. Il modello di business si Intellectual Ventures nel mercato
delle tecnologie trattava come “merce l’ingegno umano a pari di immobili o azioni. Se scaturiva una
soluzione originale per esemppio l’idea di un materiale composito o una tecnica innovativa per trattare un
aneurisma, interveniva la task force di Intellectual Ventures, compreso uno staff di avvocati esperti in tutela
della proprietà intellettuale, per razionalizzare il flusso di idee solo abbozzate. La finalità non era la
produzione delle invenzioni, ma la cessione a terzi con la relativa riscossione dei canoni di licenza. Patent
troll, compagnie che vivevano esclusivamente sulle cause legali acquistando brevetti, magari da un
fallimento, e poi intentando causa a un’azienda terza sostenendo che un suo prodotto ne violava il
brevetto.

Android e l’open source per i telefonini

Android, così google aveva chiamato una piattaforma software basata sull’open source per i telefonini di
nuova generazione. Android nelle sue intenzioni, era destinato a diventare il sistema
operativo dominante dei telefoni cellulari intelligenti del futuro. L’approccio
formulato da google era all’insegna di un modello di open strategy: accando a
Google comparivano 33 partner che rendevano l’operazione denominata Open
Handset Alliance. Google aveva anche deciso di premiare con 10 milioni di dollari le

83
migliori applicazioni per il mobile, per stimolare gli sviluppatori a impegnarsi per lo sviluppo della
piattaforma aperta. L’idea è di una piattaforma disponibile per molti tipi di cellulare non per uno specifico
modello. La presenza di partner inconsueti nell’alleanza, come ebay, l’operatore di telefonia cinese China
Mobile e Intel, lasciavano immaginare che lo sforzo di Google per dominare il mercato dei sistemi operativi
di telefonia mobile sarebbe stato deciso. La frammentazione del mercato ha portato le aziende produttrici,
per giuste ragioni commerciali, a sviluppare il proprio software individuale e protetto. Ma questo approccio
ha fatto sprecare una notevole mole di lavoro per assicurare che i differenti sistemi lavorassero assieme.
Questa mancanza di software condiviso ha anche scoraggiato i business esterni all’industria del mobile per
trovare nuove soluzioni che potessero allargare il potenziale dei telefoni cellulari. In breve si sono
aumentati i costi bloccando l’innovazione. La Open Handset alliance condivide l’obiettivo di abbassamento
dei costi di sviluppo e di promozione di apparecchi e servizi mobili.

Sun Microsystem e il linguaggio Java

Fin dal principio Sun aveva basato le sue strategie sulla convinzione che la potenza di un computer
risiedesse non tanto nella singola macchina, quanto alla rete a cui era collegato. Sun cominciò a produrre
workstation e server dotati delle maggiori capacità di comunicazione a rete consentite dalle tecnologie
dell’epoca, preferendo conformarsi agli standard condivisi piuttosto che introdurre nuove tecnologie
proprietarie, così da garantire la massima compatibilità dei propri prodotti con
quelli di altre imprese. Nel 1995 introduce il linguaggio di programmazione Java
con l’intento di modificare l’intero settore dell’informatica. Le applicazioni
sviluppate in Java erano compatibili con qualunque hardware addirittura su pda
e cellulari. Nelle previsioni di Sun, Java avrebbe allontanato le pressioni che
spingevano per l’adozione di un unico sistema operativo (ridimensionando
Windows). Sun richiedeva una modesta fee agli sviluppatori e limitava i licensee
nell’adottare modifiche allo standard. Tuttavia alla fine del 1998 la forte
diffusione di Java scaturì perplessità in molte imprese che ritenevano che Java era troppo grande e che
quindi Sun stava perdendo il controllo e la soluzione migliore proposta dai leader di settore era la cessione
di Java a un organismo indipendente. L’amministratore delegato di Sun aveva paura che cedendo Java si
sarebbe ricaduti nell’errore fatto con Unix (molte imprese adottarono Unix, lo personalizzavano e il
risultato fu una serie di versioni incompatibili tra loro con conseguente frammentazione dello standard). A
seguito delle forti pressioni esercitate dal settore Sun aveva ridotto le barriere d’accesso a Java, non
richiedendo più royalty ma i software elaborati in Java dovevano comunque essere sottoposti a test di
compatibilità dello standar da una sua organizzazione (la JCP) in quanto ancora detentrice dello standard.
Sun riteneva che consentendone a operatori esterni di prendere parte alla JCP, avrebbe soddisfatto le
esigenze di standardizzazione espresse sul mercato senza però rinunciare al controllo finale sul sistema.

Xerox e il paradosso di Icaro

Il noto paradosso di icaro, secondo cui i campi di eccellenza alla fine si rivelano
una causa di rovina. Il successo può generare difatti eccessiva fiducia in se stessi,
trascuratezza e un adesione incondizionata al modo tradizionale di svolgere i
propri compiti. Per es. negli sessanta-settanta Xerox dominava talmente tanto il
mercato delle fotocopiatrici che non si accorse che nuovi concorrenti Giapponesi
si stavano insinuando nel mercato con macchine di minori dimensioni vendute a
un prezzo inferiore. Alla metà degli anni settanta Xerox perdeva quote di mercato a vantaggio delle imprese
giapponesi a un ritmo impressionante. Fu solo quando Canon introdusse una fotocopiatrice a prezzo
84
inferiore ai costi di produzione di Xerox che l’impresa americana comprese di trovarsi in pericolo e decise di
impegnarsi in un radicale processo di turnaround.

Il cambiamento organizzativo in 3M

1916 venivano incoraggiati i processi di innovazione combinando obiettivi ambiziosi fissati per lo sviluppo di
nuovi prodotti, da un lato, e un’ampia libertà concessa con cui tali obiettivi potevano essere perseguiti
(Culttura dell’imprenditorialità individuale). Laboratorio centralizzato di R&D
ma ogni divisione perseguiva le proprie iniziative di sviluppo in risposta alle
sfide del mercato. 1944 ciascuna divisione indipendente, decentralizzazione
dell’R&D. 1980 proliferazione di divisioni e di aree di business indipendenti
provocarono una dispersione degli sforzi di sviluppo con attività ridondanti,
allora si passa da 42 a 10 divisioni (raggruppamento in base alla correlazione tecnologica delle business
unit), centralizzazione dell’R&D strutturandolo su 3 livelli e meccanismi più formali di pianficazione per il
processo di sviluppo. 1986 ancora più disciplina viene inserita nell’organizzazione e viene introdotto il
concetto di lavoro in team piuttosto che incoraggiare lo sviluppo imprenditoriale, questo provoca presto
malumori perché giudicata una scelta troppo radicale rispetto alla cultura aziendale con conseguente
demotivazione del personale. Nel 1991 si riconosce che l’organizzazione ha bisogno di trovare un suo
equilibrio in grado di dar spazio alla creatività (lasciar buchi per far salire l’innovazione dal basso verso
l’alto) ma non disperdere gli sforzi di sviluppo (i livelli piu bassi devono confidare nel vertice aziendale
quando interviene) .

Apprendere e trasferire conoscenza in un impresa internazionale: il caso STM

STMicroelectronics azienda franco-italiana, operava nel settore dei chip, settore considerato da molti
inarrivabile perché in mano da Stati Uniti, Giappone e paesi del pacifico.
Inoltre in europa vi erano pochi clienti con esigenze all’avanguardia. Inoltre
molte delle più importanti tecnologie che le occorrevano per diventare
competitiva erano disperse nelle sue consociate periferiche e in punti caldi
globali di tecnologie innovative nei semiconduttori e di competenze
manifatturiere, dislocate in giro per il mondo. l’idea innovativa di ST era di
mettere insieme conoscenze e competenze specialistiche per progettare
un unico circuito integrato in grado di effettuare tutte le funzioni di un circuito stampato. (i principali
competitor progettavano e producevano in impianti specifici i componenti e poi assemblavano). Ma come
ha fatto ST a percepire, mobilitare e rendere operativi i tipi di conoscenza di cui necessitava per vincere il
gioco nel mercato globale dei semiconduttori? Essa ha posto al centro delle sue attività la capacità di
apprendimento dal mondo intero. A cambiato il concetto di consociata (dalle altre viste quasi come
imprese autonome) da ST viste con un ruolo chiave: la consociata in Silicon valley ad esempio, oltre a
gestire centri di progettazione, laboratori di prototipizzazione, unità di business e uffici commerciali a
Silicon Valley, lo staff locale aveva il ruolo chiave di mantenere stretti i contatti con i centri di ricerca e le
università presenti sul territorio. Ciascuna unità era stata progettata per creare un legame tra la
conoscenza specialistica contenuta all’interno di particolari unità organizzative dei clienti e il personale di
ST, che avrebbe potuto utilizzarla nell’ambito dei processi di sviluppo e produzione di un sistema su un
unico chip. L’obiettivo di questi team globali erano la condivisione e la mobilitazione di conoscenza
complessa tra ST e i propri clienti. ST ha quindi creato un organizzazione dedicata il cui compito è
identificare la conoscenza specialistica presente in tutto il mondo e integrarla con le tecnologie e il know-
how disperso all’interno di ST, in modo da attrarre grazie a soluzioni innovative, i più importanti clienti. ST è
85
riuscita a raccogliere in tutto il mondo. Percependo e , quindi, mobilitando nicchie inesplorate di
conoscenza, ST ha creato una potenziale e significativa fonte di vantaggio competitivo difficilmente
imitabile dai propri concorrenti.

INNOVAZIONI IN ITALIA
La tartaruga e le lepri

La capacità d’innovazione dell’italia appare sempre più inadeguata nell’economia della globalità,
soprattutto quando si confrontano le performance dei sistemi innovativi dei paesi avanzati. L’italia è
inserita nel cluster dei paesi che stanno perdendo terreno in R&D (falling behind) mentre paesi come Cina,
Russia, Spagna, Argentina etcc.. risulta che hanno intensificato negli ultimi anni gli sforzi nel settore
dell’innovazione (Catching up). In Italia il contributo del settore privato al finanziamento dell’R&D non
supera il 43%, mentre il traguardo prefissato dalle politiche comunitarie per l’innovazione dicono che i 2/3
delle spese in R&D dovrebbe essere finanziate dal privato. Fra le ragioni del divario italiano, sono da
ricordare soprattutto la predominanza di micro e piccole imprese nel sistema industriale (il 98% ha meno di
50 dipendenti) e la specializzazione in settori tradizionali a bassa intensità tecnologica, dove sovente
l’innovazione avviene senza strutture e risorse dedicate alla ricerca e in realtà sfugge all’analisi statistica.

Il distretto del biotech a Milano

Lo sviluppo del settore biotech è stato favorito dalla crescita di cluster tecnologici dedicati, aree
geografiche in cui si concentrano imprese, università, centri di ricerca. Questi distretti si autoalimentano
grazie alla nascita ininterrotta di Dedicated Biotech Firm, aziende che hanno l’obiettivo di convertire i
risultati della ricerca in innovazione da trasferire al mercato. Le imprese italiane sono impegnate
soprattutto nella ricerca medica con 162 imprese. Otto parchi scientifici e tecnologici dedicati al Biotech:
Area Science Park (Trieste), Bioindustry Park Canavese (TO), Insubrias Park (Varese), parco scientifico e
tecnologico della sicilia (Catania), Sardegna ricerca (Cagliari), Science park Raf (Milano), Toscana life science
foundation (Siena), Parco tecnologico padano (Lodi). In particolare il 34% delle imprese biotech è in
lombardia soprattutto nell’area di Milano: concentrazione favorita dal grado di eccellenza raggiunto dalla
ricerca di base nel campo della medicina e della biologia molecolare e della sperimentazione clinica. Hanno
sede in lombardia le sei biotech quotate in borsa: Nicox, Gentium, etc.. le risorse finanziarie necessarie allo
sviluppo delle imprese sono state reperite in parte grazie all’intervento di venture capitalist internazionali,
in parte grazie al finanziamento pubblico (soprattutto quello del ministero dell’Università e della ricerca). La
maggior parte delle imprese del cluster si occupa dello sviluppo di prodotti terapeutici. Lo sviluppo di
cluster nel biotech rendono indispensabile la compresenza di fattori di natura industriale e istituzionale: la
presenza di imprese farmaceutiche, di università centri e strutture di ricerca orientati allo sviluppo di nuove
imprese e al trasferimento tecnologico, di parchi scientifici e tecnologici, di incubatori, di strutture sanitarie
di eccellenza nella ricerca clinica, di investitori nazionali e esteri.

Lo sbarco di iPhone in Italia

Nel maggio 2008 Telecom e Vodafone annunciavano


l’accordo con Apple per il lancio in Italia di iPhone. iPhone si
affacciava in Italia con un modello di terza generazione,
migliorato nelle prestazioni di trasmissione dati. Le domande
erano chiare, i competitors si domandavano che effetto
avrebbe avuto iPhone nel mercato italiano? Il prezzo di lancio
86
che negli states oscillava tra i 400 e i 500 dollari sembrava eccessivo per molti analisti viste le prestazioni
del gps, batteria e della fotocamera. Inoltre Nokia aveva potuto osservare l’Iphone negli states e prepararsi
al contrattacco sul mercato italiano. Anche se l’impatto sarebbe stato lieve e le previsioni di mercato non
erano incoraggianti, la sua influenza sulle tendenze di lungo periodo poteva essere di grande significato. Il
salto tecnologico di Apple sembrava essere nell’aver combinato un set di funzioni in un design sottile e
attraente con un’interfaccia intuitiva touchscreen. L’avvento di iPhone è stato visto quindi come una chiara
minaccia da parte dei competitors, Nokia per esempio decise per operare una ristrutturazione
organizzativa, dedicano una business unit ad-hoc per il segmento mobile, nonché di accelerare l’ingresso
nel mercato delle piattaforme di contenuti musicali. Apple puntava sull’integrazione di Internet, computer,
telefonini mentre nokia intendeva rafforzare la sua strategia di integrazione tra mobilità e internet
puntando decisamente sull’intrattenimento musicale. Nokia con il suo Music Store puntava a sfidare
iPhone-iTunes ma Apple snel maggio del 2008 stava raggiungendo un accordo con le major
cinematografiche per offrire film su iTunes e quale migliore telefono se non un telefono piatto, ampio e con
16 giga di memoria??iPhone.

La catena del valore diffusa: il caso del distretto di Montebelluna

Il distretto di Montebelluna, racchiuso fra le montagne del Bellunese e la pianura trevigiana (vicino Venezia)
è ormai da tempo il centro mondiale della calzatura sportiva, un nodo strategico nelle reti internazionali di
produzione di abbigliamento outdoor e di attrezzature per lo sport e il
tempo libero. È un area di 300 km quadrati comprendente 15 comuni. A
Montebelluna si concentra la maggior parte dei marchi più prestigiosi delle
scarpe sportive. 1872 molti calzolai nel territorio, 1908 una famiglia su otto
produceva scarpe, prima guerra mondiale scontri su dolomiti i laboratori
producevano scarpe chiodate. 1964-1965 avvento dei materiali sintetici
(dal cuoio alla plastica), non è più un lavoro artigianale ma diventa
industriale. Nei primi anni settanta decentramento delle fasi produttive più semplici e a più alta densità di
manodopera delle imprese di maggiori dimensioni a quelle più piccole che, a loro volta, si avvalsero sempre
più della collaborazione di laboratori artigianali, contribuendo alla diffusione di singole specializzazioni e
realizzando in tal modo quelle “economie esterne” proprie di un distretto industriale. Il distretto di
Montebelluna è organizzato attorno a un nucleo di competenze molto specializzate, al centro delle quali
risalta la produzione dello scarpone da sci, ma al tempo stesso detiene una base di conoscenze condivise
che negli anni si è estesa alla scarpa sportiva, ai pattini in linea, alle scarpe da trekking “urbano” e per il
tempo libero e, ormai con decisione, allo sport system. Le competenze radicate hanno attratto grandi
player come Nike, Adida, Fila etc.. che hanno deciso di stabilire nel distretto propri punti di osservazione e
piattaforme per la creazione e lo sviluppo di nuovi prodotti. “è un continuum di produzioni, di iniziative che
nascono una dall’altra, si frantumano in tanti torrentelli che confluiscono nell’alveo di quel fiume. Le fasi di
progettazione, stampaggio dello scafo e montaggio finale dello scarpone vengono realizzate all’interno
dell’impresa capofila che si occupa della vendita e distribuzione del prodotto. Accanto alla filiera principale
si snodano, il ciclo dei materiali (es. granulati plastici, i materiali sintetici…), il ciclo degli stampi, il ciclo dei
componenti, fino alla catena logistica che svolge un ruolo strategico, fornendo da un lato un’infrastruttura
di comunicazione fra attività decentrate e, dall’altro lato, un sostegno fondamentale all’apertura delle
imprese distrettuali verso i mercati internazionali. Negli anni si sta mantenendo nell’area di Montebelluna i
segmenti del processo più sofisticati si beneficia delle competenze superiori, dislocando in una mappa
sempre più ampia le attività di produzione.

87
Quando la collaborazione fra università e impresa regalò un nobel

Quarant’anni fa veniva assegnato a Giulio Natta il Nobel per la chimica per la scoperta del polipropilene,
quel nobel non era solo un onore per il chimico italiano, ma celebrava un modello di alleanze fra università
e impresa, fra il Politecnico di Milano e Montecatini, che risultò decisivo
per la conquista del prestigioso premio (316 brevetti industriali legati alla
scoperta di Natta). Giulio Natta era già un chimico affermato che aveva
studiato al politecnico di Milano e stava lavorando per la Montecatini (la
maggior impresa chimica italiana dell’epoca). Nell’immediato dopoguerra,
avvenne l’incontro decisivo fra Natta e Pietro Giustiniani, un manager di
Montecatini. I due fecero un viaggio negli stati uniti per constatare da
vicino sia il livello tecnico dell’industria chimica americana sia gli orientamenti del management. Entrambi
furono colpiti da due fatti che non trovavano riscontro in Europa: le strutture di ricerca industriale
impiegavano migliaia di ricercatori, e la produzione aveva in gran parte abbandonato il carbone come
materia prima, per orientarsi verso la petrolchimica, ora che gli idrocarburi erano disponibili in enormi
quantità, al ritorno dal viaggio, Giustiniani strinse con Natta un accordo di collaborazione strategica, con cui
metteva a disposizione del grande chimico industriale uomini e mezzi adeguati per stabilire al politecnico di
Milano un centro di ricerca avanzata. Natta e Montecatini erano interessati alla gomma sintetica più che ad
altri materiali plastici, così il propilene fu il monomero scelto per le ricerche “esplorative” da condurre a
Milano. Nel marzo 1954, da un esperimento fortunato e per certi aspetti casuale, si ricavò una polvere
bianca, cristallina e con un alto punto di fusione: un nuovo polimero con una proprietà straordinaria,
poiché tutti gli atomi di carbonio della catena avevano una configurazione regolare. Il successo di natta fu
reso possibile dall’unione di due forze complementari. Da una parte vi era stata la disponibilità
dell’impresa, e dall’altra il chimico ha dimostrato di essere in grado di organizzare la ricerca con ricercatori
validi e strumenti di avanguardia. La sinergia fra mondo accademico e mondo economico, così insolita nel
panorama italiano, e la decennale esperienza di Natta come chimico industriale fecero sì che alla scoperta
dei polimeri seguisse un trionfo scientifico ed economico impressionante.

Un paese che non brevetta

La letteratura ha identificato una significativa correlazione positiva fra l’ammontare delle spese per la R&D
e il numero di brevetti. Se si confrontano i dati sui brevetti dei principali paesi industrializzati, emerge con
chiarezza il ritardo del sistema italiano e il basso grado di fiducia delle
imprese italiane verso ritorni economici derivanti dallo sfruttamento
commerciale di un’innovazione brevettata. Perché lo sfruttamento del
brevetto è così poco diffuso nelle imprese italiane, benché sia in grado
di rafforzarne il potere di mercato e di proteggerne il vantaggio
competitivo? Secondo le analisi dell’Osservatorio sui brevetti del
Politecnico di Milano, le motivazioni sono riconducibili sia alle
specificità del sistema industriale italiano, con il limite delle dimensioni
d’impresa, sia alla poca valutazione dello strumento da parte del
management aziendale. In particolare sono da considerare: la scarsa
innovatività del sistema italiano, il costo del brevetto (costo brevettazione/speseR&D = alto), la scarsa
valutazione sulle opportunità di business del brevetto (non visto come un asset per predisporre una
strategia innovativa ma visto come uno strumento per intentare cause), la difficile protezione legale
(intentare causa per violazione di brevetto in Italia è difficile e costoso).

88
Tutela d’autore per il design

Alla fine del 2006, il design d’autore trovava protezione anche in Italia, quando il tribunale di Milano, su
ricorso della società Vitra Patente AG riconoscva, con una pronuncia attesa da molti anni, alla sedia
Phanton la qualifica di opera tutelata dal diritto d’autore. Il caso
riguardava l’importazione dalla cina di sedie praticamente
identiche. A Phanton Chair doveva essere riconosciuto quel
“valore artistico” richiesto dalla legge sul diritto d’autore per la
protezione delle opere di design. Prima dell’entrata in vigore del
decreto legislativo 95/01, al design veniva riconosciuta tutela
giuridica solo se oggetto di registrazione brevettuale, ovvero,
alternativamente, come opera protetta dal diritto d’autore
purchè il suo valore artistico fosse scindibile dal carattere
industriale del prodotto. Un ipotesi quasi impossibile per definizione da realizzarsi, secondo la
giurisprudenza. Nel caso della Phantom Chair, la circostanza che molti musei d’arte contemporanea la
includevano nelle loro collezioni, confermava per il tribunale che tale opera possedeva un significato e un
valore capaci di catturare un interesse oggettivamente esteso anche a un pubblico più ampio dei soli
consumatori di design. La decisione del Tribunale costituiva un notevole passo avanti, accordando almeno
alle opere di design più famose una tutela adeguata.

89
CASO ICI FILI
- Compagnia di medie dimensioni con più di 25M$ di vendite
- Leader nella produzione di gelati in Russia
- Ha resistito più a lungo di compagnie più titolate e conosciute, quali Ben&Jerry’s e Unilever
- Non solo è riuscita a passare dal sistema sovietico a quello capitalistico (con l’apertura del mercato
nel 92), ma ha navigato con successo nella crisi economica del 98
- Ici Fili stava combattendo per mantenere sua quota di mercato in un ambiente sempre più
competitivo
- Nestlè, che faceva pesante promozione, era il maggior competitor
- Competizione principale nel mercato già saturo dei chioschi
- Hagendaz e Baskins&Robbins si differenziano come gelati premium tramite ristoranti in franchising
- Dall’altro lato della spettro della competizione, produttori locali con costi di produzione minori
rispetto ad ICI FILI e ai produttori con base a Moscasi stanno facendo strada nelle metropoli
- Diverse domande si pone il CEO:
- Può mantenere il suo dominio su Nestlè?
- Deve investire nella sua catena di caffè per trovare nuove strade per i suoi prodotti gelato?
- Come può competere con produttori locali senza incorrere in guerra di prezzo
- Come può attrarre talenti necessari per lavorare in un’economia di mercato competitivo?

CONSUMO DI GELATO IN RUSSIA

- Picco di consumi in Russia durante l’estate, con forte stagionalità


- Consumo medio nel 2001 di 2,5kg pro capita contro i 16/17 medi dei paesi occidentali (USA,
Francia…)
- Gelato considerato come snack economico da consumare on the go, acquistati principalmente
presso chioschi per strada o gastronomie
- Produttori russi hanno fatto poco per posizionare il gelato come consumo di famiglia, essendo
soddisfatti del consumo spontaneo, ma i russi non lo hanno mai preso in considerazione come
dessert, quando 1/3 dei consumatori USA lo consumano a casa
- Gelato russo più grasso, contiene solo ingredienti naturali e non contiene conservanti
- Produttori di birra, barrette, bibite spendono generalmente molto di più in pubblicità che i
produttori di gelati
- Nel 2000, produzione di gelato giù del 3,5% e di birra e bibite su di circa il 24%

SFIDE RUSSE

- Fine ’80 Gorbaciov ordinato riqualificazione di 25 stabilimenti per la produzione di alcool che
portano a un aumento della capacità produttiva di gelato fino a 75 stabilimenti

APERTURA DEL MERCATO

- Dal 91 con dissoluzione dell’Unione Sovietica , apertura del mercato che ha incoraggiato imprese
libere e competizione attraverso la privatizzazione e la liberalizzazione di prezzo
- Come conseguenza drammatica flessione nella produzione di gelato e entrata di competitor
stranieri

90
- Con l’apertura del mercato produttori russi hanno dovuto investire pesantemente per aggiornare le
tecnologie produttive, modernizzare le infrastrutture, sviluppare migliori soluzioni di marketing e di
packaging, sviluppare la rete di distributori e rivenditori e creare un nuovo canale distributivo (cosa
che prima faceva tutto il pianificatore sovietico)
- Con la crisi del 98 riduzione drastica delle importazioni da parte dei produttori stranieri che non
potevano supportare spese per prodotti importati
- Nestlè (che aveva già impianti) spinge sulla produzione locale piuttosto che sull’importazione
- Durante crisi diminuizione delle importazioni di gelato e inizio delle esportazioni

ICI FILI

- Privatizzata nel 92
- Subito processo di ristrutturazione per poter competere all’interno dell’ambiente competitivo
- Cosa più importante da cambiare era la psicologia in ICI FILI

PRODOTTI

- Tipicamente prodotto un numero piccolo di gelati, in porzioni singole come snack e disegnati per
essere venduti nei frighi dei chioschi
- Produttori russi solo 240 gelati
- Nel 2002 ICI FILI 170 tipi di gelato e ogni anno ne aggiunge 20
- Gelato flagship di IF consisteva in più del 30% delle vendite, ma non essendo brevettabile (a causa
della legge russa) nel giro di 2 anni altri 5 produttori lo producevano
- Gelati ICI Fili prezzati a livello medio
- Nestlè pone qualche gelato al livello premium
- Produttori locali a livello low end
- Dal 2002 maggiore importanza al gelato in scatola
- Per sfruttare overcapacità intermittente e ridurre stagionalità risettano stabilimenti producendo
prodotti simili (ICI FILI produce mayonesecibo contenente grassi)

PRODUZIONE

- Domanda stagionale con fortissima variabilità


- Gelato in russia sottoposto a tasse perché considerato di lusso

MATERIE PRIME

- ICI Fili orgogliosa di utilizzare esclusivamente ingredienti naturali


- Produttori stranieri (Nestlè compreso) usa conservanti chimici
- Importavano nei primi anni 90 più del 50% di materie prime da fuori, non potendo fare affidamento
su qualità e quantità dei fornitori locali
- Dal 98 maggiore affidamento su fornitori locali (solo il burro di ICI FILI veniva importato dalla Nuova
Zelanda per avere l’82% di grasso)

TECNOLOGIA E MACCHINARI

- Dal 92 si sono dovute modernizzare le macchine importandole principalmente da Danimarca e USA


- Nel 99, il 90% dei macchinari usati dai russi erano importati
- Macchinario per freezing e packaging altamente specializzato
91
- Fornitori locali si stavano sviluppando, riconvertendo anche vecchi macchinari militari

DISTRIBUZIONE

- 5 canali distributivi:
- Chioschicanale più grande, fornivano poca scelta di gelati. Posizionamento capillare
spingeva all’acquisto d’impulso. Molti competitori locali lottano per le quote attraversoi
chisochi
- Minimarket: sempre acquisto d’impulso, situati in zone strategiche dove vi transita molto
traffico (come convinience store in USA).
- Gastronomie
- Supermarket
- Ristoranti, dominati dai produttori stranieri
- Ici fili 80% tra chioschi e minimarket
- Ici Fili si affida anche ai servizi di dozzine di altri piccoli compagnie di distribuzione come Service-Fili,
un compagnia affiliata ma indipendente di distribuzione responsabile della spedizione di circa il
15% dei prodotti alle gastronomie e ai minimarket. Service-fili ha i suoi furgoni con il marchio ICI
FILI
- In aggiunti si affida a compagnie come Alter-West che distribuiscono ai magazzini regionaligelati
solo il 10% del loro volume distributivo
- Tradizionalmente Ici Fili non ha mai partecipato alla distribuzione, a causa degli investimenti
pesanti necessari

MARKETING

- Apertura del mercato ha offerto opportunità per produttori stranieri di far leva sulla loro
esperienza di marketing per accrescere il valore del loro brand in Russia
- Vecchi manager russi pensavano che il successo veniva da solostabilimenti spesso fermi per
mancanza di domanda
- I primi ADS di Ici Fili a malapena menzionavano il nome del produttore
- Solo recentemente ha iniziato a sviluppare strategie di marketing, specialmente su come centrare il
prodotto all’appropriato gruppo di consumatori

ORGANIZZAZIONE CORPORATE E CULTURA

- Miglioramento dell’efficienza organizzativa


- Accordo con Alter-West che porta ad un allineamento degli obiettivi
- Cerca di assumere nuovi manager giovani che abbiano esperienza e capacità in un mercato aperto
- Per il futuro si pensa a un piano che richiede 50M$ per la diversificazione su scala geografica e
prevede lo sfruttamento di eventuali cash cow, come la produzione di ghiaccio per le bibite
- In Ici fili non erano però convinti nel lanciare prodotti in occidente, perché ancora troppo diversi

COMPETITORI

- Competizione fra produttori locali, russi e stranieri sempre più alta e col passare degli anni mercato
sempre meno concentrato
- Ici fili rimane competitor principale
92
- Produttori con base a Mosca si uniscono in un’associazione per avere un pool di risorse e
aumentare la domanda di gelato
- Uno degli obiettivi principali dell’associazione era di spingere al consumo di gelato in generale,
senza riferimenti a una marca in particolare

PRODUTTORI REGIONALI

- Considerati la più grande minaccia per mercato dei gelati per i produttori con base a Mosca
- Hanno vantaggi di costo, derivanti specialmente dal costo del lavoro inferiore
- Nonostante la poca varietà di prodotti, contano per il 30% delle vendite
- L’esplosione si spiega con la converiosne dei magazzini di cibo congelato a produttori di
gelatoaumenta capacità produttiva del 30%
- Molto più flessibili, spinti dal desiderio di incrementare la loro quota di mercato
- Dal 2002 pochi produttori regionali hanno mostrato una strategia di crescita particolarmente
aggressiva, non solo nei loro mercati, ma anche in quello di Mosca

COMPAGNIE STRANIERE

- Dopo la crisi, o hanno abbandonato il mercato o sono diventate completamente capaci di produrre
attraverso fgli stabilimenti della produzione regionale
- NESTLE’: entra nel mercato russo nel 19° secolo, vendendo cioccolato
- Ha iniziato a investire pesantemente nella produzione locale per trovare cibi e bevande che
incontrassero i gusti e la tradizione dei russi
- Usa prodotti locali
- Avendo investito per primo ha sviluppato strutture di stoccaggio e distribuzione
indipendenti e reti di marketing, che includeva chioschi e frighi con il logo
- Il suo successo è dovuto a bassi costi di produzione con componenti locali
- Pesanti investimenti sia per modernizzare ed espandere entrambi gli stabilimenti acquisiti,
sia per sviluppare le loro infrastrutture e attrezzature per assicurare che raggiungano gli
standard internazionali di Nestlè
- Molti dei Brand erano stati sviluppati specialmente per il mercato russo
- Come risultato i produttori locali temono Nestlè

SOLUZIONE ICI-FILI

Il primo passo è chiedersi sempre come sono fatti i costi (da che voci sono composti).

In questo caso i retailer sembrano avere molto potere.

Applicando il modello delle 5 forze di Porter è possibile ricavare la seguente analisi.

Analisi rivalità interna

Il mercato è poco concentrato. Ci sono molti competitors, ma quelli effettivamente pericolosi sono pochi
(Nestlè in primis). Inoltre, Nestlè è abituata a competere in mercati capitalisti, mentre Ici-Fili è da poco
entrata in questo tipo di competizioni e quindi è inesperta. Infine, essendo Nestlè una multinazionale, ha la

93
possibilità di coprire le perdite sul mercato russo con i proventi del resto dell'azienda, praticando così
politiche di prezzo aggressive.

Barriere all'entrata

Restrizione input : no, le materie prime sono facilmente reperibili.

Restrizione tecnologica : no, c'è possibilità di riconvertire grandi impianti (soprattutto bellici) senza costi
eccessivi, quindi l'entrata nel mercato non è ristretta.

Restrizione legislativa : no, il governo non crea problemi.

Restrizione distributiva : no, in generale non è ristretta.

Il settore è afflitto da sovracapacità, mitigata però dalla possibilità di utilizzare gli impianti anche in periodi
anticiclici per prodotti quali carne e simili durante i periodi freddi.

Il settore è anche contraddistinto da omogeneità dei prodotti (i consumatori li percepiscono senza


differenze) e questo accresce la rivalità interna.

Ici-Fili inoltre non ha brand identity (al contrario di Nestlè).

Prodotti sostituti

Precisazione : per prodotto sostituto si intende un prodotto che abbia un simile tipo di consumo. I gelati
sono prodotti dal consumo impulsivo (non pianifico l'acquisto di un gelato se non in rari casi, la maggior
parte delle volte viene voglia e lo si acquista).

Nel caso Ici-Fili, i prodotti sostituti possono essere i soft-drink e gli snacks, e sono abbastanza minacciosi
come avversari.

Strategie possibili :

 Advertising : facendo pubblicità porti all'attenzione il tuo prodotto e lo rendi riconoscibile


 Posizionamento : il gelato è un bene need-based. Se riesco a cambiare tipologia di consumo (per
esempio producendo gelato in vaschetta da consumare a casa) elimino certi competitors
 Lobby o campagne pro salute : cerco tramite azioni governative e campagne sanitarie di eliminare i
prodotti sostituti (mangia un gelato al posto che bere wodka)

Potere dei consumatori

I consumatori per Ici-Fili sono i retailer (il livello più basso, perchè i distributori si limitano ad aggreagare la
domanda dei chioschi/negozi per riportarla ai produttori).

Hanno buon potere perchè :

 Brand identity : in genere i retailer acquistano prodotti dal brand noto perchè sanno che li
rivenderanno facilmente. Nel caso di Ici-Fili e dell'industria gelatiera più in generale, non vi è una
brand identity (più che altro non vi è ancora) e tantomento si parla di tutela della proprietà
intellettuale (e quindi alcuni tipi di gelato creati da Ici-Fili sono stati copiati da aziende rivali)
94
 Sensibilità al prezzo : i consumatori sono molto sensibili, data l'indifferenziazione dei prodotti e le
scarse condizioni economiche del momento
Una strategia per ridurre questo potere, oltre all'utilizzare la pubblicità, è quella di eseguire operazioni di
integrazione verticale, aprendo personalmente retailer o stipulando contratti di fornitura esclusiva.

Più in generale, investire in sovracapacità può essere un messaggio agli altri competitors della volontà e
possibilità di esercitare guerre di prezzo.

Potere dei fornitori

I fornitori hanno poco potere in quanto la complessità informativa dei prodotti di base è bassa. Per
complessità informativa si intende ad esempio la quantità e la codificabilità delle informazioni necessarie
ad ordinare. Nell'industria gelatiera queste informazioni sono relativamente semplici.

Commento finale

La strategia di Ici-Fili non è fit.

I gelati sono prodotti utilizzando ingredienti naturali, ma questo aspetto non viene percepito dai
consumatori sia per mancanza di notifica, sia per mancanza di brand identity.

Inoltre, il posizionamento dell'azienda non è coerente, in quanto proprio per le caratteristiche del prodotto
citate in precedenza, il tipo di consumo non è appropriato. Difatti il consumo impulsivo non tiene conto di
questi fattori.

Come strategia sarebbe opportuno:

 promuovere una campagna per aumentare la brand awareness e per la certificazione della qualità
 ridurre il numero di prodotti commercializzati
 brevettare i prodotti di maggior successo
 valutare se possibile una strategia di integrazione verticale
 se troppo costosa/incerta cambiare posizionamento del prodotto

95
IDEO
Ideo deve progettare sia Palm V che il Visor di prodotti concorrenti. Boyle non sa se accettare/declinare o
chiedere più tempo Boyle ha paura che se taglia fasi del processo per risparmiare tempo rischia di non fare
un prodotto buono. Boyle è indeciso perché da un lato ha un prodotto non buono dall’altro ha una sfida
che potrebbe far evolvere l’azienda a progettare meglio (dynamic capabilities).

E' opportuno rischiare ed accettare il lavoro per migliorare ulteriormente il rendimento della società (a
livello di competenze), oppure è meglio non rischiare per evitare un fallimento dovuto all'uscita dalle core
competences (fallimento di immagine più che altro)?

Le core competences in questo caso si trasformano in core rigidities, ovvero le competenze acquisite
rendono rigida la struttura dell'azienda che rischia di non essere all'altezza del compito se esce dai binari
tracciati dall'esperienza.

Ideo si basa molto sulla comunicazione interna deformalizzata per la progressione dei progetti.

In questo caso però viene richiesto un protocollo di segretezza all'interno della stessa azienda, volendo
ridurre inoltre i tempi di sviluppo del prodotto (andando contro le politiche utilizzate normalmente).

Possibilità

Richiesta di più tempo per svolgere il progetto :

Pro :

 Visor è una piattaforma, pertanto deve essere sviluppato bene


 E' importante spendere molto tempo nella fase iniziale del progetto (fase 0) per ridurre i costi futuri
 I fornitori di componenti per i plug-in devono essere ancora istruiti, non esistono ancora
In ogni caso l'ipotesi di richiedere più tempo non è coerente, se il cliente vuole il prodotto entro una certa
data non è possibile discutere l'evenienza di un posticipo. Rimangono quindi solo due opzioni : rifiutare o
non rifiutare l'incarico.

Pro declino :

 Non ci sono tutte le risorse disponibili in quanto una parte di esse sta lavorando per il PalmV
 Un ipotetico fallimento potrebbe essere pesante per l'immagine dell'azienda
 Accettare il progetto sarebbe un cambio di cultura aziendale
 Un fattore da valutare è l'incapacità tecnologica (la tecnologia che si vuole utilizzare è ancora
acerba)
 Troppi trade-off, non risolvibili solo tramite scelte di design in quanto sono problemi tecnologici
(vedi esigenza di dimensioni ridotte ma lunga durata della batteria, cosa non attuabile con le
tecnologie del tempo)
Cons declino :

 Avendo già lavorato nel settore, una parte di competenze è già presente nelle risorse
 Portando a termine il progetto si avrà un aumento delle dynamic capabilities
 Perdere un cliente così grosso potrebbe essere problematico (nonstante Ideo non abbia di questi
problemi)
 Il compenso è elevato

96
Mappatura delle core competences

Processo Organizzazione Cultura Management


Brainstorming Gerarchia piatta No paura del fallimento Gestione del cliente
Prototyping Team eterogenei Libertà di espressione Gestione conoscenza :
Trial & error Team piccoli Comunicazione grafica Techbox
Ridesign frequente Drop-in & drop-off Costruire su idee altrui Condivisione
durante i progetti settimanale dei progetti
Concurrent engineering Spazio di lavoro Caos organizzato Incentivo sviluppo
nuove idee
Deep dive Tutela delle idee di Team leader scelto
minoranza dallo stesso team
Approcio a fasi Turnover
Frequente interazione
con il cliente

Ambiguità Causale : insieme di fattori non controllabili dall'azienda che la portano ad avere performance
migliori di altre aziende. I fattori possono essere il periodo storico in cui opera, l'insieme dei dipendenti e
delle loro caratteristiche/culture e così via.

I punti di forza non replicabili (e quindi garanti del vantaggio competitivo) di Ideo sono

 Deep dive, perchè dipende dalla cultura del personale (molto varia in Ideo)
 Organizzazione contrattuale con i clienti (composta da Miltestone)
 Ambiguità causale
Questi fattori, uniti al concurrent engineering ed al basso turnover (in quanto non è buon far crescere le
competenze del personale per poi farlo uscire dall'azienda) producono il successo di Ideo.

Per quanto riguarda l'accettazione del progetto visor, Ideo lo proseguì ma il prodotto non fu di grande
successo (più che altro per via del prodotto in se, i palmari non presero mai piede sul mercato grazie
all'avvento di telefoni cellulari sempre più performanti negli stessi campi di utilizzo).

97
E-BOOKS
Sul mercato americano dal 2001 iniziarono a diffondersi gli e-book reader. Amazon tuttora sta fortemente
“spingendo” per la diffusione del suo Amazon Kindle. Amazon offre già la possibilità di comprare i libri in
pdf. In questo mercato ci sono competitor come Fujitsu, Amazon e Sony. I problemi caratteristici degli e-
books sono dovuti alla durata della batteria e alla luminescenza che stanca gli occhi. Un prodotto nuovo
come questo ha richiesto alle case produttrici di prevederne la domanda (forecast for adoption). La
previsione dipende da come il mercato accoglierà l’innovazione. Bisogna considerare anche che non basta il
device ma dipenderà anche dalla disponibilità dei libri.

Da un lato l’industria dell’editoria ha paura della pirateria; dall’altro lato i consumatori sono un po’ scettici
essendo abituati ai libri. Un modo per prevedere il futuro è basarsi sulle vendite (storiche) di device simili
come ad esempio i lettori mp3..

98
99
100
Nel bass model noi possiamo immaginare un p basso perché l’ebook reader non è un bene primario cioè
non soddisfa un bisogno fondamentale. Un q basso poiché non innesca un fattore di moda o di status.

101
CASO SKYPE

102
103
La strategia di skype è fornire un software free e altri servizi gratuiti in modo da poter raggiungere la massa
critica  caratterizza il prodotto con esternalità di rete  mette il consumatore in una situazione di lock-in.
Poi il loro modello di business si fonda sul convincere l’utente skype a passare a servizi più avanzati che
sono a pagamento e generano redditività. (nb. Il sw è gratuito ma è proprietario).

104
CASO AMGEN
La Amgen è una società byotech che ha scoperto come partire da dei topi geneticamente modificati per
ottenere l'EPO, un particolare tipo di ormone utile per curare malattie derivate da problemi renali.

In seguito alla scoperta ha tentato di tutelare l'innovazione cercando di ottenere brevetti per il prodotto,
per il processo e per la materia di base. (nb. Siamo in america quindi vale il First-to-Invent)

E' stato rilasciato esclusivamente il brevetto per la materia di base, mentre quello per il processo è stato
negato per via del precedente creato nel caso Durden.

Il brevetto relativo al prodotto invece non è stato concesso in quanto già richiesto ed assegnato al Genetic
Institute, piccola società byotech fondata da due scienziati di Harvard.

Nonostante sia venuta a conoscenza di questi fatti, Amgen comincia la produzione, denuncia GI e viene a
sua volta denunciata da quest'ultima per patent infringement. Si arriva quindi ad una situazione di
empasse.

Gli scenari possibili sono due :

 Litigio sui brevetti


 Joint venture o Cross licensing
Nel secondo caso Amgen è avvantaggiata date le sue dimensioni, il suo portafoglio brevetti e la sua
competenza nel settore, ma GI potrebbe decidere di utilizzare il materiale di base fuori dagli USA (Amgen
ha il brevetto solo per il mercato USA), per poi importare il prodotto finito dall'estero. Questa strategia è
però difficilmente realizzabile (in quanto GI è piccola), ma fattibile se prendesse contatti con le Big Pharma
europee, con le quali avrebbe più bargaining power.

Ma perchè nonostante le accuse di infringement, Amgen continua a combattere la causa ed a produrre


l'EPO?

 Asimmetria dimensionale (Amgen è un'azienda di grandi dimensioni, pertanto ha più risorse di


Genetic institute)
 Il produrre l'EPO porta entrate che finanziano il processo giuridico, fornendo potere
Amgen non ha acquisito GI per non creare un precedente. Spesso, nel ramo delle byotech, piccole società
brevettano scoperte per poi farsi acquisire da grandi società farmaceutiche. Dando vita ad un precedente
l'azienda avrebbe dato un'immagine di se poco combattiva nelle trattative, attirando probabilmente gli
attacchi” di altre piccole società in cerca di soldi facili. Dopo quattro anni di processi Amgen è riuscita ad
ottenere il riconoscimento del proprio brevetto sul prodotto, in seguito alla destituzione di quello ottenuto
da GI per mancata novità (il processo di estrazione dell'EPO dall'urina venne considerato come a portata di
qualsiasi esperto del settore).

105
IPOD – ITUNES
Apple fece la scelta strategica di non concedere in licenza la tecnologia machintosh ad altri produttori,
sviluppo hw e sw al suo interno. Vested interest sul lato della domanda alto in quando il sistema operativo
di Apple era esente dai virus e aveva una grafica differente rispetto a Microsoft. Proprio per il vested
interest non si sviluppa uno standard di dominanza ma Apple raggiunge una nicchia di mercato. nel 95 con
l’uscita di windows novantacinque Apple perde quote di mercato rischia di scomparire allora decide di
regale un po di esternalità di rete indiretta ai suoi utenti stipulando un accordo con microsoft. Apple ha
rischiato di sparire dal mercato dei personal computer. Se Microsoft non avesse offerto la possibilità di
rendere compatibili i suoi software con i computer Apple a quest'ora sarebbe monopolista.

In seguito a questi avvenimenti, nacque l'idea del mac come hub digitale, centro della attività digitali del
suo utilizzatore. Da qui, grazie anche alla comparsa del formato Mp3, l'idea di creare un prodotto per
leggere la musica in giro, dotato dei seguenti trade-off :

 Qualità della riproduzione audio


 Peso del dispositivo
 Quantità di canzoni trasportate
Per arrivare in fretta sul mercato, Apple stipula una strategia di accordo con Portal Player (acquisita poi in
futuro) per la produzione di dispositivi di lettura digitale portatili.

I vantaggi di questa strategia sono :

 Arrivo rapido sul mercato


 Aggiungere al prodotto tecnologicamente valido degli asset complementari (Brand, distribuzione,
finanza, reputazione, rete di utenti … )
Questi però sono aspetti facilmente imitabili. Cosa rese speciale l'ipod?

 Compatibilità con Windows (non si limita la fruibilità ai soli utilizzatori di mac)


 Itunes
Itunes riuscì ad ottenere il consenso della maggior parte delle major discografiche risolvendo il problema
del digital right management.

Tramite itunes è possibile scaricare una canzone a pagamento, copiarla su fino a 5 computer ed ascoltarla
esclusivamente sull'ipod (fattore che tende a spingerne
le vendite).

Questa compatibilità risultà vincente per Apple.


Inizialmente itunes era disponibile solo per i mac, poi lo
divenne anche per i pc tradizionali, allargando
ulteriormente il bacino di utenza in grado di usufruire
del servizio (e quindi invogliato all'acquisto di un lettore
mp3 ipod).

Inoltre grazie alla enorme politica di brevettazione


attorno ai suoi prodotti, Apple si garantisce il fatto che
nessuno possa provare ad imitarli.

106
CASO ELI LILLY
Eli-lilly è una società farmaceutica ben nota per le sue attitudini collaborative. A partire dalla sua
fondazione si è sempre concentrata più che sulle fusioni ed acquisizioni, sulle sue capacità collaborative e di
reperimento delle capabilities nell'ambiente esterno all'azienda.

Le tipologie iniziali di collaborazione comprendevano principalmente accordi di tipo equity, per motivare
sufficientemente il partner (una forma di corporate venture capital).

Raggiunta una certa dimensione ha sviluppato un ufficio per il management delle alleanze, composto dai
cosiddetti “alliance manager”, cambiando le proprie politiche di collaborazione.

Le alleanze portano a Eli-lilly i seguenti vantaggi :

 Riduzione dei costi di ricerca e sviluppo


 Riduzione dei tempi di sviluppo ed entrata sui mercati non ancora sfruttati
 Copertura di più segmenti di mercato
 Acquisizione di nuove competenze
 Condivisione del rischio
Oltre a eseguire ricerche in collaborazione, Eli-lilly esegue anche ricerca per conto proprio, fa licensing-out
(per incamerare profitti) e licensing-in (per eliminare la concessione di potenziali brevetti utili ad altre
società farmaceutiche e per favorire la ricerca che potrebbe tornarle utile).

Lungo il passare degli anni, la gestione degli accordi è passata da un approcio decentralizzato ad una
struttura centralizzato. I vantaggi di questa scelta sono :

 Facilitare la collaborazione (ho un “potere centrale” a cui rivolgermi per richiedere una
collaborazione)
 Specializzare il lavoro di accordo (tramite procedure standardizzate in modo da renderlo efficace
più velocemente)
Gli svantaggi sono :

 Minor abilità nella parte tecnica (perchè gli sforzi sono dedicati più alla parte manageriale)
 Maggiori costi di gestione dei flussi informativi

Le tipologie di accordi promossi da Eli-lilly sono :

 Accordo di ricerca e sviluppo → accordo di tipo backward (avere accesso alle fonti dell’innovazione
e inaridire una fonte primaria di licenze per i miei competitors) → accordo equità. Accordo da
monte a valle FARMACEUTICA  BIOTECH con scambio di azioni quindi potrebbe essere un piccolo
venture capital. Nell’accordo con l’impresa alfa la transazione riguarda l’R&D allora la transazione è
molto complessa perché si presta a asimmetrie informative e quindi a comportamenti
opportunistici da parte di alfa. (si sfiora la struttura verticale)
 Accordi di commercializzazione → co-promozione → per complementare gli asset velocemente. Eli
lilly voleva competere sul mercato per diabetici, beta non aveva i mezzi per promuovere allora
scambio di asset complementari. Con Beta la transazione è più semplice rispetto a quella con alfa.
 Accordo di produzione → accordo di fornitura → non equity perchè non è centrale per le
competenze di Eli-lilly. Transazione semplice in quanto poca asimmetria informativa (se gli chiedo
5mln di dosatori per me è semplice verificare la fornitura)  molto più verso il mercato che verso
la gerarchia.
107
Al crescere della complessità della transazione, l'accordo si sposta più verso una struttura contrattuale forte
e vincolante. La produzione non richiede particolari attenzioni da parte di manager, perchè è facile
individuare quando non viene eseguita correttamente.

La ricerca e lo sviluppo invece sono più problematici da gestire, pertanto la forma contrattuale viene
studiata appositamente per garantire vincoli collaborativi stringenti.

108
DVD-WAR

Vested interest : se un determinato oggetto attitudinale (una persona, una cosa, un evento...) possiede
conseguenze dall'elevata importanza percepita, avrà un alto vested interest.

Per fare un esempio:

 Oggetto attitudinale : l'innalzamento dell'età per ottenere la patente dai 18 ai 19 anni


 Soggetto A : un trentenne
 Soggetto B : un diciassettenne

Il soggetto A, avrà un basso vested interest, perchè anche se magari non sarà d'accordo con la legge, le
conseguenze lo toccheranno poco o niente. Il soggetto B invece avrà un alto vested interest in quanto la
sua percezione delle conseguenze dell'oggetto attitudinale è sicuramente più elevata.

I competitors in questo caso sono il Blu-Ray e l'Hd-dvd.

Questi due formati sono nati in seguito all'incapacità del consorzio DVD di stabilire quale sarebbe stato il
nuovo formato futuro.

Il prodotto in se (il dvd di nuova generazione considerato come un pezzo di plastica su cui è possibile
scrivere tramite pc) non presenta un alto valore. Ciò che lo rende effettivamente utile sono delle esternalità
indirette, quali la presenza di lettori, masterizzatori, film già registrati sul supporto e così via.

Lo stabilirsi del proprio standard in un mercato è quindi una cosa fondamentale, in quanto si è una
situazione in cui chi vince, vince tutto.

In questo caso, ci sono vested interest da parte delle varie major cinematografiche, nonchè dei produttori
di device di scrittura/lettura. Il vero supporto al formato però deriva dal numero di major favorevoli. Da
questo punto di vista il Blu-Ray performò meglio del suo rivale per via dell'addizionale protezione dei
contenuti (quindi minor piratabilità) e dall'elevata capacità dei dischi.
L'aspetto protezione aggiuntiva però va ad influenzare in maniera negativa i vested interest degli end-user,
che però possono fare ben poco se non trovano i film sugli scaffali nell'altro formato.

Un ulteriore fattore che sta prolungando la "guerra" è l'elevato costo dei lettori di nuova generazione, che
impedisce la crescita del tasso di sostituzione con quelli vecchi (nonostante ci sia retrocompatibilità).

Per concludere, la "guerra" di formato attualmente è stata vinta da Sony con il formato Blu-Ray, ma dopo
ben 5 anni di contesa (e di conseguenza di bassi ricavi).

Pare quindi palese come sia necessario per un'azienda pianificare efficacemente l'utilizzo dei brevetti e le
strategie di imposizione di standard.

109
CASO MERCK
- Ricavi nel 2000 aumentati del 23% mentre i ricavi dell’intero settore sono rimasti sostanzialmente
piatti
- Prodotti chiave della crescita sono stai Zocor, singulair, Fosamax e Cozaar/Hyzaar: hanno
determinato e stabilito una forte posizione nei loro rispettivi mercati
- Come risultato, i ricavi e i guadagni sono aumentati del 18% e il valore delle azioni è cresciuto del
26% fino a un valore di 90.99$
- Ancora più eccitante per il presidente Scolnick era il flusso di nuove medicine candidate. La
compagnia aveva 5 nuove medicine in test clinici avanzati, 2 vaccini con un grande potenziale di
vendita nei test preliminari, e duverse medicine interamente nuove nelle fasi iniziali di sviluppo
- Momento storico più produttivo della ricerca di Merck.
- Per il CEO era quindi arrivato il momento di arrivare a un punto di svolta dal resto del settore
farmaceutico
- Una delle strategie di svolta consisteva nell’espandere la sua posizione nella scienza del cutting-
edge.
- Sebbene merck abbia sempre avuto una reputazione per le eccezionali capacità scientifiche,
Scolnick era a conoscenza del fatto che il settore farmaceutico stava sperimentando una rivoluzione
impareggiabile nella storia del settore stava cambiando la scienza della scoperta delle medicine:
1. Esplosione nella crescita della conoscenza scientifica nella scoperta di medicine. Nel settore
dei genomi, c’è un intero nuovo set di tecnologie che contrastano quello che Merck sta
facendo nella ricerca.
2. Sfruttare queste nuove tecnologie richiede realmente modi diversi di pensare da quelli che
sta usando ora Merck
- Nuove tecnologie intraprese e scoperte da laboratori di ricerca universitari, istituzioni di ricerca
governativa e iniziative imprenditoriali attorno al mondo.
- Si presentano quindi molte opportunità per Merck: non si poteva però investire su tutte queste
nuove tecnologie contemporaneamente.
- Merck doveva fare una scelta, ma ogni scelta presentava chiari rischi
- Altro problema era la dimensione degli investimenti e l’impegno in partnership esterne. Ad oggi
Merck è stata più conservativa nel suo approccio alle alleanze che i suoi competitors.
- Scolnick si rende conto che non si può essere leader senza collaborare con parti esterne come
laboratori di ricerca universitari e compagnie imprenditoriali: le opportunità di collaborazione
erano virtualmente illimitate e di conseguenza creavano una difficile scelta
- Scelte su budget da allocare alle partnership, su che tipo di partnership effettuare, come max le
leve fra le sue capacità interne e quelle dei partner esterni e, in ultima istanza, quali erano i rischi
del basarsi su un esterno nella tecnologia cutting-edge e come poteva Merck mitigarliù

R&D NEL SETTORE FARMACEUTICO


- Ci sono oltre 58000 malattie conosciute per le quali un’impresa possa sviluppare nuove terapie
- Compagnia può spendere 10 anni di ricerca attraverso milioni di molecole solo per trovare una
medicina potenziale per curare una singola condizione di una malattia.
- La compagnia deve quindi essere in grado di dimostrare:
1. Il valore della medicina nella cura della malattia;
2. La sicurezza della malattia
3. Se c’è una forte domanda della medicina
4. Se non sono presenti competitori con medicine simili
 allora l’azienda può essere vincente per pochi anni prima della scadenza del brevetto (Tutto
questo dopo 10 anni di lavoro)
- Nel ’99 un’azienda (tra le prime 10) poteva ritenersi fortunata se poteva produrre una o 2 medicine
di successo ogni pochi anni nonostante spendesse circa 2 B $ ogni anno in R&D.

110
- Compagnia di successo necessitava però un numero di medicine di successo fra 1 e 5 all’anno per
centrare il target di vendite e soddisfare le aspettative degli investitori
- Molte medicine non hanno mai recuperato i loro costi di sviluppo
- Solo il 10% dei prodotti di un’impresa raggiunge lo status di BlockBuster
- Enorme coscienza di costo del sistema mondiale della salute poneva enorme pressione sulle
compagnie farmaceutiche per dimostrare il valore del nuovo prodotto
- Compito scoraggiante per la R&D farmaceutica poiché si trovava a lavorare nelle seguenti
condizioni:
1. Mercato frammentato
2. Lunghi tempi di sviluppo
3. Alti costi di sviluppo
4. Periodi relativamente corti per recuperare l’investimento prima che scada il brevetto

PROCESSO DI R&D DELLE MEDICINE


- Le fasi principali dello sviluppo di una medicina includono:
1. Scoperta
2. Test preclinici
3. Test clinici
4. Approvazione del governo
- In ogni fase il pool di contendenti si riduce fino a che la medicina finale non viene lanciata sul
mercato
- Il successo o il fallimento di una medicina cavalca dal numero di medicine che compiono il loro iter
attraverso le fasi
- Una nuova tecnologia, regolamentazioni e strategie influenzano la velocità con la qquale un
potenziale componente può essere introdotto attraverso ogni fase di sviluppo e i costi incorrono
lungo il percorso
- Durante la fase di scoperta, gli scienziati schermano migliaia di composti chimici nella speranza di
trovarne pochi da poter sviluppare in una medicina che possa indirizzare una malattia.
- Per ogni droga che arriva sul mercato, tra i 5000 e i 10000 composti vengono sintetizzati e molti di
più vengono schermati
- L’esplosione della conoscenza sulla genetica e la sottostante biologia molecolare di varie malattie,
così come le nuove sintesi e le tecniche di screening come la chimica combinatoriale, sono radicali
nell’influenzare questa parte del processo.

LA RIVOLUZIONE DELLA BIOLOGIA MOLECOLARE E LA R&D FARMACEUTICA


- Nel ’90 rivoluzione nei metodi coi quali gli scienziati scoprivano nuove medicineBIOTECNOLOGIA
era il termine con il quale si connotava questo nuovo approcio
- La rivoluzione non riguardava solo la biotecnologia, quanto piuttosto un vasto numero di tecnologie
che stavano alterando i modi con cui venivano scoperte nuove medicine.
- Le organizzazioni potevano seguire molte strategie differenti, compagnie diverse stavano
facendo scommesse tecnologiche differenti sul futuro.
- La scoperta di nuove medicine coinvolgeva tre processi interelazionati:
1. La ricerca di nuove target terapeutici
2. La sintesi di composti potenzialmente terapeutici
3. Lo screening di questi composti per le attività terapeutiche desiderate

ALLA RICERCA DI MEDICINE


- Con l’avvento della biologia molecolare la ricerca di nuove medicine è iniziata sempre più con un
tentativo di comprensione della biologia molecolare delle malattie, o le condizioni per le quali era
cercata una terapia.

111
- L’azione di una medicina su un recettore umano è paragonata ad una chiave che entra in una
serraturaLa maggiore conoscenza scientifica ha portato ad una crescita della conoscenza su
quale “serratura” fosse importante nel processo della malattia.
- I recettori rappresentano i target per lo sviluppo di medicine.
- Più recentemente, un aumento nella conoscenza della cinetica molecolare, della struttura fisica dei
recettori molecolari e della relazione fra struttura chimica e un particolare meccanismo d’azione di
un componente ha aumentato pesantemente la conoscenza su quali “chiavi” si dovesse incentrare
l’attenzione
- Biologia molecolare prometteva il potenziale di capire i processi della malattia a un livello
molecolare (genetico), per determinare il traget molecolare ottimale per la medicina.
- La genomica si riferiva a diverse tecnologie che caratterizzavano la genetica di base delle malattie
ed usava le info per identificare target di medicine promettenti
- La conoscenza del genoma poteva potenzialmente trasformare medicine introducendo farmaci più
sicuri ed efficienti, espande il range di malattie curabili e migliorando la disgnosi
- Ad oggi, il focus maggiore sulla genomica ha portato all’identificazione di 30000/40000 geni umani
e a determinare una sequenza di 3 miliardi DNA, basata sul corpo umano
- I meccanismi biologici della maggior parte dei geni sono stati compresi solo confusamente
- Merck ha avuto un ruolo chiave nell’espandere le frontiere della genomica funzionale attraverso la
sponsorizzazione del “Merck Gene Index Project”:
1. Il fatto che le compagnie potessero ottenere brevetti associati a geni specifici era stata
ritenuto una situazione pericolosa per tutta la ricerca biomedica da parte di Merck
2. Decidono così di fondare un consorzio di ricercatori accademici per identificare L’expressed
sequence gate (EST) per ogni gene. EST è solo un frammento di un gene, ma ch eprovvede a
dare info utili per fare le proteine che hanno funzioni biologiche, che possono essere target
potenziali per la scoperta di medicinali
3. Da questo sforzo di ricerca, si è così in grado di creare un db di EST che può essere usato
per identificare geni con specifiche funzioni biologiche
4. Tutto fatto pubblicamente
5. Questo assicurava che nessuno potesse bloccare l’accesso ad ogni data area di malattia
sulla base di un brevetto su un frammento di gene
- Biologia tradizionale: Si parte con hp sui meccanismi di un processo biologico e tramite esperimenti
si cerca di collezionare dati per testare l’hpsi cerca essenzialmente di capire un sistema
incrementando la propria conoscenza un componente alla volta
- Genomica: permette ora di misurare l’espressione di 10000 geni tutti in una volta e usare algoritmi
sw per ordinarli attraverso i dati per identificare cosa sia relazionato a cosa (principale difficoltà
della biologia tradizionale)
1. Problema è che nessuno è preparato su questo sistema che richiede un modo di pensare e
abilità completamente nuove

SINTESI
- Fino ad oggi l’arsenale di potenziali composti terapeutici disponibili ai ricercatori medici era limitato
a sostanze che potevano essere identificate e isolate da fonti naturali o composti che potevano
essere sintetizzati chimicamente. Nei 20 anni pasasti sono state sviluppate un numero di tecniche
che hanno esapnso in modo vasto il vettore di sostanze terapeutiche che possono essere create.
Queste tecniche includono:
1. DNA RICOMBINANTE: permette agli scienziati di trasferire geni di un organismo nelle celle
di un altro organismo. Il metodo base consisteva nel prendere un gene umano ed inserirlo
in una cella non umana che potesse crescere più velocemente. Prima di questo metodo era
semplicemente infattibile sintetizzare una proteina su scala commerciale attraverso metodi
tradizionali della chimica organica. Il mercato di medicinali ricombinanti si prevedeva
raggiungesse i 20B$ nel 2001.

112
Merck non è stata attiva nel mercato delle proteine terapeutiche. Negli anni 80 è stata
approcciata da Amgen e Genentech per lo sviluppo collaborativo di proteine terapeutiche,
ma ha declinato l’opportunità. Merck ha cmq prodotto e commercializzato i primi vaccini
ingegnerizzati geneticamente
2. ANTICORPO MONOCLONALE: modo per produrre antibiotici estremamente puri. MAb
sviluppato interagisce solamente con le proteine specifiche (marker) a cui invia un agente
specifico. Tecnologia MAb molto difficile da sviluppare. Nel 2000 aumento di numero di
MAb approvati. Nel 98 i prodotti biotecnologici, molti dei quali proteine ricombinanti e
MAb, stimavano il 26% (15 su 57) medicinali introdotti a livello mondiale. Nel 2000 Merck
non aveva alcun prodotto MAb sul mercato
3. TERAPIA GENICA: Basata sull’intento di riparare il genoma umano. Approccio distaccato
dalle tecnologie farmaceutiche tradizionali, perché tenta di correggere il problema alla base
alterando le info genetiche di qualche cellula del paziente invece che dare un farmaco per
curare o controllare i sintomi del disordine. Dal 96 Merck ha perseguito un attivo
programma di ricerca nella terapia genica: la tecnologia per il vaccino HIV nei test clinici era
basta su un approccio tipico della terapia genica
4. DESIGN BASATO SULLA STRUTTURA: Tentava di disegnare molecole che interagissero con
target terapeuitici specifici.
5. CHIMICA COMBINATORIALE: Permetteva la sintesi rapida di un largo numero di ptenziali
chiavi . Largo numero di Start-Up è stata formata per fornire servizi di chimica
combinatoriale su una base di outsourcing. Molte delle più grandi compagnie biotech, e
virtualmente tutte le compagnie farmaceutiche (inclusa Merck) ha affermato capacità per
una chimica combinatoriale in house

SCREENING
- Processo per testare una molecola in laboratorio per identificare se aveva un effetto desiderato
sulla molecola desiderata della cellula target
- Processo tradizionale lento e laborioso (un componente alla volta testato)
- Con l’aumento dei composti sintetizzati e scoperti, il metodo tradizionale rappresentava un collo di
bottiglia nel processo di scoperta
- L’avanzamento della tecnologia, con High Throughput Screening (HTS), ha avuto un effetto drastico
sulla velocità e l’accuratezza del processo
- HTS: Set di tecniche che usano l’automazione con tecnologie robot per testare un ampio numero di
nuovi composti contro un largo numero di test. Era essenzialmente uno screening casuale molto
più veloce e economico del tradizionale. Chimici vedevano una rappresentazione sul computer
delle proteine target e delle molecole candidate. Potevano quindi alterare le candidate atomo per
atomo per ottenere un miglior risultato e solo a questo punto la medicina veniva sintetizzata su
piccola scala

R&D ALLA MERCK


- Merck ha reputazione per eccellenza scientifica
- Compagnia lavorava duramente per difendere i propri assets scientifici: continui investimenti in
R&D erano critici in questo senso
- Nel 2000 investiti 2,4B$ (11,2% delle vendite dei farmaci e vaccini di Merck)
- Nel 2001 Merck ha messo a Budget 2,8B$ per la R&D
- Analisti si chiedono se M. potesse tenere il passso con il crescente numero di rivali che stavano
catapultando i loro budget di ricerca e sviluppo a livelli stratosferici attraverso fusioni. Secondo
analisti solo così si poteva catturare le vaste opportunità offerte dalla rivoluzione nella biologia
molecolare
- Alla M. non erano d’accordo:
1. Non vi è evidenza che la dimensione della compagnia conferisca vantaggi nella ricerca per
passi avanti

113
2. In M. credevano che la loro esperienza, il loro talento e la loro strategia di ricerca (e non
semplicemente l’ammontare di investimenti) li potesse guidare al successo nella ricerca
della svolta
- Non vi era evidenza che suggerisse come le fusioni migliorassero la produttività della R&D:
piuttosto alcune ricerche mostravano come non vi fosse alcuna correlazione fra dimensione del
budget di R&D e la sua produttività, così come mostravano che con le fusioni il numero di progetti
di sviluppo decresceva del 34%.
- In M. erano sicuri che una fusione avrebbe avuto effetti dannosi.
- Ad oggi, la strategia di Merck di non fondersi sembra dargli ragione.
- La sfida che si mostrava a M. era come prepararsi al futuro, ed in particolare come prepararsi alle
opportunità ed alle sfide che la rivoluzione genomica inevitabilmente portava al settore
farmaceutico:
1. Stare sulla scienza del cutting-edge era dato per M.
2. L’impegno era quindi su una strategia di focalizzazione su certi tipi di opportunità di
mercato
- La strategia consisteva quindi nel concentrarsi sullo sviluppo di farmaci che avessero un volume di
vendite potenziale da almeno 1 B$ all’anno.
1. No prodotto di nicchia: Budget e risorse erano date e limitiatetanto valeva concentrarsi
solamente su prodotti blockbuster
- Il processo per intraprendere questo goal attraversava tutte le divisioni e le discipline:
1. In M. hanno un ciclo regolare di revisioni Cross-Divisional in ogni area terapeutica: ci sono
presentazioni di marketing, presentazioni sulla ricerca di base e presentazioni cliniche a
riguardo della prospettiva delle aree per lo sviluppo del farmaco.
2. Il processo identifica i bisogni medici in varie aree terapeutiche e quale potrebbe essere la
dimensione del mercato in ognuna
3. Questi meeting forniscono dati chiave per prendere decisioni su come spendere le risorse.
4. Cos’è notevole di questo processo è che non guarda a quello che si sta vendendo ora, ma a
quello che vedono in M. nel futuro.
5. Decidono di concentrare le loro capacità su mercati in cui non vi siano medicinali in grado di
soddisfare gran parte della domanda.

ESSERE IN TESTA ALLA CURVA


- Per stare al passo con i competitors, M. si è torvata di fronte alla sfida di tenere il passo delle
frontiere mai oltrepassate della scoperta medicinale
- C’erano trea strategie che M. stava perseguendo per mantenere la sua leadership nella scoperta dei
farmaci:
1. Reclutare i migliori talenti scientifici
2. Decentralizzare le strutture di R&D
3. Far leva sulle capacità interne di R&D con collaborazioni esterne

AFFITTARE IL MEGLIO
- In M. c’era un forte consenso sul fatto che reclutare i migliori talenti disponibili fosse diventato più
importante che un aumento del tasso di avanzamento tecnologico
- La cosa che rendeva M. diversa dalle altre compagnie era l’abilità nel reclutare e trattenere i
migliori talenti
- Reclutati i migliori talenti senza riguardo alla loro area: in questo modo assumevano persone molto
più flessibili in grado di apprendere da una varietà di aree
- Presi i migliori tre che uscivano da Harvard
- Ora anche le maggiori compagnie farmaceutiche stavano aumentando i loro sforzi nel
reclutamento.
- Inoltre molti scienziati provenienti dall’università erano sempre più attratti dalle culture
imprenditoriali delle start-up biotecnologiche, in particolar modo dal loro pacchetto

114
potenzialmente lucrativo di stock optionM. ha sviluppato un programma di stock option per i
ricercatori che hanno contribuito a sviluppare un medicinale: questo viene investito quando la
medicina raggiunge una certa fase dello sviluppo. Questo approccio veniva anche utilizzato con
persone che conducevano ad una tecnologia che M. poteva dare in licenza
- La crescente domanda di scienziati eccellenti da parte delle altre compagnie farmaceutiche e start-
up avrebbe solamente intensificato la competizione per il futuro
- Ulteriore difficoltà era attrarre talenti dall’università,poiché, a causa dell’espandersi dei budget
della NIH (National Institute of Health), erano aumentati i fondi per gli scienziati
accademicisempre più difficile attrarre al settore questi scienziati che sono felici nell’ambiente
accademico

DECENTRALIZZAZIONE: COSTRUIRE FUORI


- Per aumentare produttività e reclutamento M. ha aperto diversi laboratori in varie parti del mondo
- Laboratori con max 350 persone: laboratori piccoli in molti luoghi forniva maggiori possibilità di
posti di lavoro quando si reclutano scienziati.
- Produttività della ricerca dei dipartimenti può essere rafforzata tenendo i dipartimenti con un
numero di scienziati inferiori a 350 persone
- Il problema che nasce riguarda però l’integrazione: Anche con video conferenze e altre tecnologie,
il management ha cmq bisogno di meeting faccia a faccia periodici. Devono avere correntemente
un numero di meeting per mettere la gente insieme , ma non è facile quando ricercatori vivono sia
in Giappone che in Europa e devono volare tre volte al mese negli Stati Uniti.

FAR LEVA SULLE CAPACITA’ IN-HOUSE ATTRAVERSO ALLEANZE ESTERNE


- Nel 98 più della metà dei composti chimici in test clinici originavano al difuori dei laboratori di
ricerca delle maggiori 20 compagnie farmaceutiche
- L’ondata di alleanze nella R&D e l’outsourcing erano direttamente relazionate con la crescita nei
nuovi campi della tecnologia
- Osservatori notavano come il trend di outsourcing continuava, e forse stava cambiando anche il
modo in cui R&D veniva fatta, dividendo i compiti di ricerca e sviluppo attraverso imprese differenti
1. I piccoli laboratori potevano trovare i target dei farmaci e i composti candidati
2. Le compagnie grandi si focalizzavano sullo sviluppo e il marketing delle medicine
- M. è stata attiva nel commercializzare tecnologie da fonti esterne
1. Ad esempio nel 2000 un terzo dei prodotti Merck provenivano da ricerche esterne o
collaborazioni di licenza
- M. è stata meno aggressiva dei suoi competitors nell’ottenere sperienza tecnica da fonti esterne
(M. ha speso 200M$ in collaborazioni con parti terze nel periodo tra il 98 e il 2000)
- Mentre Pfizer aveva 450 collaborazioni, Merck ne aveva solamente 40
- M. ha aumentato significamente il suo budget per la sua ricerca di base negli ultimi due anni
1. Nel 2000, molto meno che metà del budget totale per la R&D da 2,4B$ è andato alla ricerca
di base (ricerca devota alle prime fasi del processo di scoperta del farmaco)
2. Di questa cifra, una piccola percentuale è stata spesa nella ricerca esploratoria, la quale,
come quella condotta dai laboratori di ricerca universitari, era volta a spingere avanti le
frontiere delle scienze biomediche
- Scolnick credeva che la scienza di base per la scoperta di medicinali richiedesse più collaborazioni
con partner esterni di ricerca per tenere il passo con il cambiamento tecnologico
1. Con l’esplosione della conoscenza non era più possibile intervenire nei settori più carenti in
cui si faceva una ricerca ad hoc
Il bisogno di gruppi in-house che collaborino attivamente con gruppi esterni era più
importante ora che in passato
- La sfida per M. era di avere persone che pensassero in questo modo, programmassero in questo
modo e gestissero in questo modo.
- Investire più in collaborazioni esterne era una maggiore strategia da portare avanti.

115
- Fra il 98 e il 2000 Merck ha speso 200M$ del suo budget di ricerca per collaborazioni con terze parti
1. Per il periodo 2000-2003 ci si aspettava una crescita fino a 250 M$
- Scolnick duro nel pensare che il budget non fosse il limite per la ricerca esterna
- M. non ben strutturata per collaborazioni esterne
1. Prima Barriera: Processo di Budgeting. I progetti interni vengono riforniti di fondi sempre
prima rispetto a quelli esterni
2. Seconda Barriera: Struttura organizzativa. Due gruppi separati sono coinvolti
nell’identificare e negoziare progetti collaborativi; Un gruppo si trovava al Merck Research
Labs e si riportava attraverso il vice presidente esecutivo delle ricerca di base; Un secondo
gruppo si trovava al quartier generale. Tutte le relazioni esterne dovevano passare sotto il
vaglio di entrambi i gruppi. Non solo era una perdita di tempo, ma i due gruppi spesso non
condividevano lo stesso punto di vista su un dato progetto.
- Merck poteva perdere parteniships a favore dei competitors che erano in grado di agire
velocemente e in modo deciso.

CREARE UN’INFRASTRUTTURA PER LA COLLABORAZIONE


- Per appianare la via verso la collaborazione, Merck ha fatto due cambiamenti interni a paritire dal
2000:
1. Ha cambiato il processo di budgeting per le collaborazioni sterne: i progetti interni non
sarebbero più stati in competizione con i progetti esterni. I progetti esterni avrebbero
avuto il loro budget riservato
2. M. ha stabilito un’organizzazione, sotto la leadership di Shapiro, per trattare tutti gli aspetti
del processo collaborativo, dall’identificazione e la revisione dell’opportunità di negoziare e
chiudere un’offerta. L’organizzazione, composta da 120 persone, aveva esperienza nel
licensing, nelle analisi finanziarie e nella legge. Shapiro stesso giocava un ruolo chiave:
svolgeva il ruolo di integratore.
- Shapiro sicuro che il suo staff interno potesse far leva sulle capacità interne più efficientemente,
lavorando ccon i ricercatori accademici e delle piccole imprese
- Il budget di Merck era solo l’1% di quello speso a livello mondiale sulla ricerca
biomedicapotevano in questo modo avere un laboratiro virtuale 10 volte più grande di quello di
loro proprietà
- Merck necessitava però di combattere la sindrome del Not Invented Here (NIH), nella quale i
ricercatori esterni venivano visti in modo denigratorio, chiedendo agli scienziati che si prendessero
la responsabilità per l’investigazione di innovazioni che accadevano all’esterno della compagnia
- Era necessario, per non avere barriere fra quello che accadeva in Merck e quello che accadeva
all’esterno quando uno scienziato veniva a stare nella compagnia, ddare agli scienziati stessi gli
strumenti, come db, per incoraggiarli a partecipare a conferenze e leggere ricerche al di fuori della
loro area di competenza.
- Necessario scoraggiare la censura e spingere le idee.
- Non vi deve essere discriminazione fra sforzi interni ed esterni: molto alto questo rischio in azienda.
- Se si è una persona chiave o un ricercatore del team interno (di Salzmann) generalmente serve al
Review and Licensing Commitee (RLC) per quell’area terapeutica
 Il proprio lavoro consiste nel guardare al di fuori dell’azienda fra tutti gli sviluppi e le
innovazioni nei campi che si stanno coprendo
 Se si vede qualcosa di interessante, se ne apprende qualcosa di più, e se continua a
sembrare promettente lo si mostra al Licensing Management Committee (LMC)
presieduto da Scolnick
 Questo comitato si incontra ogni mese i una riunione di un giorno per prendere in
considerazione tutte le raccomandazioni fatte dai singolo RLC
 LMC fa infine la chiamata finale su quale delle offerte la compagnia dovrebbe offrire
aggressivamente.

116
 Una volta che la decisione è presa bisogna convincere i potenziali collaboratori che
Merck è nella miglior posizione per condurre la loro nuova osservazione in un farmaco

STRATEGIA COLLABORATIVA DI MERCK:


- Ad un certo livello, l’approcio di M. alle collaborazioni appariva opportunistico: la compagnia era
disposta e in grado di offrire per ogni opportunità attrattiva.
- Tuttora le opportunità erano quasi senza limiti
- Il management di M. era consapevole del bisogno di diligenza nel perseguire opportunità e
discriminare i processi esterni promettenti da quelli non promettenti
- Sebbene non ci fosse una strategia formale per le collaborazioni, il management era tutto
d’accordo sull’avere dei principi guida che potessero influenzare la selezione dell’accordo.
- I principi guida erano 3:
1. Mantenere in parallelo programmi interni per ogni collaborazione esterna
2. Focalizzare le collaborazioni su ogni specifico programma , piuttosto che svariare in ampie
alleanze che comprendono tecnologie multiple
3. Focalizzare le collaborazioni su attività di ricerca ai primi step (early-stage)

1) PROGRAMMI INTERNI ED ESTERNI IN PARALLELO


- M. insisteva molto nella sua strategia di collaborazione nel mantenere progetti interni che
viaggiassero in parallelo con gli sforzi esterni
- Molti competitors usavano le collaborazioni esterne come una via più breve per entrare in campi in
cui la compagnia aveva capacità interne carenti
- Scolnick credeva che avere avere capacità interne fosse imperativo per limitare il rischio inerenete
alle collaborazioni esterne:
 In molte occasioni i partner esterni (laboratori accadamici o piccole imprese) finiscono i
fondi e abbandonano i progetti, o i venture capitalist perdono il loro interesse nel progetto.
 Se non vi sono forti competenze interne per prenderne il controllo allo stesso punto, si
deve necessariamente abbandonare il progetto
- Per Shapiro avere competenze interne era il modo migliore per far si che le collaborazioni di M.
avessero un ritorno e dessero dei frutti
- Con le competenze interne M. era in una posizione molto migliore per valutare le promesse
scientifiche delle tecnologie esterne e per giudicare le capacità dei suoi potenziali collaboratori.
- In questo modo Shapiro credeva che le collaborazioni di Merck si dimostrassero più fruttuose di
quelle dei loro competitori

2) ACCORDI FOCALIZZATI
- Durante gli anni 90, c’è stata una grossa ondata di mega alleanze, che comprendevano diversi
campi di ricerca e tipi di tecnologie
- Merck notò che nessuna di queste compagnie che avevano stretto accorti di questa portata aveva
avuto dei benefici tangibili
- M. va quindi controcorrente rispetto ai suoi competitori, utilizzando un approccio più chirurgico alla
collaborazione
- Invece che entrare in una collaborazione che copriva un vasto numero di tecnologie, M. guardava a
partner esterni per tecnologie molto specifiche e definiva accuratamente i programmi con chiari
meriti scientifici

3) COLLABORAZIONI DI RICERCA EARLY-STAGE


- M. si concentrava su progetti di ricerca early-stage.
- Molte compagnie farmaceutiche preferivano fare licensing-in di composti solo dopo che questi
avessero mostrato qualche risultato iniziale nei test clinici umani (ad uno stadio quindi già
avanzato)

117
- Sebbene M. non avesse delle regole specifiche per il licensing-in dei composti in uno stato
avanzato, il management credeva che le migliori opportunità per la collaborazione stessero nei
primi stage della ricerca di base (il tipo di lavoro svolto dai laboratori accademici o dalle piccole
imprese biotech).
- Una volta identificato il target, M. credeva di essere insuperabile nell’identificare e sviluppare
composti
- Scolnick credeva inoltre che fosse importante collaborare su ricerche early stage poiché quelli sono
i momenti in cui i principali cambiamenti scientifici accadono.
- Da un punto di vista commerciale, M. riteneva che molti degli accordi all’ultimo stage, dove le altre
parti hanno preso tutti i rischi di sviluppo, equivalessero ad affittare le forze di vendita ad un tasso
di ritorno più basso

LEADERSHIP DI RICERCA
- Scolnick, guardando al futuro, vide che il panorama scientifico in cambiamento del settore
farmaceutico stava presentando sempre più sfide e opportunità.
- Scolnick pensava che:
 Non si potesse governare un’organizzazione di ricerca con i numeri
 Si doveva essere impegnati intellettualmente con la scienza, la tecnologia e con gli
scienziati, ingegneri e tecnici che stavano attualmente facendo la ricerca
 Il leader di ricerca doveva essere pronto a fornire tutte le risorse che poteva effettivamente
usare e tagliare queste risorse qualora il progetto non si dimostrasse più promettente
- Questo era il cuore delle leadership di ricerca nel settore farmaceutico.
- Il lavoro stava diventando cmq molto più complesso a causa dei cambiamenti rivoluzionari che
stavano prendendo posto nelle scienze e nelle tecnologie biomediche.
- I leaders di M. stanno provando a cercare nuovi modi di comunicare, nuovi modi di prendere
decisioni e nuovi modi per determinare quali parti delle frontiere scientifiche in rapido
cambiamento la loro organizzazione dovesse esplorare.

SOLUZIONE MERCK

Merck è una società farmaceutica di grosse dimensioni, molto più performante di altre big pharma. Fino ad
ora il suo approcio era stato quello di collaborare raramente e sviluppare tutto in house, cercando di
vendere principalmente blockbuster e rimanendo nei segmenti ad alto margine.

Data l'introduzione di nuovi paradigmi tecnologici però, si trova a dover affrontare sempre con più
frequenza possibili scelte di collaborazione data la mancanza di competenze necessarie ad usufruire dei
nuovi ritrovati di ricerca.

La strategia seguita da Merck consiste in tre punti principali :

 Hire the best


 Decentralizzazione della ricerca e sviluppo
 Esternalizzazione ma mantenendo competenze parallele in-house
Sulla prima parte c'è poco da dire, l'avere le menti migliori è sicuramente un vantaggio anche se risulta un
po' più costoso.

Per quanto riguarda la decentralizzazione, essa porta dei vantaggi per il reclutamento di nuove menti (che
non si devono spostare per andare in una sede centralizzata), e facilita lo sviluppo di nuove idee
mantenendo i gruppi in dimensioni sostanzialmente più piccole rispetto a quelli generati in sedi
centralizzate.

118
A livello di svantaggi però, questo approcio comporta una maggior spesa (per la realizzazione delle sedi
decentrate) ed una maggior difficoltà organizzativa, in quanto è comunque necessario fare delle riunioni
faccia a faccia.

Infine, l'esternalizzazione parallela comporta vantaggi quali il mantenimento delle competenze, la


continuità della ricerca in caso di scomparsa del collaboratore o di fallimento del progetto (rimangono
comunque le competenze sviluppate) e la comprensione dell'effettiva validità del progetto.

Gli svantaggi generati dalla strategia sono però le possibili duplicazioni degli sforzi, la non diversificazione
delle competenze e la rinuncia alle dynamic capabilities.

Un altro aspetto strategico che Merck deve considerare è il quando esternalizzare, ovvero a che fase dello
sviluppo del farmaco è opportuno fare outsourcing.

Merck ha deciso di esternalizzare il processo di sviluppo nella early stage del prodotto, in modo da poter
poi brevettare il prodotto.

Questo comporta dei vantaggi non indifferenti :

 creazione di competenze
 accesso alle competenze necessarie dove il paradigma tecnologico sta cambiando
 costi di collaborazione bassi
 collaborazione con soggetti a bassa capacità di appropriazione dell'idea
Ma anche degli svantaggi :

 alti rischi di fallimento


 asimmetria informativa
 input scarsi
Infine, un ultimo aspetto strategico gestito da Merck è la tipologia di accordo eseguito con il collaboratore
(può essere focalizzato od ampio).

La scelta ricade su quelli focalizzati, che generano i seguenti pregi :

 miglior controllo sul progetto


 maggior specificità del regime di proprietà intellettuale
ed i seguenti difetti :

 perdita dell'elicopter view sul progetto


L'insieme delle scelte strategiche di Merck è coerente con gli obbiettivi che si è posta.

Per poter sfornare esclusivamente blockbuster ad alto margine, è necessario

 eseguire ricerche mirate e non ampie e generalizzate


 essere all'avanguardia con le tecnologie (l'acquisizione di competenze tramite collaborazioni mirate
serve a questo scopo e lo sviluppo parallelo in-house concretizza le competenze anche se il
progetto risulta in un fallimento)
 avere elevata appropriabilità delle idee sviluppate (cosa fattibile data la scelta dei partner dal basso
bargaining power)
 acquisizione dei migliori cervelli (effettuata grazie alla decentralizzazione delle sedi di ricerca)

119
CASO KOSHLA
- Koshla aveva molti investimenti in betterie
- Credeva che se i consumatori avessero comprato molte più auto ibride, sarebbe stato
significativamente più importante per alterare il sovra riscaldamento globale
- Koshla (fondatore) voleva cambiare il modo di produrre e di consumare carburanti, non solo in
occidente, ma anche in Cina e India
- L’efficienza di costo e l’accessibilità erano criteri critici nello sviluppo di una soluzione a basso
contenuto di carbone, che impattasse sul 50/80% dei prox milioni di auto spedite in tutto il mondo
- Kohsla decise di chiudere la sua impresa agli investitori esterni, perché investire i soldi propri gli
permetteva di avere una libertà di conseguire progetti ad alto rischio e ad alti ritorni nel settore
della tecnologia pulita
- Da maggio 2008 K. Ha fatto più di 45 investimenti nella Cleantech, ed è stata classificata come
l’impresa che ha effettuato il maggior numero di investimenti in start-up energetiche.
- K. Era tipicamente il primo investitore esterno nelle compagnie che l’impresa supportava,
investendo spesso fra i 2 e i 5 B$
- Dal 2008 la compagnia stava iniziando a necessitare di una significativa quantità superiore di soldi
per creare la scala di massa richiesta nel settore energetico
- Inoltre K. Pensava a come avrebbe dovuto posizionare la sua impresa a questo stadio dello sviluppo
 K. Doveva sviluppare un nuovo fondo che si focalizzasse su investimenti in stadi successivi?
 Doveva cercare investimenti da players come le maggiori compagnie petrolifere?
 Doveva provare a aumentare i soldi dai manager dei fondi sovrani nei paesi come
Singapore, Kuwait e Cina?
 Come doveva lavorare la sua azienda con i partner strategici?
- Nonostante il settore fosse poco conosciuto agli investitori e che investire in questo settore fosse
una sfida, K. Era determinato nel voler continuare col suo pattern che prevedeva di fare
investimenti rischiosi in questo campo in emergenza

IL BACKGROUND DI KOSHLA

- K. Ha cofondato Java Sun Microsystem


- Quasi tutti gli investimenti di Koshla facevano leva sulla tecnologia, e lui era d’accordo nello scavare
all’interno dei dettagli dei prodotti altamente tecnici
- Nel 2004 lascia Kleiner Perkins (in cui entrò nell’85) per partire con il suo fondo.
 Voleva lavorare meno e su progetti più rischiosi (pazzi)
 Voleva focalizzarsi su aree che avessero un impatto sociale positivo
- Nel 2005 recluta Kaul (da Harward) come responsabile delle energie rinnovabili e le scienze della
vita
- Kaul aiutò Koshla nell’avvio di due compagnie, CODON e LS9, che entrambe attraevano l’attenzione
di Kohsla stesso
 Koshla era un investitore di CODON, dove Kaul era CEO, ed entrambi investirono in LS9, una
compagnia di carburanti alternativi
- Recluta altri due partner: avere appena 5 partner rendeva la venture capital molto isitintiva, e
Koshla voleva affidarsi all’istinto

120
- La filosofia d’investimento di Koshla differiva dalla gran parte delle aziende venture capital perché
lui credeva che si potevano anche creare cose che non incontravano nessuno standard di
responsabilità fiduciaria. ….(chiedi a marco)
- Koshla non aveva analisti, poiché credeva nel condurre la propria ricerca nelle aree che lo
interessavano maggiormente
 Tipicamente si concentrava sulla ricerca ogni estate
- Kaun si impegnò nella ricerca leggendo molti libri sull’argomento di interesse, contattandone gli
autori per avere maggiori dettagli
 Kaul credeva che conducendo la ricerca in questo modo si erano creati una rete di persone
che loro potevano chiamare per ogni compagnia o tecnologia che stavano analizzando.
 Il loro impegno sulla ricerca primaria li differenziava dalle altre imprese venture capital

COMPARAZIONE FRA LE CARATTERSITICHE DI CLEANTECH E GLI INVESTIMENTI HIGHTECH

- Koshla ha iniziato la sua carriera venture come un iniziale investitore nel settore delle tecnologie
high-tech, e gli aspetti del settore cleantech gli ricordavano dei suoi primi giorni nell’high-tech
- Vi erano delle differenze fra il cleantech e l’high-tech in termini di investimento e costruzione di
compagnie:
 Sebbene la proprietà intellettuale fosse critica in entrambi i settori, molte compagnie high-
tech appoggiate a industrie si focalizzavano sul costruire valore aggiunto a prodotti speciali
che potessero portare alti margini. Molte cleantech stavano invece usando tecnologie
proprietarie per sviluppare commodity che potessero essere profittevoli su scala.
 In termini di disponibilità totale del mercato nei settori Koshla credeva che le compagnie
high-tech della Silicon Valley spesso fallivano a causa del rischio di mercato anche quando
loro sviluppavano un grande prodotto. Nell’energia, invece, si focalizzano su prodotti
prodotti più economici attraverso una tecnologia superiore
 Il rischio di mercato nel non avere compratori è minimizzato a causa della natura di
commodity di molti mercati nel settore energetico. Inoltre il mercato dell’energia puliuta si
è spinto oltre il sistemare dei pannelli solari sul tetto di qualcuno: le maggiori utilità sono
diventate di interesse per i consumatori, risultando in una più alta affidabilità degli
standards insieme con un mercato molto più grande
 In termini di intenità di capitale, le compagnie nel settore cleantech tendevano a richiedere
più distribuzione e espansione di capitale che nel settore software, hardware e di rete.
 Da un punto di vista del rischio, Kohsla anticipò che gli stadi finanziari finali erano a rischio
minore che quelli nelle telecomunicazioni, semiconduttori o delle compagnie biotech,
perché la tecnologia sarebbe stata comprovata per il momento da compagnie che erano
pronte a costruire strutture commercialidifficile per cleantech era avere i piloti per capire
se la teconologia era solida
 Altre differenze riguardavano il ruolo dei governi e la preesistenza di reti di supporto
 GOVERNO: Sussidi e regolazioni potevano impattare drammaticamente sul successo
potenziale di una compagnia cleantech. Molte compagni high-tech invece spesso
operavano al di fuori dei confini dei controlli regolatori
 Koshla credeva inoltre che l’attivismo politico era un elemento critico per una rivoluzione
nel campo energeticoIn termini di reti, Kohsla notò l’assenza di talenti tecnici e dirigenti
per supportare le compagnie cleantech, come comparati alle reti estensive nell’high-tech

121
STRATEGIA DI PROTAFOGLIO DI KOSHLA VENTURES CLEANTECH

- Situazione di surriscaldamento globale e aumento vertiginoso del prezzo del petrolio


- In risposta a questa situazione imprenditori, scienziati, governi e imprese hanno aumentato il loro
sforzo per scoprire nuovi modi per produrre energia usando metodi puliti che non richiedano
dipendenza dalla produzione di petrolio
- Questi sforzi erano tutti parte di un nuovo settore emergente cleantech, che includeva prodotti,
servizi a processi che imbrigliassero materiali rinnovabili e fonti di energia col goal di ridurre l’uso di
risorse naturali ed eliminiare le emissioni e lo spreco
- Settore cleantech era un business da circa 77,3B$ nel 2008 (settore più grande all’interno di
cleantech erano i biocarburanti, energia eolica, energia solare, ognuno dei quali generava 20 B$ di
ricavi)
- Gli investimenti in nuove tecnologie energetiche da venture capital, project finance e mercati
pubblici e ricerca e sviluppo incrementarono del 60% da 92,6B$ nel 2006 fino a 148,4B$ nel 2007
- Molti dei soldi investiti sono stati progetti a basso rischio finanziati con un rischio tecnologico molto
piccolo preso dagli investitori.
- La nicchia di Koshla consiste nella’vviare compagnie e alimentare nuove tecnologie nella project
finance e mercati di capitali a stage finali
- Koshla era attrattto dalle opportunità e dai territori inesplorati del settore cleantech
- Loro identificavano grandi mercati, quindi cacciavano alla ricerca di tecnologie e persone per
indirizzare questi mercati con tecnologie differenziate.
 Molti dei loro investimenti sono spesso il risultato di un singolo meeting con imprenditori o
di una cena con una tavolata di accademici
- Sono la compagnia a più alto beta e a più alti ritorni perché loro credono che la tecnologia si stia
espandendo l’arte del possibile
- Portafoglio cleantech include investimenti in biocarburanti, materiali, plastiche, acqua, strumenti,
solare, ingegneria geotermale, gas naturali ed efficienza meccanica ed elettrica
- Nel 2008 circa il 70% del portafoglio investimenti si concentrava sul settore cleantech
- Regole per investire nel settore cleantech:
1) Attaccare problemi gestibili ma materiali
2) Tecnologie che possono ottenere velocemente competitività di mercato sovvenzionata
3) Tecnologia sviluppabile su scala (se non è più economica, non è producibile su scala)
4) Tecnologie che abbiano costi di startup gestibili e corti cicli di innovazione
5) Tecnologie che abbiano fenomeni di apprendimento e economie di scala (costi decrescenti
all’aumentare dei volumi prodotti)
- Koshla stava cercando anche per soluzioni Black Swan
 Black Swan (cigno nero): teoria utilizzata per spiegare l’esistenza e l’occorrenza di eventi ad
alto impatto, ad alto rischio e rari che vanno oltre le aspettative normali
 Concetto di cui K si è innamorato recentemente
 Gli eventi Black Swan rispondono alle seguenti caratteristiche:
1) L’evento è una sorpresa (per l’osservatore)
2) L’evento ha un impatto maggiore
3) Dopo il fatto, l’evento è razionalizzato con il senno di poi, come se fosse stato previsto
 Dalla prospettiva di Koshla, alcune tecnologie con cui stavano lavorando avevano l’impatto
di essere soluzioni Black Swan che cambiavano completamente l’equazione del mercato

122
IL PORTFOLIO DI KOSHLA VENTURES DEI BIOCARBURANTI

- I biocarburanti rappresentano uno dei settori d’investimento core dell’azienda, poiché Koshla
credeva che il suo comfort con alti livelli di rischio tecnico potessero condurre a soluzioni
particolarmente di alto impatto

PANORAMICA SUI BIOCARBURANTI

- Biocarburanti si riferiscono a carburanti liquidi che sono derivati da piante, animali e i loro
sottoprodotti
- Etanolo può essere mischiato col petrolio ad un basso livello (25%) e essere usato in auto senza
richiedere significative modifiche nella maggior parte dei veicoli
 Produttori stanno iniziando a produrre veicoli flessibili al carburante (FFV) per supportare
una maggiore quantità di etanolo
- 1° GENERAZIONE: etanolo ottenuto dalla conversione del grano
 Critici sostengono che una riduzione del grano disponibile per l’alimentazione avrebbe
contribuito ad una scarsità mondiale di cibo
 Inoltre, altri critici sostengono che l’energia richiesta per la conversione è talmente tanta
che il delta che se ne ricaverebbe dal risparmio tramite etanolo sarebbe minimo
 Koshla non è d’accordo: sostiene che calcoli spesso vengono fatti con tecnologie vecchie e
con assunzioni sbagliateCiononostante, riflette che i carburanti non-food sono gli unici
carburanti che possono incontrare la scalabilità e i criteri di costo
- 2° GENERAZIONE: etanolo creato non da cereali per il cibo, quanto da colture non-food quali
sostanze cellulose come trucioli di legno, scarti dell’agricoltura...
 Processo di conversione considerato più complicato che 1, ed era molto più difficile estrarre
lo zucchero per fare l’etanolo
 C’era comunque una più grande fornitura di biomasse non-food disponibili che potevano
essere utilizzate per l’etanolo
 A dispetto delle sfide di conversione, i biocarburanti da cellulosa erano visti come un mezzo
promettente di generazione di carburante in USA perché facevano affidamento su risorse
considerate abbondanti in US
 La maggior parte dei processi di conversione usavano sostanzialmente meno energia di
quella utilizzata nel processo di produzione dell’etanolo estratto dal grano
 Il modello di Koshla assumeva un raggio di raccolta di 50 miglia ad un prezzo di produzione
di 50$
 Koshla credeva che un quarto di questa quantità potesse essere prodotta da un impianto
molto economico con 100 milioni di galloni all’anno di capacità
 Ciononostante, qualcuno notava che l’ammontare di biomasse necessarie per alimentare
un struttura per l’etanolo di media dimensione era scoraggiante
- 3° GENERAZIONE: a cui stavano lavorando gli scienziatispesso si riferiva a carburanti futuri che
coinvolgevano stabilimenti bio-ingegnerizzati che producevano più alti livelli di carburante per acre
 Questi carburanti tipicamente coinvolgevano processi chimici avanzato e generavano
carburanti oltre l’etanolo, da fonti alternative quali scarti, alghe e materie prime a base di
cellulosa
- Dal 2007 governo USA ha iniziato a mettere in atto politiche per i biocarburanti
123
 Bush ha settato un obiettivo di 35M di galloni di biocarburante entro il 2017
 Koshla lo ha pubblicamente incoraggiato (tramite giornali) a avviare una vera e propria
guerra contro il petrolio
 Koshla propose inoltre una classificazione CLAW (carbon emission, land use, air impact,
water use) per le strutture per biocarburanti per assicurare che i biocarburanti non-food e
a base di cellulose incontrassero I ristretti standard ambientali

INVESTIMENTI NELLA PRIMA GENERAZIONE DI BIOCARBURANTI: CARBURANTI BASATI SU


GRANO/ZUCCHERO

- Quando Kaul entrò nella compagnia, Koshla aveva già fatto una grande quantità di ricerca sulle
opportunità dei biocarburanti
- Kohsla credeva nell’etanolo perché le strutture esistenti dei carburanti potevano andare d’accordo
con le miscele di etanolo e aveva sviluppato una tesi iniziale sui benefici dell’etanolo
- K era impressionato dall’abilità del brasile di transitare a miscele di etanolo per quasi tutte le auto e
i camion
- I primi investimenti della compagnia si focalizzarono su compagnie che avessero apportato
miglioramenti al modello dell’etanolo
 Uno dei primi investimenti fu in ANTRA, dove k fece una piccola scommessa sulla promessa
di investimento in tecnologie sulla cellulosa per seguire il primo sforzo sul grano
 Koshla investì privatamente anche in un’entità pubblica indiana, PRAJ, che era fornitore di
impianti di produzione del business in esplosione dei biocarburanti, ottenendo come
risultato un sostanziale ritorno iniziale. K era attratto da Praj perché permetteva
un’opportunità di apprendere circa le operazioni di scaling da una compagnia che aveva
costruito 300 strutture in 30 paesiConsiderava Praj un fornitore di armi nella guerra al
petrolio
 Koshla e Klaud investirono inoltre in CILION, una compagnia di etanolo dal grano che si
focalizzava sulla produzione di etanolo in stati costieri così che l’etanolo sarebbe stato
vicino ai clienti costieri, semplificando le imprese di trasporto. Inoltre CILION stava
stabilendo come obiettivo una riduzione del 45% nelle emissioni di carbonio sulla base
delle miglia guidate relative alle auto ad alimentazione benzina
- Comunque, quando il clima cambiò per l’etanolo dal grano, e anche il prezzo del grano stesso
aumentò, CILION scelse di ridurre i suoi impianti, eliminare i debiti e bloccare per riutilizzare gli
impianti per produrre butanolo o altri carburanti ella terza generazione, con le tecnologie date in
licenza da altre compagnie nella rete di Koshla
- Kohsla Ventures investì anche in ETHOS, un’azienda che sviluppava etanolo in america latina dove
la canna da zucchero era disponibile tutto l’anno
- Kohsla descriveva le prospettive dell’azienda sull’etanolo di grano dicendo che l’etanolo aveva
procurato un duro colpo, e non era vero che loro non erano d’accordo con la maggioranza dei
critici. Ma loro ritenevano che l’etanolo di mais fosse un passo fondamentale da fare per
apprendere come integrare l’etanolo con i carburanti delle autoUna volta aumentato il prezzo
del mais, l’etanolo da mais non era più un sostituto meno convincente per la benzina
- Il focus di Koshla si è così spostato a produzioni di biocarburanti più altamente efficienti dal punto
di vista energetico.

124
INVESTIMENTI NELLA SECONDA GENERAZIONE DI CARBURANTI: ETANOLO DA CELLULOSA

- Koshla ha fatto il suo primo investimento nella seconda generazione nel 2004 nella startup
CELUNOL, che fu acquistata da diversa e diventò pubblicamente conosciuta come VERENIUM
- Kohsla credeva che le fusioni distraessero la compagnia
 Nel giugno del 2008 Verenium aveva una capitalizzazione di 139M$, con ricavi del 2007 di
46,3M$ e perdite nette per 107M$
- Nel 2005 Kaul e Koshla iniziarono a fare investimenti ulteriori nell’etanolo da cellulosa, che veniva
generalmente percepito come di costo minore e migliore per l’ambiente
 Kaul sosteneva che l’etanolo da grano potesse conseguire 15M di galloni all’anno con il
corrente utilizzo, ma che quello da cellulosa potesse raggiungere i 150M galloni all’anno
entro i prossimi 25 anni
- Dal 2008 altri 4 investimenti in quest’area:
1) MASCOMA: Basata su Bioprocessamento Consolidatotecnologia nella quali i materiali a base
di cellulosa erano pretrattati e quindi i microorganismi proprietari e gli enzimi venivano usati
per ottenere lo zucchero e creare etanolo. Scopo era di ridurre la dipendenza da enzimi esterni
(molto cari)
2) RANGE: Utilizza processo di gassificazione per convertire il materiale celluloso in etanolo.
Questa tecnologia metteva i materiali in un gas di sintesi, che consistevano per la maggior parte
di monossidi di carbonio e idrogeno, che potevano quindi convertiti in una varietà di
carburanti, incluso l’etanoloquesto processo permetteva di usare sfridi di legno,
scarti…L’impresa aveva pianificato di avere un impianto pilota in Georgia e Colorado che
fossero costruiti in moduli da 10 M di galloni all’anno, potenzialmente pronti per inizare a
produrre alla fine del 2009
3) COSKATA: Usava variazioni del processo di gassificazione per creare etanolo. Ha annunciato
partnership con GM all’inizio del 2008 e fu costruito un impianto pilota da 25M$ e 40000
galloni all’anno in Pennsylvania per dimostrare la sua flessibilità con vari input
4) LANZA: Usava variazioni del processo di gassificazione per creare etanolo. Con base in Nuova
Zelanda, dimostrò un processo redditizio per convertire il monossido di carbonio in etanolo
- Il portafoglio di Koshla per i carburanti ad etanolo basato su cellulosa era stato costruito in modo
tale da approcciare sfide da diverse prospettive:
 In Koshla provavano ad aumentare la propria esperienza da ognuno dei loro investimenti e
gradualmente costruire un portafoglio che rappresenti approcci multipli e spesso
complementari
 Per confronto, è come dire che ogni campo petrolifero ha differenti costi di estrazione del
petrolio, ma dal momento che sono profittevoli sul mercato, possono essere tutti
potenzialmente di successo
- Kohsla credeva che ogni compagnia su cui si era investito occupasse una propria posizione nella
matrice rischi tecnici/costi di produzione

INVESTIMENTI NELLA TERZA GENERAZIONE DI CARBURANTI: CARBURANTI AVANZATI

- Kohsla ha anche investito in 4 altre compagnie di biocarburanti: AMYRS, GEVO, LS9 E KIOR, che
erano focalizzate sulla produzione di carburanti rinnovabili, non-etanolo e avanzati che potessero
rimpiazzare il gasolio, il kerosene e la benzina.
125
- Queste compagnie stavano sviluppando biocarburanti a base di grano che avessero come prodotto
finale altri biocarburanti oltre l’etanolo
- Tutte e quattro le compagnie furono avviate nel 2005
- AMYRS: stava sviluppando un medicinale a basso costo contro la malaria unsando tecnologie
biologiche di sintesi e pianificando di creare essenze e fragranze. Ha ricevuto molte offerte da
potenziali investitori, ma tutti loro la ritenevano una compagnia biotech. Koshla invece chiese ad
Amyrs se la tecnologia potesse essere usata per produrre molecole di carburante, e lavorarono con
loro per creare una nuova strategia capitalizzata sul loro background di ingegneria chimica e la loro
leadership nei campi nuovi della sintesi biologica. In Amyrs decisero di lavorare con Koshlafu
sviluppato un business plan e Amyrs entrò nella partnership con una grande compagnia brasiliana
per commercializzare la sua tecnologia.
- GEVO: cofondata da Koshla con un professore di Caltech e suoi studenti dopo una conversazione
casuale sulla sintesi bilogica. Koshla lavorò con loro per sviluppare un piano per andare via dal
mercato del metanolo e buttarsi in quello del butanolo. Gevo, con khosla iniziò a lavorare su un
processo per creare butanolo che funzionasse come sostituto della benzina e potesse girare nei
motori esistenti con più alti contenuti di energia per gallone che l’etanolo. Dal 2008 hanno un
struttura pilota che gira nei loro laboratori di Denver
- LS9: fondata da 3 professori che si unirono per sviluppare microbi per creare biocarburanti sintetici
che somigliassero al petrolio. La compagnia introdusse un set di prodotti chiamati DESIGNERS
BIOFUELS che erano stati ingegnerizzati per essere sostituti della benzina entro diversi anni
- KiOR: Nasce come spinout di BIOeCON. Stava sviluppando una tecnologia che semplificava parte del
processo di rottura delle masse di cellulosa e di conversione in biocarburanti
- Ognuna di queste compagnie si trovo di fronte a una sfida simile di creare un rimpiazzo alla benzina
per un costo di produzione di 1,25$ a gallone.
- Anche se ogni compagnia aveva goal simili, approcciavano il problema con diverse soluzioni
- Khosla caratterizzava i suoi investimenti in approcci multipli come tecnologie rischiose
 Aumentando il numero di tecnologie a disposizione si aumenta la probabilità di successo

RELAZIONI FRA KHOSLA VENTURES E LE SUE COMPAGNIE DI PORTAFOGLIO

- Khosla credeva che la sua comprensione tecnica dettagliata si tramutava in qualcosa di più che una
prima impressione e degli investimenti delle altre compagnie venture
- Khosla prestò molta attenzione al CEO di KIOR circa la loro tecnologia
 Khosla investì 4,5 M$ In KIOERerano abbastanza soldi per raggiungere la prima milestone
 Khosla non voleva che i soldi si spalmassero su tempi lunghi, quanto voleva che i soldi
venissero spesi per trovare la gente migliore e per pensare in grande
 Aiutò il management di KIOR a capire che esistevano delle alternative al dare in licenza la
loro tecnologia
- Per Koshla era un ambiente dove non vi erano imprenditori con esperienza, e lui aveva un pesante
vantaggio perché sapeva come gestire l’incubazione
- Non aveva senso per lui buttare via tempo in analisi di mercato o business plan che sarebbero
cambiati radicalmente ogni momento
- Kohsla preferiva definirsi come un assistente venture, piuttosto che una ventura capital
- K dedicava gran parte del tempo e di attenzione al recruiting delle persone migliori per aiutare il
portafoglio delle compagnie nelle varie fasi dello sviluppo. Fatico a trovare il mix ideale di
management per ogni compagnia che potesse prosperare in un ambiente guidato dal caos

126
 Aggiungendo solo un grande management a grandi tecnologi non basta poiché spesso
l’istinto tradizionale del management non è appropriato per queste compagnie
 Dare il giusto bilancio del conflitto è un’artecercano un mix eclettico di capcaità e
esperienza per creare un perfetto mix
 Si cerca di fare esperienza per evitare di compiere degli errori
- Kohsla era orgoglioso del suo modo di fare recruiting
- CEO di LS9 era impressionato dalla capacità di Khosla di facilitare l’apprendimento
 Invece che fare domande su come poteva aiutarli, Khosla pensava a come stavano facendo
per accrescere il loro business
- Khosla giocava un ruolo chiave nell’aiutare le compagnie del portoflio a determinare le milestones
appropriate nel processo, dall’iniziare con un impianto pilota fino a un’operazione commerciale
- Incorraggiava ad avere un turnover dell’innovazione di max 15 mesi e non di 15 anni
- Le sue partnership aiutavano le compagnie su cui aveva investito perché le metteva in contatto con
fornitori che potevano offrire condizioni vantaggiose
- Koshla inoltre aiutò due compagnie che stavano negoziando con la stessa compagnia petrolifera
 K stava creando un nuovo modello di investimento in un grande mercato, e non c’erano
regole stabilite su cosa andasse fatto e cosa no
- K investiva in tecnologie competitive, una situazione che talvolta mise a dura prova le compagnie
del suo portafoglio
 K incentivava il dialogo fra le compagnie del portafoglio che erano in competizione fra loro.
 In qualche caso quindi le compagnie del portafoglio competevano fra di loro per i soldi
 K credeva però che il conflitto fosse minimo, poiché il mercato dei biocarburanti era infinito
- Khosla credeva fermamente nell’essere onesto e diretto e credeva che questo approccio lo
differenziasse dalle altre imprese
 Loro si impegnano nell’aumentare l’esperienza nel business nel quale investono, e credono
nel dare feedback onesti e diretti ai loro team di gestione
 Spesso questo approccio li ha reso impopolari, ma gli imprenditori spesso apprezzano il
valore dell’onestà piuttosto che l’ipocrisia

STRATEGIA FINANZIARIA PER IMPRESE DI BIOCARBURANTI

- K notò come una delle più grandi sfide riguardava le strategie finanziarie per le sue compagnie, in
particolar modo i capitali di mercato indeboliti nel 2008
- Ognuna delle compagnie di biocarburanti del portafoglio necessitava di un seguito di fondi per
costruire impianti pilota e commerciali richiesti per incrementare il loro business
- Kaul stimò che un impianto pilota richiedeva 100M$ e richiedesse dai 3 ai 4 anni per la sua
costruzione
- Gli impianti commerciali richiedevano 2 anni, ma costavano fra i 400 e i 500M$
- Molti analisti del settore credevano che questo gap di fondi richiedesse nuovi investitori
- Fino ad ora LS9 aveva ricevuto 20 M$ di fondi equity di tipo A e di tipo B, ma stava pensando di
aprire ad equity di tipo C
- Pensano pertanto in LS9 di accettare un offerta da una grande compagnia petrolifera che richiedeva
in licenza una loro tecnologia
- In Khosla pensano che molte loro compagnie possano seguire questo pattern finanziario
- Aumenta quindi l’esperienza finanziaria nelle compagnie del portafoglio, che aprono anche a
personaggi politici

127
POTENZIALI INVESTITORI AGLI ULTIMI STADI

- K spese del tempo a pensare a come potesse fornire i fondi alle sue compagnie del portafoglio per
aiutarli a raggiungere una scala commerciale
- Si chiedeva se le compagnie o i fondi sovrani del middle eastern potessero essere una fonte
accessibile
- Gli investimenti nell’energia erano critici per i fondi sovrani.
- Le compagnie del portafoglio di Khosla guardavano quindi al governo US per i fondi
 Nel 2007 DOE investi 385M$ in sei impianti per l’etanolo da cellulosa, uno dei quali era
RANGE.
 Gli incentivi statali erano inoltre disponibili per attrarre nuovo lavoro nelle loro regioni
- Khosla approcciò allora i fondi di private equità, fondi speculativi e banche come potenziali
investitori, poiché credeva che gli investimenti nelle compagnie di energie alternative stesse
diventando meno rischioso che nel settore delle energie tradizionali
- Manager dei fondi speculativi capirono gli argomenti del rischio e le fonti tradizionali di energia non
erano più considerate scommesse sicure
- Le compagnie private equità stavano cominciando a guardare ad investimenti in energie
alternative, parzialmente come via per avere un “educazione” nel settore
- Khosla era contento che fra le più grandi compagnie petrolifere e auto motive stessero istituendo
partnership con le sue compagnie del portafoglio
 GM stava lavorando con COSKATA E MASCOMA sulla ricerca e sullo sviluppo così come per
gli impianti di commercializzazione
 Khosla si aspettava di diventare un partner strategico per tutte queste compagnie nel corso
degli anni
- Khosla stava pensando anche di avviare un loro fondo later stage per aiutare con i finanziamenti
- A differenza del fondo venture di Khosla senza investitori esterni, un fondo later stage avrebbe
attirato investitori
 Un fondo di questo tipo poteva potenzialmente impegnare nel finanziare progetti, come le
compagne potevano trovare migliore avere un debito per finanziare la costruzione di un
impianto
- K credeva che vi fossero dei vantaggi ad avere un ampio pool di capitali, ma non stava guardando ai
dazi quali raccolta fondi e reporting che ci sono in un tipico fondo di investimento
- Stava inoltre pensando se un fondo di questo tipo avrrebbe impattato sul profilo di rischio del suo
fondo venture
- Ulteriori domande finanziarie riguardavano i tempi e le valutazioni dei futuri momenti della finanza

OPZIONI DI USCITA

- Khosla Ventures stava sperando di creare un business che fosse sostanzialmente grande da
diventare compagnie publicly traded
- Visto che tutti gli investimenti sono stati fatti con i loro soldi, possono essere pazienti quanto
vogliono e l’unica cosa che potrebbero fare e reinvestire i soldi in altri modi
- Non devono mostrare dei ritorni

128
- Vogliono oscillare fra i limiti e aspettare fino a che non riescono ad ottenere la migliore valutazione
per ognuna delle compagnie, il che probabilmente significa aspettare fino a che non hanno una
scala commerciale
- Hanno rifiutato offerte di acquisizione (anche molto vantaggiose) perché credono che in questo
settore si possano costruire compagnie da 10B$ questa cosa li differenzia dagli altri gruppi
venture che sembrano accontentarsi di qualche ritorno
- Le opzioni di uscita sono molto meno importanti per loro che costruire una forte compagnia, e i
ritorni di investimento sono un effetto secondario della loro attività di costruzione
- Nel 2008 poche compagnie pubbliche di biocarburanti con una capitalizzazione di 250M$
- Nel giugno del 2008 non vi erano più grandi acquisizioni nel settore

ALIMENTARE IL FUTURO

- Khosla era confortato dal fatto che la sua visione della società era pronta a sposare il cambiamento
in questo settore
 I più grandi cambiamenti nella società accadono per uno dei seguenti tre motivi: calamità,
guerre etecnologie distruttive.
 Con Cleantech, Khosla credeva di avere a che fare con tutte e tre le forze che tiravano nella
stessa direzione
 Avevano forze naturali, forze geopolitiche e forze tecnologiche
 Era una confluenza inusuale che gli avrebbe permesso di modellare il futuro
- Khosla credeva che le politiche dei governi si stavano anch’esse muovendo nella giusta direzione
perché l’imperativo globale era molto alto
 Khosla spendeva il 10% del suo tempo a parlare con leader politici e a parlare di fronte a
gruppi che potessero impattare sulla politica e incoraggiava le compagnie del portafoglio a
esercitare influenza quando e dove potevano
- Nonostante queste forze, erano ben consapevoli che si trovavano di fronte ad una strada difficile
 Difficle essere il first mover di una nuova tecnologia, poiché il secondo entrante potrebbe
godere di tutti i benefici creati dal fisrt mover stesso
 Khosla assunse che la sua compagnia avrebbe fatto parte di un’evoluzione nella quale ogni
tecnologia si costruiva sulle precedenti innovazioni, come una serie di gradini di una scala
- Khosla rifletteva su cosa la sua impresa dovesse fare per aumentare le chance di successo nel
settore:
 Essere più aggressivi nel perseguire relazioni con i leader tradizionali nel settore
energetico?
 C’erano altri tipi di partnership che avrebbero beneficiato alle compagnie del portafoglio?
- Khosla pensava alle sfide dei fondi e pensava se vi fossero altre fonti di denaro per aiutare le sue
compagnie nella costruzione di stabilimenti
 Khosla doveva innalzare un fondo late stage per contribuire a colmare il gap fino a che non
veniva comprovata qualche tecnologia?

129

Potrebbero piacerti anche