Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Caratteri dell’innovazione
a) Bene pubblico (conoscenza), l’uso di informazioni e conoscenze che danno origine
all’innovazione è:
- Non rivale, ovvero il fatto che un soggetto ne fruisca non ne compromette la godibilità da
parte di altri soggetti;
- Non escludibile, gli altri non possono essere esclusi dall’uso, salvo i casi in cui sussistano
meccanismi di protezione, come i brevetti.
b) Problema dell’appropriabilità, se le imprese non possono appropriarsi dei profitti generati
dai nuovi prodotti, gli investimenti in ricerca e sviluppo diminuiranno e il progresso
tecnologico subirà un rallentamento. L’appropriabilità dipende dal grado di protezione
accordata ai nuovi prodotti dalla legislazione dei brevetti.
Nasce però un dilemma: una bassa protezione vuol dire bassi incentivi ad innovare (ex ante) per le
imprese, questo comporta un livello ridotto di R&S; mentre un’alta protezione vuol dire una scarsa
diffusione della conoscenza (ex post), e quindi una riduzione delle potenzialità della R&S.
Le innovazioni incrementali derivano da piccoli miglioramenti a processi o beni già esistenti, sono
caratterizzate da una certa continuità temporale, traggono principalmente origine dallo stimolo della
domanda di mercato e da suggerimenti degli utilizzatori del prodotto, ma anche da suggerimenti del
personale tecnico e dei lavoratori coinvolti nel processo produttivo. Normalmente non sono il risultato
di R&S dedicata e generalmente contribuiscono a migliorare l’efficienza nell’uso dei fattori
produttivi.
Le innovazioni radicali consistono in processi o prodotti completamente nuovi, sono frutto di R&S
pubblica o privata, determinano una forte discontinuità rispetto ai prodotti/processi standard, si
manifestano in modo irregolare nel tempo e non si distribuiscono uniformemente nei settori
industriale, ovvero alcuni settori sono più soggetti a queste innovazioni.
Quando da un’innovazione radicale si sviluppano altre innovazioni dello stesso tipo, in modo da
essere una collegata all’altra, si ha un cosiddetto “cluster innovativo”. Il loro impatto nell’economia
è potenzialmente molto forte. Da esse, infatti, possono scaturire nuovi settori produttivi o linee di
prodotto, così come è accaduto, ad esempio, nel caso dell’industria dei materiali sintetici, dei semi-
conduttori o dei prodotti petrolchimici.
Le innovazioni epocali sono cambiamenti tecnologici di grandissima portata, tali da stravolgere
l’intero modo di essere dell’economia, sono portatrici di mutamenti nella struttura,
nell’organizzazione, nei modi di produzione e di distribuzione di quasi tutti i settori dell’economia
(esempio: internet). Secondo l’economista Dosi provocano un cambiamento del paradigma
tecnologico dominante, ovvero i confini generali di sviluppo di una tecnologia in un dato ambito e
in un dato periodo.
Approccio Microeconomico
Esistono diverse teorie dell’impresa: approccio neoclassico, neo-istituzionalista, radicale,
evoluzionista, ecc. Noi considereremo la teoria neoclassica, quella shumpeteriana e quella
evoluzionista.
Teoria Neo-classica
L’impresa è l’agente economico che mette in atto la produzione per il mercato, si assume che:
a) le imprese producano beni omogenei;
b) le imprese dispongano di perfetta informazione su input e output (e sui loro costi);
c) gli imprenditori adottino un comportamento ottimizzante, ovvero mirino alla
massimizzazione del profitto.
L’impresa ha come unico obiettivo la massimizzazione del profitto. Nel far ciò è vincolata, da una
parte, dalle condizioni di mercato (degli input e dell’output) e, dall’altra, dalle possibilità
tecnologiche di trasformazione degli input in output (dalla funzione di produzione).
Se i mercati dei fattori e dei prodotti sono tutti competitivi, l’impresa è price-taker, ovvero non può
influenzare il prezzo qualsiasi sia il livello di output immesso sul mercato. Se, invece, possiede potere
di monopolio nei mercati dei prodotti o potere di monopsonio in quelli dei fattori, l’impresa deve
incorporare nella procedura di ottimizzazione delle “funzioni di reazione” dei concorrenti.
Ipotesi della teoria neoclassica:
a) La conoscenza scientifica è esogena ed egualmente accessibile a tutti gli imprenditori;
b) La tecnologia è esogena, le imprese dispongono di una perfetta informazione sulle tecnologie
disponibili;
c) Le possibilità tecnologiche sono riassunte dalla funzione di produzione, il prodotto (Q) è il
risultato (output) dell’attività di trasformazione di fattori di produzione (input) lavoro (L) e
capitale (K);
d) La funzione di produzione ha generalmente una produttività marginale positiva e
decrescente di ciascuno dei fattori.
La massimizzazione del profitto è la condizione sulla base della quale si genera l’equilibrio tra
domanda e offerte. L’attenzione è rivolta alle posizioni di equilibrio: secondo la teoria
dell’equilibrio economico generale, in cui si assume che le preferenze del consumatore e le tecniche
produttive siano date (esogene), qualunque sia la situazione di partenza il sistema economico evolve
necessariamente verso uno stato stazionario. Inoltre, non si studia la transizione tra un equilibrio e
l’altro ma, dopo un eventuale shock, si comparano il vecchio e il nuovo equilibrio.
Teoria Shumpeteriana
Il punto di partenza è l’equilibrio generale walrasiano. Viene poi introdotta l’innovazione, elemento
dinamico endogeno, che porta al superamento della condizione di stazionarietà. Si ritiene che
l’instabilità generata dal disequilibrio sia la principale caratteristica strutturale del modello
capitalistico di produzione. Si assiste alla “distruzione creatrice”, un cambiamento dinamico dove
alcuni settori soccombono e altri nascono.
L’invenzione e lo sviluppo scientifico e tecnologico sono considerati esogeni rispetto al sistema
economico.
Differenza tra innovazione e invenzione: l’invenzione è qualcosa di puramente scientifico o
tecnologico, mentre l’innovazione è “una risposta creativa, che si verifica quando l’economia o un
settore, o alcune aziende di un settore fanno qualcosa di diverso, qualcosa che è al di fuori della
pratica esistente”. Dunque, possiamo dire che “l’innovazione è possibile senza un’invenzione
corrispondente”.
Trilogia shumpeteriana:
- Invenzione, è un’idea, una bozza o un modello per un nuovo strumento, prodotto, processo;
- Innovazione, si realizza quando l’invenzione viene prodotta e venduta sul mercato
- Diffusione, è il processo attraverso il quale le innovazioni si diffondono nella società.
Il cambiamento tecnologico è il risultato dell’operare di agenti diversi:
- l’inventore, colui che ha l’idea;
- l’innovatore, colui che traduce l’idea in un prodotto/processo;
- l’imitatore.
Secondo Schumpeter l’innovazione può presentarsi in cinque forme:
a) produzione di un nuovo bene;
b) introduzione di un nuovo processo/metodo di produzione;
c) apertura di nuovi mercati di sbocco;
d) scoperta di nuove fonti di materie prime e semilavorati;
e) nuove strutture organizzative.
L’imprenditore innovativo ha interesse nel creare nuove innovazioni e si aspetta un vantaggio in
termini di profitti. L’innovazione tecnologica ha la funzione di creare discontinuità con la
situazione in cui il profitto si annulla, ovvero lo stato stazionario.
Nel caso delle innovazioni di processo, organizzative o delle fonti di approvvigionamento, l’obiettivo
è quello di produrre un bene già sul mercato a un costo unitario inferiore.
Anche l’innovazione di prodotto genera un extra profitto, sia nel caso di un bene nuovo che soddisfi
bisogni già precedentemente soddisfatti da beni presenti sul mercato sia che il nuovo bene risponda
a bisogni nuovi. Nel primo caso la qualità superiore del bene giustifica un prezzo superiore a quello
del bene corrente, senza che i costi per produrlo siano necessariamente più alti. Nel secondo caso, in
assenza di concorrenti il prezzo del nuovo bene può essere sganciato dai costi e quindi assicurare un
extra profitto.
L’’innovazione distingue due fasi storiche:
1) il capitalismo concorrenziale (XIX secolo), l’innovazione arriva dall’imprenditore;
2) capitalismo trustificato (XX secolo), l’innovazione arriva dalla grande impresa.
Nella fase del capitalismo concorrenziale la nascita di nuove imprese innovative è un elemento
cruciale del processo di sviluppo e quindi la forma della concorrenza perfetta costituisce la condizione
necessaria per il manifestarsi della creazione distruttrice. Si configura così un andamento ciclico: le
imprese generano innovazione, in modo da poter godere di maggiori profitti, questi attirano nuove
imprese nel mercato, generando concorrenza e quindi portando alla scomparsa del profitto. La
competizione riassorbe il potere monopolistico che l’impresa innovatrice acquisisce
temporaneamente sul mercato, prima di confrontarsi con altre imprese e altre innovazioni.
Tale andamento ciclico ha effetti diversi sulle singole imprese e sul sistema economico:
a) quando le imprese realizzano innovazione i profitti aumentano e quindi si sviluppa il sistema
economico, dato che la ricchezza aumenta a parità di sforzo speso nella produzione;
b) quando il profitto sparisce, a causa del processo concorrenziale che diffonde l’innovazione, è
l’impresa a pagarne le conseguenze, mentre il vantaggio sociale (per i consumatori) rimane.
Se il meccanismo concorrenziale si inceppa e si interrompe il trasferimento del profitto o di una parte
di esso all’intero sistema economico, esso tende a essere trattenuto all’interno dell’impresa e a
trasformarsi in rendita di monopolio.
Schumpeter considera che è il monopolio la forma di mercato più favorevole all’innovazione
tecnologica, poiché soltanto le grandi imprese possono sostenere i notevoli investimenti in R&S e in
nuovi impianti che si rendono necessari per sviluppare le innovazioni tecnologiche. Il passaggio dal
capitalismo concorrenziale al capitalismo trustificato non comporta una riduzione dello sviluppo
dell’intero sistema economico né quantitativo né qualitativo.
La diffusione delle innovazioni non è lineare ma “a grappoli”, ovvero non riguarda tutti i settori e non
è costante nel tempo. Ricollegandosi alla teoria dei cicli, e in particolare alla teoria delle onde
dell’economista russo Kondratiev, secondo cui il sistema economico attraversa ciclicamente fasi di
espansione, stagnazione, recessione della durata di circa 50-60 anni, Schumpeter identifica l’origine
dei cicli economici nelle discontinuità generate dalle innovazioni tecnologiche.
L’innovazione ha esito incerto, l’innovatore non conosce neppure la distribuzione di probabilità
relativa ai possibili risultati della sua attività innovativa. A rendere ancora più difficile la previsione
dei risultati della sua attività è che l’imprenditore ha una razionalità limitata, non coglie tutti gli
effetti e le ripercussioni dell’attività innovativa, dunque non è possibile calcolare una reazione
ottimale per tutte le imprese.
Origine dell’innovazione
Esistono due tipi di modelli:
- modelli technology-push, le opportunità vengono offerte dalla tecnologia;
- modelli demand-pull, le opportunità vengono offerte dal mercato.
Scienza di base -> ricerca di base -> ricerca applicata -> invenzione -> innovazione -> prototipo ->
sviluppo -> commercializzazione -> diffusione -> progresso tecnico -> crescita economica
Ricerca di base: tutte le attività di ricerca che hanno lo scopo di ampliare le nostre conoscenze
scientifiche, senza un fine applicativo. (Tipica delle università e degli istituti pubblici)
Ricerca applicata: utilizza la prima per generare nuove conoscenze tecnologiche oppure creare nuovi
prodotti o processi, vuole ottenere risultati applicativi. (Tipica dei privati)
Sviluppo: ha lo scopo di passare dal prototipo alla produzione, viene condotto sulla base di una
finalità commerciale.
L’approccio technology push concepisce il progresso tecnico come un percorso lineare, dove la
ricerca di base e quella applicata sono alla base di nuovi prodotti/processi commercializzabili.
Presuppone la separabilità dei vari stadi e la loro attribuzione a soggetti diversi.
Critiche: è una visione che non coglie completamente la realtà, generalizza una catena di rapporti
causa-effetto che vale in un numero ristretto di casi; sottovaluta il ruolo del mercato e delle istituzioni;
non prende in considerazione i feedback che si verificano durante i vari stadi.
Per rendere il modello più plausibile vengono considerati i legami all’indietro, i feedback. Il flusso
può scorrere anche in direzione opposta. La ricerca applicata ha prodotto nuova conoscenza e
creato nuovi campi scientifici, sia accidentalmente sia intenzionalmente. Anche gli utenti possono
generar nuove idee per migliorare i prodotti.
Modello demand-pull
L’innovazione è il risultato dell’interazione tra domanda e offerta, è il mercato che stimola le
imprese ad offrire determinati prodotti. Ha alla base due presupposti:
1) la capacità di introdurre innovazioni è molto sensibile alle occasioni di profitto;
2) la dimensione del mercato attuale o potenziale influenza l’attività innovativa, al crescere del
mercato crescono i profitti, in un grande mercato c’è una maggiore probabilità che si rendano
disponibili le capacità inventiva per risolvere un determinato problema.
Il processo è lineare e deterministico ma non parte dalla ricerca, bensì dalla domanda.
Bisogni da soddisfare (preferenze, utilità) -> domanda si sposta verso beni che incorporano le
caratteristiche desiderate -> segnali di mercato -> ricognizione di desideri da parte unità produttive -
> sforzo innovativo -> innovazione/miglior soddisfacimento bisogni.
Innovazione di processo
Nella fase di adozione che è essenzialmente una fase di valutazione e decisione, bisogna distinguere
tra un’innovazione di processo che costituisce:
a) un investimento aggiuntivo alla capacità tecnologica esistente dell’impresa;
b) un investimento di rimpiazzo di un capitale invecchiato;
c) un investimento in tecnologie che spiazzano le tecnologie esistenti.
Apriamo una parentesi sulla decisione di adozione dell’innovazione da parte dell’impresa. Abbiamo:
1. Investimento di espansione
Si tratta di valutare l’innovazione nei termini di una normale decisione di investimento, ponendo la
tecnologia esistente e la nuova sullo stesso piano. L’imprenditore decide di investire nella nuova
quando il rendimento atteso (espresso in termini di Valore Attuale Netto) dal nuovo capitale è
superiore a quello atteso dal vecchio. (Condizione 1)
In caso di asimmetrie informative, nel calcolo del VAN si utilizzerà un tasso di sconto (k) più alto
del costo corrente del capitale (i). (Condizione 2)
Condizione 1
𝑚 𝑚
𝑌𝑛,𝑡 𝑌𝑜,𝑡
∑ − 𝐶𝑛 > ∑ − 𝐶𝑜
(1 + 𝑖)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1
Dove: Y= profitti attesi; C= costo di acquisizione; i= normale tasso di sconto;
n= nuova tecnologia; o= vecchia tecnologia
Condizione 2
𝑚 𝑚
𝑌𝑛,𝑡 𝑌𝑜,𝑡
∑ − 𝐶𝑛 > ∑ − 𝐶𝑜
(1 + 𝑘)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1
Dove:
Y= profitti attesi; C= costo di acquisizione; i= normale tasso di sconto;
k= tasso di sconto rischioso con k=i+delta (con delta>0); n= nuova tecnologia; o= vecchia tecnologia
In caso di asimmetrie informative, la nuova tecnologia viene scontata ad un tasso maggiore, per tenere
in considerazione il rischio nell’adottare la nuova tecnologia.
Ponendo: Y=X-E con X=valore atteso della produzione; E=valore atteso costi di esercizio; diventa:
𝑚 𝑚 𝑚 𝑚
𝑋𝑛,𝑡 𝐸𝑛,𝑡 𝑋𝑜,𝑡 𝐸𝑜,𝑡
(∑ −∑ ) − 𝐶𝑛 > (∑ −∑ ) − 𝐶𝑜
(1 + 𝑘 ) 𝑡 (1 + 𝑘)𝑡 (1 + 𝑖 ) 𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1 𝑡=1 𝑡=1
2. Investimento di rimpiazzo
Quando si tratta di un investimento di sostituzione il problema per l’impresa è decidere quando è
economicamente vantaggioso sostituire il vecchio capitale. Questa situazione può essere affrontata
guardando a due casi limite, molto frequenti nel processo di diffusione.
Condizione 3.
Il primo riguarda il momento in cui la nuova tecnologia, dato il prezzo, diventa competitiva con la
vecchia. L’impresa può decidere la sostituzione nel momento in cui la nuova tecnologia sarà in grado
di dare dei profitti superiori a quelli attesi sul capitale esistente di un margine tale da coprire il costo
dell’investimento del nuovo capitale al netto del valore di usato del capitale esistente.
a) In termini formali, ponendo 𝑈𝑜 = valore di usato del capitale esistente, per l’imprese risk-taker
questo significa:
𝑚 𝑚 𝑚 𝑚
𝑋𝑛,𝑡 𝐸𝑛,𝑡 𝑋𝑜,𝑡 𝐸𝑜,𝑡
(∑ − ∑ ) − (∑ − ∑ ) > (𝐶𝑛 − 𝑈𝑜 )
(1 + 𝑖)𝑡 (1 + 𝑖)𝑡 (1 + 𝑖)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1 𝑡=1 𝑡=1
Questo vale in caso di perfetta informazione oppure quando l’impresa non è avversa al rischio, ovvero
quando nonostante le asimmetrie l’impresa non richiede un premio al rischio per l’incertezza.
(Differenza dei profitti attesi dalle due tecnologie + valore dell’usato corrente > Costo nuova tecn.)
b) Mentre, per l’impresa risk-averse, che tiene conto del premio di rischio, la condizione diventa:
𝑚 𝑚 𝑚 𝑚
𝑋𝑛,𝑡 𝐸𝑛,𝑡 𝑋𝑜,𝑡 𝐸𝑜,𝑡
(∑ − ∑ ) − (∑ − ∑ ) > (𝐶𝑛 − 𝑈𝑜 )
(1 + 𝑘 )𝑡 (1 + 𝑘)𝑡 (1 + 𝑖)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1 𝑡=1 𝑡=1
Condizione 4.
Il secondo caso riguarda il momento in cui la vecchia tecnologia non è più competitiva perché non
riesce a dare alcun profitto. Ciò accadrà quando i profitti attesi della vecchia tecnologia diventano
inferiori al valore di rottame del vecchio capitale.
A questo punto (condizione di chiusura) la vecchia tecnologia non produrrà più alcun profitto e
l’impresa deciderà di abbandonarla.
𝑚 𝑚
𝑋𝑜,𝑡 𝐸𝑜,𝑡
∑ − ∑ < 𝑅𝑜
(1 + 𝑖)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1
I costi di esercizio diventano così alti che l’impresa non riesce a raccogliere nemmeno il profitto
garantito dal valore di rottame (𝑅𝑜 ) del capitale esistente.
Innovazione di prodotto
Anche nel caso dei prodotti si possono avere diversi tipi di innovazione:
a) Innovazioni che allargano il numero di prodotti offerti dall’impresa;
b) Innovazioni di rimpiazzo, nuovi prodotti che vanno a sostituire prodotti esistenti, giunti alla
fine del loro ciclo di vita;
c) Innovazioni causate da spiazzamento tecnologico, quando il normale ciclo di vita di un
prodotto viene interrotto da una innovazione radicale.
L’analisi sull’innovazione di prodotto generalmente viene condotta sulla base di considerazioni
abbastanza simili a quelle di processo.
I modelli di diffusione
I temi sulla diffusione possono essere suddivisi in quattro approcci teorici:
1) Modelli basati sull’informazione, anche detti modelli epidemici;
2) Modelli basati sulle differenze, anche detti modelli “soglia”;
3) Modelli basati sulla teoria dei giochi (non trattato);
4) Modelli basati sulle caratteristiche dei prodotti (non trattato).
1. Information-based models
La mancanza di informazioni e asimmetrie informative rappresentano di solito le cause per un
processo di diffusione non-istantaneo. Ipotesi chiave:
a) Le informazioni sull’esistenza della tecnologia sono limitate, ovvero non tutti sono informati
sulle nuove tecnologie contemporaneamente;
b) La nuova tecnologia è superiore, nel senso che i prezzi da pagare per averla ed i benefici del
suo uso assicurano che l’impresa l’adotterà non appena ne verrà a conoscenza.
In ogni periodo di tempo la quota della popolazione che conosce la tecnologia è determinata dal
numero degli adottatori nel periodo precedente e dalla loro proporzione sul totale dei potenziali
adottatori (epidemic learning). Poiché le informazioni provengono principalmente da chi ha già
adottato la nuova tecnologia, il processo di diffusione può essere assimilato alla diffusione di un virus.
Gli imprenditori imiteranno chi adotta già la tecnologia non appena ne verranno a conoscenza.
La curva logistica:
La funzione logistica ci dice qual è la frazione degli adottatori al tempo t su una popolazione N. Nella
prima parte l’andamento è esponenziale, poi è crescente a tassi decrescenti fino alla copertura totale
della popolazione.
2. Differences-based models
In questo tipo di modelli si assume che tutti i potenziali adottatori conoscano la tecnologia ma
siano diversi tra loro per qualche tipo di caratteristica (dimensione, età, ecc.) che gli impedisce di
avere lo stesso rendimento nell’adozione della tecnologia. Si assume quindi che le imprese siano
eterogenee.
Ipotesi:
a) Esistono N adottatori potenziali che differiscono per una qualche caratteristica z che è
indipendente dall’uso della tecnologia ed è continuamente distribuita secondo la distribuzione
cumulativa F(z);
b) Tutti gli adottatori potenziali hanno informazione perfetta sull’esistenza e sulle
caratteristiche della nuova tecnologia;
c) La nuova tecnologia è superiore, nel senso che i prezzi da pagare per averla ed i benefici del
suo uso assicurano che l’impresa l’adotterà non appena ne verrà a conoscenza.
Al tempo t, un potenziale adottatore, i, introdurrà l’innovazione se il suo livello della caratteristica è:
- 𝑧𝑖 ≥ 𝑧𝑡
Dove 𝑧𝑡 indica un livello soglia della caratteristica, allora la proporzione della popolazione che ha
adottato al tempo t sarà data da 1 − 𝐹(𝑧𝑡 )
Esempio: tutte le imprese che superano una certa dimensione 𝑧𝑡 adotteranno l’innovazione. Perché la
dimensione può essere una caratteristica vincolante? Innanzitutto, perché le microimprese non
possono sopportare gli elevati costi di acquisizione di un’innovazione, e poi perché le piccole imprese
potrebbero mancare delle capacità per assorbire l’innovazione (capitale umano, ecc.).
La funzione di produzione si sposta verso l’alto (1), e a parità di fattore produttivo, la produzione è
maggiore (2).
Per una stessa quantità di Y, gli input necessari sono minori (3). Grazie al progresso tecnico si
riducono i costi marginali (4).
Calcoliamo adesso il surplus dei produttori, rappresentato dall’area al di sotto della retta del prezzo
di equilibrio ed al di sopra della funzione di offerta. È dato dai profitti al lordo dei costi fissi (9/10).
Una variazione del surplus dei produttori è uguale alla variazione dei loro profitti.
Il progresso tecnico ha un effetto indeterminato sul surplus dei produttori (può essere sia positivo
che negativo), ciò dipenderà dalle caratteristiche del progresso tecnico, cioè dal tipo di spostamento
della funzione del costo marginale delle imprese, e quindi dell’offerta di mercato, che indurrà il
progresso.
Solo il triangolo P(1)EB è comune ai due surplus, l’area rossa è del vecchio surplus, mentre l’area
verde sarà del nuovo surplus. Non è possibile concludere in maniera univoca.
Se il progresso tecnico determina uno spostamento parallelo verso il basso o convergente dell’offerta,
allora il surplus dei produttori e quindi i loro profitti aumentano. Se invece lo spostamento è
divergente il surplus e quindi i profitti possono sia aumentare che diminuire.
Situazione iniziale: tutte le imprese utilizzano la stessa tecnologia ed hanno la stessa struttura dei
costi
Periodo 1) poche imprese hanno introdotto l’innovazione, il costo marginale si riduce e l’offerta di
mercato diventa S(1) ed il prezzo P(1), i profitti delle aziende che non innovano diminuiscono e i
profitti delle aziende che innovano aumentano.
Chi non ha innovato si troverà nel
punto P(1)=CMg(0), con un prezzo
inferiore e una quantità prodotta
inferiore.
Periodo 2) molte imprese hanno introdotto l’innovazione (non tutte), il costo marginale si riduce e
l’offerta di mercato diventa S(2), ed il prezzo P(2), i profitti delle aziende che non innovano
diminuiscono ancora, i profitti delle aziende che avevano innovato nel periodo 1 diminuiscono.
Situazione finale) tutte le imprese hanno introdotto l’innovazione, tutte le imprese adesso utilizzano
la stessa tecnologia ed hanno la stessa struttura dei costi, l’offerta diventa S(F) ed il prezzo P(F).
In generale, i profitti delle aziende possono essere maggiori, minori o uguali a quelli della situazione
iniziale, questo dipenderà dal tipo di innovazione e quindi dalla variazione della curva di offerta
(parallelamente, convergente, divergente).
Con i servizi di divulgazione si aiuta la diffusione, aumenta il numero di aziende che adottano in
fretta l’innovazione, si raggiunge la copertura totale in meno tempo.
Chi ci guadagna e chi ci perde da un efficace servizio di divulgazione ed assistenza tecnica?
- Guadagnano i consumatori, godono prima dei benefici dell’innovazione;
- Guadagnano le aziende imitatrici (che innovano per seconde), vedono ridursi la lunghezza
del periodo in cui sostengono i costi del non adottare l’innovazione e godono prima dei
benefici dell’adozione dell’innovazione;
- Ci perdono le aziende innovatrici, vedono ridursi la lunghezza del periodo in cui traggono
vantaggio dalla mancata adozione dell’innovazione da parte delle altre aziende;
- Ci perdono le aziende che rimangono ritardatarie anche in presenza dell’assistenza
tecnica, vedono aumentare i costi del non adottare l’innovazione.
Regola pratica di Lucas: un paese che cresce al tasso g per anno raddoppierà il suo reddito pro capite
ogni 0.7/g anni. Questa regola si può spiegare così:
- si ponga y(t) il reddito pro-capite al tempo t e 𝑦0 il valore iniziale del reddito pro-capite.
Quindi: 𝑦(𝑡) = 𝑦0 𝑒 𝑔𝑡
- il tempo che impiega il reddito pro-capite per raddoppiare è dato dal tempo t* al quale
∗ 𝑙𝑜𝑔2
y(t*)=2𝑦0 . Pertanto: 2𝑦(𝑡) = 𝑦0 𝑒 𝑔𝑡 => 𝑡 ∗ = (log2=0.7 circa)
𝑔
Esempio: se un paese cresce ad un tasso dell’1.4% all’anno, raddoppierà il reddito pro-capite in circa
50 anni, se un paese cresce ad un tasso del 2.9%, lo raddoppierà in circa 24 anni.
Guardando alla crescita di cinque Paesi OCSE (Francia, Germania, Giappone, Gran Bretagna,
America) dal 1950 in poi vengono registrati i seguenti fenomeni (fatti stilizzati):
1) crescita elevata tra il 1950 ed il 1973, con un notevole miglioramento del tenore di vita (PIL
pro-capite);
2) rallentamento della crescita dalla metà degli anni 70 (dovuto alla crescita del prezzo del
petrolio);
3) convergenza nei livelli di PIL pro-capite, i paesi ritardatari sono cresciuti più velocemente,
riducendo il divario rispetto agli USA (come il Giappone).
Tuttavia, guardando all’evidenza empirica relativa ad un insieme di Paesi più ampio su di un periodo
di tempo più lungo emergono i seguenti fatti:
1) la crescita del PIL pro-capite è un fenomeno piuttosto insolito, rappresenta più un’eccezione
che una regola;
2) la convergenza del PIL pro-capite non è un fenomeno esteso su scala mondiale, potrebbe
essere dovuta al fatto di aver selezionato cinque paesi ricchi che per forza di cose sarebbero
cresciuti
3) in molti Paesi, soprattutto africani, la crescita è ancora sconosciuta, implicando un ampio
divario tra gli standard di vita tra Paesi poveri e ricchi;
4) alcuni paesi, come il Messico e la Costa d’Avorio esibiscono tendenze di crescita anomale,
con periodi di rapida crescita seguiti da un severo declino della produzione.
Si deducono i seguenti fatti:
Fatto 1) esiste un forte variazione nel reddito pro-capite tra le economie, i paesi più poveri hanno
redditi pro-capite che sono meno del 5% dei redditi pro-capite dei paesi più ricchi;
Fatto 2) i tassi di crescita economica variano sostanzialmente tra i paesi;
Fatto 3) i tassi di crescita non sono necessariamente costanti nel tempo;
Fatto 4) la posizione relativa di un paese nella distribuzione mondiale del reddito pro-capite non è
immutabile.
I modelli di crescita mirano ad individuare le determinanti di un fenomeno così complesso, al fine di
suggerire quali siano le politiche più appropriate per aumentare la crescita e portare gli standard di
vita dei paesi poveri più vicini a quelli delle nazioni sviluppate.
Modello di Solow
Controversia sulla convergenza (catching up): l’ipotesi della convergenza sostiene l’esistenza di
una convergenza nel reddito pro-capite tra paesi diversi, ciò vuol dire una relazione negativa tra
crescita e reddito pro-capite relativo.
Meccanismo: essere arretrati nei livelli di produttività comporta un forte potenziale di crescita della
produttività, i paesi ritardatari sono in grado di portare nella produzione un forte bagaglio di
tecnologie non sfruttate, i paesi che sono vicini alla frontiera della tecnologia invece hanno minori
opportunità di crescere più velocemente.
Assunzioni del modello:
1) la funzione di produzione è 𝑌(𝑡) = 𝐹[𝐾(𝑡), 𝐴(𝑡)𝐿(𝑡)]
dove: t= tempo, Y=prodotto, K=capitale, L=lavoro, A=stato della tecnologia, AL=lavoro
effettivo.
A parità di K e L, un miglioramento di A consente un incremento della produzione. Il
progresso tecnologico che moltiplica L è denominato labor-augmenting (è come se
aumentasse la unità di lavoro nell’economia)
2) rendimenti di scala costanti, ciò consente di ricavare la cosiddetta intensive form:
𝐹(𝐾/𝐴𝐿, 1) = 1/𝐴𝐿 ∗ 𝐹 (𝐾. 𝐴𝐿) = 𝑌/𝐴𝐿
Ponendo: K/AL=k=capitale per unità di lavoro effettivo
Y/AL=y=prodotto per unità di lavoro effettivo
Si può riscrivere la funzione di produzione come y=f(k);
3) prodotto marginale del capitale positivo ma decrescente (rendimenti decrescenti di k), e
quindi f ’(k)>0, f ’’(k)<0;
4) inada conditions, viene imposta per evitare che l’economia non diverga:
lim 𝑓 ′ (𝑘) = 𝑖𝑛𝑓
𝑘→0
lim 𝑓 ′ (𝑘) = 0
𝑘→𝑖𝑛𝑓
5) L ed A crescono a tassi esogeni: n e λ rispettivamente; i livelli iniziali di K, L ed A sono dati;
6) Y=C+I, il governo (G) è assente, l’offerta aggregata è data solo dal consumo e
dall’investimento;
7) I=sY, la frazione del prodotto aggregato dedicata agli investimenti è uguale al tasso di
risparmio s, che è esogeno e costante;
8) Il tasso di deprezzamento del capitale è = δ
Ne deriva che:
𝐾̇(𝑡) = 𝑠𝑌(𝑡) − 𝛿𝐾(𝑡) (1)
Dove il puntino su K indica la derivata rispetto al tempo d𝐾(𝑡) /dt, ovvero la variazione dello stock di
capitale nel tempo, data dall’investimento meno il deprezzamento del capitale.
Arrow: “da un punto di vista quantitativo, restiamo con il tempo quale variabile esplicativa. Ora
proiezioni di trend temporali sono fondamentalmente una confessione di ignoranza e, ciò che è peggio
da un punto di vista pratico, non sono variabili su cui la politica economica possa agire”.
Sapere cosa determina la crescita è una conoscenza per i policy maker per favorire il processo di
crescita, senza non saranno in grado di attuare politiche favorevoli alla crescita.
È necessario quindi chiedersi cosa rappresenti A e quali siano le sue determinanti. Varie sono le
interpretazioni della “labor effectiveness”. Potrebbe rappresentare:
- Astratta conoscenza;
Romer
Romer riprende il concetto di acquisizione di conoscenze mediante l’esperienza (learning by doing)
sottolineando la generazione di esternalità positive. L’apprendimento generato dall’attività della
singola impresa va solo in parte a suo vantaggio esclusivo, perché in larga misura si diffonde per
imitazione alle altre imprese. Inoltre, tende ad esternalizzarsi anche la parte che in un primo tempo
va a suo esclusivo vantaggio, nella misura in cui chi ha beneficiato dell’apprendimento può essere
assunto da altre imprese. Quindi ogni impresa, durante il suo operato, genera delle esternalità
positive delle quali non trae diretto vantaggio poiché ne trae beneficio esclusivo solo inizialmente. A
livello di singola impresa non ci sono rendimenti crescenti. Ma, se a quel livello ipotizziamo
rendimenti costanti, allora, a causa delle esternalità a livello di sistema economico avremo rendimenti
crescenti di scala. È proprio questa ipotesi che rende possibile la divergenza continua dei livelli di
PIL pro-capite tra paesi.
Ogni impresa non tiene conto delle esternalità che genera e opera come se non esistessero. Ciò
permette al sistema di trovare un equilibrio competitivo in regime di concorrenza come se non ci
fossero esternalità. Tale equilibrio, però, non è ottimo dal punto di vista generale e quindi lascia
spazio all’agire dello Stato. Le imprese tenderanno ad investire tempo e denaro nella formazione
del proprio personale non nella misura socialmente ottima, ma in misura minore. Si comprende allora
la necessità di un ruolo positivo dello Stato, chiamato a fornire incentivi alle imprese per la
formazione interna e/o a finanziare e gestire direttamente la formazione professionale.
4) Poiché le imprese sono identiche le grandezze aggregate sono il risultato della singola impresa
moltiplicato per M, ovvero: 𝑌 = 𝑀𝑌𝑖 , 𝐾 = 𝑀𝐾𝑖 , 𝐿 = 𝑀𝐿𝑖 , per cui la funzione di produzione
𝛽
del sistema economico è: 𝑌 = 𝑀𝑌𝑖 = 𝑀𝐴(𝐾𝑖 𝐿𝛼𝑖 𝐾 𝜙 )
Poiché β+α= 1 possiamo scrivere 𝑀 = 𝑀𝛽 𝑀𝛼 ,
𝛽 𝛽
per cui 𝑌 = 𝐴𝑀𝛽 𝐾𝑖 𝑀𝛼 𝐿𝛼𝑖 𝐾 𝜙 = 𝐴(𝑀𝐾𝑖 )𝛽 (𝑀𝐿𝑖 )𝛼 𝐾 𝜙 = 𝐴𝐾𝑖 𝐿𝛼𝑖 𝐾 𝜙 (1)
5) Se a livello di singola impresa i rendimenti sono costanti, a livello aggregato i rendimenti di
scala sono crescenti poiché (β+α+ϕ)>1;
6) Se β+α+ϕ=1 la (1) diventa 𝑌 = 𝐴𝐿α 𝐾;
7) Se n=0 (ovvero il lavoro L costante) la produttività marginale del capitale è costante (𝐴𝐿α
costante);
8) La crescita del prodotto (=alla crescita del prodotto pro-capite=crescita di K) è del tipo:
𝑔𝑦 = 𝑔𝑌 = 𝑔𝐾𝑡 = 𝑠𝐴𝐿𝛼
[Nota: 𝑔𝐾𝑡 = (𝐾𝑡+1 − 𝐾𝑡 )/𝐾𝑡 = 𝐼𝑡 /𝐾𝑡 = 𝑠𝑌𝑡 /𝐾𝑡 = 𝑠𝐴𝐿𝛼 𝐾𝑡 /𝐾𝑡 ]
𝛼
Dove 𝑠𝐴𝐿 è il tasso di crescita del prodotto che è costante ed endogeno. È endogeno poiché
s (tasso di risparmio) e α (tecnologia) sono la risultante di scelte specifiche degli agenti
economici di ciascun paese;
9) L’ipotesi β+α= 1 risulta verificata solo se le esternalità positive generate da K sono equivalenti
ad un progresso tecnologico “labour augmenting”;
10) Infatti, siccome β+α= 1, affinché β+ϕ= 1 ϕ=a, la funzione di produzione della singola
impresa può essere scritta come:
𝛽
𝑌𝑖 = 𝐴𝐾𝑖 (𝐿𝑖 𝐾)𝛼
(LK= le unità di lavoro sono più di quelle reali grazie all’effetto di K)
Se l’uguaglianza β+ϕ= 1 non si verifica una crescita a tasso costante non è possibile. È quindi
un’ipotesi molto particolare quella su cui si regge la possibilità di uno steady state in questo
modello
Lucas
Per Lucas la crescita del reddito pro-capite può essere spiegata solo dall’accumulazione in capitale
umano (grado di preparazione e specializzazione raggiunta dal singolo lavoratore). È l’investimento
in capitale umano piuttosto che quello in capitale fisico che genera le esternalità che fanno aumentare
il livello della tecnologia e della produttività.
La decisione di accumulare questa forma specifica di K dipende dalla scelta del singolo di allocare il
proprio tempo tra tempo libero, ore di lavoro e tempo dedicato allo sviluppo della propria
preparazione e conoscenze.
aumentando u, e il reddito futuro, che invece si riduce aumentando u, perché si sacrifica la formazione
e quindi l’accumulazione di capitale umano.
La (1) si può riscrivere come: 𝑌𝑡 = 𝐾𝑡𝛼 (𝑢ℎ𝑡 𝑁)1−𝛼 (ℎ𝑡 𝑁)𝛾
Derivando il logaritmo del primo e del secondo membro rispetto al tempo (ricordando che u ed N
sono costanti) si ha: 𝑔𝑌 = 𝛼𝑔𝐾 + (1 − 𝛼 + 𝛾)𝑔ℎ (2)
Si suppone, inoltre, che il tasso di crescita di h, 𝑔ℎ , sia esattamente proporzionale alla frazione di
tempo investita per tale crescita (1-u): 𝑔ℎ = 𝛿 (1 − 𝑢) (3)
Dove δ è una costante positiva.
In steady state 𝑔𝑌 = 𝑔𝐾 per cui dalla (2) e la (3) si ottiene:
𝑔𝑌 = 𝛼𝑔𝑌 + (1 − 𝛼 + 𝛾)𝛿 (1 − 𝑢)
𝑔𝑌 = [(1 − 𝛼 + 𝛾)/(1 − 𝛼 )]𝛿(1 − 𝑢)
Tale tasso di crescita è costante (dato che è funzione di parametri costanti) ed endogeno (poiché
dipende dalla scelta di u che dipende dalle scelte degli individui). Si ottiene così una soluzione di
steady state in cui sia reddito che produttività oraria crescono al tasso appena ottenuto.
Differenze internazionali dei tassi di crescita della produttività potrebbero derivare anche da
differenze di tecnologia differenti da α e δ.
Anche in questo modello la soluzione di steady state si fonda su di un’ipotesi piuttosto fragile, ovvero
𝑔ℎ = 𝛿 (1 − 𝑢). Una volta scelta la frazione di tempo da dedicare all’istruzione e alla formazione
(1-u), e indipendentemente dall’ampiezza di questa (!), il capitale umano crescerà al tasso 𝑔ℎ costante
nel tempo. Questo è un po’ irrealistico, poiché raggiunto un certo livello dovrebbe iniziare a
presentare rendimenti di scala decrescenti.
Un altro modello di crescita endogena (a tasso costante) è quello in cui la crescita della produttività
è endogena perché dipende dalle risorse dedicate dalle imprese alla R&S, le quali a loro volta
dipendono da un insieme di elementi potenzialmente diversi da un paese all’altro, in parte legati a
scelte di agenti economici, ma anche all’organizzazione dei mercati, al sistema giuridico e agli
incentivi pubblici.
La teoria della crescita endogena ha avuto il merito di far rinascere attenzione verso un problema
centrale degli studi economici: come e perché si ha crescita economica differenziata.
Ha contribuito ad indicare il ruolo rilevante che assumono le scelte economiche e politiche in ordine
all’accumulazione di capitale umano, alla politica economica strutturale e alla ricerca e sviluppo.
Ha suscitato un gran numero di studi empirici.
Critiche: per ottenere sentieri a tasso costante di crescita si devono introdurre ipotesi fragili e
arbitrarie. Tale teoria tenta di incapsulare in precise relazioni quantitative fenomeni che a ciò non si
prestano. Il progresso tecnico nasce da un processo di apprendimento collettivo ed individuale, che
solo in parte può essere ricollegato a scelte economiche. Certo esso dipende dalle decisioni riguardanti
la spesa in istruzione e R&S, ma tali decisioni sono spesso basate su di una visione dell’interesse
collettivo e non sulla massimizzazione di quello individuale, come vorrebbero i modelli sopra
descritti. Vi sono aspetti storici, istituzionali o culturali che condizionano la capacità di imparare, di
scoprire nuove cose, di assumere il rischio e la fatica di innovare. Tutto ciò non può essere colto in
modo soddisfacente dai modelli economici. Nella teoria economica contemporanea esistono filoni di
studi sul progresso tecnico che prestano molta attenzione agli aspetti ora ricordati e alle loro
specificità nazionali o regionali, che concorrono a spiegare la crescita della produttività.
Convergenza Assoluta
Il sistema converge automaticamente verso lo steady state. In tale punto, Y cresce al tasso n+λ, per
cui Y/L (reddito per addetto o prodotto per addetto) cresce al tasso λ.
Il modello di Solow prevede convergenza assoluta nei tassi di crescita del reddito per addetto.
Un’equazione stimabile è:
𝑐𝑖,𝑡 = α + βlog(𝑦𝑖,0 ) + 𝑢𝑖,𝑡 (1)
Dove c è la variabile dipendente, log è la variabile esplicativa e β è stimabile.
L’ipotesi di convergenza assoluta è confermata se il coefficiente β è negativo e statisticamente
significativo: i paesi poveri tendono a crescere più velocemente dei paesi ricchi.
Se β è positivo o non è significativamente diverso da 0, la convergenza assoluta non è confermata dal
metodo parametrico.
Primi Studi
Baumol suggerisce una convergenza quasi perfetta per 16 Paesi industrializzati (coefficiente vicino a
-1). Secondo De Long questi risultati possono essere distorti dalla selezione del campione: Paesi che
erano poveri 100 anni fa rientrano oggi nel novero dei Paesi industrializzati solo se sono cresciuti
velocemente in tale periodo. Estendendo il campione ad altri Paesi il coefficiente stimato viene
ridimensionato notevolmente. Inoltre, Baumol tiene in considerazione errori di misurazione nel
calcolo del reddito pro-capite iniziale.
Se esiste una certa convergenza tra i Paesi sviluppati, questo non è vero per i Paesi in via di sviluppo.
Si può forse parlare di convergenza per gruppi di paesi, “Club di convergenza”, e nel periodo
“dell’età dell’oro” (1950-1973).
Romer invece va contro la convergenza assoluta, secondo il suo studio in media i paesi poveri non
crescono più velocemente dei paesi ricchi.
Convergenza Condizionata
Secondo questa ipotesi, le economie più povere possono stare su diverse funzioni di produzione,
fermo restando il comune tasso di crescita di steady state.
I paesi in via di sviluppo cioè possono avere diversi tassi di risparmio e diverse tecnologie. E
questo a causa di fattori che condizionano il loro tasso di risparmio e la loro produttività del capitale
(funzione di produzione), e che l’analisi si assume il compito di identificare.
Queste differenze in tasso di risparmio e/o produttività influiscono sul valore del tasso di crescita in
transizione (ovvero il tasso tra un equilibrio e l’altro) e sul livello di reddito in steady state.
Entrambe le economie convergono verso lo stesso tasso di crescita, il tasso di risparmio non ha effetti
sul tasso di crescita della produzione, tuttavia determina il livello del prodotto nel lungo periodo.
Un maggior livello di s porta ad una crescita della produzione maggiore per un certo periodo di tempo,
ma non per sempre. L’economia attraverserà un periodo di crescita superiore (durante la
transizione), destinato comunque a finire quando si sarà raggiunto il nuovo steady state.
Perché un maggior livello di s porta ad una crescita della produzione maggiore nella transizione tra
uno steady state e l’altro? Nel modello di Solow, il tasso a cui il capitale per unità di lavoro effettivo
cambia nel tempo è:
𝑘̇(𝑡) = 𝑠𝑓(𝑘(𝑡) ) − (𝑛 + λ + 𝛿)𝑘(𝑡)
Se s cresce, il primo termine cresce e quindi k cresce ad un tasso positivo, però questo avviene solo
durante la transizione poiché nel nuovo steady state il tasso di crescita di k torna a zero.
Le variabili condizionanti possono essere cercate sia tra quelle atte a sostenere o deprimere la
produttività marginale del capitale sia tra quelle atte ad influire sul tasso di risparmio e di
accumulazione.
Un’equazione stimabile per verificare l’ipotesi di convergenza condizionata è:
𝑐𝑖,𝑡 = α + βlog(𝑦𝑖,0 ) ∑ 𝛾𝑗 𝑆𝑗,𝑖,𝑡 + 𝑢𝑖,𝑡 (2)
Dove S è un set di variabili destinate a cogliere le differenze per paese di natura strutturale ed
istituzionale.
Se β è significativo e negativo ciò segnala un processo di convergenza condizionato dall’effetto delle
variabili S.
Risultati empirici
Considerando le variabili più spesso trovate significative in centinaia di lavori empirici possiamo
dire che la crescita economica si presenta come un processo condizionato da:
- Reddito iniziale (con segno negativo);
- Livello degli investimenti;
- Attività di R&S;
- Accumulazione di capitale umano;
- Livello delle esportazioni (o grado di apertura al commercio estero);
- Condizioni istituzionali.
𝑄𝑖 = 𝑓(𝐾𝑖 , 𝐿𝑖 , 𝑅𝑖 , 𝑀𝑖 [𝑅𝑖 ], 𝐴 [∑ 𝑀𝑖 ])
𝑖
R= risorse naturali estratte dall’ambiente;
M= rifiuti prodotti, che sono dipendenti dalle risorse impiegate
A= livello di concentrazione nell’ambiente di qualche inquinante che dipende dalle emissioni totali
di rifiuti di tutte le imprese (feedback effects, utilizzo intensivo di prodotti chimici)
Wackernagel e Rees forniscono una definizione di impronta ecologica dell’umanità: “di quanta
superficie in termini di terra e acqua la popolazione umana necessita per produrre le risorse che
consuma e per assorbire i rifiuti prodotti, usando la tecnologia disponibile”.
Possiamo quindi valutare la pressione che l’umanità esercita sul pianeta.
A partire dalla metà degli anni ’80 l’umanità sta vivendo in overshoot, ovvero al di sopra dei propri
mezzi in termini ambientali. Oggi l’umanità usa l’equivalente di 1,3 pianeti ogni anno, ciò significa
che oggi la Terra ha bisogno di un anno e quattro mesi per rigenerare quello che usiamo in un anno.
Ogni Paese ha il proprio profilo di rischio ecologico: molti sono ormai in deficit ecologico, con
impronte più grandi della propria capacità biologica, ovvero la capacità della natura di produrre
materie, risorse utili e di assorbire i rifiuti dell’attività umana. Altri dipendono pesantemente da
risorse sterne che sono sottoposte ad una pressione crescente.
In alcune aree del pianeta, le implicazioni dei deficit ecologici possono essere devastanti, condurre
alla perdita delle risorse, al collasso degli ecosistemi, all’indebitamente, alla carestia ed alla guerra.
IPAT identity
I≡PAT
I= impatto, misurato come volume o massa (in tonnellate);
P= popolazione;
A= benessere pro-capite (affluence), misurato in termini di reddito pro-capite;
T= tecnologia, ammontare di risorse impiegate (o rifiuti generati) per unità di produzione.
𝐸𝑢𝑟𝑜 𝑡𝑜𝑛𝑛𝑒𝑙𝑙𝑎𝑡𝑒
𝑛∗ ∗
𝑛 𝐸𝑢𝑟𝑜
P A T I
(miliardi) (dollari) (tonnellate per (emissioni di
dollaro) CO2, miliardi di
tonnellate)
Anno 2007 6.5 9543 0.0004662 28.98
1) P*1.5 9.77 9543 0.0004662 32.32
2) P*1.5 & A*2 9.77 19086 0.0004662 86.95
3) P*1.5 & A*2 9.77 19086 0.0001554 28.98
a parità di I
“Il fatto che un’intensa attività economica va a danneggiare inevitabilmente l’ambiente è basata su
assunzioni statiche basate sulla tecnologia e sugli investimenti ambientali.” World Development
Report (1992).
Questo punto di vista può essere rappresentato da una relazione lineare: e=αy, dove e rappresenta le
emissioni pro-capite di una sostanza inquinante e y rappresenta il reddito pro-capite.
Prima fase: bassi livelli di sviluppo economico sono associati a moderato degrado ambientale.
Un’attività economica di sussistenza produce quantità limitate di rifiuti (biodegradabili) e impiega
meno risorse. L’accelerazione dello sviluppo economico, con il decollo dell’industrializzazione,
l’intensificazione dell’agricoltura, l’estrazione crescente di risorse, provoca uno sfruttamento delle
risorse eccedente il tasso al quale le stesse si rigenerano. La produzione di rifiuti aumenta in quantità
e tossicità.
Seconda fase: ad alti livelli di sviluppo, 4 fattori principali causano un declino del degrado
ambientale e quindi la relazione negativa tra reddito ed emissioni:
1) Cambio strutturale dell’industria, dal manifatturiero verso industrie ad alta intensità di
informazione e verso l’offerta di servizi;
2) Aumento della sensibilità ambientale, la società si preoccupa dell’ambiente in cui vivono e
in cui vivranno i propri figli;
3) Migliori tecnologie, meno inquinanti e con una maggior efficienza energetica;
4) Maggiore spesa e regolamentazioni più stringenti per la salvaguardia ambientale.
Se fosse vero, invece di rappresentare una minaccia per l’ambiente, il processo di crescita potrebbe
essere uno strumento per migliorare l’ambiente, superato il turning point.
A partire dagli anni ’90, molti studi empirici hanno cercato di verificare l’ipotesi della ECK,
attraverso tecniche econometriche. Secondo Panayotuo, tutte le relazioni stimate (per: anidride
solforosa, ossido di azoto, deforestazione e particolato) supportano l’ipotesi della EKC.
Sintetizzando possiamo dire che la relazione tra reddito ed impatto ambientale sembra assumere
andamenti diversi per i diversi inquinanti. Gli studi empirici dimostrano un andamento ad U
rovesciata per inquinanti con impatto locale e regionale (come l’anidride solforosa, che riproduce
fedelmente le EKC), ma non per quelli con impatto globale (come l’anidride carbonica,
caratterizzata da una relazione monotona crescente rispetto al PIL).
L’azione locale è gestita dalle amministrazioni locali. Risultati globali sono più difficili da
raggiungere perché richiedono l’azione coordinata tra molti stati. I tentativi di riduzione dei gas serra
negli ultimi anni sono stati un fallimento proprio per la mancanza di accordi. I Paesi emergenti non
accettano accordi simili perché dal loro punto di vista se i Paesi sviluppati hanno raggiunto livelli di
benessere anche grazie all’inquinamento di cui sono responsabili, perché i Paesi che vogliono
raggiungere alti livelli di benessere dovrebbero rinunciare per ridurre le emissioni?
I risultati rimangono, comunque, non omogenei: a parità di inquinante, alcuni autori verificano la
curva, altri no (come Stern e Common, 2001, che non riscontrano evidenza di una EKC per l’anidride
solforosa).
1). La presenza di una EKC per i paesi industrializzati può essere spiegata da un lato dalla reale
tendenza ad abbattere l’inquinamento all’aumentare del reddito, ma dall’altra da una distorsione
derivante dal commercio internazionale. Il crescente processo di globalizzazione può portare infatti
ad un sistema in cui i paesi industrializzati riducono la produzione di beni ad alto impatto ambientale
per specializzarsi in produzioni più verdi e importino i beni maggiormente pollution-intensive
dall’estero. Questa critica trova sostegno nel teorema di Heckscher-Ohlin. Spostare i processi
inquinanti in Paesi in via di sviluppo può essere più dannoso dato non hanno tecnologie
all’avanguardia e anche perché probabilmente le norme ambientali sono meno stringenti.
Il commercio internazionale ed il processo di globalizzazione possono quindi avere l’effetto di
ridistribuire nello spazio le imprese inquinanti, spostando l’inquinamento più che riducendolo.
2). Stern e altri studiosi si sono chiesti: ipotizzando che l’ipotesi EKC sia confermata per un certo
inquinante, possiamo concludere che l’impatto globale di tale inquinante è destinato a ridursi nel
medio-lungo periodo?
Considerando un grafico relativo all’anidride solforosa, prodotto da Panayotou, il valore soglia è
vicino al reddito medio mondiale. Per cui si potrebbe ritenere che aumentando i redditi pro-capite dei
paesi oltre quella soglia, le emissioni pro-capite finiranno per decrescere ovunque. Ma la distribuzione
dei redditi è asimmetrica, molti più paesi (inclusi alcuni con larga popolazione) si trovano sotto e non
sopra la media, per cui continuando a crescer e incrementeranno le emissioni pro-capite. Inoltre,
considerando anche la crescita della popolazione, le emissioni globali sono destinate ad aumentare.
Stern e altri studiosi, utilizzando:
- proiezioni della crescita del PIL pro-capite e della crescita della popolazione;
- stime di Panayotou relative ad anidride solforosa e deforestazione;
hanno prodotto delle proiezioni relative alle emissioni globali di anidride solforosa e all’andamento
globale della deforestazione per il periodo (1990-2025). Nonostante l’ipotesi EKC imposta, le
emissioni globali di anidride solforosa aumentano da 383 (milioni di tonnellate) nel 1990 a 1181 nel
2025, mentre l’estensione delle foreste si riduce da 40.4 milioni di km² nel 1990 a 37.6 milioni di km²
nel 2025.
3). Migliori tecnologie (meno inquinanti e con una maggior efficienza energetica) sono richiamate
come elemento fondamentale che contribuisce a ridurre l’impatto ambientale delle nostre produzioni.
Bisogna però prestare attenzione alla trappola del paradosso di Jevons.
Jevons si è posto il problema dell’efficienza e del risparmio, arrivando a esprimere il suo paradosso
come segue: “è una confusione di idee quella di supporre che l’uso economico di un combustibile è
equivalente a ridurne i consumi, è vero proprio l’opposto”.
Secondo il principio di Jevos (o Rebound Effect), se usiamo una risorsa in modo più efficiente:
a) tenderemo ad usarne di più;
b) i risparmi nell’uso di una certa risorsa possono essere anche trasferiti su un uso più
intenso di un’altra.
Ovvero, ciò che si risparmia potrebbe essere controbilanciato da nuovi usi (superflui).
4). Molte nuove tecnologie possono avere un impatto negativo sull’ambiente. Per esempio, molti
prodotti ad alto contenuto di tecnologia non vengono smaltiti correttamente. Parliamo dunque di
technotrash o E-waste, ovvero rifiuti elettronici. Secondo alcuni studi ogni anno si producono tra
i 20 e i 50 milioni di tonnellate di technotrash in tutto il mondo. Secondo uno studio della United
Nations University, nel 2016 sono stati prodotti 43 milioni di tonnellate di rifiuti elettronici, una
crescita dell’8% rispetto al 2014, registrando quindi la crescita più rapida rispetto a qualsiasi altro
tipo di rifiuto. Le ragioni di questa forte crescita sono principalmente tre:
a) calo dei prezzi dei prodotti elettronici;
b) convinzione che i nuovi prodotti incorporano nuove innovazioni tali da rendere i vecchi
modelli obsoleti, anche a distanza di pochi anni;
c) incompatibilità dei nuovi software con i vecchi modelli.
Solo il 24.9% di tutti i rifiuti elettronici sono stati riciclati nel 2011. Questi rifiuti non solo sono
dannosi per il pianeta ma contengono anche metalli preziosi (oro, argento, platino) che potrebbero
essere riutilizzati nei processi produttivi per la produzione di microchip, schede madri e altri
componenti. Si stima che oggi nell’Unione Europea siano almeno 700 milioni i cellulari “sepolti nei
nostri cassetti”, che riciclati potrebbero far recuperare circa 14.920 tonnellate di metalli preziosi, dal
valore di oltre 1 miliardo di euro.
Secondo i ricercatori la chiave per risolvere questo problema sarebbe quella di attivare un
meccanismo circolare nella catena del valore degli smartphone, che ad oggi è una linea retta che
parte dall’estrazione delle materie prime e finisce con lo smaltimento, con basse percentuali di riciclo.
Sarebbe necessario incentivare il riutilizzo sul mercato dell’usato, dovrebbe essere più semplice ed
economico riparare gli smartphone non funzionanti, recuperare le parti per reimmetterle nel ciclo di
produzione. Bisognerebbe pensare ad un modo per recuperare questi materiali, per esempio
obbligando i produttori ad effettuare il ritiro dell’usato.
La studiosa Mariana Mazzucato si è posta una domanda che ha aperto un acceso dibattito: quale
attore nell’economia è responsabile delle innovazioni radicali?
(Richiami a innovazioni radicali e processo)
La Mazzucato fa notare che sebbene da un punto di vista analitico le fasi del processo innovativo
possono essere facilmente distinte, come pure possono essere identificati gli attori principali, dal
punto di vista pratico il più delle volte esse sono indistinguibili: un esempio è quello delle nuove
tecnologie dell’informazione e della comunicazione sviluppate negli anni Novanta nella Silicon
Valley, in cui gli stessi attori erano impegnati con funzioni diverse nelle università e nelle aziende
create ad hoc per sfruttare le nuove idee.
La parola “Silicon” (silicio) in origine si riferiva alla forte concentrazione di fabbricanti di
semiconduttori e di microchip, che stimolarono l’insediamento successivo di aziende di computer,
produttori di software e fornitori di servizi di rete. L’area è oggi sede di molte grandi aziende high-
tech, tra cui Apple, Facebook, Intel, Google, ecc.
Qual è il segreto dietro al modello di crescita della Silicon Valley?
L’idea predominante è che il segreto sia basato su:
a) un settore di venture capital dinamico che sia effettivamente in grado di fornire quei capitali
ad alto rischio alle aziende innovative;
b) politiche di marketing di successo che effettivamente permettono a queste aziende di
introdurre grandi invenzioni, i loro prodotti, sul mercato.
Secondo questa visione in posti come l’Europa il problema è il settore pubblico, che ha impedito a
fattori come il venture capital di essere veramente produttivo. Infatti, alcuni giornali descrivono lo
stato come fosse un Leviatano, un mostro con enormi tentacoli. Inoltre, si sostiene che il settore
privato è più innovativo perché è in grado di pensare fuori dagli schemi. Secondo questa visione lo
Stato dovrebbe finanziare le infrastrutture, le scuole, la ricerca di base (in cui i privati non vogliono
investire). Il resto dovrebbe essere lasciato in mano ai “rivoluzionari”, pensatori fuori dagli schemi
che popolano il settore privato.
Eppure, pensando agli smartphone ci rendiamo conto che gli elementi che rendono davvero smart
questi dispositivi sono tutti frutto di finanziamenti statali:
a) internet, fondato da DARPA, Dipartimento della Difesa americano (nonché SIRI);
b) il GPS, finanziato dal programma militare Navstar;
c) lo schermo touchscreen, finanziato da due donazioni pubbliche della CIA e dell’NSF a due
ricercatori dell’università del Delaware.
In questi esempi lo Stato faceva più che risolvere problemi di mercato, stava in realtà dando
forma e creando nuovi mercati. Quando queste applicazioni erano ancora incerte è stato
fondamentale l’investimento dello Stato, svolgendo un vero e proprio ruolo di venture capitalist,
investendo in ricerca applicata. Lo Stato può essere un investitore più audace e più paziente di un
venture capitalist, che si aspetta dei ritorni in 3/5 anni, molte innovazioni però hanno bisogno di molto
più tempo, dai 15 ai 20 anni. Non è solo lo Stato che effettivamente finanzia queste aziende, il settore
privato da un grosso contributo.
Nonostante questo, la visione dominante non prende in considerazione l’importante ruolo che lo Stato
ha assunto.
Secondo la Mazzucato lo stato è più di un semplice riparatore del mercato, in realtà è anche un
creatore del mercato, e facendo questo si assume un grosso rischio. Qual è il ritorno che lo Stato
si aspetta dopo aver corso questi rischi? Si potrebbe pensare che i posti di lavoro che si verranno a
creare contribuiranno alla crescita dei redditi, una parte dei quali ritornerà allo stato attraverso il
meccanismo delle tasse, ma questo non è vero poiché molti di quei posti di lavoro verranno creati
all’estero. Lo Stato potrebbe invece conservare delle quote azionarie delle imprese che innovano.
Questo fenomeno avviene già in paesi come la Finlandia, la Cina, il Brasile.
Vi sono, d’altro canto, autorevoli economisti che vanno contro il pensiero della Mazzucato, come
Alesina e Giavazzi che sostengono che “non può funzionare l’illusione che lo Stato e la politica siano
in grado di individuare i settori e le imprese che avranno successo”, in termini di innovazione.
Secondo Alesina e Giavazzi lo Stato dovrebbe garantire università eccellenti, dovrebbe essere in
grado di trattenere e attrarre i cervelli migliori, dovrebbe garantire un ambiente dove la “distruzione
creatrice” possa generare nuove imprese che vadano a sostituire le vecchie, dato che è proprio nelle
nuove imprese che nascono più facilmente le idee. È necessario un welfare che renda meno dolorosa
la transizione da imprese vecchie a imprese nuove, proteggendo i lavoratori e non i posti di lavoro.
Il metodo PSM
Analisi dell’effetto di sussidi sull’attività di R&S
La domanda che ci poniamo è: i sussidi pubblici stimolano l’attività di R&S dei privati?
Il Propensity Score Matching è un metodo che può essere utilizzato:
a) in economia, per la valutazione dell’impatto di politiche economiche (esempio: impatto di
corsi di formazione sul salario dei lavoratori, impatto dell’appartenenza a GVC sulla
produttività, ecc.);
b) in campo medico, per la valutazione dell’effetto di un trattamento (farmacologico o può
consistere in una nuova tecnica chirurgica);
c) dalle imprese, per valutare l’impatto di strumenti di marketing (impatto di promozioni via e-
mail, ecc.).
L’obiettivo del PSM è valutare l’impatto dell’intervento sui soggetti destinatari, utilizzando dati
osservati, che NON sono generati da “esperimenti randomizzati”.
Il gold standard per la stima degli effetti causali è condurre esperimenti randomizzati, ad esempio
delle clinical trials.
I partecipanti vengono assegnati in modo casuale a due gruppi: gruppo trattati (T) e gruppo di
controllo (C) (non trattati). Grazie al processo di randomizzazione sappiamo che tutti i
partecipanti hanno la stessa probabilità di far parte del gruppo trattati e ci assicura che, in
media, le caratteristiche dei due gruppi sono uguali, differiscono solo per il trattamento. Se siamo
interessati a misurare l’effetto del cambiamento su una certa outcome variable (y) possiamo stimare
l’impatto del trattamento come differenza tra l’outcome medio del gruppo trattati (𝑌𝑇 ) e l’outcome
medio del gruppo di controllo (𝑌𝐶 ).
𝐼𝑚𝑝𝑎𝑡𝑡𝑜 𝑡𝑟𝑎𝑡𝑡𝑎𝑚𝑒𝑛𝑡𝑜 = 𝑌𝑇 − 𝑌𝐶
La chiave degli esperimenti randomizzati è che l’assegnazione random del trattamento assicura che
tutti i soggetti abbiano uguale probabilità di ricevere il trattamento. Vengono presi tutti i possibili
accorgimenti affinché non esista alcuna correlazione tra l’assegnazione al gruppo trattati e le
caratteristiche dei soggetti. Affinché si possa stabilire l’effetto causale è importante garantire
l’assegnazione random del trattamento. In questo modo, i ricercatori possono misurare l’effetto
del trattamento a prescindere da altri fattori che possono condurre le persone o i gruppi a partecipare
ad un certo trattamento. L’effetto causale che viene stimato non dipende da nessun processo di
selezione nel trattamento che può essere un processo di selezione guidato dall’esterno (self-
selection), le persone potrebbero auto selezionarsi in un gruppo (exogenus selection).
Nei processi randomizzati escludiamo il selection bias (distorsione da selezione). Se selezionassimo
il gruppo dei trattati su base volontaria, l’impatto risentirebbe da effetti diversi dalla partecipazione
al programma di educazione civica. Le caratteristiche individuali (esempio: maggiore propensione
ad essere più sociale) potrebbero rendere diversi i volontari dai non volontari e quindi queste
caratteristiche potrebbero essere correlate con la propensione a votare. La propensione al voto non
dipenderebbe dalla partecipazione al programma ma da caratteristiche personali
(confounders), ovvero quelle caratteristiche che hanno portato gli individui ad auto selezionarsi.
Se lo studio clinico sopra descritto fosse basato su dati osservati e non randomizzati, i pazienti
appartenenti ai due diversi gruppi di intervento possono differire in modo sostanziale rispetto a
caratteristiche quali età, sesso, stato di salute. Tali fattori potrebbero essere potenzialmente correlati
all’outcome di interesse e costituire fattori di confondimento.
Età avanzata, una ridotta funzione cardiopolmonare, lo stadio avanzato della patologia possono
contemporaneamente influire su:
1) la probabilità che il pazienta venga trattato con chirurgia open piuttosto che laparoscopica;
2) sul tasso di mortalità del paziente (sulle complicanze e sulla degenza).
Dunque, un alto tasso di mortalità verrebbe associato alla tecnica e non alle caratteristiche dei soggetti
con un pessimo quadro clinico e quindi avremmo una visione distorta.
Le visite hanno l’obiettivo di generare più prescrizioni: ma “più” di quante? Più di quelle che i
dottori avrebbero firmato senza le visite. Le compagnie farmaceutiche dovrebbero essere in grado di
misurare e comparare il numero di prescrizioni dopo la visita con il numero di prescrizioni che
sarebbero state firmate senza la visita, ma non possiamo misurare quest’ultime.
Esempio: visite a medici con alta propensione a prescrivere, ipotizzando di riuscire a misurare
entrambi i casi (visita e non visita).
In entrambi i casi registreremo un +5. Se non
potessimo misurare il caso senza visite
trarremmo una visione distorta perché,
registrando un incremento di 5 prescrizioni a
seguito della visita, potremmo erroneamente
attribuire l’incremento alla visita e non all’alta
propensione del medico.
Ipotesi:
1) Unconfoundedness: la selezione al trattamento avviene solo per caratteristiche osservabili
(selection of observables). La partecipazione al trattamento dipende solo da caratteristiche
osservabili e misurabili. Tenendo in considerazione questi confounders che influenzano la
partecipazione, l’assegnazione dei sussidi torna ad essere random. È un’ipotesi molto forte,
raramente nella realtà l’assegnazione dipende solo da caratteristiche osservabili;
2) Overlap: è necessario che per ogni impresa finanziata ci sia un’impresa simile non finanziata
che possa essere utilizzata per compararle.
Per utilizzare questa metodologia è importante avere campioni molto numerosi, in modo da trovare
cloni per ciascuna impresa. È indispensabile una forte conoscenza del processo di selezione dentro il
trattamento, dei confounders che possono influire sul trattamento.
Verificate queste condizioni, il metodo consiste nell’associare ciascun trattato ad un non trattato sulla
base di caratteristiche osservabili, ma dato che queste possono essere molto numerose (rendendo
impossibile un matching perfetto), un modo per rendere più semplice l’associazione è quello di
utilizzare una loro funzione, la probabilità di partecipazione al programma (propensity score).
Disoccupazione tecnologica
Salari, profitti e rendite nel capitalismo digitale
Alla base abbiamo un vecchio dibattito:
- Luddisti (Inghilterra e Francia, XIX secolo): il progresso tecnologico è responsabile
dell’aumento della disoccupazione;
- Sostenitori delle tesi di Schumpeter: il progresso spazza via alcuni lavori, ma ne genera altri,
più sicuri, motivati e meglio retribuiti.
La progressiva sostituzione della manodopera e dell’intelletto umano con la tecnologia (robot
ed intelligenza artificiale) creerà sempre più disoccupati?
Secondo Massimo Giannini: “I robot, nei processi produttivi, stanno tagliando il collegamento che
esiste tra innovazione tecnologica e crescita occupazionale. Per i prossimi decenni si parla di “jobless
growth”, crescita senza lavoro. I robot, seppur in maniera silenziosa, fanno strage di lavoratori. Le
tecnologie ci aiutano a vivere meglio, ma al prezzo di una gigantesca bolla di disoccupazione che non
si sgonfierà per 20 anni, cioè fino a quando la quantità dei lavoratori “obsoleti” espulsi dal ciclo
produttivo non sarà interamente compensata dai lavoratori “innovativi” assunti nel frattempo per
produrre le nuove tecnologie”.
Antonio Aquino però fa notare che: “Fino ad oggi la dinamica delle principali variabili
macroeconomiche non sembra offrire particolare sostegno a queste valutazioni, e, in prospettiva, le
previsioni demografiche sembrano originare preoccupazioni di segno opposto”.
Dinamica della produttività negli anni 2000: la jobless growth provocata dalla rivoluzione dei robot
dovrebbe manifestarsi in una accelerazione della crescita del valore della produzione e in un
rallentamento della crescita dell’occupazione o addirittura in una sua diminuzione, vale a dire, in ogni
caso, in un’accelerazione della crescita della produttività del lavoro. Quello che si è verificato nella
realtà è invece una forte crescita dell’occupazione e, soprattutto nell’area euro, una significativa
riduzione del tasso di crescita sia del PIL, sia della produttività del lavoro.
Prospettive: anche se nei prossimi anni il tasso di crescita della produttività dovesse aumentare
significativamente, la diminuzione della domanda di lavoro che, a parità di produzione e reddito, ne
conseguirebbe, sarebbe probabilmente compensata, o più che compensata, nei paesi industriali, dalla
forte diminuzione della popolazione in età lavorativa in rapporto alla produzione complessiva, e
quindi dell’offerta di lavoro. Secondo le previsioni dell’OECD il numero di persone di età da 65 anni
in su per ogni 100 persone in età lavorativa (da 20 a 64 anni) aumenterebbe da circa 18 del 2015 a
circa 55 nel 2050. Inoltre, gli effetti dell’automazione potrebbero riguardare più la composizione della
domanda di lavoro dal punto di vista delle competenze necessarie, che non la domanda complessiva
di lavoro. La domanda di lavoro potrebbe indirizzarsi su alcune professione e competenze necessarie
per poter lavorare in aziende più automatizzate, quindi non per forza si verificherebbe una riduzione
della domanda stessa.
I robot
Tra il 2011 e il 2016 le vendite dei robot sono cresciute in media del 12% all’anno, come mai in
precedenza.
A questo tasso di crescita il numero triplica ogni 10 anni, ma è prevista un’accelerazione: già nel 2016
sarà 18%.
I 2/3 delle vendite sono concentrare in 5 paesi: Cina, Corea, Giappone, Stati Uniti e Germania.
La densità medie dei robot è di circa 74 robot per 10.000 occupati nell’industria manifatturiera, il
record è in Corea che registra 631 robot per 10.000 occupati.
I robot industriali: l’area geografica caratterizzata dall’incremento maggiore di vendite di robot è
l’area Asia/Australia, seguono l’America, l’Europa e l’Africa.
I settori dove se ne fa più largo utilizzo sono: industria delle automobili, elettronica, metalli,
chimica/gomma/plastica, cibo e altri.
I robot professionali: i settori dove se ne fa più largo utilizzo sono: logistic (aiutano a movimentare
la merce), defence (utilizzati nel campo militare), field (utilizzati su terreni accidentati o in
agricoltura), medical (vengono utilizzati dai medici per eseguire operazioni che richiedono una
maggior precisione). Seguono poi l’industria degli smartphone, quella delle pulizie (che ha registrato
un aumento notevole), ecc.
È previsto inoltre un forte incremento tra il 2016 e il 2019 dei robot per uso domestico.
Lo studio “Future of Job”, del World Economic Forum (2019), ha analizzato un ampio spettro di
settori di industria che occupano circa 15 milioni di persone, chiedendo soprattutto ai responsabili
delle risorse umane:
1) Quali siano le principali trasformazioni in atto nel settore di appartenenza;
2) Il cambiamento delle funzioni e delle relative competenze necessario da qui al 2022;
3) Le priorità definite in termini di formazione.
Secondo lo studio circa il 50% delle aziende prevede una riduzione della forza lavoro full time a
partire dal 2022 a seguito dell’automazione. Tuttavia, il 38% estenderà la propria forza lavoro a nuove
funzioni integrate con tecnologie di automazione.
Il WEF stima che, da qui al 2022, circa 75 milioni di posti di lavoro saranno persi, mentre 133 milioni
ne verranno creati come nuovi o di radicale riproposizione.
Per il periodo 2018-2022 gli ambiti tecnologici che si prevede abbiano impatti diretti sui profili
professionali sono:
1) Sviluppo di servizi per tecnologie mobili;
2) Intelligenza artificiale;
3) Analisi big data;
4) Tecnologia cloud.
Le piattaforme
Sono un nuovo modello di business, usano la tecnologia per connettere persone, organizzazioni e
risorse in un ecosistema interattivo in cui possono essere create e scambiate incredibili quantità di
valore. (Non è più un tubo dove la merce passa dal produttore al consumatore, tutti si relazionano con
tutti). Srnicek analizza le caratteristiche del capitalismo contemporaneo e individua l’emergere del
capitalismo di piattaforma, che si fonda su estrazione, aggregazione e analisi di dati, dai quali emerge
un nuovo tipo di impresa commerciale: la piattaforma.
Principali esempi di piattaforma per settore:
a) Comunicazione e networking: Facebook, Twitter;
b) Istruzione: Udemy;
c) Commercio: Amazon;
d) Trasporto: Uber, BlaBlaCar;
e) Viaggi: AirBnB
f) Media: YouTube.
Le piattaforme mettono in crisi l’idea di capitale tradizionale: “Uber è la più grande compagnia di
taxi al mondo, ma non ha veicoli. Facebook è il più grande distributore di media del mondo, ma non
crea contenuti. Alibaba è il più grande rivenditore del mondo, ma non ha un inventario.”
I vecchi ruoli vengono stravolti: gli utenti Uber sono lavoratori autonomi o subordinati? Gli utenti di
Facebook sono consumatori o produttori? Gli utenti di Airbnb sono clienti o concorrenti?
Oltre alle pubblicità, i ricavi delle piattaforme sono:
- Charging a transaction fee, la transazione da luogo a un pagamento monetario (Uber, Ebay).
Il vantaggio è che il pagamento non è per l’accesso alla piattaforma ma per la conclusione
della transazione, lo svantaggio è che c’è il rischio di transazioni fuori dalla piattaforma,
bisogna prevenire relazioni tra le parti;
- Charging for access, il pagamento avviene per l’accesso;
- Charging for enhanced access, il pagamento avviene per un accesso privilegiato o facilitato
su alcuni contenuti o servizi.
Si possono notare caratteristiche “particolari”:
a) Tendono ad adottare prezzi bassi per espandersi e penetrare il mercato, diventando “leader”;
b) Impiego di capitale produttivo limitato e costi marginali tendenti a zero in molti ambiti;
c) Altissime retribuzioni ai manager;
d) Profitti operativi molto ridotti;
e) Tendono ad avere un valore di borsa molto elevato;
Un esempio lampante è il caso Amazon, che ha delle percentuali dei profitti sui ricavi bassissime (tra
il 4% e lo 0.2%), nonostante le vendite crescano anno dopo anno. “L’obiettivo è quello di espandersi,
puntando alle vendite e non ai profitti, cercando di raggiungere sempre più consumatori e mantenendo
la fiducia degli attuali consumatori, praticando prezzi bassi con grande vantaggio per i consumatori.”
Il valore di borsa presenta un tasso medio annuo di aumento del 30% circa nel decennio (2007-2017),
un raddoppio del capitale ogni 2 anni e 8 mesi. (89$ nel 2007, 305$ nel 2014, 1100$ nel 2017, 3400$
nel 2020!).
L’amministratore delegato Jeff Bezos guadagna 81'000 dollari + 1'600'000 per spese di sicurezza, per
non parlare delle decine e decine di milioni di azioni Amazon.
La sua strategia: “la misura fondamentale del successo di Amazon sarà il valore delle azioni (creato
per gli azionisti) nel lungo periodo. Questo valore sarà il risultato dell’abilità di Amazon di estendere
e consolidare la leadership di mercato. Obiettivo fondamentale è mantenere la leadership facendo
crescere il numero di utenti e di conseguenza i ricavi”.
“Adottare una strategia di lungo periodo consente di quadrare il cerchio. Nel lungo periodo gli
interessi dei clienti e degli azionisti convergono, andando a fidelizzare i clienti e adottando prezzi
bassi, offrendo servizi sempre nuovi, consente di espandere la quota di mercato anche in aree di
business nuove”.
Ci sono opportunità di apprendimento per le imprese che operano in Paesi in via di sviluppo
che appartengono alle GVC?
Appartenere ad una GVC può essere un’opportunità per le imprese che operano in Paesi in via di
sviluppo per avere accesso ai mercati internazionali e per realizzare l’upgrading, ovvero spostarsi
da anelli a più basso valore aggiunto della catena verso anelli a più alto valore aggiunto. Come?
Attraverso innovazioni di processo/prodotto/funzionali o attraverso il cambio del settore di
appartenenza.
Le imprese leader coordinano altre imprese all’interno della catena.
Distinguiamo due diverse tipologie di GVC:
1) Buyer-driven value chain, è l’acquirente che gioca il ruolo del leader (IKEA, H&M, ecc.);
2) Producer-driven value chain, è il produttore che gioca il ruolo del leader (settore auto).
Una parte della letteratura è andata ad investigare le relazioni tra imprese leader ed imprese locali.
Quali possono essere le fonti di apprendimento per le imprese che operano in Paesi in via di
sviluppo?
a) Interazione face-to-face tra stadi diversi della catena;
b) Formazione dei lavoratori locali da parte delle imprese leader;
c) Trasferimenti di conoscenza dall’impresa leader alle imprese locali, riguardanti compiti
specifici e determinate mansioni;
d) Le imprese leader potrebbero premere per far adottare standard internazionali alle imprese
locali.
L’utilizzo di queste fonti dipende quindi dal tipo di governance della catena.
Effetti indiretti
Il crescente processo di globalizzazione può portare ad un sistema in cui i paesi industrializzati
riducono la produzione di beni ad alto impatto ambientale per specializzarsi in produzioni più verdi
e importino i beni maggiormente pollution-intensive dall’estero. Come risultato, il paese
industrializzato diminuisce la produzione di inquinamento non per una sua reale consapevolezza
ambientale, ma in quanto la produzione di beni ad alto impatto ambientale viene spostata verso altri
Stati. Il commercio internazionale ed il processo di globalizzazione possono quindi avere l’effetto di
ridistribuire nello spazio le imprese inquinanti, sposando l’inquinamento più che riducendolo.