Sei sulla pagina 1di 44

lOMoARcPSD|3609612

Economia dell'Innovazione, slide + appunti

economia dell'innovazione (Università della Calabria)

StuDocu non è sponsorizzato o supportato da nessuna università o ateneo.


Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)
lOMoARcPSD|3609612

Caratteri e tipologia delle innovazioni


L’innovazione è l’atto, l’opera di innovare, cioè di introdurre nuovi sistemi, nuovi ordinamenti, nuovi
metodi di produzione. In senso concreto, ogni novità, mutamento, trasformazione che modifichi
radicalmente o provochi comunque un efficace svecchiamento in un ordinamento politico o sociale,
in un metodo di produzione, in una tecnica, ecc.
L’innovazione tecnologica è l’attività deliberata delle imprese e delle istituzioni tesa a introdurre
nuovi prodotti e servizi, nonché nuovi metodi per produrli, distribuirli e usarli.

Caratteri dell’innovazione
a) Bene pubblico (conoscenza), l’uso di informazioni e conoscenze che danno origine
all’innovazione è:
- Non rivale, ovvero il fatto che un soggetto ne fruisca non ne compromette la godibilità da
parte di altri soggetti;
- Non escludibile, gli altri non possono essere esclusi dall’uso, salvo i casi in cui sussistano
meccanismi di protezione, come i brevetti.
b) Problema dell’appropriabilità, se le imprese non possono appropriarsi dei profitti generati
dai nuovi prodotti, gli investimenti in ricerca e sviluppo diminuiranno e il progresso
tecnologico subirà un rallentamento. L’appropriabilità dipende dal grado di protezione
accordata ai nuovi prodotti dalla legislazione dei brevetti.
Nasce però un dilemma: una bassa protezione vuol dire bassi incentivi ad innovare (ex ante) per le
imprese, questo comporta un livello ridotto di R&S; mentre un’alta protezione vuol dire una scarsa
diffusione della conoscenza (ex post), e quindi una riduzione delle potenzialità della R&S.

Tipologia delle innovazioni


1) Incrementali;
2) Radicali o di sfondamento;
3) A grappolo;
4) Epocali.

Le innovazioni incrementali derivano da piccoli miglioramenti a processi o beni già esistenti, sono
caratterizzate da una certa continuità temporale, traggono principalmente origine dallo stimolo della
domanda di mercato e da suggerimenti degli utilizzatori del prodotto, ma anche da suggerimenti del
personale tecnico e dei lavoratori coinvolti nel processo produttivo. Normalmente non sono il risultato
di R&S dedicata e generalmente contribuiscono a migliorare l’efficienza nell’uso dei fattori
produttivi.
Le innovazioni radicali consistono in processi o prodotti completamente nuovi, sono frutto di R&S
pubblica o privata, determinano una forte discontinuità rispetto ai prodotti/processi standard, si
manifestano in modo irregolare nel tempo e non si distribuiscono uniformemente nei settori
industriale, ovvero alcuni settori sono più soggetti a queste innovazioni.
Quando da un’innovazione radicale si sviluppano altre innovazioni dello stesso tipo, in modo da
essere una collegata all’altra, si ha un cosiddetto “cluster innovativo”. Il loro impatto nell’economia
è potenzialmente molto forte. Da esse, infatti, possono scaturire nuovi settori produttivi o linee di
prodotto, così come è accaduto, ad esempio, nel caso dell’industria dei materiali sintetici, dei semi-
conduttori o dei prodotti petrolchimici.
Le innovazioni epocali sono cambiamenti tecnologici di grandissima portata, tali da stravolgere
l’intero modo di essere dell’economia, sono portatrici di mutamenti nella struttura,
nell’organizzazione, nei modi di produzione e di distribuzione di quasi tutti i settori dell’economia
(esempio: internet). Secondo l’economista Dosi provocano un cambiamento del paradigma
tecnologico dominante, ovvero i confini generali di sviluppo di una tecnologia in un dato ambito e
in un dato periodo.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Gli indicatori di innovazione


Si dividono in due gruppi:
a) Indicatori di input innovativo:
- Gli addetti R&S;
- Le spese in R&S;
b) Indicatori di output innovativo:
- I brevetti;
- Le citazioni scientifiche;
- Il commercio internazionale;
- La bilancia tecnologica dei pagamenti.
Gli addetti in R&S riguardano dati sull’impegno in risorse umane coinvolte nell’attività di ricerca e
sviluppo, questi dati vengono rilevati da diversi enti a diversi livelli (Istat in Italia, Eurostat in Europa,
ecc.). I dati forniscono informazioni non solo sul numero degli addetti ma anche sul titolo di studio,
sul tipo di occupazione (ricercatore, tecnico) e sul tempo dedicato alle attività (tempo pieno, tempo
parziale).
Le spese in R&S, facciamo riferimento all’indicatore GERD (Gross Domestic Expediture on
Research & Development) come percentuale del PIL. Sia le statistiche sul personale sia quelle
finanziarie sono ripartite per tipo di attività scientifica (ricerca di base, ricerca applicata, sviluppo),
per settore di esecuzione (settore pubblico, settore imprese), per tipo di attività economica, per gruppo
di prodotti.
Il brevetto è un diritto riconosciuto dagli stati ad un inventore in cambio della pubblicazione della
sua invenzione; esso conferisce all’inventore, per un periodo definito e sotto alcune condizioni, il
diritto di esclusiva sull’utilizzazione commerciale dell’invenzione. Scaduta la protezione può essere
utilizzato da tutti. Un brevetto è membro di una famiglia di brevetti se e solo se è stato registrato
presso l’European Patent Office (EPO), il Japan Patent Office (JPO) ed il US Patent and Trademark
Office (USPTO).
Alcuni economisti però considerano i brevetti come indicatori di input innovativo, per due ragioni
principali: studi empirici hanno dimostrato che c’è contemporaneità tra brevetto e R&S, poiché il
brevetto viene richiesto presto; molti brevetti non si traducono in prodotti commerciali, viene dunque
intesa come una conoscenza dell’impresa.
L’uso dei brevetti come misura dell’output dell’attività di R&S pone alcuni problemi:
1) i requisiti e l’esame per ottenere un brevetto cambiano da paese e paese;
2) la propensione a brevettare varia a seconda del tipo di industria;
3) non si conosce quante invenzioni non vengono brevettate (es. invenzioni di tipo software);
4) le piccole imprese tendono a brevettare più delle grandi, anche in presenza di maggiori
investimenti;
5) la “qualità” dei brevetti è estremamente variabile (vale solo la documentazione tecnica);
6) non si conosce l’ampiezza e la lunghezza di sfruttamento dei brevetti;
7) una forte quota di brevetti è di tipo strategico, depositata per difendersi da possibili
concorrenti.
Il numero di pubblicazioni scientifiche, con l’Impact Factor della rivista, ovvero il numero di
citazioni che riceve.
Le statistiche sul commercio internazionale dei settori ad alta tecnologia (definiti come quelli
aventi un elevato rapporto tra R&S e fatturato) forniscono un'indicazione della posizione dei paesi
nei settori in cui l’innovazione e la tecnologia sono un elemento rilevante della competitività. È
preferibile essere grandi esportatori nei settori high tech poiché:
1) sono più dinamici, quindi garantiscono uno scambio più rapido;
2) assorbono manodopera qualificata;
3) non sono immediatamente attaccabili dai paesi in via di sviluppo, la cui forza è data dalla
manodopera a basso costo.
Sono settori ad alta tecnologia quello aerospaziale, quello farmaceutico, quello dei computer, ecc.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

La BTP comprende il commercio in tecnologia (brevetti, know-how), la proprietà industriale (diritti


di autore, marchi di fabbrica), i servizi con contenuto tecnologico (assistenza e conoscenze tacite) e
la R&S finanziata dall’estero e all’estero.

Tassonomia settoriale dei flussi di innovazione


Pavitt ha fornito un’analisi dei settori maggiormente innovativi e della direzione della diffusione dei
flussi innovativi. Ogni raggruppamento è caratterizzato da regolarità empiriche riguardanti;
1) la grandezza media delle imprese;
2) le fonti potenziali dell’innovazione;
3) la tipologia delle innovazioni.
Abbiamo:
a) settori dominati dai fornitori, sono settori (agricoltura, tessile, abbigliamento, mobilio, ecc.)
in cui il processo innovativo si identifica nell’acquisto di beni capitali incorporanti la tecnica
di mercato migliore e nei quali le risorse dedicate alla ricerca interna sono molto scarse,
l’innovazione viene acquistata all’esterno;
b) settori ad intensità di scala, sono settori (trasporti, elettrodomestici, ecc.) dove l’innovazione
riguarda sia i processi che i prodotti, le attività di innovazione vengono condotte all’interno
attraverso processi formali di R&S, producendo una quota molto alta delle tecnologie di
processo utilizzate;
c) fornitori specializzati, sono settori dominati da piccolo-medie imprese, che producono
macchine ed attrezzature e che spesso conducono un’attività di ricerca e sviluppo molto
limitata o informale, molte innovazioni vengono prodotte per soddisfare specifiche richieste
di imprese utilizzatrici;
d) settori basati sulla scienza, le imprese portano avanti internamente le loro strategie
innovative, attraverso ingenti investimenti in R&S, sono settori che si muovono sulla frontiera
tecnologica e nei quali la competizione avviene sulle caratteristiche tecnologiche del prodotto,
la loro sopravvivenza dipende dalla capacità di essere innovativi.

Introduzione all’economia dell’innovazione


In economia vi sono due differenti approcci all’innovazione:
1) approccio microeconomico, studia l’innovazione all’interno dell’impresa;
2) approccio macroeconomico, studia quanto l’innovazione incida sulla crescita di sistemi
economici aggregati dei Paesi (il PIL).

Approccio Microeconomico
Esistono diverse teorie dell’impresa: approccio neoclassico, neo-istituzionalista, radicale,
evoluzionista, ecc. Noi considereremo la teoria neoclassica, quella shumpeteriana e quella
evoluzionista.

Teoria Neo-classica
L’impresa è l’agente economico che mette in atto la produzione per il mercato, si assume che:
a) le imprese producano beni omogenei;
b) le imprese dispongano di perfetta informazione su input e output (e sui loro costi);
c) gli imprenditori adottino un comportamento ottimizzante, ovvero mirino alla
massimizzazione del profitto.
L’impresa ha come unico obiettivo la massimizzazione del profitto. Nel far ciò è vincolata, da una
parte, dalle condizioni di mercato (degli input e dell’output) e, dall’altra, dalle possibilità
tecnologiche di trasformazione degli input in output (dalla funzione di produzione).
Se i mercati dei fattori e dei prodotti sono tutti competitivi, l’impresa è price-taker, ovvero non può
influenzare il prezzo qualsiasi sia il livello di output immesso sul mercato. Se, invece, possiede potere

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

di monopolio nei mercati dei prodotti o potere di monopsonio in quelli dei fattori, l’impresa deve
incorporare nella procedura di ottimizzazione delle “funzioni di reazione” dei concorrenti.
Ipotesi della teoria neoclassica:
a) La conoscenza scientifica è esogena ed egualmente accessibile a tutti gli imprenditori;
b) La tecnologia è esogena, le imprese dispongono di una perfetta informazione sulle tecnologie
disponibili;
c) Le possibilità tecnologiche sono riassunte dalla funzione di produzione, il prodotto (Q) è il
risultato (output) dell’attività di trasformazione di fattori di produzione (input) lavoro (L) e
capitale (K);
d) La funzione di produzione ha generalmente una produttività marginale positiva e
decrescente di ciascuno dei fattori.
La massimizzazione del profitto è la condizione sulla base della quale si genera l’equilibrio tra
domanda e offerte. L’attenzione è rivolta alle posizioni di equilibrio: secondo la teoria
dell’equilibrio economico generale, in cui si assume che le preferenze del consumatore e le tecniche
produttive siano date (esogene), qualunque sia la situazione di partenza il sistema economico evolve
necessariamente verso uno stato stazionario. Inoltre, non si studia la transizione tra un equilibrio e
l’altro ma, dopo un eventuale shock, si comparano il vecchio e il nuovo equilibrio.

Teoria Shumpeteriana
Il punto di partenza è l’equilibrio generale walrasiano. Viene poi introdotta l’innovazione, elemento
dinamico endogeno, che porta al superamento della condizione di stazionarietà. Si ritiene che
l’instabilità generata dal disequilibrio sia la principale caratteristica strutturale del modello
capitalistico di produzione. Si assiste alla “distruzione creatrice”, un cambiamento dinamico dove
alcuni settori soccombono e altri nascono.
L’invenzione e lo sviluppo scientifico e tecnologico sono considerati esogeni rispetto al sistema
economico.
Differenza tra innovazione e invenzione: l’invenzione è qualcosa di puramente scientifico o
tecnologico, mentre l’innovazione è “una risposta creativa, che si verifica quando l’economia o un
settore, o alcune aziende di un settore fanno qualcosa di diverso, qualcosa che è al di fuori della
pratica esistente”. Dunque, possiamo dire che “l’innovazione è possibile senza un’invenzione
corrispondente”.
Trilogia shumpeteriana:
- Invenzione, è un’idea, una bozza o un modello per un nuovo strumento, prodotto, processo;
- Innovazione, si realizza quando l’invenzione viene prodotta e venduta sul mercato
- Diffusione, è il processo attraverso il quale le innovazioni si diffondono nella società.
Il cambiamento tecnologico è il risultato dell’operare di agenti diversi:
- l’inventore, colui che ha l’idea;
- l’innovatore, colui che traduce l’idea in un prodotto/processo;
- l’imitatore.
Secondo Schumpeter l’innovazione può presentarsi in cinque forme:
a) produzione di un nuovo bene;
b) introduzione di un nuovo processo/metodo di produzione;
c) apertura di nuovi mercati di sbocco;
d) scoperta di nuove fonti di materie prime e semilavorati;
e) nuove strutture organizzative.
L’imprenditore innovativo ha interesse nel creare nuove innovazioni e si aspetta un vantaggio in
termini di profitti. L’innovazione tecnologica ha la funzione di creare discontinuità con la
situazione in cui il profitto si annulla, ovvero lo stato stazionario.
Nel caso delle innovazioni di processo, organizzative o delle fonti di approvvigionamento, l’obiettivo
è quello di produrre un bene già sul mercato a un costo unitario inferiore.
Anche l’innovazione di prodotto genera un extra profitto, sia nel caso di un bene nuovo che soddisfi
bisogni già precedentemente soddisfatti da beni presenti sul mercato sia che il nuovo bene risponda

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

a bisogni nuovi. Nel primo caso la qualità superiore del bene giustifica un prezzo superiore a quello
del bene corrente, senza che i costi per produrlo siano necessariamente più alti. Nel secondo caso, in
assenza di concorrenti il prezzo del nuovo bene può essere sganciato dai costi e quindi assicurare un
extra profitto.
L’’innovazione distingue due fasi storiche:
1) il capitalismo concorrenziale (XIX secolo), l’innovazione arriva dall’imprenditore;
2) capitalismo trustificato (XX secolo), l’innovazione arriva dalla grande impresa.
Nella fase del capitalismo concorrenziale la nascita di nuove imprese innovative è un elemento
cruciale del processo di sviluppo e quindi la forma della concorrenza perfetta costituisce la condizione
necessaria per il manifestarsi della creazione distruttrice. Si configura così un andamento ciclico: le
imprese generano innovazione, in modo da poter godere di maggiori profitti, questi attirano nuove
imprese nel mercato, generando concorrenza e quindi portando alla scomparsa del profitto. La
competizione riassorbe il potere monopolistico che l’impresa innovatrice acquisisce
temporaneamente sul mercato, prima di confrontarsi con altre imprese e altre innovazioni.
Tale andamento ciclico ha effetti diversi sulle singole imprese e sul sistema economico:
a) quando le imprese realizzano innovazione i profitti aumentano e quindi si sviluppa il sistema
economico, dato che la ricchezza aumenta a parità di sforzo speso nella produzione;
b) quando il profitto sparisce, a causa del processo concorrenziale che diffonde l’innovazione, è
l’impresa a pagarne le conseguenze, mentre il vantaggio sociale (per i consumatori) rimane.
Se il meccanismo concorrenziale si inceppa e si interrompe il trasferimento del profitto o di una parte
di esso all’intero sistema economico, esso tende a essere trattenuto all’interno dell’impresa e a
trasformarsi in rendita di monopolio.
Schumpeter considera che è il monopolio la forma di mercato più favorevole all’innovazione
tecnologica, poiché soltanto le grandi imprese possono sostenere i notevoli investimenti in R&S e in
nuovi impianti che si rendono necessari per sviluppare le innovazioni tecnologiche. Il passaggio dal
capitalismo concorrenziale al capitalismo trustificato non comporta una riduzione dello sviluppo
dell’intero sistema economico né quantitativo né qualitativo.
La diffusione delle innovazioni non è lineare ma “a grappoli”, ovvero non riguarda tutti i settori e non
è costante nel tempo. Ricollegandosi alla teoria dei cicli, e in particolare alla teoria delle onde
dell’economista russo Kondratiev, secondo cui il sistema economico attraversa ciclicamente fasi di
espansione, stagnazione, recessione della durata di circa 50-60 anni, Schumpeter identifica l’origine
dei cicli economici nelle discontinuità generate dalle innovazioni tecnologiche.
L’innovazione ha esito incerto, l’innovatore non conosce neppure la distribuzione di probabilità
relativa ai possibili risultati della sua attività innovativa. A rendere ancora più difficile la previsione
dei risultati della sua attività è che l’imprenditore ha una razionalità limitata, non coglie tutti gli
effetti e le ripercussioni dell’attività innovativa, dunque non è possibile calcolare una reazione
ottimale per tutte le imprese.

La Teoria Evolutiva dell’Impresa (Nelson e Winter)


Il comportamento delle imprese viene studiato ricorrendo a concetti tipici della biologia, quali
evoluzione, mutazione, selezione. Le teorie evolutive si sono sviluppate inizialmente nell’ambito
delle scienze biologiche per trovare una spiegazione ai processi di differenziazione delle popolazioni
biologiche nel corso del tempo. Hanno come presupposto la teoria di Darwin. Anche in economia è
possibile misurare ex-post la frequenza e la distribuzione della varietà, ma non è possibile prevederla.
L’impresa è intesa come un organismo che apprende conoscenze e competenze, e che si muove in un
ambiente dove l’equilibrio è una posizione “occasionale” e dove i cambiamenti sono imprevedibili e
rapidi.
L’approccio “darwiniano” si basa su tre principi: ereditarietà, varietà (mutazione) e selezione. Le
imprese trasmettono “routine”, risposte a problemi decisionali complessi, basate sulla conoscenza,
sull’esperienza dell’impresa (firm-specific, sono uniche, ogni impresa ha le proprie). L’impresa segue
routine “soddisfacenti” che si autoalimentano fino a quando il mercato impone un cambiamento, a

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

cui l’impresa deve adeguarsi. Il mercato seleziona, determinando il successo o il fallimento di


un’innovazione e/o di un’impresa.
La conoscenza che le imprese accumulano per la soluzione di problemi di varia complessità entra a
far parte delle “routine” organizzative, che offrono un modello di riferimento alle attività interne.
Fissando gli standard e le procedure da adottare caso per caso fanno risparmiare sforzo cognitivo
nella ricerca di soluzioni, riducono o annullano i costi di acquisizione di nuove informazioni, evitano
potenziali conflitti tra i membri dell’organizzazione. Le routine sono l’esito di un processo di
evoluzione con cui le imprese individuano le soluzioni più adatte a garantire la propria sopravvivenza,
sono assimilate al patrimonio generico che conserva il sapere accumulato nel passato e che apprende
nuovi comportamenti quando le mutate condizioni ambientali lo impongono.
L’incertezza tecnologica e la limitata razionalità (bounded rationality) degli agenti fanno sì che non
sia possibile definire lo stesso obiettivo per tutte le imprese. I limiti cognitivi degli agenti
rappresentano un vincolo, riducono la capacità di acquisire ed elaborare informazioni necessarie ad
assumere decisioni perfettamente razionali, inoltre acquisire informazioni ha un costo. Si suppone
che ogni impresa, impossibilitata a seguire la massimizzazione del profitto a causa dell’incertezza,
si prefigga un obiettivo soddisfacente, che può essere un determinato livello di profitto, la conquista
di una determinata quota di mercato. Quando il profitto è superiore alla soglia minima soddisfacente,
l’impresa si limita all’adozione di routine stabili, utili a raggiungere il proprio obiettivo. Se il profitto
scende al di sotto della soglia minima l’impresa inizia una fase di ricerca di nuove routine.

Origine dell’innovazione
Esistono due tipi di modelli:
- modelli technology-push, le opportunità vengono offerte dalla tecnologia;
- modelli demand-pull, le opportunità vengono offerte dal mercato.

Modello del technology push


Secondo questo modello, le scoperte nella scienza di base conducono a sviluppi tecnologici
industriali, questa possibilità è indipendente da quelle che sono le esigenze del mercato, è una
visione deterministica del processo innovativo. Il processo innovativo è lineare:

Ricerca di base → Ricerca applicata → Sviluppo → Produzione → Marketing

Scienza di base -> ricerca di base -> ricerca applicata -> invenzione -> innovazione -> prototipo ->
sviluppo -> commercializzazione -> diffusione -> progresso tecnico -> crescita economica

Ricerca di base: tutte le attività di ricerca che hanno lo scopo di ampliare le nostre conoscenze
scientifiche, senza un fine applicativo. (Tipica delle università e degli istituti pubblici)
Ricerca applicata: utilizza la prima per generare nuove conoscenze tecnologiche oppure creare nuovi
prodotti o processi, vuole ottenere risultati applicativi. (Tipica dei privati)
Sviluppo: ha lo scopo di passare dal prototipo alla produzione, viene condotto sulla base di una
finalità commerciale.
L’approccio technology push concepisce il progresso tecnico come un percorso lineare, dove la
ricerca di base e quella applicata sono alla base di nuovi prodotti/processi commercializzabili.
Presuppone la separabilità dei vari stadi e la loro attribuzione a soggetti diversi.
Critiche: è una visione che non coglie completamente la realtà, generalizza una catena di rapporti
causa-effetto che vale in un numero ristretto di casi; sottovaluta il ruolo del mercato e delle istituzioni;
non prende in considerazione i feedback che si verificano durante i vari stadi.
Per rendere il modello più plausibile vengono considerati i legami all’indietro, i feedback. Il flusso
può scorrere anche in direzione opposta. La ricerca applicata ha prodotto nuova conoscenza e
creato nuovi campi scientifici, sia accidentalmente sia intenzionalmente. Anche gli utenti possono
generar nuove idee per migliorare i prodotti.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

(Le diagonali indicano l’interazione tra scienza e tecnologia)

L’apprendimento per esperienza rappresenta un’ulteriore fonte di innovazione:


a) learning by doing, nel corso delle attività produttiva, gli operatori imparano procedure
migliori o semplicemente fanno meno errori con l’esperienza, i miglioramenti nei costi così
ottenuti vengono misurati attraverso la curva di apprendimento;
b) learning by using, i prodotti vengono migliorati e realizzati basandosi sull’esperienza
prodotta dall’uso del prodotto.
Sempre sulla base dell’apprendimento per esperienza, il cambiamento tecnologico non termina
quando la tecnologia si diffonda, le tecnologie continuano a migliorare sulla base della spinta
determinata dall’uso degli utenti, miglioramenti che possono essere incorporati nel prodotto o non
incorporati (apprendimento tempi manutenzione aeroplano).
Questo modello presenta dunque dei limiti, dato che non tiene conto:
1) delle influenze che provengono dal mercato;
2) degli avanzamenti della tecnologia su sé stessa;
3) delle retroazioni dalle applicazioni alla ricerca di base.
Tuttavia, ci sono campi dove il modello lineare è innegabile, si pensi alle biotecnologie o all’industria
farmaceutica.

Modello demand-pull
L’innovazione è il risultato dell’interazione tra domanda e offerta, è il mercato che stimola le
imprese ad offrire determinati prodotti. Ha alla base due presupposti:
1) la capacità di introdurre innovazioni è molto sensibile alle occasioni di profitto;
2) la dimensione del mercato attuale o potenziale influenza l’attività innovativa, al crescere del
mercato crescono i profitti, in un grande mercato c’è una maggiore probabilità che si rendano
disponibili le capacità inventiva per risolvere un determinato problema.
Il processo è lineare e deterministico ma non parte dalla ricerca, bensì dalla domanda.
Bisogni da soddisfare (preferenze, utilità) -> domanda si sposta verso beni che incorporano le
caratteristiche desiderate -> segnali di mercato -> ricognizione di desideri da parte unità produttive -
> sforzo innovativo -> innovazione/miglior soddisfacimento bisogni.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

I segnali di mercato (variazione prezzi relativi, quantità domandate) permettono di individuare a


priori la direzione in cui il mercato sta spingendo l’attività innovativa.
Critiche:
1) path-dependency, c’è dipendenza tra i vari stadi, uno determina l’altro;
2) esogeneitá del progresso tecnico, sono le preferenze dei consumatori (esogene) ad innescare
il processo;
3) bisogni latenti insoddisfatti per secoli, non tutti i bisogni si sono poi tradotti in innovazioni;
4) il patrimonio tecno-scientifico non è un insieme duttile, non è sempre possibile adattare
un’innovazione ad un bisogno espresso.
Nella realtà l’innovazione non può essere ricondotta ad una semplice catena di causalità che va in un
verso o in un altro. Tra i due estremi (scienza e mercato) si collocano infinte forme intermedie di
origine dell’innovazione. Come già detto, essa può anche nascere dalle forme di apprendimento nella
produzione e nell’uso. I modelli sono rappresentazioni semplificate che non colgono la complessità
dei processi innovativi.

La diffusione delle nuove tecnologie


La diffusione è il processo attraverso il quale le innovazioni si diffondono nella produzione e nel
consumo sui loro mercati potenziali. La diffusione è anche parte intrinseca del processo di
innovazione, poiché l’apprendimento, l’imitazione e gli effetti di feedback che si verificano mentre
una tecnologia si diffonde contribuiscono a migliorare l’innovazione originale.
Nella storia della diffusione di molte innovazioni non si può non rimanete colpiti da due
caratteristiche ricorrenti del processo diffusivo:
1) la sua apparente lentezza;
2) le grandi differenze nei tassi di accettazione tra un’innovazione e l’altra.

Innovazione di processo
Nella fase di adozione che è essenzialmente una fase di valutazione e decisione, bisogna distinguere
tra un’innovazione di processo che costituisce:
a) un investimento aggiuntivo alla capacità tecnologica esistente dell’impresa;
b) un investimento di rimpiazzo di un capitale invecchiato;
c) un investimento in tecnologie che spiazzano le tecnologie esistenti.

Apriamo una parentesi sulla decisione di adozione dell’innovazione da parte dell’impresa. Abbiamo:

1. Investimento di espansione
Si tratta di valutare l’innovazione nei termini di una normale decisione di investimento, ponendo la
tecnologia esistente e la nuova sullo stesso piano. L’imprenditore decide di investire nella nuova
quando il rendimento atteso (espresso in termini di Valore Attuale Netto) dal nuovo capitale è
superiore a quello atteso dal vecchio. (Condizione 1)
In caso di asimmetrie informative, nel calcolo del VAN si utilizzerà un tasso di sconto (k) più alto
del costo corrente del capitale (i). (Condizione 2)
Condizione 1
𝑚 𝑚
𝑌𝑛,𝑡 𝑌𝑜,𝑡
∑ − 𝐶𝑛 > ∑ − 𝐶𝑜
(1 + 𝑖)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1
Dove: Y= profitti attesi; C= costo di acquisizione; i= normale tasso di sconto;
n= nuova tecnologia; o= vecchia tecnologia
Condizione 2
𝑚 𝑚
𝑌𝑛,𝑡 𝑌𝑜,𝑡
∑ − 𝐶𝑛 > ∑ − 𝐶𝑜
(1 + 𝑘)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Dove:
Y= profitti attesi; C= costo di acquisizione; i= normale tasso di sconto;
k= tasso di sconto rischioso con k=i+delta (con delta>0); n= nuova tecnologia; o= vecchia tecnologia

In caso di asimmetrie informative, la nuova tecnologia viene scontata ad un tasso maggiore, per tenere
in considerazione il rischio nell’adottare la nuova tecnologia.

Ponendo: Y=X-E con X=valore atteso della produzione; E=valore atteso costi di esercizio; diventa:
𝑚 𝑚 𝑚 𝑚
𝑋𝑛,𝑡 𝐸𝑛,𝑡 𝑋𝑜,𝑡 𝐸𝑜,𝑡
(∑ −∑ ) − 𝐶𝑛 > (∑ −∑ ) − 𝐶𝑜
(1 + 𝑘 ) 𝑡 (1 + 𝑘)𝑡 (1 + 𝑖 ) 𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1 𝑡=1 𝑡=1

2. Investimento di rimpiazzo
Quando si tratta di un investimento di sostituzione il problema per l’impresa è decidere quando è
economicamente vantaggioso sostituire il vecchio capitale. Questa situazione può essere affrontata
guardando a due casi limite, molto frequenti nel processo di diffusione.

Condizione 3.
Il primo riguarda il momento in cui la nuova tecnologia, dato il prezzo, diventa competitiva con la
vecchia. L’impresa può decidere la sostituzione nel momento in cui la nuova tecnologia sarà in grado
di dare dei profitti superiori a quelli attesi sul capitale esistente di un margine tale da coprire il costo
dell’investimento del nuovo capitale al netto del valore di usato del capitale esistente.

a) In termini formali, ponendo 𝑈𝑜 = valore di usato del capitale esistente, per l’imprese risk-taker
questo significa:
𝑚 𝑚 𝑚 𝑚
𝑋𝑛,𝑡 𝐸𝑛,𝑡 𝑋𝑜,𝑡 𝐸𝑜,𝑡
(∑ − ∑ ) − (∑ − ∑ ) > (𝐶𝑛 − 𝑈𝑜 )
(1 + 𝑖)𝑡 (1 + 𝑖)𝑡 (1 + 𝑖)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1 𝑡=1 𝑡=1
Questo vale in caso di perfetta informazione oppure quando l’impresa non è avversa al rischio, ovvero
quando nonostante le asimmetrie l’impresa non richiede un premio al rischio per l’incertezza.
(Differenza dei profitti attesi dalle due tecnologie + valore dell’usato corrente > Costo nuova tecn.)

b) Mentre, per l’impresa risk-averse, che tiene conto del premio di rischio, la condizione diventa:
𝑚 𝑚 𝑚 𝑚
𝑋𝑛,𝑡 𝐸𝑛,𝑡 𝑋𝑜,𝑡 𝐸𝑜,𝑡
(∑ − ∑ ) − (∑ − ∑ ) > (𝐶𝑛 − 𝑈𝑜 )
(1 + 𝑘 )𝑡 (1 + 𝑘)𝑡 (1 + 𝑖)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1 𝑡=1 𝑡=1

Condizione 4.
Il secondo caso riguarda il momento in cui la vecchia tecnologia non è più competitiva perché non
riesce a dare alcun profitto. Ciò accadrà quando i profitti attesi della vecchia tecnologia diventano
inferiori al valore di rottame del vecchio capitale.
A questo punto (condizione di chiusura) la vecchia tecnologia non produrrà più alcun profitto e
l’impresa deciderà di abbandonarla.
𝑚 𝑚
𝑋𝑜,𝑡 𝐸𝑜,𝑡
∑ − ∑ < 𝑅𝑜
(1 + 𝑖)𝑡 (1 + 𝑖)𝑡
𝑡=1 𝑡=1
I costi di esercizio diventano così alti che l’impresa non riesce a raccogliere nemmeno il profitto
garantito dal valore di rottame (𝑅𝑜 ) del capitale esistente.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

3. Investimento da spiazzamento tecnologico


Nel caso di investimenti causati da spiazzamento tecnologico la situazione la vecchia e la nuova
tecnologia non competono sullo stesso piano, la vecchia tecnologia è ormai obsoleta e viene
eliminata. La decisione per l’imprenditore diventa una normale scelta tra investimenti alternativi, che
affronta paragonando il rendimento atteso dalla nuova tecnica con quello di altri tipi di investimento.
All’impresa converrà introdurre il nuovo processo solo se esso garantirà un rendimento uguale o
superiore ad investimenti alternativi.

Innovazione di prodotto
Anche nel caso dei prodotti si possono avere diversi tipi di innovazione:
a) Innovazioni che allargano il numero di prodotti offerti dall’impresa;
b) Innovazioni di rimpiazzo, nuovi prodotti che vanno a sostituire prodotti esistenti, giunti alla
fine del loro ciclo di vita;
c) Innovazioni causate da spiazzamento tecnologico, quando il normale ciclo di vita di un
prodotto viene interrotto da una innovazione radicale.
L’analisi sull’innovazione di prodotto generalmente viene condotta sulla base di considerazioni
abbastanza simili a quelle di processo.

I modelli di diffusione
I temi sulla diffusione possono essere suddivisi in quattro approcci teorici:
1) Modelli basati sull’informazione, anche detti modelli epidemici;
2) Modelli basati sulle differenze, anche detti modelli “soglia”;
3) Modelli basati sulla teoria dei giochi (non trattato);
4) Modelli basati sulle caratteristiche dei prodotti (non trattato).

1. Information-based models
La mancanza di informazioni e asimmetrie informative rappresentano di solito le cause per un
processo di diffusione non-istantaneo. Ipotesi chiave:
a) Le informazioni sull’esistenza della tecnologia sono limitate, ovvero non tutti sono informati
sulle nuove tecnologie contemporaneamente;
b) La nuova tecnologia è superiore, nel senso che i prezzi da pagare per averla ed i benefici del
suo uso assicurano che l’impresa l’adotterà non appena ne verrà a conoscenza.
In ogni periodo di tempo la quota della popolazione che conosce la tecnologia è determinata dal
numero degli adottatori nel periodo precedente e dalla loro proporzione sul totale dei potenziali
adottatori (epidemic learning). Poiché le informazioni provengono principalmente da chi ha già
adottato la nuova tecnologia, il processo di diffusione può essere assimilato alla diffusione di un virus.
Gli imprenditori imiteranno chi adotta già la tecnologia non appena ne verranno a conoscenza.
La curva logistica:

La funzione logistica ci dice qual è la frazione degli adottatori al tempo t su una popolazione N. Nella
prima parte l’andamento è esponenziale, poi è crescente a tassi decrescenti fino alla copertura totale
della popolazione.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

2. Differences-based models
In questo tipo di modelli si assume che tutti i potenziali adottatori conoscano la tecnologia ma
siano diversi tra loro per qualche tipo di caratteristica (dimensione, età, ecc.) che gli impedisce di
avere lo stesso rendimento nell’adozione della tecnologia. Si assume quindi che le imprese siano
eterogenee.
Ipotesi:
a) Esistono N adottatori potenziali che differiscono per una qualche caratteristica z che è
indipendente dall’uso della tecnologia ed è continuamente distribuita secondo la distribuzione
cumulativa F(z);
b) Tutti gli adottatori potenziali hanno informazione perfetta sull’esistenza e sulle
caratteristiche della nuova tecnologia;
c) La nuova tecnologia è superiore, nel senso che i prezzi da pagare per averla ed i benefici del
suo uso assicurano che l’impresa l’adotterà non appena ne verrà a conoscenza.
Al tempo t, un potenziale adottatore, i, introdurrà l’innovazione se il suo livello della caratteristica è:
- 𝑧𝑖 ≥ 𝑧𝑡
Dove 𝑧𝑡 indica un livello soglia della caratteristica, allora la proporzione della popolazione che ha
adottato al tempo t sarà data da 1 − 𝐹(𝑧𝑡 )
Esempio: tutte le imprese che superano una certa dimensione 𝑧𝑡 adotteranno l’innovazione. Perché la
dimensione può essere una caratteristica vincolante? Innanzitutto, perché le microimprese non
possono sopportare gli elevati costi di acquisizione di un’innovazione, e poi perché le piccole imprese
potrebbero mancare delle capacità per assorbire l’innovazione (capitale umano, ecc.).

Distribuzione delle caratteristiche:

(Thresold level=livello soglia)


Con il passare del tempo sia la distribuzione della caratteristica f(x) sia il suo livello soglia cambiano
tra le imprese, facendo variare il numero di adottatori. In questo genere di modelli è importante
stabilire la caratteristica (x) ed il suo livello critico.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

La Diffusione del progresso tecnico:


gli effetti sui produttori e sui consumatori

Esistono diverse tipologie di progresso tecnico.


Progresso tecnico risparmiatore dei costi di produzione: con le stesse quantità impiegate di fattori
produttivi si ottiene una maggiore quantità di prodotto, oppure, una data quantità di prodotto può
essere ottenuta utilizzando quantità minori dei fattori produttivi.

La funzione di produzione si sposta verso l’alto (1), e a parità di fattore produttivo, la produzione è
maggiore (2).

Per una stessa quantità di Y, gli input necessari sono minori (3). Grazie al progresso tecnico si
riducono i costi marginali (4).

Di conseguenza l’offerta di mercato si sposta verso il


basso (5). L’offerta di mercato è la somma delle offerte
delle singole imprese e dato che la curva di offerta della
singola imprese coincide con il tratto crescente della
curva del costo marginale, se il costo marginale si riduce,
la curva di offerta si abbassa.

Confrontiamo due casi:


1) L’innovazione viene adottata istantaneamente da tutte le imprese;
2) L’adozione avviene progressivamente in un certo intervalli di tempo.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

1) L’innovazione viene adottata istantaneamente da tutte le imprese


Dopo l’adozione il prezzo di equilibrio si è
ridotto e la quantità di equilibrio è aumentata
(6).

Possiamo adesso valutare l’impatto di un cambiamento dell’equilibrio di mercato.


Calcoliamo il surplus dei consumatori, ovvero il beneficio che il consumatore tra dalla partecipazione
al mercato, rappresenta una misura dei risparmi dei consumatori rispetto a quando ciascuno di loro
sarebbe disposto a pagare (differenza tra il P massimo che il consumatore è disposto a pagare ed il P
che effettivamente paga), è rappresentato dall’area al di sotto della funzione di domanda ed al di sopra
della retta del prezzo di equilibrio (7).

Il progresso tecnico fa crescere il surplus dei


consumatori (8).

Calcoliamo adesso il surplus dei produttori, rappresentato dall’area al di sotto della retta del prezzo
di equilibrio ed al di sopra della funzione di offerta. È dato dai profitti al lordo dei costi fissi (9/10).

Dimostrazione surplus produttori:


SP=P(0) A Y(0) – B A Y(0) 0
𝑌(0)
= Ricavo Totale - ∫0 𝐶𝑜𝑠𝑡𝑜 𝑀𝑎𝑟𝑔𝑖𝑛𝑎𝑙𝑒
𝑌(0)
= RT - ∫0 𝛿 𝐶𝑇/𝛿𝑌 𝑑𝑌
= RT – [CT(Y0) – CT (0)]
= [RT – CT(Y0)] + costi fissi
= profitti + costi fissi

Una variazione del surplus dei produttori è uguale alla variazione dei loro profitti.
Il progresso tecnico ha un effetto indeterminato sul surplus dei produttori (può essere sia positivo
che negativo), ciò dipenderà dalle caratteristiche del progresso tecnico, cioè dal tipo di spostamento
della funzione del costo marginale delle imprese, e quindi dell’offerta di mercato, che indurrà il
progresso.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Caso 1) Spostamento dell’offerta parallelo

Caso 2) Spostamento dell’offerta convergente

(Il triangolo BEG è uguale al triangolo P(0)AB)

Caso 3) Spostamento dell’offerta divergente

Solo il triangolo P(1)EB è comune ai due surplus, l’area rossa è del vecchio surplus, mentre l’area
verde sarà del nuovo surplus. Non è possibile concludere in maniera univoca.

Se il progresso tecnico determina uno spostamento parallelo verso il basso o convergente dell’offerta,
allora il surplus dei produttori e quindi i loro profitti aumentano. Se invece lo spostamento è
divergente il surplus e quindi i profitti possono sia aumentare che diminuire.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

2) L’adozione avviene progressivamente in un certo intervalli di tempo. (Modelli basati


sull’informazione)

Situazione iniziale: tutte le imprese utilizzano la stessa tecnologia ed hanno la stessa struttura dei
costi

Q(0)=quantità offerta dall’impresa rappresentatrice


B=Costo medio in corrispondenza di Q(0)
RT= area P(0) A Q(0) O
CT= area C B Q(0) O

Periodo 1) poche imprese hanno introdotto l’innovazione, il costo marginale si riduce e l’offerta di
mercato diventa S(1) ed il prezzo P(1), i profitti delle aziende che non innovano diminuiscono e i
profitti delle aziende che innovano aumentano.
Chi non ha innovato si troverà nel
punto P(1)=CMg(0), con un prezzo
inferiore e una quantità prodotta
inferiore.

Chi invece ha innovato si troverà


nel punto P(1)=CMg(1), e in
corrispondenza di questo punto
troverà la sua quantità offerta.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Periodo 2) molte imprese hanno introdotto l’innovazione (non tutte), il costo marginale si riduce e
l’offerta di mercato diventa S(2), ed il prezzo P(2), i profitti delle aziende che non innovano
diminuiscono ancora, i profitti delle aziende che avevano innovato nel periodo 1 diminuiscono.

I profitti delle aziende che innovano


adesso aumentano, mentre chi aveva
già innovato ha già beneficiato della
riduzione dei costi e quindi adesso la
riduzione del prezzo di vendita va ad
intaccare i loro profitti.

Situazione finale) tutte le imprese hanno introdotto l’innovazione, tutte le imprese adesso utilizzano
la stessa tecnologia ed hanno la stessa struttura dei costi, l’offerta diventa S(F) ed il prezzo P(F).

In generale, i profitti delle aziende possono essere maggiori, minori o uguali a quelli della situazione
iniziale, questo dipenderà dal tipo di innovazione e quindi dalla variazione della curva di offerta
(parallelamente, convergente, divergente).

Il ruolo dei servizi di “divulgazione” e di assistenza tecnica:

Con i servizi di divulgazione si aiuta la diffusione, aumenta il numero di aziende che adottano in
fretta l’innovazione, si raggiunge la copertura totale in meno tempo.
Chi ci guadagna e chi ci perde da un efficace servizio di divulgazione ed assistenza tecnica?
- Guadagnano i consumatori, godono prima dei benefici dell’innovazione;
- Guadagnano le aziende imitatrici (che innovano per seconde), vedono ridursi la lunghezza
del periodo in cui sostengono i costi del non adottare l’innovazione e godono prima dei
benefici dell’adozione dell’innovazione;

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

- Ci perdono le aziende innovatrici, vedono ridursi la lunghezza del periodo in cui traggono
vantaggio dalla mancata adozione dell’innovazione da parte delle altre aziende;
- Ci perdono le aziende che rimangono ritardatarie anche in presenza dell’assistenza
tecnica, vedono aumentare i costi del non adottare l’innovazione.

Progresso tecnico e crescita economica


Approccio Macroeconomico
Nei Paesi più avanzati, osservando l’attività economica per periodi di tempo molto lunghi, le
fluttuazioni annuali sono sovrastate dalla crescita: l’aumento della produzione aggregata nel tempo.

Regola pratica di Lucas: un paese che cresce al tasso g per anno raddoppierà il suo reddito pro capite
ogni 0.7/g anni. Questa regola si può spiegare così:
- si ponga y(t) il reddito pro-capite al tempo t e 𝑦0 il valore iniziale del reddito pro-capite.
Quindi: 𝑦(𝑡) = 𝑦0 𝑒 𝑔𝑡
- il tempo che impiega il reddito pro-capite per raddoppiare è dato dal tempo t* al quale
∗ 𝑙𝑜𝑔2
y(t*)=2𝑦0 . Pertanto: 2𝑦(𝑡) = 𝑦0 𝑒 𝑔𝑡 => 𝑡 ∗ = (log2=0.7 circa)
𝑔
Esempio: se un paese cresce ad un tasso dell’1.4% all’anno, raddoppierà il reddito pro-capite in circa
50 anni, se un paese cresce ad un tasso del 2.9%, lo raddoppierà in circa 24 anni.

Guardando alla crescita di cinque Paesi OCSE (Francia, Germania, Giappone, Gran Bretagna,
America) dal 1950 in poi vengono registrati i seguenti fenomeni (fatti stilizzati):
1) crescita elevata tra il 1950 ed il 1973, con un notevole miglioramento del tenore di vita (PIL
pro-capite);
2) rallentamento della crescita dalla metà degli anni 70 (dovuto alla crescita del prezzo del
petrolio);
3) convergenza nei livelli di PIL pro-capite, i paesi ritardatari sono cresciuti più velocemente,
riducendo il divario rispetto agli USA (come il Giappone).
Tuttavia, guardando all’evidenza empirica relativa ad un insieme di Paesi più ampio su di un periodo
di tempo più lungo emergono i seguenti fatti:
1) la crescita del PIL pro-capite è un fenomeno piuttosto insolito, rappresenta più un’eccezione
che una regola;
2) la convergenza del PIL pro-capite non è un fenomeno esteso su scala mondiale, potrebbe
essere dovuta al fatto di aver selezionato cinque paesi ricchi che per forza di cose sarebbero
cresciuti
3) in molti Paesi, soprattutto africani, la crescita è ancora sconosciuta, implicando un ampio
divario tra gli standard di vita tra Paesi poveri e ricchi;
4) alcuni paesi, come il Messico e la Costa d’Avorio esibiscono tendenze di crescita anomale,
con periodi di rapida crescita seguiti da un severo declino della produzione.
Si deducono i seguenti fatti:
Fatto 1) esiste un forte variazione nel reddito pro-capite tra le economie, i paesi più poveri hanno
redditi pro-capite che sono meno del 5% dei redditi pro-capite dei paesi più ricchi;
Fatto 2) i tassi di crescita economica variano sostanzialmente tra i paesi;
Fatto 3) i tassi di crescita non sono necessariamente costanti nel tempo;
Fatto 4) la posizione relativa di un paese nella distribuzione mondiale del reddito pro-capite non è
immutabile.
I modelli di crescita mirano ad individuare le determinanti di un fenomeno così complesso, al fine di
suggerire quali siano le politiche più appropriate per aumentare la crescita e portare gli standard di
vita dei paesi poveri più vicini a quelli delle nazioni sviluppate.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Modello di Solow
Controversia sulla convergenza (catching up): l’ipotesi della convergenza sostiene l’esistenza di
una convergenza nel reddito pro-capite tra paesi diversi, ciò vuol dire una relazione negativa tra
crescita e reddito pro-capite relativo.
Meccanismo: essere arretrati nei livelli di produttività comporta un forte potenziale di crescita della
produttività, i paesi ritardatari sono in grado di portare nella produzione un forte bagaglio di
tecnologie non sfruttate, i paesi che sono vicini alla frontiera della tecnologia invece hanno minori
opportunità di crescere più velocemente.
Assunzioni del modello:
1) la funzione di produzione è 𝑌(𝑡) = 𝐹[𝐾(𝑡), 𝐴(𝑡)𝐿(𝑡)]
dove: t= tempo, Y=prodotto, K=capitale, L=lavoro, A=stato della tecnologia, AL=lavoro
effettivo.
A parità di K e L, un miglioramento di A consente un incremento della produzione. Il
progresso tecnologico che moltiplica L è denominato labor-augmenting (è come se
aumentasse la unità di lavoro nell’economia)
2) rendimenti di scala costanti, ciò consente di ricavare la cosiddetta intensive form:
𝐹(𝐾/𝐴𝐿, 1) = 1/𝐴𝐿 ∗ 𝐹 (𝐾. 𝐴𝐿) = 𝑌/𝐴𝐿
Ponendo: K/AL=k=capitale per unità di lavoro effettivo
Y/AL=y=prodotto per unità di lavoro effettivo
Si può riscrivere la funzione di produzione come y=f(k);
3) prodotto marginale del capitale positivo ma decrescente (rendimenti decrescenti di k), e
quindi f ’(k)>0, f ’’(k)<0;
4) inada conditions, viene imposta per evitare che l’economia non diverga:
lim 𝑓 ′ (𝑘) = 𝑖𝑛𝑓
𝑘→0
lim 𝑓 ′ (𝑘) = 0
𝑘→𝑖𝑛𝑓
5) L ed A crescono a tassi esogeni: n e λ rispettivamente; i livelli iniziali di K, L ed A sono dati;
6) Y=C+I, il governo (G) è assente, l’offerta aggregata è data solo dal consumo e
dall’investimento;
7) I=sY, la frazione del prodotto aggregato dedicata agli investimenti è uguale al tasso di
risparmio s, che è esogeno e costante;
8) Il tasso di deprezzamento del capitale è = δ
Ne deriva che:
𝐾̇(𝑡) = 𝑠𝑌(𝑡) − 𝛿𝐾(𝑡) (1)
Dove il puntino su K indica la derivata rispetto al tempo d𝐾(𝑡) /dt, ovvero la variazione dello stock di
capitale nel tempo, data dall’investimento meno il deprezzamento del capitale.

Dinamica del modello


L’evoluzione di due dei tre input (A ed L) è esogena, quindi per caratterizzare la dinamica
dell’economia è necessario analizzare il comportamento del capitale.
Ricordando che k=K/AL (e che 𝐿̇/𝐿 e 𝐴/𝐴 ̇ sono rispettivamente n e λ), derivando tale rapporto
rispetto al tempo (applicando la regola di derivazione di un rapporto e quella di derivazione di un
prodotto sull’equazione 1) si ottiene:
𝑘̇(𝑡) = 𝑠𝑓(𝑘(𝑡) ) − (𝑛 + λ + 𝛿)𝑘(𝑡) (2)
Che descrive la dinamica del modello.
𝑘̇(𝑡) = 𝑠𝑦(𝑡) − (𝑛 + λ + 𝛿)𝑘(𝑡) (2)
Secondo la 2, equazione chiave del modello di Solow, il tasso a cui il capitale per unità di lavoro
effettivo cambia nel tempo è la differenza tra l’investimento effettivamente realizzato e
l’investimento necessario a mantenere costante k (break-even investment). Siccome k=K/AL,
l’investimento necessario deve crescere ad un tasso uguale alla crescita del denominatore (𝑛 + λ) +
il tasso di deprezzamento (𝛿).

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Graficamente, la relazione tra i due termini della 2 (investimento e investimento necessario) è:

Quando ci troviamo a destra di k* il tasso di crescita è negativo (perché il secondo termine è


maggiore), quindi k si riduce; quando ci troviamo a sinistra di k* il tasso di crescita è positivo
(perché il primo termine è maggiore), quindi k cresce. Il sistema tende a convergere sullo steady
state (stato stazionario).
Se si indica con k* il livello che rende uguali i due termini, k converge verso k*, in cui k‘=0.
L’economia converge verso un sentiero di crescita bilanciata in cui:
1) Per ipotesi AL cresce al tasso esogeno 𝑛 + λ;
2) K/AL è costante in k*, dunque K cresce al tasso 𝑛 + λ (poiché deve crescere allo stesso tasso
del denominatore);
3) Per 1 e 2 e per l’ipotesi di rendimenti costanti di scala -> Y=F(K, AL) cresce al tasso 𝑛 + λ;
4) K/L e Y/L crescono al tasso λ, poiché per ipotesi L decresce al tasso n
quindi 𝐾/𝐿= n + λ − n = +λ (somma dei tassi di crescita);
È importante sottolineare che la crescita, sul sentiero di crescita bilanciata, non dipende dal tasso di
risparmio ed il tasso di crescita dell’output per lavoratore è determinato solo dal tasso di progresso
tecnologico.
Riassumendo:
Il modello di Solow individua due possibili cause di variazione (nel tempo o tra Paesi diversi)
dell’output per lavoratore: differenze nel capitale per lavoratore (K/L) e differenze in A (tecnologia).
Tuttavia, solo la crescita di A può condurre ad una crescita permanente in Y/L, dato che il
capitale cresce ma a tassi decrescenti, e, per cambiamenti verosimili di K/L l’impatto su Y/L è
modesto. Di conseguenza solo differenze in A possono spiegare le differenze di crescita nel tempo e
tra Paesi diversi del mondo. Tuttavia, il cambiamento di A è esogeno. Come Romer sintetizza
“abbiamo modellato la crescita assumendola”. Inoltre, il modello non spiega esattamente cosa sia A,
la definisce come “labor effectiveness”, sappiamo che è una “black box” ma non sappiamo da quali
variabili è influenzata, siamo riusciti però ad escluderne alcune (K e L).

Arrow: “da un punto di vista quantitativo, restiamo con il tempo quale variabile esplicativa. Ora
proiezioni di trend temporali sono fondamentalmente una confessione di ignoranza e, ciò che è peggio
da un punto di vista pratico, non sono variabili su cui la politica economica possa agire”.
Sapere cosa determina la crescita è una conoscenza per i policy maker per favorire il processo di
crescita, senza non saranno in grado di attuare politiche favorevoli alla crescita.
È necessario quindi chiedersi cosa rappresenti A e quali siano le sue determinanti. Varie sono le
interpretazioni della “labor effectiveness”. Potrebbe rappresentare:
- Astratta conoscenza;

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

- La formazione e le abilità della forza lavoro;


- La forza dei diritti di proprietà;
- La qualità delle infrastrutture;
- Attitudini culturali verso l’impresa ed il lavoro;
- Ecc.
Per qualsiasi interpretazione di A è comunque necessario chiedersi come influenza l’output, come
evolve nel tempo e perché differisce tra varie parti del mondo. Inoltre, il modello non ci dice il tipo
di crescita che realizza (se sostenibile o meno).

La teoria della crescita endogena


Questa teoria tenta di superare le difficoltà del modello neoclassico nello spiegare le differenze
notevoli tra Paesi arretrati e avanzati nei tassi di crescita endogenizzando il progresso tecnico. Questa
espressione significa spiegare, almeno in parte, il progresso tecnico in base a variabili economiche e
non più un processo che avviene con il passare del tempo.
La teoria della CE va alla ricerca di elementi in grado di influenzare la crescita della produttività
che siano riconducibili a scelte degli agenti economici, che possono essere diverse da un sistema
economico all’altro e che quindi possano spiegare le differenze tra Paesi che ancora oggi si registrano.
Questi elementi verranno chiamati “endogeni” anche qualora siano indicati come parametri esogeni
nei modelli (dati). La ragione è che sono “endogeni” non rispetto al modello, ma rispetto ad alcune
scelte economiche.

Romer
Romer riprende il concetto di acquisizione di conoscenze mediante l’esperienza (learning by doing)
sottolineando la generazione di esternalità positive. L’apprendimento generato dall’attività della
singola impresa va solo in parte a suo vantaggio esclusivo, perché in larga misura si diffonde per
imitazione alle altre imprese. Inoltre, tende ad esternalizzarsi anche la parte che in un primo tempo
va a suo esclusivo vantaggio, nella misura in cui chi ha beneficiato dell’apprendimento può essere
assunto da altre imprese. Quindi ogni impresa, durante il suo operato, genera delle esternalità
positive delle quali non trae diretto vantaggio poiché ne trae beneficio esclusivo solo inizialmente. A
livello di singola impresa non ci sono rendimenti crescenti. Ma, se a quel livello ipotizziamo
rendimenti costanti, allora, a causa delle esternalità a livello di sistema economico avremo rendimenti
crescenti di scala. È proprio questa ipotesi che rende possibile la divergenza continua dei livelli di
PIL pro-capite tra paesi.
Ogni impresa non tiene conto delle esternalità che genera e opera come se non esistessero. Ciò
permette al sistema di trovare un equilibrio competitivo in regime di concorrenza come se non ci
fossero esternalità. Tale equilibrio, però, non è ottimo dal punto di vista generale e quindi lascia
spazio all’agire dello Stato. Le imprese tenderanno ad investire tempo e denaro nella formazione
del proprio personale non nella misura socialmente ottima, ma in misura minore. Si comprende allora
la necessità di un ruolo positivo dello Stato, chiamato a fornire incentivi alle imprese per la
formazione interna e/o a finanziare e gestire direttamente la formazione professionale.

Ipotesi del modello:


1) Esistono M imprese identiche;
2) Ognuna ha una funzione di produzione nella quale, oltre il capitale da essa impiegato, figura
tra i fattori anche il capitale totale dell’economia K (risultato degli investimenti passati di tutte
le imprese nell’economia, non ha il pedice i che indica la singola impresa)
𝛽
𝑌𝑖 = 𝐴𝐾𝑖 𝐿𝛼𝑖 𝐾 𝜙 β+α= 1 (rendimenti di scala costanti) i=1, …,M
3) 𝐾 indica l’ipotesi di esternalità che si manifestano a vantaggio di tutte le imprese sotto
𝜙

forma di apprendimento e sono funzione dello stadio di accumulazione complessivo


raggiunto, indicato appunto dallo stock di capitale di tutto il sistema economico;

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

4) Poiché le imprese sono identiche le grandezze aggregate sono il risultato della singola impresa
moltiplicato per M, ovvero: 𝑌 = 𝑀𝑌𝑖 , 𝐾 = 𝑀𝐾𝑖 , 𝐿 = 𝑀𝐿𝑖 , per cui la funzione di produzione
𝛽
del sistema economico è: 𝑌 = 𝑀𝑌𝑖 = 𝑀𝐴(𝐾𝑖 𝐿𝛼𝑖 𝐾 𝜙 )
Poiché β+α= 1 possiamo scrivere 𝑀 = 𝑀𝛽 𝑀𝛼 ,
𝛽 𝛽
per cui 𝑌 = 𝐴𝑀𝛽 𝐾𝑖 𝑀𝛼 𝐿𝛼𝑖 𝐾 𝜙 = 𝐴(𝑀𝐾𝑖 )𝛽 (𝑀𝐿𝑖 )𝛼 𝐾 𝜙 = 𝐴𝐾𝑖 𝐿𝛼𝑖 𝐾 𝜙 (1)
5) Se a livello di singola impresa i rendimenti sono costanti, a livello aggregato i rendimenti di
scala sono crescenti poiché (β+α+ϕ)>1;
6) Se β+α+ϕ=1 la (1) diventa 𝑌 = 𝐴𝐿α 𝐾;
7) Se n=0 (ovvero il lavoro L costante) la produttività marginale del capitale è costante (𝐴𝐿α
costante);
8) La crescita del prodotto (=alla crescita del prodotto pro-capite=crescita di K) è del tipo:
𝑔𝑦 = 𝑔𝑌 = 𝑔𝐾𝑡 = 𝑠𝐴𝐿𝛼
[Nota: 𝑔𝐾𝑡 = (𝐾𝑡+1 − 𝐾𝑡 )/𝐾𝑡 = 𝐼𝑡 /𝐾𝑡 = 𝑠𝑌𝑡 /𝐾𝑡 = 𝑠𝐴𝐿𝛼 𝐾𝑡 /𝐾𝑡 ]
𝛼
Dove 𝑠𝐴𝐿 è il tasso di crescita del prodotto che è costante ed endogeno. È endogeno poiché
s (tasso di risparmio) e α (tecnologia) sono la risultante di scelte specifiche degli agenti
economici di ciascun paese;
9) L’ipotesi β+α= 1 risulta verificata solo se le esternalità positive generate da K sono equivalenti
ad un progresso tecnologico “labour augmenting”;
10) Infatti, siccome β+α= 1, affinché β+ϕ= 1  ϕ=a, la funzione di produzione della singola
impresa può essere scritta come:
𝛽
𝑌𝑖 = 𝐴𝐾𝑖 (𝐿𝑖 𝐾)𝛼
(LK= le unità di lavoro sono più di quelle reali grazie all’effetto di K)

Se l’uguaglianza β+ϕ= 1 non si verifica una crescita a tasso costante non è possibile. È quindi
un’ipotesi molto particolare quella su cui si regge la possibilità di uno steady state in questo
modello

Lucas
Per Lucas la crescita del reddito pro-capite può essere spiegata solo dall’accumulazione in capitale
umano (grado di preparazione e specializzazione raggiunta dal singolo lavoratore). È l’investimento
in capitale umano piuttosto che quello in capitale fisico che genera le esternalità che fanno aumentare
il livello della tecnologia e della produttività.
La decisione di accumulare questa forma specifica di K dipende dalla scelta del singolo di allocare il
proprio tempo tra tempo libero, ore di lavoro e tempo dedicato allo sviluppo della propria
preparazione e conoscenze.

Ipotesi del modello:


Sia H la dotazione totale di capitale umano, si suppone che ogni unità di capitale umano sia tanto più
produttiva quanto maggiore è la dotazione totale di capitale umano nell’economia, si suppone cioè
che il capitale umano generi esternalità positive.
Il capitale umano totale è il prodotto della dotazione media di capitale umano h per le ore (diverse da
tempo livero) potenzialmente disponibili nell’economia, N
H=hn
Il monte ore N, che si suppone fisso, si divide in due parti: la frazione dedicata al lavoro uN e quella
dedicata all’accumulazione di capitale umano (1-u)N.
Con una funzione di produzione Cobb-Douglas si ha:
𝛾
𝑌𝑡 = 𝐾𝑡𝛼 (𝑢𝐻𝑡 )1−𝛼 𝐻𝑡 (1)
𝑦
Dove 𝐻𝑡 rappresenta le esternalità positive.
Si suppone che u sia costante e determinato da scelte di ottimizzazione intertemporale, ovvero il
livello di u viene deciso considerando il trade off tra il reddito presente, che viene guadagnato

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

aumentando u, e il reddito futuro, che invece si riduce aumentando u, perché si sacrifica la formazione
e quindi l’accumulazione di capitale umano.
La (1) si può riscrivere come: 𝑌𝑡 = 𝐾𝑡𝛼 (𝑢ℎ𝑡 𝑁)1−𝛼 (ℎ𝑡 𝑁)𝛾
Derivando il logaritmo del primo e del secondo membro rispetto al tempo (ricordando che u ed N
sono costanti) si ha: 𝑔𝑌 = 𝛼𝑔𝐾 + (1 − 𝛼 + 𝛾)𝑔ℎ (2)
Si suppone, inoltre, che il tasso di crescita di h, 𝑔ℎ , sia esattamente proporzionale alla frazione di
tempo investita per tale crescita (1-u): 𝑔ℎ = 𝛿 (1 − 𝑢) (3)
Dove δ è una costante positiva.
In steady state 𝑔𝑌 = 𝑔𝐾 per cui dalla (2) e la (3) si ottiene:
𝑔𝑌 = 𝛼𝑔𝑌 + (1 − 𝛼 + 𝛾)𝛿 (1 − 𝑢)
𝑔𝑌 = [(1 − 𝛼 + 𝛾)/(1 − 𝛼 )]𝛿(1 − 𝑢)
Tale tasso di crescita è costante (dato che è funzione di parametri costanti) ed endogeno (poiché
dipende dalla scelta di u che dipende dalle scelte degli individui). Si ottiene così una soluzione di
steady state in cui sia reddito che produttività oraria crescono al tasso appena ottenuto.
Differenze internazionali dei tassi di crescita della produttività potrebbero derivare anche da
differenze di tecnologia differenti da α e δ.
Anche in questo modello la soluzione di steady state si fonda su di un’ipotesi piuttosto fragile, ovvero
𝑔ℎ = 𝛿 (1 − 𝑢). Una volta scelta la frazione di tempo da dedicare all’istruzione e alla formazione
(1-u), e indipendentemente dall’ampiezza di questa (!), il capitale umano crescerà al tasso 𝑔ℎ costante
nel tempo. Questo è un po’ irrealistico, poiché raggiunto un certo livello dovrebbe iniziare a
presentare rendimenti di scala decrescenti.

Un altro modello di crescita endogena (a tasso costante) è quello in cui la crescita della produttività
è endogena perché dipende dalle risorse dedicate dalle imprese alla R&S, le quali a loro volta
dipendono da un insieme di elementi potenzialmente diversi da un paese all’altro, in parte legati a
scelte di agenti economici, ma anche all’organizzazione dei mercati, al sistema giuridico e agli
incentivi pubblici.

La teoria della crescita endogena ha avuto il merito di far rinascere attenzione verso un problema
centrale degli studi economici: come e perché si ha crescita economica differenziata.
Ha contribuito ad indicare il ruolo rilevante che assumono le scelte economiche e politiche in ordine
all’accumulazione di capitale umano, alla politica economica strutturale e alla ricerca e sviluppo.
Ha suscitato un gran numero di studi empirici.

Critiche: per ottenere sentieri a tasso costante di crescita si devono introdurre ipotesi fragili e
arbitrarie. Tale teoria tenta di incapsulare in precise relazioni quantitative fenomeni che a ciò non si
prestano. Il progresso tecnico nasce da un processo di apprendimento collettivo ed individuale, che
solo in parte può essere ricollegato a scelte economiche. Certo esso dipende dalle decisioni riguardanti
la spesa in istruzione e R&S, ma tali decisioni sono spesso basate su di una visione dell’interesse
collettivo e non sulla massimizzazione di quello individuale, come vorrebbero i modelli sopra
descritti. Vi sono aspetti storici, istituzionali o culturali che condizionano la capacità di imparare, di
scoprire nuove cose, di assumere il rischio e la fatica di innovare. Tutto ciò non può essere colto in
modo soddisfacente dai modelli economici. Nella teoria economica contemporanea esistono filoni di
studi sul progresso tecnico che prestano molta attenzione agli aspetti ora ricordati e alle loro
specificità nazionali o regionali, che concorrono a spiegare la crescita della produttività.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Studi Empirici sulla Convergenza


I modelli della crescita endogena e il modello di Solow hanno ispirato un filone di letteratura che ha
avuto come obiettivo quello di verificare, utilizzando dati reali, se le previsioni dei modelli fossero
verificabili nella realtà. Ci sono due grandi ragioni che possono portare alla convergenza (col
passare del tempo i Paesi poveri si avvicineranno ai Paesi più ricchi):
1. L’ipotesi di rendimenti decrescenti dei fattori implica che l’investimento in capitale è molto
più produttivo dove è scarso, per cui, in assenza di barriere ai movimenti di capitale, il capitale
tenderà a spostarsi dai Paesi ricchi a quelli poveri (se il capitale è basso, il rendimento
marginale è alto e viceversa);
2. Il progresso tecnologico è un bene non escludibile (nel tempo).

Convergenza Assoluta
Il sistema converge automaticamente verso lo steady state. In tale punto, Y cresce al tasso n+λ, per
cui Y/L (reddito per addetto o prodotto per addetto) cresce al tasso λ.
Il modello di Solow prevede convergenza assoluta nei tassi di crescita del reddito per addetto.

Metodi di stima parametrici


Per verificare l’ipotesi di convergenza assoluta si calcola il tasso di crescita medio tra 0 e t del reddito
pro-capite e si regredisce tale valore medio contro il livello iniziale dello stesso reddito.
Ponendo 𝑦𝑖,𝑡 il reddito pro-capite nel paese i-esimo al tempo t, si calcola il tasso di crescita medio di
𝑦𝑖,𝑡 (che indichiamo con 𝑐𝑖,𝑡 ) tra la data 0 e la data t. Per tale calcolo si può ricorrere alla formula:
𝑐𝑖,𝑡 = log(𝑦𝑖,𝑡 /𝑦𝑖,0 ) /𝑡
Dove:
𝑦𝑖,0 rappresenta il reddito al tempo 0, ovvero il reddito iniziale
t è il periodo preso in considerazione (esempio: 20 anni)

Un’equazione stimabile è:
𝑐𝑖,𝑡 = α + βlog(𝑦𝑖,0 ) + 𝑢𝑖,𝑡 (1)
Dove c è la variabile dipendente, log è la variabile esplicativa e β è stimabile.
L’ipotesi di convergenza assoluta è confermata se il coefficiente β è negativo e statisticamente
significativo: i paesi poveri tendono a crescere più velocemente dei paesi ricchi.
Se β è positivo o non è significativamente diverso da 0, la convergenza assoluta non è confermata dal
metodo parametrico.

Primi Studi
Baumol suggerisce una convergenza quasi perfetta per 16 Paesi industrializzati (coefficiente vicino a
-1). Secondo De Long questi risultati possono essere distorti dalla selezione del campione: Paesi che
erano poveri 100 anni fa rientrano oggi nel novero dei Paesi industrializzati solo se sono cresciuti
velocemente in tale periodo. Estendendo il campione ad altri Paesi il coefficiente stimato viene
ridimensionato notevolmente. Inoltre, Baumol tiene in considerazione errori di misurazione nel
calcolo del reddito pro-capite iniziale.
Se esiste una certa convergenza tra i Paesi sviluppati, questo non è vero per i Paesi in via di sviluppo.
Si può forse parlare di convergenza per gruppi di paesi, “Club di convergenza”, e nel periodo
“dell’età dell’oro” (1950-1973).
Romer invece va contro la convergenza assoluta, secondo il suo studio in media i paesi poveri non
crescono più velocemente dei paesi ricchi.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Convergenza Condizionata
Secondo questa ipotesi, le economie più povere possono stare su diverse funzioni di produzione,
fermo restando il comune tasso di crescita di steady state.
I paesi in via di sviluppo cioè possono avere diversi tassi di risparmio e diverse tecnologie. E
questo a causa di fattori che condizionano il loro tasso di risparmio e la loro produttività del capitale
(funzione di produzione), e che l’analisi si assume il compito di identificare.
Queste differenze in tasso di risparmio e/o produttività influiscono sul valore del tasso di crescita in
transizione (ovvero il tasso tra un equilibrio e l’altro) e sul livello di reddito in steady state.

Impatto di un diverso tasso di risparmio


Variazioni del tasso di risparmio (il parametro del modello che è più facilmente influenzabile dal
policy maker) influenzano il livello di prodotto per unità di lavoro effettivo.
Se il paese 2 è caratterizzato da un maggior tasso di risparmio, la curva dell’investimento sarà più
alta, 𝑠2 𝑓(𝑘), provocando l’aumento dei livelli di steady state del capitale e del prodotto per unità di
∗ ∗ ∗ ∗
lavoro effettivo (pule). Si passa cioè da 𝑘𝑝𝑎𝑒𝑠𝑒 1 a 𝑘𝑝𝑎𝑒𝑠𝑒 2 e da 𝑦𝑝𝑎𝑒𝑠𝑒 1 a 𝑦𝑝𝑎𝑒𝑠𝑒 2 , ricordando che
y=f(k). Graficamente:

Entrambe le economie convergono verso lo stesso tasso di crescita, il tasso di risparmio non ha effetti
sul tasso di crescita della produzione, tuttavia determina il livello del prodotto nel lungo periodo.
Un maggior livello di s porta ad una crescita della produzione maggiore per un certo periodo di tempo,
ma non per sempre. L’economia attraverserà un periodo di crescita superiore (durante la
transizione), destinato comunque a finire quando si sarà raggiunto il nuovo steady state.
Perché un maggior livello di s porta ad una crescita della produzione maggiore nella transizione tra
uno steady state e l’altro? Nel modello di Solow, il tasso a cui il capitale per unità di lavoro effettivo
cambia nel tempo è:
𝑘̇(𝑡) = 𝑠𝑓(𝑘(𝑡) ) − (𝑛 + λ + 𝛿)𝑘(𝑡)
Se s cresce, il primo termine cresce e quindi k cresce ad un tasso positivo, però questo avviene solo
durante la transizione poiché nel nuovo steady state il tasso di crescita di k torna a zero.
Le variabili condizionanti possono essere cercate sia tra quelle atte a sostenere o deprimere la
produttività marginale del capitale sia tra quelle atte ad influire sul tasso di risparmio e di
accumulazione.
Un’equazione stimabile per verificare l’ipotesi di convergenza condizionata è:
𝑐𝑖,𝑡 = α + βlog(𝑦𝑖,0 ) ∑ 𝛾𝑗 𝑆𝑗,𝑖,𝑡 + 𝑢𝑖,𝑡 (2)
Dove S è un set di variabili destinate a cogliere le differenze per paese di natura strutturale ed
istituzionale.
Se β è significativo e negativo ciò segnala un processo di convergenza condizionato dall’effetto delle
variabili S.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Metodo delle equazioni alla Barro


In letteratura l’equazione (2) è stata adottata non solo per verificare l’ipotesi di convergenza
condizionata ma anche per individuare e testare tutte quelle variabili che possono condizionare il
processo di convergenza. In quel caso il focus dell’analisi non è β ma il coefficiente stimato della
variabile che si sta investigando.

Risultati empirici
Considerando le variabili più spesso trovate significative in centinaia di lavori empirici possiamo
dire che la crescita economica si presenta come un processo condizionato da:
- Reddito iniziale (con segno negativo);
- Livello degli investimenti;
- Attività di R&S;
- Accumulazione di capitale umano;
- Livello delle esportazioni (o grado di apertura al commercio estero);
- Condizioni istituzionali.

Critiche all’impostazione parametrica


Secondo Solow lo sviluppo economico è un processo che si svolge nel tempo “a fasi”, ciascuna delle
quali prepara ed è condizione della successiva. Quando si confrontano diversi paesi, collocati
ovviamente a diversi stadi di questo processo, e si cerca di vedere come possano influire delle
variabili, nello stesso periodo di tempo, si confrontano realtà molto diverse.
Vi saranno paesi per i quali tali variabili sono colte “al momento giusto” in quanto, dato il loro stadio
di sviluppo, stanno agendo come cause del suo rallentamento o della sua accelerazione. Vi saranno
paesi per i quali tali variabili non hanno (ancora o non hanno più) effetto perché lo stadio di sviluppo
è sensibile ad altre. Inoltre, vi saranno paesi per i quali alcune di queste variabili sarebbero da
considerare effetti (e quindi endogene) piuttosto che cause del tasso di crescita.
Questa complessità non è dipanabile in quando non esiste ancora un paradigma teorico che permetta
di assegnare le diverse variabili al loro stadio di sviluppo e di distinguere bene le variabili endogene
da quelle esogene. Questo produce inconvenienti gravi dal punto di vista econometrico.
La conseguenza è che le variabili significative e robuste trovate devono essere considerate come
quelle che probabilmente agiscono “in media”. Ovvero, non è detto che esse siano le sole: altre
risultate non significative in media possono essere invece importanti per gruppo di paesi ad un certo
grado di sviluppo.
Secondo lo studio condotto da Boggio e Seravalli, il fatto che comunque siano risultate significative
in media non è indifferente. Si potrebbe dire che esse possono costituire una prima guida di politica
dello sviluppo. È indispensabile che tale politica sia poi verificata nei fatti e modificata, anche magari
drasticamente, tuttavia è probabilmente meglio partire con qualche idea, anche se provvisoria ed
approssimativa, che senza idea alcuna.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Crescita, ambiente, tecnologia


Sin dagli anni 50 e 60, la crescita economica è stata generalmente considerata come la soluzione al
problema della povertà, ma le risorse mondiali sono limitate e costituiscono un insieme interrelato
e complesso di ecosistemi che cominciano ad esibire segni di fragilità, la crescita non può procedere
all’infinito. Inoltre, l’attività economica (di produzione e di consumo) ha generato una crescente
quantità di rifiuti.
Finora nelle funzioni di produzione non abbiamo considerato le “estrazioni da” e le “aggiunte a”
l’ambiente che la produzione dell’output comporta.

𝑄𝑖 = 𝑓(𝐾𝑖 , 𝐿𝑖 , 𝑅𝑖 , 𝑀𝑖 [𝑅𝑖 ], 𝐴 [∑ 𝑀𝑖 ])
𝑖
R= risorse naturali estratte dall’ambiente;
M= rifiuti prodotti, che sono dipendenti dalle risorse impiegate
A= livello di concentrazione nell’ambiente di qualche inquinante che dipende dalle emissioni totali
di rifiuti di tutte le imprese (feedback effects, utilizzo intensivo di prodotti chimici)

Ci si chiede se il sistema economico globale possa continuare a crescere senza compromettere i


sistemi naturali che rappresentano il suo fondamento originario. Il problema della sostenibilità:
come alleviare la povertà senza danneggiare l’ambiente, ovvero senza compromettere le
prospettive economiche future.

Wackernagel e Rees forniscono una definizione di impronta ecologica dell’umanità: “di quanta
superficie in termini di terra e acqua la popolazione umana necessita per produrre le risorse che
consuma e per assorbire i rifiuti prodotti, usando la tecnologia disponibile”.
Possiamo quindi valutare la pressione che l’umanità esercita sul pianeta.
A partire dalla metà degli anni ’80 l’umanità sta vivendo in overshoot, ovvero al di sopra dei propri
mezzi in termini ambientali. Oggi l’umanità usa l’equivalente di 1,3 pianeti ogni anno, ciò significa
che oggi la Terra ha bisogno di un anno e quattro mesi per rigenerare quello che usiamo in un anno.
Ogni Paese ha il proprio profilo di rischio ecologico: molti sono ormai in deficit ecologico, con
impronte più grandi della propria capacità biologica, ovvero la capacità della natura di produrre
materie, risorse utili e di assorbire i rifiuti dell’attività umana. Altri dipendono pesantemente da
risorse sterne che sono sottoposte ad una pressione crescente.
In alcune aree del pianeta, le implicazioni dei deficit ecologici possono essere devastanti, condurre
alla perdita delle risorse, al collasso degli ecosistemi, all’indebitamente, alla carestia ed alla guerra.

Le determinanti dell’impatto ambientale


L’impatto ambientale dell’attività economica può essere considerato in termini di “estrazioni da” o
“aggiunte a” l’ambiente. In entrambi i casi, le determinanti immediate dell’impatto totale sono la
popolazione e l’impatto pro capite, che dipende da quanto ciascun individuo consuma e dalla
tecnologia di produzione.

IPAT identity
I≡PAT
I= impatto, misurato come volume o massa (in tonnellate);
P= popolazione;
A= benessere pro-capite (affluence), misurato in termini di reddito pro-capite;
T= tecnologia, ammontare di risorse impiegate (o rifiuti generati) per unità di produzione.

Nel caso dell’estrazione di risorse, l’identità è;


𝐺𝐷𝑃 𝑢𝑠𝑜 𝑟𝑖𝑠𝑜𝑟𝑠𝑒
𝐼 ≡ 𝑃𝑂𝑃 ∗ ∗
𝑃𝑂𝑃 𝐺𝐷𝑃

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

𝐸𝑢𝑟𝑜 𝑡𝑜𝑛𝑛𝑒𝑙𝑙𝑎𝑡𝑒
𝑛∗ ∗
𝑛 𝐸𝑢𝑟𝑜

Utilizzo dell’IPAT, il caso delle emissioni di anidride carbonica

P A T I
(miliardi) (dollari) (tonnellate per (emissioni di
dollaro) CO2, miliardi di
tonnellate)
Anno 2007 6.5 9543 0.0004662 28.98
1) P*1.5 9.77 9543 0.0004662 32.32
2) P*1.5 & A*2 9.77 19086 0.0004662 86.95
3) P*1.5 & A*2 9.77 19086 0.0001554 28.98
a parità di I

Simuliamo diversi scenari.


1) Se P aumenta del 50% e vogliamo mantenere lo stesso livello di benessere utilizzando la stessa
tecnologia, di quanto aumenterà l’impatto?
2) Se P aumenta del 50% e A aumenta del 100%, con la stessa tecnologia, di quanto aumenterà
l’impatto?
3) Se P aumenta del 50% e A aumenta del 100%, volendo mantenere l’impatto al livello del
2007, come dovrà cambiare la tecnologia?
Questo esempio ci fa riflettere sul rapporto tra benessere e tecnologia.
Se la tecnologia cambia e riesce a ridurre la necessità di risorse utilizzate dall’attività economica, è
possibile immaginare uno scenario dove aumenta il benessere ma non aumenta l’impatto.

“Il fatto che un’intensa attività economica va a danneggiare inevitabilmente l’ambiente è basata su
assunzioni statiche basate sulla tecnologia e sugli investimenti ambientali.” World Development
Report (1992).
Questo punto di vista può essere rappresentato da una relazione lineare: e=αy, dove e rappresenta le
emissioni pro-capite di una sostanza inquinante e y rappresenta il reddito pro-capite.

La Curva di Kuznets (EKC)


Una forma alternativa della relazione tra e ed y è stata denominata EKC, deve il suo nome ad una
analogia con una curva dell’economista Kuznets.
𝑒 = 𝛽0 𝑦 − 𝛽1 𝑦 2
La relazione non è lineare, 𝛽0 è positivo (per bassi livelli di reddito) e 𝛽1 è negativo (per alti livelli di
reddito).
(Panayotuo, 1993)
La crescita economica implica maggiori
emissioni (e) fino ad un certo livello di
reddito pro-capite (TP, turning point),
superato il quale un ulteriore aumento del
reddito pro-capite riduce e.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Prima fase: bassi livelli di sviluppo economico sono associati a moderato degrado ambientale.
Un’attività economica di sussistenza produce quantità limitate di rifiuti (biodegradabili) e impiega
meno risorse. L’accelerazione dello sviluppo economico, con il decollo dell’industrializzazione,
l’intensificazione dell’agricoltura, l’estrazione crescente di risorse, provoca uno sfruttamento delle
risorse eccedente il tasso al quale le stesse si rigenerano. La produzione di rifiuti aumenta in quantità
e tossicità.
Seconda fase: ad alti livelli di sviluppo, 4 fattori principali causano un declino del degrado
ambientale e quindi la relazione negativa tra reddito ed emissioni:
1) Cambio strutturale dell’industria, dal manifatturiero verso industrie ad alta intensità di
informazione e verso l’offerta di servizi;
2) Aumento della sensibilità ambientale, la società si preoccupa dell’ambiente in cui vivono e
in cui vivranno i propri figli;
3) Migliori tecnologie, meno inquinanti e con una maggior efficienza energetica;
4) Maggiore spesa e regolamentazioni più stringenti per la salvaguardia ambientale.
Se fosse vero, invece di rappresentare una minaccia per l’ambiente, il processo di crescita potrebbe
essere uno strumento per migliorare l’ambiente, superato il turning point.
A partire dagli anni ’90, molti studi empirici hanno cercato di verificare l’ipotesi della ECK,
attraverso tecniche econometriche. Secondo Panayotuo, tutte le relazioni stimate (per: anidride
solforosa, ossido di azoto, deforestazione e particolato) supportano l’ipotesi della EKC.

Sintetizzando possiamo dire che la relazione tra reddito ed impatto ambientale sembra assumere
andamenti diversi per i diversi inquinanti. Gli studi empirici dimostrano un andamento ad U
rovesciata per inquinanti con impatto locale e regionale (come l’anidride solforosa, che riproduce
fedelmente le EKC), ma non per quelli con impatto globale (come l’anidride carbonica,
caratterizzata da una relazione monotona crescente rispetto al PIL).
L’azione locale è gestita dalle amministrazioni locali. Risultati globali sono più difficili da
raggiungere perché richiedono l’azione coordinata tra molti stati. I tentativi di riduzione dei gas serra
negli ultimi anni sono stati un fallimento proprio per la mancanza di accordi. I Paesi emergenti non
accettano accordi simili perché dal loro punto di vista se i Paesi sviluppati hanno raggiunto livelli di
benessere anche grazie all’inquinamento di cui sono responsabili, perché i Paesi che vogliono
raggiungere alti livelli di benessere dovrebbero rinunciare per ridurre le emissioni?
I risultati rimangono, comunque, non omogenei: a parità di inquinante, alcuni autori verificano la
curva, altri no (come Stern e Common, 2001, che non riscontrano evidenza di una EKC per l’anidride
solforosa).

Critiche alla curva di Kuznets


Omettendo i problemi di carattere econometrico che affliggono i primi studi (e di cui la letteratura
più recente ha cercato di tener conto con tecniche più sofisticate proprie dell’analisi di serie storiche),
ci concentriamo sulle critiche che sono state mosse sul piano teorico.

1). La presenza di una EKC per i paesi industrializzati può essere spiegata da un lato dalla reale
tendenza ad abbattere l’inquinamento all’aumentare del reddito, ma dall’altra da una distorsione
derivante dal commercio internazionale. Il crescente processo di globalizzazione può portare infatti
ad un sistema in cui i paesi industrializzati riducono la produzione di beni ad alto impatto ambientale
per specializzarsi in produzioni più verdi e importino i beni maggiormente pollution-intensive
dall’estero. Questa critica trova sostegno nel teorema di Heckscher-Ohlin. Spostare i processi
inquinanti in Paesi in via di sviluppo può essere più dannoso dato non hanno tecnologie
all’avanguardia e anche perché probabilmente le norme ambientali sono meno stringenti.
Il commercio internazionale ed il processo di globalizzazione possono quindi avere l’effetto di
ridistribuire nello spazio le imprese inquinanti, spostando l’inquinamento più che riducendolo.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

2). Stern e altri studiosi si sono chiesti: ipotizzando che l’ipotesi EKC sia confermata per un certo
inquinante, possiamo concludere che l’impatto globale di tale inquinante è destinato a ridursi nel
medio-lungo periodo?
Considerando un grafico relativo all’anidride solforosa, prodotto da Panayotou, il valore soglia è
vicino al reddito medio mondiale. Per cui si potrebbe ritenere che aumentando i redditi pro-capite dei
paesi oltre quella soglia, le emissioni pro-capite finiranno per decrescere ovunque. Ma la distribuzione
dei redditi è asimmetrica, molti più paesi (inclusi alcuni con larga popolazione) si trovano sotto e non
sopra la media, per cui continuando a crescer e incrementeranno le emissioni pro-capite. Inoltre,
considerando anche la crescita della popolazione, le emissioni globali sono destinate ad aumentare.
Stern e altri studiosi, utilizzando:
- proiezioni della crescita del PIL pro-capite e della crescita della popolazione;
- stime di Panayotou relative ad anidride solforosa e deforestazione;
hanno prodotto delle proiezioni relative alle emissioni globali di anidride solforosa e all’andamento
globale della deforestazione per il periodo (1990-2025). Nonostante l’ipotesi EKC imposta, le
emissioni globali di anidride solforosa aumentano da 383 (milioni di tonnellate) nel 1990 a 1181 nel
2025, mentre l’estensione delle foreste si riduce da 40.4 milioni di km² nel 1990 a 37.6 milioni di km²
nel 2025.

3). Migliori tecnologie (meno inquinanti e con una maggior efficienza energetica) sono richiamate
come elemento fondamentale che contribuisce a ridurre l’impatto ambientale delle nostre produzioni.
Bisogna però prestare attenzione alla trappola del paradosso di Jevons.
Jevons si è posto il problema dell’efficienza e del risparmio, arrivando a esprimere il suo paradosso
come segue: “è una confusione di idee quella di supporre che l’uso economico di un combustibile è
equivalente a ridurne i consumi, è vero proprio l’opposto”.
Secondo il principio di Jevos (o Rebound Effect), se usiamo una risorsa in modo più efficiente:
a) tenderemo ad usarne di più;
b) i risparmi nell’uso di una certa risorsa possono essere anche trasferiti su un uso più
intenso di un’altra.
Ovvero, ciò che si risparmia potrebbe essere controbilanciato da nuovi usi (superflui).

Esempio: lampadine a basso consumo.


Il principio di Jevons si applica in due modi:
1) è probabile che le lampadine a basso consumo vengano utilizzate più a lungo di quelle
tradizionali, semplicemente perché costa meno;
2) ammettendo che il risparmio ci sia, le risorse risparmiate verranno usate in altri modi, per
esempio, gli euro risparmiati ogni anno con le lampadine a basso consumo, vengono utilizzati
per usare l’asciugatrice, vanificando di fatto le riduzioni di emissioni di CO2 dovute alle
lampadine.
Questo vale anche per uso di auto o di sistemi di riscaldamento più efficienti.
A parità di livello di comfort raggiunto, il risparmio conseguito con l’efficienza dovrebbe andare a
beneficio della collettività, in modo che i consumi si abbassino realmente in tutto il paese. Per ridurre
i consumi si può educare e incentivare alle buone pratiche, proibire o tassare le cattive pratiche.

4). Molte nuove tecnologie possono avere un impatto negativo sull’ambiente. Per esempio, molti
prodotti ad alto contenuto di tecnologia non vengono smaltiti correttamente. Parliamo dunque di
technotrash o E-waste, ovvero rifiuti elettronici. Secondo alcuni studi ogni anno si producono tra
i 20 e i 50 milioni di tonnellate di technotrash in tutto il mondo. Secondo uno studio della United
Nations University, nel 2016 sono stati prodotti 43 milioni di tonnellate di rifiuti elettronici, una
crescita dell’8% rispetto al 2014, registrando quindi la crescita più rapida rispetto a qualsiasi altro
tipo di rifiuto. Le ragioni di questa forte crescita sono principalmente tre:
a) calo dei prezzi dei prodotti elettronici;

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

b) convinzione che i nuovi prodotti incorporano nuove innovazioni tali da rendere i vecchi
modelli obsoleti, anche a distanza di pochi anni;
c) incompatibilità dei nuovi software con i vecchi modelli.
Solo il 24.9% di tutti i rifiuti elettronici sono stati riciclati nel 2011. Questi rifiuti non solo sono
dannosi per il pianeta ma contengono anche metalli preziosi (oro, argento, platino) che potrebbero
essere riutilizzati nei processi produttivi per la produzione di microchip, schede madri e altri
componenti. Si stima che oggi nell’Unione Europea siano almeno 700 milioni i cellulari “sepolti nei
nostri cassetti”, che riciclati potrebbero far recuperare circa 14.920 tonnellate di metalli preziosi, dal
valore di oltre 1 miliardo di euro.
Secondo i ricercatori la chiave per risolvere questo problema sarebbe quella di attivare un
meccanismo circolare nella catena del valore degli smartphone, che ad oggi è una linea retta che
parte dall’estrazione delle materie prime e finisce con lo smaltimento, con basse percentuali di riciclo.
Sarebbe necessario incentivare il riutilizzo sul mercato dell’usato, dovrebbe essere più semplice ed
economico riparare gli smartphone non funzionanti, recuperare le parti per reimmetterle nel ciclo di
produzione. Bisognerebbe pensare ad un modo per recuperare questi materiali, per esempio
obbligando i produttori ad effettuare il ritiro dell’usato.

L’impatto dello smaltimento


Gli Stati Uniti esportano tra il 50 e l’80% dei loro rifiuti elettronici verso l’Asia per il riciclo. Potrebbe
sembrare una cosa positiva ma in realtà il processo di riciclo è affidato a lavoratori poveri in paesi
come l’India o la Cina, esponendo i lavoratori e le loro comunità ad alti livelli di materiali tossici,
trasformando le loro città in discariche. Questo accade perché in questi Paesi non vigono le stesse
normative sulla tutela dell’ambiente e sui lavoratori a cui i Paesi occidentali sono oggetti. La maggior
parte dei rifiuti elettronici che non viene riciclata finisce in discariche, che possono essere un pericolo
per le comunità circostanti.
Secondo Arrow e altri studiosi: “la crescita economica non è una panacea per i problemi ambientali,
sono necessarie politiche che promuovano una crescita sostenibile”. Una maggiore sensibilità dei
cittadini potrebbe spingere i produttori ad avere una maggiore attenzione nei confronti dell’ambiente.

Il Ruolo dello Stato


(Richiami ai primi concetti)
Lo Stato e l’attività di ricerca di base
Gli investimenti nella ricerca di base sono un esempio tipico di “fallimento del mercato”: il mercato
da solo non è in grado di produrre una quantità adeguata di ricerca di base e si rende quindi necessario
l’intervento dello Stato. È opinione condivisa che il finanziamento della ricerca di base competa in
larga misura allo Stato (com’è effettivamente).
La spesa per R&S in Italia è inferiore a quella dei principali paesi europei. Secondo i dati Eurostat-
OCSE, in Italia viene speso per la ricerca l’1.2% del PIL (2006-2010), contro il 2.7 della Germania e
il 2.2 della Francia. In Italia la spesa privata incide solo per lo 0.6% del PIL, a fronte dell’1.8 della
Germania, l’1.3 della Francia, lo 0.9 del Regno Unito e lo 0.7 della Spagna. La spesa pubblica in
ricerca dell’Italia (0.6% del PIL contro lo 0.9 di Francia e Germania) è attribuibile per un terzo alle
amministrazioni pubbliche e per due terzi al settore universitario.
Tramite quali soggetti lo Stato finanzia la ricerca?
La spesa statale per la Ricerca e l’Innovazione è articolata su diversi dicasteri: il MIUR (Ministero
dell’Istruzione, dell’Università e della Ricerca) copre poco meno del 70%, seguono il Ministero della
Salute, con il 14% e il MISE (Ministero per lo Sviluppo Economico) con il 6%.
L’imperfetta appropriabilitá della conoscenza sviluppata mediante ricerca e sviluppo può ridurre
l’incentivo a intraprendere tale attività. Il grado di appropriabilitá dipende principalmente dai
cosiddetti spillovers informali di conoscenza che, favorendo le imprese che non investono in R&S e
che quindi imitano, rischiano di determinate un tasso di innovazione sub-ottimale dal punto di vista
sociale.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Lo Stato può correggere questa sub-ottimalitá attraverso diverse politiche:


- l’ingresso diretto di istituzioni centrali o locali in progetti di ricerca;
- la protezione legale dei risultati dell’attività di innovazione, soprattutto mediante i diritti di
proprietà intellettuale;
- il supporto finanziario alla ricerca.

Il supporto finanziario alla ricerca assume diverse forme:


a) sussidi diretti;
b) sgravi fiscali;
c) prestiti;
d) borse di studio/ricerca.
Data la varietà e l’intensità del sostegno pubblico, numerosi studiosi tentano di stimarne l’efficacia,
in particolare si sono confrontante due ipotesi:
1) i finanziamenti pubblici “spiazzano” quelli privati, ovvero si sostituiscono a quelli privati,
che probabilmente sarebbero stati intrapresi anche in assenza di sostegni pubblici. Se ciò
avvenisse con regolarità si avrebbe un ampio spreco di risorse pubbliche;
2) i finanziamenti pubblici sono complementari, stimolano l’investimento privato.
L’analisi empirica della sostituibilità/complementarità tra investimenti pubblici e privati in R&S non
ha prodotto risultati uniformi. David e altri studiosi passano in rassegna gli studi sull’argomento e
mostrano che, sebbene un effetto di spiazzamento sia confermato da alcuni autori, la varietà dei
metodi di analisi, dei dati utilizzati e delle politiche di esame impedisce di fornire risposte definitive.
È probabile che l’impatto dei finanziamenti pubblici sugli investimenti in R&S sia dipendente da
molti fattori che determinano l’eterogeneità delle imprese, come:
a) la dimensione delle imprese;
b) il livello tecnologico del settore;
c) il grado di appropriabilitá delle invenzioni;
d) i vincoli finanziari.

La studiosa Mariana Mazzucato si è posta una domanda che ha aperto un acceso dibattito: quale
attore nell’economia è responsabile delle innovazioni radicali?
(Richiami a innovazioni radicali e processo)
La Mazzucato fa notare che sebbene da un punto di vista analitico le fasi del processo innovativo
possono essere facilmente distinte, come pure possono essere identificati gli attori principali, dal
punto di vista pratico il più delle volte esse sono indistinguibili: un esempio è quello delle nuove
tecnologie dell’informazione e della comunicazione sviluppate negli anni Novanta nella Silicon
Valley, in cui gli stessi attori erano impegnati con funzioni diverse nelle università e nelle aziende
create ad hoc per sfruttare le nuove idee.
La parola “Silicon” (silicio) in origine si riferiva alla forte concentrazione di fabbricanti di
semiconduttori e di microchip, che stimolarono l’insediamento successivo di aziende di computer,
produttori di software e fornitori di servizi di rete. L’area è oggi sede di molte grandi aziende high-
tech, tra cui Apple, Facebook, Intel, Google, ecc.
Qual è il segreto dietro al modello di crescita della Silicon Valley?
L’idea predominante è che il segreto sia basato su:
a) un settore di venture capital dinamico che sia effettivamente in grado di fornire quei capitali
ad alto rischio alle aziende innovative;
b) politiche di marketing di successo che effettivamente permettono a queste aziende di
introdurre grandi invenzioni, i loro prodotti, sul mercato.
Secondo questa visione in posti come l’Europa il problema è il settore pubblico, che ha impedito a
fattori come il venture capital di essere veramente produttivo. Infatti, alcuni giornali descrivono lo
stato come fosse un Leviatano, un mostro con enormi tentacoli. Inoltre, si sostiene che il settore
privato è più innovativo perché è in grado di pensare fuori dagli schemi. Secondo questa visione lo
Stato dovrebbe finanziare le infrastrutture, le scuole, la ricerca di base (in cui i privati non vogliono

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

investire). Il resto dovrebbe essere lasciato in mano ai “rivoluzionari”, pensatori fuori dagli schemi
che popolano il settore privato.
Eppure, pensando agli smartphone ci rendiamo conto che gli elementi che rendono davvero smart
questi dispositivi sono tutti frutto di finanziamenti statali:
a) internet, fondato da DARPA, Dipartimento della Difesa americano (nonché SIRI);
b) il GPS, finanziato dal programma militare Navstar;
c) lo schermo touchscreen, finanziato da due donazioni pubbliche della CIA e dell’NSF a due
ricercatori dell’università del Delaware.
In questi esempi lo Stato faceva più che risolvere problemi di mercato, stava in realtà dando
forma e creando nuovi mercati. Quando queste applicazioni erano ancora incerte è stato
fondamentale l’investimento dello Stato, svolgendo un vero e proprio ruolo di venture capitalist,
investendo in ricerca applicata. Lo Stato può essere un investitore più audace e più paziente di un
venture capitalist, che si aspetta dei ritorni in 3/5 anni, molte innovazioni però hanno bisogno di molto
più tempo, dai 15 ai 20 anni. Non è solo lo Stato che effettivamente finanzia queste aziende, il settore
privato da un grosso contributo.
Nonostante questo, la visione dominante non prende in considerazione l’importante ruolo che lo Stato
ha assunto.
Secondo la Mazzucato lo stato è più di un semplice riparatore del mercato, in realtà è anche un
creatore del mercato, e facendo questo si assume un grosso rischio. Qual è il ritorno che lo Stato
si aspetta dopo aver corso questi rischi? Si potrebbe pensare che i posti di lavoro che si verranno a
creare contribuiranno alla crescita dei redditi, una parte dei quali ritornerà allo stato attraverso il
meccanismo delle tasse, ma questo non è vero poiché molti di quei posti di lavoro verranno creati
all’estero. Lo Stato potrebbe invece conservare delle quote azionarie delle imprese che innovano.
Questo fenomeno avviene già in paesi come la Finlandia, la Cina, il Brasile.
Vi sono, d’altro canto, autorevoli economisti che vanno contro il pensiero della Mazzucato, come
Alesina e Giavazzi che sostengono che “non può funzionare l’illusione che lo Stato e la politica siano
in grado di individuare i settori e le imprese che avranno successo”, in termini di innovazione.
Secondo Alesina e Giavazzi lo Stato dovrebbe garantire università eccellenti, dovrebbe essere in
grado di trattenere e attrarre i cervelli migliori, dovrebbe garantire un ambiente dove la “distruzione
creatrice” possa generare nuove imprese che vadano a sostituire le vecchie, dato che è proprio nelle
nuove imprese che nascono più facilmente le idee. È necessario un welfare che renda meno dolorosa
la transizione da imprese vecchie a imprese nuove, proteggendo i lavoratori e non i posti di lavoro.

Il metodo PSM
Analisi dell’effetto di sussidi sull’attività di R&S
La domanda che ci poniamo è: i sussidi pubblici stimolano l’attività di R&S dei privati?
Il Propensity Score Matching è un metodo che può essere utilizzato:
a) in economia, per la valutazione dell’impatto di politiche economiche (esempio: impatto di
corsi di formazione sul salario dei lavoratori, impatto dell’appartenenza a GVC sulla
produttività, ecc.);
b) in campo medico, per la valutazione dell’effetto di un trattamento (farmacologico o può
consistere in una nuova tecnica chirurgica);
c) dalle imprese, per valutare l’impatto di strumenti di marketing (impatto di promozioni via e-
mail, ecc.).
L’obiettivo del PSM è valutare l’impatto dell’intervento sui soggetti destinatari, utilizzando dati
osservati, che NON sono generati da “esperimenti randomizzati”.
Il gold standard per la stima degli effetti causali è condurre esperimenti randomizzati, ad esempio
delle clinical trials.
I partecipanti vengono assegnati in modo casuale a due gruppi: gruppo trattati (T) e gruppo di
controllo (C) (non trattati). Grazie al processo di randomizzazione sappiamo che tutti i
partecipanti hanno la stessa probabilità di far parte del gruppo trattati e ci assicura che, in
media, le caratteristiche dei due gruppi sono uguali, differiscono solo per il trattamento. Se siamo

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

interessati a misurare l’effetto del cambiamento su una certa outcome variable (y) possiamo stimare
l’impatto del trattamento come differenza tra l’outcome medio del gruppo trattati (𝑌𝑇 ) e l’outcome
medio del gruppo di controllo (𝑌𝐶 ).
𝐼𝑚𝑝𝑎𝑡𝑡𝑜 𝑡𝑟𝑎𝑡𝑡𝑎𝑚𝑒𝑛𝑡𝑜 = 𝑌𝑇 − 𝑌𝐶

Esempio 1: programma di educazione civica


Vogliamo stimare l’impatto di un programma di educazione civica sul tasso di partecipazione al voto
sugli studenti delle scuole superiori. In un esperimento randomizzato si potrebbero estrarre a sorte i
partecipanti al gruppo trattati, chi non verrà estratto farà parte del gruppo di controllo.
Misuriamo l’impatto del trattamento come differenza tra il numero dei votanti del gruppo trattati dopo
il programma e il numero dei votanti del gruppo di controllo (che non ha seguito il programma).
Outcome variable: votare

Esempio 2: la variabile indipendente di interesse è rappresentata dalla chirurgia laparoscopica


per il trattamento di una patologia mentre la variabile outcome dal tasso di mortalità dei
pazienti (dalle complicanze post-operatorie e dalla degenza ospedaliera nel periodo post-operatorio).
Il gruppo dei trattati dovrebbe essere confrontato con il gruppo di controllo costituito da individui con
la stessa patologia trattati con la chirurgia a cielo aperto. In un esperimento randomizzato i malati
vengono operati con una tecnica piuttosto che l’altra, ma questo fa nascere un problema etico.
Misuriamo l’impatto del trattamento come differenza tra tasso di mortalità del gruppo trattati e tasso
di mortalità del gruppo di controllo.

La chiave degli esperimenti randomizzati è che l’assegnazione random del trattamento assicura che
tutti i soggetti abbiano uguale probabilità di ricevere il trattamento. Vengono presi tutti i possibili
accorgimenti affinché non esista alcuna correlazione tra l’assegnazione al gruppo trattati e le
caratteristiche dei soggetti. Affinché si possa stabilire l’effetto causale è importante garantire
l’assegnazione random del trattamento. In questo modo, i ricercatori possono misurare l’effetto
del trattamento a prescindere da altri fattori che possono condurre le persone o i gruppi a partecipare
ad un certo trattamento. L’effetto causale che viene stimato non dipende da nessun processo di
selezione nel trattamento che può essere un processo di selezione guidato dall’esterno (self-
selection), le persone potrebbero auto selezionarsi in un gruppo (exogenus selection).
Nei processi randomizzati escludiamo il selection bias (distorsione da selezione). Se selezionassimo
il gruppo dei trattati su base volontaria, l’impatto risentirebbe da effetti diversi dalla partecipazione
al programma di educazione civica. Le caratteristiche individuali (esempio: maggiore propensione
ad essere più sociale) potrebbero rendere diversi i volontari dai non volontari e quindi queste
caratteristiche potrebbero essere correlate con la propensione a votare. La propensione al voto non
dipenderebbe dalla partecipazione al programma ma da caratteristiche personali
(confounders), ovvero quelle caratteristiche che hanno portato gli individui ad auto selezionarsi.
Se lo studio clinico sopra descritto fosse basato su dati osservati e non randomizzati, i pazienti
appartenenti ai due diversi gruppi di intervento possono differire in modo sostanziale rispetto a
caratteristiche quali età, sesso, stato di salute. Tali fattori potrebbero essere potenzialmente correlati
all’outcome di interesse e costituire fattori di confondimento.
Età avanzata, una ridotta funzione cardiopolmonare, lo stadio avanzato della patologia possono
contemporaneamente influire su:
1) la probabilità che il pazienta venga trattato con chirurgia open piuttosto che laparoscopica;
2) sul tasso di mortalità del paziente (sulle complicanze e sulla degenza).
Dunque, un alto tasso di mortalità verrebbe associato alla tecnica e non alle caratteristiche dei soggetti
con un pessimo quadro clinico e quindi avremmo una visione distorta.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Esempio 3: visite ai medici


Le compagnie farmaceutiche, attraverso i loro rappresentanti, fanno visita ai medici per proporre
nuovi farmaci da prescrivere. Se i compensi dei rappresentanti dipendono dal numero di prescrizione
che riescono a far firmare, e i rappresentanti sono liberi di scegliere i medici a cui fare visita, i
rappresentanti saranno portati a rivolgersi ai medici che prescrivono più degli altri, e non a prescrivere
meno. Non è quindi il trattamento (visite ai medici) a causare un più alto tasso di prescrizioni ma la
propensione dei medici. Se quei medici non venissero sottoposti a visita continuerebbero comunque
a prescrivere quindi quelle visite per le imprese sono uno spreco di risorse, perché in ogni caso quei
medici avrebbero prescritto.
Il fattore che confonde causa sia l’outcome (prescrizioni)
sia l’esposizione al trattamento (visite). Si genera quindi
una distorsione: si coglie una relazione tra esposizione e
outcome che non esiste, generata dal fatto di avere un
fattore in comune.

Le visite hanno l’obiettivo di generare più prescrizioni: ma “più” di quante? Più di quelle che i
dottori avrebbero firmato senza le visite. Le compagnie farmaceutiche dovrebbero essere in grado di
misurare e comparare il numero di prescrizioni dopo la visita con il numero di prescrizioni che
sarebbero state firmate senza la visita, ma non possiamo misurare quest’ultime.

Esempio: visite a medici con alta propensione a prescrivere, ipotizzando di riuscire a misurare
entrambi i casi (visita e non visita).
In entrambi i casi registreremo un +5. Se non
potessimo misurare il caso senza visite
trarremmo una visione distorta perché,
registrando un incremento di 5 prescrizioni a
seguito della visita, potremmo erroneamente
attribuire l’incremento alla visita e non all’alta
propensione del medico.

Esempio: visite a medici con bassa propensione.


In questo caso registriamo l’incremento solo
nel caso della visita (+4). In questo esempio il
trattamento ha effetto. Il problema è che non
possiamo osservare quello che sarebbe
success in assenza della visita: abbiamo
bisogno di un controfattuale.

Le domande cruciali a cui è necessario rispondere sono:


a) il miglioramento osservato è merito dell’intervento o si sarebbe verificato comunque?
b) Il peggioramento osservato sarebbe stato più grave in assenza di intervento?

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Valutazione dell’impatto dell’intervento


Per rispondere a queste domande è necessario confrontare la condizione osservata che i soggetti
esposti presentano dopo l’intervento con la condizione ipotetica, detta situazione controfattuale, che
si sarebbe osservata, per gli stessi soggetti nello stesso periodo, in assenza di intervento. Ovviamente,
tale confronto non è possibile. Dobbiamo quindi fornire un’adeguata approssimazione della
situazione controfattuale.
La tecnica più comune per l’approssimazione del controfattuale è quella di considerare un gruppo di
controllo che non risenta di distorsione da selezione. Bisogna fare particolare attenzione nella
costruzione del gruppo, dato che l’attendibilità dei risultati dipende principalmente da questo.
Possiamo quindi creare dei “cloni” ed effettuare un matching tra medici gemelli (con caratteristiche
simili). Per ogni medico che ha ricevuto una visita andiamo a selezionare un medico che non ha
ricevuto la visita e usiamo il suo numero di prescrizioni come controfattuale, analogamente per il
caso opposto.

Gonzalez e Pazó (2008)


Ritornando al discorso dell’effetto dei sussidi pubblici sulla R&S privata, analizziamo gli studi di
Gonzalez e Pazó.
Assumendo che:
1) 𝑇𝑖 sia una variabile dicotoma (dummy), che assume valore 1 se l’impresa i-esima riceve i
sussidi e assume 0 se non riceve i sussidi;
2) 𝑌𝑖 (0) sia la variabile outcome (ovvero la spesa in R&S) dell’impresa i-esima quando non
riceve i sussidi;
3) 𝑌𝑖 (1) sia la variabile outcome dell’impresa i-esima quando riceve i sussidi;
se potessimo osservare sia la spesa in R&S in presenza di sussidio che in assenza di sussidio, noi
potremmo calcolare l’effetto del sussidio come la differenza tra 𝑌𝑖 (0) e 𝑌𝑖 (1).
Nella realtà non possiamo osservare entrambi i casi per la stessa impresa nello stesso periodo,
abbiamo bisogno di un controfattuale.
Per generare il controfattuale identifichiamo delle imprese con caratteristiche simili alle imprese
trattate, caratteristiche misurabili con delle variabili che appartengono ad un vettore x. Abbiamo
bisogno del controfattuale poiché i sussidi non sono distribuiti in maniera random. Le imprese
grandi o con più esperienza in materia di R&S sono quelle che ottengono i sussidi più facilmente. Se
la distribuzione fosse stata random avremmo potuto calcolare l’effetto come differenza tra spesa
media delle imprese che ricevono i sussidi e spesa media delle imprese che non ricevono i sussidi.

Ipotesi:
1) Unconfoundedness: la selezione al trattamento avviene solo per caratteristiche osservabili
(selection of observables). La partecipazione al trattamento dipende solo da caratteristiche
osservabili e misurabili. Tenendo in considerazione questi confounders che influenzano la
partecipazione, l’assegnazione dei sussidi torna ad essere random. È un’ipotesi molto forte,
raramente nella realtà l’assegnazione dipende solo da caratteristiche osservabili;
2) Overlap: è necessario che per ogni impresa finanziata ci sia un’impresa simile non finanziata
che possa essere utilizzata per compararle.
Per utilizzare questa metodologia è importante avere campioni molto numerosi, in modo da trovare
cloni per ciascuna impresa. È indispensabile una forte conoscenza del processo di selezione dentro il
trattamento, dei confounders che possono influire sul trattamento.
Verificate queste condizioni, il metodo consiste nell’associare ciascun trattato ad un non trattato sulla
base di caratteristiche osservabili, ma dato che queste possono essere molto numerose (rendendo
impossibile un matching perfetto), un modo per rendere più semplice l’associazione è quello di
utilizzare una loro funzione, la probabilità di partecipazione al programma (propensity score).

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Per stimare il propensity score si ricorre ad un


opportuno modello (logit o probit), che pone in
relazione l’evento T (trattamento) con le
determinanti del trattamento stesso (le covariate X,
i confouders). Ecco un esempio.

Ad ogni impresa verrà associata una probabilità di


essere trattata. Ottenute le stime possiamo ora
abbinare impresa trattata e impresa non trattata con
sono più vicini in termini di propensity score
(nearest-neighbor matching estimator). Esistono
anche altre tipologie di matching.

Come calcoliamo quindi l’effetto dei sussidi sulle imprese trattate?


1
𝑆𝐴𝑇𝑇 = ∑ [𝑌𝑖 (1) − 𝑌𝑖 (0)]
𝑁1
𝑖 𝑇𝑖 =1
Ovvero: [(outcome trattata – outcome clone) per tutte le imprese] / numero imprese trattate
Dove:
N= numero imprese trattate;
𝑌𝑖 (0)=controfattuale, outcome impresa clone (spesa in R&S).

Se il numero tra parentesi in valore assoluto è minore


di 2 non è statisticamente significativo.
Nel primo caso non esiste un effetto rilevante, i sussidi
non hanno stimolato lo sforzo privato in R&S, le
imprese addizionano i sussidi al loro budget, non c’è
un effetto spiazzamento.
Nel secondo caso l’effetto si registra.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Disoccupazione tecnologica
Salari, profitti e rendite nel capitalismo digitale
Alla base abbiamo un vecchio dibattito:
- Luddisti (Inghilterra e Francia, XIX secolo): il progresso tecnologico è responsabile
dell’aumento della disoccupazione;
- Sostenitori delle tesi di Schumpeter: il progresso spazza via alcuni lavori, ma ne genera altri,
più sicuri, motivati e meglio retribuiti.
La progressiva sostituzione della manodopera e dell’intelletto umano con la tecnologia (robot
ed intelligenza artificiale) creerà sempre più disoccupati?
Secondo Massimo Giannini: “I robot, nei processi produttivi, stanno tagliando il collegamento che
esiste tra innovazione tecnologica e crescita occupazionale. Per i prossimi decenni si parla di “jobless
growth”, crescita senza lavoro. I robot, seppur in maniera silenziosa, fanno strage di lavoratori. Le
tecnologie ci aiutano a vivere meglio, ma al prezzo di una gigantesca bolla di disoccupazione che non
si sgonfierà per 20 anni, cioè fino a quando la quantità dei lavoratori “obsoleti” espulsi dal ciclo
produttivo non sarà interamente compensata dai lavoratori “innovativi” assunti nel frattempo per
produrre le nuove tecnologie”.
Antonio Aquino però fa notare che: “Fino ad oggi la dinamica delle principali variabili
macroeconomiche non sembra offrire particolare sostegno a queste valutazioni, e, in prospettiva, le
previsioni demografiche sembrano originare preoccupazioni di segno opposto”.

Dinamica della produttività negli anni 2000: la jobless growth provocata dalla rivoluzione dei robot
dovrebbe manifestarsi in una accelerazione della crescita del valore della produzione e in un
rallentamento della crescita dell’occupazione o addirittura in una sua diminuzione, vale a dire, in ogni
caso, in un’accelerazione della crescita della produttività del lavoro. Quello che si è verificato nella
realtà è invece una forte crescita dell’occupazione e, soprattutto nell’area euro, una significativa
riduzione del tasso di crescita sia del PIL, sia della produttività del lavoro.
Prospettive: anche se nei prossimi anni il tasso di crescita della produttività dovesse aumentare
significativamente, la diminuzione della domanda di lavoro che, a parità di produzione e reddito, ne
conseguirebbe, sarebbe probabilmente compensata, o più che compensata, nei paesi industriali, dalla
forte diminuzione della popolazione in età lavorativa in rapporto alla produzione complessiva, e
quindi dell’offerta di lavoro. Secondo le previsioni dell’OECD il numero di persone di età da 65 anni
in su per ogni 100 persone in età lavorativa (da 20 a 64 anni) aumenterebbe da circa 18 del 2015 a
circa 55 nel 2050. Inoltre, gli effetti dell’automazione potrebbero riguardare più la composizione della
domanda di lavoro dal punto di vista delle competenze necessarie, che non la domanda complessiva
di lavoro. La domanda di lavoro potrebbe indirizzarsi su alcune professione e competenze necessarie
per poter lavorare in aziende più automatizzate, quindi non per forza si verificherebbe una riduzione
della domanda stessa.

Capitalismo 4.0: Franzini (Unical, 2017)


Il capitalismo digitale è caratterizzato da 3 tendenze:
1) Rapida crescita ed espansione delle capacità dei robot;
2) Sviluppo di un nuovo modello di business, noto come piattaforma, adottato dalle imprese
più giovani che stanno sfidando le imprese più tradizionali;
3) Crowd, che indica l’ammontare di conoscenza umana distribuita online e facilmente
fruibile da tutti.
Le domande che si poniamo sono:
- Che effetti possono avere i robot sui salari, sui profitti e sulle rendite?
- E le piattaforme?
- Quale è il ruolo del capitale?
- Possono espandersi e prendere nuove forme le rendite?
- Esiste un problema di diritti di proprietà?

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

I robot
Tra il 2011 e il 2016 le vendite dei robot sono cresciute in media del 12% all’anno, come mai in
precedenza.
A questo tasso di crescita il numero triplica ogni 10 anni, ma è prevista un’accelerazione: già nel 2016
sarà 18%.
I 2/3 delle vendite sono concentrare in 5 paesi: Cina, Corea, Giappone, Stati Uniti e Germania.
La densità medie dei robot è di circa 74 robot per 10.000 occupati nell’industria manifatturiera, il
record è in Corea che registra 631 robot per 10.000 occupati.
I robot industriali: l’area geografica caratterizzata dall’incremento maggiore di vendite di robot è
l’area Asia/Australia, seguono l’America, l’Europa e l’Africa.
I settori dove se ne fa più largo utilizzo sono: industria delle automobili, elettronica, metalli,
chimica/gomma/plastica, cibo e altri.
I robot professionali: i settori dove se ne fa più largo utilizzo sono: logistic (aiutano a movimentare
la merce), defence (utilizzati nel campo militare), field (utilizzati su terreni accidentati o in
agricoltura), medical (vengono utilizzati dai medici per eseguire operazioni che richiedono una
maggior precisione). Seguono poi l’industria degli smartphone, quella delle pulizie (che ha registrato
un aumento notevole), ecc.
È previsto inoltre un forte incremento tra il 2016 e il 2019 dei robot per uso domestico.

La disoccupazione: ottimisti e pessimisti


Secondo gli ottimisti esistono dei meccanismi di compensazione che creano nuovi posti di lavoro,
anche se il fattore umano viene ridotto nei processi produttivi dall’avvento dei robot. “Il meccanismo
di mercato è in grado di prendersi cura di ogni cosa”, realizzando quella distruzione creatrice benefica
per la società.
Secondo i pessimisti questi meccanismi non sono sufficienti per contrastare gli effetti di sostituzione
del lavoro, sono insufficienti per rendere la transazione verso sistemi automatizzati meno dolorosa.
Smart machine: i robot sostituiscono non solo il lavoro manuale, ma esistono robot in grado di
sostituire l’intelligenza umana.
Le conseguenze dell’adozione dell’intelligenza artificiale sempre più frequente saranno:
1) Professioni che spariranno (pessimisti);
2) Professioni che si creeranno (ottimisti).
Esistono robot-lavoratori (sostitutivi) e robot-capitale (complementari al lavoro umano). Quello che
i robot-lavoratori lasceranno al lavoro umano sarà sufficiente a occupare “tutti” i lavoratori umani?

Lo studio “Future of Job”, del World Economic Forum (2019), ha analizzato un ampio spettro di
settori di industria che occupano circa 15 milioni di persone, chiedendo soprattutto ai responsabili
delle risorse umane:
1) Quali siano le principali trasformazioni in atto nel settore di appartenenza;
2) Il cambiamento delle funzioni e delle relative competenze necessario da qui al 2022;
3) Le priorità definite in termini di formazione.
Secondo lo studio circa il 50% delle aziende prevede una riduzione della forza lavoro full time a
partire dal 2022 a seguito dell’automazione. Tuttavia, il 38% estenderà la propria forza lavoro a nuove
funzioni integrate con tecnologie di automazione.
Il WEF stima che, da qui al 2022, circa 75 milioni di posti di lavoro saranno persi, mentre 133 milioni
ne verranno creati come nuovi o di radicale riproposizione.
Per il periodo 2018-2022 gli ambiti tecnologici che si prevede abbiano impatti diretti sui profili
professionali sono:
1) Sviluppo di servizi per tecnologie mobili;
2) Intelligenza artificiale;
3) Analisi big data;
4) Tecnologia cloud.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Le nuove competenze ricercate saranno tecnologiche da un lato, e di trasformazione organizzativa e


culturale dall’altro.
In ambito tecnologico, aumenterà la domanda di data analyst (persone che sappiano interpretare
grandi moli di dati), sviluppatori di app, social media specialist, smart city designer, ecc.
Nel segmento “soft/human skills”, lo spettro è molto ampio:
a) Sales, marketing e customer service con spiccate qualità di ingaggio digitale e di conoscenza
dei clienti e delle loro abitudini di navigazione attraverso l’analisi dei dati;
b) Nuovi formatori che supportino le persone in aziende in contesti organizzativi sempre più
dinamici;
c) Specialisti di processi collaborativi e di team working;
d) Figure con pensiero analitico e critico, capacità di problem solving.
Tutto questo servirà per calarsi in una visione strategica dell’Italia nel mondo. Mai come nel caso
delle tecnologie digitali, un divario di competenze potrebbe penalizzare la crescita economica e,
soprattutto, la qualità della vita delle persone.

Unctad – Robots and industrialization in developing countries (2016)


Lo studio vuole capire quali sono le conseguenze dell’aumento dei robot nei Paesi più ricchi per i
Paesi in via di sviluppo. L’incremento dell’utilizzo dei robot nei Paesi industrializzati rischi di erodere
il vantaggio competitivo dei Paesi in via di sviluppo, vantaggio legato ad un minor costo del lavoro.
Se i robot vanno a sostituire il lavoro, specialmente quello meno qualificato, saranno i robot ad avere
la meglio sui lavoratori dei Paesi in via di sviluppo.
Se i paesi industrializzati possono svolgere all’interno della propria nazione mansioni che prima
venivano delocalizzate in Paesi in via di sviluppo grazie ai robot, assisteremo al fenomeno del
reshoring (rientro delle mansioni). Molte fabbriche dei Paesi in via di sviluppo saranno così costrette
a chiudere. Lo studio conclude dicendo che sono necessarie delle politiche economiche per rieducare
la forza lavoro in modo da poter fronteggiare la rivoluzione digitale, e anche politiche
macroeconomiche e industriali per fronteggiare l’alta disoccupazione dei lavoratori poco qualificati.

Reshoring: il caso Stati Uniti


Nel 2016, per la prima volta nel decennio, molti posti di lavoro sono tornati indietro negli Stati Uniti
più di quanti ne abbiano lasciati. Questo perché in Cina il lavoro è diventato più costoso. Nei primi
mesi del 2017, molte imprese Americane hanno iniziato ad acquistare molti più robot perché diventati
più economici. (Produrre 500 auto 20 anni fa richiedeva un certo numero di lavoratori, adesso per
produrre la stessa quantità ne bastano la metà).
La domanda che sorge spontanea è: fino a quando il reshoring sarà positivo in termini di creazione di
posti di lavoro?
Le innovazioni ampliano il differenziale retributivo tra lavoratori skilled e unskilled, e per questa via
contribuiscono all’aggravarsi delle disuguaglianze. Se le regole del gioco resteranno queste, i
vincitori saranno i proprietari dei “robot-lavoratori”. Più che la disuguaglianza tra lavoratori umani
conteranno le diseguaglianze tra proprietari dei robot, lavoratori umani e proprietari del capitale
tradizionale (che possono sovrapporsi ai primi).
Come si può difendere il lavoro umano e i salari?
Molto dipenderà da come le istituzioni di interfacceranno con il mercato dei robot, quali regole
verranno istituite per regolare i rapporti tra lavoro umano e proprietari dei robot.
Secondo Atkinson, l’impatto sociale del cambiamento tecnologico deve essere una preoccupazione
esplicita delle istituzioni che, attraverso le politiche pubbliche, possono orientare la ricerca e i
processi di investimento. I governi non devono subire passivamente l’evoluzione tecnologica, hanno
contribuito al suo sviluppo finanziando la ricerca e devono assumersi il compito di gestire la
transizione e l’ingresso degli automi nel mercato del lavoro.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Le piattaforme
Sono un nuovo modello di business, usano la tecnologia per connettere persone, organizzazioni e
risorse in un ecosistema interattivo in cui possono essere create e scambiate incredibili quantità di
valore. (Non è più un tubo dove la merce passa dal produttore al consumatore, tutti si relazionano con
tutti). Srnicek analizza le caratteristiche del capitalismo contemporaneo e individua l’emergere del
capitalismo di piattaforma, che si fonda su estrazione, aggregazione e analisi di dati, dai quali emerge
un nuovo tipo di impresa commerciale: la piattaforma.
Principali esempi di piattaforma per settore:
a) Comunicazione e networking: Facebook, Twitter;
b) Istruzione: Udemy;
c) Commercio: Amazon;
d) Trasporto: Uber, BlaBlaCar;
e) Viaggi: AirBnB
f) Media: YouTube.
Le piattaforme mettono in crisi l’idea di capitale tradizionale: “Uber è la più grande compagnia di
taxi al mondo, ma non ha veicoli. Facebook è il più grande distributore di media del mondo, ma non
crea contenuti. Alibaba è il più grande rivenditore del mondo, ma non ha un inventario.”
I vecchi ruoli vengono stravolti: gli utenti Uber sono lavoratori autonomi o subordinati? Gli utenti di
Facebook sono consumatori o produttori? Gli utenti di Airbnb sono clienti o concorrenti?
Oltre alle pubblicità, i ricavi delle piattaforme sono:
- Charging a transaction fee, la transazione da luogo a un pagamento monetario (Uber, Ebay).
Il vantaggio è che il pagamento non è per l’accesso alla piattaforma ma per la conclusione
della transazione, lo svantaggio è che c’è il rischio di transazioni fuori dalla piattaforma,
bisogna prevenire relazioni tra le parti;
- Charging for access, il pagamento avviene per l’accesso;
- Charging for enhanced access, il pagamento avviene per un accesso privilegiato o facilitato
su alcuni contenuti o servizi.
Si possono notare caratteristiche “particolari”:
a) Tendono ad adottare prezzi bassi per espandersi e penetrare il mercato, diventando “leader”;
b) Impiego di capitale produttivo limitato e costi marginali tendenti a zero in molti ambiti;
c) Altissime retribuzioni ai manager;
d) Profitti operativi molto ridotti;
e) Tendono ad avere un valore di borsa molto elevato;
Un esempio lampante è il caso Amazon, che ha delle percentuali dei profitti sui ricavi bassissime (tra
il 4% e lo 0.2%), nonostante le vendite crescano anno dopo anno. “L’obiettivo è quello di espandersi,
puntando alle vendite e non ai profitti, cercando di raggiungere sempre più consumatori e mantenendo
la fiducia degli attuali consumatori, praticando prezzi bassi con grande vantaggio per i consumatori.”
Il valore di borsa presenta un tasso medio annuo di aumento del 30% circa nel decennio (2007-2017),
un raddoppio del capitale ogni 2 anni e 8 mesi. (89$ nel 2007, 305$ nel 2014, 1100$ nel 2017, 3400$
nel 2020!).
L’amministratore delegato Jeff Bezos guadagna 81'000 dollari + 1'600'000 per spese di sicurezza, per
non parlare delle decine e decine di milioni di azioni Amazon.
La sua strategia: “la misura fondamentale del successo di Amazon sarà il valore delle azioni (creato
per gli azionisti) nel lungo periodo. Questo valore sarà il risultato dell’abilità di Amazon di estendere
e consolidare la leadership di mercato. Obiettivo fondamentale è mantenere la leadership facendo
crescere il numero di utenti e di conseguenza i ricavi”.
“Adottare una strategia di lungo periodo consente di quadrare il cerchio. Nel lungo periodo gli
interessi dei clienti e degli azionisti convergono, andando a fidelizzare i clienti e adottando prezzi
bassi, offrendo servizi sempre nuovi, consente di espandere la quota di mercato anche in aree di
business nuove”.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Global Value Chain (GVC)


Le catene globali del valore rappresentano un nuovo modo di organizzare la produzione. Le
singole fasi della produzione vengono parcellizzate e svolte da reti di imprese sparse in diversi Paesi,
in base alla convenienza economica e al grado di competenza e specializzazione delle diverse aziende
coinvolte. Tale fenomeno è oggetto di studio e attenzione non solo in campo accademico ma anche
da parte dei policy makers, se è vero che la “forza” di un paese dipende oggi dalle posizioni delle sue
imprese lungo le catene del valore.
Cosa ha favorito il nascere delle GVC?
1) Mezzi di informazione e comunicazione più tecnologici, che abbattono le distanze;
2) I costi di trasporto e di transazione si sono ridotti, riduzione causata dalla riduzione delle
barriere commerciali e dai minori costi di trasporto stessi.
Ne discende un nuovo assetto della divisone internazionale del lavoro, in cui molti beni divengono il
risultato di lunghe catene produttive globali alle quali imprese di paesi diversi aggiungono via via
frammenti di valore. (Es: Nutella, Boeing 787)

The smile curve

Le fasi che aggiungono maggior valore


sono tutte quelle fasi prima e dopo la
produzione e che sono intangibili.
L’attività di produzione è quella che
aggiunge minor valore ed è quella più
soggetta a delocalizzazione.

Variazioni nel tempo:

Grazie all’avvento delle tecnologie digitali,


le attività pre e post produzione hanno subito
un notevole incremento in termini di valore
aggiunto alla produzione. Nel 1900 la smile
curve era rovesciata, era la produzione la
fase che aggiungeva maggior valore.

Perché è così rilevante?


Il fenomeno della frammentazione internazionale della produzione ha rivoluzionato il commercio
internazionale. I modelli tradizionali sul commercio internazionale (come quello Ricardiano o quello
basato sui vantaggi comparati) sono stati messi in crisi. Le forze e le debolezze dei Paesi dipendono
dalla posizione delle loro imprese lungo le catene del valore.
Oggi il commercio di beni intermedi rappresenta una quota tra il 56% e il 73% degli interi flussi
commerciali tra paesi industrializzati. L’esistenza delle catene globali del valore è stata identificata
come una delle principali aggravanti del collasso del mercato del 2008.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

Accetturo, Giunta e Rossi (2011) propongono diverse governance delle GVC:


a) Catene modulari, in cui i fornitori di beni intermedi sono largamente autonomi e possono
servire molti committenti;
b) Catene relazionali, in cui le relazioni committente-fornitore sono reciprocamente
vantaggiose, prevedono lo scambio reciproco di informazioni;
c) Catene captive, in cui i fornitori sono in posizione di dipendenza da un grande committente.
Si tratta dunque di forme di governance comprese tra il make e il buy.

Qual è la posizione e la partecipazione delle imprese manifatturiere italiane alle GVC?


Le imprese italiane partecipano alle GVC soprattutto come imprese intermedie, vale a dire come
imprese che realizzano la larga parte del loro fatturato con la vendita ad altre imprese. Vendono
dunque beni intermedi, semilavorati, piuttosto che vendere al consumatore un bene finito.
Questa evidenza non sorprende dato che la nostra struttura produttiva è frammentata, popolata nella
maggioranza da piccole imprese che non hanno la forza di proporsi sul mercato finale. Infatti, le
imprese finali sono mediamente di grandi dimensioni.
Questo peculiare posizionamento delle imprese italiane sembra avere effetti mediamente negativi
sulla performance dell’impresa. Un recente lavoro (Accetturo e Giunta, 2016) mostra, infatti, che
lo status di impresa subfornitrice è associato ad una performance negativa. Durante la grande crisi del
2008, si riscontra che le imprese fornitrici hanno accusato in media una addizionale caduta nelle
vendite pari a 3.1 punti percentuali. Razzolini e Vannoni (2011) riscontrano che le imprese
subfornitrici soffrono mediamente di una produttività più bassa rispetto alle imprese finali.
Tuttavia, altri lavori attenuano il pessimismo di questi riscontri empici che, se generalizzati,
getterebbero un’ombra lunga sul presente e su futuro dell’industria italiana. Il dato di maggior
interesse messo in evidenza concerne l’eterogeneità delle imprese intermedie. In particolare, si
dimostra che le imprese intermedie che si dotano di addetti con un livello elevato di istruzione, che
innovano e che si internazionalizzano, dette intermedie volute, non sono significativamente
differenti nella produttività dalle imprese finali.
La letteratura empirica che si occupa dello studio delle GVC, e delle conseguenze alla loro
partecipazione, è ancora agli inizi, a causa della relativa mancanza di micro-dati di buona qualità che
consentano di analizzare la partecipazione, il posizionamento e la performance delle imprese
coinvolte nelle GVC.

Ci sono opportunità di apprendimento per le imprese che operano in Paesi in via di sviluppo
che appartengono alle GVC?
Appartenere ad una GVC può essere un’opportunità per le imprese che operano in Paesi in via di
sviluppo per avere accesso ai mercati internazionali e per realizzare l’upgrading, ovvero spostarsi
da anelli a più basso valore aggiunto della catena verso anelli a più alto valore aggiunto. Come?
Attraverso innovazioni di processo/prodotto/funzionali o attraverso il cambio del settore di
appartenenza.
Le imprese leader coordinano altre imprese all’interno della catena.
Distinguiamo due diverse tipologie di GVC:
1) Buyer-driven value chain, è l’acquirente che gioca il ruolo del leader (IKEA, H&M, ecc.);
2) Producer-driven value chain, è il produttore che gioca il ruolo del leader (settore auto).
Una parte della letteratura è andata ad investigare le relazioni tra imprese leader ed imprese locali.
Quali possono essere le fonti di apprendimento per le imprese che operano in Paesi in via di
sviluppo?
a) Interazione face-to-face tra stadi diversi della catena;
b) Formazione dei lavoratori locali da parte delle imprese leader;
c) Trasferimenti di conoscenza dall’impresa leader alle imprese locali, riguardanti compiti
specifici e determinate mansioni;
d) Le imprese leader potrebbero premere per far adottare standard internazionali alle imprese
locali.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)


lOMoARcPSD|3609612

L’utilizzo di queste fonti dipende quindi dal tipo di governance della catena.

Dibattito tra GVC e ambiente


Gli attivisti hanno messo in evidenza che il processo di globalizzazione ha provocato un aumento
dei consumi, che ha comportato ad una maggior produzione di beni, che si traduce in un aumento
dell’utilizzo delle risorse ambientali e quindi dell’impatto della produzione sull’ambiente.
Consumare beni che provengono da diverse parti del mondo implica un aumento dei flussi
commerciali tra paesi e quindi un aumento dei trasporti che non può che avere un impatto negativo
sull’ambiente: il carburante consumato, i gas emessi, la plastica utilizzata per movimentare in
sicurezza le merci.
D’altro canto, alcuni ricercatori hanno posto in evidenza che la soluzione ai problemi causati dalle
GVC può provenire dalle catene stesse o meglio dalla globalizzazione: si può sopravvivere in un
mondo globalizzato solo se si riesce ad essere competitivi e se le imprese leader riuscissero ad adottare
dei comportamenti più sostenibili nei loro processi produttivi, allora potrebbero rappresentare un
esempio che verrà seguito da tutte le imprese operanti negli stessi settori.
Adidas ha lanciato una scarpa realizzata per il 95% da rifiuti marini, registrano più di un milione di
vendite. Per una sola scarpa occorrono 11 bottiglie di plastica. DELL da anni utilizza il bambù per
sostituire gli imballaggi di cartone e i funghi per sostituire la schiuma o la plastica utilizzate nelle
spedizioni di alcune componenti.
Le imprese che catturano la crescente domanda di prodotti sostenibili guadagnano un vantaggio
competitivo.

Effetti indiretti
Il crescente processo di globalizzazione può portare ad un sistema in cui i paesi industrializzati
riducono la produzione di beni ad alto impatto ambientale per specializzarsi in produzioni più verdi
e importino i beni maggiormente pollution-intensive dall’estero. Come risultato, il paese
industrializzato diminuisce la produzione di inquinamento non per una sua reale consapevolezza
ambientale, ma in quanto la produzione di beni ad alto impatto ambientale viene spostata verso altri
Stati. Il commercio internazionale ed il processo di globalizzazione possono quindi avere l’effetto di
ridistribuire nello spazio le imprese inquinanti, sposando l’inquinamento più che riducendolo.

Scaricato da Salvatore Mirabello (salvatore_99o@hotmail.it)

Potrebbero piacerti anche