Sei sulla pagina 1di 202

ECONOMIA DELL’INNOVAZIONE

LEZ 1: 26/09/2023

INTRODUZIONE AL CORSO

Docente: Vito Albino

Corso di economia in senso stretto, parleremo di innovazione, che spesso viene definita in maniera
inappropriata. Avremo anche una serie di strumenti decisionali.

Definire il concetto di innovazione è complesso. L’innovazione non ha un vero e proprio problema di


definizione, ma ha dei problemi circa le regole da definire e il contesto da definire→c’è difficoltà a
capire cosa sia effettivamente innovazione e cosa non lo è.

Possiamo quindi intuire che non possiamo subito partire definendo l’innovazione, pertanto
partiremo dalla storia dell’innovazione, e della sua evoluzione nel tempo.

Partiamo dagli albori della


società: noi proveniamo
dall’homo sapiens. L’inizio della
nostra analisi prende piede
200000 anni fa, quando la forma
di ominide più evoluta era il
Neanderthal insieme all’homo
sapiens. Ma ci siamo mai chiesti
perché l’homo sapiens si chiama
così? Di certo non perché sapeva
qualcosa…ma perché nel suo processo evolutivo, avviene un cambiamento importantissimo: il
sapiens fu il primo a saper usare la voce per scambiare messaggi e comunicare con gli altri.
“sapiens”→introduce la capacità di comunicare con gli altri sapiens messaggi e contenuti.
Riflettiamo su come anche oggi facciamo leva sulla comunicazione, perciò è fondamentale capire il
passato per comprendere il futuro. All’era, comunicare e scambiare informazioni serviva per creare
strutture di coordinamento! Questa fu la prima grande rivoluzione, detta “rivoluzione cognitiva”,
che fu introdotta dall’homo sapiens. Oggi la nostra rivoluzione cognitiva è quella della
comunicazione tramite social networks. Ad oggi l’argomento è decisamente attuale e
fondamentale→tecnologie ICT note anche come “tecnologie di coordinamento”.
Ma a cosa servì la capacità di coordinamento? A creare i primi gruppi (non esistevano le città e le
società), e questo permise di aumentare le capacità e di eliminare i Neanderthal. La capacità di
comunicare ed organizzarsi, ossia un’innovazione organizzativa, ha permesso ai sapiens di
sopravvivere!

Da questo abbiamo capito che un cambiamento tecnologico/organizzativo ha permesso a chi


possiede una nuova tecnologia di coordinamento di prevalere sugli altri→fondamentale, la
porteremo avanti per tutto il corso.

Questo è un libro storico di Yuval


Harari che spiega come l’essere
umano sia diventato la specie
predominante sulla Terra.
Questo perché secondo Harari
capire la storia permette di avere
una visione chiara sul futuro. La
storia è il driver per conoscere il futuro. Circa 70000 anni fa il sapiens impara ad usare la voce come
tecnologia di coordinamento (quindi 130000 anni dalla sua prima apparizione!), dando luogo alla
rivoluzione cognitiva che ha permesso di fare fuori i Neanderthal. La prima grande rivoluzione,
innovazione della storia dell’umanità è l’uso del linguaggio come strumento per coordinarsi.
Dopodiché, circa 12000 anni fa si verificò la rivoluzione agricola (capiremo quando parlare di
innovazione e quando di rivoluzione), nella quale i sapiens cominciarono ad organizzarsi in gruppi
ampi (circa 50-100 persone, di certo non comunità vere e proprie). In questo periodo, captarono la
presenza di un problema “energetico” legato alle difficoltà logistiche di caccia e pesca. Questo portò
i sapiens a capire che coltivare e allevare in un posto fisso era decisamente più conveniente! Si passa
dalla vita nomade alle attività agricole, che risultano molto più efficienti rispetto alla precedente
attività nomade. Oggi come allora si presenta il più grande problema della storia dell’umanità: il
problema dell’approvvigionamento dell’energia. Infatti, questa attività agricola causò una richiesta
maggiore di risorse e quindi un maggior consumo energetico. È proprio lì che, a causa della
concentrazione delle attività di trasformazione delle risorse, ha inizio il cambiamento climatico,
causato da una forzatura della natura, che veniva sfruttata intensamente. Ovviamente il
cambiamento climatico di allora fu di piccola entità rispetto a quello attuale, ma comunque fu
rilevante.
Da qui nasce il concetto di gerarchia: nascono, in questi gruppi, individui più “sapiens” degli altri, che
si impongono per coordinare gli altri. L’imposizione di queste figure nei gruppi nacque grazie alla
nascita del mito e delle religioni. La nascita dei miti e delle religioni fu un’altra delle innovazioni più
grandi della storia! Queste “strutture ideologiche” permettono di coordinare gruppi di dimensioni
elevati→ ad esempio: i miti greci ed egiziani che nascono per governare le città-stato e l’impero
egizio.

La rivoluzione agricola fu fondamentale, perché ciò permise di mettere a disposizione di pochi la


possibilità di governare e coordinare (nascono re, imperatori, sacerdoti…). Nascono le città e le
gerarchie.

Circa 500 anni fa nasce la rivoluzione scientifica o rivoluzione industriale: la rivoluzione industriale
nasce con l’Illuminismo, nel 1700. Con la rivoluzione industriale la scienza e la tecnica consentono di
trasformare materia prima in prodotti. Questa trasformazione necessita di energia e di
lavoro→nascono problemi ambientali causati dalla necessità di avere sempre più rapidamente
queste risorse.

Accelerare la capacità di trasformazione delle risorse e a causa delle rivoluzioni industriali si è


verificato un impatto sociale tale da creare divari sociali→alcune fasce sociali sono a rischio e sono
“indietro” rispetto ad altre.

Le rivoluzioni hanno introdotto dei problemi: ambientale, materie prime, digitalizzazione, divario
sociale…e noi studieremo proprio questi problemi e quali sono le innovazioni che permettono di
risolvere questi problemi. Dobbiamo quindi cercare una via d’uscita da questi problemi, perché in
queste condizioni il sistema è assolutamente INSTABILE!

Questo è il contesto in cui opereremo!


Guardando attentamente questo schema riassuntivo, notiamo come sin dagli albori della storia,
siamo sempre stati caratterizzati dalle migrazioni! Oggi è vista come un problema…una delle
migrazioni più importanti della storia è quella che vede lo spostamento del sapiens dall’Anatolia
all’Europa, passando per la Mesopotamia→fu questa la migrazione che portò alla nascita della
rivoluzione agricola. La terza ondata migratoria si ha da Nord del Mar Nero (dove oggi c’è la guerra
tra Ucraina e Russia), perché quella zona era estremamente fertile e ottima per l’agricoltura. Il
sapiens impara ad addomesticare il cavallo, che diventa il vero primo sistema di trasporto della
storia! Grazie a questi sistemi di trasporto nascono anche i primi sistemi logistici bellici. Questo
gruppo transitò anche in Grecia→anche le tecnologie per la mobilità aiutano.

Nasce quindi il binomio: supremazia tecnologica→innovazione

L’altro problema è stato quello della Globalizzazione, e anch’essa è nata nel passato! Il primo
esempio di globalizzazione è il fenomeno noto come “Bronzization”. Tutto nasce dal ritrovamento di
un relitto di una nave nella zona meridionale della Turchia. Tra la mercanzia rinvenuta c’è anche dello
stagno. Si scoprì che veniva trasportato lo stagno perché esso come sappiamo permetteva la
formazione del bronzo tramite lega. La presenza dello stagno nella lega permette duttilità e
lavorabilità→si esce dall’età del bronzo, si creano armi e strumenti molto più efficaci di prima. Il
problema del bronzo fu che le miniere di stagno e rame erano in regioni differenti del mondo, e
questo richiedeva di movimentare lo stagno→bronzization=globalizzazione del mondo dell’epoca,
dovuta al bronzo.

Oltre alla tecnologia, per l’innovazione è fondamentale anche l’organizzazione! Un esempio storico
fu quello degli inizi della Seconda Guerra Mondiale: l’Italia aveva una forte presenza navale, ma essa
risultò estremamente fragile quando nei pressi di Creta una flotta navale italiana fu intercettata da
una flotta aerea degli Alleati. A Capo Matapan, le navi italiane di ritorno a Taranto furono
bombardate e persero la supremazia del Mediterraneo, incidendo sull’esito finale della Guerra.
Questo ci permette di riflettere su moltissime cose: come hanno fatto gli inglesi a bombardare le
navi italiane senza vederle? Avevano i radar, cosa che le navi italiane non avevano! E come mai gli
inglesi avevano i radar e gli italiani no? Gli italiani avevano eccome i radar…ma non a bordo delle
navi! C’era un comando navale decentrato che aveva realizzato i radar ma non li aveva forniti alle
navi→non basta quindi avere una tecnologia e una supremazia tecnologica, occorre saperla
adottare! Avere la conoscenza tecnologica e lo strumento non serve a niente se ciò non viene
adottato adeguatamente. Tecnologia ed organizzazione devono andare di pari passo per avere
successo.
Arriviamo ad oggi: la tecnologia corre e cambia rapidamente. In immagine vediamo come negli anni
è aumentata l’efficienza di trasformazione dell’energia solare di un pannello fotovoltaico in energia
elettrica. Questo grafico ci spiega come la tecnologia cambia, passando da efficienze del 4% fino ad
efficienze del 50%, passando quindi da essere tecnologia sperimentale ad essere tecnologia di
mercato. Ancora, non c’è un solo soggetto a lavorare sul cambiamento tecnologico! Oggi, al
cambiamento tecnologico, concorre una pluralità di soggetti→parleremo di connubio tra ricerca
universitaria e ricerca industriale. Questo però causa dei conflitti perché si ha discordanza tra
interessi universitari (di ricerca) e interessi delle imprese. L’innovazione può nascere sia nelle
università sia nelle imprese, anche se ultimamente le imprese sono sempre più preponderanti
nell’innovazione.

OSSERVAZIONE: l’innovazione non è mai sempre e solo tecnologica, anche quando lo sembra! È un
fenomeno complesso

OSSERVAZIONE: proprio questa complessità richiede un approccio guidato dai casi. Vedremo molti
casi studio perché sono proprio i casi aziendali a farci capire come tecnologia, innovazione, aspetti
legali e sociali concorrono insieme per produrre il cambiamento. La visione tecnica non serve da
sola! Il cambiamento tecnologico è parte dell’innovazione!

Che cos’è l’innovazione? Partiamo con un esempio:

è un box di cartone pressato. È “eco” perché,


se il cartone si contamina con il liquido di
pomodoro e mozzarella, esso non è più
riciclabile! Pertanto, questo box presenta un
foglio di carta che permette di preservare il
box affinché sia riciclabile. È un’innovazione,
anche se non deriva da ricerche complesse,
e nasce da esigenze banali, da un problema
al quale dobbiamo trovare una soluzione senza inventare nulla! Quindi l’innovazione non necessita
per forza di ricerca e sviluppo e di montagne di risorse da impiegare: a volte basta guardarsi attorno
per trovare la soluzione al problema.

Un altro esempio è quello delle praline belga: questo cioccolatino ha la caratteristica di essere
ripieno di qualcos’altro, rendendo questi cioccolatini diversi e graditi. Essi nacquero da un farmacista,
non dalla ricerca e sviluppo, il quale ebbe l’idea di ricoprire le medicine (amare) con un rivestimento
di cioccolato. Questo ebbe un successo talmente grande da portare alla nascita delle praline non a
scopo medico ma alimentare! La moglie del nipote del creatore, poi, mise a punto una gift box
elegante per le praline, molto accattivante→incontro con le esigenze del consumatore, che voleva
delle scatole eleganti per regalare i cioccolatini. Un’ esigenza di design permette di creare
un’innovazione. Anche il packaging può essere innovato.

LEZ 2: 27/09/2023

Vediamo altri casi di innovazioni, questa volta spinti dalla ricerca:

Parliamo delle cure tumorali: questa


è una particolare terapia genica che
permette di curare il paziente
usando i suoi stessi globuli bianchi,
che vengono prelevati e
riprogrammati per aggredire le
cellule tumorali. Questa
innovazione è sulla buona strada
per contrastare molti tumori
aggressivi. Questa innovazione
nasce da un’attività di ricerca e di ricerca industriale, per poi diventare una vera e propria
innovazione, in quanto terapia utilizzata effettivamente in campo medico. La complessità dietro
questa innovazione è immensa, e questo è tipico del campo medico/farmaceutico.

Quindi passiamo dall’innovazione semplice ed intuitiva come la pizza eco box, senza sforzi industriali,
a qualcosa di più complesso come la terapia genica. Questo ci servirà per dare una definizione di
innovazione!

Tutti e 3 i casi visti hanno un impatto economico rilevante: qui la ricerca non è assolutamente fatta
per piacere, né solamente per “avanzamento della conoscenza” …qui parliamo di innovazioni a forte
impatto economico e sociale→quando parleremo di innovazione, parleremo dell’adozione
dell’innovazione, ossia come essa entra all’interno di un contesto economico-sociale e quali
modifiche essa subisce e quali essa apporta al contesto!

Ma quindi…perché ci interessiamo dell’innovazione? Quali sono le motivazioni che spingono


all’innovazione?
Il punto di partenza è che tutti parlano di innovazione e tutti si interessano di innovazione. Occorre
interessarsi dell’innovazione e quindi occorre innovare perché?

Per innovare abbiamo bisogno di almeno due componenti: prima di tutto, occorre avere un minimo
di creatività (una nuova idea con la quale risolvere il problema) per arrivare ad un’innovazione.
Avremo diversi livelli di creatività a seconda del tipo di innovazione, ma la componente creativa non
può essere sufficiente da sola per un’innovazione! Perché un’innovazione sia definita tale, e ottenga
i risultati attesi, è necessario avere anche una componente legata all’organizzazione. Le due
componenti da sole non servono, per l’innovazione occorre avere un MIX tra organizzazione e
creatività. Non essendo un fenomeno semplice, l’innovazione è caratterizzata anche da altri fattori,
magari minori rispetto a creatività e organizzazione, ma comunque importanti (ad esempio,
guardando le tre innovazioni viste come esempio, tutte hanno qualcosa a che fare con la salute delle
persone). Questi altri fattori sono una serie di condizioni, norme, aspetti legali, ai quali adeguarsi per
realizzare l’innovazione. Questi fattori poi possono dipendere dagli aspetti economici, sociali e
politici del paese o del contesto in cui ci si trova! Quindi l’innovazione è sì un fatto economico, ma è
anche un fatto sociale. Ancora, quando effettuiamo un’innovazione, determiniamo tramite una
relazione causale forte, una maggiore competitività→se un’impresa o un paese ha innovato,
l’innovazione stessa rende quell’impresa/paese più competitivo rispetto ad altre imprese/paesi. La
competitività è la base dell’innovazione: ci interessiamo all’innovazione perché essa consente di
essere più competitivi! La competitività, poi, può essere conseguita anche attraverso un altro
fattore: il costo del lavoro. Posso avere un’impresa competitiva non perché innova, ma perché ha
un basso costo del lavoro (ad esempio, la Cina)→questo ha degli impatti notevoli sul sistema
economico: abbassare il costo del lavoro vuol dire abbassare i redditi. Qui sorge il grande tema: sulla
base di cosa viene costituita la competitività di un’impresa/paese? Sull’innovazione o
sull’abbassamento del reddito? Se innovo, posso avere redditi più elevati (ad esempio come accade
in Germania, Finlandia, Svezia, Giappone); se non innovo, l’unico modo per essere competitivi è
abbassare i redditi, abbassando il costo del lavoro (cosa purtroppo molto frequente, addirittura
tramite il pagamento a nero del lavoro). Quindi la competitività ha due leve: l’innovazione, tipica dei
paesi più sviluppati, che consente di aumentare il reddito; l’abbassamento del costo del lavoro e del
reddito, tipico dei paesi meno sviluppati. Tipicamente, comunque, non parliamo di compartimenti
stagni: esiste comunque sempre un bilanciamento tra queste due leve, soprattutto nei paesi (detti
sistemi economici nazionali). Il bilanciamento ottimale è ciò che fa la differenza tra i paesi,
ovviamente. Un sistema economico nazionale alimentato dall’innovazione andrà a vendere prodotti
innovativi, il che permette tanto di vendere prodotti meno costosi, tanto di vendere prodotti
esclusivi, che gli altri paesi non hanno! Attenzione: redditi più elevati implicano benessere sociale
maggiore, pertanto un sistema economico nazionale competitivo è un sistema economico che riesce
a mantenere anche una salute fiscale tale da mantenere e gestire in maniera ottimale una serie di
servizi fondamentali (sanità, scuole ecc.). Alla competitività quindi non si lega solo il reddito e il costo
del lavoro, ma anche tutti quei servizi che il sistema è in grado di fornire! Quindi l’innovazione è la
leva fondamentale perché grazie ad essa si riesce anche a mantenere un reddito elevato, un costo
del lavoro più adeguato e dei servizi sociali sostenibili ed adeguati. Vanno poi considerati anche una
serie di altri fattori che influenzano la competitività: ad esempio il sistema giudiziario, che, se lento
va ad ostacolare il sistema economico; il sistema della ricerca pubblica che, se più efficace ed
efficiente aiuta la competitività. Infine, la competitività genera due effetti: la competitività porta
profitti; la competitività porta occupazione. Se sono competitivo avrò profitti maggiori, maggiori
vendite, maggiori produzioni, maggiore occupazione!

Quindi questo schema cosa ci ha spiegato? Ci ha detto che l’innovazione è in grado, attraverso la leva
della competitività, di generare maggiori profitti e maggiore occupazione. La competitività, in un
paese più competitivo tramite la remunerazione dei salari, permette di mantenere un costo del
lavoro più adeguato e quindi garantire una maggiore qualità dell’occupazione.

Dobbiamo capire quanto investire in innovazione e su cosa focalizzarsi (visto che le risorse a
disposizione sono sempre limitate).

DALL’INVENZIONE ALL’INNOVAZIONE: DEFINIZIONI

INVENZIONE: un’invenzione è un’ideazione tradotta in realtà di un progetto o di un elemento


risolutivo originale nell’ambito di una funzionalità determinata. È un’idea che si concretizza in realtà,
ed è relativa ad un progetto o ad un elemento che in modo originale risolve un problema, una
particolare funzione che si vuole analizzare e affrontare. Esempi di invenzione: la bussola e il
telescopio.

Ragioniamo sulla bussola: l’idea che sta dietro la bussola è quella di sfruttare il campo magnetico
terrestre che influenza il comportamento di un ago di materiale ferromagnetico, orientandolo
sempre verso una stessa direzione. Questa idea si traduce in realtà tramite la costruzione
dell’elemento risolutivo originale, ossia la bussola stessa che risolve il problema di sapere qual è la
direzione del nord magnetico. La funzionalità della bussola è quindi quella di potersi orientare.
Ragioniamo sul telescopio: l’idea che sta dietro al telescopio è quella che le lenti possono amplificare
l’immagine. Questa idea si traduce in realtà tramite la costruzione dell’elemento risolutivo originale,
ossia il telescopio con le sue caratteristiche ottiche (lenti, fuochi ecc.). La funzionalità del telescopio
è quella di poter “ingrandire” oggetti lontani.

“Inventare” vuol dire tradurre in realtà un elemento risolutivo originale che permette di risolvere un
problema e/o una funzionalità determinata.

LEZ 3: 29/09/2023

A noi interessa definire il concetto di invenzione perché non dovremmo creare un’invenzione, bensì
gestirla. Abbiamo bisogno di capire se la realtà può essere “catturata” da delle definizioni, che
dovendo essere generali devono essere semplici ed astratte.

La bussola, ad esempio, è stata utilizzata in Europa a partire dal XII secolo dalle Repubbliche
Marinare, e il telescopio è stato utilizzato nel XVII secolo. In realtà, però, le cose sono più complicate:
la bussola così come la conosciamo ha una genesi relativamente recente, ma certe sue
caratteristiche erano apparse evidenti già 2000 anni fa in Cina, non sotto forma di bussola in quanto
tale! Erano già diffusi pezzi di magnetite, che però venivano utilizzati per spettacoli. Circa 1000 anni
fa questi pezzi furono lavorati e divennero aghi di magnetite adibiti alla navigazione. Nel 1200 poi si
ha l’utilizzo della bussola in quanto tale a fini di navigazione grazie agli Arabi. La bussola si diffuse
anche in Europa tant’è che sono presenti anche dei manoscritti di un abate inglese circa la bussola.
Ma quindi, chi ha inventato la bussola? Qual è l’invenzione? Incontreremo molti problemi nel nostro
percorso per portare un aspetto astratto e teorico nella realtà.

Per il telescopio, il discorso è simile: Bacone introduce nel 1200 le prime lenti, sfruttando la loro
proprietà→infatti delle lenti piane convesse possono essere ottenute sezionando una sfera di vetro
con un piano. Le proprietà di ingrandimento erano permesse dalla rifrazione dell’immagine, dalla
lunghezza focale della lente e dalla distanza alla quale si poneva l’occhio. Nel 1280 si ha la prima
manifestazione di lenti utilizzate per occhiali da vista, che furono inventate da Spina a partire dalla
lavorazione del vero a Venezia. Nel 1607 alcuni ottici olandesi sviluppano degli strumenti rudimentali
di basso potere risolutivo. Nel 1608 Lippershey costruì il primo modello di telescopio rifrattore. Solo
dopo tutto ciò, nel 1609, Galileo perfezionò il telescopio! Quindi è troppo facile dire “Galileo inventò
il telescopio”, perché prima di arrivare al telescopio inteso come oggetto originale risolutivo, ci sono
stati secoli e secoli di “preparazione” che hanno permesso di sviluppare competenze e conoscenze,
capacità tecnologiche tali che messe insieme hanno garantito la creazione del telescopio inteso
come idea originale risolutiva del problema. Ad esempio, la costruzione del primo telescopio nel
1608 è stata possibile grazie alle conoscenze matematiche acquisite circa la rifrazione, oltre che a
tutte le conoscenze pregresse circa le lenti. Galileo fu solo il perfezionatore del telescopio, anche se
rimane sui libri di storia come l’inventore del telescopio.

Quindi, secondo la nostra legislazione, per invenzione intendiamo una soluzione originale di un
problema tecnico, che implica un trovato scientifico e che può avere applicazione industriale. Può
riguardare un prodotto o un processo. Non sono considerate invenzioni, invece: a) le scoperte, le
teorie scientifiche e i metodi matematici; b) i piani, i principi e i metodi di attività intellettuali, che
riguardano gioco o attività commerciale, inclusi i programmi di elaboratori; c) le presentazioni di
informazioni. Ancora, non sono considerate invenzioni i metodi per il trattamento chirurgico o
terapeutico del corpo umano o animale e i metodi di diagnosi applicati al corpo umano o animale.
La protezione legale di un’invenzione si ottiene con il brevetto.

Quindi, ad esempio, un intervento chirurgico non è un’invenzione→è a disposizione di tutti, è un


bene comune, non è appropriabile!→l’invenzione, in quanto concetto tecnologico, ha subito sin
dalla sua definizione delle implicazioni sociali ed economiche!

Vediamo un altro esempio di invenzione:

Il common rail è stata ed è una delle


invenzioni più importanti della storia.
Il common rail è il sistema di
iniezione del motore Diesel. La sua
storia è molto particolare e ci spiega
molti aspetti delle invenzioni. Prima
di tutto: la differenza tra un motore
Diesel e uno a ciclo Otto è l’assenza
della candela nel Diesel in quanto
l’accensione del motore avviene tramite autoaccensione provocata dalla pressione sulla miscela
gasolio-aria. Nei motori Diesel è quindi molto delicata la fase dell’iniezione della miscela nella
camera di combustione, però erano notevoli i vantaggi come una maggiore robustezza e durabilità
del motore, e l’assenza di candele. Quindi a partire da esigenze legate al mercato, si evidenziò un
notevole interesse nel migliorare le prestazioni e le caratteristiche del motore Diesel→tutte le case
automobilistiche cercarono di migliorare le performance del Diesel. FIAT aveva dei centri di ricerca
in cui si impegnava in questo: uno dei punti di studio fu capire la propagazione del fronte di fiamma
nella camera di combustione, perché il suo miglioramento avrebbe garantito un aumento dei
rendimenti e una riduzione dei fumi della combustione. Nel gruppo FIAT di Modugno arriva un fisico
che, aiutato da un team di ingegneri meccanici, comincia a sviluppare il sistema di iniezione del
gasolio e a spostare il focus degli studi sull’iniettore. Il team viene a conoscenza di un progetto
sviluppato 40 anni prima in Svizzera al politecnico di Zurigo, noto come common rail. L’idea del
common rail è molto semplice: per iniettare del gasolio dobbiamo conoscere la velocità del pistone.
Il motore Diesel classico legava la pompa di iniezione e la sua pressione all’albero motore. In
relazione alla velocità di rotazione si generava una pressione proporzionale. Questo non funzionava
perché non teneva conto delle marce del motore e del carico del mezzo. L’idea del Politecnico di
Zurigo era quella di creare una pompa con iniezione massima che però regolava l’iniezione del diesel
in relazione a numero di giri, marcia, carico ecc. il problema è che ciò risultava all’epoca
assolutamente impossibile; pertanto, quel progetto rimase irrealizzato e inapplicato. Avevano
trovato la soluzione al problema ma non avevano a disposizione la tecnologia necessaria per
risolvere il problema. Il team di Modugno riesce a realizzare il prototipo e lo testa su un motore
Diesel. Dai test emergono delle performance straordinarie, ma fu inizialmente accantonata a causa
del problema della tenuta dell’iniettore e a delle perplessità che emersero in termini produttivi: non
si ritenne fattibile una produzione di un numero così elevato di iniettori. Il team non si arrende e ha
un’idea geniale: chiama Mercedes per testare la tecnologia su un paio di macchine. L’esito delle
prove è talmente positivo che Mercedes, tramite Bosch, decide di rilevare la tecnologia del team.
Questo ci spiega come FIAT abbia fallito nelle sue scelte organizzative perché non comunicava
correttamente coi propri fornitori, cosa che invece è stata fatta egregiamente da
Mercedes→Mercedes, che è l’Original Equipment Manufacturer, collabora e comunica con Bosch, il
suo fornitore, che possedeva le conoscenze adeguate per scalare a livello industriale il common rail,
mentre FIAT no!

SCOPERTA: è qualcosa che noi “troviamo” in seguito a studio o ricerca→quindi la scoperta


(scientifica) è l’esito di un’azione intenzionale. La scoperta inoltre è associata ad un gruppo o ad un
individuo che apprende o incontra per la prima volta un certo risultato→la scoperta, quindi, è
associata al concetto che chi scopre qualcosa è la prima persona ad ottenere quel risultato. La
scoperta si ottiene tipicamente a seguito di una ricerca sperimentale.

Esempio tipico di scoperta è la scoperta della penicillina da parte di Fleming nel 1928:
Tutto nasce quando nel 1922 Fleming
scopre che su una capsula di Petri, il
suo muco nasale era in grado di
tenere lontani i batteri (azione
antibatterica). Da questa curiosità
partì il viaggio di ricerca di Fleming
che cercò di trovare altre sostanze in
grado di avere questa azione
antibatterica. Arrivò presto alla conclusione che la maggior parte dei fluidi corporei possiedono un
enzima con una discreta capacità di sciogliere le forme microbatteriche. Fleming chiamò questo
enzima Lisozima, e già questa fu una scoperta importante perché ci spiega come il nostro corpo ha
delle protezioni naturali che ammazzano una serie di microbi e batteri che ci porterebbero
inevitabilmente alla morte. Nel 1922 Fleming andò a riferire questi risultati al Medical Research Club,
il quale snobbò la ricerca di Fleming perché comunque il lisozima non aveva efficacia con batteri
patogeni. Fleming quindi decise di soffermarsi su altre sostanze non naturali, come il mercurocromo,
che nonostante tossico per l’uomo, in piccole dosi risultava efficace contro i batteri patogeni. La
svolta si ha nel 1928 quando Fleming scoprì che in una capsula di Petri in cui erano presenti dei
batteri si era creata della muffa dopo aver lasciato per molto tempo quella capsula. I batteri si
tenevano ben lontani dalla muffa, e questo incuriosì Fleming, considerato soprattutto che i batteri
che si tenevano lontani erano quelli molto aggressivi (streptococchi, stafilococchi…). Fleming chiamò
tale muffa penicillina→il problema era la difficoltà nel produrre la penicillina in concentrazioni
elevate perché le quantità erano scarse e Fleming in quanto medico non aveva le competenze
chimiche per isolare il principio attivo. Fleming torna al Club nel 29 ma viene nuovamente snobbato.
Il motivo di questo snobbing derivava dal fatto che era in atto una vera e propria competizione tra la
penicillina di Fleming e i sulfamidici della Bayer (→dovremo sempre fare i conti con la competizione!
Non siamo i soli a fare ricerca sperimentale volontaria quindi dovremo anche competere con gli altri
per avere la meglio). Nonostante ciò, Fleming continuò a studiare la penicillina.

LEZ 4: 4/10/2023

Quindi questa prima parte sulla penicillina ci dice che di solito quando si fa una scoperta o quando
si fa innovazione si passa sempre per una prima fase di scetticismo generale da parte della comunità
scientifica.
Continuiamo con la storia della penicillina: all’inizio, anche la penicillina non trova attenzione da
parte della comunità scientifica (→enfasi sulla difficoltà nel portare avanti una scoperta o
un’innovazione). I sulfamidici si mostrarono più competitivi rispetto alla penicillina, forti anche del
fatto di essere prodotti da una grande impresa come la Bayer, un’impresa tedesca che proprio in
quegli anni era agli inizi della sua egemonia su tutta l’Europa. Nonostante la competizione, Fleming
perseverò, ritenendo la penicillina più efficace.

La vera svolta si ebbe quando Fleming riuscì ad entrare a contatto con alcuni chimici, i quali
riuscirono ad isolare la penicillina in uno stato purificato, che risultò notevolmente più efficace tanto
della penicillina grezza tanto dei sulfamidici! Dopodiché il gruppo fece degli esperimenti sugli animali
e pubblicarono i loro risultati sul The Lancet nel 1940. Questo rese la penicillina competitiva, ma ciò
non era sufficiente. Gli esperimenti furono condotti sugli animali e in parte sugli individui…e il fatto
clamoroso si ebbe quando un paziente in fin di vita fu trattato con successo con la penicillina, ma
morì dopo poco perché non c’erano le risorse necessarie per la cura totale→la penicillina passò da
essere un prodotto oggetto di ricerca e sperimentazione medica, grazie ad un risultato clamoroso e
completo, diventa un oggetto di studio mediatico e globale. Questo aspetto è fondamentale perché
spesso la strada per il successo è proprio la comunicazione mediatica.

La potenza della penicillina spinse il gruppo a trovare qualcuno disposto ad industrializzare la


produzione della penicillina. Trovato il posto in America, si spianò la via per il successo. Infatti, questa
volta la comunità scientifica non fu scettica, e Fleming fu nominato membro della società scientifica
britannica e vinse il Nobel (insieme al gruppo di chimici, perché Fleming trovò la soluzione per
creare l’antibatterico efficace, ma senza il contributo dei chimici quella soluzione non sarebbe mai
stata sviluppata per intero!). Il meccanismo della scoperta, quindi, non avviene nell’immediato! È un
processo molto lungo e complesso che deve affrontare una serie di avversità. Possiamo affermare
che la penicillina fu una scoperta: perché sicuramente nasce come azione intenzionale volta a dare
continuità agli studi e ricerche fatte da Fleming. Questo processo ha coinvolto molti soggetti, e ha
coinvolto anche il mondo economico e la società.

Nel concetto di scoperta si annida anche il concetto di “trovare per la prima volta” una soluzione.
Per questo possiamo fare riferimento ad un’altra scoperta fondamentale: la scoperta dell’America.
Cristoforo Colombo si imbarcò con una precisa intenzione: andare verso le Indie. Quando giunge in
America, però, egli crede di aver scoperto le Indie e di aver confermato la sua tesi di sfericità della
Terra, ma in realtà aveva scoperto l’America. Quindi, un’intenzionalità ha portato per pura casualità
ad una scoperta diversa!

In tal senso, anche i viaggi di Cook del 1700 erano intenzionali, studiati e programmati e finalizzati a
raggiungere la “Terra Australis”, che in realtà coincide con l’Antartide. Anche qui, però, Cook
raggiunse quella che oggi è conosciuta come Australis.

Questi due esempi ci spiegano come il processo iterativo e studiato della ricerca può portarsi a
scoprire delle cose completamente nuove ed inaspettate. Inoltre, nella ricerca, dobbiamo sempre
tenere conto delle “lessons learned”: quando si fa ricerca, investiamo delle risorse per scoprire
qualcosa, ma non sempre ciò si realizza…infatti, si potrebbe scoprire tutt’altro!

C’è un concetto fondamentale che accomuna tutte le scoperte: infatti, tendenzialmente, tutte le
scoperte hanno carattere empirico. Nel dettaglio, quindi, le scoperte derivano da delle
sperimentazioni, da delle ricerche. Il carattere empirico delle scoperte, quindi, ci permette di
distinguerle dalle teorie e dai modelli matematici: la teoria non è l’esito di un’attività empirica, ma è
lo sviluppo di studi teorici e modellistici che ci permettono di costruire o proporre una teoria o un
modello. Quindi, la tavola periodica degli elementi è una scoperta, la teoria della relatività invece è
una teoria perché non deriva da ricerche!

La tavola periodica fu una scoperta sia perché all’epoca non si avevano le conoscenze sulla teoria
degli elettroni e ogni elemento per essere inserito nella tavola doveva essere scoperto tramite
attività di ricerca e sperimentazione.

E il DNA? È stato scoperto o no? Watson e Crick non fecero attività empirica! Tutta l’attività empirica
era precedente→i dati di queste attività non riuscivano a trovare un modello coerente. Watson e
Crick riuscirono ad ideare il modello a doppia elica coerente coi dati sperimentali. Quindi: sì, c’è alla
base un lavoro empirico, ma non fu condotto da Watson e Crick. Quindi non hanno scoperto il DNA,
hanno solamente proposto un modello coerente coi risultati delle precedenti attività empiriche. Il
complesso di modello e attività empiriche è considerabile scoperta; la sola attività di Watson e Crick,
non è considerabile scoperta!

Lo stesso vale per Charles Darwin: egli fu un ricercatore, il quale con la sua attività arrivò a formulare
il modello evolutivo che tutti conosciamo. Egli, di fatto, non scoprì l’evoluzione, ma fu in grado di
darne una spiegazione tramite il modello. A differenza di Watson e Crick, però, egli condusse una
serie di studi ed osservazioni empiriche in giovane età (notò come alcuni uccelli avessero becchi
differenti in base al tipo di alimentazione) che lo indussero a scoprire la presenza di uno
schema/meccanismo evolutivo nelle specie viventi. Quindi nell’attività di Darwin ci sono tracce di
scoperta, a seguito della quale poi propose la sua teoria evolutiva.

Quindi è fondamentale distinguere invenzione e scoperta, e teoria e modello, la cui differenza


dipende dall’attività che ne sta alla base.

RICERCA: la ricerca si articola in due tipologie.

RICERCA FONDAMENTALE (O DI BASE): Sono tutte quelle attività sperimentali o teoriche svolte per
acquisire nuove conoscenze sui fondamenti di fenomeni e di fatti osservabili, indipendentemente
dal fatto che poi utilizzeremo questi risultati in applicazioni/utilizzazioni pratiche dirette. Questa
ricerca può essere curiosity-driven (guidata dalla curiosità del ricercatore, e quindi senza fini
commerciali) o knowledge-driven (guidata dall’acquisizione di nuova conoscenza). La ricerca
fondamentale necessita di strutture e di infrastrutture di ricerca (centri di calcolo, banche dati,
archivi, strumenti per l’osservazione e la sperimentazione).

RICERCA INDUSTRIALE (O APPLICATA): È quella maggiorente attenzionata da sistemi economici ed


imprese. Spesso è supportata da finanziamenti, una serie di incentivi proposti dal sistema economico
poiché ha un alto rischio di insuccesso. Quindi questa ricerca ha finalità commerciali e industriali. È
definita formalmente come ricerca pianificata o indagini critiche finalizzate ad acquisire nuove
conoscenze, utili per la messa a punto di nuovi prodotti, processi produttivi o servizi o per
conseguire un notevole miglioramento dei prodotti, processi produttivi o servizi esistenti. La ricerca
industriale, quindi, non è curiosity-driven, ma ha un piano che va rispettato al fine di ottenere
risultati. Oltre al carattere pianificatorio, la ricerca industriale deve essere utile a realizzare qualcosa
di nuovo o migliorare qualcosa di già esistente. Nella ricerca industriale è inclusa quindi la creazione
di componenti, di sistemi complessi, in particolare per la validazione di tecnologie generiche. Anche
per la ricerca industriale sono richieste strutture e infrastrutture per effettuare le attività di ricerca
(un esempio è il Test Bed & Spaceport di Grottaglie).

IL QUADRANTE DI PASTEUR

Il quadrante di Pasteur è uno strumento molto importante perché ci permette di distinguere tra
ricerca fondamentale e ricerca industriale (e in generale capire le diverse tipologie di ricerca esistenti
e di caratterizzarli in base a due aspetti fondamentali): è una matrice che sulle righe presenta le
risposte alla domanda “questa ricerca ha finalità legate alla comprensione dei fenomeni
fondamentali?” e sulle colonne invece presenta le risposte alla domanda “questa ricerca ha un uso
pratico?”

Questo quadrato quindi ci permette di individuare 4 tipologie di ricerca:

1. Ricerca fondamentale pura: una ricerca che permette di capire i fenomeni fondamentali ma
NON ha un uso pratico→esempio tipico Bohr e la sua teoria atomica;
2. Ricerca fondamentale “use-inspired”: una ricerca che permette di capire i fenomeni
fondamentali ma ha un uso pratico→esempio tipico Pasteur e i suoi studi sui batteri
3. Attività “unnamed”: un’attività che NON permette di capire i fenomeni fondamentali e NON
ha un uso pratico;
4. Ricerca pura applicata: una ricerca che NON permette di capire i fenomeni fondamentali ma
ha un uso pratico→esempio tipico Edison, le cui ricerche avevano un uso strettamente
pratico.

SVILUPPO PRECOMPETITIVO: è strettamente legato alla ricerca industriale. Nello sviluppo


precompetitivo includiamo tutte le attività “consistenti nella concretizzazione dei risultati delle
attività di ricerca industriale in un piano, un progetto o un disegno relativo a prodotti, processi
produttivi o servizi nuovi, modificati, migliorati, siano essi destinati alla vendita o all’utilizzazione,
compresa la creazione di un primo prototipo non idoneo a fini commerciali”. Come dice il nome,
questa attività è precompetitiva, quindi non ha carattere competitivo e non è finalizzato
all’immissione del prototipo sul mercato. È un’attività che permette di riversare i risultati della ricerca
industriale nei prodotti, processi e servizi destinati alla vendita. Mentre la ricerca industriale ha
finalità applicative, è solo nello sviluppo che i suoi risultati verranno incorporati nei prodotti, processi
e servizi. In quanto precompetitivo, però, questo sviluppo termina con la creazione di un prototipo
che NON HA finalità commerciali! Nel passaggio tra ricerca industriale e sviluppo precompetitivo,
inizia ad essere marcato il focus su prodotti, processi e servizi. Di conseguenza, gli incentivi e le
agevolazioni sono elevati nella ricerca industriale (arriviamo a sovvenzioni anche del 75% della spesa
totale di ricerca e degli investimenti dell’impresa), sono minori nello sviluppo precompetitivo
(parliamo di sovvenzioni del 30% della spesa e degli investimenti) e NULLI nello sviluppo competitivo
(ossia tutto ciò che riguarda lo sviluppo competitivo di un prototipo finalizzato a fini commerciali).

Sia la ricerca industriale, sia lo sviluppo precompetitivo e le dinamiche relative alle agevolazioni e
alle concessioni governative incentivanti gli investimenti in ricerca sono regolamentati dai seguenti
decreti:

INNOVAZIONE: definiamo l’innovazione come l’implementazione di un prodotto (bene o servizio) o


di un processo nuovo o significativamente migliorato, di un nuovo metodo di marketing (canale
commerciale) o di un nuovo metodo organizzativo nelle pratiche di business, nell’organizzazione del
lavoro e nelle relazioni esterne. L’innovazione, quindi, non ha solo legami con la tecnologia e con il
concetto di prodotto, ma anche con l’organizzazione. Interessante il termine “significativamente
migliorato”: il termine migliorato fa riferimento quindi ad un qualcosa di preesistente che deve
essere migliorato. Il miglioramento deve essere significativo, deve dare dei segnali di cambiamento
che possono essere percepiti all’esterno. In ogni caso, il concetto di innovazione porta sempre con
sé il concetto di incertezza! Quindi l’innovazione in termini di creazione di qualcosa di nuovo è meno
incerta dell’innovazione intesa come miglioramento significativo (proprio per i problemi legati al
concetto di significatività del miglioramento).

La vera domanda è: perché mi interessa stabilire se ho effettuato un’innovazione o no? Perché


parlare di innovazione?
ECO-INNOVAZIONE: nata a seguito del concetto di innovazione, ci riferiamo al concetto di eco-
innovazione come alla produzione, assimilazione o esplicazione di un prodotto, processo produttivo,
servizio, processi aziendali che sono nuovi/innovativi per l’impresa e che permettono nel ciclo di vita
dell’organizzazione di ridurre il rischio ambientale, l’inquinamento e tutti gli altri effetti negativi legati
all’utilizzazione delle risorse (anche l’energia).

ATTIVITA’ DI INNOVAZIONE: tutte le operazioni scientifiche, tecnologiche, organizzative, finanziarie


e commerciali che sono o hanno l’obiettivo di guidare all’implementazione di un’innovazione.
Alcune attività di innovazione sono esse stesse innovazione, altre potrebbero non essere innovative
ma sono comunque necessarie per l’implementazione di un’innovazione. Le attività di innovazione
includono anche le attività di R&S, anche quelle che non sono legate direttamente allo sviluppo di
quella specifica innovazione. Questo ci spiega come i finanziamenti e le agevolazioni possono anche
includere le attività legate all’innovazione e non solo l’innovazione in quanto tale!

DIFFUSIONE DELL’INNOVAZIONE: la diffusione caratterizza la fase in cui l’uso del prodotto o


processo innovativo viene esteso alla maggioranza o alla totalità dei possibili utilizzatori. Se
un’impresa ha adottato un’innovazione essa sta a tutti gli effetti innovando, perché l’innovazione si
riferisce alle attività dell’impresa. Ci sono delle imprese che adottano per prime l’innovazione, e poi
ci sono le altre che imitano (meglio o peggio), “copiando” la tecnologia adottata dalle prime imprese.
Il tema della diffusione dell’innovazione è importante perché una volta che l’innovazione viene
adottata dai cosiddetti “early adopters”, essa viene poi imitata in maniera più o meno completa, e
quindi quell’innovazione si diffonde alla totalità dei potenziali utilizzatori (ma parliamo comunque di
innovazione e della sua diffusione. Anche l’imitazione di un’innovazione grazie alla quale essa si
diffonde è un’innovazione).

PROGRESSO TECNICO (O TECNOLOGICO): è il complesso delle innovazioni tecnologiche introdotte


o da impresa o da gruppi di imprese, nei suoi effetti sull’intero sistema economico. Quando parliamo
di progresso tecnico ci riferiamo a qualcosa di nuovo dal punto di vista tecnologico che sta generando
un impatto sul sistema economico. Questo impatto sul sistema economico determina un progresso
economico (guidato da una novità tecnologica).

KNOW-HOW: è l’insieme delle informazioni tecnologiche, delle descrizioni dei processi produttivi,
delle formule, nonché delle conoscenze organizzative, gestionali e procedurali maturate nei settori
dell’industria e dei servizi. È tutta la conoscenza che mi consente di ottenere qualcosa, un risultato.
Banalmente è il “sapere come”, l’insieme di tutte le conoscenze (alcune acquisite, alcune innate). Il
know-how può essere trasferito→il trasferimento di know-how da un’impresa all’altra è
considerabile innovazione? Sì, nella nuova impresa si, perché sta acquisendo nuove conoscenze per
fare qualcosa in modo alternativo, quindi parliamo di innovazione. Il trasferimento di know-how
permette di avviare un processo di innovazione quasi istantaneo: è come se trasferissi un bagaglio
di conoscenze per fare qualcosa di nuovo).

Esercizio: fare due esempi di invenzione, scoperta ed eco-innovazione

I FATTORI DELL’INNOVAZIONE

Capiamo quali sono gli elementi che si devono combinare fra di loro per dar luogo ad un’innovazione.
I fattori dell’innovazione sono:

• CREATIVITA’ E ORGANIZZAZIONE: per innovare bisogna coniugare creatività e organizzazione;


• METODO E SCIENZA: il metodo con cui sviluppiamo nuove conoscenze e lo stock di conoscenze
scientifiche ed affidabili possedute per generare un’innovazione;
• SERENDIPITY: inteso come “caso”, “fortuna”. È importante perché tanta innovazione nasce dal
caso. Sicuramente è importante la creatività, l’organizzazione ed il metodo, ma è da ricordare
anche che il caso gioca un ruolo fondamentale;
• TERRITORIO: la generazione di innovazioni è sensibile a tutte quelle risorse e fattori che sono
presenti nel territorio in cui quell’innovazione si sta sviluppando. È fondamentale che ci sia una
componente territoriale nell’ambito dei processi di innovazione. Le risorse sono tantissime, e
sono oggetto di studio che non rientrano in questo corso;

Analizziamoli nel dettaglio!

CREATIVITA’ E ORGANIZZAZIONE

Innanzitutto, cosa vuol dire creatività? Prima di definire la creatività, dobbiamo capire a chi si
riferisce. Potremo parlare di creatività individuale e creatività territoriale (regione o nazione). Questa
distinzione è importante.

Se guardiamo alla creatività individuale, essa è una capacità produttiva che può essere tanto frutto
della ragione (componente razionale) tanto frutto della fantasia (componente irrazionale, emotiva).
Attenzione perché, se la capacità deriva da un percorso razionale, essa può essere “educata” e
stimolata. Quindi la creatività individuale unisce la sfera razionale con la sfera emotiva. La creatività
individuale è sicuramente un talento individuale ma può anche essere stimolata tramite percorsi di
formazione. In generale si traduce come la capacità di avere nuove idee. La creatività individuale,
però, non è ancora oggetto di studi economici, è ancora di interesse del mondo medico/psicologico.
Educare alla creatività è molto importante per l’economia dell’innovazione. Avendo però risvolti in
ambito industriale, è evidente che gli psicologi industriali sono interessati ad esempio a capire come
stimolare questa creatività. Però per noi basta sapere questo. Una cosa va detta: sempre di più, nelle
analisi economiche, stanno intervenendo una serie di studi che toccano la sfera emotiva e creativa
degli individui.

Se guardiamo invece alla creatività di un territorio, a cosa facciamo riferimento? Richard Florida,
uno studioso, introdusse per primo il problema di valutare la creatività del territorio. Il suo
ragionamento orbita attorno a quelle che saranno le leadership economiche del futuro: 20 anni fa
riuscì ad individuare i leader economici del futuro, sostenendo che non sarebbero stati
necessariamente i giganti emergenti come India e Cina. A detta di Florida, il leader economico non
è il gigante economico emergente ma è il paese in grado di attrarre persone creative e di generare
nuovi prodotti e processi. La competitività si sposta dal sistema economico alla creatività e
all’innovazione. Pertanto, l’asset della creatività è un asset del territorio fondamentale che va
sviluppato, e a questo bisogna porre molta attenzione perché è molto instabile. Florida ha ragione:
se un paese vuole mantenere un certo standard di vita economica, e se questo paese non è un
gigante demografico, è necessario per questo paese attrarre persone creative e sviluppare al suo
interno una comunità creativa che mantenga la competitività del paese. Essere attrattori di soggetti
creativi, però, non è semplice. A tal proposito, Florida si interrogò nel trovare una soluzione per
misurare la creatività e l’attrattività di un territorio.

Florida arriva a costruire un indice di creatività (creativity index) di un territorio (regione o nazione),
tramite misure oggettive fatte su tre dimensioni fondamentali ritenute delle proxy della creatività.
In particolare, secondo Florida la creatività dipende da: Tecnologia, Talento e Tolleranza. Tant’è che
il modello di Florida è noto come modello delle tre T. Quindi si valutano queste tre dimensioni
costruendo degli indicatori (tramite delle proxy, ovvero valutazioni quantitative che ci avvicinano a
misurare quella dimensione) opportuni e si costruisce l’indice di creatività. In particolare, per
ciascuna dimensioni gli indicatori sono i seguenti:

• Tecnologia→misurata tramite investimenti in R&S e brevetti per capita;


• Talento→%di adulti con più elevato livello educativo (dottorato) e forza lavoro nella classe
creativa;
• Tolleranza→condizioni di immigranti, minoranze razziali ed etniche, e degli omosessuali.

Quindi Florida ottiene il GLOBAL CREATIVITY INDEX (GCI) tramite le proxy delle tre diverse
dimensioni. Questo indice quindi si basa su tre punteggi (uno per ciascuna dimensione) che variano
su una scala da 0 a 1. Non sono confrontabili regioni con nazioni, in quanto le misure adottate sono
diverse (soprattutto in termini di scala).

Questi sono i risultati dello studio


condotto da Florida: ci sono alcuni paesi
più creativi degli altri, perché hanno un
GCI più elevato. C’è da dire però che
questo indicatore lavora su alcune proxy
e non direttamente sulle dimensioni.
Quindi ci sono alcuni paesi (come l’Italia,
in cui non si investe in R&S e i dottori di
ricerca sono pochissimi) che rendono
meno sotto alcuni aspetti e quindi
vengono penalizzati nel calcolo
dell’indice di creatività. Non esistono dei
modelli ritenuti migliori rispetto a
questo. Quindi, il modello di Florida è il
migliore attualmente.

Vediamo invece i risultati dello studio fatto applicando il modello di Florida alle regioni italiane:

Le regioni con
il più alto
creativity index
sono quelle
ovviamente
più creative
per gli stessi
aspetti visti
prima.
Florida introduce anche il concetto di classe creativa, inteso come l’insieme di tutte le persone che
si occupano di scienza, ingegneria, architettura, design, istruzione, arte, musica, intrattenimento, e
la cui funzione sociale è creare nuove idee, tecnologie e nuovi contenuti creativi. La classe creativa
in un territorio dà un contributo importante ai processi innovazione. Florida si concentra su questa
categoria di individui.

Oltre alla creatività, dobbiamo considerare anche l’organizzazione: che ruolo ha l’organizzazione
nell’innovazione? L’organizzazione si esplica in termini di disciplina, tramite l’insieme di tutte le
norme, le regole e le procedure che vincolano il comportamento degli individui di un’organizzazione
che vanno un po’ ad opporsi col concetto di creatività. Perché la creatività è uno dei fattori
dell’innovazione ma da sola non funziona? Noi consideriamo processi creativi non in maniera
artistica ma processi creativi che poi devono tradursi in innovazione. Quindi consideriamo sempre la
creatività all’interno di un’organizzazione. Si pensa che più un’impresa è creativa, più è capace di
portare a risultati innovativi: sbagliato! Si è capito come per aumentare la capacità creatività di
un’organizzazione servisse liberare la creatività degli individui→il problema è che queste due cose si
contrappongono: devo contemporaneamente lasciare le persone libere di essere creative e
ricordarmi che esse operano in un’organizzazione e quindi queste devono essere disciplinate. Il tema
del confronto e del bilanciamento tra creatività e disciplina è molto importante. Un eccesso di
disciplina può portare a cali nella performance creativa a causa dell’insurrezione di comportamenti
anarchici e opportunistici. Un’organizzazione, quindi, deve essere mantenuta e gestita in una
situazione di bilanciamento ottimale tra creatività e disciplina.

Nelle organizzazioni, oggi, serve ambidestrismo: un’organizzazione si dice ambidestra quando riesce
ad essere efficiente nella gestione del business attuale (sfruttando al massimo l’organizzazione e
gestendola in maniera disciplinata) e anche adattiva, creativa, e quindi essere in grado di
confrontarsi con i cambiamenti dell’ambiente esterno. Questo porta alla nascita di due attività
fondamentali nell’organizzazione: exploration ed exploitation.

Le organizzazioni devono trovare il miglior bilanciamento tra capacità adattiva/creatività e rispetto


delle regole/mantenimento di un comportamento efficiente.

LEZ 5: 5/10/2023

METODO E SCIENZA
È un fattore un po’ più soft rispetto a creatività ed organizzazione. In chiave economica dobbiamo
fare un ragionamento: si è osservato che quelle parti del mondo in cui si è sviluppato prima e più
rapidamente l’approccio scientifico sono anche le parti del mondo che si sono sviluppate meglio e
più rapidamente. Dietro questo fattore, quindi, persiste l’idea secondo cui più le imprese si dotano
di un metodo scientifico volto alla ricerca delle soluzioni ai problemi, più esse risultano efficaci ed
efficienti in termini di sviluppo dell’innovazione. Quindi metodo e scienza sono il carburante per lo
sviluppo dell’innovazione. Il concetto di metodo e scienza è tutt’altro che astratto, e si concretizza in
azioni finalizzate allo sviluppo dell’innovazione.

È un fattore estremamente importante che ha permesso all’occidente di acquisire negli ultimi anni
un vantaggio competitivo rispetto ad altri contesti territoriali (Cina), ma è un fattore che bisogna
continuare a coltivare se vogliamo garantirci una certa capacità innovativa rispetto ad altri contesti
territoriali. Lo stesso vale per la singola impresa.

Vediamo come in occidente si sono fatte strada metodo e scienza. A partire dal Medioevo sono state
fatte molte scoperte ma quello che è successo a partire dal Rinascimento (in Italia) è degno di nota.
Ci fu una riscoperta della natura e grazie a questa riscoperta ci si è portati dietro un’idea secondo la
quale l’esperienza concreta sia più importante del verbalismo logico, in particolare della filosofia
scolastica. Ma non c’era ancora una mentalità scientifica perché non si era ancora formulata un’idea
di scienza come attualmente l’abbiamo e soprattutto non c’era un metodo per trasformare
quell’esperienza concreta in un’indagine di fenomeni. Ci sono due grandi mancanze quindi:
mancavano, infatti, una mentalità propriamente scientifica e un metodo di indagine dei fenomeni
della realtà pratica.

Galileo Galilei introduce il metodo sperimentale per esaminare la realtà attraverso gli esperimenti e
che consente di generalizzare i risultati ottenuti dagli esperimenti. Con lui c’è Francesco Bacone, che
pone al centro dell’analisi il metodo sperimentale. Con il metodo sperimentale l’analisi della natura
diventa sistematica. Osservo i fenomeni e traggo delle conclusioni. Il mondo è governato da regole
che presentano una certa ripetitività quindi diciamo che c’è una concezione meccanica del mondo.
Ancora oggi usiamo il metodo sperimentale! Se è vero questo vuol dire che alla base di tutto c’è una
visione ordinata della natura. Galilei e Bacone non andarono oltre questi studi, e non trassero gli
aspetti filosofici legati al meccanismo della natura.

Ad interpretare questo secondo passaggio furono Hobbes e Descartes: secondo i due pensatori, se
il mondo si basa su una concezione meccanica, vuol dire che noi possiamo estendere una sorta di
meccanicismo fisico alla risoluzione di tutti i problemi filosofici (viene dato quindi un senso
metafisico al meccanismo della natura). Nasce in Europa una duplice corrente che è una corrente
filosofica ma che è la base di quello che noi conduciamo in termini di attività: l’empirismo (galileo e
Hobbes) e il razionalismo (Bacone e Cartesio). Se la società (in tutti i suoi livelli e gradi) non adotta
un approccio empirico e razionale nello sviluppare le proprie idee non sarà in grado di tenere un
processo innovativo a lungo in piedi. I razionalisti affermano che ci sono modi significativi in cui i
nostri concetti e le nostre conoscenze sono acquisite indipendentemente dall'esperienza sensoriale.
Gli empirici affermano che l'esperienza sensoriale è la fonte ultima di tutti i nostri concetti e delle
nostre conoscenze.

Il vantaggio della società occidentale è stato permesso dalla competitività dei filosofi e scienziati, i
quali hanno dato un metodo di produrre conoscenza. Il metodo ha permesso di ragionare e generare
nuove idee. Metodo e scienza sono fattori di innovazione.

Due studiosi, Rosenberg e Birdzell scrissero un libro che cercava di spiegare come l’Occidente è
divenuto ricco. Nel farlo, hanno individuato alcuni fattori favorevoli allo sviluppo dell’Occidente, che
hanno favorito lo sviluppo di nuove idee e dell’innovazione:

• Formazione delle città e dei mercati (che sono luoghi dove si scambia conoscenza, quindi
svolgono un ruolo simile a quello delle scuole);
• Sperimentazione (Galilei) e metodo scientifici (Cartesio);
• Presenza di istituzioni e la loro autonomia (che permettono di creare gruppi omogenei, lo
scambio di informazioni, tradurre pratiche in regole).

Vediamo a proposito il caso di Nicholas Appert. Egli fu un pasticcere francese di fine ‘700 e inizio
‘800. Vinse un premio perché scoprì che per conservare a lungo i dolci bisognava immergere i
contenitori in vetro in acqua bollente per un paio di minuti, estrarli, inserire il dolce e sigillarli. La
possibilità di inscatolare e mantenere a lungo gli alimenti fu una grande scoperta che gli fece
guadagnare un premio. Cosa succedeva scientificamente venne scoperto solo 60 anni dopo: il
riscaldamento riduce notevolmente la presenza di batteri, i quali sono i responsabili del degrado
degli alimenti. Questo avvenne grazie a Pasteur. Mentre Appert continuava con i suoi esperimenti,
ci fu un medico: Semmelweis. Operando in ospedale con le partorienti notò la presenza di un
numero elevatissimo di morti tra di loro. Nello stesso reparto creò due sezioni, una in cui ci si lavava
le mani prima di visitare i pazienti e nell’altra in cui tutto restava uguale a prima→nella prima sezione
venivano sempre cambiate le lenzuola, nella seconda no. Si notò come nella prima sezione il tasso
di mortalità si ridusse notevolmente! Ci fu una reazione dura tra la classe dei medici, a tal punto che
venne allontanato dall’ospedale. Solo dopo molti anni viene recuperato il metodo Semmelweis.

La comunità medica non credette a Semmelweis perché non fu in grado di spiegare razionalmente
quanto aveva notato e ottenuto: l’empirismo è utile, ma senza l’approccio scientifico razionale, non
potrà mai trovare il consenso.

Pasteur fu uno dei primi a rivalutare le scoperte di Semmelweis. Fu lui a capire che erano i germi e i
batteri a causare le morti delle partorienti e la conservazione dei cibi. Pasteur lavorava da solo. Non
aveva assistenti. Le innovazioni erano frutto delle sue idee.

Al giorno d’oggi poi, lo scienziato Craig Venter ha estremizzato il metodo scientifico. Creò una società
privata nel ’98, la Celera Genomics, con l’obiettivo di codificare il genoma. Per fare questo decide di
automatizzare le procedure di sequenziamento del genoma. Questa fu la prima organizzazione a
privatizzare le attività di R&S e grazie a questo ci fu una forte accelerazione dei processi, riuscendo
a battere sul tempo i rivali del consorzio “human genome”. Venter spostò i suoi studi su un altro
progetto: “digitalizing life”→modificare e risequenziare il DNA dei batteri e crearne digitalmente di
nuovi, svolgenti nuove funzioni (come, ad esempio, produrre metano). Il tutto a partire da Appert e
la sua scoperta! Venter parte dall’approccio empirico di Appert e lo trasforma tramite un approccio
scientifico e razionale.

SERENDIPITY

Un ultimo fattore dell’innovazione è la serendipity, ovvero il caso. Molte innovazioni si generano per
caso. Una volta che trovo una cosa per caso, devo capire però come commercializzarla. L’effetto
serendipity è parte dell’innovazione.

Ci sono molti prodotti che sono nati per caso: si cercava qualcosa e poi si è scoperto altro:

Ad esempio, vediamo il caso Post-it: Spencer Silver, un chimico della 3M (una multinazionale),
cercava di sviluppare un adesivo molto forte. Durante le prove commette un errore procedurale ed
ottiene una “collaccia” che non ha nessuna capacità di far aderire due superfici. Ma ha delle
caratteristiche: una volta che attacco due superfici, le stacco e si riattaccano. Durante l’adesione si
rompono delle bolle di gas e c’è adesione. Con il primo incollaggio non vengono rotte tutte, man
mano che stacco e attacco si rompono, fino a quando le bolle sono tutte rotte e non si attaccano più.
Aveva in testa componenti metallici e non carte. Solo anni dopo, Art Fry capisce la potenza di questa
colla sulle superfici di carta.
Vediamo il caso Ivory Soap: è il primo sapone solido. La Procter & Gamble realizza questo sapone
come frutto di un errore, ma comunque lo vende con un nome diverso da quello che doveva avere
in origine. Succede che tutti vogliono l’Ivory Soap e non i vecchi saponi perché questo galleggia
quindi quando si fanno i panni nella tinozza non diventa più un problema il sapone che scivola dalle
mani.

Quando nasce qualcosa per caso, non sai qual è il suo potenziale, lo capisci solo quando lo immetti
sul mercato.

LEZ 6: 6/10/2023

Thomas Edison è stato uno dei più grandi inventori della storia, e nessuno meglio di lui rappresenta
il fattore “creatività ed organizzazione”. Egli è anche conosciuto per due massime:

“La componente creativa è solo l’1%, il 99% è sudore”→questa è un’ottima sintesi di quanto abbiamo
studiato. Se le idee non trovano un processo organizzato per “inserirle” nel prodotto, non sono utili.
Per arrivare sul mercato bisogna lavorare molto, il percorso è lungo e c’è il rischio di fermarsi durante
il tragitto.

“Il valore di un’idea consiste nel metterla in pratica, nell’ usarla”→se abbiamo un’idea, ma non la
concretizziamo in qualcosa, il valore di questa idea è nullo! Solo quando trasformiamo quell’idea in
qualcosa da utilizzare, potremo trarne il suo valore (indubbiamente un valore economico).

INNOVAZIONE E IMPRESA: CASI DI STUDIO

Attenzione: conoscere i soli fattori di innovazione non ci permette di fare innovazione. Adesso
conosciamo ancora poco dell’innovazione. Il percorso con cui si arriva all’innovazione e il
meccanismo col quale essa diventa un business è ancora ignoto. Oltre ai fattori di innovazione che
abbiamo visto, nel processo di innovazione entrano una serie di altre risorse e fattori che sono difficili
da “sistematizzare”. L’unico modo per averne contezza, e soprattutto di comprendere le relazioni e
le interazioni tra fattori di innovazione e come queste portino poi all’innovazione, è di analizzare casi
di studio circa imprese che sono nate e basano il loro successo sui processi di innovazione→quindi
stiamo usando un approccio empirico, basato sull’osservazione e non tramite dei metodi matematici
e sperimentali.

Facciamo quindi una carrellata di questi casi di studio e vedremo altri fattori di innovazione, oltre a
quelli già visti:
1)Il caso Olivetti→è il classico caso da manuale. Tutte le imprese oggi evolute si rifanno al caso
dell’impresa di Adriano Olivetti, il quale creò il concetto di impresa anche dal punto di vista sociale
e non solo dal lato economico ed organizzativo. Capiamo come si sono messi insieme i fattori di
innovazione per far si che nascesse questa nuova forma di impresa.

Il fondatore di Olivetti fu Camillo Olivetti (1868-1943). Per avere contezza dell’innovazione in


questione, è utile contestualizzare Olivetti nel contesto storico in cui vive e in cui sviluppa la sua
innovazione: egli si laurea al Politecnico di Torino (1891)→l’idea delle istituzioni del tempo era quella
di diffondere lo sviluppo, per questo nascevano i politecnici. L’intento era creare delle nuove risorse,
i “tecnici”, in un’industria come quella italiana che era ancora legata al settore delle costruzioni (70-
80% del valore aggiunto nazionale) e che vedeva la meccanica come la nuova frontiera emergente
(20% circa del valore aggiunto nazionale). Il Politecnico, quindi, nasce per legare università e imprese
sotto il nome della scienza e delle nozioni tecniche.

Ecco, quindi, come il “contesto” diventa un fattore dell’innovazione: vedremo proprio come Olivetti
riuscirà a sfruttare il contesto in cui vive, cavalcando l’onda delle nuove tecnologie emergenti!

Quindi da un lato abbiamo la fisica con Maxwell (1865) e la nascita dell’elettromagnetismo (e


dell’industria elettrica nei decenni a venire), dall’altro iniziano a diffondersi le prime collaborazioni
tra imprese e politecnici.

Olivetti si laurea con Galileo Ferraris, insegnante di elettromagnetismo, considerato uno dei padri
fondatori delle auto elettriche, nonché una figura fondamentale dell’elettrotecnica. Nel 1893 Olivetti
accompagna Galileo Ferraris al congresso di elettricità di Chicago (considerato il punto di svolta per
il settore elettrotecnico mondiale). Segue corsi di fisica alla Stanford University, un’università
all’epoca molto giovane e quindi in piena crescita.

Dopodiché, torna in Italia e nel 1896 e apre la CGS (centimetro, grammo, secondo), piccola officina
di strumenti di misura elettrici ad Ivrea: grazie alle informazioni ottenute nel congresso, Olivetti notò
la presenza di una nicchia di mercato, quella della strumentazione elettrica. Non potendo quindi
competere nel business principale (dominato dai colossi come la Westing House), aggredì la nicchia
che aveva dei potenziali di sviluppo (perché il mondo si stava evolvendo verso una elettrificazione).
L’acume di Olivetti si mostra anche nell’ubicazione dell’officina: infatti al tempo Ivrea era l’epicentro
dell’industria elettrica, ed era vicina alla maggior parte della domanda nazionale.
Riflettiamo sul fatto che Olivetti non ha inventato nulla, non parliamo di una grande
invenzione→spesso l’innovazione nasce grazie all’unione di frammenti di informazioni ottenute in
vario modo, in un contesto competitivo. La presenza di competitors che si stanno muovendo con
il nostro stesso ragionamento è per certi versi “fortificante” perché suggerisce come le idee di
partenza siano fondate e quindi questo permette di aumentare gli sforzi di innovazione e di
perseverare con la propria idea.

Ad un certo punto, nel 1908 crea l’impresa “Ing. Camillo Olivetti e C.” per la produzione di macchine
da scrivere. Nonostante possa sembrare una follia, ci sono almeno due ragioni per le quali questa
idea fu geniale:

1) le macchine da scrivere non furono ideate da Olivetti, ma da Remington, ed Olivetti decise di


“imitare”. Ciò che accomunava gli strumenti di misura elettrica con le macchine da scrivere era la
micromeccanica: infatti, entrambi i prodotti richiedevano delle competenze di micromeccanica, e
Olivetti possedeva queste competenze! Potremmo dire che Olivetti ha diversificato in un business
correlato perché aveva già quelle competenze;

2) in quel periodo nascono una serie di imprese come FIAT e Pirelli. Siamo un contesto in cui le
imprese sono in crescita ma la popolazione è ancora arretrata e presenta un’elevata percentuale di
analfabetismo. Nasce quindi in Italia uno sforzo di crescita volto a insegnare alla maggior parte dei
bambini a leggere e a scrivere, per permettere lo sviluppo del Paese. Le macchine da scrivere sono
nate proprio per questo→il modo di scrivere ordinato aiutava le persone, e quindi servivano
macchine da scrivere.

Olivetti riuscì ad eliminare la competizione di Remington aprendo la prima fabbrica italiana di


macchine da scrivere. Olivetti esaminò il mercato, e ipotizzò una domanda crescente. Questo
richiese degli investimenti economici elevati. La prima macchina da scrivere fu la M1. Per produrre
questo prodotto investì molto, al punto da alienare parte del patrimonio familiare→Olivetti crede in
ciò che sta facendo a tal punto da erodere il patrimonio familiare per investirlo nella propria azienda.

La domanda, purtroppo, era molto particolare: la domanda ovviamente era espressa in termini di
domanda aggregata, da parte di soggetti pubblici! Olivetti non riuscì a vendere la macchina da
scrivere fino a quando non arrivò una commessa pubblica: 100 macchine da scrivere da parte del
Ministero della Marina. La macchina da scrivere permetteva di scrivere documenti leggibili, perciò,
era acquistata prevalentemente dalle istituzioni. Infatti, dopo, arrivò un ordine dal Ministero delle
Poste.
Da questo impariamo che Il miglior finanziamento per un’innovazione è la domanda! Sapere che
c’è qualcuno che si comprerà ciò che stiamo sviluppando è il carburante per l’innovazione stessa.

Grazie al caso Olivetti impariamo anche che per le imprese la domanda pubblica è fondamentale!
Lo Stato e i suoi enti hanno spesso questa funzione, ossia di stimolare l’innovazione generando
domanda di innovazione. La domanda è una delle forme principali di interazioni tra stato ed
imprese→la dimensione delle imprese è figlia delle dimensioni della domanda.

Scoppia la guerra e l’Olivetti si dedica alla produzione bellica poiché alla base c’è la meccanica di
precisione. I fatturati crescono, infatti le guerre hanno la caratteristica di accelerare drasticamente
le innovazioni e i processi di innovazione nei paesi e nelle imprese.

Nel 1929 l’Olivetti apre in Spagna, a Barcellona il suo primo stabilimento all’estero. Incredibilmente,
nonostante nel 1929 ci fu una delle più grandi crisi industriali (culminata con la crisi di Wall Street),
Olivetti aprì comunque uno stabilimento in un altro Paese! Quindi questo è una misura del valore
intrinseco dei prodotti Olivetti→non ci sono crisi che tengono se il prodotto è innovativo.
L’innovazione ha la capacità di superare anche periodi di crisi intensi. Perché l’innovazione genera
nuova domanda, che non risente della crisi.

2)Il caso Pirelli→È un’impresa italiana che ha favorito lo sviluppo di tecnologie importanti. È un caso
illuminante, i fattori dell’innovazione sono fattori sempre un po’ presenti nel processo di innovazione
ma va studiata la realtà per comprendere al meglio le diverse situazioni.

Parleremo di Giovan Battista Pirelli (1848-1932). Anche lui, come Olivetti, trascorre un periodo
all’esterno grazie ad una borsa di studio messa a disposizione da Giuseppe Colombo. Giuseppe
Colombo aveva un ruolo importante, era un uomo visibile nel mondo industriale lombardo: costituì
nel 1884 a Milano la Società Generale Italiana di Elettricità. Fu uno dei più grandi sostenitori dello
sviluppo del Politecnico di Milano (all’epoca “Istituto Tecnico di Milano”), fu un’industriale e un
professore di matematica, e colui che ideò il prima sistema di illuminazione elettrica a Milano
(illuminò il Duomo e il teatro La Scala).

Quando torna in Italia, Pirelli fonda un’impresa di articoli in gomma→Pirelli ha studiato in Inghilterra,
la culla della rivoluzione industriale e potentissimo impero coloniale. In quel periodo, in Inghilterra
si stava sviluppando la produzione di gomma, a partire dal caucciù. Il caucciù è un materiale che
sottoposto a lavorazioni presenta caratteristiche spettacolari: risulta infatti infrangibile, isolante
(fondamentale per l’industria elettrica, sviluppatasi grazie ad Olivetti!) e malleabile (prende la forma
che si desidera).

Il miglior modo per finanziare un’innovazione non è un aiuto di Stato/nazione ma è la domanda


di prodotto.

Come per Olivetti, fu una grande domanda pubblica per far crescere la Pirelli. Nel 1889 ottiene dal
Ministero dei Lavori Pubblici l’appalto per la costruzione, la posa e la manutenzione di cavi telegrafici
sottomarini battendo i rivali inglesi, leader del settore: i cavi sottomarini sono possibili solo se ho un
isolante elettrico e quindi si rifanno alla Pirelli, industria di articoli in gomma. C’era un enorme
business che si stava aprendo!

LEZ 7: 18/10/2023

La strategia con cui opera Pirelli si divide in due parti: (i) solide relazioni con imprese estere ed
esperte concorrenti (per stare meglio sui mercati esteri e perché sono portatrici di conoscenze e
competenze nuove→una collaborazione strategica avrebbe sicuramente aiutato); (ii) attenzione ai
mercati internazionali (intercettare non solo una domanda nazionale ,ma poter ampliare la domanda
dei suoi prodotti anche ai mercati esterni, questo è fondamentale per ampliare il processo di
crescita).

In questo periodo di sviluppa il business delle vetture: ai primi del ‘900 il settore degli pneumatici
cresce con la crescita dello sviluppo delle autovetture. Anche con la Prima Guerra Mondiale Pirelli
ha la sua fortuna, visto che si impiegarono molti mezzi. Queste sono dinamiche fondamentali per la
crescita delle imprese!! Ad esempio, per le gomme delle vetture di guerra bisognava realizzare
pneumatici molto resistenti, quindi bisognava innovarsi.

3)Il caso Mr. Hewlett & Mr. Packard→è un caso modello sia per l’innovazione che per lo sviluppo
territoriale. Siamo sulla costa Ovest degli USA. Loro due sono i fondatori della hp. Si incontrano
all’università di Standford (che abbiamo capito essere un ruolo fertile per l’innovazione). Appena si
laureano vengono incoraggiati da Fred Terman (vice-rettore dell’università di Standford, che aiutava
i giovani con idee innovative per costruire delle imprese). Nel 1939 l’hp muove i primi passi in un
garage a Palo Alto (CA) producendo strumenti elettronici di misurazione (Olivetti faceva strumenti di
misura per l’elettricità ovvero correnti forti, mentre loro due per elettronicità quindi correnti deboli).

Nel 1952 Terman offrì a Hewlett e Packard un posto nel parco industriale (o distretto tecnologico)
noto come Silicon Valley fondato dall’università→l’università forma le persone, fa attività di ricerca
e trasforma le conoscenze delle persone in opportunità di business. I ricavi legati ai canoni di
localizzazione delle imprese (maggiormente hi-tech) che si sono andate ad insediare nella Silicon
Valley hanno consentito all’università di Stanford di scalare i vertici della ricerca scientifica. Ecco che
diventa interessante il risvolto territoriale: le università permettono di valorizzare il territorio e
generare uno sviluppo sostenibile. Si è creata una sorta di circuito virtuoso che ha portato alla
valorizzazione non solo del territorio ma anche dell’università. Questo fenomeno è stato studiato e
si è ragionato sul fatto che la capacità di sviluppare attività di ricerca applicata nelle innovazioni di
frontiera genera l’effetto di attrazione su quelle imprese che utilizzano tecnologie simili: effetto di
co-localizzazione. La Silicon Valley è diventata emblema di questo fenomeno, un vero e proprio polo
di innovazione. Si sviluppa l’idea che una buona capacità di ricerca in un ateneo può generare
attraverso spill-over (fuoriuscite) di conoscenza (anche attraverso start-up), un effetto di
agglomerazione, dimostrando che esistono una serie di vantaggi per le altre imprese tecnologiche a
co-localizzarsi al fine di valorizzare una serie di fattori, quali le competenze umane, i servizi avanzati,
le agevolazioni messe a disposizione di queste imprese per localizzarsi in un posto.

Non basta una buona università, ma servono altri elementi, come una visione ampia della funzione
di un’università in un territorio. Non è tanto investire soldi per generare la Silicon Valley, ma è
importante avere figure che hanno una visione ampia come Terman.

Tutti e tre i casi visti hanno un denominatore comune: un mentore che li guida. Nei primi due casi
c’è un viaggio all’estero che permette loro di portare una nuova tecnologia nel paese di origine, qui
c’è lo sviluppo di una tecnologia senza viaggio all’estero.

4)Il caso Breda→Nel 1876 Ernesto Breda si laurea in ingegneria all’università di Padova. Nel 1883
arriva a Milano dopo un lungo soggiorno di studio all’estero. In quel periodo iniziano a svilupparsi le
prime fabbriche, che iniziano a distaccarsi dai vecchi sistemi artigianali di produzione. Lui all’estero
conobbe realtà di fabbriche più avanzate e arrivato a Milano rilevò un vecchio stabilimento,
l’Elvetica, e iniziò a produrre locomotive. Nel fare questo, prese spunto da quanto osservò in Svizzera
e Germania e iniziò ad introdurre i principi di Taylor della divisione del lavoro e della razionalizzazione
dei processi produttivi. In quel periodo il business delle locomotive era in forte crescita, perché in
Italia iniziavano a svilupparsi le prime ferrovie. Il Parlamento effettuò nel 1885 un’azione legislativa
interessante: rese possibile privilegiare le imprese italiane negli appalti ferroviari purché i loro prezzi
non fossero superiori del 5% alle più convenienti offerte straniere. È così che si sviluppa la Breda,
perché l’idea del Parlamento era quella di sostenere la crescita di imprese italiane sufficientemente
competitive rispetto a quelle straniere. Poi, la Breda per prima, stabilisce una collaborazione stretta
con la COMIT (Banca Commerciale Italiana, l’odierna Intesa Sanpaolo). Questa banca aveva la fama
di essere una banca aggressiva nella capacità di sostenere le imprese: infatti, non faceva solo prestiti
alle imprese, ma entrava anche nella proprietà dell’impresa, investendo in capitale di rischio. La
COMIT entrò nella Breda acquisendone la maggioranza relativa. Questo garantisce a Breda di coprire
i debiti a breve termine in quanto dispone sempre di capitale circolante e questo permette di
sopperire alle irregolarità nelle commesse e nei pagamenti da parte di Ferrovie dello Stato. Oggi le
banche non entrano nei capitali sociali delle imprese! (è fresca però la notizia di un’acquisizione da
parte di Intesa San Paolo di una piccola quota di azioni di SpaceX!)

Nel caso Breda ritroviamo molti fattori dell’innovazione: metodo e scienza, creatività e
organizzazione, serendipity. Un ruolo molto importante è stato quello ricoperto sia dallo Stato sia da
una Banca→entrano quindi questi altri due fattori, oltre a quelli visti, e sono determinanti!

Breda beneficiò anch’essa dalla Guerra, che purtroppo è sempre un toccasana per queste imprese
perché genera una domanda, e si impegnò nella produzione di due aerei da guerra.

5)Il caso Florio→Vincenzo Florio, grande imprenditore calabrese. Caso importante perché riguarda
il sud Italia. Il tutto parte con il terremoto del 1799. A Bagnara Calabra c’era un piccolissimo
imprenditore, Florio, che aveva una piccola drogheria, e che in seguito al terremoto si trasferì a
Palermo con la sua famiglia, visti anche i grandi limiti dell’economia calabrese. La sua attività, grazie
a qualche innovazione, crebbe e ciò permise la creazione di un gruppo industriale. Mise in piedi,
infatti, diversi business: produzione e commercio di vino (marsala), produzione del tonno, attività
armatoriale (navi, trasporti e logistica), investimenti nella siderurgia, nell’estrazione e lavorazione
degli zolfi.

Prima nelle drogherie si commercializzava la china, l’unico medicinale esistente, un


antinfiammatorio. La pestatura della corteccia dell’albero di china non era perfetta così si ebbe l’idea
di farla con macchine, che erano già presenti in Inghilterra, per avere finiture migliori. Vincenzo e
suo zio Ignazio andarono in Inghilterra e acquistarono una macchina per la polverizzazione della
corteccia. Produssero così una quantità molto più elevata di quella prodotta dai farmacisti, i quali
protestarono, perché legati ancora alla vecchia attività di pestatura con mortaio. I Florio furono bravi
a trattenere la rivolta, dimostrando che l’acquisto della macchina era un’innovazione che garantiva
delle migliorie ai farmacisti, oltre che ai consumatori di china. Con la vendita della china fecero un
grande profitto che poi investirono nelle attività del gruppo industriale.
I Florio furono bravi a riconoscere una domanda del mercato, individuare la tecnologia adatta e
rispondere in modo molto rapido. Palermo divenne una città internazionale e cosmopolita grazie ai
Florio.

Dopo che l’Italia perse le rotte commerciali con l’unità di Italia, i Florio andarono in crisi e furono
costretti ad alienare le loro aziende: loro risanarono tutti i debiti con il patrimonio personale, cosa
che dal punto di vista etico ricalca un comportamento nobile e molto raro anche oggi. In ogni
innovazione c’è sempre un rischio, che deve essere accettato e rispettato.

6)Il caso Ferrero→È il caso di un’impresa non quotata in borsa, è la più grande impresa in Italia nel
settore agro alimentare. Questa storia richiama quella di Florio, perché non c’è un’innovazione
tecnologica motrice dell’impresa. Florio aveva una drogheria, Pietro Ferrero una pasticceria. Nel
1940 Ferrero aprì infatti una grande pasticceria a Torino, in un clima di grande incertezza a causa
della guerra. Aprì poi un laboratorio ad Alba, dove inizia a fare esperimenti. A causa della guerra, gli
ingredienti come il cioccolato erano diventati introvabili. Ferrero, condizionato dalla necessità, iniziò
a sfruttare una delle ricchezze del territorio, le nocciole. Nel 1946 esce il primo prodotto Ferrero, la
Pasta Gianduja, pasta a base di nocciole avvolta in carta stagnola, spalmabile ed economico (il
prodotto se fosse stato tutto di cioccolata sarebbe costato molto di più). La produzione aumenta
notevolmente in pochi mesi da febbraio a dicembre (da 3 quintali/mese con 50 dipendenti a
1000q/mese con 100 dipendenti). L’etichetta aveva al centro i bambini, grandi consumatori di
cioccolato. Visto che il laboratorio era diventato molto piccolo, nasce l’industria Ferrero. Quando ci
sono effetti di incremento rapido dei volumi di vendita e quindi anche di produzione, è necessario
intervenire su tutti i componenti dell’azienda, anche sull’effetto di leva commerciale; infatti, il fratello
capì che il prodotto doveva essere venduto anche fuori dal Piemonte. Compra una flotta di 12
camioncini e un dato interessante è che il numero di mezzi che la Ferrero utilizzava per distribuire il
proprio prodotto era secondo solo al numero di mezzi a disposizione per l’esercito italiano. Quindi
abbiamo non solo la capacità di inventare il prodotto ma anche di commercializzarlo per aumentare
la dimensione dell’impresa. Oltre a Pietro e al fratello Giovanni, si affianca il figlio di Pietro, Michele.

LEZ 8: 19/10/2023

Nel 1948 un episodio determina una caratteristica della Ferrero, che è rimasta tuttora. Avviene
un’alluvione che ricopre la fabbrica di fango, ma i fratelli Ferrero insieme ai dipendenti riescono a
ripulire le macchine e dopo quattro giorni di duro lavoro. Questo testimonia che esiste un legame
fondamentale tra impresa e territorio questa dimostrazione di solidarietà è testimone di come la
Ferrero ha impostato il rapporto con i dipendenti.

La Nutella nasce prima come “Cremalba” e poi “Supercrema”, ed essendo spalmabile si adatta bene
in termini di consumi. Nascono anche altri prodotti, come combinazione tra cioccolato che viene
dalle aree tropicali e la nocciola che viene dal territorio di Alba. “Sultanino” è una piccola stecca di
cioccolato e “Cremablok” un cioccolato ripieno di nocciola. Quando si iniziano a produrre centinaia
di quintali all’anno di prodotti che necessitano della nocciola, il territorio non basta più e l’azienda si
deve preoccupare di avere delle fonti di approvvigionamento aggiuntive, in Italia e all’estero.
Chiaramente alla Ferrero non importa solo della produzione della nocciola, ma soprattutto che
questa sia di qualità in modo tale da garantire redditi elevati agli agricoltori. Questo significa avere
una visione anche del benessere dei propri fornitori.

Nel 1956 Ferrero ebbe la sua prima avventura all’estero, in Germania, con una strategia di
coinvolgimento di locali, perché i locali non sono solo i dipendenti della Ferrero ma sono anche i
consumatori e i migliori testimonial dei prodotti della Ferrero. Nasce la pralina Mon Chèri,
cioccolatino che racchiude una ciliegia, che si afferma sul mercato tedesco e non solo.

Mentre Pietro Ferrero era più attento ai nuovi prodotti, Michele era più attento agli impianti e alla
comunicazione, e si inventò molti modi per attirare soprattutto i più piccoli.

Sarebbe normale che un’azienda della dimensione della Ferrero sia quotata in borsa, ma il processo
di accrescimento del capitale sociale è avvenuto in modo tale che la famiglia ha sempre potuto
seguire la dimensione dell’impresa, cioè ha avuto una condotta tale da poter capitalizzare all’interno
del Paese, ma questa è solo un’anomalia che però può essere un punto di forza cioè l’indipendenza
e l’autonomia della Ferrero.

7)Il caso dei Fratelli Wright→Questo caso tocca caratteristiche tecnologiche. Nel 1892 si ebbe lo
sviluppo delle biciclette modello penny-farthing, con la ruota davanti molto grande, ma presto si capì
che quella ruota grande, che serviva a far mantenere elevato il momento d’inerzia, poteva essere
rimpiccolita, creando una bicicletta più confortevole, che è quella che usiamo tuttora.

I fratelli Wright sono dei meccanici, che aprono a Dayton un negozio di biciclette, che non è una loro
innovazione ma sono in grado di costruirle e progettarle. Apportano anche dei miglioramenti come
il freno contropedale. Iniziano a prendere dimestichezza con i sistemi di distribuzione a catena, per
mettere a moto le biciclette.
Costruiscono anche aquiloni, che fanno sempre più grandi fino a creare il primo aliante che ha una
struttura particolare: due ali collegate da elementi verticali.

A un certo punto li viene l’idea che è possibile mettere a bordo di un aliante una persona. Ma c’è il
problema del controllo, se non c’è il motore. Qui si apre il punto fondamentale. Per cercare di
controllare l’aliante avevano messo a punto un sistema secondo cui la possibilità di ruotare il veicolo
attorno all’asse principale, lo consentivano svergolando le ali. Essendo costruttori di aquiloni, per
loro era sensato deformare l’ala: svergolando l’ala si svergolava il profilo alare e si creavano delle
spinte che facevano ruotare le ali attorno all’asse.

Nel 1903 avviene il primo volo che dura più di 1 min. Wright Flayer è considerato il primo aeroplano
(macchina volante motorizzata più pesante dell’aria) ad aver eseguito un volo controllato, sostenuto
e prolungato con un pilota a bordo.

I Wright tentarono di vendere il Flayer III, quindi cominciano a fare alcune cose: cosa negativa è che
interruppero gli esperimenti pratici che non gli hanno permesso di apportare migliori al prodotto,
quindi hanno messo appunto il modello ma c’erano anche altri che stavano lavorando per costruire
macchine volanti.

Provano a venderlo alle forze armate americane ma non hanno interesse e perché non riescono a
capire il potenziale. Finché non ci fu l’interesse della Compagnie Generale del consorzio francese che
insieme a un corpo americano fanno l’acquisto di quale esemplare in versione biposto.

A questo punto nasce a Wright Company nel 1909. Nonostante ciò, la Wright company non è la
leader mondiale dell’aeronautica. Nel 1903 è stata rifiutata la domanda di brevetto, perché non
chiarisce in maniera univoca quali sono gli elementi di innovazione tecnica, riconosciuto poi nel
1906. Vengono compiute delle ingenuità: il brevetto si riferisce a un velivolo senza motore e si
focalizza sul sistema di controllo del volo che ritengono essere l’elemento originale della loro
invenzione. Svergolando l’ala si crea una reazione che consentiva il rollio (rotazione attorno all’asse
principale di rotazione). Ma questa tecnica non è utilizzata attualmente dagli aeri, i quali modificano
la superficie alare ma lo fanno agendo solo su delle parti non sull’intera ala svergolata. Su questo
tema si aprì un contenzioso giudiziario.

8)Il caso Larry Page e Sergey Brin→Entrambi dottorato di ricerca a Stanford. Sono gli inventori di
Google. Iniziale mente però non fu tutto roseo. Loro avevano chiara l’idea di sistematizzare le infinite
informazioni presenti sulla rete. Il termine “Googol” è il termine matematico per indicare un 1
seguito da 100 zero. L’uso di questo termine riflette la missione dell’azienda. Loro, quindi, avevano
l’idea ma non disponevano della tecnologia necessaria per raggiungere l’obiettivo.

Il fatto che loro non sapessero molto bene cosa fare è una caratteristica delle imprese fortemente
innovative. Più e radical l’innovazione, più il contesto tende ad essere disallineato, tende a non
comprendere l’innovazione. Si parla di break through: non riesco ad essere finanziato, non trovo
bravi talenti; si ha difficoltà a sviluppare l’impresa!

Oggi Google è una multinazionale pubblica, cioè con un capitale diffuso. Sono riusciti ad organizzare
le informazioni sulla rete. Queste sono imprese che vivono di esternalità di rete, senza una grande
dimensione non vivono.

Nel 1995 si incontrano a Stanford, hanno questa idea e nel 1997 creano un primo prototipo. È in
grado di spiegare ciò che Google vuole fare. Anche loro poi finiscono nella Silicon Valley.

Nel 1999 trovano il primo cliente interessato alle loro informazioni.

Oggi hanno delle performance spaventose, hanno fabbriche al cui interno ci sono server in grado di
svolgere le attività di ricerca, sono sparse nel mondo. Devono essere estremamente veloci nella
processazione delle ricerche. I tempi di risposta sono bassissimi in qualunque parte del pianeta e
questa è una caratteristica che dà successo ad una startup.

Ci sono aspetti su cui riflettere…Per fare una ricerca su Google dobbiamo consumare un sacco di
energia, molte delle informazioni sono inutili e impegnano un sacco di risorse, quindi entra in gioco
il concetto di sostenibilità energetica/ambientale… inoltre, questi sistemi sono vulnerabili, se
all’improvviso dovesse spegnersi Google avremmo molti problemi, infatti chi fa questo business deve
sapere a cosa va incontro.

9)Il caso Amazon→È un business cresciuto con una rapidità impressionante. È nato nel 1994. È una
startup che ha una base nel mondo digitale. Jeff Bezos era un socio e presidente di un’azienda che
operava a Wall Street nel mondo della finanza. Si trasferisce a Seattle e inizia a studiare una startup.

Bezos ha chiaro che grazie ad internet un’impresa può effettuare una categorizzazione di oggetti da
vendere attraverso questo canale. Voleva creare un book di prodotti online. Osserva che non si
poteva vendere tutto: inizia un processo di selezione di prodotti da vendere online, una 20ina; di
questa 20ina ne seleziona i più promettenti, video, libri, computer hardware e software, e compact
discs. Infine fa un’ultima selezione: vende online i libri per la grande domanda nel mondo, per il
basso prezzo unitario e per il grande numero di titoli disponibili nel mondo. Questo è l’inizio del
grande business. Ovviamente non tutto fila liscio: la vendita online non era abitudine, quindi anche
questa è una innovazione radicale.

All’inizio chi finanzia una startup? Si parla delle 3F: Family, Friends, Fools. Inizialmente non ci fu
profitto tanto che non si pensava ad un futuro per questa azienda. Questo fino al 2001. Dopo di che,
con il passare del tempo, a partire dal 2007 principalmente, c’è il boom di profitti e impiegati. Nel
2019 il fatturato è stato di 280 miliardi di dollari.

Questo è un vero esempio di business che scala. Si parla di scale-up: all’inizio sono tutte startup ma
solo quelle che hanno un grande potenziale possono fare scale-up.

10)Il caso SpaceX→Fondata nel 2022 da Elon Musk con l’obiettivo di ridurre i costi di trasporto
spaziale per la colonizzazione di Marte. È un’azienda manifatturiera aerospaziale statunitense e di
servizi di trasporto spaziale con sede a Hawthorne (CA).

Arriva nel campo aerospaziale con tanti soldi, ha un’elevata capacità di investimento grazie a startup
del passato. L’obiettivo con cui arriva e che si è posto subito faceva paura anche alla NASA:
colonizzare Marte. Elon Musk è un visionario. Ha realizzato lanciatori, costellazioni di satelliti
Starlink, Dragon cargo spacecraft, trasporto umano.

Ha conseguito risultati strabilianti:

- Primo razzo privato a propellente liquido posto in orbita (Falcon 1 nel 2008)
- Prima azienda privata a lanciare, porre in orbita e recuperare uno spazioplano (Dragon nel
2010)
- Prima azienda privata a inviare uno spazioplano alla ISS (Dragon nel 2012)
- Primo decollo e atterraggio verticale con motore acceso per un razzo orbitale (Falcon 9 nel
2015)
- Primo riutilizzo di un razzo orbitale (Falcon 9 nel 2017)
- Prima azienda privata a lanciare un oggetto in orbita attorno al Sole (Falcon Heavy con una
Tesla Roadster nel 2018)
- Prima azienda privata a inviare astronauti in orbita e alla ISS (Crew Dragon Demo-2 mission
nel 2020)

Con la SpaceX i razzi sono costruiti in serie, perché ormai c’è una grande domanda. C’è un sovrapporsi
di innovazioni.
Il cambiamento portato da Elon Musk è molto più forte del cambiamento portato da Ford, con il
fordismo. Per studiare questi casi non si studiano i successi, ma gli insuccessi, il modo con cui ha
industrializzato gli indicenti learning by failure.

Big problem/risk→Big opportunity: se non si corrono grandi rischi difficilmente si hanno grandi
opportunità. L’entità del rischio è correlata alle grandi opportunità.

LEZ 9: 20/10/2023

INDICATORI DI INNOVAZIONE

L’innovazione è fondamentale nello sviluppo, ed è una delle determinanti dello sviluppo economico,
sociale e territoriale. Studiamo l’innovazione in ambito macroeconomico. Vediamo come misurare
innovazione, competitività e sviluppo a livello macro. Vogliamo studiare gli effetti che l’innovazione
ha sul sistema economico. Tornando allo schema, a livello macroeconomico siamo interessati a
capire come l’innovazione, attraverso la competitività, si traduce in sviluppo. Nel fare questo,
sapendo cos’è ormai l’innovazione, dobbiamo imparare a misurare sia l’innovazione, sia la
competitività, sia lo sviluppo. Misurare l’innovazione è una sfida che Nazioni e Regioni si pongono
per studiare la competitività. Vogliamo esaminare a livello di Paese (Stato o Regione) il livello di
innovazione per capire se un paese ha una capacità innovativa oppure no→se un territorio (Nazione
o Regione o anche imprese) non è innovativo, non sarà competitivo e quindi non riuscirà a generare
lo sviluppo desiderato e quindi prima o poi fallirà. Si tende a guardare l’innovazione come un fatto
mediatico; in realtà l’innovazione deve concretizzarsi in vantaggio competitivo→proprio per questo,
i Governi tendono ad incentivare l’innovazione, perché sanno che questo genera sviluppo. Se gli
incentivi non dovessero esserci più, però, anche lo sviluppo verrebbe meno. Il finanziamento
pubblico è un incentivo finalizzato a correggere tutte quelle dinamiche del mercato che per loro
natura rendono l’imprenditore avverso al rischio nel suo agire (il finanziamento non serve per
“pagare” l’innovazione, serve per ridurre l’avversione al rischio). Imprese che non innovano, non
vengono finanziate→le imprese ovviamente sono interessate all’incentivo, quindi fanno
innovazione.

INNOVAZIONE: implementazione di un nuovo o significativamente migliorato prodotto (bene o


servizio), o processo, metodo di marketing, o un nuovo metodo di organizzazione delle pratiche di
business, relazioni esterne (definizione della OECD).

Per misurare l’innovazione adotteremo una metodologia sviluppata dall’Unione Europea: parleremo
di EUROPEAN INNOVATION SCOREBOARD (EIS) e REGIONAL INNOVATION SCOREBOARD (RIS), e
sono i due indicatori di innovazione fondamentali→il primo misura l’innovazione a livello europeo,
il secondo misura l’innovazione su scala regionale.

L’Unione Europea fa misure statistiche sull’innovazione per ciascun Paese e per ciascuna Regione
dell’Unione. In più, per essere utile dal punto di vista del benchmarking (confrontarsi con Paesi e
Regioni migliori), questa analisi si estende anche ad altri Paesi NON appartenenti all’UE (Cina,
Canada, Russia, Corea del Sud…)→valutiamo così paesi con lo stesso metodo di riferimento. Questo
è stato fatto dall’UE per studiare l’innovazione e sfruttare queste misure sia per capire se le politiche
adottate sono efficaci, sia per modificare le politiche per renderle più efficaci. È l’unione di un’analisi
statistica tradizionale (valutazione dell’efficacia) e di una modifica in corso d’opera!

EIS: EUROPEAN INNOVATION SCOREBOARD

L’Unione Europea produce un report annuale sull’EIS, che permette di effettuare un assessment
comparativo sulle performance di ricerca ed innovazione dei vari paesi dell’UE e di alcuni paesi di
riferimento non membri dell’UE.

Questo indicatore permette agli enti governativi di valutare i punti di forza e i punti di debolezza dei
sistemi nazionali di ricerca ed innovazione degli stati membri, tracciarne i progressi ed identificare
le priorità da perseguire per incrementare le performance di innovazione.

L’EIS riguarda gli stati membri e altri stati dell’Europa come Islanda, Israele, Montenegro, Macedonia,
Norvegia, Serbia, Svizzera, Turchia, Ucraina e Regno unito. Coinvolge anche molti altri stati che non
fanno parte nemmeno dell’Europa allargata (Australia, Brasile, Canada, Sud Corea…), questo perché,
se voglio analizzare la capacità innovativa dei Paesi dell’UE, devo anche conoscere e misurare con lo
stesso criterio la capacità innovativa di altri Paesi.

Come funziona? Ciascun indicatore viene valutato tramite un punteggio. Alla fine si ottiene un
indicatore unico, normalizzato fra 0 e 100, indicativo del punteggio del Paese in innovazione.
Chiaramente, per ottenere una misura affidabile, è necessario fare riferimento ad indicatori che sono
più analitici, ed è lì che il tema diventa molto interessante, perché bisogna essere sufficientemente
accurati e ricercare qualsiasi aspetto da misurare legato all’innovazione.

Si costruisce questo framework, composto da una pluralità di indicatori (ciascuno con lo stesso peso),
che con una metodologia vengono ricondotti ad un indicatore sintetico. Da circa 32 indicatori, per
ogni Paese si arriva a costruire l’indicatore sintetico per ogni Paese. C’è un processo, che è stato
validato dal punto di vista metodologico, e che si modifica nel tempo→ci si è resi conto che alcune
componenti dei processi innovativi non venivano ancora rappresentate dagli indicatori esistenti, e
quindi se ne sono aggiunti altri! Un esempio è quello della recente aggiunta di tutte le spese di
innovazione NON legate alla R&S, che prima non venivano considerate e si sono ritenute importanti
solo dopo.
Tutti gli indicatori confluiscono in una misura, e la lista di indicatori è in continuo aggiornamento
→l’obiettivo è avere statistiche ufficiali ed affidabili al fine di poter ritenere valido il calcolo
dell’indicatore specifico.

Si sono individuati 4 ambiti generali nei quali si collocano i diversi indicatori per misurare
l’innovazione. Ciascun indicatore poi si poggia su una serie di variabili statistiche che sono
fondamentali per il calcolo dell’indicatore stesso, perché sono correlati all’indicatore (questo si
deduce da analisi di correlazioni che vengono fatte ex-ante all’inserimento della variabile
nell’indicatore)! Vediamo gli ambiti generali e gli indicatori:

• FRAMEWORK CONDITIONS: le condizioni “strutturali”, che sono favorevoli e rendono floridi


i percorsi di innovazione. Qui troviamo: le risorse umane, che devono essere qualificate per
fare innovazione; sistemi di ricerca attrattivi; digitalizzazione, perché avere una certa
familiarità di trattare processi digitalizzati favorisce l’innovazione. Per l’indicatore risorse
umane esamino le variabili statistiche: numero di dottori di ricerca nelle facoltà tecnico-
scientifiche, popolazione tra 25 e 34 anni con educazione di terzo livello (laurea o dottorato)
e la presenza nel Paese di attività di apprendimento durante tutta la vita (lifelong learning).
Per l’indicatore sistemi di ricerca attrattivi le variabili sono: co-pubblicazioni scientifiche
internazionali, numero di pubblicazioni presenti nella top 10% delle pubblicazioni più citate
(vedo quante pubblicazioni quel paese ha nel top 10% delle pubblicazioni più citate→più ce
ne sono, più il paese fa attività innovative, più quel paese ha un sistema di ricerca con
scienziati top e quindi è più attrattivo) e numero di studenti dottorati stranieri (perché vuol
dire che questi studenti sono venuti nel Paese per fare ricerca, e quindi è attrattivo→se i
nostri studenti vanno all’estero contribuiscono all’attrattività del paese esterno). Per
l’indicatore digitalizzazione le variabili sono: penetrazione della banda larga nel paese e
livello di skills digitali degli individui (quanto la popolazione ha competenze digitali).
• INVESTIMENTI: si articolano in tre indicatori: finanza, investimenti delle imprese e uso delle
tecnologie informative. L’indicatore finanza ha diverse variabili: spese in R&S, spese dei
Venture Capital (coloro che entrano nel capitale sociale delle startup, finanziandole→più un
paese finanzia le startup, più è innovativo) e finanziamento dei governi alla R&S delle
imprese; l’indicatore investimenti delle imprese ha le seguenti variabili: spese di R&S nel
business, spese di innovazione non legate alla R&S e così via (non li vedremo tutti)
• ATTIVITA’ DI INNOVAZIONE: si articola in 3 indicatori: numero di innovatori, collaborazioni
e asset intellettuali (marchi, design, brevetti).
• IMPATTI: ha diversi indicatori: impatto sulle vendite, impatto sull’impiego, impatto sulla
sostenibilità ambientale. Importantissimo questo ambito→per esempio, una variabile
dell’impatto sulle vendite è il numero di esportazioni per prodotti medium/hi-tech (un
prodotto è hi-tech se la componente di spesa di R&S supera il 3% del fatturato)

Questo metodo valuta una moltitudine di indicatori selezionati in modo che siano oggettivi e colgano
la valutazione complessiva della capacità innovativa, e alla fine di tutta questa valutazione si fa una
media ponderata e si ottiene un unico indicatore, di valore compreso tra 0 e 1 (o tra 0 e 100). Si
tenga presente che ogni indicatore ha lo stesso peso.

Sulla base dell’indicatore sintetico di innovazione, l’UE classifica i paesi in 4 categorie in base al valore
dell’indice rapportato al valore medio dell’Europa:

• Innovation leaders: con indice elevato→ hanno rispetto alla media europea degli innovatori,
un valore superiore del 125% (Belgio, Danimarca, Finlandia, Svezia e Olanda);
• Strong innovators: hanno un valore tra il 125% e il 100% rispetto alla media europea (Austria,
Francia, Germania, Irlanda, Lussemburgo, Paesi Bassi, Irlanda);
• Moderate innovators: tra 70% e 100% (Estonia, Grecia, Italia, Lituania, Malta, Portogallo,
Slovenia e Spagna, Ungheria) della media Europea;
• Modest/emerging innovators: sotto il 70% (Bulgaria, Croazia, Lettonia, Polonia, Romania e
Slovacchia) della media europea.
Quindi se volessimo costruire un nuovo centro di R&S dove vado? Beh, ovviamente vado verso gli
innovation leaders, perché sono più propensi all’innovazione!

Gli indicatori sono usati non solo per misurare e comparare ma anche per valutare gli effetti delle
politiche di innovazione dei diversi Paesi. Servono quindi a monitorare ed implementare politiche di
innovazione.

L’EIS 2023 ha prodotto anche i risultati per i paesi NON membri dell’UE, ed è una situazione molto
importante e da analizzare

LEZ 10: 25/10/2023

Qui vediamo le
performance dei
vari Paesi→la
barra colorata
indica il valore
dell’indice di
innovazione al
2023, il trattino
superiore è il
valore al 2022, mentre la barra piena grigia si riferisce al valore del 2016. Qui, mentre per gli
innovation leaders e per gli strong leaders grossomodo i valori si stanno mantenendo rispetto al
2022 (addirittura alcuni paesi come Cipro hanno un notevole miglioramento rispetto al 2016), alcuni
paesi hanno avuto delle flessioni negative (tra cui, purtroppo, l’Italia). Sono tipicamente quei paesi
che hanno vissuto delle crisi e di conseguenza l’innovazione ha risentito (e risentirà) di ciò.

Se rapportiamo gli indicatori rispetto alla media europea (la barra blu), ci accorgiamo come l’Italia
sia effettivamente un moderate innovator, perché performa al di sotto della media Europea. Al 2023
la Danimarca è la top innovator (la migliore tra gli innovation leaders)

Quest’altro grafico, invece, ci fa capire cosa succede nel mondo in termini di innovazione, grazie al
fatto che l’EIS permette di valutare l’indicatore anche per paesi non membri dell’UE e paesi non
facenti parte del continente europeo!

In questo grafico vediamo una rappresentazione particolare delle dinamiche di cambiamento:


sulle ascisse abbiamo il cambiamento dell’indice di innovazione fra il 2014 e il 2021→rileviamo che
c’è stato un incremento del 12% nella media europea. Se guardiamo invece l’indice di innovazione
dal 2014 al 2021 (sulle ordinate), vediamo che la media europea si è mossa, con un miglioramento
di circa 10-12%. Prendiamo il caso della Svezia: ha performato in termini di miglioramento, di % di
cambiamento, migliorando il proprio indicatore del 16% circa, e ci sono paesi come Cipro che hanno
performato meglio (ha incrementato del 34% il proprio indicatore); se guardiamo invece il livello
dell’indicatore, l’Italia è sotto il valore medio europeo mentre la Svezia è sopra tutti gli altri paesi e
ha l’indicatore migliore fra tutti. La Svezia, infatti, è stata fino al 2021 in testa all’indice di innovazione,
e solo nel 2022 è stata superata dalla Danimarca, che è tutt’ora la TOP INNOVATOR.

Questo grafico quindi ci ha permesso di capire sia le dinamiche in termini di


cambiamento/miglioramento sia in termini di posizionamento dell’indicatore rispetto alla media.

In questo grafico invece possiamo paragonare l’Europa (il pallino blu) al resto del mondo. Il grafico
ha gli stessi assi di quello precedente, e le linee tratteggiate sono i valori medi Europei di
cambiamento e indice di innovazione. La Cina è quella che, insieme alla Corea del Sud, ha avuto il
miglior cambiamento % dell’indice di innovazione→il mondo Orientale sta decisamente migliorando
in termini di capacità innovativa. Anche gli USA performano meglio della media europea, ma sono
dietro rispetto all’Oriente! Poi ci sono altri paesi che performano peggio in termini di cambiamento
rispetto all’Europa: parliamo di Russia, Canada, Brasile ed Australia→stanno accumulando dei ritardi
in termini di indice di innovazione. Sulle ordinate, quindi per l’indice di innovazione, domina la Corea
del Sud insieme a Canada e USA, che performano meglio dell’Europa.

Questo grafico ci permette subito di fare ragionamenti strategici, perché ci permette subito di
cogliere le dinamiche dei cambiamenti nella capacità innovativa dei diversi paesi, oltre che di avere
delle informazioni immediate sulla posizione dei vari paesi in termini di innovazione nel mondo. Il
grafico va letto in termini relativi: l’Europa ha una % di cambiamento rispetto all’Australia, che però
ha un indice di innovazione superiore. Il fatto che però la % di cambiamento sia superiore, ci
suggerisce che in un certo numero di anni l’Europa raggiungerà il valore dell’Australia, che avendo
una % di cambiamento più bassa, ha un “ritardo” rispetto alla media europea. Ecco cosa significa
ragionare i termini relativi: rapportare la posizione di innovazione dei diversi paesi, considerare le %
di miglioramento, ossia le “velocità” con le quali i paesi fanno innovazione, e rapportarle
relativamente agli altri paesi (o anche rispetto alla media europea), per vedere chi “corre” di più e
fare inferenza su quali saranno gli scenari futuri di innovazione. La Cina, quindi, che ha adesso un
indice di innovazione più basso della media Europea, crescerà vertiginosamente perché ha una % di
miglioramento elevatissima, quindi nei prossimi anni sicuramente arriverà al pari di USA e Corea,
superando l’UE, perché questi paesi hanno accumulato un ritardo rispetto alla Cina→più un paese è
“verso destra”, più riesce a migliorare in % negli anni il proprio indice di innovazione, quindi più
velocemente “salirà” e quindi aumenterà il proprio indice di innovazione e quindi migliorerà la
propria posizione di innovazione.
Le dinamiche di innovazione del mondo orientale (Cina, Corea e Giappone) sono state molto
importanti! Dal 2014 al 2021 questi Paesi hanno subito un notevole miglioramento in % dell’indice
di innovazione. Attenzione però: queste dinamiche di cambiamento vanno sempre interpretati nella
loro completezza, perché in base all’anno dal quale si misura il miglioramento %, si possono avere
risultati notevolmente differenti!

In ogni caso, possiamo affermare con certezza che la Cina si affermerà come leader di innovazione
nei prossimi anni

RIS: REGIONAL INNOVATION SCOREBOARD

Questo secondo indicatore è stato creato proprio a causa del fatto che i Paesi, al loro interno, sono
fortemente eterogenei a livello regionale in termini di innovazione: basti pensare alle diverse regioni
Italiane. I paesi NON sono omogenei internamente, e queste differenze sono importanti perché
aiutano a capire come ogni regione può fare delle politiche regionali ad hoc per cercare di rafforzare
quei particolari valori che entrano nel calcolo dell’indicatore di innovazione e migliorare le proprie
performance innovative. Il RIS è quindi un’estensione a livello regionale dell’EIS, che permette di fare
un assessment delle performance di innovazione delle regioni europee, usando un numero ridotto
di indicatori rispetto a quelli usati nell’EIS.

L’ultimo report del RIS presenta un’analisi comparativa di 239 regioni appartenenti a 22 paesi
europei, unite anche alle regioni di paesi extra UE ed Europa come Norvegia, Serbia, Svizzera e Regno
Unito. Alcuni Paesi come Estonia, Lettonia, Cipro e Lituania vengono considerati come un’unica
grande regione. La metodologia statistica impiegata, non fa più riferimento ai 32 indicatori usati
nell’EIS, ma riduce a 21 il numero di indicatori, ritenuti quelli validi a valutare le performance
innovative delle regioni.

Le regioni europee vengono classificate in 4 gruppi di performance tramite il calcolo dell’indice di


innovazione regionale:

• Innovation leaders;
• Strong innovators;
• Moderate innovators
• Emerging innovators.

Delle 239 regioni, ben 211 hanno avuto un miglioramento; quindi, è presente una dinamica
innovativa importante. Dall’altro lato, le regioni più innovative tendono ovviamente a trovarsi nei
paesi più innovativi (Svezia, Danimarca, Finlandia). Ma questo non esclude che ci siano regioni più
innovative anche in paesi meno innovativi (come l’Italia)→”pockets of excellence”.

Le regioni più innovative in Europa sono: Hovestaden in Danimarca, l’area di Helsinki in Finlandia, la
Baviera in Germania e l’area di Berlino in Germania, l’area di Stoccolma in Svezia. Queste sono le
regioni che “aprono le piste” dell’innovazione, in cui le frontiere tecnologiche sono in rapida ascesa.

Questa è una mappa che ci descrive le diverse regioni europee classificate in base al RIS. Una
curiosità: la regione italiana più innovativa non è la Lombardia! Ci sono Friuli, Veneto ed Emilia-
Romagna! Ovviamente per le regioni le colorazioni sono “fluide”, quindi si hanno gradazioni
differenti nello stesso gruppo di performance: questo vuol dire che, ad esempio, ci sono diverse
regioni che sono moderate innovators, ma magari qualche regione “sta meglio” rispetto alle altre ed
è più vicina al gruppo superiore. Ci accorgiamo come poi, molti paesi che sono strong innovators o
innovation leaders, fondano il loro successo innovativo su poche (anche spesso una sola) regione
fortemente innovativa, e quindi presentano una fortissima dispersione interna in termini di capacità
innovativa. Tranne rari casi come l’Inghilterra e la Finlandia, non ci sono paesi omogenei dal punto
di vista innovativa. La Francia, ad esempio, ha come unica regione leader l’ile-de-France, mentre
tutte le altre regioni sono moderate od emerging innovators!

Questi sono gli indicatori utilizzati per il calcolo del RIS:

Soffermiamoci sulla situazione italiana: le regioni sono catalogate tramite un codice alfanumerico,
detto “NUTS”. Ad esempio, la Puglia ha codice ITF4. Vedere i valori del RIS e rifletterci su, considerato
che sono anche presenti il rank relativo rispetto alle altre regioni europee e la percentuale di
cambiamento.

La Puglia, a nostro malgrado, è un moderate innovator, e tra i moderate innovator si trova nella fascia
bassa, è nella seconda metà delle regioni europee per ranking ed ha un tasso di miglioramento delle
performance di innovazioni medio-basso. Ci sono fortunatamente alcune regioni italiane molto
performanti come quelle del nord e la Campania.
INDICATORI DI COMPETITIVITA’

Vediamo adesso come si misura la competitività. Vedremo quali sono gli indicatori che a livello macro
permettono di valutare la competitività. La nostra idea è sempre quella di spiegare le dinamiche
macroeconomiche che legano innovazione e competitività.

Come misuriamo la competitività?

Non c’è un indicatore semplice, un numero, che la misura, come per l’innovazione. Quindi, dobbiamo
trovare anche qui un indicatore aggregato di altri indicatori analitici, misurare i diversi indicatori
analitici e tramite essi risalire al valore dell’indicatore aggregato, ottenendo una proxy della
competitività!

Quindi: in base a quali ragionamenti è possibile definire la competitività di una Nazione? Porter, nella
sua opera “il vantaggio competitivo delle Nazioni”, dice che la prosperità/ricchezza delle Nazioni è
qualcosa che si crea e non si eredita→una Nazione può anche essere ricca di risorse naturali ecc.,
ma questo non porta ricchezza! La ricchezza si genera attraverso l’azione degli individui della
Nazione. Inoltre, Porter sostiene che la competitività di una Nazione dipende dalla sua capacità di
innovare e migliorarsi! C’è un legame tra la competitività e il processo di trasformazione delle
industrie, che porta al miglioramento e all’innovazione della Nazione stessa. Nella visione
Porteriana, la prosperità si crea, e per fare ciò il Paese deve essere competitivo perché solo così
riesce a migliorare e trasformare il proprio apparato produttivo, innovando.

Ci sono due scuole di pensiero che ci aiutano ad arrivare a misurare la competitività di un Paese:

• La prima scuola di pensiero è la IMD: International Institute for Management Development.


Collocata a Losanna, si occupa di misurare la competitività delle Nazioni, producendo un report
annuale, l’IMD World Competitiveness, nel quale viene pubblicato il ranking delle Nazioni in
base alla loro
competitività. Questa
analisi è meno
convenzionale rispetto alla
seconda che vedremo.
Fornisce un ranking della
competitività dei Paesi in
maniera esaustiva e che
permette anche di esaminare l’evoluzione temporale della competitività dei Paesi. L’IMD ragiona
in un modo molto semplice: da oltre 30 anni, il centro di ricerca dell’IMD si è occupata di studiare
come le imprese competono e anche come i sistemi-Paese competono→l’obiettivo è quindi
valutare la competitività del paese sia a livello macro sia a livello della singola impresa. L’IMD è
consapevole del fatto che la competitività sia la base della prosperità futura. Questo centro, poi,
sviluppa e affina continuamente le proprie valutazioni ed offre consulenze ai diversi Paesi. L’IMD
produce un libro annuale, l’IMD World Competitiveness Yearbook. Questo libro non si basa solo
su analisi statistiche, ma anche su delle indagini tramite questionari per avere risposte che
meglio consentono di avere chiarezza sulle dinamiche competitive. La loro attenzione si
concentra sul fatto che la competitività è costruita su competenze, e come esse stesse
costituiscono la base per la prosperità a lungo termine. Ancora, la competitività non è un
concetto strettamente economico, e va valutata guardando in maniera molto ampia il paese,
valutandone gli aspetti politici, sociali e culturali (e su questi aspetti l’analisi non quantitativa
tramite questionari risulta fondamentale). L’IMD guarda anche con molta attenzione a come i
governi costruiscono le basi e gli ambienti favorevoli ad uno sviluppo competitivo: un paese è
tanto più competitivo quanto più il paese agevola la competitività tramite infrastrutture
(struttura stradale, ferroviaria ecc.), istituzioni forti (sistemi produttivi, logistici ecc.), politiche
efficaci→per l’IMD non c’è un solo indicatore, ci sono tanti criteri da valutare per misurare la
competitività! L’IMD ad oggi valuta 64 Paesi diversi tramite oltre 300 criteri di valutazione della
competitività (sforzo informativo rilevante), e questi criteri vengono revisionati ed aggiornati
regolarmente non appena nuove informazioni e dati diventano disponibili e man mano che
l’economia globale segue la sua naturale evoluzione. Per l’IMD, Irlanda, Danimarca e Svizzera
sono i top 3 paesi in termini di competitività nel 2023. Curiosa anche la correlazione con i dati
relativi all’innovazione che abbiamo visto!
• La seconda scuola di pensiero è quella del WORLD ECONOMIC FORUM: questa istituzione
internazionale fa molte attività e viene finanziata da molte imprese. È quella che annualmente
fa gli incontri a Davos in cui si discute di politica ed economia. Il WEF dichiara che per il singolo
paese la competitività è definita dall’insieme delle istituzioni, delle politiche e dei fattori che
determinano il livello di produttività di un Paese. Il livello di produttività, poi, definisce il livello
di prosperità che può essere raggiunto da un Paese attraverso la competitività. Quindi, i concetti
fondamentali sono gli stessi dell’IMD, ed evidenziano il legame tra sviluppo, produttività,
prosperità e quindi competitività. Il WEF pone l’enfasi su come le istituzioni e le politiche
influenzino la produttività. La produttività, influenza la prosperità del paese, perché rende
automaticamente più competitivo il Paese. Il WEF ragiona così: è una struttura internazionale
finanziata dalle imprese, è un soggetto indipendente. Il WEF sa che la prosperità dipende dalla
competitività e viceversa. Il WEF, però, non parla solo di competitività e prosperità→il WEF parla
anche di innalzare il benessere dei cittadini. Molto inusuale che sia un ente economico a dire
ciò! Quello che conta, però, è che a influenzare la prosperità non sia solo la competitività (e
quindi istituzioni, politiche e fattori), ma sia anche il concetto di BEENESSERE. Evidenziare il
benessere ci fa riflettere su una cosa: un’eccessiva competitività fa bene al benessere dei
cittadini? Assolutamente no!
Anche il WEF ha il suo report, il Global Competitiveness Report. Il problema è che l’ultimo report
risale al 2019, prima del COVID! In ogni caso, questo report fino al 2019 ha presentato un’analisi
basata su una metodologia che integra dati statistici internazionali e una serie di indagini
qualitative tramite questionari, fatte con gli executives (i manager delle grandi imprese). Il report
si estende a 141 Paesi, quindi è più ampia di quella fatta dall’IMD, e permette di avere una chiara
idea sui drivers che influenzano la produttività e la prosperità dei Paesi. Il WEF usa 103 indicatori
per ottenere il Global Competitiveness Index. I 103 indicatori sono suddivisi in 12 pillars:
Quindi, in un paese, il WEF valuta: istituzioni,
infrastrutture, dotazione ICT, stabilità
macroeconomica, salute, skills (hard e soft), i
mercati commerciali (beni e servizi), mercato del
lavoro, sistema finanziario, dimensione del
mercato nazionale, dinamiche del business (e del
mondo delle imprese) e capacità di
innovazione→nel valutare la competitività entra
la capacità di innovazione, ma essa è solo UNA su
12 pilastri differenti! La competitività è sì
influenzata dall’innovazione, ma NON SOLO
DALL’INNOVAZIONE! Un’impresa o un Paese è competitivo non solo se innovativo, ma anche per
tutti quegli altri fattori che contribuiscono alla competitività. Il WEF suddivide questi 12 pilastri
in categorie che costituiscono il framework del Global Competitiveness Index: i fattori abilitanti,
il fattore umano, il fattore dei mercati, e l’ecosistema dell’innovazione.
Questi fattori sono fondamentali, perché permettono ad un investitore estero di valutare in quale
Paese effettuare il proprio investimento. L’investitore estero, che deve decidere dove allocare
svariati milioni di euro, deve valutare con molta attenzione le caratteristiche di un Paese. Questo
framework fornisce un’istantanea della situazione competitiva del Paese. Questa valutazione
sulla competitività si unisce alle valutazioni fatte con l’EIS e il RIS circa la capacità innovativa del
paese, per capire qual è il Paese migliore per l’investimento. Quindi questi indicatori (di
innovazione e di competitività) hanno una finalità di analisi, e una finalità di supporto al
processo decisionale→aiutano sia l’investitore a scegliere in quale paese investire, e aiutano
anche il paese stesso a capire dove migliorare per migliorare la propria competitività.

LEZ 11: 26/10/2023

Siamo interessati a capire come l’innovazione entra a far parte della competitività: sappiamo
esserci una relazione forte tra questi due concetti, ma, nonostante ciò, abbiamo visto che ci sono
ben altri 11 pilastri ad influenzare la competitività. Nonostante siano tutti rilevanti, possiamo
affermare che l’innovazione sia una componente rilevante della competitività. Analizziamo nel
dettaglio i due pilastri della categoria innovation ecosystem:
PILASTRO 11: BUSINESS DYNAMISM→in questo pilastro il WEF parla di: costo per iniziare un
business (un paese è dinamico dal punto di vista del business se ha dei costi per l’avvio di
un’attività d’impresa che sono facilitatori dell’avvio stesso→un paese è competitivo se è
relativamente facile avviare un’iniziativa imprenditoriale); tempo per iniziare un business
(quanto tempo deve passare affinché l’impresa possa nascere? Ci sono ostacoli burocratici per
avviare un’impresa?); tasso di recupero delle insolvenze (in quanto tempo riesco a recuperare i
crediti dai creditori?); framework regolatorio per la gestione delle insolvenze (come devo agire
se un creditore è insolvente? Quanto tempo devo aspettare?); attitudine verso il rischio
imprenditoriale (luoghi con maggiore propensione al rischio sono luoghi con maggiore
dinamicità imprenditoriale. Ricordiamo che il rischio porta sempre con sé la possibilità del
fallimento); crescita di imprese innovative (se ci sono imprese innovative nel territorio, esso è
più competitivo); capacità di affrontare idee dirompenti; managerialità (quanto i senior manager
delegano l’autorità? I contesti con poca cultura della delega sono caratterizzati da strutture
verticistiche e quindi minore disponibilità ad accettare il rischio e i processi innovativi)
PILASTRO 12: CAPACITA’ INNOVATIVA→in questo pilastro il WEF parla di: diversità della forza
lavoro; stato dello sviluppo del cluster (si valuta l’esistenza nell’ecosistema di filiere connesse,
non solo la presenza di fornitori, ma anche di eventuali relazioni di collaborazione tra fornitori e
produttore→lo sviluppo delle imprese è integrato da forme collaborative?); co-invenzioni
internazionali (ci sono invenzioni frutto di collaborazioni internazionali?); collaborazioni fra gli
stakeholders; pubblicazioni scientifiche; numero di brevetti; spese in R&S
Il ragionamento fatto dal WEF è sempre lo stesso: si parte da indicatori analitici facilmente
misurabili e si perviene alla misura di un indicatore aggregato rappresentativo della competitività
di un paese (tramite una media pesata in cui ciascun indicatore ha lo stesso peso).
Uno dei problemi fondamentali che affliggono la competitività è il seguente: la competitività
genera degli effetti? Il seguente studio rapporta l’indice di competitività globale (sulle x) col
reddito nazionale lordo pro capite (sulle y in scala logaritmica). Si vede effettivamente che al
crescere dell’indice di competitività cresce anche il reddito nazionale lordo dei paesi. Ci sono
alcuni paesi che però non hanno una perfetta correlazione, questo ovviamente perché nella
realtà la relazione non è perfettamente lineare. Nonostante ciò, se osservassi i coefficienti di
correlazione, mi accorgerei subito della presenza di un’effettiva correlazione per tutti i paesi. I
paesi europei e americani sono tutti ad un livello alto; quindi, hanno un buon livello di
competitività e un buon reddito nazionale pro capite. I paesi africani hanno invece una situazione
drammatica con bassa competitività e basso reddito pro capite. Ancora, i paesi con le
performance peggiori hanno anche la maggiore dispersione delle osservazioni, rispetto ai paesi
con le performance migliori…questo problema è da ricercarsi in cosa? È come se gli indicatori
utilizzati non fossero in grado di descrivere al meglio le condizioni dei paesi meno performanti,
e ciò causa un errore e una dispersione elevata dei dati.

Una causa di questa dispersione può essere la presenza di risorse concentrate in alcuni paesi, la
stabilità sociopolitica, la cultura e le usanze. Spesso, una diversità elevata di queste dimensioni
tra i diversi valori porta ad una varianza elevata nel reddito nazionale e quindi una forte
dispersione nei dati. Un’ultima questione: i paesi sono competitivi perché hanno un alto reddito
pro capite, o hanno un alto reddito pro-capite perché sono più competitivi? Visto che la
competitività favorisce lo sviluppo, sembrerebbe essere la seconda la risposta giusta, ma non
possiamo escludere anche il contrario. Entrambe le versioni hanno un fondo di verità.

Questo grafico descrive la posizione dei diversi paesi rispetto al best performer nei diversi pillar.
Soffermandoci sull’innovation capability, il best performer è all’85% circa, il peggior paese è un
paese africano, mentre l’Europa si posiziona verso il 60% e performa meglio di tutti gli altri
eccezion fatta per il best performer. Possiamo poi analizzare da soli le performance dell’Europa
nei diversi pillar! Ad esempio, nel business dynamism i dati sono molto più compatti→questo
perché i paesi più avanzati sono quelli più burocratizzati e quindi quelli più strutturati, perciò non
deve stupirci questo dato.
Il seguente grafico invece mostra come si piazza l’Italia nei diversi pillar: il dato molto
interessante è quello sulla salute, dove l’Italia ha un punteggio di 100/100 e si piazza al sesto
posto nel mondo nel pillar della salute! Quindi l’Italia è uno dei paesi più competitivi nel campo
della salute. D’altro canto, però, le performance sono basse nella stabilità macroeconomica e nel
mercato del lavoro, mentre sono buone nell’innovation capability→possiamo quindi valutare
ogni singolo paese e capire perché quel paese è competitivo. Grazie a questi dati possiamo capire
se conviene andare in un determinato paese, e soprattutto perché. Quindi l’Italia può essere
attrattiva grazie al suo ottimo sistema sanitario, ma pecca molto nel mercato del lavoro! Questo
ci serve per capire l’importanza dell’indicatore di competitività.

Anche per l’indice


di competitività, il
WEF propone un
indicatore su base
regionale: il
Regional
Competitiveness
Index. È
ovviamente
semplificato, non
ci sono più tutti i
pillars ma ci sono
11 pilastri (differenti, a sfondo regionale), divisi in 3 gruppi, ciascuno coi propri indicatori
regionali e nazionali.
INDICATORI DI SVILUPPO

Ormai sappiamo che, se c’è competitività, c’è sviluppo. Ma come misuriamo lo sviluppo? Ci verrebbe
istintivo suggerire il PIL come proxy dello sviluppo. Questo andrebbe bene se vogliamo sviluppare la
crescita economica! Ma se vogliamo parlare di SVILUPPO, la questione è più complessa: lo United
Nations Development Program definisce lo sviluppo come un concetto multidimensionale, che
include il progresso sociale, la crescita economica, l’uguaglianza, la partecipazione e la libertà, la
sostenibilità e la sicurezza degli individui. Questa definizione da una lettura ampissima del concetto
di sviluppo, ma che include tutte le componenti che interessano chi deve gestire e governare un
paese o una regione e garantirne lo sviluppo.

Quindi sorge una domanda: lo sviluppo è troppo esteso come concetto…allora noi cosa cerchiamo?
Ci interessa davvero lo sviluppo? Cosa vuol dire sviluppo? Sviluppo vuol dire crescita, ma cosa deve
crescere?

La parola sviluppo va associata a qualcosa: ecco perché parliamo di sviluppo economico, sviluppo
sociale ecc. → dello sviluppo si specifica sempre l’oggetto! L’UNDP parte dalla definizione di sviluppo
dell’individuo e da lì parte con la trattazione. Quindi cosa è lo sviluppo umano? L’UNDP fa un
ragionamento particolare. Quando si parla di sviluppo umano, si toccano una serie di dimensioni:
economia, efficienza, progresso sociale ecc. Ma soprattutto, per avere lo sviluppo umano, è
necessario che per ogni individuo si possa aumentare le possibilità di scelta→ho sviluppo umano
se quell’individuo ha maggiori possibilità di scelta! Questo ragionamento fu messo in piedi da
Mahbub ul Haq, il quale mise anche in piedi un sistema di misura dello sviluppo umano. Riuscì a
tradurre questi concetti nella misurazione di un indicatore dello sviluppo umano. Maggiori possibilità
di scelta permettono all’individuo di prendere la scelta per lui migliore. Più un paese è sviluppato,
maggiori sono le possibilità di scelta e quindi l’autonomia di scelta dell’individuo.

Questi ragionamenti hanno poi portato Amartya Sen a dare una definizione di sviluppo: secondo
Sen, infatti, lo sviluppo umano è l’avanzamento della ricchezza della vita umana (mette insieme
ricchezza e vita) piuttosto che della semplice ricchezza economica. Questa definizione spegne
definitivamente la vecchia idea di sviluppo legato ai concetti di ricchezza e crescita economica. A
volte lo sviluppo si ottiene non tramite ricchezza economica, ma tramite la ricchezza della vita
umana.

Ma quindi: è il modello di sviluppo economico che determina il futuro della società o c’è
qualcos’altro?
Come facciamo quindi ad arrivare all’indicatore di sviluppo? L’UNDP ha sviluppato lo HUMAN
DEVELOPMENT INDEX (HDI). È un indicatore di sviluppo che viene costruito su tre dimensioni,
ritenute le tre dimensioni principali dello sviluppo umano: salute, educazione e standard di vita.
Queste tre dimensioni, poi, si misurano tramite delle proxy: la salute si misura tramite l’aspettativa
di vita alla nascita; l’educazione tramite gli anni medi di istruzione e gli anni attesi di istruzione; gli
standard di vita si misurano tramite il reddito nazionale lordo pro-capite. Questo indicatore è
compreso tra 0 e 1 o tra 0 e 100

OSS: nell’ultimo report la dimensione educazione è diventata “conoscenza”, la dimensione salute è


stata modificata in “vita lunga e in salute” mentre la dimensione standard di vita è stata modificata
in “standard di vita dignitosi”. Quindi gli indicatori sono in continuo aggiornamento nel tempo.

L’HDI viene pubblicato nel report delle Nazioni Unite, che include anche altri indicatori:

LEZ 12: 02/11/2023

La misura deve essere semplice e attendibile. L’Human Development Index si ottiene attraverso una
media geometrica ed è un valore compreso tra 0 e 1 (o 0-100). Esiste un ufficio che si occupa della
redazione di un report sullo sviluppo umano. Questo ufficio non realizza più solo il report, ma anche
degli indicatori, che sono correzioni dello Human Development Index, che tendono a cogliere alcuni
aspetti che il primo, con il suo carattere sintetico, non riesce a cogliere. Quindi nello Human
Development Report troviamo una serie di indicatori che permettono di tener conto delle
disuguaglianze lato salute, lato genere, lato educazione ecc. Il tema delle disuguaglianze ha sempre
interessato le Nazioni Unite, che negli anni hanno “aggiustato” l’HDI tenendo conto delle
diseguaglianze. Infatti, ad oggi, il report include tutti questi indicatori a complemento dell’HDI:

• Human Development Index (HDI)


• Inequality-Adjusted Human Development Index (IHDI): fa riferimento al tema delle disparità,
perché nell’indicatore di prima vedevamo i valori medi, ma bisogna vedere anche la dispersione
perché, se è molto elevata vuol dire che c’è gente molto fortunata e gente molto meno fortunata;
• Gender Development Index (GDI): guarda al genere;
• Gender Inequality Index (GII): guarda alle disuguaglianze di genere;
• Multidimensional Poverty Index (MPI): guarda alla povertà, cerca di cogliere le differenze sulla
povertà.

A seconda quindi dell’ambito di studio, possiamo correggere l’HDI con i diversi indicatori che
tengono conto non solo dei valori medi ma anche di come questi valori di distribuiscono rispetto alla
media, facendoci capire gli effetti delle disuguaglianze sull’HDI.

Vediamo i risultati del report 2020:


Qual è il tema del report 2020? È un tema di rapporto con l’antropocene, che viene trattato
mostrando come lo sviluppo umano avviene ma a scapito dei problemi ambientali; quindi, la
conclusione è valutare il trade off che si è generato tra sviluppo e impatti ambientali. Cerchiamo di
generare sviluppo sociale ed economico, generando pressione sull’ambiente; quindi, aumentano i
rischi (cambiamento climatico), che si traducono in shock e questi shock hanno l’effetto di generare
maggiori disuguaglianze del sistema e maggiori pressioni su chi deve governare il sistema. Quindi,
da un lato lavoriamo per un maggiore sviluppo umano, ma dall’altro creiamo problemi ambientali,
shock e aumento delle disuguaglianze. Da un lato disuguaglianze sul fronte planetario dall’altro sul
fronte sociale, sembrano essere un meccanismo che si auto - rinforza, quindi è come se generassi
uno sviluppo per pochi, non per tutti. La strada sarebbe ripartire da capo, smontare il vecchio
modello di sviluppo e crearne uno migliore.

Grafico che ci fa vedere il legame tra


l’indice di sviluppo umano e gli shock,
anche quando gli shock hanno natura
diversa da quella ambientale. Un paese
può avere un basso indicatore e avere un
basso impatto sul pianeta. Le
diseguaglianze possono generare delle
pressioni, che aumentano i rischi e quindi
gli shock. Disuguaglianze sociali e
planetarie si rinforzano a vicenda

Dal 1991 ad oggi i valori dell’indice sono stati sempre positivi e quindi l’indicatore globale di sviluppo
umano sta migliorando e l’effetto di questo miglioramento è che ovunque nel mondo c’è una
tendenza a migliorare; è un indicatore medio, quindi in alcuni paesi l’indicatore può peggiorare ma
mediamente migliora. Durante la crisi del 2008 si assiste ad una flessione della crescita - ma è pur
sempre una crescita - che negli anni successivi viene recuperata. Nel 2020 (e anche 2021) si è avuta
una flessione negativa dell’indice di sviluppo: esiste un problema a livello planetario, in questo caso
la pandemia, che ha tradotto lo shock in un impatto negativo sullo sviluppo umano. Se non avessimo
avuto i vaccini, la riduzione dell’indice del 2020 sarebbe stata ancora molto più negativa, perché la
popolazione si sarebbe ulteriormente ridotta.
Le Nazioni Unite hanno introdotto il PHDI (Planetary Human Development Index). È un indicatore
di tipo sperimentale, va ad aggiustare l’indicatore di sviluppo umano costruito sulle tre dimensioni
introducendo una quarta dimensione, le pressioni generate sul pianeta/sull’ambiente a causa della
presenza dell’uomo. Si fa riferimento all’antropocene. Il PHDI corregge quindi l’HDI e questa
correzione è legata al tema della sostenibilità perché evidenza il fatto che, se io genero sviluppo
umano ma lo faccio a scapito delle risorse del pianeta il problema principale è un problema di
disuguaglianza intergenerazionale, cioè chi verrà dopo di me non potrà usare quelle risorse. È un
indicatore che tende a corregge l’HDI tenendo conto delle disuguaglianze, che però non sono dello
stesso periodo di tempo ma considera disuguaglianza tra generazioni.

L’HDI viene moltiplicato per un fattore correttivo pari a (1- indice delle pressioni sul pianeta). Questi
indicatori sono proxy della situazione reale.

Come facciamo a tenere conto di tutto questo? Vengono utilizzate due variabili, che sono le proxy
della pressione umana sull’ambiente: emissione di anidride carbonica pro capite e l’impronta
materiale pro capite (per il consumo delle risorse, mi dice quanto materiale consumiamo per
abitante al fine di produrre beni e servizi). Sono due indicatori che catturano la pressione
sull’ambiente. Se non c’è pressione sull’ambiente il PHDI è uguale all’HDI, se invece è presente il PHDI
< HDI! In questa ottica, quindi, il PHDI misura il livello di sviluppo umano considerando le pressioni
planetarie.

Se vuoi sviluppo umano ricordati che lo paghi in termini di impatto sull’ambiente!


Leggiamo che dal 2000 al 2017 nel mondo siamo passati da scarse 9 t/anno a 12 t/anno di materiale
utilizzato mediamente nel mondo→ci è stato un aumento del 33% di tonnellate di impronta
materiale media pro-capite. Ancora, questo valore medio mondiale è in costante crescita. Questo,
unito ad un forte aumento demografico (1 miliardo di persone in più) rende questo aumento
esagerato, e i comportamenti della società insostenibili nel lungo periodo. Lo sviluppo umano è
costruito attraverso la pressione sull’ambiente, l’innovazione tecnologica è la chiave: aiuterà a
ridurre questa pressione ma per il momento questo è lo stato delle cose. Il punto è lavorare sulla
rapidità con la quale avvengono i cambiamenti. Oggi i cambiamenti avvengono rapidamente, quindi
ciò che andava bene prima, non è detto che andrà bene nel futuro.

Vediamo come si ottiene


il PHDI: facciamo la
media aritmetica del
prodotto tra le emissioni
pro capite di CO2 di ogni
paese e l’impronta
materiale pro capite di
tutti i Paesi per ottenere
A, il fattore di
aggiustamento per le
pressioni planetarie
(pari a 1- indice delle
pressioni sul pianeta);
dopodiché moltiplico questo fattore di aggiustamento per l’HDI, per ottenere il Planetary Pressures-
Adjusted HDI (PHDI). Quindi, in termini di valore, se il fattore A è alto, la pressione planetaria è
altissima, e quindi il PHDI è 0; se il fattore A è basso (e tende a 1), le pressioni planetarie sono basse
e quindi il PHDI è uguale all’HDI. Quindi le pressioni planetarie non fanno altro che ridurre l’HDI.

Questo grafico riporta i diversi paesi in termini di correlazione tra HDI (sulle X) e PHDI (sulle Y). In
questo grafico notiamo come tutti i paesi che hanno un basso sviluppo umano, sono anche paesi che
hanno bassa pressione sull’ambiente, quindi HDI e PHDI praticamente coincidono. Quindi sono paesi
che producono pochi bene, che non garantiscono una vita molto dignitosa, ma nel fare questo
impattano poco sull’ambiente. Man mano che cresce l’HDI, invece, notiamo che il PHDI non cresce
allo stesso modo, e quindi cominciano a manifestarsi gli effetti delle pressioni planetarie. Le pressioni
che i paesi più sviluppati generano sono tanto più elevate quanto maggiore è l’HDI, e questo sposta
i punti sempre più in basso rispetto alla bisettrice (PHDI=HDI). Quindi a causa delle pressioni
planetarie ci troviamo davanti a casi in cui un paese con un HDI super elevato si trova in realtà con
un PHDI uguale ad un paese con HDI medio! Questo perché il paese più sviluppato genera maggiori
impatti perché consuma di più.
Lo Human Development Report 2019 affronta una serie di concetti da esaminare:

Il primo concetto è un concetto rivoluzionario: ogni valutazione delle disuguaglianze deve tenere
conto dei redditi e della ricchezza. I Paesi oggetto di analisi posseggono una disuguaglianza dal
punto di vista dei redditi ma anche dal punto di vista delle ricchezze, si possono avere redditi elevati
ma patrimoni modesti o viceversa (la differenza può esserci sia tra Paesi che all’interno dei Paesi).
Inizialmente diciamo di voler studiare solo il reddito pro capite per studiare lo sviluppo, ma poi
capiamo che è necessario guardare anche alla ricchezza; quindi, quanto negli anni le persone hanno
accumulato. Ci sono persone che fanno un lavoro modesto ma hanno una ricchezza dovuto a
patrimoni lasciati da antenati. Questo aspetto ha una valenza politica. Si avanza una questione di
equità: la Cina afferma di dover sfruttare risorse perché vuole recuperare quanto non sfruttato nel
Paese, vuole arrivare allo stesso sfruttamento degli altri Paesi, tipo la Grand Bretagna, un Paese di
colonizzatori, che ha creato un grande patrimonio grazie allo sfruttamento delle risorse. Quindi è
necessario guardare anche alla ricchezza! Patrimoni grandi sono facilmente tracciabili.

Per misurare le disuguaglianze noi guardiamo alla salute, all’educazione, ma dovremmo guardare
anche alla dignità e al rispetto dei diritti umani. Al centro della valutazione c’è l’individuo e poiché
sono le opportunità di scelta a influenzare il livello di sviluppo umano, dobbiamo considerare anche
tutti questi aspetti. La valutazione dello sviluppo umano si basa sulla valutazione delle capabilities
dell’uomo. Le capabilities vengono distinte in basic e enhanced.

Le capabilities basic sono: sopravvivenza nei primi mesi della vita dei bambini, educazione primaria,
accedere ad un livello tecnologico base, aver una minima resilienza dagli shock ricorrenti (alluvioni,
terremoti ecc.). Nello sviluppo umano queste sono capacità basiche, che devono essere disponibili
per tutta l’umanità; dobbiamo aspettarci che ogni stato abbia queste capacità base

Ne Paesi sviluppati si aggiungono capacità avanzate (enhanced capabilites): capacità di accedere a


livelli sanitari di qualità, accedere ad una formazione/educazione di elevata qualità, accesso efficace
alle tecnologie più aggiornate, resilienza a shock non noti.

Lo sviluppo umano deve garantire le basic capabilities, ma dove possibile offrire anche delle
enhanced capabilities.

Vediamo qualche esempio. Questa tabella indica che percentuale di popolazione di quel Paese ha
quel reddito mensile (PPP $):
C’è una forte diversità tra i valori, guardando a Costa d’Avorio e USA si nota il forte divario. Infatti, in
Costa d’Avorio il 20% della popolazione vive con massimo 100 dollari al mese, in USA solo il 5% Il
mondo è più simile alla Cina. I Paesi come la Costa d’Avorio sono problematici, nonostante abbiano
molta ricchezza a livello di risorse.

Osserviamo questo grafico che mette insieme l’HDI e la “linea di povertà” (la popolazione che vive
in un paese con meno di 1,9 dollari al giorno. La grandezza dei cerchi indica la % di persone che in
quel paese è in quella condizione). Man mano che l’HDI diminuisce vediamo che aumenta la
percentuale delle persone che vivono sotto la soglia di povertà. Ci sono addirittura paesi in cui l’80%
della popolazione vive sotto la soglia di povertà! Circa 600 milioni di persone in tutto il mondo vivono
al di sotto della linea di povertà. Qual è il problema? È che la gente che vive in questi paesi si sposterà,
cercando paesi che vivono in condizioni di più dignitose, al di sopra della soglia di povertà.
Un’altra questione affrontata dal report è la seguente: il cambiamento tecnologico ha generato
miglioramenti allo sviluppo, ma se guardiamo più nel dettaglio, ci accorgiamo di come il
cambiamento tecnologico ha acuito la divergenza tra i paesi e all’interno dei paesi. Nel
cambiamento tecnologico, alcuni paesi hanno beneficiato, altri no. Quindi il cambiamento
tecnologico è sia un driver per lo sviluppo che una fonte di divergenze!

Una delle strategie a livello macroeconomico e contrastare la povertà e aumentare il livello di


sviluppo è quello di fare leva sul cambiamento tecnologico. La leva del cambiamento tecnologico è
una leva importante in molti Paesi, sia intesa come innovazione tecnologica per Paesi con un elevato
livello di sviluppo, sia come apporto di tecnologie basiche per Paesi meno sviluppati, per ridurre la
povertà.

Quando si apportano nuove tecnologie cosa succede dal punto di vista dell’ambiente? Si ha un
aumento della pressione sull’ambiente, quindi è uno strumento importante ma ha dei problemi.
Genera anche diseguaglianza ovviamente, perché chi adotta la tecnologia è avvantaggiato rispetto a
chi non la utilizza e aumenta di conseguenza le disparità.

La tecnologia ha un impatto che non è sempre positivo. Ogni policy maker vede nella tecnologia
un’opportunità, ma noi sappiamo che queste tecnologie creano un impatto non solo sull’ambiente
ma anche sulle persone: la tecnologia sostituisce le persone. Rimuove personale creando
disoccupazione ma allo stesso tempo crea opportunità per nuovi lavori (avrò bisogno di
manutenzione, produzione del pezzo ecc.). Adesso il saldo è positivo, sono stati creati più posti di
lavoro di quelli spazzati via, ma nel futuro questo diventerà un problema.

Le scelte devono essere fatte considerando che la nuova tecnologia deve da un lato creare sviluppo,
allontanando le persone dalla povertà, creando nuovi posti di lavoro e non disoccupazione. Viviamo
tutto questo ad una velocità elevatissima.

Il cambiamento tecnologico ha un effetto positivo sulla produttività (e quindi permette un


cambiamento positivo anche sulla domanda di lavoro. Cambiamento tecnologico aumenta la qualità
del lavoro) ma genera una serie di questioni:

1. Effetto displacement: alcuni posti di lavoro vengono persi. Ci sono lavori che spariscono, e
questo ha un effetto negativo sulla domanda di lavoro;
2. Reinstatement effect: si generano nuovi posti di lavori, profili professionali che prima non
esistevano. Questo influisce positivamente sulla domanda di lavoro.
Questi tre effetti portano ad
una risultante da valutare: il
cambiamento tecnologico
ha un impatto positivo sulla
produttività, è un driver di
sviluppo, è un driver di
divergenze e comporta un
cambiamento netto nella
domanda di lavoro. Nel
lungo termine l’effetto è
stato positivo, nel breve
termine invece l’effetto di
displacement è stato
rilevante, dobbiamo
aspettarci periodi di crisi.

Ogni Paese ha
forme di
ammortizzazione
sociale per tenere
conto di tutti
questi effetti
(reddito di
cittadinanza).
Vediamo la
correlazione che
c’è tra HDI e reddito pro – capite (è un rank, quindi si intende il posizionamento in una classifica: 1 è
il più alto, 191 il più basso)→c’è forte correlazione: Paesi con alto HDI, hanno anche alto reddito pro–
capite. C’è comunque dispersione, legata alla salute e all’educazione. Quindi questa fu una delle
principali critiche rivolte allo sviluppo umano: ok, va bene introdurre le componenti di salute ed
educazione, ma la situazione cambia poco rispetto al reddito pro-capite→alla fine tra HDI e reddito
pro-capite c’è correlazione…sì, c’è un po’ di dispersione, ma la situazione è molto simile.
LEZ 13: 03/11/2023

INDICATORI DI SVILUPPO SOSTENIBILE

Le Nazioni Unite hanno chiesto al dipartimento di sviluppo umano di considerare in maniera sempre
più forte il tema della sostenibilità, non solo ambientale, a tal punto che è necessario inserire nuovi
indicatori (Sustainable HDI).

Il cambiamento tecnologico è sempre più veloce, quindi abbiamo sempre meno tempo per mitigare
gli effetti negativi quali perdita posti di lavoro e problemi di salute (certe tecnologie hanno impatti
sulla salute dell’uomo). Sono aspetti ancora da codificare, ma la questione è che, se ex-ante non ho
tempo per valutare la nuova tecnologia, essa può essere dannosa. Bisogna concentrarsi su ogni
impatto che quel cambiamento tecnologico porta.

Oggi non si può non pensare a un modello di sviluppo che non sia sostenibile, dove per sostenibilità
non facciamo riferimento solo alla sfera ambientale. Mentre tutti parlano di sviluppo sostenibile,
pochi hanno un’idea concreta di quello che è un ragionevole modello di sviluppo sostenibile. Per
quanto si possa essere convinti della correttezza dello sviluppo sostenibile, non sappiamo se una
certa azione è sostenibile o no: l’uso dei computer è sostenibile?→Dobbiamo pensare alla sua
realizzazione ecc. È molto difficile fare valutazioni sulla sostenibilità attraverso delle regole. Non
basta il PIL per valutare lo sviluppo sostenibile, ma dobbiamo guardare ad una finestra più ampia.

Andiamo un po’ nel passato…

1)Maltus ragionò sul fatto che il concetto di sviluppo non è per sé sostenibile (teorie Maltusiane).
Siamo nel 1798, a ridosso della Rivoluzione francese. Watt aveva iniziato da poco a creare energia,
dando inizio alla Rivoluzione industriale. Maltus scrisse un saggio intitolato “On the principle of
population, as it affects the future improvement of society” in cui sostenne la seguente tesi: le
dinamiche demografiche stanno generando un impatto significativo sul futuro della società, le
dinamiche demografiche (la crescita demografica) rendono più critiche questioni come
l’alimentazione (non si produce a sufficienza per sfamare la popolazione che cresce), rende più
vulnerabile la società alle epidemie, genera disordini sociali e conflitti. Il saggio ha una visione
pessimistica: secondo Maltus, in breve, esistono dinamiche demografiche che hanno un impatto
sulle risorse, in senso negativo. Nonostante non avesse visto chissà quale progresso della tecnologia,
già agli inizi dell’800 Maltus era riuscito a cogliere dei concetti concreti. Quando, però, nel ‘900 arriva
lo sviluppo tecnologico, Maltus viene dimenticato, perché il progresso (in ogni ambito) aveva fatto sì
che molti dei timori di Maltus sembrassero svaniti. Il fatto che la società e l’economia stesse
degradandosi affiorò solamente dopo la Seconda Guerra Mondiale: il modello di sviluppo che si stava
costruendo, sotto la spinta da un lato della rivoluzione fordista e dall’altro delle politiche del
consumismo, faceva acqua da varie parti.

2)Discorso di Robert F. Kennedy fatto negli USA all’università di Kansas, nel 1968. Gli USA, come ben
sappiamo, sono un Paese che sostiene il capitalismo, un modello che in quegli anni si stava
confrontando con il sistema sovietico.

È un discorso che mette in discussione il modello di sviluppo attuale. È un discorso che incomincia a
tracciare le regole di un buon modello di sviluppo (se avviene un incidente stradale, il PIL cresce, così
come omicidi perché si comprano armi e il PIL cresce). Riemerge il tema secondo il quale le cose ci
stanno sfuggendo di mano.

3)“I limiti alla crescita (economica)”, fu uno studio fatto da una serie di scienziati del Club di Roma,
nel 1972. Da questo studio nacque un libro che però non ebbe molta risonanza, in quanto vi si
sosteneva che le risorse naturali fossero limitate. Questo, unito all’analisi degli andamenti
demografici e del bisogno di materie prime come acqua, petrolio, prodotti alimentari, portò alla
rapida conclusione secondo la quale il sistema avesse un effettivo limite alla crescita. Da ciò, scaturì,
quindi, come fosse inutile monitorare la crescita del PIL. Un anno dopo, scoppiò la guerra del Kippur
nella quale una coalizione di paesi arabi invase l’Israele che però riuscì a prendere in mano la
situazione e ribaltarla. Un paio di settimane dopo, registrata una sconfitta, il mondo arabo capì che
il mondo occidentale aveva bisogno di combustibili fossili e di petrolio e quindi nel giro di poche
settimane il prezzo della benzina aumentò di 7 volte: il problema ebbe risonanza su tutto il sistema
economico mondiale, poiché di questo aumento ne risentirono non solo i trasporti, ma si ebbe anche
un impatto inflazionistico altissimo. Tutti incominciarono quindi a leggere quel libro, che diventò un
best seller. Nello studio del club di Roma vengono analizzate 5 variabili: la popolazione,
l’industrializzazione, l’inquinamento, la produzione di cibo e lo sfruttamento di risorse. Si dice che
questo studio abbia addirittura influenzato la politica cinese, portando ad una riduzione della
crescita demografica. Anche loro come Maltus, però, non riuscivano a vedere ciò che sarebbe
venuto dopo: la digitalizzazione.

Nel libro, emergono due principali conclusioni:

• Se l'attuale tasso di crescita (delle 5 variabili) continuerà inalterato, i limiti della crescita sul
pianeta saranno raggiunti in un momento imprecisato entro i prossimi cento anni → il
risultato più probabile sarà un improvviso ed incontrollabile declino della popolazione e della
capacità industriale;
• È possibile modificare i tassi di crescita e giungere ad una condizione di stabilità ecologica ed
economica, sostenibile anche nel lontano futuro;

20 anni dopo scrivono un libro, “Oltre la crescita”, in cui si diceva che si era riusciti a spostare i limiti
poc’anzi elencati.

4)Nel 1987 le Nazioni Unite realizzarono il Bruntland Report, chiamato “il nostro comune futuro”,
in cui appurarono l’esistenza di un problema nello sviluppo: nasce la consapevolezza che lo sviluppo
DEBBA essere sostenibile. La sostenibilità è legata al bisogno intergenerazionale, secondo il quale
non deve essere compromessa la soddisfazione dei bisogni delle generazioni future. Il Report
Bruntland pone al centro il principio di equità intergenerazionale. A questo, nel 1992, seguì il
Congresso di Rio.

5)Nel 2008, il Presidente francese Sarkozy, istituisce la “commissione Sarkozy”, guidata da Illitz e da
Amartya Sen (che abbiamo visto che lavorava alle nazioni unite per lo sviluppo dell’indice) due premi
Nobel. Questa commissione aveva il compito di determinare una misura delle performance
economiche e del progresso sociale (2009). Lo scopo era comprendere i problemi del PIL e come
misurare il progresso sociale. Essi fecero un ottimo lavoro, perché cercarono di misurare cose
difficilmente misurabili. Loro misero a fuoco un concetto che ora è guida per i governi attuali:
riuscirono a giustificare l’esistenza congiunta del concetto di benessere attuale (current well-being)
e un problema di sostenibilità di questo benessere.

Il benessere si riferisce alle risorse economiche, come il reddito e ad aspetti non economici della vita
delle persone (cosa fanno, cosa possono fare, cosa sentono, l’ambiente naturale in cui vivono).
Quindi non si deve parlare del PIL, ma di cosa è davvero importante gli individui ovvero il benessere.
Bisogna poi preoccuparsi, però, che tutto questo sia sostenibile, e quindi bisogna comprendere come
misurare la sostenibilità. Per fare ciò, si valutò il fatto che c’erano degli stock di capitale che si vanno
mantenuti. Nel dettaglio, esistono il capitale naturale, il capitale fisico, il capitale umano e il capitale
sociale e gli stock di questi capitali si devono mantenere nel tempo. Per misurare la sostenibilità,
quindi, devo misurare questi stock! Ad esempio, come stock di capitale naturale posso calcolare la
quantità di acqua dolce→inoltre, bisogna mantenere quello stock nel tempo, affinché le generazioni
future possano anche loro usufruirne!

Quindi il nodo della questione era capire cosa, dal punto di vista statistico, potesse essere misurato
per fare queste valutazioni.

Seppure la commissione Sarkozy riuscì a capire come misurare questi temi, rimaneva un altro
ostacolo da superare: tutto ciò, infatti, doveva essere accompagnato da una effettiva messa in
pratica. Quindi, ogni Stato cominciò ad attrezzarsi per seguire queste direttive.

In Italia, ad esempio, fu messo in piedi un nucleo di lavoro costituito dall’ISTAT e dal CNEL, che
produrrà il documento detto BES: Benessere Equo e Sostenibile.

La problematica principale affrontata dai paesi fu quella di comprendere quali e quante fossero tutte
le variabili e come misurarle. Si parla infatti di “meta problema”, ossia realizzare una serie di fattori
e di valori, che però devono essere comparati con quelli di altri paesi (che sicuramente avranno
prodotto risultati diversi, seguendo metodologie differenti). Questo determinò la nascita di Eurostat.

Ogni paese ovviamente si focalizzava su diversi fattori: in particolare, nell’Area sud del Mediterraneo,
veniva declinato principalmente un problema legato all’acqua; nel nord, invece, era un problema di
energia.
Nasce l’OECD, che comincia uno studio partendo dal report della commissione Sarkozy, cercando di
“operazionalizzare” i concetti emersi, attraverso dei blocchi sotto riportati:

Come si mantiene la
produzione? Vi sono dei
fattori (inputs) in ingresso
che sono diversi: essi sono
capitale, lavoro e risorse
che sono però originate
essenzialmente da un
sistema creato da una
serie di asset naturali. Si
produce un output legato
al consumo, ai redditi e ai
servizi, ma anche ai
cosiddetti residuals che,
se non vengono riprocessati nel processo di produzione, finiscono di nuovo dell’ambiente. Gli output
che finiscono ai governi danno vita a consumi ed investimenti ma, per beneficiare di questi, devo
comunque fare riferimento a risorse naturali. Quindi, alla fine, tutte le attività economiche si
interfacciano con il sistema naturale.

LEZIONE 14: 15/11/2023

Riprendiamo dal lavoro della commissione Sarkozy europea sulla misura delle performance
economiche dello sviluppo sociale del 2009. Questo ci diceva che per poter misurare performance
economiche e processo sociale dovevamo guardare sia aspetti relativi a variabili economiche come
reddito ma anche aspetti sociali, relativi a variabili come qualità della vita. Questa, come sappiamo,
è solo una parte della misurazione perché per valutare la sostenibilità delle performance
economiche e sociali dovevamo anche accertarci che fossero sostenibili nel tempo e che si dovevano
poggiare su degli stock di capitale che sono essenzialmente quello naturale, fisico (impianti, apparati
tecnici), quello umano e quello sociale (relazioni sociali). Quindi solo mantenendo adeguati livelli di
questi stock di capitale è possibile mantenere la sostenibilità delle performance economico e sociali.

L’OECD ha stabilito uno schema di misura in base al quale si legano le attività economiche agli asset
naturali e si vanno a considerare sia attività di produzione che di consumo. Entrambe le attività
economiche (di produzione e consumo) hanno un’interazione con il capitale naturale con diverse
frecce: la prima relativa alle risorse naturali in input nel processo produttivo. La seconda, relativa ai
rifiuti immessi nello stock di capitale e la terza, relativa al consumo di risorse che beneficia (bellezza,
salute, sicurezza). Questo schema è stato interpretato da tutti i paesi OECD.

In alto, invece, abbiamo il benessere degli individui e lo si divide in 2 parti: la qualità della vita e le
condizioni di vita materiali. Nel primo rientrano la salute, l’educazione, le skills, le connessioni
sociali, l’impegno civile, la sicurezza personale; nel secondo abbiamo reddito e ricchezza, abitazione,
lavoro e guadagni.

In merito a ciò, l’OECD dice che: mentre sulla qualità della vita si possono misurare effettivamente
gli elementi che la compongono, per misurare il secondo fattore viene utilizzato il PIL, che in parte
misura il reale beneficio in termini di redditi, lavoro e abitazione e in parte “esce dal confine del
benessere umano” e misura anche i cosiddetti “regrettables”, che sono tutte quelle attività che
generano problemi e che non vorremmo che si determinassero, perché contribuiscono al PIL
(inquinamento ecc.), MA NON al benessere (ecco che ritornano le parole di Kennedy).

La possibilità di avere un certo benessere nel tempo si poggia sulla disponibilità di capitale
economico, naturale, umano e sociale e quindi bisogna preservare queste 4 forme di capitale.

Questo framework viene seguito da tutti i paesi dell’OECD, che si basano su questo per misurare il
benessere. Questo framework è quindi costituente l’approccio per la valutazione delle performance
economiche e sociali, tenendo conto della sostenibilità.
BES: BENESSERE EQUO E SOSTENIBILE

Cosa avviene in Italia? A valle dell’esito della commissione Sarkozy, l’Italia avviò un suo progetto di
nome BES (Benessere Equo e Sostenibile): non interviene il PIL o il reddito, ma è il benessere che
deve essere equo (ben distribuito nella società) e sostenibile nel tempo in modo da non annichilire
quelle 4 forme e fattori di capitale. L’idea è quindi di sviluppare anche delle competenze sociali e
ambientali. Si vogliono integrare i fattori economici (PIL ecc.) con delle misure sulla qualità della vita
delle persone e sulla qualità dell’ambiente. L’idea è fare tesoro della commissione Sarkozy e tradurre
quei risultati in indicatori specifici per il nostro Paese. Questo progetto viene affidato ad un gruppo
di lavoro misto in cui vi sono rappresentanti dell’ISTAT e del Cnel, che riuscì a sviluppare un approccio
multidimensionale e quindi un sistema per misurare il BES.

L’idea è che questo gruppo ha prodotto un sistema per misurare tutte le componenti che entrano
nella valutazione del benessere degli individui. Quindi, alla fine, il BES è un insieme di indicatori,
perché l’idea è quella di avere un approccio multidimensionale per fornire una lettura ampia,
integrata e completa.

BES E SDGs

Mentre avveniva tutto ciò in Italia, nel 2016 si aggiunse anche il fatto che le Nazioni Unite avevano
proposto un’Agenda 2030 per lo sviluppo sostenibile, un programma a livello di Nazioni Unite in cui
venivano definiti degli obiettivi di sviluppo sostenibile, noti come Sustainable Development Goals
(SDGs). Questi sono 17 e sono stati declinati in sotto indicatori, andando ad individuare oltre 230
indicatori.

Quindi si crea una visione globale della misura dello sviluppo, in contrasto con quella
monodimensionale basata solo sul PIL.

OSS: Ovviamente il PIL è rimasto, ma ad esso si sono affiancati altri fattori, perché esso non solo non
misura tutto, ma tiene conto anche di cose che non hanno a che fare con il nostro benessere!

Ancora, l’ISTAT produce dal 2013 dei rapporti annuali sul BES, che nel 2016 è entrato a far parte del
processo di programmazione economica del nostro paese: dopo aver testato degli indicatori del BES,
nel 2016 si è deciso di inserire una valutazione dell’impatto delle politiche economiche (policy) su
alcuni indicatori BES nel Documento di Economia e Finanza (DEF) che riporti un’analisi
dell’andamento recente e delle valutazioni sulle policy economiche.
Cosa viene misurato in questo BES?

Ci sono 115 items raggruppati in 12 domini (indicatori) in cui l’ISTAT va a declinare il concetto di BES.
Per ognuno di questi 12 domini vengono definiti degli indicatori (115 in totale). I domini sono i
seguenti:

• Salute;

• Istruzione e formazione;

• Lavoro e conciliazione dei tempi di vita;

• Benessere economico;

• Relazioni sociali;

• Politica e istituzioni;

• Sicurezza;

• Benessere soggettivo;

• Paesaggio e patrimonio culturale;

• Ambiente;

• Innovazione, ricerca e creatività;

• Qualità dei servizi;

Di tutti e 115 indicatori quali entrano nel Documento di economia e finanza?

Nel 2017 sono stati selezionati in particolare 12 indicatori:

1. Reddito disponibile lordo corretto pro capite (correzione che fa riferimento alla statistica);

2. Disuguaglianza del reddito netto (s80/s20) (rapporti tra chi detiene redditi più elevati e di
massa);

3. Indice di povertà assoluta;

4. Speranza di vita in buona salute alla nascita;

5. Eccesso di peso;

6. Uscita precoce dal sistema di istruzione e formazione;


7. Tasso di mancata partecipazione al lavoro, con relativa scomposizione per genere;

8. Rapporto tra tasso di occupazione delle donne 25-49 anni con figli in età prescolare e delle
donne senza figli;

9. Indice di criminalità predatoria;

10. Indice di efficienza della giustizia civile;

11. Emissioni di CO2 e altri gas clima alteranti;

12. Indice di abusivismo edilizio.

Come viene fatta la selezione? Si scelgono degli indicatori che si ritengono affidabili e che
intercettino determinati bisogni della società (tasso di povertà, eccesso di peso ecc.) e obiettivi che
il governo si pone (CO2 ecc.).

Alcuni di questi indicatori cambiano sulla base di alcuni fenomeni che sono esogeni dal Governi
(esempio calzante è quello della pandemia da COVID). Bisogna ovviamente trovare un allineamento
tra le politiche regionali e nazionali e, conseguentemente anche sugli indicatori.

ECOLOGICAL FOOTPRINT (EF)

Mentre in Italia si procedeva con i risultati della commissione Sarkozy, prendeva sempre più piede
un’altra misura, quella dell’impronta ecologica. Questa misura fu stata sviluppata già nel 1990
attraverso degli studi e ha assunto oggi una elevata affidabilità, tant’è che è usata spesso anche in
valutazioni di carattere economico (legandosi alla questione della sostenibilità).

Noi siamo interessati a misurare l’impatto che l’uomo genera sugli ecosistemi presenti sulla Terra e
quindi l’impronta che l’individuo determina nella sua vita, sotto forma di domanda di risorse degli
ecosistemi presenti sulla Terra. Come si genera questa domanda di risorse? Essa la si genera sia
consumando le risorse naturali, ma anche inquinando queste stesse risorse naturali. Se noi
domandiamo qualcosa agli ecosistemi sulla Terra, dobbiamo considerare il fatto che questi sono in
grado di generare nuovamente queste risorse, dopo un certo lasso di tempo. Insieme alla domanda
si genera quindi una valutazione della capacità da parte della Terra di rigenerare quelle risorse che
noi stiamo domandando. Quanto domandiamo e qual è la capacità di rigenerare quanto abbiamo
domandato sono le 2 componenti fondamentali per capire se siamo in una condizioni di equilibrio
o meno con il sistema Terra.
Per ogni Paese è quantificabile un‘ impronta legata al totale della superficie richiesta per produrre
tutto ciò che viene domandato (acqua, alimenti, minerali, ecc.). Ma questa impronta la dobbiamo
considerare sia con riferimento alla terra (intesa come suolo, terreno), sia con riferimento a superfici
acquose e aerose. Quindi, come singolo paese, domandando delle risorse stiamo creando un
assorbimento da parte del sistema Terra (terra + acqua + aria), ossia stiamo generando una
determinata domanda. Dall’altra parte, un paese che dispone di terra, acqua e aria, ha una
determinata capacità di rigenerare queste risorse.

L’idea è che ci debba essere un equilibrio tra domanda e offerta: se la domanda è minore della
capacità naturale siamo in una condizione di equilibrio, viceversa siamo in una situazione di
disequilibrio.

Vediamo cosa sta succedendo a livello di pianeta Terra:

Vediamo dal 1961 un aumento globale della popolazione, che da 3,1 miliardi è arrivata a circa 8
miliardi. Vediamo cosa abbiamo chiesto negli anni in termini di risorse: nel ’61 venivano richieste in
termini di risorse naturali 2,4 ettari globali per abitante, ma ogni abitante ne aveva a disposizione
3,2 (Total Biocapacity che viene calcolata considerando la superficie terrestre con le sue
componenti, dividendo questo valore per la popolazione). Quindi nel 1961 si consumava meno del
limite della terra di generare risorse. Infatti, l’ecological footprint to capacity ratio era pari a 0,74.

𝑇𝑜𝑡𝑎𝑙 𝐸𝑐𝑜𝑙𝑜𝑔𝑖𝑐𝑎𝑙 𝐹𝑜𝑜𝑡𝑝𝑟𝑖𝑛𝑡


𝐸𝐹 𝑡𝑜 𝐵𝑖𝑜𝑐𝑎𝑝𝑎𝑐𝑖𝑡𝑦 𝑅𝑎𝑡𝑖𝑜 =
𝑇𝑜𝑡𝑎𝑙 𝐵𝑖𝑜𝑐𝑎𝑝𝑎𝑐𝑖𝑡𝑦

Gha: ettaro globale (globale, a livello di terra, acqua e aria).

Nel ’65 l’impronta ecologica sale a 2,5 e, siccome anche la popolazione aumenta, la total biocapacity
scende a 3 ettari globali, con un rapporto pari a 0.85. Nel ’70 gli ettari globali richiesti e disponibili
sono entrambi pari a 2,8: questo significa che nel 1970 si era in un equilibrio totale, ma si era arrivati
al limite.

Che succede negli anni? La popolazione mondiale è aumentata e la biocapacity proprio per questo
è diminuita, nonostante la total ecological footprint si sia mantenuta pressoché costante. Con un
rapporto tra domandato e disponibile maggiore di 1, stiamo consumando capitale naturale,
erodendo le scorte di capitale naturale a disposizione.

Nel 2008 arriviamo ad un rapporto pari a 1,52, a causa del costante aumento demografico che si è
avuto per quasi 40 anni (e continua tutt’ora). Questo vuol dire che chiediamo 1,52 Terre!

OSS: Anche se noi abbiamo una situazione che si può mediare a livello planetario, a livello di singoli
paesi la situazione si squilibra ulteriormente, diventando ancora peggio di quella a livello planetario!

Guardiamo quest’altro grafico: sulle ascisse abbiamo il HDI e sulle ordinate l’impronta ecologica per
persona. Se plottiamo tutti i paesi (i colori rappresentano i continenti) osserviamo una distribuzione
di punti che assomiglia ad un’esponenziale. Utilizzando le soglie dell’HDI, abbiamo che i paesi che
hanno un alto valore di questo indice, sono quelli che hanno un valore HDI > 0,8, i paesi a basso HDI
sono quelli con HDI < 0,7; guardando alla biocapacity, se nel 1961 era poco oltre 3, nel 2014 si è
ridotta a qualcosa sotto 2 perché è aumentata la popolazione. I paesi al di sotto della biocapacity
sono i paesi africani, poi quelli del medio-oriente si spalmano un po’ ovunque, e al di sotto troviamo
anche dei paesi del pacifico, questi paesi però sono anche quelli con un basso HDI. I paesi europei
sono nella parte di HDI alto ma anche dove la biocapacity è molto elevata.

Si può notare che i paesi con maggiore indice di sviluppo umano, provocano anche maggiore EF.

Il quadrante ideale è quello in celeste, in cui un paese dovrebbe avere un HDI maggiore della soglia
di 0,7 e inoltre una ecological footprint inferiore alla biocapacità della Terra: impossibile.

LEZ 15: 16/11/2023

LA CRESCITA ECONOMICA

Il concetto di crescita economica, così come lo intendiamo oggi (crescita del PIL), è destinato a
cambiare. Il tema del PIL, e di come esso possa essere utilizzato come indicatore della crescita
economica di un sistema socioeconomico, non è un’idea molto antica, e ancora oggi anima l’azione
dei governi, che ovviamente hanno un occhio di riguardo sul PIL per misurare la crescita economica
e per prendere decisioni in termini di politica economica. Cercheremo di capire come legare
l’innovazione alla crescita economica. Iniziamo però a vedere quando la questione della crescita
economica è diventata una questione importante e rilevante a livello di gestione di un Paese, per poi
passare in rassegna i pensieri che gli economisti classici hanno avuto nel tempo. Questo per capire
meglio ciò che sta avvenendo. Per capire quindi cosa intendiamo per “crescita economica”, partiamo
dalle origini. Tutto ha inizio con la Rivoluzione Industriale (prima della Commissione Sarkozy) che
accelerò i processi di produzione (ricordiamo che un processo di produzione consiste nella
trasformazione dei beni naturali in prodotti finiti o servizi).

Questo fenomeno può essere letto


attraverso il seguente grafico, che
misura il PIL pro capite nel mondo dal
1600 al 2003. Solo 200 anni dopo, nel
1800, si iniziò ad osservare un
cambiamento concreto: il PIL pro
capite del mondo inizia infatti a
crescere con tassi sconosciuti, fino a
quando nel 1950 si assiste al ginocchio nella curva, a seguito del quale cambia il tasso di crescita nel
mondo. Questo è attribuibile all’effetto del grande sviluppo tecnologico che ha portato la Seconda
Guerra Mondiale. I processi industriali, avendo consentito la rapida trasformazione di beni naturali
in prodotti finiti e servizi hanno fatto crescere il reddito pro capite. Si presti attenzione al fatto che
questo nel grafico è un reddito medio pro capite tra tutti i Paesi, ma se vedessimo il reddito dei Paesi
del G20 la retta sarebbe molto più verticale. Quella dei Paesi poveri, invece, ha una pendenza molto
più bassa: quindi possiamo concludere che l’industrializzazione ha generato un incremento del PIL
nei Paesi in cui si è manifestata e ha generato anche un aumento delle disuguaglianze. Ma
veramente l’incremento del PIL ci rende solo felici? NO! Sì, l’incremento del PIL è fondamentale, così
come lo è stata la rivoluzione industriale, ma abbiamo capito che questa crescita sta avvenendo
TROPPO RAPIDAMENTE! C’è un problema, perché questa crescita porta con sé l’insostenibilità.

Vediamo ad esempio il PIL pro capite del Regno Unito, paese in cui è partita la Rivoluzione.

Vediamo come con la rivoluzione, c’è


stato un processo di crescita
elevatissimo. Si è verificato un processo
di accumulazione capitalistica
differenziata: c’è chi può godere dei
capitali accumulati e chi deve
combattere per averli, le disuguaglianze
anche nel singolo paese sono
elevatissime.
La concettualizzazione della crescita economica nasce con i grandi economisti della storia.

Adam Smith (1732-1790) fu l’economista che incominciò a vedere gli effetti dirompenti delle
macchine, che entrarono nei primi grandi centri di produzione artigianale per generare forza
motrice. Vide gli effetti del cambiamento tecnologico, le prime forme di industrializzazione ed
esaminò come il cambiamento tecnologico poteva essere utile per migliorare lo stato della società.
Nel dettaglio, egli esaminò la relazione tra cambiamento tecnologico, divisione del lavoro e
cambiamento strutturale dell’economia. Individuò il concetto di divisione del lavoro: la divisione del
lavoro aumenta la produttività→ bisogna frammentare il ciclo produttivo, così ognuno diventerà
specialista di una parte del lavoro. Questo fu possibile perché iniziarono a comparire le prime
macchine motrici a vapore, i primi telai meccanici, che permisero proprio la specializzazione del
lavoro. Secondo Adam Smith, il processo tecnologico viene incorporato nei beni capitali, i beni che
servono a produrre e che portano ad una specializzazione del lavoro e quindi ad un aumento della
produttività. Adam Smith, però, non si concentrò sul processo di generazione di innovazioni.

David Ricardo (1772-1823) visse dopo Watt e incominciò a vedere la diffusione delle macchine in
tutte le industrie, non solo in quelle dell’acciaio, ma anche nelle tessili ad esempio. Secondo Ricardo,
questo effetto del progresso tecnico è rilevante ma ha una dinamica un po’ più complessa di quella
vista da Smith. Il processo tecnologico ha una natura esogena e una natura endogena. Dal punto di
vista endogeno l’innovazione porta a una riduzione dei prezzi e ad un aumento della domanda; se
riduco i prezzi, divento più competitivo, ho margini maggiori e posso aumentare i salari (o reinvestire
quel margine); aumentando la domanda, produco di più e quindi si mette in moto un meccanismo
fondamentale: un meccanismo basato sul consumo. Dal punto di vista esogeno, se ho innovazione,
divento più produttivo e grazie alle macchine posso ridurre il numero di persone; quindi, l’effetto
esogeno è la riduzione del livello di occupazione, che viene visto come un effetto positivo.

Secondo Karl Marx (1818-1883), l’innovazione è incorporata nelle macchine e che un nuovo settore,
ossia il settore dei produttori di macchine sta nascendo e le trasformando le macchine da inefficienti
a standardizzate. Si concentra sul concetto di standardizzazione (precursore del fordismo e del
taylorismo) e sugli effetti sociali dell’innovazione. L’innovazione è una dinamica complessa, non c’è
solo l’inventore ma c’è un processo sociale che porta allo sviluppo dell’innovazione e alla sua
incorporazione nelle macchine. C’è una contrapposizione di interessi tra il produttore della macchina
(il capitalista) e il lavoratore. Investendo capitale sul bene macchina, questo darà un ritorno di
capitale e la possibilità del capitalista di appropriarsi della rendita capitalistica→lotta di classe tra
capitalista e lavoratori. Marx afferma che bisognerebbe aumentare i salari visto che quel capitale è
generato grazie ai lavoratori e così nasce un conflitto tra lavoratori e capitalisti. Questa questione è
ancora viva e presente nella società di oggi, e l’obiettivo è quello di ricucire questo divario.

Fino a Marx si associava la crescita economica alla crescita dei redditi. La crescita economica viene
definita in maniera più puntuale da Schumpeter, il primo grande economista dell’innovazione.

Secondo Schumpeter (1883-1950), infatti, l’innovazione non era all’origine del processo di crescita
ma era all’origine del processo di sviluppo. Schumpeter quindi differenzia quindi crescita e sviluppo,
cosa che gli economisti del passato non avevano fatto. La crescita economica è definita come un
processo graduale di espansione produttiva (si producono più beni dello stesso tipo con gli stessi
metodi), lo sviluppo invece è un fenomeno radicale, che porta ad una trasformazione dei processi
produttivi e all’introduzione di nuovi beni. Si dà un’accezione diversa al concetto di sviluppo.

Oggi quando parliamo di crescita economica ci riferiamo ad un concetto strettamente economico,


molto formalizzato, riferito a paesi già dotati di una struttura industriale ed economica articolata. Si
parla di crescita economica quando si fa riferimento all’incremento di PIL di paesi già
economicamente sviluppati. Il filone dello sviluppo si occupa dell’analisi di problemi e processi di
sviluppo economico in paesi con bassi livelli di reddito e con uno scarso livello di infrastrutture
produttive, adottando frequentemente un approccio multidisciplinare. Le economie ad alto reddito
si focalizzano sulla crescita economica perché sanno che essa si porterà dietro automaticamente
anche lo sviluppo. Nelle economie a basso reddito, invece, dobbiamo per forza parlare di sviluppo
perché bisogna prima dotare questi paesi delle infrastrutture industriali ed economiche necessarie
alla crescita del PIL.

→Quando si parla di crescita economica si fa riferimento al concetto di crescita ed incremento del


PIL. Ma cosa è il PIL?

Gross Domestic Product (GDP) (o PIL in italiano): tutti i redditi che risultano dalla produzione di beni
e servizi che avvengono in un dato paese (home economy), non ci si preoccupa di chi è possessore
del reddito in quel paese. Tedesco, Austriaco o Italiano, l’importante è che la produzione avvenga in
QUEL paese. Quindi, se un italiano fa un investimento in una società in Brasile, questo investimento
NON rientrerà nel PIL Italiano, perché non è interno al paese.

Gross National Product (GNP): (o PNL in italiano) è il GDP più i redditi che vengono percepiti dai
residenti in quel paese, anche con beni all’estero. Esclude TUTTI i redditi che vengono prodotti in
quel Paese ma sono prodotti da persone che NON risiedono in quel Paese. Pone enfasi sulla
nazionalità di chi detiene i mezzi produttivi e i redditi.

N.B: la differenza tra lordo e netto sta negli ammortamenti.

→ Quando si parla di sviluppo economico di un paese ci sono diverse variabili che entrano in gioco.
A livello internazionale, la variabile più accreditata è l’HDI, che abbiamo analizzato nelle lezioni
passate.

Concentriamoci sulla crescita economica, e andiamo a vedere nei paesi sviluppati cosa succede alla
crescita del PIL. In questo grafico troviamo una valutazione della variazione % degli output:

Sulle ascisse troviamo gli


anni, sulle ordinate la % di
crescita economica dei
paesi. Se guardiamo i dati
per l’eurozona, vediamo che
i tassi di crescita si sono
mossi dal 2% fino al 4%,
dopodiché con la crisi si ha
una caduta dell’incremento
(con dei tassi inferiori allo
0%, quindi una decrescita
economica). A seguito della crisi del 2008 si è verificata la cosiddetta “crisi a W”: crisi-rimbalzo-nuova
crisi più piccola-nuovo rimbalzo. L’Area Euro, fatta da paesi sviluppati, in termini di variazione % del
PIL ha comunque subito delle variazioni molto piccole! Vediamo invece un paese che non fa parte
dell’area euro, il Regno Unito: anche il Regno Unito ha un andamento simile all’area
euro→cominciamo a capire che la crescita economica di economie sviluppate di assesta su pochi
punti %. Anche gli USA, una grande economia, hanno quel tasso di crescita economica. Se guardiamo
invece la Cina, ci accorgiamo che si assesta su tassi che vanno dall’8 al 10%. Ma all’epoca, la Cina era
un’economia sviluppata? NO→le economie non sviluppate tendono ad avere dei tassi di crescita del
PIL più elevate, perché sono paesi che stanno sviluppando la loro base industriale, e quindi hanno
margini di crescita maggiori rispetto alle economie già sviluppate. Se osservassimo dei dati
aggiornati, la Cina sarebbe allo stesso livello di USA, UK ed eurozona, perché ormai è già sviluppata.

Vediamo quest’altro grafico:


Sulle ascisse ci sono i diversi anni, dal 1820 al 2010, e sulle ordinate sono rappresentate le % del PIL
globale detenute da diversi paesi. Notiamo come negli anni si è modificato l paese detentore della
maggiore % del PIL globale. Infatti, alla Cina si sono sostituiti gli USA. La Cina nel 2010 è al pari
dell’intera Europa! La Cina ha avuto un tracollo, ma oggi è in ripresa (ad oggi ha superato tutti);
l’Europa era al top quando sfruttava i vantaggi del colonialismo e le rivoluzioni industriali, ma è calata
progressivamente nello scorso secolo. Questo ci spiega come i tassi di incremento visti prima hanno
un integrale, che ci spiega come se il PIL cresce, il PIL l’anno dopo è più elevato. Vedere il PIL per
misurare la crescita economica rappresenta molto bene gli effetti macroeconomici.

LEZ 16: 17/11/2023

LE CAUSE DELLA CRESCITA ECONOMICA

Quali fattori determinano la crescita economica? È solo il progresso tecnico o c’è altro?

I fattori della crescita sono: capitale fisico, capitale umano, risorse naturali, progresso tecnologico.

Il CAPITALE FISICO è costituito essenzialmente da macchinari e da altri mezzi produttivi. Si divide in


capitale fisso, cioè capace di partecipare alla produzione per più periodi (i mezzi produttivi sono tutti
capitale fisso), ed in capitale circolante, ossia quella quota di capitale destinata ad esaurire la sua
funzione nell'arco di un solo periodo. L'utilizzazione del capitale fisso comporta un suo deperimento,
detto ammortamento, mentre la produzione di nuovo capitale viene chiamata investimento.
Una caratteristica che distingue il capitale fisico da altri fattori di produzione, quali le risorse naturali
o le tecnologie, è quella di essere costituito da mezzi di produzione che sono a loro volta prodotti.

Se utilizzo il capitale fisico, man mano si degrada; quindi, per mantenere lo stock di capitale fisso
devo investire, cioè, far realizzare altre macchine che a sua volta devono essere realizzate.

Il CAPITALE UMANO rappresenta – e misura idealmente – il livello di addestramento della forza


lavoro di un sistema economico. Viene tipicamente visto come “fattore lavoro” in economia. Più nel
dettaglio, se si considera il capitale umano, la produzione di un'economia dipenderà non solo dal
numero di unità di lavoro impiegate, ma anche dallo specifico grado di addestramento che ogni unità
possiede. In genere il livello di capitale umano viene identificato in via approssimativa anche con il
grado di scolarizzazione di un paese. Quindi il capitale umano evolve in concetto di fattore lavoro
introducendo il concetto di addestramento. A parità di forza lavoro, gradi di addestramento più
grandi della forza lavoro influiscono notevolmente sulla crescita. Fattore lavoro + grado di
addestramento → capitale umano

Il capitale umano è uno stock di risorse umane, da un punto di vista delle dinamiche economiche è
a tutti gli effetti una risorsa che ci serve nella produzione. Quando parliamo di capitale umano non
dobbiamo considerare solo il numero di persone ma anche il loro grado di addestramento, si fanno
investimenti al fine di aumentare il capitale umano.

Tra gli economisti si sta concretizzando sempre più l’idea che a concorrere maggiormente alla
crescita economica sia il capitale umano rispetto al capitale fisico. Questo perché probabilmente la
componente “soft” dell’attività produttiva (gestione, relazioni, comunicazione ecc.) è più impattante
ed importante della componente “hard” dell’attività produttiva (i processi in sé).

In generale, capitale fisico e capitale umano sono tra loro collegati: se ho uno stock di capitale fisico
elevato, è necessario uno stock di capitale umano elevato, con un grado di addestramento elevato.
Capitale fisico e capitale umano si devono legare e combinare in maniera organica, non possono
essere slegati tra loro. Quindi, un paese con un capitale fisico poco sviluppato difficilmente riuscirà
a trattenere nei propri confini un capitale umano sviluppato!

Le RISORSE NATURALI sono gli input produttivi non prodotti. Ne esistono di due tipi:

• Riproducibili: tendono a rigenerarsi in tempi brevi (una foresta, un banco di pesci, ecc.),
anche se l'intensità dello sfruttamento, oltre una certa soglia, può pregiudicarne il rinnovo;
• Non riproducibili: esistono in quantità finita, oppure si rinnovano nell'arco di intervalli di
tempo molto lunghi, per cui una volta che le riserve siano esaurite, è impossibile crearne
quantità ulteriori (per esempio, terra coltivabile, petrolio, minerali) nell’orizzonte temporale
di riferimento.

Le risorse naturali hanno un rapporto problematico con la crescita: ci sono molti paesi ricchi di
numerose risorse naturali, ma che non riescono a sfruttarle adeguatamente. Basti pensare al
Venezuela, ricchissimo di petrolio, la Nigeria, ricchissimo di uranio: tutti questi paesi NON riescono
a sfruttare adeguatamente queste risorse perché sono povere di capitale fisico e capitale umano.
Questo porta questi paesi a fare concessioni di queste risorse naturali verso altri paesi stranieri→
“dannazione delle risorse naturali”: ho le risorse naturali ma non riesco ad utilizzarle!

Ci sono poi paesi in grado di gestire al meglio le proprie risorse naturali e riescono a svilupparsi.

La TECNOLOGIA indica l'insieme dei processi produttivi disponibili in un determinato momento nel
sistema economico al fine di produrre un certo bene. Viene generalmente intesa in una dimensione
statica in quanto si riferisce a uno stato delle conoscenze tecnologiche che è proprio della globalità
delle imprese operanti in un medesimo settore (presupponendo un contesto di perfetta trasmissione
delle informazioni). Sono processi con cui utilizziamo capitale fisico, umano e naturale per realizzare
trasformazioni ad ottenere gli output finali destinati al mercato finale.

È necessario sempre considerare lo stock di conoscenze disponibili. La tecnologia da un lato è un


insieme di processi produttivi ma, se la vediamo in termini moderni, quella tecnologia è conoscenza;
quindi, disporre di tecnologie significa non solo disporre di macchine ma significa anche disporre di
conoscenze: un’altra forma di capitale è lo stock di conoscenze a disposizione. Ma se il capitale
umano lo valuto attraverso la scolarizzazione, allora la conoscenza sta nel capitale umano? Sì, ma la
conoscenza sta sempre più diventando qualcosa di più esterno alle risorse umane. Lo stock di
conoscenza sta diventando sempre più importante perché si sta separando sempre più dal capitale
umano, che è valutato tramite la scolarizzazione e sta aumentando lo stock di conoscenza separato
dal capitale umano. Lo stock di conoscenza è alimentato da un flusso di innovazione; questo stock di
conoscenza ha anch’esso una sua possibilità di essere trasferito altrove. Più andiamo verso processi
di dematerializzazione delle imprese, più aumenta lo stock di conoscenza; con la ricerca si aumenta
lo stock di conoscenza dell’impresa. Ancora, lo stock di conoscenza permette a sua volta di generare
nuova conoscenza, e quindi, innovazione. Lo stock di conoscenza abilita innovazione, nuova
conoscenza, e questa nuova conoscenza alimenta lo stock di conoscenze! Un’economia può
beneficiare di progresso tecnologico, di innovazioni, quanto maggiore è il proprio stock di
conoscenze: non ci meravigliamo se i paesi con i maggiori stock di conoscenza sono quelli più
innovativi!

Stiamo andando verso una economia sempre più basato sulla conoscenza→ knowledge-based
economy. Le economie si stanno sempre più materializzando, ma dall’altro lato si stanno anche
dematerializzando perché aumenta lo stock di conoscenze, e ciò è fondamentale perché produce
valore; si va incontro a sistemi economici sempre più basati sulle conoscenze. Per generare nuova
conoscenza, innoviamo e quindi siamo più competitivi: l’innovazione è causa di competitività.

La crescita economica è una valutazione dell’espansione della produzione e quindi per valutarla
utilizziamo il PIL.

Quindi il PROGRESSO TECNICO è il complesso delle innovazioni tecnologiche introdotte o da impresa


o da gruppi di queste, nei suoi effetti sull’intero sistema economico. Il progresso tecnico indica quindi
tutte le nuove tecnologie che vengono incorporate da un sistema economico, con i loro effetti sul
sistema stesso.

RELAZIONE TRA PROGRESSO TECNICO E CRESCITA DEL PIL

Abbiamo capito che esistono 4 fattori di crescita. Adesso vogliamo trovare una relazione strutturata
tra il PIL e questi fattori.

Possiamo scrivere una funzione di produzione dove l’output a livello aggregato, cioè il PIL, è una
funzione dei fattori di produzione impiegati ovvero capitale (K) e lavoro (L) e dell’efficienza del loro
impiego (y)

PIL = Y = f (K, L, y)

Se voglio generare output in un processo di trasformazione produttiva, ho bisogno di capitale e


lavoro. Tradizionalmente lo stock di conoscenza finisce dentro il capitale in parte, ma in altra parte
finisce nel lavoro perché aumenta quando gli individui hanno un alto grado di scolarizzazione.

Il PIL è in una relazione funzionale con capitale e lavoro. Fondamentale è la combinazione dei due
fattori, che devono essere impiegati in modo efficiente.

Se aumento K cosa succede? E se aumento L? All’aumentare di K aumenta l’output, tenendo L


costante. Lo stesso avviene se tenendo K costante aumento L. Aumentare il fattore lavoro vuol dire
aumentare il PIL. Stessa cosa se aumento il capitale.
Attenzione, Y = f (bK, bL) implica Y = b* f (K, L) → allora la funzione di produzione ha rendimenti di
scala costanti!

Sì, ma che vuol dire “aumentare il fattore lavoro”? Vuol dire aumentare la popolazione in età
lavorativa. E se abbiamo un calo demografico? Si riduce L e quindi il PIL! Nel breve termine per
contrastare la riduzione di L posso solo favorire l’immigrazione; nel lungo termine posso fare
politiche a sostegno dele famiglie.

Sì, ma che vuol dire “aumentare il capitale fisico”? Vuol dire fare maggiori investimenti. Un esempio
è il PNRR, che in Italia ha l’obiettivo di generare un delta K positivo per ogni anno, spingendo verso
la crescita del PIL. Il drawback è la possibilità di creare disoccupazione da un lato e aumento
spropositato del capitale dall’altro. Iniettare nell’economia di un paese, all’improvviso, un capitale
elevato, genera un impiego NON efficiente di capitale e lavoro. Il PIL, alla fine dei conti, è una ricetta:
ho bisogno di un po’ di capitale e un po’ di lavoro, e questi fattori produttivi devono combinarsi
organicamente per produrre l’output. Se aumento improvvisamente un fattore a parità dell’altro,
questo aumento non sarà efficiente!

Quindi l’aumento del PIL a seguito dell’aumento di uno dei due fattori, a parità dell’altro, genera una
crescita anomala del PIL, che è tutt’altro che efficiente.

La produttività media del lavoro dipende dalla dotazione di capitale fisico, capitale intellettuale,
risorse naturali per unità di lavoro, nonché stato della tecnica e delle conoscenze. Se aumentassimo
lo stock di capitale, a parità di L aumenta il PIL e quindi la produttività media del lavoro.

Produttività media del lavoro = Y / L = PIL /L = (f(K, L))/L

Produttività “media” perché si fa sempre riferimento ai valori aggregati.

PIL e fattore lavoro

Grazie a questa definizione, riscriviamo il PIL con una semplice espressione:

PIL = N° occupati x N° ore lavorative annue x produttività oraria

Per aumentare il PIL posso: aumentare l’occupazione; aumentare il numero di ore lavorative annue
(tenendo costanti le altre variabili); aumentando la produttività oraria (a parità delle altre variabili).
Il fattore lavoro è quindi il prodotto di numero di occupati e ore lavorative annue. Di conseguenza,
nella produttività oraria avremo il contributo del fattore capitale e dell’efficienza di utilizzo dei fattori
di produzione (e quindi della combinazione di capitale e lavoro). Più il capitale cresce, combinandosi
col fattore lavoro, più esso contribuisce alla crescita del PIL.

La produttività oraria è il valore del prodotto generato per ogni ora di lavoro di un occupato. Ci dice
come tutti gli altri fattori si combinano con l’unità di fattore lavoro. Dipende dallo stock di capitale
fisico, dall’efficienza dell’impiego del fattore lavoro e del fattore capitale, è un valore fondamentale
che dobbiamo tenere sempre sotto controllo: più siamo produttivi in termini di produttività oraria,
più valore creiamo. Questo valore in più che viene creato, che fine fa? È possibile grazie a questo
valore riconoscere un incremento di salario ai dipendenti.

LEZ 17: 22/11/2023

La perdita dei posti di lavoro non è solo un problema sociale, ma anche economico perché vedo il
PIL ridursi, ma posso vedere il numero di occupati ridursi perché non ho personale, la popolazione
invecchia: entrano in gioco le dinamiche demografiche. La crescita demografica ha un impatto
fondamentale sul fattore L. Con i migranti questo problema potrebbe risolversi, quindi anche la
politica sui migranti diventa una politica economica.

Le ore lavorative annue sono definite dai contratti, con il tempo tendono a diminuire perché
l’umanità vuole affrancarsi dal lavoro.

Se voglio aumentare il numero di occupati e ridurre le ore lavorative, come faccio ad aumentare il
PIL? Entra in gioco la produttività oraria. Cerco di produrre di più nel tempo; se amento di tanto la
produttività così come è successo dall’800 in poi posso ridurre le ore lavorative annue. La produttività
dipende dalla tecnologia, dai mezzi che ho a disposizione. Se si è capaci di aumentare la produttività
oraria abbiamo risolto ogni problema: non è necessario che aumenti la popolazione, i migranti non
sono più importanti dal punto di vista della forza lavoro, posso ridurre le ore di lavoro. Se aumento
la produttività oraria posso aumentare i salari, ma per fare questo devo aumentare lo stock di
capitale e tecnologia.

Qualsiasi discorso sul PIL, quindi, richiede sempre di menzionare l’aumento della produttività oraria.

ESERCIZIO:

Siamo in Italia, nel 2006. Gli occupati sono in media 2297800 (fonte Istat), con 1600 ore lavorative
annue medie. Sapendo che il PIL è pari a 1475 miliardi di euro, determinare la produttività oraria.
Prima riflessione: il divario tra la popolazione complessiva e gli occupati rappresenta proprio la
disoccupazione, che genera un ritorno negativo sul PIL! Ridurre la disoccupazione mi permette di
avere una crescita del PIL senza agire su ore lavorative e produttività oraria.

1475 ∗ 109 [€] €


𝑝𝑟𝑜𝑑𝑢𝑡𝑡𝑖𝑣𝑖𝑡à 𝑜𝑟𝑎𝑟𝑖𝑎 = 𝑜𝑟𝑒 = 40,1
22978000 [𝑜𝑐𝑐𝑢𝑝𝑎𝑡𝑖] ∗ 1600[ ] 𝑜𝑟𝑎
𝑜𝑐𝑐𝑢𝑝𝑎𝑡𝑖

Otteniamo la produttività oraria dalla formula inversa che lega il PIL al fattore lavoro e alla
produttività oraria. Potremmo calcolare la produttività oraria in ogni anno, per vedere come essa
varia. Essendo la produttività il valore creato per ora lavorata nel paese, bisogna considerare che
questo valore tiene conto di TUTTI gli occupati di un Paese, dall’operaio al dipendente pubblico. Ci
da informazioni sull’efficienza della combinazione del fattore capitale col fattore lavoro, oltre che la
dotazione di capitale presente in quel paese in quell’anno.

C’è però un’altra considerazione: questo valore è un valore medio→mediamente, con quel valore
non posso remunerare l’ora lavorata in Italia. Questo valore deriva dal PIL. Questo vuol dire che quel
valore di 40,1 in parte compenserà salari e stipendi, in parte remunererà l’imprenditore, in parte
alimenterà il sistema economico del paese, tramite imposizioni fiscali e finanziamento del
welfare→più cresce la produttività oraria, maggiori saranno salari e stipendi, remunerazione
dell’imprenditore e finanziamento del sistema economico del paese! Quindi la produttività è la
chiave: essere in grado di aumentarla permetterebbe di risolvere moltissimi problemi. La
produttività è lo stato di salute del sistema economico, è la capacità di generare PIL. In Italia sta
crescendo pochissimo da più di 20 anni. È il termometro dell’economia del Paese. Attenzione: un
Paese che ha produttività elevate, pur avendo stipendi e salari maggiori, rimane comunque
competitivo perché ha una maggiore produttività oraria.

Facciamo un ragionamento:

Bisogna distinguere PIL reale da PIL potenziale. Il PIL reale è il PIL effettivo del paese; il PIL potenziale
è il massimo ottenibile se non avessi disoccupazione! Il PIL potenziale è il PIL massimo ottenibile in
quel paese con quei fattori, ma poiché non riesco a tenere massima l’occupazione (ci sarà sempre
un certo grado di disoccupazione*) avrò un PIL reale. Tanto maggiore è il divario tra PIL potenziale e
reale, tanto più il paese sta lavorando al di sotto delle sue possibilità, e si trova quindi in condizioni
di depressione economica.
*anche in una situazione ipotetica in cui tutti siano occupati, ci sarà sempre un livello minimo di
disoccupazione dato da tutti quegli occupati che passano da un’occupazione ad un’altra
(turnaround).

PIL e fattore capitale

Il fattore capitale è l’insieme dei macchinari, impianti e beni/attrezzature necessari per svolgere
l’attività produttiva. Sappiamo che il PIL è condizionato dal capitale e in particolare dallo stock di
capitale (capitale fisso) che nel momento in cui cresce fa osservare una crescita del PIL a parità di
fattore lavoro.

Bisogna prestare attenzione al livello del “PIL reale”. Il livello del PIL reale, infatti, dipende anche dal
grado di sfruttamento dello stock di capitale disponibile: se lo stock di capitale viene parzialmente
sfruttato, come ad esempio un impianto che non viene utilizzato al massimo, il PIL reale è inferiore
al caso di pieno sfruttamento. Se lo stock di capitale è sfruttato al 100% mi aspetto di produrre il
valore del PIL. Se invece non è sfruttato al 100%, ho un PIL reale che differisce da quello potenziale.
Più innalzo il grado di sfruttamento degli impianti più sono in grado di innalzare il PIL reale. Il grado
di sfruttamento non è mai al 100%. In generale le imprese non operano mai al massimo livello dello
sfruttamento dello stock di capitale: si fa un investimento per 100 sapendo che gli impianti vengono
utilizzati al 80-85% perché le imprese vogliono mantenersi un margine di crescita laddove la
domanda dovesse aumentare. Il PIL potenziale non viene MAI raggiunto.

Ne consegue che, quando si va ad effettuare le misure dello sfruttamento dello stock di capitale si
hanno spesso sorprese: lo stock di capitale viene spesso utilizzato in maniera eccessivamente
prudente (il 60-70% dello sfruttamento è un valore molto vicino alla realtà). Questo perché nel
calcolo si considerano tutti gli impianti attualmente fermi per modifiche, manutenzioni, revamping
ecc. ma anche tutti gli impianti fermi posseduti da imprese che sono fallite. Al crescere del capitale
sfruttato cresce il PIL reale.

La macchina economica di un paese, guidata dai fattori capitale e lavoro e dalla loro combinazione,
è fortemente influenzata da fattori che generano una riduzione dell’output (PIL) dal suo valore
potenziale, al suo valore reale. Le politiche economiche di un paese sono tutte quelle politiche volte
a migliorare la combinazione tra fattore capitale e lavoro, al fine di ridurre il divario tra PIL reale e
potenziale.

ECONOMIC GROWTH HARROD-DOMAR MODEL


È un modello matematico semplice che non considera il fattore lavoro ma solo il capitale. Questo
modello è fusione di due modelli introdotti a cavallo della Seconda Guerra Mondiale, e permette di
descrivere la crescita economica. Ricordiamo che la crescita economica si misura come incremento
del PIL. Questo modello ha avuto un ruolo importante per la sua semplicità nel far comprendere che
non sono possibili tassi di crescita dell’economia che non tengano conto della reale struttura del
sistema economico. Esistono almeno due elementi rappresentativi del sistema economico con cui
bisogna fare per forza i conti per descrivere la crescita di un sistema economico:

• risparmio: quando si produce un reddito, gli individui lo destinano in parte al consumo e in


parte al risparmio. La prima considerazione che va fatta è che la possibilità che un’economia
cresca è legata alla propensione al risparmio;
• produttività del capitale: quanto il capitale è in grado di produrre in termini di PIL.

La crescita dipende dal livello di lavoro e capitale. Se voglio crescere attraverso il fattore capitale
devo fare investimenti che portino ad aumentare lo stock di capitale: questo è il cosiddetto processo
di accumulazione di capitale. Ogni volta che faccio degli investimenti e incremento lo stock di
capitale, incremento anche il PIL. L’accumulo di capitale, l’acquisizione dei mezzi produttivi, avviene
per mezzo degli investimenti. L’investimento si genera risparmiando→È questo il tema che Harrod e
Domar vogliono esaminare, essendo convinti che il modello di crescita economica sia influenzato
dalla propensione al risparmio e dalla produttività di capitale. Questo modello è stato il precursore
del modello di crescita esogeno. Stante il fattore lavoro, più cresce il capitale, più cresce l’economia:
devo fare accumulazione di capitale, e per fare questo devo investire. Ma quegli investimenti
provengono dai risparmi. Si è intuita la presenza di un legame tra stock di capitale (che permette di
far crescere il PIL) e il risparmio che quell’economia può generare. Risparmio e consumo, insieme,
costituiscono il totale del PIL, perché di questo una parte sarà destinata ai consumi, e l’altra parte ai
risparmi. Potrò far leva sul risparmio, generato dal PIL stesso. Esiste una relazione tra risparmio e
incremento di capitale che consente la crescita economica.

Harrod e Domar costruiscono un modello che serve per calcolare e capire quanto vale (se esiste)
un tasso di crescita in condizioni di equilibrio del sistema economico. Equilibrio significa che si
ipotizza una condizione in cui i risparmi vengano convertiti totalmente in investimenti. Il consumo
alimenta la domanda mentre i risparmi vengono trasformati in investimenti per aumentare lo stock
di capitale.

Cond. di equilibrio: Totale risparmi = Totale investimenti


Il tasso di crescita di equilibrio è g; Y è il GDP e S sono i risparmi totali, C sono i consumi. Allora,
diciamo che:

C + S = GDP

Sappiamo che il livello dei risparmi è funzione del livello di GDP→S è una frazione del GDP:

S = sY

Dove s è un numero compreso tra 0 e 1. Se avessimo 0 a fronte di un PIL pari ad Y non avremmo
risparmi. Se s fosse pari a 1, avremmo i risparmi esattamente pari al PIL. s è chiamato propensione
marginale al risparmio. (s = 0,3 vuol dire che il 30% del PIL è destinato al risparmio e il 70% del PIL
è destinato ai consumi). Quindi i risparmi totali sono pari al totale dell’output moltiplicato per la
propensione marginale al risparmio!

Consideriamo ora il livello del capitale K. Per produrre Y ho bisogno di capitale. Osserviamo che, per
produrre un certo livello di reddito o di PIL pari a Y abbiamo bisogno di uno stock di capitale che è
un certo rapporto con Y. Se devo produrre 1000€ di PIL avrò bisogno di uno stock di capitale
normalmente superiore a 1000.

K = σY

σ è il rapporto capitale/output o intensità di capitale. Ragioniamo su σ: essendo pari a K/Y, esso ci


descrive la quantità di capitale fisso necessaria per produrre un’unità di output. σ può cambiare ma
molto lentamente. È un valore caratteristico strutturale del sistema economico. È caratteristico di
ogni paese e non cambia nel breve termine. È un valore molto importante: le economie hanno come
obiettivo l’accumulazione di capitale, ma dall’altro lato, più sono dotate di capitale, più sono in grado
di generare Y. In economie molto sviluppate avrò K molto elevati→se uso il capitale in maniera
efficiente, avrò σ più bassi.

Con il risparmio faccio gli investimenti e gli investimenti servono per aumentare gli stock di capitale.
Se osservo che esiste un rapporto pari a σ che nel breve/medio periodo resta costante, ho una
possibile crescita del PIL, Δ Y legata alla crescita del Δ K.

ΔK=σΔY

L’incremento dello stock di capitale fisso è quindi responsabile dell’incremento di Y, che potrà
crescere quanto può crescere il capitale, sotto la mediazione del fattore σ. In condizione di equilibrio
sappiamo che gli investimenti sono uguali ai risparmi. Quindi: ottengo un’equazione che in
condizioni di equilibrio mi dice che ciò che io posso risparmiare si tramuta in investimento che fa
aumentare Δ K e quindi Y.

Di conseguenza se

I= Δ K = σ Δ Y

I=S, allora σ Δ Y= sY

E quindi:

g = Δ Y/Y = s/σ = s (Δ Y/ Δ K)

Questo ci fa capire che il tasso di crescita economica è vincolato dal rapporto di s/σ, non posso
crescere come voglio. Questo modello ci dice che non possiamo andare dove vogliamo con il nostro
sistema economico. L’unico tasso di crescita possibile è s/σ.

Si possono fare azioni di crescita economica per favorire l’economia. Se voglio aumentare g e
considero σ costante, dovrò aumentare s e quindi aumentare la propensione marginale al risparmio
delle famiglie. Bisogna quindi invogliare le famiglie a risparmiare di più. Con più risparmio ho più
investimento quindi più capitale e quindi maggiore PIL a parità di s. È importante far aumentare s.
Ciò significa invogliare le famiglie a non consumare, sono di solito famiglie con redditi molto elevati
che consumano molto ma sono anche in grado di risparmiare. Famiglie con redditi bassi tendono a
consumare. Se aumento la propensione al risparmio devo ridurre la propensione al consumo, per
come funziona il sistema economico questa situazione non è vista di buon grado dalle imprese.

Per aumentare g, a parità di propensione al risparmio, bisogna ridurre σ, vuol dire essere in grado di
produrre lo stesso PIL con meno K. Il modello di Harrod-Domar è quindi semplice ma fortemente
formativo per capire le componenti della crescita economica. Ci suggerisce una serie di approcci per
poter incrementare la crescita economica.

Se ho un certo stock di capitale e voglio aumentare Y devo avere un σ piccolo. Per mantenere uno
stesso output, l’ideale sarebbe avere un σ piccolo, meglio ancora se prossimo a zero. σ è influenzato
dal progresso tecnico: in un’economia l’effetto del progresso tecnico si rileva su s perché a parità di
tutto se riesco a produrre lo stesso output con meno capitale vuol dire che sto facendo progresso
tecnico. s negli effetti di sviluppo tende a crescere perché aumentando Y devo aumentare lo stock di
capitale, l’andamento di σ va esaminato, non lo posso descrivere a priori. σ ha un valore più grande
di Y.

In questo modello non vediamo in azione il fattore lavoro.

ESERCIZIO SUL MODELLO DI HARROD-DOMAR:

Assumiamo un’economia attualmente operante con una capacità produttiva di Y = 1000 e σ = 3. Devo
avere uno stock K = 3000. Assumiamo una propensione marginale al risparmio s = 0.3 e quindi
propensione ai consumi è 0.7. Il tasso di crescita g = 0.3/3 = 0.1→ossia, quell’economia ha possibilità
di crescere (incremento di Y) del 10% all’anno! In condizioni di equilibrio, questa economia cresce a
un tasso del 10%. È un tasso robusto: nella realtà avere un tasso di 1% è già tanto, perché la
propensione al risparmio è bassa, si aggira attorno allo 0.1-0.15.

OSS: La propensione al risparmio è maggiore nei paesi a redditi elevati perché loro posso
risparmiare.

Verifichiamo questo risultato e vediamo perché è una condizione di equilibrio.

Allo stato dell’esempio, con un PIL di 1000, il livello di risparmio è 0.3 x 1000 = 300 (destinati al
risparmio).

La crescita del PIL è 0.1 x 1000 = 100 (quanto possiamo crescere in termini di PIL). Quindi ci
aspettiamo che l’economia possa crescere da un PIL di 1000 ad un PIL di 1100.

L’incremento di PIL, però, deve essere compatibile con lo stock di capitale. Allora, poiché σ è 3, devo
aumentare lo stock di capitale di 300→ K = 3 x 100 = 300, che guarda caso è proprio pari ai risparmi
disponibili.

Gli investimenti dell’anno successivo saranno pari a 330 (il 10% di 1100 è 110, che con un σ di 3
richiede un incremento di stock di capitale di 330).

Attenzione:

La domanda del consumatore è di 770. La somma di 770 e 330 è 1100, cioè il nuovo output.

In buona sostanza, se voglio crescere devo essere sicuro di avere disponibilità di risparmio per poter
effettuare l’investimento, che sono quelli necessari per far aumentare lo stock di capitale che deve
garantire la crescita economica.
Il tasso di crescita deve essere compatibile con le nuove condizioni; i 330 devono essere proprio
quelli necessari per incrementare lo stock di capitale.

Per aumentare il PIL cosa faccio?

Possiamo lavorare su σ? È legata alla struttura economica quindi non la posso cambiare. Posso agire
su s, ma non è semplice, è legato al comportamento dei consumatori. Bisogna far accrescere K e
come si fa? Investimenti! I = ΔK, devo investire, solo così aumenta il PIL. Per investire devo
risparmiare. Ma se ho una Y grande devo garantire in condizioni di equilibrio che ci sia uno stock di
capitale incrementato (di 330 se ritorno all'esempio di prima), posso allontanarmi da una situazione
di equilibrio ma solo per poco perché poi dovrò restituire parte del capitale e lo prenderà da S.

ESERCIZIO 2:

s = 16 %

Y = 1800 bn Euro

σ = 3.0

I = 0,16 Y = 288 bn Euro

I = Δ K = σ Δ Y = 3.0 Δ Y;

Δ Y = 288/3 = 96 bn Euro

g = Δ Y/Y = s/ σ = 0.16/3.0 = 0.053 tasso di crescita del 5%

Questi dati sono molto simili a quelli dell’economia italiana: in queste condizioni, l’economia
crescerebbe del 5%, e sarebbe fantastico se fosse vero.

Vediamo cosa succede cambiando qualche parametro: modifichiamo prima s e poi σ:


Riducendo s, a parità di σ, notiamo come il tasso di crescita si riduce. A parità di s, aumentando σ e
quindi aumentando l’accumulo di capitale, si avrebbe una riduzione piccola del tasso di crescita. Più
un’economia ha un σ elevato, più il tasso di crescita si riduce! Quindi, dato un sistema economico e
il suo tasso di crescita g, è sempre opportuno vedere come si modifica questo tasso riducendo s ed
aumentando σ. Ovviamente, il modello di H-D è semplificato. Nonostante ciò, grazie al rapporto s/
σ permette molto facilmente e velocemente di avere un’idea delle condizioni di crescita di un
sistema economico, mettendo in risalto i due aspetti fondamentali per la crescita: l’accumulazione
capitalistica, che permette gli investimenti; la dotazione di capitale.

Vediamo le
propensioni
al risparmio
dei diversi
paesi.
Possiamo
fare molte
riflessioni su
questo
grafico: in
Italia, dal
22% nel 1996 si è scesi al 12% nel 2011. l’Italia era, tra tutte le economie dell’area Euro, quella a
risparmiare di più. Adesso, invece, è l’economia che risparmia di meno! È aumentata la propensione
al consumo e quindi la domanda. Avere una più bassa propensione al risparmio, a parità di σ,
comporta per il modello di H-D un tasso di crescita minore! Questa riduzione del tasso di crescita in
Italia è anche significativa: abbiamo un quasi dimezzamento della propensione al risparmio, e quindi
un quasi dimezzamento del tasso di crescita! La Germania, d’altro canto, è il paese con la maggior
propensione al risparmio, e quindi con il maggior tasso di crescita (insieme alla Francia). La Spagna
ha un andamento particolare: ha un aumento della propensione al risparmio negli anni della crisi e
poi ha una diminuzione, come l’Italia. Regno Unito e Stati Uniti presentano una propensione al
risparmio molto bassa rispetto ai paesi euro: quei paesi sono più propensi al consumo, e quindi
hanno dei tassi di crescita più bassi di quelli europei secondo il modello di H-D. In realtà, scopriamo
che quei paesi hanno dei tassi di crescita più elevati di quelli dei paesi europei, e dovremo capire
perché!
Questo grafico ci insegna nuovamente che, riducendo la propensione al risparmio, il tasso di crescita
in condizioni di equilibrio è più basso.

Quest’altro grafico, preso da un report


della Banca d’Italia, ci descrive
l’andamento della propensione al
risparmio delle famiglie italiane: si passa
dal 1999 con una propensione al
risparmio di circa 15% al 2019 con una
propensione al risparmio di poco più del
10%. L’Italia quindi ha vissuto e vive una
situazione di contrazione economica e
dei redditi, che ha come effetto
collaterale una riduzione della
propensione al risparmio, a favore della propensione al consumo. In ogni caso, l’Italia si assesta
sempre su una propensione al risparmio del 10% circa. L’area euro, in media, ha fatto meglio
dell’Italia. La linea tratteggiata, invece, descrive la propensione al risparmio delle famiglie
consumatrici: le famiglie consumatrici si distinguono da quelle produttrici, ossia le imprese.
Considerare le famiglie consumatrici vuol dire considerare SOLO le famiglie, e non le imprese, e
questo valore è molto basso→le imprese hanno una propensione al risparmio maggiore delle
famiglie→il reddito delle famiglie consumatrici, per il 92% circa va al consumo, e solo l’8% va al
risparmio! Le famiglie consumatrici hanno quasi completamente eroso il processo di risparmio.

ESERCIZIO PER CASA: quali parametri strutturali del sistema economico (s e σ) garantiscono un tasso
di crescita pari al 4%, con un PIL di Y=1800 bn euro?

PRODUTTIVITÀ DEL LAVORO E STOCK DI CAPITALE

Adesso dobbiamo evolvere il modello di Harold-Domar. Questo modello considera al centro il


processo di accumulazione capitalistica. A partire da ciò, possiamo ragionare sulla produttività di
lavoro. Sappiamo che la produttività del lavoro (produzione ottenibile per occupato) è influenzata
dallo stock di capitale a disposizione di ciascun lavoratore. Quindi, per aumentare il PIL, secondo il
modello di H-D, dobbiamo lavorare sullo stock di capitale per addetto. Per aumentare la produttività
bisogna dare più stock di capitale per addetto.

→LEGAME DELLA PRODUTTIVITÀ COL PROGRESSO TECNICO:


La produttività del lavoro,, in realtà, può aumentare anche per effetto delle innovazioni tecnologiche
(e non solo grazie allo stock di capitale), le quali rendono disponibili macchinari e impianti di nuovo
tipo, caratterizzati da un miglior sfruttamento dei fattori di produzione, rendendo quindi possibile
un’innovazione di processo.

Non è importante solo la quantità dell’investimento, ma anche la qualità dell’investimento è


fondamentale: l’innovazione tecnologica aumenta la qualità dello stock di capitale e quindi le
performance del capitale→ad esempio, se ad un tornio tradizionale affianco un tornio a CNC, io sto
aumentando la qualità dello stock di capitale, ottenendo così incrementi maggiori alla produttività
del lavoro (rispetto al caso in cui ad un tornio tradizionale affiancassi un altro tornio tradizionale,
prediligendo la quantità sulla qualità). Questo perché, oltre ad aumentare la quantità di stock di
capitale, il tornio CNC incorpora innovazione tecnologica e quindi aumenta la qualità del capitale
investito e quindi le performance dello stesso sulla crescita, perché l’innovazione permette al
capitale di essere più produttivo.

Questo è un limite del modello di H-D, che vede come unica strada per la crescita l’aumento dello
stock di capitale impiegato, senza soffermarsi sull’innovazione tecnologica e sulle conseguenze che
ne derivano.

Quindi la produttività del lavoro (e quindi la crescita economica) aumenta sia aumentando lo stock
di capitale sia aumentando il progresso tecnico. Ma quale di queste due componenti influisce di
più?

Prima, ai tempi del modello di H-D, ciò che oggi è indicato come progresso tecnico era in realtà
descritto come un residuo statistico. Vale a dire, cioè, che esisteva una componente della crescita
che non era spiegata dall’aumento osservato nell’impiego dei fattori. Cioè, si andava ad imputare ad
altri fattori la causa della non totale correlazione tra incremento della produttività e incremento del
capitale pro-capite. L’incremento del capitale pro-capite NON era il solo responsabile della crescita
economica, come invece sosteneva il modello di H-D. In più, esso non era affatto la componente
predominante! Era quello che si considerava “residuo” ad essere la fonte principale della crescita.
Questo fu spiegato meglio dall’Analisi empirica di Solow (1957).

Attraverso questo studio, Solow analizzò l’andamento del PIL pro-capite negli Stati Uniti nel periodo
1909 – 1949. Concluse che non era l’incremento dello stock di capitale importante, ma era più
importante il progresso tecnico. Il progresso tecnico era la fonte principale di crescita, mentre
l’apporto dell’aumento nella produttività del lavoro, indotta da un incremento del capitale pro-
capite, aveva un ruolo secondario. Il famoso “residuo statistico” era in realtà il responsabile
dell’87,5% dell’incremento della produttività e quindi della crescita economica. Quello che invece si
pensava essere il vero motore della crescita economica, spiegava solo il 12.5% dell’incremento di
produttività. Attenzione, però: lo studio di Solow trae conclusioni circoscritte al periodo storico
(1909-1949) e al paese di riferimento (USA), e non possono essere generalizzate al mondo intero.

Questo aprì a prospettive totalmente nuove ai sistemi economici e alle politiche economiche. Le
politiche economiche passarono a focalizzarsi sul progresso tecnico e sulle innovazioni tecnologiche.
Solow fu influenzato dal pensiero di Schumpeter: ecco l’economia dell’innovazione→i governi
capiscono che occorre investire in innovazione tecnologiche, per spingere l’incremento della
produttività oraria e quindi la crescita economica! Conta più investire meglio che investire tanto.
L’interesse verso l’incremento dello stock di capitale resta comunque, ma a differenza del modello
di H-D questo non è più l’unico aspetto da considerare.

LEZ 18: 23/11/2023


Nella condizione strutturale di partenza dell’economia italiana, abbiamo investimenti pari ai
risparmi, e quindi secondo il modello di H-D investimenti di circa 60 miliardi di euro, e un tasso di
crescita dell’output pari al 3% →stiamo crescendo del 3%. Ora, se volessimo interrogarci sugli effetti
del PNRR, cosa dovremmo considerare? Il PNRR serve per recuperare l’andamento e la crescita
dell’economia a seguito della pandemia. Il PNRR ha una struttura precisa: è un’allocazione di risorse,
che per l’Italia ammonta a circa 210 miliardi di euro. Di questi 210 miliardi, una parte è un contributo
a fondo perduto (senza restituzione), un’altra parte è un prestito, che va restituito. Il PNRR ha una
durata di 3 anni, pertanto questi 210 miliardi di euro saranno spalmati su 3 anni, dal 2024 al 2026
circa. L’effetto del PNRR è quello di aggiungere 210/3 miliardi di euro all’anno negli investimenti.
Cosa genera questa iniezione di investimenti aggiuntiva nel sistema economico, secondo il modello
di H-D?

Osserviamo che, indipendentemente da quella che sarà poi la necessità di restituire parte di questo
finanziamento, il PNRR genera un incremento delle risorse disponibili per gli investimenti. Nel primo
anno, all’investimento che viene dalle risorse endogene al sistema, ossia quello tramite il risparmio
I=sY=180 miliardi di euro (in condizioni di equilibrio i risparmi sono tutti tramutati in investimenti),
si aggiunge la quota esogena, proveniente dal PNRR, 210/3 = 70 miliardi di euro. L’effetto del PNRR
è quindi quello di aumentare le risorse disponibili per gli investimenti al valore I’=250 miliardi di
euro. Sapendo che I’=σΔY’ e ΔY’ è proprio l’incremento del PIL che si verifica nel primo anno, avremo
che ΔY’=I’/σ=250/3=83 miliardi di euro→quindi il PNRR aumenta di 23 miliardi l’incremento del PIL.
Questo comporterà un nuovo tasso di crescita, che non è più pari a s/σ, che si basa invece sulle
condizioni di equilibrio tra risparmi e investimenti→questo equilibrio non vale più perché c’è anche
la quota esogena degli investimenti→g’= ΔY’/Y=83/1800=4,6% →grazie al PNRR ci aspettiamo che il
tasso di crescita aumenti, e questo avviene in maniera significativa, dal 3% al 4,6%.

Questo, per quanto riguarda il primo anno. Nel secondo anno lavoreremo su una Y+
ΔY’=1800+83=1883 miliardi di euro. Quindi, la componente endogena dell’investimento sarebbe
I=sY=0,1+1883=188,3 miliardi di euro →l’effetto del PNRR è quello non solo di sollecitare gli
investimenti nel primo anno, ma anche quello di presentare effetti positivi legati ai ritorni legati agli
investimenti sostenuti nel primo anno, negli anni successivi. Oltre I, aumenta anche Y negli anni
successivi. Seguendo i calcoli del primo anno, avremo nel secondo anno ΔY’=86 miliardi di euro, che
sommati a Y=1883 daranno il PIL per il terzo anno, che costituirà una componente endogena degli
investimenti I=0,1*(1883+86) e ad una ΔY’=89 miliardi di euro, ottenendo quindi un PIL alla fine dei
3 anni di finanziamento pari a 2058 miliardi di euro.
Ora, che succede quando finisce il PNRR? Verrà meno la componente esogena, e il paese continuerà
a crescere tramite la componente endogena, ossia le risorse provenienti dai risparmi. Il PNRR ha,
però, permesso ad Y di crescere più velocemente rispetto a come avrebbe potuto fare tenendo solo
conto degli aspetti strutturali del sistema economico (σ e s).

Il problema è che parte del PNRR va restituita! Quindi, parte delle risorse risparmiate saranno
destinate alla restituzione del finanziamento, quindi si avrà una riduzione di s. Questo è lo schema
su cui si basa e opera il PNRR. Il modello di H-D consente di fare molte valutazioni importanti: la
restituzione del finanziamento causa una riduzione di s, che riduce la crescita negli anni successivi al
PNRR→gli investimenti futuri al PNRR si ridurranno perché ci sarà una componente negativa legata
alla restituzione del prestito per cui I’=I-ΔY. Questo porterà, purtroppo, ad una riduzione di g, che
sarà condizionato da questi effetti, che causano la perdita delle condizioni di equilibrio.

OSS: non abbiamo considerato per niente la variabile lavoro, perché il PNRR incide solo sul capitale.
In realtà, questi investimenti sono mirati anche a far crescere l’occupazione nel sistema economico.
In termini aggregati, noi dobbiamo sempre pensare alla funzione produzione Y= f (K, L, y) che ci
descrive la presenza di una combinazione ottimale di K e L. Che succede quindi se genero un ΔK’>ΔK?
Ci si aspetterebbe un ΔL’>ΔL adeguato al ΔK’. La generazione di un impulso di K, in realtà, NON genera
il corrispettivo in L! Aumentare impulsivamente il capitale non genera l’adeguato aumento di
lavoro→avremo il cosiddetto shortage, ossia il fenomeno di indisponibilità di forza lavoro per coprire
l’aumento di capitale. Quindi si avrà un problema di efficienza, per cui si arriva a quantità di capitale
elevatissime senza avere le risorse umane adeguate a rendere produttivo quel capitale incrementale.

NEOCLASSICAL GROWTH MODELS

Il modello H-D non considera delle variabili importanti, ma solo fattore lavoro e fattore capitale. Poi
Solow ha introdotto il progresso tecnico, che non è una componete residuale (come si pensava) ma
è una componete fondamentale, nonché la principale responsabile dell’incremento della
produttività, a discapito dell’incremento del capitale pro-capite.

Il modello di Solow insieme al modello di H-D ha dato genesi a moltissimi modelli di crescita
economica che sono oggi prevalenti, chiamati “neoclassical” perché questi modelli si basano sulla
funzione di produzione classica e rappresentano l’output (PIL, reddito) attraverso una funzione del
capitale e lavoro.
Sono modelli che hanno l’obiettivo di andare oltre il modello di H-D. Questi modelli sono basati su
analisi nel lungo periodo. Questi modelli tengono conto dell’esistenza di variabili che variano in
modo esogeno: sono variabili che entrano nel modello, ma che devono essere prese come dati del
modello, sapendo che essi possono modificarsi indipendentemente dal modello stesso. Ecco perché
questi modelli sono anche noti come “modelli a crescita esogena”. Questi modelli ovviamente sono
concentrati sull’analisi della crescita economica, e tengono conto di 4 grandi fenomeni economici:
crescita della produttività (la produttività, e in particolare la sua crescita, è fondamentale, e non è
presente in H-D), accumulo capitalistico (già presente in H-D), crescita della forza lavoro
(popolazione in età lavorativa) e progresso tecnico. Questi modelli quindi sono più complessi, si
arricchiscono di variabili per cercare di catturare meglio i dati empirici.

Modello di Solow - Swan

È il nome usato per indicare essenzialmente tutti i modelli neoclassici, attribuendo proprio a Solow
la nascita di questi modelli a partire dai limiti del modello di H-D. Il lavoro che fanno Solow e Swan è
un lavoro inizialmente autonomo, nel quale entrambi avviano un percorso di miglioramento del
modello di H-D (pubblicato nel ’46).

Nel dettaglio, Solow fa qualcosa di importantissimo: guardare i dati→i dati sono fondamentali per i
modelli matematici, proprio perché un modello matematico assume valore quando esso è in grado
di spiegare i dati. Questo permetterà poi a Solow di vincere il Nobel nel 1987.

Il punto di partenza del modello di Solow-Swan è la funzione di produzione. Comprendendo che H-


D non considerava il fattore lavoro, occorreva modificare la funzione produzione, per includere
anche il lavoro. Per fare questo è stata scelta una particolare funzione: la Funzione di Cobb –
Douglas, che lega l’output X ai due fattori L e K attraverso un’espressione di questo tipo:

Questa funzione di produzione fitta bene i dati reali quindi la uso per fare un modello della funzione
di produzione del sistema economico che sto rappresentando. È una funzione molto flessibile,
matcha bene sia in ambito macroeconomico che in ambito microeconomico, i dati empirici.

Un’altra ipotesi fatta da Solow e Swan è quella di NON considerare intervalli di tempo discreti, e di
considerare un sistema a tempo continuo.
Ancora, Solow e Swan ipotizzano che NON ci sia azione del governo, e che il sistema sia chiuso, ossia
NON ci siano importazioni ed esportazioni! L’altra ipotesi di base è la presenza di un “single good”,
un singolo output, che viene prodotto grazie ai fattori K ed L secondo la funzione aggregata di Cobb-
Douglas.

Fittando molto bene i dati, se abbiamo una funzione come quella di Cobb-Douglas, noi possiamo,
avendo i dati a disposizione di X, L e K, stimare i valori di a, b e c tramite un modello di regressione
lineare. Attenzione, la funzione così come si presenta NON è lineare in a, b e c in quanto sono
esponenti. Pertanto, è necessario renderla lineare facendo ricorso ai logaritmi!

Per effettuare una regressione lineare multipla di tre valori, riscriviamo così la funzione di partenza:

𝑙𝑛𝑋 = ln (𝑎) + 𝑏 ∗ ln (𝐿) + 𝑐 ∗ 𝑙𝑛(𝐾)

Ottenuta tramite il “metodo dei minimi quadrati”, un metodo di regressione lineare di una funzione
esponenziale.

Quindi, se in diversi periodi di tempo io riesco ad ottenere i dati empirici di Output, Lavoro e Capitale,
ossia riesco ad ottenere in diversi periodi di tempo le triplette (𝑋𝑖 ; 𝐿𝑖 ; 𝐾𝑖 ), posso stimare grazie alla
regressione lineare multipla gli esponenti a, b e c tramite i loro stimatori:

La funzione ha caratteristiche particolari in base ai valori a, b e c. 𝑎̂, 𝑏̂ e 𝑐̂ , sono gli stimatori di a, b e


c.

L’output del sistema è:

K(t) è lo stock di capitale al tempo t. L(t) è il fattore lavoro. Il fattore t indica il tempo, mentre α è un
valore compreso tra 0 e 1, ed indica l’elasticità dell’output rispetto al capitale. Y(t) è l’output, la
produzione totale, il PIL al tempo t.

Quindi, in pratica, cosa abbiamo fatto? Abbiamo trasformato una funzione di partenza, y = f (K, L, y)
in una vera e propria equazione.
La presenza del fattore A(t) è importante: ricordiamo che prima Solow riteneva il progresso tecnico
come un residuo statistico. A seguito dei suoi studi, si interrogò su come considerare l’effetto del
progresso tecnico nella funzione produzione. Solow arrivò ad includere il progresso tecnico come un
fattore moltiplicativo del fattore lavoro. Se ci pensiamo, ciò è anche logico, per quanto abbiamo
detto nelle lezioni precedenti: A(t), progresso tecnico, è ragionevolmente “catturato” dal fattore
lavoro, perché è come se il fattore lavoro fosse più efficiente grazie al progresso tecnico. È come se
il progresso tecnico avesse un effetto moltiplicativo sul fattore lavoro! NON DEL CAPITALE! Questa
ipotesi di considerare il “lavoro effettivo” come il prodotto A(t)*L(t) mostrò una correlazione migliore
con i dati empirici. Quindi il progresso tecnico è da intendere come “abilitatore” del lavoro, che
permette una maggiore efficienza di impiego del fattore lavoro.

L’ipotesi di base di questo modello di Solow-Swan è che tutti i fattori di produzione siano impiegati
totalmente, e che i valori al tempo iniziale, A(0), K(0) e L(0) siano noti, e che quindi esista una
condizione iniziale al tempo 0.

Potremmo azzardare a dire che sarà il progresso tecnico ad influire maggiormente sulla crescita
economica. Quindi la maggior allocazione delle risorse deve avvenire su A(t)!

Solow e Swan definiscono la presenza di DUE variabili esogene: il fattore lavoro e il progresso tecnico.

Viene ipotizzato che il fattore lavoro L(t) abbia un tasso di crescita pari ad n e si caratterizzi per una
funzione esponenziale:

Andando a derivare ambo i membri si otterrebbe:

I fenomeni di crescita tendono ad avere andamenti esponenziali. Nel caso italiano ipotizziamo un n
molto piccolo, prossimo a 0, e se n è 0 vuol dire che non c’è crescita economica, l’economia italiana
sarà caratterizzata da un fattore lavoro costante. L’unico elemento di stima da valutare è proprio il
tasso n.
Anche A(t) cambia con un’esponenziale. Questo tasso g è il tasso di crescita del progresso tecnico.
Se g è 0 non c’è variazione rispetto ad A(0), se g è piccolo A cresce poco, se g è grande allora la
crescita di A è notevole:

Anche qui, se derivassimo entrambi i membri avremmo un rapporto costante tra la derivata di A ed
A, ossia il tasso costante g.

Il fattore lavoro effettivo, ossia la forza lavoro disponibile, è qualcosa che cresce con un tasso pari a
(n + g), in quanto pari ad A(t)*L(t). La disponibilità di fattore lavoro varia con un tasso n + g. Quindi,

N.B: essendo questi fattori, per l’appunto, esogeni, la loro variazione dipende da fattori ESTERNI al
sistema economico. Ad oggi, ci sono modelli che stanno ipotizzando il progresso tecnico come un
fattore endogeno, che varia quindi per fattori INTERNI al sistema economico. In quei modelli l’idea
è legare il progresso tecnico agli investimenti in R&S, intendendo il progresso stesso come la
risultante delle innovazioni derivanti da questi investimenti.

LEZ 19: 24/11/2023

La scelta di un andamento esponenziale per lavoro e progresso tecnico è legata alle esigenze
risolutive dell’equazione differenziale associata.

Soffermiamoci sul prodotto A(t)*L(t): se registriamo un tasso negativo nella dinamica demografica,
il fattore lavoro L(t) tende a ridursi. Il modello di Solow-Swan ci dice che, anche in caso di cali del
fattore lavoro, possiamo già intuire quali possano essere le politiche economiche in soccorso a tale
calo demografico: se n è negativo, ma noi vogliamo avere comunque un tasso positivo nella forza
lavoro disponibile, possiamo automatizzare, riorganizzare i processi in modo innovativo→in soldoni,
investire sul progresso tecnico. Perché, se vogliamo mantenere un tasso positivo di variazione della
forza lavoro disponibile, n + g, ed n è un tasso negativo, noi dobbiamo aumentare g! La variazione in
positivo di g deve essere tale da compensare la variazione in negativo di n.

Sul fattore capitale sappiamo che, nel modello di H-D, in condizione di equilibrio il risparmio si
traduce in investimenti e gli investimenti in crescita del capitale. Poiché siamo in tempo continuo,
come cambia il K nel tempo? Con questa equazione differenziale:
La prima parte della funzione è uguale a H-D, ma poi si considera l’effetto del degrado dello stock di
capitale. Lo stock di capitale varia non solo perché c’è variazione di Y ma anche perché c’è un effetto
di degrado del capitale→il capitale, avendo una sua vita utile (macchinari, impianti ecc.), ha un
deprezzamento nel tempo che porta poi inevitabilmente alla sostituzione di questo capitale.

La variazione dello stock di capitale nel tempo è legata alle risorse investite (s*Y(t), con s propensione
marginale al risparmio) e alla dinamica di deprezzamento del capitale.

Quindi, per avere una variazione positiva di capitale, ci aspettiamo che i risparmi (e quindi gli
investimenti) siano superiori agli ammortamenti (legati al deprezzamento del capitale). Quindi,
l’ammortamento ha due funzioni: segnalare la necessità di sostituire il capitale e indicare un capitale
NETTO, al netto del deprezzamento, appunto.

Questi modelli quindi ci segnalano come H-D non consideravano il capitale, che ha una dinamica
importantissima nella crescita economica!

Facciamo una riflessione: sappiamo che è molto interessante sapere quanto vale la produttività
oraria del lavoro, in quanto variabile fondamentale che ci dice come il fattore lavoro si sta
combinando con capitale e progresso tecnico. Nel modello di Solow-Swan, il progresso tecnico
amplifica il fattore lavoro (l’abbiamo visto nella precedente lezione), quindi, se calcoliamo quant’è
l’output per unità di lavoro:

𝑌(𝑡)
𝑦(𝑡) = = 𝑘(𝑡)𝛼
𝐴(𝑡) ∗ 𝐿(𝑡)

Ma perché il rapporto tra l’output totale e la forza lavoro disponibile è pari a 𝑘(𝑡)𝛼 ?

Risulta chiaro che:

𝐴(𝑡) ∗ 𝐿(𝑡) = [𝐴(𝑡) ∗ 𝐿(𝑡)] ∗ [𝐴(𝑡) ∗ 𝐿(𝑡)]1− 𝛼

Quindi riscrivendo y(t) sostituendo a Y(t) la funzione ottenuta nella scorsa lezione, avremmo:

𝑌(𝑡) 𝐾(𝑡)𝛼 ∗ [𝐴(𝑡) ∗ 𝐿(𝑡)]1− 𝛼


𝑦(𝑡) = =
𝐴(𝑡) ∗ 𝐿(𝑡) [𝐴(𝑡) ∗ 𝐿(𝑡)] ∗ [𝐴(𝑡) ∗ 𝐿(𝑡)]1− 𝛼

Ora, poiché
𝐾(𝑡)
𝑘(𝑡) =
𝐴(𝑡) ∗ 𝐿(𝑡)

È ovvio che

𝑦(𝑡) = 𝑘(𝑡)𝛼

Con k(t) che rappresenta il rapporto fra i due fattori, lo stock di capitale al tempo t e il fattore lavoro
effettivamente disponibile. Quindi la produttività è pari al rapporto fra i due fattori, capitale e lavoro
effettivo, elevato alla alfa. Quindi, nel modello di Solow-Swan, la produttività oraria dipende dal
rapporto tra i fattori, aumenta quanto più aumenta lo stock di capitale per addetto→lo stock di
capitale influenza la produttività, e quindi è una componente fondamentale della crescita
economica. La crescita economica tramite la produttività dipende dal parametro α.

Solow e Swan arrivano a scrivere la seguente equazione differenziale (vedi sulle slide come ci si
arriva):

𝑘̇ (𝑡) = 𝑠𝑘(𝑡)𝛼 − (𝑛 + 𝑔 + 𝛿)𝑘(𝑡)

Che ci dice che la variazione nel tempo del rapporto fra capitale e lavoro (𝑘̇(𝑡)) dipende dalla
propensione marginale al risparmio, s, moltiplicata per il rapporto tra i fattori elevato ad α, e questo
ci dice che la propensione marginale al risparmio resta anche nel modello di Solow-Swan la
componente fondamentale della crescita economica. D’altro canto, però, Solow e Swan dicono che,
se aumenta lo stock di capitale, a parità di forza lavoro, questo contribuisce alla crescita delle risorse
a disposizione, proprio come accadeva nel modello di H-D. Quindi, le componenti positive della
crescita economica sono le stesse di H-D. La differenza, però, sta nel fatto che ci sono delle
componenti che agiscono in senso opposto alla crescita economica, e vanno in contrasto con il primo
termine attivo, che determina una crescita di 𝑘̇(𝑡). Le componenti che si oppongono hanno senso,
perché tutte determinano una riduzione del rapporto
𝐾(𝑡)
𝑘(𝑡) = e quindi una riduzione di 𝑘̇(𝑡): se aumenta δ, aumenta il fattore di deprezzamento
𝐴(𝑡)∗𝐿(𝑡)

del capitale e quindi si riduce il rapporto k(t); se aumenta n, aumenta il denominatore perché
aumenta L(t); se aumenta g, aumenta il progresso tecnico, quindi aumenta il prodotto 𝐴(𝑡) ∗ 𝐿(𝑡) e
quindi si riduce 𝑘̇(𝑡)→l’effetto del progresso tecnico, alla fine, qual è? Se 𝑔 > 0, 𝐴(𝑡) e 𝐴(𝑡) ∗ 𝐿(𝑡)
aumentano, quindi il progresso tecnico ha come effetto la riduzione di 𝑘(𝑡) e di 𝑘̇(𝑡). Questo ci
spiega una cosa fondamentale: il progresso tecnico, a parità di tutto il resto, permette di avere meno
capitale, anche se avessi n negativo. Il progresso tecnico va ad erodere il capitale, libera risorse del
risparmio, a favore dei consumi.

Adesso, ricordando la formula di Y(t), cosa possiamo dire? Nel modello di H-D il rapporto fra lo stock
di capitale e l’output è pari a σ, una costante. Nel modello di Solow-Swan, che succede al rapporto
K(t)/Y(t)? Ovviamente non dipende più da una costante, perché sappiamo che K e Y sono liberi di
variare nel tempo. In particolare, questo modello ammette una condizione di equilibrio. Cioè, per
quel particolare sistema economico esiste un particolare valore k*= K(t)/A(t)*L(t), che non verrà mai
raggiunta, ma che esiste. In quella particolare condizione di equilibrio, corrispondente al valore al
quale il sistema economico tenderebbe, il valore k* converge a:

In condizioni di equilibrio, cioè quando il sistema converge (se mai convergerà visto che i parametri
cambiano sempre) il rapporto fra K e Y dipende da quel rapporto. Se lascio quindi nel tempo evolvere
il modello di Solow-Swan, esso potrà tendere ipoteticamente ad una condizione di equilibrio. In
quella condizione, si osserva che K(t)/Y(t) è un rapporto di parametri strutturali del sistema
economico: la propensione marginale al risparmio, il tasso di crescita del progresso tecnico e il tasso
di deprezzamento del capitale. Questo rapporto ci permette di capire come quel sistema economico
si strutturerà in termini di rapporto tra capitale e output proprio al variare dei suoi parametri
strutturali.

Quindi, un dato sistema economico, con quei particolari parametri strutturali, tenderà all’equilibrio
ad un particolare valore di K(t)/Y(t), che dipende dai suoi parametri strutturali: più è grande la
propensione marginale al risparmio, più questo rapporto è alto. Quindi, nelle economie in cui si
spinge sulla propensione al risparmio, si hanno più stock di capitale, e quindi il capitale tende a
crescere maggiormente rispetto all’output; maggiore è δ, più il sistema economico si deprezza
rapidamente, e i tassi di ammortamenti sono elevati, quindi quel sistema economico vedrà ridursi il
K rispetto ad Y e quindi il rapporto K/Y si riduce; se ho una n più elevata, quindi la dinamica
demografica è positiva, il denominatore cresce, quindi il rapporto K/Y si riduce, e quindi
quell’economia sta facendo sempre più leva sull’occupazione. Questa cosa è tutt’altro che positiva
nelle economie avanzate, che dovrebbero ridurre n; più cresce g, più aumenta il progresso tecnico,
più il rapporto K/Y tende ad abbassarsi. Però è chiaro che, maggiore è g, più cresce l’economia, Ma
se g è più elevato, il sistema economico tenderà a crescere, ma con meno capitale.
Questa è chiamata regola d’oro del tasso di risparmio, ed è l’equivalente di σ del modello di H-D,
dove però questa volta si considera il fatto che tutti i fattori possono modificarsi nel tempo, andando
ad impattare il rapporto K/Y.

Vediamo un po’ di
dati: qui rileviamo
una crescita del
GDP. La Cina cresce
notevolmente,
hanno sorpassato
gli USA, il
Giappone cresce
molto molto
lentamente.
L’Europa ha avuto
una lieve decrescita nel 2009 per poi aumentare di nuovo. La Cina ha un grande L, ancora in crescita
ma non più molto come prima, perché hanno fatto politiche demografiche. La Cina sta crescendo
molto su g, che influisce su A(t), naturalmente cresce anche K.

LEZ 20: 29/11/2023

Vediamo un foglio elettronico di EXCEL, per comprendere il funzionamento del rapporto K/Y:

Dati di partenza:

OSS:

𝑁𝑀𝑂𝐴 ∗ 𝑅𝑀𝐴𝑂
𝐿(0) = 1000000000
Con questo foglio possiamo sia stimare i parametri della funzione di Cobb-Douglas (nell’ipotesi di
avere dati ottenuti in via empirica) sia fare valutazioni sul modello di Solow-Swan. Il modello è molto
semplice, facilmente utilizzabile per fare previsioni sugli andamenti del sistema economico.
Facciamo l’ipotesi di simulare 600 anni per vedere come il sistema tende alla sua configurazione di
equilibrio stante le condizioni iniziali. Il sistema economico dell’esercizio presenta dei dati molto
simili a quelli del sistema economico italiano. Y(t) si calcola grazie alla funzione di Cobb-Douglas. K
(0), lo stock di capitale iniziale, è stato ipotizzato pari a 4500 miliardi di euro, ipotizzando quindi un
σ=3. Il progresso tecnico risponde all’equazione di Solow-Swan, ipotizzando un g = 0,01. Il fattore
Lavoro, invece, è valutato in termini monetari→dobbiamo partire dalla stima del numero medio di
occupati nel paese, 25000000. Questi hanno un loro reddito medio, posto pari a 20000 euro annui.
Di conseguenza, il prodotto fra il numero medio di occupati e del loro reddito medio ci permette di
ottenere il fattore lavoro (pari a 500 miliardi di euro), che è stato quindi calcolato in termine di valore
economico del lavoro. Viene ipotizzato un valore di 1500 ore medie lavorate all’anno. L(t) è quindi
calcolato come funzione esponenziale, come abbiamo visto per A(t), ipotizzando un n = 0,0005 e un
α=0,5.

È possibile aggiungere altri elementi di valutazione, già visti nella parte teorica: y(t) è la produttività
per 1 euro di lavoro efficace, ottenuto rapportando Y(t) al lavoro effettivo, A(t)L(t)→all’anno 0, la
produttività per 1 euro di lavoro è pari a 3. Possiamo anche calcolare la produttività per 1 ora di
lavoro efficace→qui bisogna tener conto delle ore lavorate: questa produttività si calcola con
l’espressione y(t)= (Y(t)/(A(t)L(t)) * (RMAO/NMOA) dove RMAO è il reddito medio annuo per
occupato e NMOA è il numero medio di ore annue lavorate. Questa produttività ci dice quanto è
produttiva 1 ora di lavoro, ed è molto importante perché ci dice come sta contribuendo il fattore
capitale alla produzione dell’output. Quindi, se lavoro un certo numero di ore, produco mediamente
una certa quantità di output!

Ancora, possiamo anche calcolare k(t) pari a K(t)/(A(t)L(t)), ossia il rapporto fra lo stock di capitale e
il lavoro effettivo. Possiamo anche calcolare σ, come rapporto tra K(t) e Y(t).

Inoltre, sono stati ipotizzati un tasso di deprezzamento del capitale, δ, pari a 0,05 e una propensione
marginale al risparmio, s, pari a 0,2.

Quindi per il processo di accumulo capitalistico e di deprezzamento del capitale:

𝐾(𝑡) = 𝐾(𝑡 − 1) + 𝑠 ∗ 𝑌(𝑡 − 1) − 𝛿 ∗ 𝐾(𝑡 − 1)

La condizione di equilibrio di Solow-Swan si raggiunge all’incirca verso il 600esimo anno di


simulazione. Con queste condizioni di partenza, il rapporto K(t)/Y(t) tenderà ad un valore di 3,3.
Questo modello, comunque, lo si utilizza per orizzonti di 2-3 anni, e non nel lungo periodo.
Nonostante ciò, valutare cosa succederà nel lungo periodo, permette di farci valutare la bontà delle
politiche adottate in quel sistema economico. k(t), ad esempio, arriva al valore di 10,91; la
produttività per 1 h di lavoro sale fino al valore di 44,04, mentre la produttività per 1 euro di lavoro
efficace sale a 3,3.

LEZ 21: 30/11/2023

Analizziamo i ruoli fondamentali assunti dalla propensione marginale al risparmio e dal progresso
tecnico. Se azzerassimo il tasso g di crescita del progresso tecnico, la crescita sarebbe molto più lenta,
nonostante ci sarebbe comunque accumulo capitalistico (l’economia, si dice, si “capitalizza”). Se
abbassassimo s, invece, ci accorgiamo subito che il capitale tenderebbe a ridursi, così come l’output,
ed entrambi si ridurrebbero ad un valore asintotico. Per dare di nuovo ossigeno alla crescita,
dobbiamo aumentare nuovamente il tasso del progresso tecnico: anche a seguito di una bassa
propensione marginale al risparmio, nonostante il capitale tenda a ridursi, l’output andrebbe a
crescere nel lungo periodo. Questo modello di crescita economica, con una bassa propensione
marginale al risparmio, riesce comunque a sostenere l’economia grazie al tasso di crescita del
progresso tecnico. Quindi la propensione al risparmio è una variabile fondamentale, perché lega
output e investimenti, ma una componente che può aiutare il sistema economico a garantire la
crescita, anche in presenza di una bassa propensione marginale al risparmio, è proprio il progresso
tecnico!
Ma questo modello di Solow-Swan, come lo utilizziamo? Alla comprensione del contributo del
progresso tecnico, Solow ci arriva andando a correlare i dati reali dell’andamento della crescita del
capitale e del lavoro, e vedendo che questi dati non erano compatibili se non si assumeva la presenza
del contributo fondamentale del progresso tecnico.

Concludendo: il contributo fondamentale alla crescita economica di un sistema economico sta


proprio nel progresso tecnico. Questo contributo è maggiore rispetto a quello riguardante la crescita
del capitale, comandata dalla propensione marginale al risparmio. Possiamo quindi immaginare che
il progresso tecnico può sostituire in parte la propensione marginale al risparmio. Dobbiamo però
ricordarci di una cosa fondamentale: questi modelli di crescita sono ESOGENI→il progresso tecnico
è una variabile esogena, e questo vuol dire che esso ci perviene dall’esterno del sistema,
contribuendo alla crescita dell’output. Noi sappiamo, però, che il progresso tecnico riviene dalle
attività di R&S, che sono legate agli investimenti. Nei modelli di crescita economica endogena,
successivi a Solow-Swan, si sostiene che per poter finanziare il progresso tecnico, occorre fare
investimenti. Di conseguenza emerge nuovamente il ruolo preponderante della propensione
marginale al risparmio, che mette a disposizione per l’economia le risorse disponibili.

FONDAMENTI TEORICI DI ECONOMIA DELL’INNOVAZIONE

Adesso siamo arrivati all’analisi microeconomica dei processi di innovazione. Siamo interessati a
vedere cosa succede a livello dei singoli mercati, settori e imprese. Anche le imprese beneficiano
ovviamente degli effetti dell’innovazione. Ora il punto è capire: come sono capaci le imprese a
beneficiare e sviluppare i processi di innovazione?

I fondamenti teorici di economia che dobbiamo riepilogare sono due: l’approccio neoclassico e
l’approccio evolutivo (che nasce per spiegare tutto ciò che l’approccio neoclassico non è stato in
grado di spiegare). Sono due rappresentazioni utili per capire i fenomeni innovativi a livello di
impresa.

Approccio neoclassico

Si sviluppa agli inizi del Novecento, sotto l’ala degli economisti classici, a seguito dello sviluppo
industriale.

Nella visione neoclassica del sistema economico, molto semplice, l’attività produttiva viene vista
come una trasformazione che, attraverso una serie di fasi (stadi), conduce le risorse naturali in
prodotti finali. Il prodotto finale è il prodotto che va al consumo finale, al mercato, e non è
necessariamente il prodotto finito! È quel prodotto che non subisce più trasformazioni e, come tale,
finisce al consumo finale.

La trasformazione è consentita dalle tecnologie elaborate e messe a disposizione dai tecnici. Queste
si occupano di convertire le risorse naturali in prodotti finali e sono diverse di stadio in stadio nella
attività di produzione.

PRIMA IPOTESI DI BASE: le tecnologie sono messe a disposizione dai tecnici. Questo vuol dire che
quindi la tecnologia è sviluppata esternamente al contesto economico e le imprese possono adottare
queste tecnologie per effettuare le loro trasformazioni→ LA TECNOLOGIA È ESOGENA AL SISTEMA
PRODUTTIVO!

SCHEMA DI TRASFORMAZIONE PRODUTTIVA:

Abbiamo una serie di risorse naturali che entrano nel sistema economico e attraverso i diversi stadi,
utilizzando le tecnologie si trasformano e si produce il prodotto finale. Qui abbiamo degli input, un
output e una tecnologia che abilita la trasformazione stessa→il sistema economico è visto come una
macchina che converte input in output. Visione “ingegneristica” del sistema economico e del
processo produttivo.

I neoclassici individuano una quantità illimitata di risorse, ma che è possibile raggruppare in


categorie costituenti i cosiddetti FATTORI DELLA PRODUZIONE. Ai tre classici, terra, lavoro e capitale,
si uniscono anche Organizzazione e Stato. Maggiormente nel dettaglio:

• Terra: terreno, materie prime, energia;


• Lavoro: capacità ed attitudini fisiche e mentali degli individui. Quindi si considera sia il lavoro
fisico che il lavoro metale;
• Capitale: altre risorse reali, diverse dalle precedenti (semilavorati, attrezzi, mezzi di esercizio,
fabbricati, moneta)
• Organizzazione: intesa come capacità di gestione degli altri fattori di produzione (scelta,
assortimento e utilizzazione ottimale). È un fattore, perché terra, lavoro e capitale, se non
organizzati in maniera ottimale, non garantiscono una trasformazione efficiente!
• Stato: contribuisce alla trasformazione fornendo indicazioni ed indirizzi di politica generale,
infrastrutture e servizi (strade, ferrovie, porti, pubblica sicurezza ecc.). Uno stato molto
burocratizzato è attrezzato per fornire gli strumenti e le guide al sistema economico, ma deve
anche essere efficiente!

La funzione di produzione è una relazione puramente tecnica che lega gli input (fattori di
produzione) agli output prodotti. Con un focus sulla produzione, ci stiamo focalizzando quindi sulla
costruzione dell’offerta nel sistema economico. Guardando quindi il lato della produzione, la
funzione produzione descrive la legge di produzione, ossia la trasformazione degli input in output
in un certo periodo di tempo. La funzione contiene al suo interno e descrive la tecnologia di
un’impresa, di un settore o dell’economia. Quindi i neoclassici associano alla tecnologia la funzione
di produzione. Per i neoclassici è la tecnologia stessa ad essere la relazione tecnica. Si osservi come
ad un cambiamento di tecnologia, si ha un cambio della funzione di produzione e quindi si è in
presenza di progresso tecnico→il progresso tecnico ha la funzione di modificare la tecnologia e
quindi di modificare la relazione tecnica tra i fattori in input e i fattori in output. La funzione di
produzione comprende tutti i metodi di produzione tecnicamente efficienti. Ma cosa vuol dire?

In economica, un metodo di produzione è una combinazione di input di fattori produttivi che viene
richiesta per produrre un’unità di output. Potremmo associare il metodo di produzione ad una
ricetta dei diversi input di fattori di produzione per ottenere l’unità di output. Tipicamente ci sono
diversi possibili metodi di produzione per produrre un’unità di output→posso quindi modificare il
contributo degli input per ottenere un’unità di output. Questo apre la strada verso il concetto di
“tecnicamente efficiente”.

Un metodo di produzione A si dice tecnicamente efficiente rispetto ad un altro metodo B, infatti,


se A usa meno di almeno un fattore e non di più degli altri fattori rispetto al metodo B. Esempio:
Qui siamo certi che nessuno userà il metodo A per produrre un’unità di output, e tutti useranno il
metodo B per produrre un’unità di output perché il metodo B è tecnicamente efficiente rispetto al
metodo A e quindi sarà sempre migliore del metodo A, indipendentemente dai costi dei due fattori.

Vediamo invece questo esempio:

Entrambi i metodi possono essere adottati; dal punto di vista tecnico non ho alcun modo di dire
quale dei due metodi sia migliore rispetto all’altro! La scelta su quale metodo adottare dipenderà
dal costo dei fattori; infatti, i due metodi, dal punto di vista tecnico sono IDENTICI! Se il capitale ha
un costo elevato, ad esempio, preferirò il metodo in cui il capitale viene meno utilizzato rispetto al
lavoro.

OSS: un metodo non può mai essere tecnicamente efficiente in maniera assoluta! Un metodo può
essere tecnicamente efficiente solo in relazione ad altri metodi!

La teoria neoclassica della produzione considera solo i metodi tecnicamente efficienti. Questo
perché il metodo tecnicamente efficiente è un metodo che un soggetto razionale (l’imprenditore)
utilizza. Soffermiamoci sull’aggettivo razionale: i neoclassici ipotizzano che il decisore sia un soggetto
dotato di piena razionalità, è una caratteristica che aiuta il processo decisionale perché assume
sempre che ci sia piena razionalità del decisore, e quindi permette di
ottimizzare/massimizzare/minimizzare. Questa posizione è indebolita dall’approccio evolutivo.

Attenzione: il fatto che il decisore razionale possa scegliere quale metodo utilizzare (ad alta intensità
di capitale o ad alta intensità di lavoro) consente ad economie diverse (in termini di struttura di
capitale e lavoro) di competere fra loro, così come a imprese che operano in settori e nazioni
differenti di competere fra loro. Quindi, l’impresa che opera in Germania preferirà un modello a
bassa intensità di lavoro, perché il fattore lavoro è molto costoso, preferendo quindi un maggior
impiego di capitale.

Introduciamo il concetto di ISOQUANTO.

L’isoquanto è l’insieme di tutti i metodi di produzione tecnicamente efficiente per la produzione di


un determinato livello di output. Ossia tutte le possibili combinazioni di fattori produttivi che portano
alla produzione di un determinato livello di output. Gli isoquanti possono avere diverse forme in
relazione al grado di sostituibilità che esiste tra i fattori. Vediamo un po’ le diverse forme. L’ipotesi
di base è che si usino solo due fattori di produzione, F1 ed F2, per produrre l’output:

Questo è un isoquanto lineare, in cui c’è una relazione


lineare tra i due fattori che permettono di produrre un
certo output. Ci dà un’informazione sul grado di
sostituibilità dei fattori: per produrre una certa quantità di
output posso utilizzare diverse combinazioni di fattori,
diversi metodi di produzione. La sostituibilità è perfetta:
posso produttore l’output desiderato producendo solo F1
o solamente F2 (i punti di intersezione con gli assi), producendo con molto F1 e poco F2, o con molto
F2 e poco F1. I metodi di produzione sono tutti perfettamente sostituibili, basta che appartengano
alla retta! La perfetta sostituibilità sta proprio nel fatto che io posso avere lo stesso livello di output
utilizzando anche solo F1 e niente di F2 o viceversa.

Questo è un isoquanto spezzato, anche qui c’è perfetta sostituibilità dei fattori.

Questo è un isoquanto continuo e convesso, non c’è perfetta sostituibilità (non c’è un’intercetta sugli
assi). Posso sostituire tra loro i fattori di produzione fino ad un certo livello→avrò sempre bisogno
di una quantità minima di uno dei due fattori per produrre quel livello di output.
La funzione di produzione viene trasformata in una funzione matematica. Da relazione prettamente
tecnica possiamo passare a funzione matematica. Secondo questa funzione, l’output Y è una
funzione di fattori, espressa dalla seguente relazione matematica generale:

La funzione produzione mette in relazione l’output con tutti i fattori di produzione, che sono
considerati come flussi. Sono quindi variabili che si riferiscono tutte all’unità di tempo, tranne i
rendimenti di scala e il parametro di efficienza.

Il parametro γ è un parametro di efficienza, si riferisce a come l’imprenditore organizza i fattori di


produzione e quindi alle dinamiche organizzative. Rappresenta alla capacità dell’imprenditore→
maggiore è la capacità manageriale, maggiore sarà il γ che, a parità di fattori in input, permette di
generare più output. Contribuisce alla valutazione dell’effetto del fattore “Organizzazione”.

Il fattore ν è il rendimento di scala, e si riferisce alle analisi di lungo periodo. Si assume che nel lungo
periodo sia possibile avere differenze nella dimensione dell’attività di trasformazione e quindi della
quantità di risorse in ingresso, e in base alle diverse combinazioni si possono produrre diverse
quantità di output (cambia la scala produttiva). In base alla quantità di output che devo produrre c’è
un effetto di economia o diseconomia che modifica l’output. Le economie di scala possono essere
positive se all’aumentare della scala aumenta l’efficienza o negative (diseconomie) se all’aumentare
della scala aumentano i problemi, le disorganizzazioni e le inefficienze. Non è possibile confrontare
economie con scale di produzione diverse!

Nella scelta dei fattori di produzione il prezzo è fondamentale. I prezzi dei fattori produttivi e quello
del prodotto NON entrano nella funzione di produzione. Essi sono utilizzati solamente in relazione
alle decisioni relative alle modalità di produzione dell'impresa. Un discorso è la rappresentazione
della funzione di produzione, un altro discorso è la scelta del metodo di produzione! Ne consegue
che la tecnologia è esogena al sistema economico (e quindi non ne consideriamo il costo) e i costi
dei fattori condizionano esclusivamente le scelte tecnologiche.
Nella realtà al posto di considerare l’output si considera il valore aggiunto. Questo perché le materie
prime, R, sono in rapporto costante con l’output per ogni livello di output.

X=Y–R

Inoltre, è possibile raggruppare l’input di terra S con le macchine e gli impianti nel fattore capitale K.
Pertanto, la funzione della produzione nella assume la forma tradizionale:

X = f (L, K, ν, γ)

Secondo la quale il valore aggiunto dipende dal fattore lavoro, dal fattore capitale, dal fattore di
efficienza e dai rendimenti di scala.

Queste relazioni funzionali vengono poi ritrovate in via sperimentale. Vado ad analizzare la
variazione del valore aggiunto al variare del fattore lavoro o del fattore capitale, fissato il valore
dell’altro e ipotizzando ν e γ costanti.

C’è un andamento ad S delle curve (andamento sigmoide). Nella prima curva, che descrive
l’andamento di X all’aumentare di L, notiamo che se aumenta K a parità di lavoro passiamo a livelli
sempre più elevati di output (valore aggiunto), così come se aumenta L si ha un aumento dell’output
secondo un andamento ad S, fino ad un tratto calante→la presenza del tratto calante è legata al
fatto che, raggiunta una combinazione ottimale dei due fattori, l’aggiunta di un solo fattore NON
favorisce l’ottimale combinazione con l’altro fattore, portando a forme di inefficienza del sistema,
con addirittura un eventuale calo dell’output prodotto. È anche ovvio: se ho un sistema con un certo
numero di macchine, attrezzature e impianti, con un certo numero di occupati, produco un
determinato output. Se aumento questo numero di occupati, l’output aumenta con un andamento
ad S fino a che i fattori K e L non raggiugono una certa combinazione ottimale. Raggiunta questa,
aumentare ancora il numero di occupati A PARITA’ di fattore capitale, porta il sistema in una
condizione di inefficienza, descritta dal tratto calante, che può anche portare alla riduzione
dell’output prodotto! Anche nella seconda curva i ragionamenti sono gli stessi! Esiste sempre l’area
ottimale, in cui i fattori si combinano in maniera ottimale, e l’area in cui il tratto è calante e i fattori
non si combinano più in maniera ottimale e addirittura si può avere una riduzione dell’output
all’aumentare del fattore.

Le curve ad S sono state oggetto di studio, tant’è che sono state “matematizzate”. La pendenza della
funzione di produzione rappresenta il prodotto marginale dei fattori di produzione.

P'L = X /L

P'K = X /K

Il prodotto marginale di un fattore di produzione è la derivata parziale dell’output rispetto a quel


fattore di produzione, e ci dice di quanto aumenta X all’aumentare di una quantità piccola di quel
fattore di produzione, fissato l’altro fattore di produzione (K o L, ν e γ sono costanti! Questo perché
si considera sempre una analisi condotta su una scala produttiva confrontabile, quindi senza
economie di scala, e la migliore organizzazione possibile per combinare i fattori di produzione). Ci
dice praticamente il margine di contribuzione all’output che ha un fattore di produzione quando esso
aumenta (di poco), mentre l’altro è fissato.

In questo grafico sono stati rappresentati sia l’andamento di X che quello del prodotto marginale del
lavoro o del capitale. Notiamo che al punto di flesso del grafico di X corrisponde il massimo del
grafico della derivata e che al punto di massimo del grafico di X corrisponde uno zero del grafico
della funzione derivata.
Gli economisti sono interessati a studiare il prodotto marginale: a parità di tutti gli altri fattori e
parametri, ha senso aumentare il valore di un fattore di produzione finché non si arriva al punto in
cui si ha il massimo beneficio marginale in termini di aumento di quel fattore produttivo.

Introduciamo un’altra variabile: la pendenza in un punto di un isoquanto definisce il grado di


sostituibilità dei fattori, ossia, quanto in quel punto un fattore è sostituibile con l’altro fattore. Il
grado di sostituibilità ci fa capire cosa accade per un dato metodo di produzione se si aumenta un
fattore, riducendo l’altro o viceversa. Questa variabile, cambiata di segno, è anche nota come saggio
marginale di sostituzione. Si ha quindi:

Andando a vedere un isoquanto continuo e convesso, la pendenza della curva è dK/dL, e ci dice in
quel particolare punto quanto possiamo sostituire un fattore con l’altro e viceversa. Spostandosi
verso sinistra aumentiamo K sostituendolo ad L; spostandoci verso destra aumentiamo L
sostituendolo a K. Quindi, espresso l’isoquanto analiticamente come K funzione di L, posso calcolare
la derivata dK/dL in un dato punto, e sapere quanto posso sostituire di un fattore rispetto ad un altro
fattore, muovendomi lungo l’isoquanto.

Quindi l’SMS è la pendenza della curva di isoquanto cambiata di segno, cioè -dK/dL. Il meno davanti
si usa proprio perché i metodi sono tecnicamente efficienti e poiché la pendenza dell’isoquanto è
negativa e io voglio un SMS positivo, metto il meno. In qualunque punto posso calcolare la pendenza
e ottenere il valore del saggio. Il valore dell’SMS cambia nella continua convessa man mano che mi
sposto lungo l’isoquanto. È costante, invece, quando l’isoquanto è lineare.

Possiamo dimostrare che l’SMS è anche uguale ai rapporti marginali dei fattori di produzione:
SMS L,K = -K /L = P'L / P'K

Come dimostriamo? Beh, lungo un isoquanto X è costante e quindi dX = 0.

Poiché dalla definizione di derivate parziali

dX = K (X/K) + L (X/L)

e per definizione

dX = 0

Allora:

(X/L) / (X/K) = P'L / P'K = -K/L

Questa dimostrazione è utilissima perché calcoleremo questo rapporto -K/L passando proprio per
i prodotti marginali! Conviene molto di più derivare la funzione di produzione per K e per L e farne il
rapporto.

Introduciamo il concetto di intensità dei fattori.


L’intensità dei fattori è il rapporto K/L in ogni
punto dell’isoquanto. Quindi in ogni punto
dell’isoquanto possiamo definire sia la
pendenza della tangente all’isoquanto sia
considerare la retta, passante per l’origine, con
rapporto K/L costante. Per punti diversi, le rette
passanti per l’origine e per quei punti, avranno
un rapporto K/L diverso ma pur sempre costante (su tutti i punti che appartengono a quella stessa
retta)!

Tutte queste grandezze sono fondamentali perché rientreranno nell’analisi del progresso tecnico,
uno dei principali contributi dell’analisi neoclassica all’innovazione.

LEZ 22: 06/12/2023

Considerata una curva isoquanto, quindi, l’intensità dei fattori in un punto è il rapporto K/L, che ci
dice in che proporzione si trovano in quel particolare punto i fattori di produzione K ed L.

Vediamo adesso questo esercizio per prendere familiarità con questi concetti:
Ricordiamo che la curva isoquanto ha una espressione analitica del tipo K=f(L), fissato il valore di X.
Per determinarla, quindi, dobbiamo riscrivere la funzione di produzione per K, in funzione di L. Fatto
questo, dobbiamo capire sull’isoquanto quanto vale L se K vale 20: ossia, dobbiamo capire qual è
quel particolare metodo di produzione che fatto 20 il fattore capitale, mi permette di ottenere un
output di 100 con un certo valore L di fattore lavoro. Calcoleremo poi il rapporto tra le derivate
parziali che, cambiato di segno, ci permetterà di ottenere il SMS.

N.B: l’espressione di
questo isoquanto è
un’iperbole non
equilatera. Se gli esponenti
di K ed L non sono identici,
l’iperbole non è equilatera.

Il calcolo dell’SMS è molto semplice: possiamo sia calcolare -dK/dL dall’espressione dell’isoquanto,
oppure fare il rapporto tra i prodotti marginali, agendo sulla funzione produzione.
𝑑𝑋
𝑃′𝐿 = = 𝑎𝐾 𝑐 ∗ 𝑏 ∗ 𝐿𝑏−1
𝑑𝐿

𝑑𝑋
𝑃′𝐾 = = 𝑎𝐿𝑏 ∗ 𝑐 ∗ 𝐾 𝑐−1
𝑑𝐾

E quindi:

𝑃′𝐿 𝑎𝐾 𝑐 ∗ 𝑏 ∗ 𝐿𝑏 ∗ 𝐾 𝑏𝐾
= =
𝑃′𝐾 𝑎 ∗ 𝐿𝑏 ∗ 𝑐 ∗ 𝐾 𝑐 ∗ 𝐿 𝑐𝐿

Da cui, sostituendo K = 20 e la corrispettiva L, si ottiene un SMS = 0,15→avere un saggio marginale


di sostituzione pari a 0,15 nel punto con K = 20, vuol dire che -dK/dL = 0,15. 0,15 è ovviamente più
prossimo a 0 che ad 1, infatti notiamo che in corrispondenza di K=20 la pendenza della tangente
all’isoquanto tende sempre più ad essere orizzontale. Parlando di grandezze finite, possiamo
affermare che ΔK/ΔL = -0,15→se voglio sostituire ΔL = 10 unità di lavoro con ΔK/ΔL = -0,15, vuol dire
che devo aumentare il fattore capitale di ΔK = 0,15* ΔL=1,5 unità, per rimanere sull’isoquanto.
Quindi a 10 unità di lavoro devo sostituire 1,5 unità di capitale. Ecco la potenza dell’SMS: posso
scegliere dei metodi di produzione in cui posso ridurre un fattore aumentando (di poco) l’altro e
viceversa. L’SMS ci misura come posso sostituire fra loro i fattori→la scelta però del punto
dell’isoquanto su cui lavorare, dipenderà dal prezzo dei fattori, perché su uno stesso isoquanto tutti
i metodi sono tecnicamente efficienti. SMS non ci aiuta a prendere decisioni, ci aiuta solo a
comprendere la sostituibilità dei fattori. Attenzione: più mi sposto verso L basse, più dovrò investire
nel fattore capitale per sostituire il fattore lavoro. Più riduco lavoro, più devo aumentare capitale e
quindi in una visione moderna, automatizzare. Nel tratto “centrale” dell’isoquanto la sostituzione
tra i fattori è anche vantaggiosa; nei tratti “estremi” la sostituzione è sempre meno vantaggiosa! Da
destra verso sinistra nel senso delle L, SMS passa da 0 fino a tendere a infinito.

Progresso tecnico e funzione produzione:

Nell’accezione neoclassica, la tecnologia si sviluppa in modo esogeno al processo produttivo;


pertanto, la funzione produzione, acquisisce dall’esterno la tecnologia. Questa ipotesi sarà messa in
discussione dalle teorie evolutive.

Se la tecnologia è esogena, gli imprenditori si affacciano sul mondo della tecnica e cercano nuove
tecnologie e quindi, nuovi metodi di produzione tecnicamente efficienti. Questo determina la
sostituzione di vecchi metodi di produzione con nuovi metodi di produzione. Ogni qualvolta abbiamo
una modifica della tecnologia e quindi una modifica di ALMENO UN metodo di produzione, secondo
i neoclassici si è in presenza di progresso tecnico. Quindi le innovazioni si traducono come
manifestazione del progresso tecnico, con aggiunta di nuovi metodi di produzione alla funzione
produzione e sostituzione dei vecchi metodi di produzione, non più tecnicamente efficienti.

L’effetto dell’innovazione:

se andiamo a guardare le funzioni di produzione, osserviamo che: le funzioni di produzione si


modificano; le curve di isoquanto si modificano. Infatti:

Ecco, quindi, l’effetto del progresso tecnico: a sinistra, la funzione di produzione (qui descrive come
varia X al variare di L, ma poteva anche descrivere come varia X al variare di K, non cambia nulla)→se
ho progresso tecnico, la funzione di produzione si sposta verso sinistra e si innalza. Quindi, a parità
del fattore variabile, col progresso tecnico riesco a produrre una quantità di X superiore. Quindi
l’introduzione del nuovo metodo di produzione ha la capacità di amplificare l’output realizzato, a
parità di tutti i fattori; a destra, l’isoquanto→a partire dall’isoquanto di sopra a X = costante, la
presenza di progresso tecnico è tale che LA STESSA X = cost la posso produrre con meno fattore K e
meno fattore L; pertanto, l’isoquanto si “schiaccia” verso gli assi cartesiani, proprio perché grazie al
progresso tecnico riesco a produrre la stessa quantità, ma con meno fattori di produzione. La
massima forma di progresso tecnico sarebbe quella in cui riuscirei a produrre la stessa quantità X di
partenza con fattori di produzione prossimi al valore 0.

Il progresso tecnico, quindi, ha una funzione fondamentale: impatta la funzione di produzione!


Questa funzione di produzione, poi, è anche un po’ figlia dei suoi tempi, tant’è che si focalizza molto
sul modo in cui si produce. Quindi, qui, si tendono a vedere più le innovazioni di processo che le
innovazioni di prodotto. Un’innovazione di prodotto qui causerebbe un cambio della funzione di
produzione! Quindi nella visione neoclassica ci focalizziamo maggiormente sull’innovazione di
processo, che è generata dal progresso tecnico.
Per gli economisti neoclassici, le innovazioni tradotte in progresso tecnico, hanno una funzione
molto importante: più ho progresso tecnico, meno utilizzo i fattori, quindi ho un risparmio negli
input. Questa è la situazione ideale. L’idea che si possa produrre la stessa quantità, impiegando
meno di almeno un fattore è un fatto estremamente positivo.

FORME DI PROGRESSO TECNICO

Una volta che è stato inquadrato, si è anche compreso che le forme che il progresso tecnico può
assumere, non sono sempre le stesse: il progresso tecnico può determinare diversi spostamenti della
funzione di produzione e dell’isoquanto. Quelle traslazioni che abbiamo visto, non sono omotetiche,
è possibile addirittura avere delle rotazioni dell’isoquanto. Procediamo per gradi. L’idea della
presenza di diverse forme del progresso tecnico fu introdotta dall’economista neoclassico Hicks, che
si occupava di costruire una teoria sui salari. Secondo Hicks, infatti, il progresso tecnico può
determinare un cambiamento della forma dell’isoquanto, oltre che determinarne lo spostamento.
Secondo Hicks, ci sono tre forme di progresso tecnico, sulla base dell’effetto che esso determina sul
saggio marginale di sostituzione fra i fattori di produzione. Questo perché non tutte le innovazioni
hanno lo stesso impatto!

1. PROGRESSO TECNICO “CAPITAL DEEPENING”

“capital deepening” = che sfrutta il capitale. Andiamo a vedere cosa succede nelle isoquanto.

Hicks dice che, se ho progresso tecnico,


sicuramente avrò spostamento
dell’isoquanto. Quindi, se ad un certo
tempo mi trovo sull’isoquanto A, e ho
progresso tecnico, ad un certo punto mi
troverò sull’isoquanto A’, che “raccoglie”
gli effetti del progresso tecnico, che
permette di produrre comunque lo stesso
volume di produzione dell’isoquanto A. Dopodiché, Hicks, dice che se mi trovo nel punto in rosso al
tempo iniziale, per effetto del progresso tecnico posso ritrovarmi su un altro punto, quello in blu, a
seguito del progresso tecnico. Questo perché, sul nuovo isoquanto A’, posso scegliere tra i diversi e
nuovi metodi di produzione, quello che beneficia del progresso tecnico! Di fatto, assumo, per creare
una confrontabilità, che l’impresa che operava nel punto in rosso, operava su un rapporto K/L che io
ipotizzo si mantenga costante ANCHE DOPO IL PROGRESSO TECNICO. Quindi, per effetto del
progresso tecnico, mi sposto dal punto X al punto X’, che mantiene lo stesso rapporto K/L = K’/L’, ma
con valori inferiori rispetto a prima (K’<K e L’<L), con un valore di output X’ = X. Quindi confronterò
sempre i due punti X e X’, che si generano come intersezione delle due isoquanto con la retta a stesso
K/L, prima e dopo il progresso tecnico. Quindi, per tutte e tre le forme di progresso tecnico,
confronteremo i due punti che sono sulle due isoquanto e hanno la stessa intensità dei fattori, prima
e dopo il progresso. SEMPRE!

Quindi, se in questi due punti vado a calcolare l’SMS, e so che SMS = -dK/dL, ossia il valore della
pendenza della tangente passante per X e X’, cambiata di segno. Fatto questo calcolo per entrambe
le isoquanto, osservo che la tangente su X non ha la stessa pendenza della tangente su X’! Quindi, i
SMS in X e X’ sono diversi! La quantità è uguale, il rapporto K/L è uguale, ma il SMS non è più
uguale…cosa ci suggerisce questo? Che la tangente, e quindi l’isoquanto RUOTANO IN SENSO
ANTIORARIO attorno al punto X’ rispetto alla tangente e all’isoquanto in X. Questa variazione che
effetto ha? Per valutare in maniera più semplice, supponiamo di traslare il punto X su X’, di fatto
andando a sovrapporre sullo stesso punto le due tangenti e quindi gli isoquanti:

Notiamo, quindi, che per effetto del progresso tecnico la tangente passa da A ad A’. In effetti, notiamo
che la tangente ruota in senso antiorario per effetto del progresso tecnico. Muovendomi su una retta
a K/L costante, nel punto di rotazione, cosa succede? Prima del progresso tecnico, muovendomi su
A, se avessi una riduzione di lavoro, ΔL, dovrei avere un certo incremento ΔK→prima del progresso
tecnico ho una serie di metodi di produzione disponibili e posso spostarmi sull’isoquanto
incrementando di ΔK se ho una certa ΔL; DOPO il progresso tecnico, invece, muovendomi su A’, se
avessi la stessa riduzione di lavoro ΔL, dovrei avere un certo incremento ΔK’, ma visto che la
pendenza della tangente si è ridotta, sono certo che ΔK’< ΔK. Quindi dopo il progresso tecnico posso
ridurre ΔL aumentando DI MENO il fattore capitale rispetto a quanto avrei dovuto fare prima del
progresso tecnico. Ecco perché questo progresso tecnico è “capital deepening”: a seguito del
progresso tecnico è come se sfruttassi meglio il capitale, perché riesco a sostituire lo stesso fattore
lavoro con meno capitale, ottenendo sempre lo stesso output.

Considerazioni: il progresso tecnico capital deepening mi permette di avere innovazioni che mi


permettono di ridurre il fattore lavoro incrementando di meno il fattore capitale. A parità di prezzi
dei fattori, è evidente che ci sarà una tendenza ad espellere forza lavoro, a favore degli investimenti
sul capitale. Il progresso tecnico capital deepening abilita la scelta di metodi di produzione che
utilizzano meno fattore lavoro e utilizzano meglio il fattore capitale. Il capital deepening è quel tipo
di progresso tecnico che genera disoccupazione! Fa perdere posti di lavoro: se prima, per sostituire
ΔL dovevo impiegare un certo ΔK, ora posso sostituire lo stesso ΔL incrementando di un ΔK’ più
piccolo di ΔK! Questo, quindi, invoglia ad usare metodi che sfruttano meno lavoro, incentivando al
licenziamento e alla perdita della forza lavoro. Questo era visto da Hicks come causato dalla nascita
delle prime forme di meccanizzazione che nel 1930 portarono alle prime forme di espulsione della
forza lavoro. Non sappiamo se questa forza lavoro espulsa verrà impiegata su altri processi; ciò di cui
abbiamo certezza è che IN QUESTO PROCESSO la forza lavoro viene espulsa!

Attenzione: a seguito del progresso tecnico, riducendosi la pendenza, si riduce anche il SMS!

Queste valutazioni non valgono per due punti qualsiasi: vanno sempre fatte tra due punti a pari
rapporto K/L. A differenti intensità dei fattori, possiamo avere differenti comportamenti del
progresso tecnico!

Quindi, quando abbiamo progresso tecnico capital deepening:

• SMS si riduce;
• K /L aumenta;
• P’L/P’K si riduce;
2. PROGRESSO TECNICO LABOUR DEEPENING

Esiste ovviamente l’equivalente “labour deepening” in cui l’isoquanto ha una ROTAZIONE ORARIA
della tangente in X’ rispetto al valore della tangente in X. I ragionamenti fatti sono gli stessi del capital
deepening. Infatti, a parità di ΔL, avremo un ΔK’> ΔK a seguito del progresso tecnico. Infatti, il
progresso tecnico di produzione labour deepening permette di usare meglio il fattore lavoro, e
sposta quindi i metodi di produzione verso quei metodi che usano più fattore lavoro e meno fattore
capitale.
Un progresso tecnico labour deepening è tale per cui:

• SMS aumenta, perché la pendenza aumenta e quindi SMS aumenta;


• K /L si riduce;
• P’L/P’K aumenta.
3. PROGRESSO TECNICO NEUTRAL

La terza condizione è il progresso tecnico


neutrale, dove l’SMS resta costante. Il progresso
tecnico ha lasciato inalterato il grado di
sostituibilità dei fattori. Ci troviamo in una
condizione in cui le due isoquanto sono una
traslazione pura l’una dell’altra, senza rotazione.
In X e X’ la pendenza è la stessa, quindi SMS, K
/L e P’L/P’K rimangono identici. Il progresso
tecnico, quindi non favorisce nessuno dei due fattori. Si riesce a produrre la stessa quantità
impiegando meno capitale e meno lavoro.

COMMENTO: Il ragionamento di Hicks è importante. Si possono avere delle forme di progresso


tecnico differenti. La forma di progresso tecnico capital deepening, a parità di prezzo del fattore
capitale, abilita le imprese a scegliere metodi che impiegano meno fattore lavoro e più fattore
capitale. La forma di progresso tecnico labour deepening, incentiva l’utilizzo del fattore lavoro a
discapito del fattore capitale, ed è tipico di quelle innovazioni che facilitano la nascita di nuovi posti
di lavoro, che rendono quei metodi di produzioni anche economicamente efficienti. Quello su cui c’è
sempre da ragionare è che, quando consideriamo le funzioni di produzione e il progresso tecnico,
dobbiamo sempre ricordarci che la scelta del metodo di produzione diventa una scelta
essenzialmente economica. Qui noi stiamo rappresentando l’aspetto tecnico, i metodi tecnicamente
efficienti. Hicks rappresenta forme di progresso tecnico che non sono altro che un progresso tecnico
che lavora sulla sostituibilità dei fattori, o facilitando la sostituibilità del fattore capitale o quella del
fattore lavoro, o mantenendo una posizione neutrale. Quindi, a queste valutazioni, va sempre
accorpata la valutazione sul prezzo dei fattori→la scelta dei metodi di produzione ha sempre matrice
ECONOMICA!

Nuove tecnologie e produttività


Vediamo adesso cosa succede quando si investe in nuove tecnologie. Gli investimenti possono
aumentare non solo la produttività dell’impresa ma anche dell’intero sistema economico. Restando
sulla dimensione della singola impresa, siamo certi che l’investimento in nuove tecnologie determina
un incremento di produttività. Di conseguenza, esaminiamo tre diversi effetti che gli investimenti in
nuove tecnologie possono generare, aumentando la produttività: effetto produzione, effetto utilizzo
ed effetto produttività totale dei fattori (PTF). Questi tre effetti ci fanno capire come l’innovazione
tecnologica può modificare la produttività a livello di impresa e di economia.

• Effetto produzione

Le imprese che producono esse stesse nuove tecnologie tendono ad essere più efficienti delle altre
imprese. Aver investito e prodotto una nuova tecnologia porta l’impresa, se ha un atteggiamento
razionale, ad essere più efficiente. Questa maggiore efficienza ha un effetto benefico sulla
produttività media dell’intero sistema: questo si chiama effetto produzione. Quindi come primo
effetto, il progresso tecnico genera maggiore efficienza nelle imprese che producono le nuove
tecnologie, rispetto a quelle “tradizionali”. Quindi progresso tecnico→aumento produttività delle
imprese→risonanza sull’intero sistema.

• Effetto utilizzo

Nel momento in cui imprese di un settore tradizionale si dotano di nuove tecnologie, accrescono lo
stock di capitale per lavoratore, sia se mantengono lo stesso numero di lavoratori sia se esso cambia,
ma muovendosi seguendo un isoquanto tenderanno a ridurre il numero di lavoratori quindi avremo
che lo stock di capitale per lavoratore aumenta, questo fa aumentare la produttività del lavoro e
quindi del prodotto per lavoratore. Quindi anche l’utilizzo delle nuove tecnologie genera un aumento
di produttività, come già avevamo ben visto.

• Effetto produttività totale dei fattori (PTF)

L’adozione di nuove tecnologie migliora l’organizzazione della produzione, cioè il modo in cui le
imprese combinano i fattori della produzione (lavoro e capitale), il che si traduce in un aumento di
quella che viene chiamata “produttività totale dei fattori”. Quando l’impresa adotta le nuove
tecnologie, tende anche a migliorare l’organizzazione! Combinano meglio i fattori di produzione e
questo genera un aumento di produttività. Questo particolare aumento di produttività è
fondamentale.
Stiamo evidenziando che, quando abbiamo progresso tecnico e quindi (nella visione neoclassica) si
stanno adottando nuove tecnologie, il solo utilizzo di queste nuove tecnologie genera sia un
aumento dello stock di capitale (effetto utilizzo) sia una ricombinazione ottimale dei fattori di
produzione. Non è solo acquisendo nuove tecnologie e facendo investimenti tecnologici che si
migliora l’efficienza delle imprese! L’efficienza delle imprese si migliora nel momento in cui, avendo
acquisito la nuova tecnologia, si è in grado di RIORGANIZZARE le attività di produzione attorno a
queste nuove tecnologie! Bisogna modificare i modelli di business, non basta solo aumentare lo
stock di capitale, bisogna ricombinarlo in maniera ottimale col fattore lavoro.

OSS: l’output, nella funzione produzione, dipende da terra, lavoro, capitale, stato ed organizzazione.
Semplificando, sappiamo che l’output inteso come valore aggiunto dipende da capitale, lavoro,
rendimenti di scala ed efficienza. Quindi, a parità di L, se aumento K ho sicuramente un incremento
di output. Ma è il fattore di efficienza, al netto dei rendimenti di scala, il fattore sul quale lavorare
maggiormente, perché l’effetto PTF influisce proprio sull’efficienza! Più organizzo bene i fattori, più
aumento l’efficienza e quindi la produttività. Ok l’aumento di K e L, ma devo anche combinarli in
maniera efficiente.

Esercizio 1:

Data la funzione di produzione di Cobb-Douglas, si determini l’espressione analitica delle isoquanto


e l’effetto di un incremento dell’esponente della variabile L sul tipo di progresso tecnico conseguente.
Si esprima la funzione di produzione di Cobb-Douglas come:

X = a Lb Kc

a, b e c sono stimati in base a quello che è il comparto produttivo in esame.

Risulta:

P'L = X /L = a b L(b-1) Kc = b (a Lb Kc ) L-1 = b X L-1

P'K = X /K = c X K-1

SMSL,K = - K /L = P'L / P'K = (b K) / (c L)

→SMS dipende da c/b e K/L, quindi se c/b resta costante, SMS varierà al variare di K ed L

Per la determinazione dell’espressione analitica dell’isoquanto, si potrebbe procedere attraverso


l’integrazione dell’equazione differenziale: - K /L = (b K) / (c L)
Più semplicemente si ha lo stesso risultato ponendo X = X* (particolare valore di X costante lungo la
isoquanto):

X* = a Lb Kc

Quindi, l’espressione analitica dell’isoquanto, per X=X*, risulta:

K = a–1/c X*1/c L-b/c

Graficamente è un’iperbole, che per essere iperbole equilatera deve avere b = c.

Poiché si ha:

SMSL,K = (b K) / (c L)

Posso dire cosa accade al SMS in ogni punto a seguito di un incremento del coefficiente b!

Per effetto di un incremento del coefficiente b si ha:

SMS’L,K = (b’ K) / (c L) > SMSL,K per ogni K/L = cost, perché so che b/c è costante sempre.

In quanto b’>b e quindi il SMS è aumentato per effetto del progresso tecnico, il progresso tecnico è
quindi labour deepening.

Poiché SMS è una funzione di K/L quello che


avviene per un valore di K/L avviene su tutti gli
altri valori di K/L, se io fisso un K/L, che vale sia
per SMS che per SMS’, è labour deepening per
qualsiasi valore K/L. Ragioniamo sulla funzione
di produzione di Cobb-Douglas: abbiamo
assunto che, nell’analisi empirica fatta dopo un
certo periodo di tempo, rilevando i valori di X, L e K e facendo una regressione lineare
sull’espressione logaritmica, “a” e “c” non sono variati, mentre “b” è aumentato, e questo vale per
tutti i punti della isoquanto. Se siamo su un isoquanto con b’>b, l’esponente del fattore lavoro è
aumentato. A parità di tutte le altre condizioni il fattore lavoro è diminuito→sto sfruttando meglio il
lavoro a parità di output prodotto! Se b aumenta vuol dire che impiego meno lavoro con lo stesso
capitale per produrre lo stesso output, quindi senza fare calcoli possiamo dire che siamo in una
situazione labour deepening. Se b fosse diminuito avremmo avuto bisogno di più lavoro, con X e K
costanti. Quindi qui non solo non ci sarebbe stata efficienza, addirittura NON ci sarebbe stato
progresso tecnico!

Esercizio 2:

Data la funzione di produzione lineare, si determini


l’espressione analitica delle isoquanto e l’effetto di
un incremento del coefficiente b della variabile L
sul tipo di progresso tecnico conseguente. Si
esprima la funzione di produzione lineare come:

X=bL+cK

Risulta:

P'L = X /L = b

P'K = X /K = c

SMSL,K = - K /L = P'L / P'K = b/c

→SMS è sempre costante perché b/c costante! Quindi con una funzione di produzione lineare, l’SMS
è proprio il coefficiente angolare di quella retta!

Per la determinazione dell’espressione analitica dell’isoquanto, si potrebbe procedere attraverso


l’integrazione dell’equazione differenziale:

- K /L = b/c

Più semplicemente si ha, posto X=X* (particolare valore di X costante lungo la isoquanto):

X* = b L + c K

Quindi, l’espressione analitica dell’isoquanto, per X=X*, risulta:

K = X*/c - b L/c

Poiché si ha:

SMSL,K = b/c

per effetto di un incremento del coefficiente b si ha:

SMS’L,K = b’/c > SMSL,K


In quanto b’>b, in presenza di progresso tecnico si ha un aumento dell’SMS. Di conseguenza, il
progresso tecnico è quindi labour deepening!

Avere un aumento di b, qui, cosa vuol dire? Che, se prima eravamo sulla retta in alto nella figura alla
pagina precedente, per effetto della crescita di b in b’, l’intercetta con l’asse delle L si ha in X*/b’ che
è minore di X*/b→questo modifica la tangente, che ruota in senso orario e quindi il progresso è
labour deepening. Come nell’esercizio 1, questo vale per qualunque K/L, essendo l’unico presente
nella funzione. In generale, se la funzione di produzione NON è Cobb-Douglas o lineare, la natura
del progresso tecnico si valuta sempre per UN PARTICOLARE VALORE DI K/L! I DUE PUNTI DA
CONFRONTARE DEVONO SEMPRE ESSERE SULLA STESSA RETTA K/L.

Quindi, dovendo sempre produrre X=X*, aumentare b vuol dire, a parità di tutto il resto, ridurre L.
Quindi, stiamo andando incontro ad un rapporto X*/L maggiore, sta aumentando la produttività ma
in termini analitici se X*=bL+cK, se aumenta b, L deve diminuire se tutto rimane costante. Quindi il
progresso tecnico è labour deepening.

Esercizio 3:

Data la funzione di produzione di Cobb-Douglas,

X = 2 * L0,5 K0,5

si determini il tipo di progresso tecnico con intensità dei fattori pari a K/L=1 quando la funzione di
produzione diventa:

X = 2 * L * K0,5

Si calcoli il tipo di progresso tecnico per L=25

In primis, il progresso tecnico ha determinato un aumento di b, da 0,5 ad 1. È labour deepening per


K/L = 1? Se tutto il resto rimane costante, si, perché il SMS di una Cobb-Douglas è bK/cL. Quindi,
fissato un preciso K/L, faccio il confronto tra i SMS.

Per K/L=1 e X = 2 * L0,5 * K0,5 risulta:

SMSL,K = b / c = 0,5 / 0,5 = 1

Per K/L=1 e X = 2 * L * K0,5 risulta:

SMS’L,K = b’ / c = 1 / 0,5 = 2
Quindi si ha progresso tecnico labour deepening in quanto SMS’L,K > SMSL,K

Per L=25, si ha:

X = 2 * L0,5 * K0,5 = 10 * K0,5 da cui K = X2 / 100 senza progresso tecnico

X = 2 * L * K0,5 = 50 * K0,5 da cui K = X2 / 2500 con progresso tecnico

Otteniamo così le due isoquanto. Vogliamo capire che tipo di progresso tecnico si ha per L = 25.

Considerando L = 25, inizialmente siamo nel punto in blu, con un SMS = bK/cL. Per valutare la natura
del progresso tecnico, però, dobbiamo confrontare i valori a parità di K/L. Che significato ha andare
a valutare il progresso tecnico per L = 25? Il progresso tecnico mi porta per L = 25 dal punto blu al
punto giallo, ma noi dobbiamo ragionare a parità di K/L: quindi, per L= 25 NON posso confrontare il
punto blu e il punto giallo, al più posso confrontare il punto giallo con l’ipotetica intersezione tra la
retta tratteggiata in verde in basso e l’isoquanto A e il punto blu col punto in rosso. NON posso
confrontare il punto blu e il punto giallo!

Posso affermare che nella funzione di produzione di Cobb-Douglas ho SEMPRE labour deepening
perché per qualsiasi valore del rapporto K/L, se b aumenta ho labour deepening. Se c aumenta,
invece, ho capital deepening. Se aumentano b e c, devo vedere il contributo maggiore. Devo però
SEMPRE valutare punti a pari rapporto K/L, NON posso confrontare punti con diversa intensità dei
fattori. In ogni caso, nella Cobb-Douglas, ho sempre labour deepening.

Esercizio su effetto produzione, effetto utilizzo, effetto PTF:

Caso: AGRICOLTURA DI PRECISIONE, considerare lo sviluppo e l’adozione di nuove tecnologie per


l’agricoltura di precisione.
Un’azienda ha la capacità di monitorare dall’alto i terreni coltivati e attraverso una tecnologia è in
grado di cogliere dei parametri.

Sono imprese efficienti, quindi, determinano sul sistema economico un miglioramento dell’efficienza
perché hanno sviluppato una nuova tecnologia → effetto produzione

Adottando queste tecnologie posso avere un beneficio quindi la loro adozione porta ad una
maggiore efficienza: a parità di tutto, laddove non c’è deficit non la uso, laddove c’è la uso e posso
decidere in che quantità utilizzarla in base al deficit →effetto utilizzo

Posso rimuovere il fattore lavoro e automatizzare il sistema, riduco L e aumento K, intervengo dove
necessario e ho miglioramenti di produttività. Le tecnologie non solo migliorano l’efficienza, ma
riorganizzo il modo di produrre → effetto PTF

Con il progresso non solo ho un effetto di riduzione di K e L, ma riorganizzo completamente l’azienda


avendo dei miglioramenti sulla combinazione dei fattori.

LEZ 23: 07/12/2023

CURVE DI APPRENDIMENTO, APPRENDIMENTO INTERNO E ESTERNO ALL’IMPRESA

A livello microeconomico, noi consideriamo tanto le grandi imprese quanto le piccole imprese. Le
nuove tecnologie sono SEMPRE accompagnate da modifiche organizzative: il fattore lavoro deve
ricombinarsi col fattore capitale, e la ricombinazione vuole un vero e proprio adeguamento del
lavoro a seguito della modifica del fattore capitale. Altro tema importante è quello del meccanismo
dell’apprendimento. Ora vogliamo capire come si manifesta il progresso tecnico, a seguito
dell’introduzione di una nuova tecnologia. L’impresa è considerabile come un soggetto cognitivo,
uno stock di conoscenze. A livello di singola impresa, l’apprendimento consente di:

• adattarsi alle nuove tecnologie: la nuova tecnologia richiede introdurre un nuovo addestramento
per adattarsi alla tecnologia;

• determinare crescita della produttività, altrimenti non avremmo fatto l’investimento;

• garantire un continuo flusso di cambiamenti e miglioramenti nei prodotti e nei processi produttivi.

L’apprendimento non è solamente guidato dalla formazione o dall’introduzione di nuove


conoscenze. Dobbiamo capire come governare l’apprendimento!
Ci sono due approcci, dal punto di vista economico, per esaminare il meccanismo di apprendimento:
l’approccio delle curve di apprendimento e l’approccio dell’apprendimento multidimensionale.

CURVE DI APPRENDIMENTO

È l’approccio che ci consente di interpretare l’impresa come funzione di produzione, in cui


l’apprendimento ha luogo durante il processo produttivo. L’apprendimento determina: riduzione dei
costi unitari medi e riduzione del fabbisogno di input di lavoro per unità di prodotto (riesco a fare
un’unità di prodotto con meno lavoro). Il meccanismo di apprendimento lo possiamo cogliere anche
nelle attività routinarie dei nostri giorni: un’operazione viene svolta, la prima volta, in un certo
tempo; man mano che ripetiamo questa operazione, nei giorni, cominciamo ad impiegare sempre
meno tempo. Questo “meno tempo” impiegato ripetendo via via l’operazione è proprio l’esito
dell’apprendimento maturato nell’eseguire un’operazione. È possibile quindi conseguire incrementi
di produttività anche attraverso il “semplice” apprendimento.

Analizziamo la vera e propria curva di apprendimento:

Ipotizzando che esso sia un prodotto, osserviamo come varia il costo unitario medio al variare del
tempo: notiamo di essere in presenza di un fenomeno di apprendimento perché il costo unitario
medio del prodotto si riduce all’aumentare del tempo. Qui la pendenza della curva/retta è
enfatizzata, in realtà la curva di apprendimento ha ovviamente un andamento curvilineo, con un
andamento asintotico per tempi infiniti→la riduzione dei costi unitari medi è sì presente, è sì
rilevante nei primi delta di tempo, ma successivamente va a stabilizzarsi. Man mano che si va avanti
nel tempo, l’incremento dovuto all’apprendimento è sempre meno. Il fenomeno dell’apprendimento
è molto importante a livello impiantistico, quando si installano nuovi impianti.

APPRENDIMENTO MULTIDIMENSIONALE
Molto più interessante è l’approccio multidimensionale. Ci da un’idea più complessa e completa del
fenomeno dell’apprendimento. L’apprendimento non è un semplice fenomeno, è un complesso di
fenomeni e nelle imprese può essere utilizzato in varie forme, anche strategiche. L’approccio
multidimensionale ci dice che l’apprendimento va studiato non potendo utilizzare la semplice proxy
della riduzione del costo unitario medio.

L’apprendimento può essere sia interno che esterno all’impresa.

L’apprendimento interno ha luogo internamente all’impresa. Una prima tipologia di apprendimento


è l’apprendimento da utilizzo o “learning by using”, ossia quello che si matura utilizzando nel tempo
quel prodotto, svolgendo quell’attività, sfruttando quella nuova tecnologia. Si apprende molto
all’inizio e si continua ad apprendere nel tempo; poi c’è un apprendimento per esperienza o “learning
by doing”, dove la differenza con lo “using” sta nel fatto che nello using la tecnologia viene utilizzata,
mentre nel doing l’apprendimento si manifesta nelle azioni dell’individuo, come ad esempio nel
reclutamento del personale, nella formulazione delle strategie, nel gestire i rapporti con clienti e
fornitori ecc. nel fare ripetutamente quelle attività si matura esperienza, e proprio questa esperienza
maturata è l’esito dell’apprendimento. Ecco perché, quando si perde una risorsa umana in azienda,
va via anche la competenza acquisita e l’esperienza della risorsa→il problema è proprio che queste
esperienze acquisite, spesso, sono tacite. Le imprese hanno quindi forte difficoltà nel trasferire
queste esperienze e competenze nelle nuove risorse umane reclutate; l’ultima forma è
l’apprendimento da ricerca, o “learning by searching” ossia studiando. È la forma classica, usata dalle
imprese che effettuano R&S.

L’apprendimento esterno ha luogo esternamente all’impresa. Questa forma interessa l’impresa nei
suoi rapporti con altre imprese. Queste sono le modalità classiche con cui l’impresa apprende: si può
apprendere imitando, ed è una delle forme più praticate, e in questo caso si intende l’imitazione con
accezione positiva. Imitare vuol dire apprendere e spesso ciò ha risultati positivi, se fatto bene; esiste
anche un apprendimento da interazione, che spesso nasce dal fatto che chi viene copiato può
scegliere tanto di “chiudersi”, tanto di interagire e dialogare con l’impresa che la imita. Questa
interazione permette di apprendere ed avviene in maniera casuale, involontaria. Lo scambio di
conoscenza avviene da entrambe le direzioni ed involontariamente (ad esempio due rappresentanti
di imprese ad una fiera che vanno a prendersi un caffè e scappa qualche piccola informazione);
l’ultima forma di apprendimento è un apprendimento da cooperazione, quando si ha una
collaborazione tra l’impresa ed un’altra, ad esempio quando ho una partnership con un fornitore,
con un laboratorio. La prima fonte di conoscenza e innovazione sono i fornitori, poi i clienti, le fiere
e le università.

INNOVAZIONE E IMPRENDITORIALITÀ IN SCHUMPETER E KIRZNER

L’approccio neoclassico permette di schematizzare i meccanismi di innovazione nelle imprese. Ci


sono alcune scuole di pensiero che hanno prevalso in questo ambito. In particolare, ci sono due
autori che sono considerati i riferimenti del pensiero neoclassico sull’innovazione: Schumpeter e
Kirzner. Con essi, si è passati dalla definizione di impresa come funzione di produzione alla
definizione di impresa come luogo in cui si genera l’innovazione. Kirzner, in particolare, ha una
prospettiva differente rispetto a Schumpeter (si soffermerà sulla domanda di innovazione piuttosto
che sulla generazione di innovazione). Entrambi sono figli dei loro tempi.

Innovazione, mutamento tecnologico e sviluppo economico in Schumpeter (1883-1950)

Schumpeter ha visto e studiato tutto quello che è successo ad inizio ‘900. Ha visto il progresso
tecnico in azione e come le imprese erano in procinto di trasformarsi. Il pensiero di Schumpeter
nasce come pensiero neoclassico ma evolve nel giro di 50 anni, avanzando fino alle teorie evolutive.
Arrivò alla conclusione che l’economia stessa fosse mossa dall’innovazione. Secondo Schumpeter,
l’impresa esiste proprio perché c’è innovazione. Questo concetto è ancora oggi molto complesso
da comprendere. L’innovazione è apprendimento, e le imprese sono restie ad innovare perché le
imprese stesse hanno la tendenza ad imitare. Le imprese che non innovano sono soggette a rischi e
costi, che condurranno quell’impresa al fallimento. Uno dei motori dell’innovazione, per
Schumpeter, è il mutamento tecnologico. Fattori capitale e lavoro esistono proprio perché si deve
innovare. La tecnologia è centrale nell’economia dell’innovazione. Tutto questo porta sviluppo
economico!

Schumpeter ha fornito molti contributi all’economia dell’innovazione. Per Schumpeter, come


abbiamo già visto, c’è sviluppo economico in presenza di nuovi prodotti e nuovi processi. Nel corso
della sua vita, il pensiero subisce profonde modifiche, tant’è che per Schumpeter parleremo di
“prima fase” e “seconda fase” del suo pensiero→il passaggio di fase si ha quando egli si accorse che
qualcosa era effettivamente cambiato. Nella sua vita, Schumpeter si interessa anche delle dinamiche
economiche nel complesso: l’impresa è l’imprenditore. Un ruolo fondamentale, nell’azione
economica, è quello ricoperto dall’imprenditore, colui che muove l’impresa e genera sviluppo
economico. Schumpeter quindi introduce la prospettiva dello sviluppo economico “innovation
driven”. L’idea che ci sia uno stock di capitale che deve crescere, al fine di avere sviluppo economico,
viene messa in dubbio da Schumpeter, che vede nell’innovazione questo ruolo. Dopodiché,
Schumpeter introduce un altro tema importantissimo: il passaggio dall’equilibrio statico al concetto
di “transizioni fra stati di equilibrio”. In ogni punto si può avere equilibrio, anche se le trasformazioni
avvengono in un continuum temporale. Schumpeter unisce la competenza termodinamica con
l’economia: bisogna spiegare le transizioni di stato, non basta guardare allo stato di partenza e a
quello di arrivo. Tutti gli stati vanno studiati come se fossero stadi di equilibrio, anche se non
propriamente corretto. Questa intuizione di Schumpeter fu fondamentale: nel momento in cui c’è
innovazione, si parte da una condizione di equilibrio e si passa per una serie di stati, tutti di equilibrio,
che descrivono la transizione. L’economia non è studiabile come “mi trovo in uno stato e vado verso
l’altro”, ma è studiabile come una trasformazione termodinamica, nella quale dobbiamo considerare
tutti gli stadi intermedi che portano alla transizione di stato. Nonostante ciò, resta un economista
neoclassico, ha ben presente la funzione produzione, il ruolo dei fattori e il ruolo dell’output. Rompe
però una tradizione radicata nel pensiero economico: l’economia era considerata una scienza
sociale, mentre Schumpeter che è un’economista che usa metodi matematici afferma che, pur
restando fondamentale avere una visione del fenomeno economico come un fenomeno sociale
(legato alle interazioni tra gli individui e tra le generazioni), è possibile costruire modelli matematici
per descrivere l’economia, così come avviene nelle scienze naturali. OSS: a portare Schumpeter a
queste intuizioni fu la crisi del ’29.

Schumpeter, appurata la centralità del progresso tecnico nei suoi ragionamenti, propose una teoria
del progresso tecnico e una teoria dell’innovazione a livello d’impresa.

Qual è, in sintesi, l’idea di Schumpeter sull’innovazione? Gli economisti neoclassici tendevano a


guardare il mercato come mercato perfetto, fatto da molti concorrenti, molte offerte, molti clienti,
con una domanda articolata ecc. L’idea era: nel mercato perfetto, di prodotti tutti omogenei, ad un
certo punto qualcuno genera innovazione, un nuovo prodotto. Questo nuovo prodotto veniva visto
come qualcosa che il mercato perfetto assorbiva in maniera del tutto naturale: se c’era un nuovo
prodotto, bene. L’imprenditore concorrente, in quanto soggetto razionale, secondo i neoclassici, se
vede che il prodotto riscuote successo, imita il prodotto, utilizzando metodi tecnicamente efficienti.
Gli imprenditori razionali imitano il nuovo prodotto! Quindi il sistema rimane e permane nella
condizione di mercato perfetto, senza transizioni intermedie! E questo si vedeva, effettivamente,
negli anni ’20 e negli anni ’30…fino a quando non si cominciarono a vedere sul mercato dei prodotti
più complessi: auto, prodotti chimici ecc. per i quali era difficile individuare il processo produttivo
alla base, che rendeva difficoltosa l’imitabilità degli stessi. Questo, unito all’accumularsi di profitti
sempre più grandi da parte delle imprese che introducevano questi nuovi prodotti, indusse
Schumpeter a capire che, in realtà, il meccanismo del mercato perfetto non sussisteva: non si può
passare istantaneamente da un mercato perfetto ad un altro. L’innovazione non funziona così!
L’imprenditore-innovatore genera il nuovo prodotto, entrando in un mercato che NON è un mercato
perfetto, bensì è un mercato monopolistico, in cui è egli l’unico a fare quel prodotto, beneficiando
quindi della rendita monopolistica (extraprofitto) derivato dall’imposizione del prezzo o delle
quantità. Ecco spiegati gli extraprofitti: il monopolista beneficia per periodi più o meno lunghi, delle
condizioni del monopolio. Il monopolio è in condizioni di equilibrio: c’è un solo produttore e N
(grande) consumatori.

È chiaro che, ad un certo punto, gli altri imprenditori cercano di capire, cercano di entrare nel
mercato. Dal monopolio, che è uno stadio di equilibrio, si transita verso un nuovo stadio di equilibrio:
l’oligopolio. Solo dopo tutte queste transizioni, si ritorna al mercato perfetto. Solo dopo che, però,
l’innovatore ha ampiamente beneficiato delle rendite monopolistiche.

Quindi, Schumpeter individua nella figura dell’imprenditore il vero motore dell’economia


capitalistica e dell’innovazione. I prodotti industriali diventano sempre più complessi. Certo, si imita
rapidamente, ma solo in lui è racchiusa la capacità di procedere alle innovazioni attraverso quegli
investimenti che stanno alla base dello sviluppo economico. Nell’investire, l’innovatore rischia
eccome, ma nel farlo, accetta anche la possibilità di beneficiare dei rendimenti monopolistici.
L’innovatore-imprenditore ha l’idea geniale, e solo lui può averla e solo così si può muovere
l’economia.

LEZ 24: 13/12/2023

Ricordiamo sempre dove siamo: siamo nell’analisi microeconomica dei processi di innovazione, a
livello di impresa e/o di settore. Dopo aver visto i contributi della scuola neoclassica circa i contributi
del progresso tecnico e del processo di apprendimento, stiamo analizzando i pensieri di Schumpeter,
il primo economista ad aver messo il tema dell’innovazione come centrale nell’analisi economica.
Oltre a fare questo, però, è andato aldilà di questo, risultando quasi “profetico” rispetto al futuro
delle startup: l’imprenditore è colui che introduce innovazione nei mercati, determinando sviluppo
economico. Schumpeter inquadra l’evoluzione dell’impresa, sottoposta ad un processo di
innovazione, come una transizione fra stati di equilibrio che, contrariamente al pensiero neoclassico
secondo il quale un’impresa che innovava si trovava sempre (prima e dopo l’innovazione) in un
mercato perfetto, permettono all’impresa che innova di passare da un mercato perfetto ad un
monopolio (essendo l’unica ad avere il nuovo prodotto, beneficiando degli extraprofitti del
monopolista), da un monopolio all’oligopolio (a seguito del processo di imitazione da parte delle
altre imprese. Rimane comunque uno stato di equilibrio: pochi produttori e consumatori pressoché
infiniti) e solo dopo che il processo di imitazione si completa, si ridetermina nuovamente il mercato
perfetto. Schumpeter quindi ritiene la dinamica di innovazione una transizione tra diversi stati di
equilibrio, sotto forma di diverse strutture di mercato. Alla fine, si torna nuovamente al mercato
perfetto perché, ipotizzando che l’imprenditore che innova venga poi imitato dalle altre imprese
(tutti gli imprenditori sono razionali), al termine della transizione, tutti gli imprenditori avranno
imitato l’innovazione. Questo schema è fondamentale per l’analisi dei processi di innovazione, e lo
è persino tutt’oggi: spiega i meccanismi di extraprofitto e accumulazione capitalistica, nonché i
processi di imitazione che gli imprenditori generano sul mercato. Alla fine, l’innovazione porta
sempre sviluppo economico in un sistema economico.

È evidente che, Schumpeter arriva a questa modellazione dei processi di innovazione dopo aver visto
nei primi due decenni del ‘900 il formarsi di grandi imprese attorno a dei processi di innovazione
(esempio, Ford e P&G) che divenivano grandi e scalavano proprio grazie all’innovazione.
L’imprenditore-innovatore è anche il soggetto che accumula capitale grazie agli extraprofitti, e lo fa
rapidamente. Questo tema è quello che Schumpeter inquadra agli inizi del ‘900. L’analisi economica,
quindi, non può che osservare questi fenomeni.

OSS: la possibilità di mantenere il monopolio per un certo periodo di tempo è legato alla capacità
delle altre imprese di dar luogo al processo di imitazione→la presenza di un brevetto, ad esempio,
rallenta la transizione monopolio-oligopolio, favorendo la formazione di grandi capitali.

Soffermiamoci sul tema dell’imprenditore-innovatore: fino a prima di Schumpeter, era visto come
soggetto razionale che guidava le decisioni delle imprese. Ponendo l’innovazione al centro delle
decisioni aziendali, Schumpeter individua proprio nell’imprenditore il motore dell’innovazione e
dell’intera economia capitalistica. Solo l’imprenditore può farlo, in quanto è il soggetto che ha
un’idea, ha una tecnologia, ha delle risorse, effettua degli investimenti e attiva il processo di
innovazione. È in grado di coordinare i fattori di produzione per impiegarle nei processi di
innovazione. Ancora oggi si fa riferimento al termine di “imprenditori schumpeteriani”, per indicare
gli imprenditori che introducono delle innovazioni. Esistono anche degli “imprenditori imitatori” che
hanno un ruolo inferiore nell’analisi economica. I due ruoli non sono mutualmente esclusivi: un
imprenditore può essere innovatore e al contempo imitatore. Non ci sono classi diverse, è l’azione
imprenditoriale a classificare l’imprenditore, fermo restando che la funzione vera dell’imprenditore
è e rimarrà sempre il “fare innovazione”. Nelle economie socialiste (non capitalistiche) il ruolo
dell’imprenditore è svolto dallo Stato. Quindi l’economia capitalistica ha un vantaggio rispetto
all’economia socialista, perché lo Stato è molto più lento nell’azione di coordinamento delle risorse.
Ovviamente questi sono idealtipi, non esistono economie totalmente capitalistiche o socialiste!

Innovazione e profitto

Quelli che abbiamo visto fino ad ora, sono i contributi di Schumpeter all’analisi economica. In tutti
questi, due sono quelli che ci interessano maggiormente: l’aver reso l’innovazione come il centro
dello sviluppo economico e l’aver reso l’imprenditore come l’archetipo del soggetto che determina
sviluppo dell’impresa e del sistema economico.

Su questo secondo punto, Schumpeter cerca di trovare una spiegazione che vada oltre l’analisi
economica, ricercando una giustificazione dell’extraprofitto di cui l’imprenditore-innovatore
beneficia. Come già detto, l’economia nasce come scienza sociale→nell’analisi economica non conta
solamente esaminare i fenomeni economici, conta anche esaminare i fenomeni a livello aggregato
e collettivo, ossia il ruolo che i diversi soggetti/operatori hanno all’interno di una società. Di
conseguenza, il fatto che un sistema capitalistico permetta ad un individuo di beneficiare di un
extraprofitto pone un problema etico: radicatasi questa dinamica di transizioni di stato
nell’economia, la società ritiene che questo meccanismo di appropriazione degli extraprofitti sia
giusto? La risposta a cui perviene Schumpeter è molto interessante, perché ci fa capire molte cose:
questo profitto è l’espressione del valore del contributo dell’imprenditore alla produzione, e che
quindi spetta all’imprenditore in quanto rappresentativo della sua azione innovatrice è creativa. È
giusto che gli individui si approprino degli extraprofitti in quanto questi sono la remunerazione delle
loro azioni! È un premio a chi innova ed è creativo. È la remunerazione del rischio di cui
l’imprenditore si fa carico per introdurre un’innovazione, che non è detto abbia successo sul
mercato! Il profitto è un meccanismo incentivante, che attiva l’azione virtuosa degli imprenditori di
essere innovativi e creativi.
Questa posizione di Schumpeter è molto forte. È l’intuizione del “primo imprenditore” ad essere
premiata. L’azione imprenditoriale diventa, di fatto, un’azione sociale: a livello di collettività,
accettare questa “premiazione” significa mettere la società nelle condizioni di “correre” più
rapidamente, di crescere rapidamente. È la stessa cosa che avevamo visto col progresso tecnico, ma
adesso siamo in scala microeconomica.

Sì, ma, alla fine, siamo tutti d’accordo o abbiamo qualche dubbio su queste affermazioni? In ottica
socialista, perché questo premio va tutto all’imprenditore e non vengono premiati anche i lavoratori?
Quanto di questa remunerazione debba essere a favore dell’imprenditore e quanto della forza lavoro
impiegata nell’innovazione? Questo è uno dei tanti problemi attuali.

Fenomeni di innovazione

Analizzato il fenomeno dell’innovazione e le sue dinamiche su sistema economico, impresa e società,


Schumpeter individua diversi fenomeni di innovazione che prima nessuno mai ritenuto tali. Questo
perché prima, tendenzialmente, le innovazioni erano viste solamente o come innovazioni di
processo (tecnologia adottata) o come innovazioni di prodotto. Per Schumpeter, i fenomeni
classificati sotto il termine di innovazione sono i due “classici”, ossia:

1)Produzione di un nuovo bene (innovazione di prodotto);

2)Introduzione di un nuovo metodo di produzione (innovazione di processo);

e anche altri, precedentemente non considerati, ma che con Schumpeter assumono importanza:

3)Apertura di nuovi sbocchi di mercato: un’impresa che apre un nuovo sbocco di mercato sta
innovando, senza modificare né processi né prodotti!

4)Acquisizione di nuove fonti di materie prime: una nuova fonte di materie prime è a tutti gli effetti
un cambiamento, per cui il metodo di produzione rimane uguale ma abbiamo nuovi materiali;

5)Realizzazione di una nuova forma organizzativa: se ho un cambiamento di organizzazione, ho


un’innovazione organizzativa.

Quindi, ai due fenomeni di innovazioni classici, Schumpeter introduce 3 fenomeni nuovi. A


Schumpeter va riconosciuto l’aver “sistematizzato” il processo di innovazione, focalizzandosi sulle
diverse forme che esso può assumere nell’economia.
Con tutto il bagaglio di concetti acquisiti, entriamo nel dettaglio del ragionamento di Schumpeter
per capire come, secondo lui, funziona l’innovazione. Per fare ciò, ricordiamoci che, nello schema
neoclassico (e quindi per Schumpeter) le tecnologie sono variabili ESOGENE alle imprese. Gli
imprenditori si rivolgono al mondo della tecnica e scelgono la tecnologia da adottare.

Schumpeter vive l’inizio del 1900, in cui si è vista la comparsa di nuove tecnologie, nuovi laboratori,
centri di R&S anche all’interno delle imprese. In una fase iniziale, il pensiero di Schumpeter ha
impostazione neoclassica. Dopo aver rielaborato questa evoluzione nel sistema economico e nelle
imprese, modifica la sua visione dell’innovazione, tant’è che parleremo di prima fase e seconda fase
dei modelli di innovazione di Schumpeter. Nel passaggio tra le due fasi c’è una rottura importante,
che mette in discussione un pilastro dell’approccio neoclassico: la tecnologia NON si sviluppa
esternamente all’impresa

Pensiero di Schumpeter: modello della 1° fase

Nella prima fase, considera la produzione di conoscenza scientifica totalmente esogena al sistema
economico ed alle sue influenze→università e centri di ricerca operano ponendosi domande e
dando risposte, e agiscono in maniera del tutto indipendente dalle esigenze del sistema economico
(non si fanno influenzare dal sistema economico). La scienza, la tecnica e la produzione di
conoscenza scientifica si sviluppano indipendentemente; pertanto, le invenzioni prodotte possono
essere trasformate in innovazioni grazie all’intuizione dei cosiddetti “uomini nuovi”, gli imprenditori,
che intuiscono qualcosa di nuovo, adottano l’invenzione e la usano per generare innovazione. Una
volta che un’innovazione radicale ha successo e viene introdotta nel mercato, esso si sconvolge. Si
ha un profitto monopolistico temporaneo a favore del sistema e dell’imprenditore, con conseguente
crescita. L’aver acquisito l’informazione che quella nuova tecnologia consente di fare innovazione e
creare extraprofitti, gli sciami di imitatori seguiranno il processo di imitazione che riporteranno il
sistema all’equilibrio. Questo equilibrio verrà perturbato nuovamente alla nascita di una nuova
innovazione.

Schumpeter a valle della prima fase riflette sul suo pensiero in base a quanto vede negli anni e
cambia il proprio modello di innovazione in maniera importante.

Pensiero di Schumpeter: modello della 2° fase

Nella seconda fase, Schumpeter osserva le grandi aziende che, capendo che l’innovazione è in grado
di generare vantaggio monopolistico, si attivano per accelerare il processo di produzione della
conoscenza. Come si accelera la produzione della conoscenza? Le aziende cominciano a costituire
delle loro funzioni interne di R&S, sviluppando una capacità di R&S importante. Questa attività di
R&S porta ad una conoscenza prodotta all’interno delle aziende e finalizzata ai bisogni delle aziende.
Quindi, Schumpeter conclude che esiste un’influenza del sistema economico nello sviluppo delle
conoscenze scientifiche. Questo vuol dire che la conoscenza e il suo progresso sono influenzati dal
sistema economico! Incomincia a diventare sempre più rilevante la conoscenza prodotta
nell’impresa, piuttosto che quella “curiosity driven”. La conoscenza scientifica diventa sensibile al
sistema economico e alle sue influenze. Addirittura, oggi, sono i governi a sostenere lo sviluppo della
conoscenza scientifica e tecnica all’interno delle imprese. Non solo hanno una capacità di
finanziamento proprio, ma le imprese sono supportate anche dal governo.

Questo cambio permette una modifica profonda del modello di Schumpeter: arrivo ad intuire la
nascita di una spirale virtuosa, secondo la quale, l’impresa che fa innovazione beneficia dei vantaggi
monopolistici e, se investe parte o la totalità di questi extraprofitti in ulteriori attività di R&S, riuscirà
a produrre ulteriore conoscenza e quindi riuscirà a generare ulteriori innovazioni e un’ulteriore
spirale virtuosa. Questo fenomeno è effettivamente presente anche oggi, ed è importantissimo.
Schumpeter, nella fase finale della sua vita, conclude sostenendo che esiste un legame fra scienza,
tecnologia, investimenti innovativi e mercato, e questi legami sono molto più intimi di quanto
possano apparire.

Vediamo alcuni casi rilevanti:

Caso Bell Labs

Esistiti dal 1925 al 1984. Controllavano le telecomunicazioni ma hanno sempre ritenuto importante
l’attività di R&S per competere con l’innovazione e attraverso l’innovazione di successo, cioè gli extra
profitti monopolistici. Sono stati il laboratorio principe, che ha avviato la spirale virtuosa di cui
parlava Schumpeter. In questi laboratori sono state portate avanti ricerche avanzatissime che hanno
permesso ai ricercatori di ricevere premi Nobel. Si fa ricerca di base. Furono venduti alla Nokia e
attualmente appartengono all’Alcatel-Lucent Venture. A loro si attribuiscono l’invenzione dei
transistor, dei laser ecc.

OSS: oggi le pressioni competitive spingono a modificare il modello di ricerca, riconducendo le


attività di ricerca su un orizzonte più di breve termine, con meno ricerca di base e più ricerca
applicata, al fine di garantire una maggiore aderenza al mercato→il periodo in cui si è monopolisti
sta diventando sempre più breve, questo spinge le imprese a focalizzarsi sulla ricerca applicata e su
un focus sul mercato maggiore. I Bell Labs sono stati per anni l’ultimo bastione dei laboratori di
ricerca di base.

Caso Philips (CASO PHILIPS DA STUDIARE IN AUTONOMIA)

Anche la Philips ha avuto una storia numerosa di premi Nobel, con un laboratorio di ricerca di base
di assoluto livello. Per decenni ha realizzato prodotti innovativi e beneficiato di ciò; con il tempo fare
R&S è stato sempre più costoso e la competitività è aumentata, così ha fatto una scelta di
specializzazione, specializzandosi in ambito biomedicale. Anche Philips, come Bell Labs, ha
accorciato l’orizzonte temporale delle loro attività di ricerca, focalizzandosi maggiormente sulla
ricerca applicata. Philips e Bell Labs hanno un punto in comune: entrambi fanno ricerca su tecnologie
dette “dirompenti”, in particolare sull’elettronica. Le innovazioni, quindi, seguono lo sviluppo delle
conoscenze scientifiche e di base. Quindi, mentre alcuni centri si focalizzano sulla ricerca applicata
perché in quegli ambiti è già cominciata la competizione oligopolistica, in altri ambiti, altri centri di
ricerca e sviluppo di imprese private, stanno cominciando a ragionare come Philips e Bell Labs hanno
ragionato agli inizi sull’elettronica.

Caratteristiche dell’innovazione

Di Schumpeter vogliamo ricordare anche l’analisi dei fenomeni di innovazione, da un punto di vista
marco economico settoriale. Schumpeter conduce osservazioni riguardanti il tempo in cui si
manifestano le innovazioni e rispetto ai settori economici in cui si manifestano.

1. Rispetto al tempo in cui si manifestano le innovazioni

Schumpeter osserva che alcune innovazioni avvengono in quanto si sono verificate altre innovazioni.
Qui NON sta parlando della imitazione di un’innovazione, ma sta parlando del fatto che, quando
compare una particolare innovazione, poi si verificano altre innovazioni che è come se formassero
un “grappolo di innovazioni”, ossia un gruppo di innovazioni che in qualche modo dipendono da
quella prima innovazione. Questo discorso è interessante in quanto apre il tema dei cicli economici.
Quindi non è imitare, è: compare in un certo tempo un’innovazione e, in seguito, altre innovazioni
seguono in qualche modo correlate a quell’innovazione. Grappolo di innovazioni NON SONO GLI
IMITATORI. Un grappolo di innovazioni è un insieme di innovazioni, nel quale delle N innovazioni
presenti nel grappolo, N-1 sono correlate in qualche modo a quella principale.

Vediamo meglio il concetto di grappolo con degli esempi:


a) Telefonia mobile: negli ultimi 30 anni (e nel futuro continueremo) abbiamo assistito ad una serie
di innovazioni. Partendo indietro nel tempo, siamo nel 1975, alla nascita del “teledrin”. Questa
fu la prima forma grazie alla quale il servizio di telefonia non era più legata ad un telefono fisso,
ma ad un apparecchio mobile. Questa soluzione ha aperto al nuovo mercato della telefonia
mobile, che prima non esisteva. Dopodiché, nell’85 esce il primo telefono mobile analogico, nel
1990 esce il “TACS 1g”, nel 1992 il “GSM 2G”, nel 1997 il “GPRS”, nel 1999 l’“UMTS 3G”, poi nel
2010 il “LTE 4G” e infine ai giorni nostri il “5G”. Il teledrin, ad esempio era un sistema molto
rudimentale, fungeva più come un avviso di chiamata mobile. L’UMTS invece ha visto come
contributo fondamentale il centro di sviluppo italiano della SIP.
b) Fotografia digitale: nel 1975 compare per la prima volta la macchina fotografica digitale,
sviluppata da Kodak. Ricordiamo che Kodak fallì proprio perché non riuscì ad adattarsi alle nuove
tecnologie digitali. La fotografia digitale è a tutti gli effetti un’innovazione. Il cuore della macchina
fotografica digitale, che permette di digitalizzare un’immagine, nasce proprio dai Bell Labs. Nel
1959 misero a punto un sensore in grado di catturare immagini, il cosiddetto “MOS”. A sua volta,
questo sensore si basa su un’invenzione di un transistor a effetto di campo, inventato proprio da
Bell Labs. Quindi Bell Labs, studiando l’effetto di campo dei transistor coi suoi ricercatori, applica
questi studi per realizzare il sensore MOS, che era in grado di trasdurre il segnale ottico in segnale
digitale. Questo sensore ha portato allo sviluppo dei sensori per immagini digitali, basati su
semiconduttori, sviluppati proprio da Bell Labs nel 1969. Da questa ricerca di base nel 1959, si
arriva all’innovazione nel 1960 e al primo prodotto nel 1975→la macchina fotografica digitale è
stata resa possibile perché prima è stato inventato il sensore che a sua volta era basato sulla
ricerca di base del 1959. Quindi nasce grazie a quell’innovazione a monte. Dopo il primo modello,
poi sono nate tantissime macchine fotografiche digitali. Ecco il senso di grappolo: nasce la prima
innovazione (tecnologia MOS) e a seguito di essa nascono una serie di innovazioni correlata ad
essa (le macchine fotografiche digitali). Si noti come gli investimenti fatti nel ’59 hanno portato
ad invenzioni nel ’69, prese e commercializzate sotto forma di prodotto innovativo da un’altra
impresa nel ’75. Capiamo quanto tempo e sforzo ci vuole per arrivare al prodotto innovativo.
c) Integratori salini e bevande energetiche: qui la prima innovazione quale sarebbe? La prima
innovazione è stato Gatorade. Gatorade nasce da una serie di esigenze e studi che sono stati
condotti nell’università della Florida, la quale stava cercando delle bevande che potessero
reintegrare i Sali minerali e i carboidrati persi a seguito dello sforzo fisico degli atleti nelle squadre
di football. L’idea era sviluppare un’invenzione che potesse risolvere un problema, così nacquero
gli integratori salini. Nel 1965 nasce Gatorade, la prima innovazione. Questa si è trascinata dietro
una serie di altre innovazioni, perché per la prima volta la bevanda veniva utilizzata come
integratore e non come “alimento”. Tra le varie innovazioni delle bevande c’è Red Bull che, in
realtà, non è solamente un integratore ma funge anche da bevanda energetica. Questa fu una
vera e propria innovazione perché introdusse la possibilità di inserire “sostanze stimolanti” nelle
bevande. Questa bevanda venne ideata nell’84 da un austriaco, il quale adattò/copiò una
bevanda thailandese del 1976, la Krathing Deng, che ha a sua volta una storia particolare. Veniva
infatti per sostenere le fatiche dei lavoratori nei campi, fungendo da stimolante per far sentire
meno lo sforzo fisico. Ma quindi la prima innovazione di Red Bull quale sarebbe? Gatorade? Si,
però quel prodotto ha anche un’altra origine, la Krathing Deng…questo ci fa capire come i
grappoli di innovazione possono essere imprevedibili, infatti, non è necessariamente la prima
innovazione ad essere quella di successo, può anche essere una del grappolo. La RedBull
appartiene sicuramente al grappolo delle innovazioni generate da Gatorade, e si ritrova anche
nel grappolo di innovazioni delle bevande energetiche nate col Krathing Deng.
2. Rispetto al settore economico in cui si manifestano le innovazioni

Schumpeter osserva anche che le innovazioni non si concentrano in maniera uniforme su tutti i
settori, ma ci sono settori in cui ci sono più innovazioni e settori in cui ci sono meno innovazioni.
Questa concentrazione su alcuni settori comporta una diversa dinamica evolutiva nei diversi settori.
Un esempio tipico è la fotografia digitale: nell’ambito delle tecnologie ottiche e digitali, il manifestarsi
di un grappolo di innovazioni ha portato a far sì che quel settore economico si sviluppasse. Possiamo
dire che settori con alta concentrazione di innovazioni vedono una forte crescita. Al contrario, nel
settore dell’agricoltura, nel passato rispetto al settore della fotografia digitale ci sono stati tassi di
crescita molto più lenti, proprio perché ha beneficiato di meno innovazioni. Oggi, però, cominciamo
a vedere molte innovazioni anche nel settore agricolo (ad esempio, tecnologie digitali, biotecnologie,
agricoltura di precisione ecc.) e quindi potrebbe cambiare in maniera decisamente importante e
diventare un settore estremamente più dinamico in termini di crescita. Un altro esempio è il settore
dell’industria delle costruzioni, che fino a 10-20 anni fa era molto tradizionale, con pochissime
innovazioni, e in seguito alla nascita di nuovi materiali e nuove tecnologie per gli “edifici intelligenti”
sta per subire una profonda dinamica evolutiva.

Questi modelli concettuali sono molto importanti, soprattutto per capire in quali settori investire: se
fossi un fondo di investimento, andrei a vedere quali sono i settori interessati da innovazioni nel
futuro e che potranno crescere grazie ad esse.
Questo discorso per i settori economici vale anche nelle aree geografiche: 100 anni fa nessuno
avrebbe investito negli Emirati Arabi, oggi sono interessati da dinamiche innovative molto
importanti.

Conclusione: evoluzione economica (dall’ultimo libro “the business cycles”)

Dopo aver visto i grandi cambiamenti nell’economia statunitense e mondiale nel 1929, fornendo una
comprensione (tramite modelli) di quelle dinamiche, Schumpeter arriva a concludere che
l’evoluzione economica si sviluppa come una sequenza di processi, ciascuno caratterizzato da una
due fasi:

• Fase di prosperità: determinata dall’attività imprenditoriale, nella quale a seguito dell’azione


degli imprenditori-innovatori si ha una spinta evolutiva del sistema economico che si sposta dalla
situazione di equilibrio, e nella quale nascono nuove imprese, che diventano grandi.
• Fase di recessione: quando le innovazioni iniziano ad essere imitate dalle altre imprese, si giunge
in una fase di recessione nella quale il sistema si riavvicina alla condizione di equilibrio

Quindi, per Schumpeter, l’evoluzione economica passa per due dinamiche: la dinamica innovativa,
basata sul processo di innovazione imprenditoriale, sulla creazione di profitti e occupazione; la
dinamica recessiva, legata al fatto che prevalgono gli effetti di imitazioni, che causano meno spinta
innovativa e meno sviluppo economico.

Guardiamo l’evoluzione economica in termini di variazione temporale (sulle x) di un qualsiasi


parametro economico rappresentativo delle condizioni dell’economia (sulle y, sia esso il PIL, il tasso
di occupazione, il reddito pro-capite ecc.), cosa notiamo? In un ciclo economico, questo parametro
tende CICLICAMENTE a ridursi (fase di recessione, 1), fino ad un punto di svolta inferiore (2), a
seguito del quale prevale nuovamente la spinta imprenditoriale (fase di espansione, 3) fino ad un
punto di svolta superiore (4). Questo ciclo si ripete nel tempo!

Schumpeter sostiene che, i grappoli di innovazione importanti sono quelli che contribuiscono
notevolmente alla fase di espansione e quindi alla fase di prosperità; mentre, in assenza di
meccanismi di innovazione, i meccanismi di imitazione sono quelli che tendono maggiormente a
favorire la fase di recessione.

Questa analisi, tuttavia, è molto semplicistica! È stata ulteriormente sviluppata da Kuznets, premio
Nobel per l’economia, il quale sintetizzò meglio il pensiero di Schumpeter sui cicli economici. A
seguito di studi condotti sul settore dell’edilizia negli USA nel 1930, pervenne alla considerazione
secondo la quale a generare i cicli economici contribuiscono:

Fattori esogeni: tra i quali figurano scoperte scientifiche e innovazioni tecnologiche. Se si sviluppano,
queste contribuiscono alla crescita;

Fattori endogeni: tra i quali spicca il principio di accelerazione.

Quindi Kuznets riprende il pensiero di Schumpeter e aggiunge anche i contributi dei fattori endogeni,
legati proprio alla struttura dell’economia, che contribuiscono proprio alla formazione
dell’andamento ciclico di un sistema economico nel lungo periodo (decenni).

APPROFONDIMENTO: MECCANISMO DI ACCELERAZIONE DEGLI INVESTIMENTI (PRINCIPIO)

Attenzione: NON è il moltiplicatore del reddito!

Quando parliamo di accelerazione degli investimenti, parliamo di un meccanismo differente, ma che,


come per il moltiplicatore del reddito, contribuisce alle fluttuazioni nell’andamento economico.

Si fanno delle ipotesi di base per costruire il modello:

1)hyp 1: esiste una relazione tra la produzione in un dato tempo t, Y(t), e lo stock di capitale K in quel
tempo, K(t). Questa relazione la conosciamo ed è tale che K(t) = g Y(t), che ci dice come Y(t) e K(t)
sono legate da una costante g, chiamata coefficiente di capitale. Quindi, per poter soddisfare un
certo livello di output, è necessario avere uno stock di capitale g volte maggiore dell’output. In
questa relazione si annida il principio di accelerazione degli investimenti.
2) hyp 2: la produzione si adatta (tende ad adattarsi) alla domanda, per cui le imprese producono in
relazione alla domanda. L’investimento che le imprese fanno è determinato in funzione di quella che
è la domanda che le imprese prevedono. Ad esempio, se prevedo che la domanda è in crescita, farò
investimenti per aumentare la mia dotazione di capitale; se prevedo che la domanda non è in
crescita, non farò investimenti!

3) hyp 3: la durata media del capitale, soggetto ad un tasso di logoramento annuo, è costante nel
tempo e pari ad n [anni]. Di conseguenza, il tasso di logoramento è pari ad h=1/n. Quindi, ogni anno,
1/n del valore del capitale, si logora e non è più utilizzabile e va rimpiazzato.

Queste ipotesi ci consentono di costruire un modello:

In primis, possiamo affermare che dobbiamo fare investimenti di sostituzione, per sostituire il
capitale logorato, che ogni anno si logora di 1/n * K(t). Questo investimento, Ir(t), è pari a:

𝐼𝑟(𝑡) = ℎ ∗ 𝐾(𝑡) = ℎ ∗ 𝑔 ∗ 𝑌(𝑡)

Quindi, l’investimento di sostituzione deve sostituire la quota di capitale che si è logorato.

Poi, abbiamo anche un investimento netto, ossia ciò che aggiungiamo in termini di capitale, al tempo
t. Facciamo questo perché abbiamo evidentemente una previsione di crescita della domanda al
tempo t+1. Se prevediamo che la domanda non crescerà, l’investimento netto sarà pari a 0. Quindi,
l’investimento netto In(t) al tempo t è pari all’incremento di capitale che prevediamo al tempo t al
fine di essere in grado di produrre Y(t+1) al tempo t+1:

𝐼𝑛(𝑡) = 𝐾(𝑡 + 1) − 𝐾(𝑡) = 𝑔 ∗ [𝑌(𝑡 + 1) − 𝑌(𝑡)]

Di conseguenza, l’investimento totale I(t) al tempo t è pari alla somma di investimento di


sostituzione e investimento netto:

𝐼(𝑡) = 𝐼𝑛(𝑡) + 𝐼𝑟(𝑡) = ℎ ∗ 𝑔 ∗ 𝑌(𝑡) + 𝑔 ∗ [𝑌(𝑡 + 1) − 𝑌(𝑡)]

Da cui:

𝐼(𝑡) = 𝑔 ∗ [𝑌(𝑡 + 1) − (1 − ℎ) ∗ 𝑌(𝑡)]

Notiamo come, per effetto di g, possiamo legare gli investimenti ad Y. A questo punto, possiamo
calcolare l’investimento totale al tempo precedente, t-1:

𝐼(𝑡 − 1) = 𝑔 ∗ [𝑌(𝑡) − (1 − ℎ) ∗ 𝑌(𝑡 − 1)]


E calcolare la conseguente variazione dell’investimento:

∆𝐼(𝑡) = 𝑔 [∆𝑌(𝑡 + 1) – (1 – ℎ) ∆𝑌(𝑡)]

LEZ 25: 14/12/2023

Guardiamo questo esempio numerico. I dati di partenza sono i seguenti: D(0)=100; I(0)=250; g=5;
h=0.5

Assumendo g=5, al tempo t=1 vuol dire che lo stock di capitale che mi consente di produrre Y(t)=100
è pari a K(t)=5*100=500. Questo vuol dire che devo considerare un investimento di sostituzione Ir(t)
a causa del logoramento del capitale nel tempo. Avendo ipotizzato un tasso di logoramento h=0,5,
avrò un Ir(t)=250, che mi indica quanto capitale devo rimpiazzare per sopperire a tale logoramento.
L’investimento netto al tempo t=1 si stabilisce in relazione alla produzione che prevedo di dover fare
al tempo t+1, ossia t=2. Per fare questo ragionamento, al tempo t devo prevedere la domanda al
tempo t+1, che secondo le previsioni riamane costante e pari a 100, pertanto l’investimento netto è
nullo. Di conseguenza, l’investimento totale è pari a Ir(t)+0 ossia 250. Essendo al primo periodo, la
domanda al tempo 0 è pari a D(0)=100 e un investimento totale I(0)=0, pertanto, non abbiamo
variazioni negli investimenti tra t=0 e t=1.

Al tempo 2 abbiamo lo stesso rispetto al tempo 1, l’unica cosa che cambia è l’investimento netto,
perché si prevede un aumento della domanda dal tempo 3, che passa da 100 a 120, incrementando
di 20. Di conseguenza, l’incremento di capitale è pari a g*Y(t=3)=100 quindi In(t=2)=100. Quindi,
l’investimento totale tiene conto anche dell’investimento netto, e vale 350. Questo comporta
rispetto al tempo 1 una variazione di 100 negli investimenti.

Al tempo 3 abbiamo una domanda e una produzione di 120, quindi lo stock di capitale è pari a g*120
ossia 600. Questi 600, sottoposti a logoramento, comportano un investimento di sostituzione pari a
0,5*600=300. L’investimento netto, invece, in previsione del fatto che al tempo 4 la domanda non
varia rispetto al tempo 3, è nullo. Quindi l’investimento totale è pari a 300. Attenzione, la variazione
degli investimenti qui è negativa! Quindi abbiamo un aumento nella variazione della produzione e
una riduzione nella variazione degli investimenti!

Così via, per gli altri periodi di tempo nella tabella. In sintesi, cosa osserviamo? Osserviamo che,
mentre la domanda ha un profilo di crescita relativamente “tranquillo”, perché si mantiene
pressoché costante, aumenta di poco, poi torna costante. È uno scenario ideale per la domanda,
quasi perfetto, oltre che prevedibile. Al contrario, gli investimenti netti oscillano fortemente a causa
di ciò, comportando una variazione degli investimenti che oscilla da valori negativi a valori positivi.
Quindi, con una domanda costante, la variazione degli investimenti comincia ad oscillare→questo
fenomeno, in termini aggregati, determina all’interno del sistema economico l’oscillazione delle
variabili economiche, pur in uno scenario che sembra buono e di crescita.

DI
Se la domanda diminuisce, si ha una caduta di D, di PIL e conseguentemente, sullo stock di K cosa
faccio? È difficile eliminare stock di K. Lo stock di K si logora comunque, quindi si dovrà decidere se
sostituirlo sapendo che non verrà usato totalmente, azzerando l’investimento netto (non posso fare
investimenti netti negativi). Oppure si riducono gli investimenti di sostituzione, dato che il K non
serve più.

Queste variazioni ci danno dei problemi, a livello di impresa: se siamo un’impresa che produce beni
strumentali, che sono i tipici investimenti per ampliare il capitale vedrò la mia domanda oscillare.
Questo effetto montagna russa comporta a sua volta una variazione della domanda D! Così come
sale e scende la domanda delle imprese dei beni strumentali, varia la domanda delle imprese. Se
varia un settore, varia la domanda aggregata per tutto. Se varia un settore che è interdipendente
con altri, se la sua domanda varia, varierà anche quella degli altri settori.

Quindi, l’acceleratore degli investimenti ha una componente di instabilità del sistema rilevante.
Quindi, riprendendo la variazione degli investimenti:

∆𝐼(𝑡) = 𝑔 [∆𝑌(𝑡 + 1) – (1 – ℎ) ∆𝑌(𝑡)]

Vedremo cosa succede alle variazioni degli investimenti nel tempo, in relazioni ad eventuali
variazioni della domanda:
CASO 1: se n tende ad infinito, il tasso di logoramento del capitale h tende a 0. Quindi, il capitale non
si logora e quindi la variazione degli investimenti è legata solo cioè il capitale si logora con tasso
1/infinito e quindi non abbiamo bisogno di In (sostituzione) e l’investimento totale è legato alle
aspettative sui livelli di produzione e il ∆I(t) diventa, essendo h tendente a 0:

∆𝐼(𝑡) = 𝑔 [∆𝑌(𝑡 + 1) – ∆𝑌(𝑡)]

Cioè, faccio investimenti netti e il loro valore è legato alla variazione che io ipotizzo sul livello di
produzione t+1 meno le variazioni che avevo già ipotizzato.

CASO 2: se n=1, allora h=1, c’è una componente istantanea, il capitale si logora tutto, il nostro
investimento deve avere una componente di sostituzione pari a K(t). La variazione di investimenti da
effettuare al tempo t è una variazione che tiene conto della variazione del livello di produzione che
ci aspettiamo:

che
∆𝐼(𝑡) = 𝑔 [∆𝑌(𝑡 + 1)] parte importantissima
osservazione umana
OSS: naturalmente, il principio di accelerazione degli investimenti NON è l’unico fattore endogeno
che influisce sulla fluttuazione dei cicli economici. Ad esempio, anche il moltiplicatore del reddito
può considerare andamenti ciclici. Secondo il moltiplicatore del reddito, gli investimenti I producono
un incremento del reddito R, generando un ∆𝑌, che è pari ad un certo numero di volte il valore degli
investimenti stessi. Questo fattore moltiplicativo che lega I ed Y dipende dalla propensione al
risparmio. Questa caratteristica è molto importante. In economia, normalmente, la componente che
il Governo può controllare, è una quota parte degli investimenti totali, ossia gli investimenti pubblici.
Gli investimenti privati, sono nelle mani delle imprese. Quindi gli investimenti totali sono somma di
investimenti pubblici ed investimenti privati. Gli investimenti pubblici sono molto utili: se noto che
gli investimenti privati sono in riduzione, aumento gli investimenti pubblici (con degli investimenti
integrativi) per mantenere un prefissato livello di reddito. Queste manovre prendono il nome di
“politiche anticicliche”. Anticiclica perché, nel momento in cui si sta per verificare la recessione, a
causa della caduta degli investimenti privati, effettuo investimenti pubblici integrativi per sopperire
a tale caduta e attenuare, o eliminare, la recessione.

Competizione, innovazione e imprenditorialità in Kirzner (1930, in vita)

Il tema dell’innovazione secondo Schumpeter è diventato centrale nell’analisi economica. Ancora


oggi ci sono economisti neoclassici, come Kirzner, che offrono una lettura del processo di
innovazione differente, ma non in contrasto. Questa visione di Kirzner è complementare a quella di
Schumpeter, sempre di impostazione neoclassica.

Kirzner si interessa dei temi di innovazione, imprenditorialità e competizione. Degno di nota è il suo
contributo “the driving force of the market”.

La tesi di Krizner è molto interessante, per comprenderla facciamo un esercizietto: supponiamo di


voler innovare una penna, cosa ci aspettiamo dall’innovazione stessa della penna? Si noti subito
come questo modo di porre il problema metta in luce la differenza nel modo di vedere l’innovazione.
La prospettiva si modifica: Kirzner dice che a guidare l’innovazione è la driving force of the market,
non è ciò che sta nei laboratori, non è l’imprenditore-innovatore, c’è la forza trainante del mercato,
ossia come la pensano i consumatori. È quella forza a guidare il processo di innovazione. Questo non
vuol dire che il meccanismo Schumpeteriano non funziona più, è solo un modo complementare e
simmetrico a quello di Schumpeter.

Per Kirzner esiste qualcosa che non è spiegabile dal pensiero Schumpeteriano, ossia la capacità
dell’imprenditore di capire ciò che i consumatori si aspettano e vogliono dall’innovazione. I
consumatori hanno idee ed aspettative differenti. Quindi, per l’imprenditore sorge un problema:
essendoci una miriade di idee differenti, quale scelgo per l’innovazione? QUI STA L’IMPRENDITORE
KIRZNERIANO: l’imprenditore secondo Kirzner intuisce, perché ha una capacità detta alertness, ossia
la capacità di essere vispo, intuitivo, scoprire bisogni insoddisfatti. L’imprenditore trova un piano che
sia in grado di coordinare tutte (o la maggior parte) delle diverse esigenze dei consumatori. Quindi
l’imprenditore Kirzneriano comprende tutti i piani di domanda dei consumatori e propone un’offerta
che, secondo lui, è in grado di rispondere in un certo modo alle diverse esigenze. Un altro
imprenditore proporrà una soluzione differente, in grado di risolvere differentemente le esigenze dei
consumatori, e qui sta la competizione!

Se l’imprenditore è stato sufficientemente veloce e capace, il suo prodotto potrà competere con gli
altri prodotti, e questa sua capacità, come nel caso Schumpeteriano, viene ricompensata attraverso
il profitto. Il profitto è descritto come l’indice dell’avvenuta individuazione di latenti situazioni di
disequilibrio e dell’apprestamento di mezzi idonei al loro superamento. È il premio, anche qui, per
le capacità dell’imprenditore.

Qui occorre, però, discutere bene il concetto di scoperta imprenditoriale: così come l’imprenditore
Schumpeteriano si sforza per trovare le migliori tecnologie in grado di proporre un prodotto
innovativo, l’imprenditore Kirzneriano impiega uno sforzo sul mercato, per capire i bisogni del
mercato stesso, e questo sforzo porta all’individuazione della soluzione più efficace.

Per Kirzner è il mercato a squilibrare il sistema, e l’imprenditore Kirzneriano coglie questo


disequilibrio rispetto all’offerta, e riporta il sistema all’equilibrio offrendo ciò che il mercato si
aspetta. Per Schumpeter, è il contrario: l’imprenditore schumpeteriano genera disequilibrio
temporaneo e il mercato riporta l’equilibrio. Sono visioni differenti del fenomeno di innovazione.
L’imprenditore Schumpeteriano irrompe sul mercato, l’imprenditore Kirzneriano è colui che
equilibra il mercato.

Volendo provare a sintetizzare, Kirzner e Schumpeter NON sono in contrasto! Sono complementari.
Vedremo, però, che esiste un modo per ricongiungerli grazie all’approccio evolutivo! Tutte e due le
visioni sono da adottare: dipende solo dal tipo di mercato, di prodotto, dal tipo e numero di
concorrenti ecc. Ciascuno dei due è figlio dei propri tempi.

LEZ 26: 15/12/2023

Approccio evolutivo

Oltre all’approccio neoclassico abbiamo visto che c’è un altro approccio microeconomico per
analizzare i fenomeni di innovazione, che è quello evolutivo. Questo approccio fornisce una
prospettiva estremamente diversa ed esplicativa di quello che avviene nelle imprese. Si è sviluppato
in epoca più recente, verso gli anni ’80. L’approccio neoclassico si concentra sulla funzione
produzione e su come l’imprenditore mette insieme i diversi fattori di produzione. L’approccio
evolutivo ci permette di capire cosa accade effettivamente alle imprese quando operano sul
mercato. Per farlo, partiremo proprio dall’analisi del contributo di Schumpeter

SCHUMPETER ED IL MODELLO NEOCLASSICO


Come abbiamo ampiamente visto, Schumpeter aveva capito i limiti del modello neoclassico ed aveva
iniziato gradualmente a distaccarsene, mettendo in discussione molti aspetti. Schumpeter quindi:
discute le dinamiche di equilibrio del mercato (non si passa direttamente da un mercato perfetto ad
un altro, come sappiamo); discute l’idea per la quale il processo di imitazione non avviene in
condizioni di perfetto equilibrio e con immediatezza, sostenendo quindi che l’imprenditore-
innovatore con la sua innovazione porta una situazione di squilibrio sul mercato alla quale seguono
una serie di transizioni di stato; discute l’omogeneità dei produttori. Per Schumpeter, infatti, facendo
una fotografia del mercato ad un certo istante di tempo, ci si accorge di come NON tutti i produttori
sono nello stesso stato: ci sono gli imprenditori-innovatori, ci sono gli imprenditori che stanno
imitando e ci sono imprenditori che ancora offrono il vecchio prodotto→non c’è razionalità
immediata dei produttori.

Schumpeter, però, nei suoi concetti, non spiega una cosa fondamentale: se continuo a fotografare il
mercato, cosa succede? Oggi, osservo che i produttori non si imitano perfettamente e non sono
perfettamente razionali. Quindi, fotografando il mercato, mi accorgo che le imprese NON IMITANO
PERFETTAMENTE L’INNOVATORE, anzi, tendono un po’ ad imitarlo e un po’ a differenziarsi da esso!
La differenziazione, per Porter, è una delle modalità con le quali l’impresa può ricercare vantaggio
competitivo. Il concetto di differenziazione, tallone di Achille di Schumpeter, è proprio l’incipit del
pensiero evolutivo. Guardiamo questa immagine:

Se entriamo in un supermercato, troviamo tantissimi


panettoni diversi. E perché le imprese non hanno tutte
imitato l’innovatore? Perché troviamo tanti diversi
panettoni: quello classico, quello artigianale, quello
industriale ecc. In base a cosa scegliamo noi
consumatori? E perché il produttore di un panettone x
non ha imitato perfettamente il miglior panettone e
perché altri produttori si sono differenziati? (ad
esempio, offrendo il pandoro?)

Su questo tema, gli economisti si sono interrogati per anni e ancora continuano a farlo. Ancora, un
altro esempio è quello delle compagnie aeree: ce ne sono tantissime e tutte differenti, come fanno
a sopravvivere, perché non è avvenuto un processo di imitazione totale? Perché Ryanair sopravvive
a Lufthansa? Perché quelle imprese sopravvivono, pur vivendo in una competizione nei mercati, che
è una competizione che spinge a cercare le soluzioni migliori per sopravvivere. È come se le imprese
fossero delle specie animali che, per sopravvivere, un po’ si imitano e un po’ si differenziano. Queste
prime intuizioni risalgono agli anni ’60-’70, gli anni delle grandi competizioni fra le imprese, ed è
proprio in quel periodo che si usava fare riferimento alla metafora della sopravvivenza delle specie
viventi: l’idea era, essenzialmente, che le imprese come le specie viventi combattono fra di loro per
sopravvivere. Il mercato è un’arena competitiva dove le imprese, un po’ simili e un po’ diverse, sono
in competizione fra loro, e lottano per la sopravvivenza. Questa metafora crebbe sempre più tra gli
economisti, che percepirono questa similitudine, ma non avevano ancora formalizzato un pensiero
rigoroso al riguardo.

N.B: Quando non si ha ancora una teoria, ma si va a attingere da altri pensieri, si usano le metafore:
prendiamo un concetto slegato da quanto stiamo dicendo e lo utilizziamo per spiegare meglio il
pensiero che vogliamo portare avanti. La competizione delle imprese viene metaforicamente intesa
come la lotta fra gli animali per la sopravvivenza in un habitat naturale.

Ad un certo punto, il ragionamento viene ripreso da una serie di contributi fondamentali: il primo,
negli anni ’50, apre la mente degli economisti, è il contributo di Alchian. Nel 1982, grazie a questo
contributo, nasce un libro fondamentale di Nelson e Winter, “An evolutionary theory of economic
change”, che imposta l’analisi dell’impresa (e in particolare l’innovazione nell’impresa) utilizzando
una metafora di tipo evolutivo. È un libro molto dirompente che richiede di fare dei cenni sulla teoria
evolutiva per capire il comportamento delle imprese.

Il ragionamento che Nelson e Winter fanno parte dall’osservazione della realtà. Osservando la realtà,
loro dicono che ci sono una serie di questioni che non li convincono:

IL COMPORTAMENTO MASSIMIZZANTE e LE ROUTINE: sappiamo benissimo che, qualunque contesto


di analisi, sia esso impiantistico piuttosto che tecnologico ecc., ci porta a pensare che chiunque stia
progettando quel contesto, punti a massimizzare il risultato. Siamo convinti che, tramite i processi
di astrazione e di costruzione dei modelli, la realtà possa essere interpretata tramite i modelli, al fine
di comportarsi “al meglio”→costruiamo qualcosa di artificiale, matematico, e ragioniamo su questo
modello per massimizzare ed ottenere risultati ottimi, pensando di poter applicare direttamente
tutto ciò sulla realtà. La realtà, però, è ben diversa. Questo concetto, che prende il nome di
“comportamento massimizzante”, viene messo in discussione da Nelson e Winter, secondo i quali le
imprese NON si comportano sempre in ottica di massimizzazione. Questo ha una conseguenza
immediata: tutti gli studi fatti in precedenza sull’economia, vengono letteralmente buttati! Ecco la
dirompenza del ragionamento, che butta a terra tutto il ragionamento neoclassico. Quindi Nelson e
Winter mettono in discussione le tecniche di produzione, uno dei concetti fondamentali del pensiero
neoclassico, e demoliscono la funzione di produzione, non ritenuta più ciò che caratterizza il
funzionamento delle imprese. A caratterizzare il comportamento delle imprese, in realtà, sono le
regole decisionali o routine decisionali, ossia il modo in cui nelle imprese si prendono le decisioni.
È evidente come la prospettiva sia diversa: studiamo l’impresa tramite lo studio delle sue routine
decisionali. “routine” perché le imprese, in maniera routinaria, prendono le decisioni sempre nello
stesso modo.

Per Nelson e Winter, è il modo con cui si prendono le decisioni a caratterizzare l’impresa. Le decisioni
riguardano tutte le aree dell’impresa! Questo salto dalla funzione di produzione alle routine è
importante, ma è anche figlio dei tempi di Nelson e Winter. Le imprese negli anni ’60 hanno
cominciato a “managerializzarsi”; oggi, anche chi ha un ruolo operativo, prende decisioni in
un’impresa. Le routine, poi, permeano tutto il mondo organizzativo, anche nella vita di tutti i giorni,
e sono proprio i comportamenti routinari a mantenere la stabilità in un sistema. Una routine, per N
e W è un qualsiasi modello comportamentale regolare e oggetto di prevedibilità. Naturalmente
questo implica che l’obiettivo sia quello di rappresentare qualunque comportamento dell’impresa
sulla base del concetto di routine. La prevedibilità delle routine rende più facile lavorare con le
routine stesse, perché danno stabilità all’organizzazione. Il fatto che le routine si ripetano da identità
all’organizzazione. Le routine NON sono una funzione esplicativa di come avvengono le attività,
vanno solo a caratterizzare le attività.

Ma quindi, Nelson e Winter dicono: sostanzialmente, le routine giocano nelle imprese il ruolo che i
geni giocano nelle specie viventi. I geni, infatti, caratterizzano gli individui e rimangono stabili. Questa
è l’analogia fondamentale tra teoria dell’impresa e teoria evolutiva delle specie, ed è il punto di
partenza delle teorie evolutive.

Ora, se una routine si mantiene sempre uguale nel tempo, il sistema rimane sempre lo stesso nel
tempo. Ma se anche una sola routine dovesse cambiare, mi aspetto un cambiamento del sistema.
Quindi la routine da stabilità, il loro cambiamento dà il cambiamento del sistema.

I caratteri persistenti di un organismo sono determinati dalle routine, ma non esistono solo questi!
Esiste anche il carattere ereditario: nelle specie viventi si replicano negli individui successivi gli stessi
caratteri degli individui genitori (non totalmente, ma in buona parte sì), lo stesso si può dire delle
imprese→le imprese hanno dei caratteri persistenti e, quando esse generano nuove imprese, nuove
divisioni, nuovi rami d’impresa ecc. “trasmettono” come eredità molti dei loro caratteri.

Quindi grazie alle routine tutto diventa prevedibile, ma c’è anche una componente stocastica,
secondo la quale quasi tutto si replica nelle routine, ma bisogna sempre ricordarsi che non si è
onnipotenti. Pertanto, tutto questo è all’interno di un contesto di razionalità limitata→siamo
soggetti a una certa razionalità ma c’è anche una componente di imprevedibilità.

Prima di entrare nel vivo delle teorie evolutive delle imprese, dobbiamo riflettere sulle teorie
evolutive in ambito biologico.

Lamarck vs. Darwin

La teoria evolutiva alla quale oggi facciamo riferimento è quella di Darwin. In realtà, non è l’unica
esistente: esiste un’altra teoria evolutiva, ossia quella proposta da Lamarck e nata prima di quella di
Darwin.

Jean-Baptiste Lamarck (1744-1829): Nel Settecento abbiamo l’Illuminismo. Lamarck nel 1802 scrive
il Trattato di Filosofia zoologica. Sostiene che in un essere vivente un organo si sviluppa con il suo
uso e che questo carattere viene acquisito dai discendenti, che nasceranno quindi con quell’organo
più sviluppato. Il suo esempio più famoso è quello della giraffa, ma la natura ne offre molti altri (gru,
uccelli acquatici palmipedi). La giraffa ha il collo lungo perché è l’uso che sviluppa l’organo. I suoi
eredi ereditano questo carattere modificato. La giraffa manifesta la sua intenzionalità e allunga il
collo, usandolo. Le discendenze continueranno a loro volta ad allungare il collo. C’è competizione tra
gli animali, quindi, la giraffa ha un comportamento razionale e intenzionale: mangia le foglie dagli
alberi e allunga il collo. La giraffa si è adattata all’ambiente, se gli alberi continuassero a salire
allungherebbe il suo collo. Ogni animale si è adattato in relazione al contesto. Il contesto ha quindi
un ruolo importante nell’evoluzione ma per Lamarck c’è anche una parte di intenzionalità propria
del soggetto di adattarsi al contesto. L’ipotesi di Lamarck è nota come legge di ereditarietà dei
caratteri acquisiti. Quindi, per Lamarck, in base all’uso un individuo modifica una propria parte del
corpo per mantenere la sua competitività nell’ambiente in cui vive e, tale modifica, viene ereditata
da tutti gli individui successivi e rimane come carattere persistente di quell’individuo. Poi esiste il
meccanismo di selezione naturale che è lo “strumento” col quale la natura determina quale carattere
è più adatto a sopravvivere in quell’ambiente.

LEZ 27: 20/12/2023


Charles Darwin (1809-1882): Sbarcato alle Galapagos studia tutte le specie animali e gli individui
della stessa specie. Ha un’idea di evoluzione diversa da quella di Lamarck, e si basa sulle osservazioni
fatte sulle diverse specie animali. Le sue idee sono raccolte nella sua opera “Le origini della specie”.
Per Darwin non c’è l’intenzionalità dell’individuo di modificare l’organo in base all’uso, ma c’è il caso,
che determina il cambiamento dell’organo e, se nella lotta alla sopravvivenza quella particolare
configurazione dell’organo è più adatto alla vita, quella configurazione vince. Per Darwin, una volta
che un individuo ha un carattere specifico, esso si mantiene (come per Lamarck) negli individui
successivi. È l’ambiente, tramite la selezione naturale, a stabilire chi ha successo, qual è la
configurazione più adatta alla vita. Sono favoriti i caratteri che meglio garantiscono l’adattamento
all’ambiente. Poi, questi cambiamenti si mantengono nelle specie in base all’habitat, e questo
meccanismo di cambiamento permette la creazione di nuove specie, attraverso la competizione che
si instaura tra le specie in un habitat. Non è il più forte a sopravvivere, ma è chi meglio si adatta al
proprio habitat. Vedremo come questo si tradurrà nella teoria evolutiva in ambito economico.

Gli studi hanno confermato che le teorie evolutive in ambito biologico si poggiano sulle teorie di
Darwin e non quelle di Lamarck.

La principale differenza tra le teorie evolutive di Lamarck e Darwin è il meccanismo di generazione


del cambiamento e della varietà che per Lamarck è intenzionale, per Darwin è casuale. Per Lamarck
c’è intenzione nel voler cambiare un carattere favorevole all’habitat, per Darwin è un meccanismo
casuale. Entrambe le teorie fanno riferimento all’ereditarietà dei caratteri modificati nei discendenti
e alla selezione naturale come meccanismo attraverso cui la natura seleziona gli individui più adatti.

OSS: Lamarck non sapeva nulla dei geni e del loro ruolo nell’evoluzione; pertanto, le sue teorie si
basano SOLO sui caratteri esteriori delle specie.

OSS: come tutte le teorie innovative e tutte le spiegazioni, Darwin non ebbe un’accoglienza calorosa
dalla comunità scientifica, che vedeva quasi come un insulto l’associazione della discendenza
dell’uomo a quella degli animali. Darwin introdusse un cambiamento radicale nel modo di pensare
della società.

Genotipo & Fenotipo

Capiamo cosa succede post-Darwin, quando si scoprono i geni e la loro funzione. Innanzitutto,
dobbiamo distinguere due concetti fondamentali. Nella teoria genetica, vegetale e animale si parla
di genotipo e fenotipo come due concetti distinti! Il genotipo di un individuo è dato dal suo corredo
genetico, ciò che viene riportato dal suo DNA (la sequenza di proteine) ed è qualcosa di immutabile
nel tempo. Dato il genotipo, il fenotipo di un individuo è quell’insieme di caratteri che l’individuo
manifesta all’esterno. Il fenotipo dipende dal genotipo, dalle interazioni fra i geni e anche da fattori
esterni e rappresenta le caratteristiche esteriori dell’individuo. Pertanto, per sua natura, il fenotipo
può variare. Quindi ogni individuo nelle sue cellule ha il proprio genotipo che mantiene la sua
stabilità nel tempo e il proprio fenotipo, l’insieme dei caratteri esteriori che l’individuo manifesta e
possono variare.

Esempio: individuo umano con occhi azzurri. Il carattere “occhi azzurri” è un fenotipo, in quanto
carattere esteriore che l’individuo manifesta; quel fenotipo è dipendente da uno o più geni e quindi
dal genotipo dell’individuo→quello che noi osserviamo all’esterno, che è il carattere che sottopone
l’individuo alla selezione naturale, è connesso a caratteri interni, propri del corredo genetico (geni e
genotipo). Quindi, un fenotipo dipende da più geni e un gene può influenzare diversi fenotipi.

È evidente, quindi, che il contributo della genetica non sposta moltissimo nelle teorie evolutive: i
caratteri esteriori sono quelli che l’individuo, manifestando, sottopone alla selezione naturale. Ma
quei caratteri esteriori dipendono dal genotipo. Pertanto, selezionando tutti gli individui con quel
fenotipo, nella sopravvivenza della specie, se quel carattere è favorevole alla replica di questi
individui, è evidente che quel genotipo sottostante quel carattere esteriore ne risulterà selezionato.
Il meccanismo di selezione naturale è operante a livello di fenotipo, mentre il meccanismo che
determina quel particolare fenotipo è caratterizzato dal genotipo. Questo vuol dire che, una volta
che la selezione naturale ha scelto dei fenotipi nell’evoluzione, sta conseguentemente scegliendo i
genotipi da cui quei fenotipi dipendono!

Se si replicano solo gli individui col fenotipo “occhi azzurri”, è evidente che si staranno replicando i
genotipi che influenzano l’avere occhi azzurri. I cambiamenti negli individui si manifestano a livello
di genotipo e, nel momento in cui casualmente si dovesse generare un cambiamento nel genotipo,
questo determinerà un cambiamento del fenotipo, ma non è detto che questo verrà poi selezionato
dall’ambiente. Se dovesse accadere, avverrà la replicazione.

Quindi la teoria evolutiva si conclude sostenendo che le variazioni nei caratteri fenotipici sono delle
conseguenze di mutazioni di carattere genotipico. Questo punto è fondamentale perché è il gene a
definire le capacità intrinseche di ogni organismo.

Tutto questo fu oggetto di ragionamenti sviluppati da Herbert Simon:

Adesso dobbiamo ricercare l’analogia tra questa teoria evolutiva e quella a livello di impresa: noi
possiamo associare alle routine che caratterizzano le attività dell’impresa il significato di gene.
Cerchiamo di capire meglio. Le imprese sono caratterizzate dalle loro routine, devono produrre
beni/servizi, assumere/licenziare dipendenti, fare campagne pubblicitarie ecc. e Nelson e Winter ci
dicono che queste routine possono essere assimilate ai geni degli esseri viventi. Questo ha senso
perché le routine organizzative sono quel patrimonio di conoscenze che tende a mantenersi stabile
nell’imprese e che influenza le performance dell’impresa. Quindi, come le routine sono i geni, le
performance dell’impresa sono i fenotipi, i caratteri esteriori che l’impresa manifesta che dipendono
dai geni, ossia le routine organizzative. Quindi, l’idea di N e W e che si possa andare avanti grazie a
questa analogia, sviluppando la teoria evolutiva dell’impresa. La selezione naturale tra le imprese
avviene sulle performance e non sulle routine. Solo dopo che le imprese vengono selezionate in base
alle performance, vengono selezionate le routine sottostanti a quelle performance!

Di conseguenza, il meccanismo che porta a decidere il cambiamento di una routine non può essere
un meccanismo casuale, perché le imprese modificano le proprie routine per modificare le proprie
performance; quindi, queste modifiche avvengono attraverso un ragionamento che deve essere
costruito con intenzionalità. Questo, ovviamente, ci pone davanti a un problema: le teorie biologiche
rispondono alle logiche darwiniane…nelle imprese, non potendo essere casuale il meccanismo di
modifica delle routine, bensì intenzionale, perché ci riferiamo alle teorie di Darwin e non di Lamarck?
Dobbiamo accettare il fatto che l’impresa possa decidere intenzionalmente quale performance
modificare e quindi quale routine modificare. Ma è veramente così?

La selezione avviene sulle performance e non sulle routine, il mercato sceglie in base ai caratteri più
apprezzati. Ma questi caratteri richiedono delle routine per essere sviluppati. Quindi, per Nelson e
Winter il cambiamento è intenzionale a livello genotipico e la selezione naturale avviene a livello
fenotipico. Il cambio di performance sottende ma è anche sotteso da un cambiamento intenzionale
della routine organizzativa. Il cambio di performance guida il cambio di routine, ma è allo stesso
tempo il cambio stesso della routine a guidare il cambio di performance! Quindi il modello di Nelson
e Winter è molto più vicino a quello di Lamarck. Nonostante questo, a causa della razionalità limitata,
c’è anche una componente Darwiniana di casualità che opera contemporaneamente
all’intenzionalità dell’impresa stessa. Quindi l’impresa ha intenzione di cambiare quella routine ma
per qualche ragione legata al caso avviene che alcuni cambiamenti di routine funzionano meglio di
altri→i meccanismi evolutivi delle imprese sono tendenzialmente Lamarckiani ma c’è sempre la
componente Darwiniana. Tutte le decisioni d’impresa sono prese in condizioni di razionalità limitata.
Spesso accade che c’è pochissimo tempo per prendere le decisioni: in quel caso si fa affidamento
alla razionalità intuitiva, una razionalità che si basa sull’intuito che, attenzione, non è un “tirare la
monetina”, ma è un intuito addestrato che permette di prendere decisioni razionali in tempi limitati.

Proviamo ad applicare questi concetti col caso di Poste Italiane: le poste, prima, erano un luogo in
cui era davvero difficile sopravvivere. Quando si arrivava in un ufficio postale, le code erano gestite
in maniera irrazionale, seppur con logica FIFO. Osservando attentamente questo particolare
fenomeno, possiamo rilevare che c’era una routine organizzativa che “aiutava” ad ordinare
l’interfaccia tra i clienti e i servers, e questa routine organizzativa prevedeva che il cliente successivo
andasse ad accodarsi nella coda più breve in termini di lunghezza. Questa routine passata era molto
rudimentale, e ipotizzava comunque un bacino d’utenza ridotto. Con l’avvento di internet e delle
nuove tecnologie, il numero di clienti alle poste aumentò di gran lunga, rendendo non più efficace
quella routine organizzativa. Quali sono le performance di un ufficio postale, viste dal lato del
cliente? Il tempo medio di attesa, la varietà di servizi offerti, il tempo di servizio, il comfort
dell’ambiente (possibilità di stare seduti, ambiente gradevole ecc.). Quindi, un servizio
apparentemente semplice come quello postale, visto dalla prospettiva del cliente (e quindi del
mercato) permette di interfacciarsi con l’impresa attraverso le performance da misurare. Avendo dei
concorrenti (banche e internet), la scelta di Poste Italiane fu quella di creare la fila unica, ossia il
meccanismo in base al quale non ci si deve più mettere in una fila ma si deve prendere un ticket
all’ingresso dell’ufficio, e sarà il sistema computerizzato ad accodare il cliente nella prima fila
disponibile. Questa fila unica, insieme al saltafila, rappresenta una routine organizzativa, perché
hanno modificato il modo in cui Poste si interfaccia ai clienti. In particolare, hanno reso le poste più
attraenti ai clienti. L’impatto della modifica nella routine organizzativa ha permesso di ridurre le
performance, in particolare il tempo medio di attesa, gli ambienti, l’umore dei clienti ecc.

Quindi, è sempre doveroso distinguere le performance osservate con l’occhio del cliente, dalle
routine organizzative.

Vediamo un secondo esempio: ipotizziamo di avere un’impresa che si occupa di meccanica e


componentistica, e che svolge la sua attività di progettazione insieme ad un fornitore. Questa
impresa considera l’introduzione di un software di co-progettazione condiviso con il fornitore, per lo
scambio dei documenti. Prima l’impresa faceva questo tramite una routine organizzativa che
prevedeva degli incontri e delle riunioni col fornitore per lo scambio di informazioni e documenti,
ma l’impresa e il fornitore lavoravano separatamente. Modificare le modalità di co-progettazione,
quindi, tramite l’utilizzo del software causa la modifica della routine organizzativa dell’attività di co-
progettazione. Il cambiamento di routine, come sappiamo, è un cambiamento genotipico. La
domanda adesso è: a fronte di questo cambiamento genotipico, quali sono i fenotipi che ne risultano
modificati? Tempi di consegna, qualità del lavoro ecc. Alla fine dei conti, al cliente importa solo del
fenotipo, delle performance, non importa del genotipo. Indipendentemente dalla routine
organizzativa, al cliente importano le performance ottenute. L’idea del cambio di routine riviene dal
fatto che è proprio quel cambio ad influenzare il cambio di performance.

Altro esempio: consideriamo la routine organizzativa circa la procedura di ispezione finalizzata al


controllo qualità dei prodotti finiti. Che succede se modifichiamo questa routine? La performance
esteriore riguardante la qualità del prodotto finito. Poi, che questa ispezione sia manuale,
automatizzata o semiautomatica, al cliente non importa. Il cliente seleziona quel prodotto se è certo
che la qualità di quel prodotto sia elevata (oltre a fare riflessioni circa la brand reputation di
quell’impresa).

Altro esempio: prendiamo il caso di Lufthansa. Le compagnie aeree hanno deciso di migliorare le
performance al cliente negli aeroporti. Per fare questo hanno modificato tutta una serie di routine
organizzative come: il check-in, che adesso è online e permette di ridurre le code in aeroporto.
Lufthansa poi ha creato anche dei terminali in loco per effettuare il check-in il giorno della partenza;
miglioramento del servizio online di customer care; redesign delle lounge al fine di aumentare i
servizi offerti e il comfort. Come mai tutti questi cambi di routine? Per incrementare le performance
al cliente ed essere così più competitivi con le altre compagnie. È stata la competizione che ha spinto
Lufthansa a capire quali fossero le performance che i clienti valutavano maggiormente nelle loro
scelte di volo. L’importante è che le modifiche genotipiche impattino fenotipi che sono richiesti dal
mercato.

ESERCIZIO 1: si identifichino routine e performance nell’ambito di un ristorante.

ROUTINE/GENOTIPI→selezione e acquisto della materia prima, procedure di trasformazione degli


alimenti, scelta della numerosità dello staff, tecniche di impiattamento e di cottura, addestramento
e formazione del personale, coordinamento tra sala e cucina, scelta del mobilio, pulizia del locale.

PERFORMANCE/FENOTIPI→impiattamento, gusto, tempo di attesa, rapporto qualità/prezzo, pulizia,


cordialità del personale, varietà e flessibilità del menù, location, interior design, efficienza della
prenotazione, sonorità e rumore, servizi di delivery, numero di coperti, prezzo del menù, servizi
igienici, accessibilità.
Il modello evolutivo è ottimo per gestire l’azienda e soprattutto per innovare→conoscendo i fenotipi
e i genotipi che li determinano, sappiamo come agire per modificare determinate performance!

Teoria evolutiva dell’impresa

Quindi, a livello di impresa, la teoria evolutiva è prevalentemente lamarckiana, nel senso che le
imprese modificano le loro routine con intenzionalità per rispondere meglio all’ambiente in cui si
trovano e, con maggiore probabilità essere selezionate dai mercati in cui operano e competono.

In un libro di uno dei più famosi evoluzionisti recenti, Stephen Gould, dal titolo “il pollice del panda”,
si effettua uno studio sulle teorie evolutive e in particolare sulle teorie evolutive sociali. L’impresa è
a tutti gli effetti un soggetto sociale in evoluzione, in quanto composta da individui che interagiscono
fra loro. Gould dice che, quando abbiamo a che fare con sistemi sociali, il meccanismo evolutivo è
differente da quello biologico, prettamente Darwiniano, ed è di matrice Lamarckiana. Quindi, non è
una sorpresa dire che il modello evolutivo dell’impresa sia Lamarckiano. Questo perché l’evoluzione
della cultura umana è essa stessa di natura lamarckiana. Quello che osserviamo nei sistemi sociali è
il processo di accumulo della conoscenza, che consente all’evoluzione dei sistemi sociali e quindi
delle imprese di avere carattere Lamarckiano. Gould sostiene che questa evoluzione è rapida e
accumulativa→tutti accumuliamo conoscenza grazie agli insegnamenti. Questo accumulo permette
di prendere decisioni, a volte in condizioni normali e a volte in condizioni estreme. Ma queste
decisioni si prendono sempre sulla base della conoscenza accumulata! Tutto questo, però, consente
anche di avere una razionalità (limitata o intuitiva), che è il motore delle decisioni. Ovviamente, le
decisioni prese non sono sempre perfette, proprio a causa della razionalità limitata. Anche quando
le decisioni vengono prese correttamente e coerentemente alle conoscenze disponibili, si è sempre
in condizioni di razionalità limitata. Questo, però, ha un vantaggio: l’accumulo di conoscenza e la
conseguente presa di decisioni razionale è un processo estremamente rapido! L’evoluzione
Lamarckiana grazie all’intenzionalità nel cambiamento rende l’evoluzione molto più rapida rispetto
al cambiamento darwiniano legato al caso. D’altro canto, però, il cambiamento lamarckiano espone
maggiormente agli errori causati dalla razionalità limitata. L’evoluzione darwiniana si basa su
meccanismi casuali che la natura ha tutto il tempo di analizzare. Solo dopo che questi cambiamenti
vengono acquisiti dalla natura, si ha l’ereditarietà dei caratteri.

Coevoluzione

Cerchiamo di capire meglio cosa vuol dire evoluzione nelle imprese. Fino ad ora abbiamo visto il
processo evolutivo come il cambiamento genotipico delle routine delle imprese che determina il
cambiamento fenotipico delle performance delle imprese, e sono questi ad essere esposti ai
meccanismi di selezione del mercato. Il soggetto è l’impresa che cambia per rispondere alle esigenze
del mercato.

Possiamo anche considerare che nel mercato ci possono essere altre imprese, e che l’evoluzione
dell’impresa non avvenga in un rapporto 1:1 col mercato. Possiamo ipotizzare che l’evoluzione
avvenga in un rapporto fra due o più imprese presenti nel mercato e il mercato stesso! Nel mercato
ci sono i concorrenti, pertanto i cambiamenti fatti da un’impresa sono spesso dettati e ispirati dai
cambiamenti fatti dai concorrenti, oltre che dalle risposte che vengono date dal mercato. Si evince
che, oltre a parlare di evoluzione possiamo parlare di coevoluzione: ogni individuo evolve nel
proprio ambiente e coevolve in relazione alla presenza di altre specie nell’ambiente. Questo è vero
nella natura e, ovviamente, nei sistemi sociali e quindi fra le imprese.

Rapporto di coevoluzione

In biologia, il rapporto di coevoluzione è un rapporto che lega le specie attraverso tre modelli:

1)modello predatorio: modello preda e predatore, in cui c’è una specie (esempio, lupo) predatrice e
una specie preda (esempio, pecora). C’è un rapporto di coevoluzione perché, ad esempio, se non ci
fossero più prede, i predatori avrebbero problemi a svilupparsi e quindi si avrebbero dei
cambiamenti come la riduzione del numero di predatori;

2)modello parassitico: modello ospite e parassita, c’è una specie ospite che ospita la specie parassita
che vive nell’ospite senza distruggerlo perché è proprio l’ospite che tiene in vita il parassita;

3)modello simbiotico: modello ospite e simbionte, c’è una specie ospite e una specie simbionte che
vive di relazioni NON parassitiche con l’ospite. Di conseguenza, il ruolo di ospite e simbionte è
interscambiabile fra le due specie.

Questa analisi trova applicazioni in ambito imprenditoriale, in quanto è un tipo di modello evolutivo
più raffinato.

LEZ 28: 21/12/2023

PARADIGMI E TRAIETTORIE TECNOLOGICHE: PREMESSE

Fenomeni nel cambiamento tecnologico


Partiamo da una serie di osservazioni. È fondamentale sempre avere un approccio empirico per le
analisi che conduciamo.

PRIMA OSSERVAZIONE: se guardiamo ai processi innovativi, il processo innovativo ha delle regole


proprie che ALMENO nel breve-medio termine NON sono semplici reazioni al mercato. Ad esempio,
se faccio dei pandori, è evidente che governerò delle tecnologie che hanno a che fare con la
produzione di alimenti, in particolare alimenti da forno. Pertanto, nel breve-medio termine, posso
mai pensare di cambiare tutto e occuparmi ad esempio di autovetture o servizi web?
ASSOLUTAMENTE NO! Quindi, la prima osservazione è banale: se presidio un ambito tecnologico e
sto pensando ad un cambiamento innovativo, io NON posso pensare di fare cambiamenti sostanziali
nel breve-medio termine→la tecnologia che sto gestendo stabilisce lo spazio entro cui posso
esplorare nuove soluzioni tecnologiche. Quindi è la tecnologia stessa a generare una certa inerzia
al cambiamento: in un certo ambito tecnologico posso cambiare, ma posso farlo solo entro un certo
ambito, stabilito dalla tecnologia stessa! Quindi, se il mercato ad un certo punto non chiede più il
pandoro ma chiede le auto, è impensabile fare questo cambiamento nel breve-medio termine,
perché non posso fare delle reazioni al mercato!

SECONDA OSSERVAZIONE: le tecnologie che sto utilizzando, hanno per loro natura un range di
variazioni di prodotto o processo possibili. Nel senso che, se io faccio il pandoro, avrò dei forni, delle
impastatrici, delle macchine per il confezionamento, ma tutte quelle tecnologie hanno una loro
natura per cui a fronte dei segnali provenienti dal mercato, al più potrò passare da pandoro a
panettone! La tecnologia, quindi, da un lato genera una capacità di trasformazione, dall’altro lato
per sua natura genera uno spazio entro cui posso cambiare e quindi, uno spazio entro cui NON
posso cambiare! NON è un errore di scrittura. Spesso i segnali del mercato potrebbero indurci a fare
dei cambiamenti, ma è la tecnologia stessa a limitare questi cambiamenti. Capire la capacità che una
tecnologia ha di cambiare è fondamentale per capire come un’impresa può reagire al mercato.

Questa immagine spiega benissimo quanto detto: sulle X ho il tempo e sulle Y invece ho lo spazio
delle soluzioni tecnologiche (in base ad una particolare variabile tecnologica, una misura della
soluzione tecnologica. È uno spazio perché indica tutti i possibili valori di quella misura. Può essere
un peso, una dimensione, una qualsiasi variabile tecnologica). Se nel tempo ho modificato la mia
capacità tecnologica, e nel presente sono nel punto indicato dal grafico, con quella tecnologia e
decido di fare un miglioramento tecnologico, lo spazio delle soluzioni tecnologiche che la mia
tecnologia mi mette a disposizione (nel medio-breve termine) è definita da una “forchetta” di
possibili valori della mia variabile, che delimitano quindi un range entro cui la mia tecnologia può
cambiare. Quindi, dei salti come quello in rosso NON SONO POSSIBILI, perché impediti dalla
tecnologia stessa che stabilisce i limiti massimi. Non posso andare oltre il range. La traiettoria
tecnologica è quella definita dalla tecnologia stessa.

Esempio: sto producendo un pannello solare, la variabile tecnologica è il peso. Se voglio un pannello
tecnologico con un peso INFERIORE al range della sua traiettoria, non posso farlo, NON posso
rispondere al mercato!

Quindi, la tecnologia consente un certo range di cambiamenti, e la natura stessa della tecnologia
implementata LIMITA lo spazio delle possibili soluzioni: alcune soluzioni, per quella tecnologia e per
quel range NON SONO POSSIBILI.

TERZA OSSERVAZIONE: soffermiamoci sul ruolo della conoscenza scientifica. Il suo ruolo in
qualunque cambiamento tecnologico è molto importante. Pertanto, presidiare le conoscenze
scientifiche nei cambiamenti tecnologici è fondamentale. Ogni volta che abbiamo un cambiamento
tecnologico, notiamo che esso ha sempre maggiore bisogno di essere assistito dalle conoscenze
scientifiche. La cosa curiosa, però, è anche un’altra: nei processi innovativi c’è anche sempre un
crescente bisogno di conoscenza NON legata alla conoscenza scientifica (attenzione, non ascientifica.
Qui si parla di un concetto slegato alla conoscenza scientifica, non di ascientificità), maggiormente
legata all’esperienza. Questo perché la conoscenza scientifica è solo una frazione di input del
processo innovativo. Quindi, c’è bisogno di ingegneri, si, ma c’è anche forte bisogno di conoscenza
pratica, tacita, per sviluppare le innovazioni. Questo trend è generale, vale sempre, in ogni settore e
in ogni mercato.

QUARTA OSSERVAZIONE: C’è una crescente complessità delle attività di R&S→rileviamo che tutte
le imprese, anche le più piccole, hanno bisogno sempre più di R&S. Se va fatta della ricerca, bisogna
necessariamente organizzare il processo di R&S, e questo ovviamente aumenta la complessità
organizzativa. Questo tende, di fatto, a favorire le organizzazioni più grandi, quelle più
istituzionalizzate, ma questo era anche ovvio: più i processi sono complessi, più è probabile che le
grandi imprese siano più pronte rispetto alle piccole ad affrontare la complessità della R&S. Questo
ha dei risvolti enormi in termini di politiche economiche: bisogna cercare di supportare al meglio le
piccole imprese!

QUINTA OSSERVAZIONE: diventa sempre più rilevante il learning-by-doing, il fare. Non serve solo
pensare, progettare, comunicare, serve anche e soprattutto fare. Un po’ di pratica aiuta sempre.

Cambiamento e incertezza

Sappiamo che il cambiamento tecnologico ha una serie di elementi ed aspetti che vanno presi in
considerazione. Poi, sappiamo anche che il cambiamento si proietta nel futuro! Cambiare vuol dire
partire dal presente, raccogliere tutte le osservazioni che abbiamo appena fatto ed essere pronti a
cambiare. Essere pronti a cambiare richiede di prevedere il futuro. Il problema è che, a causa della
fortissima incertezza che permea il futuro, è praticamente ormai impossibile fare previsioni EX-
ANTE! EX-POST è facilissimo, ci riescono tutti, ma a noi interessa farlo ex-ante.

Se siamo in un condizioni di incertezza elevata, cosa può venirci incontro? Avere uno stato dell’arte
fatto bene. Lo stato dell’arte è la conoscenza relativa a tutte le soluzioni tecnologiche OGGI presenti,
e questo è molto facile da ricavare. Lo stato dell’arte delle tecnologie ci da le direzioni del
cambiamento nel breve-medio termine. Quindi, la conoscenza attuale aiuta a trovare le direzioni del
cambiamento.

Poi, un conto è auspicarsi un cambiamento, vedendo le direzioni del cambiamento, un conto è


riuscire ad effettuarlo! Questo perché la probabilità del cambiamento è funzione dei livelli
tecnologici delle imprese→non tutti possono cambiare! Se ho un livello tecnologico, la probabilità
di avere cambiamento è bassissima! Più è elevato il livello tecnologico in un’impresa, maggiore è la
probabilità di avere effettivamente un cambiamento. Questo avvantaggia notevolmente sia le grandi
imprese sia le piccole imprese estremamente tecnologiche. Questo è legato al fatto che il
cambiamento tecnologico è una “attività cumulativa”: più accumulo conoscenza, più è probabile che
riesca a fare questo cambiamento tecnologico. Più dispongo di un bacino di conoscenze, più è
probabile che effettui il cambiamento.

Vediamo alcuni casi di cambiamento e incertezza:


1)Apple e iPad Mini: Apple era l’impresa più in grado di tutti di capire quale sarebbe potuto essere il
nuovo prodotto. Nonostante ciò, avendo il massimo delle conoscenze e dei livelli tecnologici, fallì,
tant’è che iPad Mini fu un vero e proprio flop. La direzione del cambiamento era quella, ma Apple
sbagliò il punto di arrivo.

2)SATA e verniciatura ad acqua: SATA aprì lo stabilimento a Melfi e introdusse per la prima volta la
verniciatura ad acqua. Questo permetteva di ridurre notevolmente l’inquinamento e, inoltre, SATA
presidiava lo stato dell’arte. Il problema è che i consumatori non si fidavano, perché ovviamente la
vernice si sarebbe rimossa dopo poco tempo. Quindi, non è tutto nelle mani dell’impresa: anche il
mercato ha responsabilità, deve essere in grado di cogliere l’innovazione!

Determinanti del cambiamento

Se guardiamo al cambiamento, potremmo essere spinti da una visione Schumpeteriana e quindi


sostenere che il cambiamento sia spinto dalla tecnologia. In quel caso, immaginiamo che ciò che
muove il cambiamento sia essenzialmente la spinta tecnologica; dopodiché, vediamo cosa succede
sul mercato: ha successo o no? →TEORIA PURA TECHNOLOGY-PUSH

Se guardiamo al cambiamento, potremmo essere spinti da una visione Kirzneriana, focalizzandoci


sul mercato. In questo caso è la domanda a guidare gli imprenditori e quindi il cambiamento nasce
dal fatto che vediamo e immaginiamo ciò che i clienti vogliono, e cerchiamo di determinare un certo
cambiamento, proponendo una soluzione tecnologica →TEORIA PURA DEMAND-PULL

In realtà, oggi, vediamo che il cambiamento tecnologico non è sempre solo puramente tech-push o
puramente demand-pull, ma esiste una TEORIA IBRIDA. Tendiamo a far prevalere sempre questa:
c’è una trazione della domanda unita a una spinta della tecnologia. Ma queste due determinanti,
una forza attrattiva del mercato e una forza di spinta tecnologica, come si combinano per dar luogo
all’innovazione?

PARADIGMI SCIENTIFICI E TECNOLOGICI

La teoria dei paradigmi tecnologici ci permette di rispondere a questa domanda. La teoria dei
paradigmi tecnologici riviene dalla teoria dei paradigmi scientifici. Pertanto, prima capiamo cosa è
un paradigma scientifico

Paradigma scientifico
Thomas Kuhn, un filosofo della scienza, si interessò alle rivoluzioni scientifiche, e scrisse un libro
“Sulla struttura delle rivoluzioni scientifiche” nel 1962. Nell’ambito dei suoi studi, arrivò a definire il
concetto di paradigma scientifico. Secondo Kuhn, in un dato campo di ricerca il paradigma scientifico
è un “quadro” in cui sono tracciati i problemi più importanti di quel campo, un “riferimento” (con
cui la conoscenza può progredire) e un “modello di indagine” (con cui vado ad indagare i fenomeni
scientifici).

Facciamo alcuni esempi:

1)il movimento dei pianeti: il riferimento nel movimento dei pianeti qual è? Fino al 1400 ci
avrebbero risposto che il movimento dei pianeti risponde al riferimento del modello tolemaico.
Tolomeo nel suo Almagesto propose il modello geocentrico, nel quale i pianeti venivano immaginati
come sfere materiali e ruotavano attorno alla Terra. Grazie al modello tolemaico nacque un interesse
nello studio dei pianeti, che portò all’intuizione circa il fatto che ciascun pianeta avesse il proprio
moto e la propria orbita. Tolomeo fu il primo che, dalle osservazioni, riuscì a “creare” dei numeri e
ragionare/sistematizza questi numeri. Tutte queste osservazioni, quindi, cominciarono a prendere la
forma di una conoscenza scientifica. La prima svolta si ebbe con Copernico, nel 1400-1550→pur
continuando ad utilizzare gli aggiustamenti del sistema Tolemaico e ritenendo la sua ipotesi quella
corretta, propose come (ipotesi da verificare) un modello eliocentrico, che permetteva di rendere il
modello molto più aderente alle osservazioni empiriche. La seconda svolta si ebbe con Thyco Brahe,
tra il 1500 e il 1600→pur sostenendo le idee di Tolomeo come corrette, cominciò a raccogliere dati
in modo preciso ed analitico, che permettevano di spiegare esattamente tutti i problemi del modello
tolemaico. Questo fu possibile proprio grazie allo sviluppo in quegli anni di nuove tecnologie ottiche.
Sulla scia di Brahe, giunse Keplero→risolse una serie di problemi nel sistema tolemaico. Quindi,
quella che fu una piccola ipotesi di discussione proposta da Copernico, egli non ebbe la capacità di
convincere la società a cambiare! Alla fine, arriviamo a Galileo→come osservato da Brahe, usò il
telescopio e arrivò ad affermare che la Terra NON era ferma, ma ad essere fermo era il Sole. Quindi,
Copernico aveva ragione! Quindi, quando un modello sta morendo e un nuovo modello sta
emergendo, si crea confusione e disordine sociale, perché i vecchi problemi vengono risolti in
maniera innovativa e sorgono nuovi problemi.

Quindi, tornando alla definizione di Kuhn: il campo di ricerca è lo studio del moto dei pianeti; il
quadro comprende tutti i problemi circa il moto dei pianeti stessi; il riferimento era quello tolemaico
e il modello di indagine era quello copernicano. Le rivoluzioni scientifiche avvengono tramite il
successo di un nuovo paradigma scientifico a discapito di uno vecchio.

2)la deriva dei continenti: la deriva dei continenti è una teoria geologica, che è stata sviluppata circa
un secolo fa da Wegener, che nel 1921 sostenne che osservando i territori interessati dai terremoti
si potevano osservare dei moti relativi e, se prendessimo una cartina geografica e unissimo tutti i
continenti, ci accorgeremmo di come essi combacino perfettamente! Quindi, i continenti, si
muovono! Per oltre 20 anni, Wegener incontrò l’opposizione della comunità scientifica, ma fu
ritenuta poco dopo a tutti gli effetti una rivoluzione.

3)la struttura dell’atomo: ci sono state varie rivoluzioni scientifiche in poco tempo, dalla teoria di
dalton al modello di Thomson, Rutherford, Bohr ecc. Tutte queste rivoluzioni, in modi diversi,
lasciarono di stucco la comunità scientifica. Ad oggi, il modello di riferimento è il modello ad orbitali.

Quindi possiamo definire il concetto di paradigma, per capire, alla fine, a cosa ci è utile. La scienza
riesce a progredire proprio grazie alle rivoluzioni scientifiche. Quando i modelli di riferimento
vengono messi in discussione, nasce un nuovo modello di riferimento che è un nuovo paradigma
scientifico. Quindi, il passaggio da un paradigma scientifico ad un altro è la rivoluzione scientifica.
Secondo Kuhn il processo conoscitivo non evolve verso ciò che vogliamo conoscere, ma da ciò che
già conosciamo. Ancora, il successo di un paradigma è ALL’INIZIO, quando qualcuno evidenzia che il
vecchio paradigma non è più efficace e propone un nuovo paradigma. Poi, succede che si continua
a sviluppare conoscenza che non farà altro che tentare di mettere in discussione il paradigma stesso,
per prepararsi ad una nuova rivoluzione scientifica.

Kuhn conclude sostenendo che la conoscenza scientifica NON progredisce solo attraverso le
rivoluzioni, ma anche grazie alle risoluzioni di tutti i problemi presenti in un paradigma. La risoluzione
di tutti questi problemi presenti in un paradigma è nota come scienza normale. Quindi la conoscenza
scientifica progredisce tramite la scienza normale in uno stesso paradigma e, tramite le rivoluzioni
scientifiche da un paradigma all’altro.

Rivoluzione scientifica

Ma cosa accade effettivamente in una rivoluzione scientifica? Ovviamente, c’è un passaggio da un


vecchio paradigma ad un nuovo paradigma, incompatibile con il vecchio; ancora, si creano episodi
di sviluppo non cumulativi, per i quali le rivoluzioni scientifiche generano una perdita di conoscenza,
perché ne acquisiamo di nuova ma perdiamo quella vecchia; ancora, c’è un’analogia tra ciò che
avviene nello sviluppo della scienza e ciò che avviene nello sviluppo della società.

Bertrand Russel, poi aggiunge dicendo che ciò che avviene nella conoscenza scientifica è un po’ lo
stesso che accade quando vediamo quelle immagini che possono sembrare un animale o possono
sembrarne un altro→nella rivoluzione scientifica non esistono buoni e cattivi, c’è chi è ancora
ancorato ad un modello vecchio e chi è già ancorato al nuovo modello, e noi dobbiamo accettare
quella diversità, perché è proprio il conflitto tra nuovo e vecchio che permette di sviluppare nuova
conoscenza e fa progredire più rapidamente la conoscenza scientifica!

Qual è il legame tra paradigma scientifico e paradigma tecnologico? Il legame sta proprio nel
concetto di paradigma, comune ad entrambi. Chi ha sviluppato il concetto di paradigma tecnologico
è partito proprio da Kuhn. Poi, esiste anche un legame più profondo tra paradigmi tecnologici e
scientifici: quando abbiamo cambiamento tecnologico noi guardiamo al modo in cui la conoscenza
tecnologica progredisce. Ma la tecnologia è conoscenza? Sì, il cambiamento tecnologico è il
cambiamento della conoscenza tecnica! Dando una definizione di tecnologia, intesa come
conoscenza, diamo una definizione universale, che ci permette di tornare a Kuhn e ragionare in
termini di rivoluzioni e progresso tecnologico.

LEZ 29: 22/12/2023

Definizione di tecnologia
LEZ 30: 10/01/2024

LEZ 31: 11/01/2024

TECNOLOGIE DIROMPENTI
perché ne acquisiamo di nuova ma perdiamo quella vecchia; ancora, c’è un’analogia tra ciò che
avviene nello sviluppo della scienza e ciò che avviene nello sviluppo della società.

Bertrand Russel, poi aggiunge dicendo che ciò che avviene nella conoscenza scientifica è un po’ lo
stesso che accade quando vediamo quelle immagini che possono sembrare un animale o possono
sembrarne un altro→nella rivoluzione scientifica non esistono buoni e cattivi, c’è chi è ancora
ancorato ad un modello vecchio e chi è già ancorato al nuovo modello, e noi dobbiamo accettare
quella diversità, perché è proprio il conflitto tra nuovo e vecchio che permette di sviluppare nuova
conoscenza e fa progredire più rapidamente la conoscenza scientifica!

Qual è il legame tra paradigma scientifico e paradigma tecnologico? Il legame sta proprio nel
concetto di paradigma, comune ad entrambi. Chi ha sviluppato il concetto di paradigma tecnologico
è partito proprio da Kuhn. Poi, esiste anche un legame più profondo tra paradigmi tecnologici e
scientifici: quando abbiamo cambiamento tecnologico noi guardiamo al modo in cui la conoscenza
tecnologica progredisce. Ma la tecnologia è conoscenza? Sì, il cambiamento tecnologico è il
cambiamento della conoscenza tecnica! Dando una definizione di tecnologia, intesa come
conoscenza, diamo una definizione universale, che ci permette di tornare a Kuhn e ragionare in
termini di rivoluzioni e progresso tecnologico.

LEZ 29: 22/12/2023

Definizione di tecnologia: è l’insieme delle conoscenze che sono sia immediatamente pratiche
(perché legate a problemi e mezzi concreti), che teoriche (ma praticamente applicabili, per quanto
non necessariamente già applicate), di know how, di metodi, di procedure, di esperienze, di successi
e di insuccessi e anche di strumenti e di attrezzature.

La teoria dei paradigmi tecnologici, quindi, che permette di studiare i processi di innovazione
seguendo le teorie evolutive, si fonda sulla definizione di tecnologia intesa come conoscenza.

Riflettiamo sulla definizione di tecnologia: fanno parte della tecnologia successi e insuccessi! Tutta
la tecnologia passa attraverso successi e insuccessi o, meglio, dell’analisi di ciò che è avvenuto negli
insuccessi e la correzione di essi, per evitare che se ne manifestino altri; la parte di strumenti e
attrezzature è messa in secondo piano nella definizione di tecnologia. Viene messa in risalto la
componente legata alla conoscenza.

Per dare una definizione di paradigma tecnologico, sfruttiamo una analogia tra conoscenze
scientifiche e tecnologiche: le procedure di ricerca e la natura stessa delle tecnologia sono analoghe
a quelle che caratterizzano le scienze; di conseguenza, i paradigmi tecnologici svolgono un ruolo
molto simile a quello dei paradigmi scientifici!

Definizione di paradigma tecnologico: è un modello e un insieme di parametri per la soluzione di


problemi tecnologici selezionati, basati su principi selezionati derivanti dalle scienze e fondati su
tecnologie e materiali selezionati.

Esempi di paradigmi tecnologici: amanuense, stampa a caratteri mobili, macchina da scrivere,


desktop publisher. La scrittura è stata una tecnologia che ha sempre seguito il genere umano, da
migliaia di anni. Nel passato, a scrivere per i governi erano gli amanuensi, i quali riuscivano a scrivere
su papiri, pelli di animali ecc. grazie a un pennino e all’inchiostro. L’amanuense è la rappresentazione
di una tecnologia iniziale. Nell’ambito di quella tecnologia, c’è stata un’evoluzione, passando dalla
scrittura su pergamene e pelli di animali alla scrittura di documenti con oggetti sempre più raffinati.
Ad un certo punto nasce la stampa a caratteri mobili con Guttenberg che stampa la Bibbia tramite
una stampante che permette di stampare su dei fogli di carta tramite dei caratteri mobili su una
matrice fissa. Dopo la stampa a caratteri mobili nascono le macchine da scrivere, strumenti che,
attraverso la pressione su dei tasti riescono a stampare il testo su un foglio di carta. Ai giorni nostri
abbiamo i desktop publisher, delle forme elettroniche attraverso le quali è possibile stampare
attraverso i computer e le stampanti.

Questo esempio ci fa capire come, anche per una tecnologia basica, esiste un’evoluzione e in questa
evoluzione ci sono tanto dei miglioramenti nella tecnologia tanto dei veri e propri cambiamenti
“radicali” della tecnologia→anche nella tecnologia, quindi, osserviamo delle rivoluzioni
tecnologiche, ossia dei cambi nel paradigma tecnologico (si passa da un paradigma ad un altro) e
del progresso tecnico (che ricorda la scienza normale/ordinaria), ossia dei miglioramenti/evoluzioni
interne allo stesso paradigma tecnologico (ad esempio il desktop publisher che dal getto a inchiostro
passa al laser. Sono miglioramenti incrementali in uno stesso paradigma).

Altro esempio: apparecchi fotografici. Rivoluzioni tecnologiche: dagherrotipo→camera a


soffietto→polaroid→analogiche→compatte digitali→reflex digitali. Qui ovviamente il problema
tecnologico è ottenere un’immagine e ottenerla/stamparla su un supporto fisico. Si passa dal
dagherrotipo che usava lastre di rame come pellicola alle reflex digitali, in cui il salvataggio della foto
è digitale. La polaroid è ancora oggi presente perché consente di avere direttamente la foto stampata
nel momento in cui viene scattata la foto, e questo rende la polaroid unica nel suo genere. Quando
si passa da un paradigma tecnologico ad un altro, questi non vengono abbandonati, ma restano nella
storia, costituiscono comunque un accumulo di conoscenza e possono anche trovare impiego in
contesti particolari o ristretti→da questo capiamo che le rivoluzioni tecnologiche portano
all’affermazione di nuovi paradigmi tecnologici SENZA DISTRUGGERE QUELLI VECCHI. Certo, li
superano, perché si controllano meglio su una serie di dimensioni tecnologiche, ma lo sviluppo non
è non cumulativo e non rendono i vecchi paradigmi del tutto obsoleti.

Altro esempio di paradigmi: tecnologie di memorizzazione di dati. Rivoluzioni tecnologiche: schede


perforate→floppy disk→cd→dvd→USB. Il problema qui è il salvataggio e la memorizzazione di dati
su un supporto fisico esterno. Si è passati dalle schede perforate alle USB che ormai permettono di
salvare decine di gigabyte di memoria.

Compiti e tecnologie: se vogliamo definire in termini pratici/operativi un paradigma tecnologico, ci


può tornare in aiuto la definizione di compito tecnologico. Se ci pensiamo, dall’amanuense alla
chiavetta USB, dietro quel paradigma tecnologico c’è sempre la definizione del bisogno a cui la
tecnologia doveva rispondere. Il bisogno tecnologico prende il nome di compito tecnologico.
Individuare il compito tecnologico è fondamentale per definire un paradigma tecnologico, perché è
proprio dal compito tecnologico che partiamo per capire quali sono le specifiche tecnologie che
possono offrire una soluzione a quel compito tecnologico. Quindi, per distinguere un paradigma
tecnologico, occorre definire i bisogni tecnologici per cui quella particolare soluzione è stata
sviluppata. Questi bisogni sono tipicamente definiti dai consumatori.

Esempio: common rail→il bisogno tecnologico era avere un’iniezione nel motore sia più rispettosa
dell’ambiente, sia più efficiente sia più performante a bassi numeri di giri del motore.

ESERCIZIO: CHIAVE PER AUTOMOBILE→descriviamone il paradigma tecnologico (compiti


tecnologici, specifiche tecnologie, materiali, principi chimico-fisici ecc.): dobbiamo partire dalla
definizione del compito tecnologico, che DEVE essere fatta con estrema precisione→aprire e
chiudere l’automobile, mettere in sicurezza l’automobile e mettere in moto l’automobile attraverso
azioni fisiche di inserimento e rotazione della chiave nella serratura oppure attraverso la pressione
di pulsanti che generano impulsi elettromagnetici che comandano l’apertura e la chiusura delle
serrature. N.B: quanto più si è dettagliati nella definizione dei compiti tecnologici, meglio è, perché
è più ”facile” individuare le soluzioni tecnologiche. Tra le diverse soluzioni potremmo individuare
una chiave con azionamento meccanico, una chiave con i pulsanti, una chiave a riconoscimento
facciale, una applicazione smartphone per lo sblocco in digitale.
Insomma, quello che facciamo è: individuiamo i compiti tecnologici, definendoli al meglio e troviamo
le diverse tecnologie che hanno varie dimensioni con le quali riescono ad intercettare i bisogni
tecnologici espressi dai compiti tecnologici.

IDENTIFICAZIONE DI UN PARADIGMA TECNOLOGICO

Per individuare un paradigma tecnologico seguiamo alcuni step:

• Definiamo il compito generico al quale si applica;


• Identifichiamo i materiali scelti dalla tecnologia;
• Identifichiamo le proprietà chimico-fisiche sfruttate dalla tecnologia;
• Definizione di dimensioni e trade-off di natura tecnologica ed economica che il paradigma
sottolinea. Ad esempio, riprendendo l’esempio della macchina fotografica, se esamino le
diverse dimensioni della macchina fotografica, identifico tutte le sue caratteristiche tecniche:
peso, caratteristiche ottiche, numero di foto memorizzabili, risoluzione ecc. Definire le
dimensioni serve per enucleare tutte quelle dimensioni tecnologiche importanti per il
paradigma tecnologico. Ovviamente, anche il costo è una dimensione importante della
soluzione tecnologica e, spesso, all’aumentare delle prestazioni relative alle dimensioni
tecnologiche si verifica un aumento del costo→occorre quindi anche considerare i trade-off
tra le dimensioni rilevanti del paradigma. Si deve sempre cercare il miglior compromesso fra
le dimensioni del paradigma! Questo trade-off può esistere sia tra due dimensioni che tra N
dimensioni differenti.

Approfondiamo i trade-off: all’interno di un paradigma tecnologico, la soluzione tecnologica che


andremo ad individuare, quindi, sarà caratterizzata da specifici valori per ciascuna delle dimensioni
individuate! Quindi, che la soluzione tecnologica sia una penna, un occhiale, un telefono, un
cellulare, nel proprio paradigma tecnologico di riferimento, per le dimensioni del paradigma
tecnologico rappresenta un trade-off di valori! Quindi, l’elemento trade-off è fondamentale:
individuate le dimensioni tecnologiche ed economiche del paradigma, andiamo a definire la
soluzione tecnologiche tramite trade-off tra le diverse dimensioni (esempio: la penna è un trade-off
tra peso, dimensioni, qualità della punta, flusso di inchiostro e costo) e quindi tra i valori assunti per
le diverse dimensioni. Ora, all’interno di un paradigma tecnologico è possibile migliorare un trade-
off (ad esempio, rendo la penna più leggera oppure riduco il suo costo) in ALMENO UNA delle
dimensioni rilevanti. Quindi, da un particolare prodotto/trade-off posso passare ad un altro
prodotto, che sarà un altro trade-off tra le dimensioni rilevanti e che vede un miglioramento su
almeno una dimensione! Risulta ovvio, quindi, che il miglioramento di questi trade-off non è altro
che il progresso tecnico (perché evolviamo nello stesso paradigma), mentre il passaggio da una
tecnologia all’altra, da un paradigma all’altro è la rivoluzione tecnologica, che quindi prevede il
cambio di materiali, principi chimico fisici, dimensioni e trade-off ecc.

N.B: non è così semplice definire il compito tecnologico! Bisogna stare attenti anche nella definizione
di materiali e principi chimico-fisici. Bisogna essere dettagliati e al contempo flessibili.

ESERCIZI DI DEFINIZIONE DEI TRADE OFF:

1)PENNA STILOGRAFICA: compito tecnologico generico→effettuare la scrittura su supporto


generico; principio chimico-fisico→capacità di un liquido come l’inchiostro di aderire a una
superficie cartacea in maniera permanente, scorrimento dell’inchiostro in un serbatoio che facilita
lo scorrimento dell’inchiostro e di mantenere un tratto uniforme nella scrittura; materiali→plastica,
qualsiasi materiale in grado di supportare la mano nella scrittura; dimensioni rilevanti→peso,
dimensioni, autonomia, qualità del tratto (uniformità). Quindi poi quella penna stilografica
consisterà un trade-off tra i diversi valori che assumerà nelle diverse dimensioni rilevanti.

2)PNEUMATICO: compito tecnologico generico→garantire la mobilità e l’aderenza dell’automobile


su strada; materiali→i materiali della miscela dello pneumatico; dimensioni rilevanti: peso, durata,
grip ecc. Quindi il pneumatico sarà un trade-off tra le dimensioni rilevanti e tra i valori assunti. Se ad
esempio modifichiamo la miscela dello pneumatico e noi riteniamo quel cambiamento sostanziale,
allora abbiamo un cambio di paradigma (qui sta la flessibilità dell’analisi) e non un miglioramento
dei trade off; se invece miglioriamo i trade-off, magari aumentiamo il grip, siamo in condizione di
progresso tecnico.

Fai a casa: aspirapolvere, spillatrice, pannello fotovoltaico

OSS: quindi tutti quei diversi panettoni visti nella prima parte delle teorie evolutive sono tutti quanti
dei diversi trade-off!

DEFINIZIONE DI TRAIETTORIA TECNOLOGICA

All’interno di un paradigma tecnologico, posso avere progresso tecnico se miglioro almeno una
dimensione del trade-off. Nel momento in cui io miglioro una dimensione del trade-off, oltre ad
avere progresso tecnico sto percorrendo un prezzo di traiettoria tecnologica. La traiettoria
tecnologica è il percorso che percorriamo, all’interno di un paradigma tecnologico, per andare da un
trade-off a un trade-off successivo. È l’evoluzione in un paradigma tecnologico di tutti i trade-off che
si generano a seguito di un’attività di innovazione “normale”, anche nota come progresso tecnico.
Osserviamo il seguente grafico:

L’abbiamo già visto all’inizio di questo argomento. Se nel presente sono in quel punto, io posso
andare in A, in B o in C, ammettendo ovviamente che essi rientrino nel range ammissibile dello spazio
delle soluzioni tecnologiche. Facciamo un esempio concreto: prendiamo un paradigma tecnologico,
la fotocamera digitale, e una dimensione tecnologica rilevante, la risoluzione del sensore (in
megapixel). In quel punto posso muovermi in A, B o C e quei tre punti rappresentano tre trade-off
differenti possibili, in cui io posso migliorare quella dimensione tecnologica: in A miglioro molto, in
B miglioro e in C miglioro poco. A, B e C sono tre possibili alternative che posso selezionare per i
futuri trade-off.

Ovviamente questo l’abbiamo fatto per UNA sola dimensione tecnologica, ma noi sappiamo che ogni
paradigma ha potenzialmente N dimensioni tecnologiche rilevanti. Allora, possiamo, all’interno di
un paradigma tecnologico, definire un sistema di assi cartesiani in cui ad ogni asse si associa una
dimensione. Conseguentemente, quello che noi vediamo è che un trade-off è un punto di quello
spazio a N dimensioni e, l’evoluzione da un punto di trade-off ad un punto di trade-off successivo
(progresso tecnico) consiste nel cambio di trade-off!

Supponiamo, per comodità, che il paradigma abbia N=3 dimensioni tecnologiche rilevanti.
Riportiamo lungo i tre assi X, Y e Z queste dimensioni. Si noti come NON CI SIA PIU L’ASSE DEL TEMPO,
perché nelle traiettorie tecnologiche il tempo non è rilevante! Ciò che è rilevante è che, se nella
mia traiettoria tecnologica sono nel punto 1, esso corrisponderà a un particolare valore della
dimensione di X, Y e Z che QUEL trade-off rappresenta. Quindi quel punto 1 rappresenta un trade-
off, un prodotto concreto che è stato realizzato ed è sul mercato.

Se miglioro quel trade-off, ossia miglioro almeno una performance su X e/o Y e/o Z, mi muovo dal
punto 1 ad un nuovo trade-off coincidente con la prima punta della freccia celeste. La lunghezza
della prima freccia celeste è un tratto di traiettoria e coincide col progresso tecnico che mi ha
consentito di migliorare almeno una dimensione tecnologica e quindi il trade-off!

Proporre questo nuovo trade-off, che conseguenze ha? Se quel trade-off viene accettato dal
mercato, bene, ha successo e si conferma nella traiettoria tecnologica; se, invece, non dovesse avere
successo sul mercato (la deviazione rossa che si vede dopo la freccia celeste) e quindi quel trade-off
non viene selezionato dal mercato! Questo mi costringerà a tornare indietro e proporre un nuovo
trade-off, che coinciderà con la punta della seconda freccia celeste e, se il mercato lo accetterà,
quello diventerà un nuovo trade-off, altrimenti dovrò nuovamente tornare indietro e proporre un
nuovo trade-off! Questo meccanismo mi consente di rappresentare tutta la traiettoria tecnologica.
Seguendo quindi la traiettoria tecnologica in celeste, alla fine arrivo a C, che consiste in un trade-off
nettamente migliorato rispetto al trade-off 1 di partenza. Ciò che osservo è che spesso da uno stesso
trade-off possono essere proposti diversi trade-off che, laddove fossero di successo, potrebbero dare
via ad ALTRE TRAIETTORIE TECNOLOGICHE A PARTIRE DA QUELLA DI PARTENZA. Dal trade-off 1, si
sono create tre traiettorie tecnologiche che hanno portato all’affermazione di ben tre trade-off di
successo che coesistono sul mercato, B, C e D. Dal trade-off 2 è nata la traiettoria tecnologica del
trade-off A.
Il tempo è irrilevante perché noi ci interessiamo della traiettoria in termini di dimensioni
tecnologiche. Certo, è chiaro che un trade-off viene temporalmente dopo rispetto a quello
precedente.

Possiamo affermare che l’insieme di tutte le traiettorie tecnologiche (inviluppo, l’insieme dei punti
tracciati e raggiunti) che hanno avuto lo stesso compito, materiali, principi chimico-fisici prende il
nome di paradigma tecnologico. Quindi il paradigma tecnologico è questo cilindro che racchiude
tutte le possibili traiettorie tecnologiche associabili a QUEL paradigma tecnologico!

LEZ 30: 10/01/2024

N.B: tra le dimensioni descritte dagli assi è possibile utilizzare anche il costo perché è una dimensione
fondamentale di un paradigma tecnologico. Inoltre, i punti 1 e 2 di partenza sono due trade-off
differenti, magari due prodotti che coesistono sul mercato e sviluppati da due imprese differenti.
Tendenzialmente un trade-off successivo è migliore rispetto a quello di partenza.

Quindi, all’interno di uno stesso paradigma tecnologico, diverse imprese seguono diverse traiettorie
tecnologiche.

La rivoluzione tecnologica causa l’abbandono del cilindro, passando verso un nuovo paradigma
tecnologico, un nuovo cilindro, caratterizzato da nuove dimensioni tecnologiche e quindi nuove
traiettorie tecnologiche.

Introduciamo il concetto di euristiche: torniamo ad analizzare il caso in cui viene proposto un nuovo
trade-off, che però non viene accettato dal mercato e quindi non ha successo commerciale.
Un’impresa può sapere a priori se avrà successo quel trade-off? Beh, qui entriamo in una logica
lamarckiana: c’è intenzionalità nell’azione dell’impresa, ma non posso sapere a priori se quel trade-
off avrà successo sul mercato a causa della razionalità limitata. Nel momento in cui si percorre quel
tratto rosso di potenziale traiettoria, non sappiamo se a seguito di questo cambio intenzionale il
trade-off avrà successo sul mercato. Questo vuol dire che l’impresa agisce comunque pensando che
quel trade-off sia una buona soluzione, poi però sta al mercato determinare se questo avrà successo
o se sarà un fallimento e quindi interromperà quel tratto di traiettoria. Dal punto di vista della
conoscenza questo comportamento è noto. Spesso, di fronte a problemi la cui soluzione è ignota, si
procede per “euristiche”, ossia si procede proponendo soluzioni che a priori riteniamo buone. Dal
punto di vista cognitivo noi pensavamo che fossero buone poi, in base al mercato, parleremo di
euristica buona/positiva se effettivamente quella soluzione era buona o di euristica negativa se il
mercato boccia quella soluzione. Questo concetto, sviluppato dal filosofo della scienza Lakatos, è
molto importante per capire se i trade-off proposti sono euristiche positive o negative. Quindi, la
traiettoria si sviluppa secondo euristiche positive ma può anche incontrare euristiche negative che
ci costringono a tornare indietro. Questo fortifica l’accezione di tecnologia come conoscenza
tecnologica e stock di conoscenze.

DEF: L’euristica è un insieme di regole, indicazioni, strategie e tecniche che guidano i suoi esponenti
(scientifici o tecnologici) nell’elaborazione di nuove versioni in base a un piano di lavoro coerente e
in parte prestabilito. La definizione seguente incarna al 100% la logica lamarckiana.

OSS: anche in condizioni di dover prendere una decisione in tempi estremamente rapidi
manteniamo un approccio lamarckiano e per euristiche? In quel caso la nostra razionalità limitata
non ha modo di svilupparsi ed esprimersi; pertanto, in tempi estremamente rapidi perdiamo il
carattere di intenzionalità e, quindi, è come se agissimo in un contesto di tipo darwiniano.
Conseguentemente, ci avviciniamo ad un modello evolutivo più Darwiniano. Soltanto che, sappiamo
come spesso gli individui riescono ad agire impulsivamente sulla base dell’esperienza, pur non
esplicitando una razionalità→parliamo come abbiamo già visto di razionalità intuitiva. In questi casi
l’euristica è elaborata implicitamente e non esplicitamente.

Quindi, supponiamo di trovarci nel punto C di una traiettoria tecnologica di un paradigma


tecnologico descritto dalle tre dimensioni X, Y e Z. Il punto C, quindi, è quel particolare trade-
off/oggetto tecnologico descritto da particolari valori assunti dalle 3 dimensioni tecnologiche.
Dobbiamo stabilire qual è lo spazio esplorabile per un miglioramento di quel trade-off.
L’ideale sarebbe avere un nuovo prodotto/trade-off D che migliori tutte e tre le dimensioni
tecnologiche. In realtà, però, potremmo migliorarne solo due su tre o solo una su tre! Questo
particolare punto potrebbe comunque essere di interesse seppur non ideale. In generale, quindi, i
nuovi trade-off devono migliorare ALMENO una dimensione. Questo vuol dire che, se sono nel punto
C, SOLO UNA PARTE dello spazio non sarà esplorata, e coincide con quella porzione di piano
individuata dagli assi rossi, per cui tutti quei punti compresi in quella zona rappresentano trade-off
corrispondenti a peggioramenti di tutte e tre le dimensioni tecnologiche! Lo spazio esplorabile è
quello che prevede i trade-off che consentono il miglioramento di almeno una dimensione perché,
se andassimo verso lo spazio non esplorabile la soluzione C sarebbe comunque la migliore. Quindi
questo ci suggerisce come possono evolvere le traiettorie tecnologiche, perché esistono spazi NON
esplorabili per le euristiche.

ESERCIZIO: Supponiamo di avere un particolare modello di pneumatico per autovetture. Andiamo a


descrivere il paradigma tecnologico e la sua traiettoria tecnologica.

Dimensioni tecnologiche→cosa è importante per uno pneumatico? Indice di carico, durata ecc.

In questo caso, avendo due dimensioni tecnologiche (per semplicità), la traiettoria si sviluppa in un
piano bidimensionale.

A, B, C, D, E ed F sono tutti prodotti commerciali, pneumatici che hanno avuto successo sul mercato.
Se fossimo nel presente in A, troveremmo sul mercato il pneumatico A caratterizzato da quel valore
di durata e da quel valore di indice di carico. Dopo (non ci interessa QUANTO dopo) si svilupperà il
pneumatico B che rappresenterà il nuovo trade-off tra i valori di indici di carico e durata, in
particolare avrà un miglioramento di entrambe le dimensioni tecnologiche. Stessa cosa per gli altri
punti. Adesso noi siamo in F, quindi ora dobbiamo decidere quale nuovo trade-off raggiungere. Per
capire quale trade-off raggiungere dobbiamo esaminare tutti i possibili punti dello spazio esplorabile
per il miglioramento. Questo spazio virtualmente si ottiene costruendo su F un riferimento di assi,
uno verticale che indica il miglioramento del solo indice di carico e uno orizzontale che indica il
miglioramento della sola durata. I possibili punti/trade-off variano in questo continuum circoscritto
da questo piano fittizio costruito su F. Lo spazio esplorabile è quello evidenziabile in giallo, perché
l’importante è che almeno una dimensione sia migliorata. Il quadrante in basso a sinistra NON è
esplorabile perché coincide con un peggioramento di entrambe le dimensioni. Ovviamente il
quadrante ideale sarebbe quello in alto a destra. Questo perché noi puntiamo ad evitare
peggioramenti delle dimensioni: da un punto di vista pratico, se ci pensiamo, peggiorare anche una
sola delle due variabili vorrebbe dire peggiorare le prestazioni del prodotto. Ma siamo sicuri che il
mercato accetterà queste condizioni? (logica Kirzneriana) Se il mercato vuole una durata maggiore
e noi ci muoviamo a sinistra, pur aumentando l’indice di carico non riusciamo a soddisfare le
esigenze del mercato. Devo quindi trovare una soluzione che riesca contemporaneamente a
soddisfare le richieste del mercato e soddisfare le capacità aziendali (deve essere realizzabile).
Quindi siamo in una via di mezzo tra il pensiero Schumpeteriano di technology push puro e il
pensiero Kirzneriano di market pull puro. È in questo ambito che prenderemo la nostra euristica e ci
posizioneremo in un punto del piano, aspettando il responso del mercato, seguendo quindi un
approccio ibrido (forza trainante + forza attrattiva).

Introduciamo adesso il tema delle prescrizioni: esse ci dicono che, se siamo all’interno di un
paradigma tecnologico, noi abbiamo una serie di forti indicazioni a procedere lungo certe direzioni
nel cambiamento tecnologico. Quindi, pur quanto potremmo ampliare lo spazio delle soluzioni
tecnologiche, alla fine seguiremo sempre quelle direzioni prescritte e condizionate dal paradigma
tecnologico stesso!

Questo è molto importante perché nel momento in cui abbiamo una certa tecnologica, alla fine dei
conti noi ci muoveremo migliorando il trade-off secondo direzioni prescritte. Quindi orbiteremo
sempre in un intorno prescritto. Questo ci induce a rimanere all’interno del paradigma tecnologico
perché cambiare paradigma causa l’abbandono delle prescrizioni. Le prescrizioni sono utilissime
perché ci dicono dove e cosa migliorare. Quindi il paradigma sì ci aiuta a migliorare, ma le prescrizioni
stesse ci “accecano” perché non ci mettono in luce le possibilità derivanti dal cambio di paradigma.
Di conseguenza, esiste il cosiddetto effetto di esclusione: da un lato, i paradigmi ci aiutano con le
prescrizioni; dall’altro, i paradigmi hanno un forte effetto di esclusione che ci rende ciechi rispetto
ad ulteriori alternative tecnologiche. L’effetto di esclusione va sempre tenuto in considerazione.

Concludendo, sulle traiettorie tecnologiche possiamo affermare che abbiamo dei criteri economici
che ci aiutano a definire i percorsi e a seguito dei quali scegliamo una soluzione rispetto ad un'altra.
Inoltre, scelta e stabilita una determinata traiettoria, per effetto delle prescrizioni restiamo collegati
a quella traiettoria. Nelson e Winter affermano che si tende sempre a seguire le traiettorie naturali
dettate dal progresso tecnico (capacità tecnologiche) e dai criteri economici. Purtroppo, la capacità
tecnologica stessa esercita un’inerzia al cambiamento: se facciamo pellicole chimiche, certo
possiamo migliorarle, ma è difficile affacciarsi verso nuove frontiere tecnologiche. Il progresso
tecnico secondo N e W ci accompagna nel descrivere le traiettorie naturali. Da qui, nasce il problema
classico delle innovazioni: il progresso tecnico normale, come la scienza normale, abilita innovazioni
incrementali. Le innovazioni radicali, invece, sono quelle che abilitano il passaggio da un paradigma
tecnologico all’altro.

Progresso tecnico→innovazioni incrementali

Cambio di paradigma→innovazioni radicali

Analizziamo il contesto economico-sociale: esso agisce da un lato condizionando/selezionando i


paradigmi tecnologici e dall’altro lato tende a selezionare le euristiche proposte al mercato. In tal
senso, in questa ottica di ruolo di doppia selezione, si parla di “prove ed errori schumpeteriani” per
riferirsi proprio alle euristiche. Quindi, in una traiettoria tecnologica, un nuovo punto potrà essere
inteso come prova (quando il mercato accetterà la soluzione) o come errore schumpeteriano.
Schumpeteriano perché le imprese provano a fare ciò che conoscono, sperimentando, e conoscono
maggiormente le tecnologie che hanno a disposizione piuttosto che le esigenze e le dinamiche del
mercato.

OSS: per capire se due soluzioni tecnologiche appartengono allo stesso paradigma, dobbiamo
confrontarli secondo i 4 punti che abbiamo visto per determinare il paradigma tecnologico.

LE TECNOLOGIE DIROMPENTI (disruptive technologies)

Le tecnologie dirompenti sono un fenomeno molto pericoloso. Nell’ambito dell’innovazione, quando


si parla di disruptive technologies si fa riferimento ad una specifica condizione DEL MERCATO in cui
le imprese operano. Il termine “dirompente” viene usato impropriamente come sinonimo di
“irrompere sul mercato e stravolgerlo” oppure come sinonimo di “sviluppo rapido”. La dirompenza
per noi avrà un significato proprio, che vedremo a breve.

Osservazioni empiriche

Come sempre, partiamo dai fatti empirici per arrivare a costruire un ragionamento teorico.
L’interesse verso le tecnologie dirompenti nasce quando si cominciarono ad osservare nelle grandi
imprese globali e internazionali una leadership industriale estremamente fragile. Questo colpì molto
gli studiosi e le imprese stesse. Il caso principe è proprio quello di Kodak, che era il leader indiscusso
sul mercato della fotografia con pellicola chimica, e nel giro di pochissimi anni andò in crisi.
L’esistenza di queste leadership fragili fu oggetto di analisi delle proprietà stesse, che cercano di
capire quali fossero le cause di questa fragilità. Di casi ce ne sono tantissimi: dal settore delle
costruzioni, all’aerospazio, alla microelettronica, ai computer ecc. In questi settori si osservò che le
pratiche manageriali cosiddette “ammirate e imitate” avevano sbagliato NON dal punto di vista delle
competenze manageriali ma, pur seguendo ciò che le pratiche stesse suggerivano, avevano
comunque fallito. Pertanto, nacque la necessità di comprendere quali nuove pratiche manageriali
andassero implementate per evitare questi fallimenti.

Esempio di tecnologia dirompente: l’auto elettrica nel 2013→nel 2013 eravamo nella traiettoria
tecnologica dei motori endotermici e dovevamo capire se continuare su quella traiettoria o cambiare
paradigma con la tecnologia dell’elettrico. Ancora oggi c’è una situazione di fluidità tra le soluzioni,
però nel 2013 questo cambio era caratterizzato da problemi infrastrutturali (stazioni di ricarica),
problemi nella batteria ecc. Quindi scegliere tra andare avanti con quella traiettoria o cambiare
paradigma è un problema incredibile che deve tener conto anche delle dinamiche del mercato, oltre
che delle capacità tecnologiche. Per non parlare del fatto che esistono addirittura dei competitors
che nascono già in quel nuovo paradigma (ad esempio come BMW vs Tesla)! Scegliere la strada da
percorrere è complicatissimo.

Interpretazione

A seguito delle diverse analisi di questi fallimenti, quale fu l’interpretazione che fu data? Non fu
causa di errori del management delle imprese, ma fu a causa dell’introduzione nel mercato di
innovazioni aventi carattere dirompente (disruptive).

Quindi, i top manager dovevano addestrarsi per capire come reagire in maniera corretta a queste
tecnologie disruptive.
MODELLO DI CHRISTENSEN E BOWER

Tra i diversi modelli esistenti, il primo ad aver introdotto in maniera chiaro il carattere di dirompenza
fu il modello di Christensen e Bower. Christensen si occupò nella sua tesi di dottorato del tema dei
dischi rigidi e delle innovazioni nel campo dei computer e degli hard disk. Questo modello si applica
a tutti i contesti. Christensen e Bower mettono in risalto il ruolo della domanda: il carattere di una
tecnologia non dipende dalla tecnologia, ma dipende dalla domanda! Quello che decreta il successo
di un’innovazione tecnologica è la domanda!

Sulla base di questo, C e B sostengono che le imprese dominanti in un settore hanno degli elevati
rischi di fallimento se si presentano queste tecnologie con carattere dirompente, che NON sono le
innovazioni radicali ma presentano una situazione diversa.

Per spiegare questo concetto di pericolosità delle tecnologie dirompenti, C e B introducono la


“metafora della rana”: se mettiamo una rana in una pentola di acqua bollente, essa sentirà il calore
e salterà via; se mettiamo la rana in una pentola di acqua tiepida e poi la riscaldiamo, essa lesserà e
morirà. La rana non è l’impresa che percepisce l’innovazione radicale e salta, NO!→il carattere
micidiale delle tecnologie dirompenti è che la rana viene lessata in un’acqua che inizialmente è a
temperatura ambiente e viene portata rapidamente ad ebollizione; pertanto, non percepisce questo
cambiamento e muore. Questo è lo snodo principale del ragionamento di C e B.

LEZ 31: 11/01/2024

Al contrario delle innovazioni dirompenti, le innovazioni radicali sono quelle che si percepiscono
subito, come l’acqua bollente per la rana nel primo caso. Di conseguenza, anche le grandi imprese
possono essere colpite dalle innovazioni dirompenti.

Caratteristiche delle tecnologie dirompenti secondo Christensen e Bower

1)Quando esse si presentano, mostrano livelli di performance significativamente inferiori rispetto


alle tecnologie esistenti, causando una percezione per la quale queste tecnologie non possono mai
raggiungere quelle esistenti. In particolare, questi bassi livelli di performance si manifestano
prevalentemente sulle funzionalità preferite dai clienti! Quando l’impresa si vede arrivare questa
tecnologia disruptive con queste performance bassissime, non la valuta attentamente proprio per
questo motivo. Ad un certo punto, improvvisamente, quelle tecnologie disruptive raggiungono
performance confrontabili con quelle delle tecnologie esistenti e, a causa di altri fattori che entrano
in gioco, si sostituiscono alle tecnologie esistenti. Ecco la pericolosità: Kodak, ad esempio, ha visto
apparire le fotocamere digitali ma a causa delle loro scarse performance iniziali, non le ha
considerate più di tanto, e questo l’ha condotta al fallimento.

2)Normalmente, sulle performance relative a dimensioni secondarie, risultano significativamente


migliori rispetto alla tecnologia esistente. Queste dimensioni secondarie sono inizialmente più
apprezzate dalle nicchie del mercato esistente (ad esempio il campo medico per le fotografie
digitali), mentre i clienti tradizionali prediligono ancora le dimensioni tradizionali;

3)Tipicamente, i prodotti e i servizi che usano la tecnologia dirompente costano meno dei
prodotti/servizi basati sulla vecchia tecnologia. Questa non è una caratteristica necessaria ma
tipicamente avviene così. Questo ovviamente condiziona la scelta del cliente, il quale rimane ancora
ancorato alla tecnologia tradizionale perché rivede qualità.

Caratteristiche delle tecnologie esistenti (sustaining technologies)

Essa non è esente dalla capacità di migliorare! Porta a innovazioni in grado di migliorare le
prestazioni dei prodotti/servizi secondo i canoni richiesti dei clienti tradizionali. Quindi le tecnologie
esistenti migliorano a seconda delle richieste dei clienti, e questo dava sicurezza alle grandi imprese
che continuavano quindi ad investire nelle tecnologie esistenti, guardando alla disruptive come una
tecnologia dedicata solamente alle nicchie di mercato.

Entrambe le tecnologie, sustaining e disruptive, hanno prospettive di sviluppo che sono in grado di
soddisfare le aspettative dei clienti!

Entrambe le tecnologie afferiscono a due modelli di business differenti, dividendosi quindi lo stesso
mercato: chi presidia la sustaining technology punta a conservare e rafforzare il modello in vigore,
ottimizzando i processi già esistenti; chi presidia la disruptive technology tende a cannibalizzare e
indebolire il modello in vigore, sostituendo i processi esistenti!
Kodak, ad esempio, punta a preservare il modello di business della sustaining technology, e anche in
questo (oltre agli aspetti tecnologici e di mercato) si evidenzia la sua debolezza.

Le grandi imprese: insensibilità e rischi

Cosa fanno normalmente le imprese leader? Tendono a sottovalutare la minaccia delle tecnologie
disruptive, continuando ad investire per soddisfare i clienti tramite le tecnologie tradizionali. Questo
comportamento manageriale mainstream non era assolutamente errato. L’errore è stata
l’insensibilità nel valutare la potenziale pericolosità delle disruptive!

Le grandi imprese, quindi, prendono dei rischi associati a questo comportamento. Questi rischi
tendono, ovviamente, ad aumentare se le traiettorie di miglioramento delle tecnologie disruptive
sono rapide, perché più esse sono rapide (e quindi, più le loro performance migliorano rapidamente)
più esse sono in grado di raggiungere le performance delle tecnologie tradizionali. Addirittura,
vedremo come NON è necessario raggiungere le performance delle tecnologie tradizionali: il
carattere disruptive non sta tanto nel colmare il gap di performance. La tecnologia tradizionale
potrebbe anche essere più performante. Il punto è che, se la prestazione principale migliora con la
tecnologia dirompente in modo molto rapido, questo determinerà nei clienti uno switch rapidissimo
dalla vecchia alla nuova tecnologia!

La tecnologia dirompente è quindi subdola e insidiosa. Questo porta difficoltà nelle imprese a
razionalizzare il problema. Potremo essere anche bravissimi a capire la dirompenza, ma ciò che
rimane è l’estrema complessità nel capire le traiettorie delle tecnologie dirompenti!

I rischi sono utili per aver ben chiaro cosa potrebbe accadere, ma questo deve servire solo come
stimolo ad aumentare il livello di monitoraggio su ciò che avviene sul fronte tecnologico. Dobbiamo
monitorare il tasso di crescita e la rapidità nelle traiettorie tecnologiche disruptive.

Vediamo adesso questo grafico fondamentale: sull’asse x abbiamo il tempo mentre sulle y plottiamo
la performance principale. Osserviamo che, da un lato abbiamo (curva nera) l’andamento della
performance principale di una tecnologia disruptive. Al tempo iniziale, essa è bassa e nettamente
inferiore di quella che viene richiesta dagli usi di più bassa qualità (curva rosa), ossia gli usi di chi
non ha particolari esigenze nella performance. La disruptive technology, finché non migliora la
performance per arrivare almeno ad intercettare il low quality use risulta inefficace sul mercato, pur
sviluppandosi nei laboratori. Non appena intercetta la low quality use, entra in competizione. Certo,
lato performance principale soddisferà segmenti molto esigui del mercato, non riuscirà a soddisfare
i “most demanding use”. La disruptive technology è in grado di migliorare la propria performance
principale e, se è in grado di migliorarla più di quanto nel tempo aumentano le richieste che i vari
segmenti di mercato fanno della performance principale, arriverà un momento in cui (intersezione
curva blu e nera) la disruptive technology sarà in grado di soddisfare tutti i segmenti di mercato
anche sulla performance principale!

A questo punto entrano in gioco le performance secondarie (dove già sappiamo che la DT è superiore
alla ST) ed eventualmente anche i costi. Da questo punto in poi (evidenziato in giallo) la DT spiazza
completamente la ST! Ecco la dirompenza: unione del miglioramento rapido delle performance e la
capacità di arrivare ad un certo punto a soddisfare tutti i segmenti di mercato anche sulla
performance principale.

Vediamo questo grafico:


D è la disruptive performance, L è la low demanding use, H è la high demanding use (che chiede una
performance principale sempre migliore nel tempo). L e H sono i segmenti di fascia bassa e alta del
mercato. Il grafico è identico al primo. Dall’intersezione tra L e D la DT inizia a diventare competitiva
con la ST sui segmenti più bassi e dall’intersezione tra H e D la DT inizia a competere anche sui
segmenti più alti. La ST è descritta dalla retta S tratteggiata: ci spiega come la ST può anche rimanere
con valori di performance principale maggiori rispetto alla DT. Indipendentemente da ciò, una volta
che la DT inizia a soddisfare anche i segmenti più esigenti, riesce a spiazzare la ST grazie alle
performance secondarie. Le performance secondarie sono la trappola della DT. Quindi il ruolo
fondamentale nelle tecnologie dirompenti è quello svolto dal mercato. Una volta che soddisfa tutto
il mercato sulla performance principale, il gioco è fatto perché sulle performance secondarie è
tipicamente più performante della ST.

Quindi, quando dobbiamo monitorare la dinamica tecnologica di una DT, dobbiamo anche
monitorare le dinamiche della domanda! La pendenza della curva D indica la rapidità con la quale la
DT intercetterà i segmenti alti e bassi del mercato. Poi, la ST può anche avere una pendenza
maggiore, tanto a comandare è il mercato.

L’invettiva di Christensen

“quando studiamo le tecnologie, tendiamo ad osservare periodi di tempo più o meno lunghi che
dipendono e dalle dinamiche tecnologiche e dalle dinamiche di mercato. In realtà, di fronte alle
tecnologie dirompenti, i tempi coi quali si manifesta la dirompenza sono molto brevi. Per poter
cercare di capire cosa sta avvenendo, non si può più avere un orizzonte di osservazione lungo, ma
considerare tecnologie che cambiano rapidamente. Così come in genetica non si studiano gli umani,
ma gli insetti della frutta, perché hanno cicli genetici molto rapidi (un giorno di vita), se si vuole capire
cosa accade nel business, bisogna studiare gli hard disk, perché sono molto simili agli insetti della
frutta”
Gli errori strategici compiuti dalle grandi imprese leader

Le grandi imprese compiono degli errori che possono portare al fallimento:

1)Non si preoccupano di anticipare le esigenze future dei consumatori→le grandi imprese DEVONO
valutare la loro tecnologia e le potenziali tecnologie dirompenti ANCHE in relazione alle performance
secondarie, anche quelle di nicchia e quelle relative ai nuovi mercati emergenti!

2)Non investono sufficientemente su quelle tecnologie che inizialmente non hanno applicazioni sui
mercati principali, ma che li invaderanno più tardi.

Come gestire le disruptive technologies

Sicuramente, la prima regola manageriale da seguire è sviluppare le capacità relative alle nuove
tecnologie internamente all’impresa: dentro il centro di R&S bisogna avere la capacità di presidiare
le potenziali tecnologie dirompenti.

Ancora, un’altra regola fondamentale è creare nuove strutture organizzative nell’impresa, come ad
esempio un nuovo centro di R&S per separare le attività riguardanti le tecnologie dirompenti perché,
se così non fosse, l’establishment dell’impresa attuale tenderebbe a trascurare le tecnologie
dirompenti, sia perché concentrato sul core business, sia perché vengono sottovalutate.

Infine, occorrerebbe creare un’organizzazione separata, una nuova unità di business indipendente
dall’organizzazione di partenza, che si occupa dei nuovi prodotti e processi relative alle DT.

OSS: Se non si fosse in grado di creare una nuova business unit, o in generale di gestire internamente
le DT, si potrebbe optare per acquisire un’altra organizzazione (come, ad esempio, le startup) e
adibirla alle tecnologie dirompenti.

LA NUOVA FRONTIERA DELL’INNOVAZIONE: LA TECNOLOGIA VISTA COME RAPPRESENTAZIONE DI


CONCETTI→L’APPROCCIO COGNITIVO/IDEOLOGICO

L’idea è rappresentare la tecnologia come “logos”, ossia come rappresentazione di concetti e quindi
come un qualcosa di maneggiabile attraverso idee e informazioni. L’altra idea è pensare di cambiare
la tecnologia e generare nuove soluzioni tecnologiche (e quindi generare innovazione) cambiando
proprio i concetti che la rappresentano e le relazioni tra essi, il tutto senza alcun supporto del mondo
fisico. Ovviamente qualche cambiamento avrà successo, qualche altro no!

Vediamo alcuni problemi lasciati aperti dal modello neoclassico e dal modello evolutivo:

Potrebbero piacerti anche