Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
LEZ 1: 26/09/2023
INTRODUZIONE AL CORSO
Corso di economia in senso stretto, parleremo di innovazione, che spesso viene definita in maniera
inappropriata. Avremo anche una serie di strumenti decisionali.
Possiamo quindi intuire che non possiamo subito partire definendo l’innovazione, pertanto
partiremo dalla storia dell’innovazione, e della sua evoluzione nel tempo.
Circa 500 anni fa nasce la rivoluzione scientifica o rivoluzione industriale: la rivoluzione industriale
nasce con l’Illuminismo, nel 1700. Con la rivoluzione industriale la scienza e la tecnica consentono di
trasformare materia prima in prodotti. Questa trasformazione necessita di energia e di
lavoro→nascono problemi ambientali causati dalla necessità di avere sempre più rapidamente
queste risorse.
Le rivoluzioni hanno introdotto dei problemi: ambientale, materie prime, digitalizzazione, divario
sociale…e noi studieremo proprio questi problemi e quali sono le innovazioni che permettono di
risolvere questi problemi. Dobbiamo quindi cercare una via d’uscita da questi problemi, perché in
queste condizioni il sistema è assolutamente INSTABILE!
L’altro problema è stato quello della Globalizzazione, e anch’essa è nata nel passato! Il primo
esempio di globalizzazione è il fenomeno noto come “Bronzization”. Tutto nasce dal ritrovamento di
un relitto di una nave nella zona meridionale della Turchia. Tra la mercanzia rinvenuta c’è anche dello
stagno. Si scoprì che veniva trasportato lo stagno perché esso come sappiamo permetteva la
formazione del bronzo tramite lega. La presenza dello stagno nella lega permette duttilità e
lavorabilità→si esce dall’età del bronzo, si creano armi e strumenti molto più efficaci di prima. Il
problema del bronzo fu che le miniere di stagno e rame erano in regioni differenti del mondo, e
questo richiedeva di movimentare lo stagno→bronzization=globalizzazione del mondo dell’epoca,
dovuta al bronzo.
Oltre alla tecnologia, per l’innovazione è fondamentale anche l’organizzazione! Un esempio storico
fu quello degli inizi della Seconda Guerra Mondiale: l’Italia aveva una forte presenza navale, ma essa
risultò estremamente fragile quando nei pressi di Creta una flotta navale italiana fu intercettata da
una flotta aerea degli Alleati. A Capo Matapan, le navi italiane di ritorno a Taranto furono
bombardate e persero la supremazia del Mediterraneo, incidendo sull’esito finale della Guerra.
Questo ci permette di riflettere su moltissime cose: come hanno fatto gli inglesi a bombardare le
navi italiane senza vederle? Avevano i radar, cosa che le navi italiane non avevano! E come mai gli
inglesi avevano i radar e gli italiani no? Gli italiani avevano eccome i radar…ma non a bordo delle
navi! C’era un comando navale decentrato che aveva realizzato i radar ma non li aveva forniti alle
navi→non basta quindi avere una tecnologia e una supremazia tecnologica, occorre saperla
adottare! Avere la conoscenza tecnologica e lo strumento non serve a niente se ciò non viene
adottato adeguatamente. Tecnologia ed organizzazione devono andare di pari passo per avere
successo.
Arriviamo ad oggi: la tecnologia corre e cambia rapidamente. In immagine vediamo come negli anni
è aumentata l’efficienza di trasformazione dell’energia solare di un pannello fotovoltaico in energia
elettrica. Questo grafico ci spiega come la tecnologia cambia, passando da efficienze del 4% fino ad
efficienze del 50%, passando quindi da essere tecnologia sperimentale ad essere tecnologia di
mercato. Ancora, non c’è un solo soggetto a lavorare sul cambiamento tecnologico! Oggi, al
cambiamento tecnologico, concorre una pluralità di soggetti→parleremo di connubio tra ricerca
universitaria e ricerca industriale. Questo però causa dei conflitti perché si ha discordanza tra
interessi universitari (di ricerca) e interessi delle imprese. L’innovazione può nascere sia nelle
università sia nelle imprese, anche se ultimamente le imprese sono sempre più preponderanti
nell’innovazione.
OSSERVAZIONE: l’innovazione non è mai sempre e solo tecnologica, anche quando lo sembra! È un
fenomeno complesso
OSSERVAZIONE: proprio questa complessità richiede un approccio guidato dai casi. Vedremo molti
casi studio perché sono proprio i casi aziendali a farci capire come tecnologia, innovazione, aspetti
legali e sociali concorrono insieme per produrre il cambiamento. La visione tecnica non serve da
sola! Il cambiamento tecnologico è parte dell’innovazione!
Un altro esempio è quello delle praline belga: questo cioccolatino ha la caratteristica di essere
ripieno di qualcos’altro, rendendo questi cioccolatini diversi e graditi. Essi nacquero da un farmacista,
non dalla ricerca e sviluppo, il quale ebbe l’idea di ricoprire le medicine (amare) con un rivestimento
di cioccolato. Questo ebbe un successo talmente grande da portare alla nascita delle praline non a
scopo medico ma alimentare! La moglie del nipote del creatore, poi, mise a punto una gift box
elegante per le praline, molto accattivante→incontro con le esigenze del consumatore, che voleva
delle scatole eleganti per regalare i cioccolatini. Un’ esigenza di design permette di creare
un’innovazione. Anche il packaging può essere innovato.
LEZ 2: 27/09/2023
Quindi passiamo dall’innovazione semplice ed intuitiva come la pizza eco box, senza sforzi industriali,
a qualcosa di più complesso come la terapia genica. Questo ci servirà per dare una definizione di
innovazione!
Tutti e 3 i casi visti hanno un impatto economico rilevante: qui la ricerca non è assolutamente fatta
per piacere, né solamente per “avanzamento della conoscenza” …qui parliamo di innovazioni a forte
impatto economico e sociale→quando parleremo di innovazione, parleremo dell’adozione
dell’innovazione, ossia come essa entra all’interno di un contesto economico-sociale e quali
modifiche essa subisce e quali essa apporta al contesto!
Per innovare abbiamo bisogno di almeno due componenti: prima di tutto, occorre avere un minimo
di creatività (una nuova idea con la quale risolvere il problema) per arrivare ad un’innovazione.
Avremo diversi livelli di creatività a seconda del tipo di innovazione, ma la componente creativa non
può essere sufficiente da sola per un’innovazione! Perché un’innovazione sia definita tale, e ottenga
i risultati attesi, è necessario avere anche una componente legata all’organizzazione. Le due
componenti da sole non servono, per l’innovazione occorre avere un MIX tra organizzazione e
creatività. Non essendo un fenomeno semplice, l’innovazione è caratterizzata anche da altri fattori,
magari minori rispetto a creatività e organizzazione, ma comunque importanti (ad esempio,
guardando le tre innovazioni viste come esempio, tutte hanno qualcosa a che fare con la salute delle
persone). Questi altri fattori sono una serie di condizioni, norme, aspetti legali, ai quali adeguarsi per
realizzare l’innovazione. Questi fattori poi possono dipendere dagli aspetti economici, sociali e
politici del paese o del contesto in cui ci si trova! Quindi l’innovazione è sì un fatto economico, ma è
anche un fatto sociale. Ancora, quando effettuiamo un’innovazione, determiniamo tramite una
relazione causale forte, una maggiore competitività→se un’impresa o un paese ha innovato,
l’innovazione stessa rende quell’impresa/paese più competitivo rispetto ad altre imprese/paesi. La
competitività è la base dell’innovazione: ci interessiamo all’innovazione perché essa consente di
essere più competitivi! La competitività, poi, può essere conseguita anche attraverso un altro
fattore: il costo del lavoro. Posso avere un’impresa competitiva non perché innova, ma perché ha
un basso costo del lavoro (ad esempio, la Cina)→questo ha degli impatti notevoli sul sistema
economico: abbassare il costo del lavoro vuol dire abbassare i redditi. Qui sorge il grande tema: sulla
base di cosa viene costituita la competitività di un’impresa/paese? Sull’innovazione o
sull’abbassamento del reddito? Se innovo, posso avere redditi più elevati (ad esempio come accade
in Germania, Finlandia, Svezia, Giappone); se non innovo, l’unico modo per essere competitivi è
abbassare i redditi, abbassando il costo del lavoro (cosa purtroppo molto frequente, addirittura
tramite il pagamento a nero del lavoro). Quindi la competitività ha due leve: l’innovazione, tipica dei
paesi più sviluppati, che consente di aumentare il reddito; l’abbassamento del costo del lavoro e del
reddito, tipico dei paesi meno sviluppati. Tipicamente, comunque, non parliamo di compartimenti
stagni: esiste comunque sempre un bilanciamento tra queste due leve, soprattutto nei paesi (detti
sistemi economici nazionali). Il bilanciamento ottimale è ciò che fa la differenza tra i paesi,
ovviamente. Un sistema economico nazionale alimentato dall’innovazione andrà a vendere prodotti
innovativi, il che permette tanto di vendere prodotti meno costosi, tanto di vendere prodotti
esclusivi, che gli altri paesi non hanno! Attenzione: redditi più elevati implicano benessere sociale
maggiore, pertanto un sistema economico nazionale competitivo è un sistema economico che riesce
a mantenere anche una salute fiscale tale da mantenere e gestire in maniera ottimale una serie di
servizi fondamentali (sanità, scuole ecc.). Alla competitività quindi non si lega solo il reddito e il costo
del lavoro, ma anche tutti quei servizi che il sistema è in grado di fornire! Quindi l’innovazione è la
leva fondamentale perché grazie ad essa si riesce anche a mantenere un reddito elevato, un costo
del lavoro più adeguato e dei servizi sociali sostenibili ed adeguati. Vanno poi considerati anche una
serie di altri fattori che influenzano la competitività: ad esempio il sistema giudiziario, che, se lento
va ad ostacolare il sistema economico; il sistema della ricerca pubblica che, se più efficace ed
efficiente aiuta la competitività. Infine, la competitività genera due effetti: la competitività porta
profitti; la competitività porta occupazione. Se sono competitivo avrò profitti maggiori, maggiori
vendite, maggiori produzioni, maggiore occupazione!
Quindi questo schema cosa ci ha spiegato? Ci ha detto che l’innovazione è in grado, attraverso la leva
della competitività, di generare maggiori profitti e maggiore occupazione. La competitività, in un
paese più competitivo tramite la remunerazione dei salari, permette di mantenere un costo del
lavoro più adeguato e quindi garantire una maggiore qualità dell’occupazione.
Dobbiamo capire quanto investire in innovazione e su cosa focalizzarsi (visto che le risorse a
disposizione sono sempre limitate).
Ragioniamo sulla bussola: l’idea che sta dietro la bussola è quella di sfruttare il campo magnetico
terrestre che influenza il comportamento di un ago di materiale ferromagnetico, orientandolo
sempre verso una stessa direzione. Questa idea si traduce in realtà tramite la costruzione
dell’elemento risolutivo originale, ossia la bussola stessa che risolve il problema di sapere qual è la
direzione del nord magnetico. La funzionalità della bussola è quindi quella di potersi orientare.
Ragioniamo sul telescopio: l’idea che sta dietro al telescopio è quella che le lenti possono amplificare
l’immagine. Questa idea si traduce in realtà tramite la costruzione dell’elemento risolutivo originale,
ossia il telescopio con le sue caratteristiche ottiche (lenti, fuochi ecc.). La funzionalità del telescopio
è quella di poter “ingrandire” oggetti lontani.
“Inventare” vuol dire tradurre in realtà un elemento risolutivo originale che permette di risolvere un
problema e/o una funzionalità determinata.
LEZ 3: 29/09/2023
A noi interessa definire il concetto di invenzione perché non dovremmo creare un’invenzione, bensì
gestirla. Abbiamo bisogno di capire se la realtà può essere “catturata” da delle definizioni, che
dovendo essere generali devono essere semplici ed astratte.
La bussola, ad esempio, è stata utilizzata in Europa a partire dal XII secolo dalle Repubbliche
Marinare, e il telescopio è stato utilizzato nel XVII secolo. In realtà, però, le cose sono più complicate:
la bussola così come la conosciamo ha una genesi relativamente recente, ma certe sue
caratteristiche erano apparse evidenti già 2000 anni fa in Cina, non sotto forma di bussola in quanto
tale! Erano già diffusi pezzi di magnetite, che però venivano utilizzati per spettacoli. Circa 1000 anni
fa questi pezzi furono lavorati e divennero aghi di magnetite adibiti alla navigazione. Nel 1200 poi si
ha l’utilizzo della bussola in quanto tale a fini di navigazione grazie agli Arabi. La bussola si diffuse
anche in Europa tant’è che sono presenti anche dei manoscritti di un abate inglese circa la bussola.
Ma quindi, chi ha inventato la bussola? Qual è l’invenzione? Incontreremo molti problemi nel nostro
percorso per portare un aspetto astratto e teorico nella realtà.
Per il telescopio, il discorso è simile: Bacone introduce nel 1200 le prime lenti, sfruttando la loro
proprietà→infatti delle lenti piane convesse possono essere ottenute sezionando una sfera di vetro
con un piano. Le proprietà di ingrandimento erano permesse dalla rifrazione dell’immagine, dalla
lunghezza focale della lente e dalla distanza alla quale si poneva l’occhio. Nel 1280 si ha la prima
manifestazione di lenti utilizzate per occhiali da vista, che furono inventate da Spina a partire dalla
lavorazione del vero a Venezia. Nel 1607 alcuni ottici olandesi sviluppano degli strumenti rudimentali
di basso potere risolutivo. Nel 1608 Lippershey costruì il primo modello di telescopio rifrattore. Solo
dopo tutto ciò, nel 1609, Galileo perfezionò il telescopio! Quindi è troppo facile dire “Galileo inventò
il telescopio”, perché prima di arrivare al telescopio inteso come oggetto originale risolutivo, ci sono
stati secoli e secoli di “preparazione” che hanno permesso di sviluppare competenze e conoscenze,
capacità tecnologiche tali che messe insieme hanno garantito la creazione del telescopio inteso
come idea originale risolutiva del problema. Ad esempio, la costruzione del primo telescopio nel
1608 è stata possibile grazie alle conoscenze matematiche acquisite circa la rifrazione, oltre che a
tutte le conoscenze pregresse circa le lenti. Galileo fu solo il perfezionatore del telescopio, anche se
rimane sui libri di storia come l’inventore del telescopio.
Quindi, secondo la nostra legislazione, per invenzione intendiamo una soluzione originale di un
problema tecnico, che implica un trovato scientifico e che può avere applicazione industriale. Può
riguardare un prodotto o un processo. Non sono considerate invenzioni, invece: a) le scoperte, le
teorie scientifiche e i metodi matematici; b) i piani, i principi e i metodi di attività intellettuali, che
riguardano gioco o attività commerciale, inclusi i programmi di elaboratori; c) le presentazioni di
informazioni. Ancora, non sono considerate invenzioni i metodi per il trattamento chirurgico o
terapeutico del corpo umano o animale e i metodi di diagnosi applicati al corpo umano o animale.
La protezione legale di un’invenzione si ottiene con il brevetto.
Esempio tipico di scoperta è la scoperta della penicillina da parte di Fleming nel 1928:
Tutto nasce quando nel 1922 Fleming
scopre che su una capsula di Petri, il
suo muco nasale era in grado di
tenere lontani i batteri (azione
antibatterica). Da questa curiosità
partì il viaggio di ricerca di Fleming
che cercò di trovare altre sostanze in
grado di avere questa azione
antibatterica. Arrivò presto alla conclusione che la maggior parte dei fluidi corporei possiedono un
enzima con una discreta capacità di sciogliere le forme microbatteriche. Fleming chiamò questo
enzima Lisozima, e già questa fu una scoperta importante perché ci spiega come il nostro corpo ha
delle protezioni naturali che ammazzano una serie di microbi e batteri che ci porterebbero
inevitabilmente alla morte. Nel 1922 Fleming andò a riferire questi risultati al Medical Research Club,
il quale snobbò la ricerca di Fleming perché comunque il lisozima non aveva efficacia con batteri
patogeni. Fleming quindi decise di soffermarsi su altre sostanze non naturali, come il mercurocromo,
che nonostante tossico per l’uomo, in piccole dosi risultava efficace contro i batteri patogeni. La
svolta si ha nel 1928 quando Fleming scoprì che in una capsula di Petri in cui erano presenti dei
batteri si era creata della muffa dopo aver lasciato per molto tempo quella capsula. I batteri si
tenevano ben lontani dalla muffa, e questo incuriosì Fleming, considerato soprattutto che i batteri
che si tenevano lontani erano quelli molto aggressivi (streptococchi, stafilococchi…). Fleming chiamò
tale muffa penicillina→il problema era la difficoltà nel produrre la penicillina in concentrazioni
elevate perché le quantità erano scarse e Fleming in quanto medico non aveva le competenze
chimiche per isolare il principio attivo. Fleming torna al Club nel 29 ma viene nuovamente snobbato.
Il motivo di questo snobbing derivava dal fatto che era in atto una vera e propria competizione tra la
penicillina di Fleming e i sulfamidici della Bayer (→dovremo sempre fare i conti con la competizione!
Non siamo i soli a fare ricerca sperimentale volontaria quindi dovremo anche competere con gli altri
per avere la meglio). Nonostante ciò, Fleming continuò a studiare la penicillina.
LEZ 4: 4/10/2023
Quindi questa prima parte sulla penicillina ci dice che di solito quando si fa una scoperta o quando
si fa innovazione si passa sempre per una prima fase di scetticismo generale da parte della comunità
scientifica.
Continuiamo con la storia della penicillina: all’inizio, anche la penicillina non trova attenzione da
parte della comunità scientifica (→enfasi sulla difficoltà nel portare avanti una scoperta o
un’innovazione). I sulfamidici si mostrarono più competitivi rispetto alla penicillina, forti anche del
fatto di essere prodotti da una grande impresa come la Bayer, un’impresa tedesca che proprio in
quegli anni era agli inizi della sua egemonia su tutta l’Europa. Nonostante la competizione, Fleming
perseverò, ritenendo la penicillina più efficace.
La vera svolta si ebbe quando Fleming riuscì ad entrare a contatto con alcuni chimici, i quali
riuscirono ad isolare la penicillina in uno stato purificato, che risultò notevolmente più efficace tanto
della penicillina grezza tanto dei sulfamidici! Dopodiché il gruppo fece degli esperimenti sugli animali
e pubblicarono i loro risultati sul The Lancet nel 1940. Questo rese la penicillina competitiva, ma ciò
non era sufficiente. Gli esperimenti furono condotti sugli animali e in parte sugli individui…e il fatto
clamoroso si ebbe quando un paziente in fin di vita fu trattato con successo con la penicillina, ma
morì dopo poco perché non c’erano le risorse necessarie per la cura totale→la penicillina passò da
essere un prodotto oggetto di ricerca e sperimentazione medica, grazie ad un risultato clamoroso e
completo, diventa un oggetto di studio mediatico e globale. Questo aspetto è fondamentale perché
spesso la strada per il successo è proprio la comunicazione mediatica.
Nel concetto di scoperta si annida anche il concetto di “trovare per la prima volta” una soluzione.
Per questo possiamo fare riferimento ad un’altra scoperta fondamentale: la scoperta dell’America.
Cristoforo Colombo si imbarcò con una precisa intenzione: andare verso le Indie. Quando giunge in
America, però, egli crede di aver scoperto le Indie e di aver confermato la sua tesi di sfericità della
Terra, ma in realtà aveva scoperto l’America. Quindi, un’intenzionalità ha portato per pura casualità
ad una scoperta diversa!
In tal senso, anche i viaggi di Cook del 1700 erano intenzionali, studiati e programmati e finalizzati a
raggiungere la “Terra Australis”, che in realtà coincide con l’Antartide. Anche qui, però, Cook
raggiunse quella che oggi è conosciuta come Australis.
Questi due esempi ci spiegano come il processo iterativo e studiato della ricerca può portarsi a
scoprire delle cose completamente nuove ed inaspettate. Inoltre, nella ricerca, dobbiamo sempre
tenere conto delle “lessons learned”: quando si fa ricerca, investiamo delle risorse per scoprire
qualcosa, ma non sempre ciò si realizza…infatti, si potrebbe scoprire tutt’altro!
C’è un concetto fondamentale che accomuna tutte le scoperte: infatti, tendenzialmente, tutte le
scoperte hanno carattere empirico. Nel dettaglio, quindi, le scoperte derivano da delle
sperimentazioni, da delle ricerche. Il carattere empirico delle scoperte, quindi, ci permette di
distinguerle dalle teorie e dai modelli matematici: la teoria non è l’esito di un’attività empirica, ma è
lo sviluppo di studi teorici e modellistici che ci permettono di costruire o proporre una teoria o un
modello. Quindi, la tavola periodica degli elementi è una scoperta, la teoria della relatività invece è
una teoria perché non deriva da ricerche!
La tavola periodica fu una scoperta sia perché all’epoca non si avevano le conoscenze sulla teoria
degli elettroni e ogni elemento per essere inserito nella tavola doveva essere scoperto tramite
attività di ricerca e sperimentazione.
E il DNA? È stato scoperto o no? Watson e Crick non fecero attività empirica! Tutta l’attività empirica
era precedente→i dati di queste attività non riuscivano a trovare un modello coerente. Watson e
Crick riuscirono ad ideare il modello a doppia elica coerente coi dati sperimentali. Quindi: sì, c’è alla
base un lavoro empirico, ma non fu condotto da Watson e Crick. Quindi non hanno scoperto il DNA,
hanno solamente proposto un modello coerente coi risultati delle precedenti attività empiriche. Il
complesso di modello e attività empiriche è considerabile scoperta; la sola attività di Watson e Crick,
non è considerabile scoperta!
Lo stesso vale per Charles Darwin: egli fu un ricercatore, il quale con la sua attività arrivò a formulare
il modello evolutivo che tutti conosciamo. Egli, di fatto, non scoprì l’evoluzione, ma fu in grado di
darne una spiegazione tramite il modello. A differenza di Watson e Crick, però, egli condusse una
serie di studi ed osservazioni empiriche in giovane età (notò come alcuni uccelli avessero becchi
differenti in base al tipo di alimentazione) che lo indussero a scoprire la presenza di uno
schema/meccanismo evolutivo nelle specie viventi. Quindi nell’attività di Darwin ci sono tracce di
scoperta, a seguito della quale poi propose la sua teoria evolutiva.
RICERCA FONDAMENTALE (O DI BASE): Sono tutte quelle attività sperimentali o teoriche svolte per
acquisire nuove conoscenze sui fondamenti di fenomeni e di fatti osservabili, indipendentemente
dal fatto che poi utilizzeremo questi risultati in applicazioni/utilizzazioni pratiche dirette. Questa
ricerca può essere curiosity-driven (guidata dalla curiosità del ricercatore, e quindi senza fini
commerciali) o knowledge-driven (guidata dall’acquisizione di nuova conoscenza). La ricerca
fondamentale necessita di strutture e di infrastrutture di ricerca (centri di calcolo, banche dati,
archivi, strumenti per l’osservazione e la sperimentazione).
IL QUADRANTE DI PASTEUR
Il quadrante di Pasteur è uno strumento molto importante perché ci permette di distinguere tra
ricerca fondamentale e ricerca industriale (e in generale capire le diverse tipologie di ricerca esistenti
e di caratterizzarli in base a due aspetti fondamentali): è una matrice che sulle righe presenta le
risposte alla domanda “questa ricerca ha finalità legate alla comprensione dei fenomeni
fondamentali?” e sulle colonne invece presenta le risposte alla domanda “questa ricerca ha un uso
pratico?”
1. Ricerca fondamentale pura: una ricerca che permette di capire i fenomeni fondamentali ma
NON ha un uso pratico→esempio tipico Bohr e la sua teoria atomica;
2. Ricerca fondamentale “use-inspired”: una ricerca che permette di capire i fenomeni
fondamentali ma ha un uso pratico→esempio tipico Pasteur e i suoi studi sui batteri
3. Attività “unnamed”: un’attività che NON permette di capire i fenomeni fondamentali e NON
ha un uso pratico;
4. Ricerca pura applicata: una ricerca che NON permette di capire i fenomeni fondamentali ma
ha un uso pratico→esempio tipico Edison, le cui ricerche avevano un uso strettamente
pratico.
Sia la ricerca industriale, sia lo sviluppo precompetitivo e le dinamiche relative alle agevolazioni e
alle concessioni governative incentivanti gli investimenti in ricerca sono regolamentati dai seguenti
decreti:
KNOW-HOW: è l’insieme delle informazioni tecnologiche, delle descrizioni dei processi produttivi,
delle formule, nonché delle conoscenze organizzative, gestionali e procedurali maturate nei settori
dell’industria e dei servizi. È tutta la conoscenza che mi consente di ottenere qualcosa, un risultato.
Banalmente è il “sapere come”, l’insieme di tutte le conoscenze (alcune acquisite, alcune innate). Il
know-how può essere trasferito→il trasferimento di know-how da un’impresa all’altra è
considerabile innovazione? Sì, nella nuova impresa si, perché sta acquisendo nuove conoscenze per
fare qualcosa in modo alternativo, quindi parliamo di innovazione. Il trasferimento di know-how
permette di avviare un processo di innovazione quasi istantaneo: è come se trasferissi un bagaglio
di conoscenze per fare qualcosa di nuovo).
I FATTORI DELL’INNOVAZIONE
Capiamo quali sono gli elementi che si devono combinare fra di loro per dar luogo ad un’innovazione.
I fattori dell’innovazione sono:
CREATIVITA’ E ORGANIZZAZIONE
Innanzitutto, cosa vuol dire creatività? Prima di definire la creatività, dobbiamo capire a chi si
riferisce. Potremo parlare di creatività individuale e creatività territoriale (regione o nazione). Questa
distinzione è importante.
Se guardiamo alla creatività individuale, essa è una capacità produttiva che può essere tanto frutto
della ragione (componente razionale) tanto frutto della fantasia (componente irrazionale, emotiva).
Attenzione perché, se la capacità deriva da un percorso razionale, essa può essere “educata” e
stimolata. Quindi la creatività individuale unisce la sfera razionale con la sfera emotiva. La creatività
individuale è sicuramente un talento individuale ma può anche essere stimolata tramite percorsi di
formazione. In generale si traduce come la capacità di avere nuove idee. La creatività individuale,
però, non è ancora oggetto di studi economici, è ancora di interesse del mondo medico/psicologico.
Educare alla creatività è molto importante per l’economia dell’innovazione. Avendo però risvolti in
ambito industriale, è evidente che gli psicologi industriali sono interessati ad esempio a capire come
stimolare questa creatività. Però per noi basta sapere questo. Una cosa va detta: sempre di più, nelle
analisi economiche, stanno intervenendo una serie di studi che toccano la sfera emotiva e creativa
degli individui.
Se guardiamo invece alla creatività di un territorio, a cosa facciamo riferimento? Richard Florida,
uno studioso, introdusse per primo il problema di valutare la creatività del territorio. Il suo
ragionamento orbita attorno a quelle che saranno le leadership economiche del futuro: 20 anni fa
riuscì ad individuare i leader economici del futuro, sostenendo che non sarebbero stati
necessariamente i giganti emergenti come India e Cina. A detta di Florida, il leader economico non
è il gigante economico emergente ma è il paese in grado di attrarre persone creative e di generare
nuovi prodotti e processi. La competitività si sposta dal sistema economico alla creatività e
all’innovazione. Pertanto, l’asset della creatività è un asset del territorio fondamentale che va
sviluppato, e a questo bisogna porre molta attenzione perché è molto instabile. Florida ha ragione:
se un paese vuole mantenere un certo standard di vita economica, e se questo paese non è un
gigante demografico, è necessario per questo paese attrarre persone creative e sviluppare al suo
interno una comunità creativa che mantenga la competitività del paese. Essere attrattori di soggetti
creativi, però, non è semplice. A tal proposito, Florida si interrogò nel trovare una soluzione per
misurare la creatività e l’attrattività di un territorio.
Florida arriva a costruire un indice di creatività (creativity index) di un territorio (regione o nazione),
tramite misure oggettive fatte su tre dimensioni fondamentali ritenute delle proxy della creatività.
In particolare, secondo Florida la creatività dipende da: Tecnologia, Talento e Tolleranza. Tant’è che
il modello di Florida è noto come modello delle tre T. Quindi si valutano queste tre dimensioni
costruendo degli indicatori (tramite delle proxy, ovvero valutazioni quantitative che ci avvicinano a
misurare quella dimensione) opportuni e si costruisce l’indice di creatività. In particolare, per
ciascuna dimensioni gli indicatori sono i seguenti:
Quindi Florida ottiene il GLOBAL CREATIVITY INDEX (GCI) tramite le proxy delle tre diverse
dimensioni. Questo indice quindi si basa su tre punteggi (uno per ciascuna dimensione) che variano
su una scala da 0 a 1. Non sono confrontabili regioni con nazioni, in quanto le misure adottate sono
diverse (soprattutto in termini di scala).
Vediamo invece i risultati dello studio fatto applicando il modello di Florida alle regioni italiane:
Le regioni con
il più alto
creativity index
sono quelle
ovviamente
più creative
per gli stessi
aspetti visti
prima.
Florida introduce anche il concetto di classe creativa, inteso come l’insieme di tutte le persone che
si occupano di scienza, ingegneria, architettura, design, istruzione, arte, musica, intrattenimento, e
la cui funzione sociale è creare nuove idee, tecnologie e nuovi contenuti creativi. La classe creativa
in un territorio dà un contributo importante ai processi innovazione. Florida si concentra su questa
categoria di individui.
Oltre alla creatività, dobbiamo considerare anche l’organizzazione: che ruolo ha l’organizzazione
nell’innovazione? L’organizzazione si esplica in termini di disciplina, tramite l’insieme di tutte le
norme, le regole e le procedure che vincolano il comportamento degli individui di un’organizzazione
che vanno un po’ ad opporsi col concetto di creatività. Perché la creatività è uno dei fattori
dell’innovazione ma da sola non funziona? Noi consideriamo processi creativi non in maniera
artistica ma processi creativi che poi devono tradursi in innovazione. Quindi consideriamo sempre la
creatività all’interno di un’organizzazione. Si pensa che più un’impresa è creativa, più è capace di
portare a risultati innovativi: sbagliato! Si è capito come per aumentare la capacità creatività di
un’organizzazione servisse liberare la creatività degli individui→il problema è che queste due cose si
contrappongono: devo contemporaneamente lasciare le persone libere di essere creative e
ricordarmi che esse operano in un’organizzazione e quindi queste devono essere disciplinate. Il tema
del confronto e del bilanciamento tra creatività e disciplina è molto importante. Un eccesso di
disciplina può portare a cali nella performance creativa a causa dell’insurrezione di comportamenti
anarchici e opportunistici. Un’organizzazione, quindi, deve essere mantenuta e gestita in una
situazione di bilanciamento ottimale tra creatività e disciplina.
Nelle organizzazioni, oggi, serve ambidestrismo: un’organizzazione si dice ambidestra quando riesce
ad essere efficiente nella gestione del business attuale (sfruttando al massimo l’organizzazione e
gestendola in maniera disciplinata) e anche adattiva, creativa, e quindi essere in grado di
confrontarsi con i cambiamenti dell’ambiente esterno. Questo porta alla nascita di due attività
fondamentali nell’organizzazione: exploration ed exploitation.
LEZ 5: 5/10/2023
METODO E SCIENZA
È un fattore un po’ più soft rispetto a creatività ed organizzazione. In chiave economica dobbiamo
fare un ragionamento: si è osservato che quelle parti del mondo in cui si è sviluppato prima e più
rapidamente l’approccio scientifico sono anche le parti del mondo che si sono sviluppate meglio e
più rapidamente. Dietro questo fattore, quindi, persiste l’idea secondo cui più le imprese si dotano
di un metodo scientifico volto alla ricerca delle soluzioni ai problemi, più esse risultano efficaci ed
efficienti in termini di sviluppo dell’innovazione. Quindi metodo e scienza sono il carburante per lo
sviluppo dell’innovazione. Il concetto di metodo e scienza è tutt’altro che astratto, e si concretizza in
azioni finalizzate allo sviluppo dell’innovazione.
È un fattore estremamente importante che ha permesso all’occidente di acquisire negli ultimi anni
un vantaggio competitivo rispetto ad altri contesti territoriali (Cina), ma è un fattore che bisogna
continuare a coltivare se vogliamo garantirci una certa capacità innovativa rispetto ad altri contesti
territoriali. Lo stesso vale per la singola impresa.
Vediamo come in occidente si sono fatte strada metodo e scienza. A partire dal Medioevo sono state
fatte molte scoperte ma quello che è successo a partire dal Rinascimento (in Italia) è degno di nota.
Ci fu una riscoperta della natura e grazie a questa riscoperta ci si è portati dietro un’idea secondo la
quale l’esperienza concreta sia più importante del verbalismo logico, in particolare della filosofia
scolastica. Ma non c’era ancora una mentalità scientifica perché non si era ancora formulata un’idea
di scienza come attualmente l’abbiamo e soprattutto non c’era un metodo per trasformare
quell’esperienza concreta in un’indagine di fenomeni. Ci sono due grandi mancanze quindi:
mancavano, infatti, una mentalità propriamente scientifica e un metodo di indagine dei fenomeni
della realtà pratica.
Galileo Galilei introduce il metodo sperimentale per esaminare la realtà attraverso gli esperimenti e
che consente di generalizzare i risultati ottenuti dagli esperimenti. Con lui c’è Francesco Bacone, che
pone al centro dell’analisi il metodo sperimentale. Con il metodo sperimentale l’analisi della natura
diventa sistematica. Osservo i fenomeni e traggo delle conclusioni. Il mondo è governato da regole
che presentano una certa ripetitività quindi diciamo che c’è una concezione meccanica del mondo.
Ancora oggi usiamo il metodo sperimentale! Se è vero questo vuol dire che alla base di tutto c’è una
visione ordinata della natura. Galilei e Bacone non andarono oltre questi studi, e non trassero gli
aspetti filosofici legati al meccanismo della natura.
Ad interpretare questo secondo passaggio furono Hobbes e Descartes: secondo i due pensatori, se
il mondo si basa su una concezione meccanica, vuol dire che noi possiamo estendere una sorta di
meccanicismo fisico alla risoluzione di tutti i problemi filosofici (viene dato quindi un senso
metafisico al meccanismo della natura). Nasce in Europa una duplice corrente che è una corrente
filosofica ma che è la base di quello che noi conduciamo in termini di attività: l’empirismo (galileo e
Hobbes) e il razionalismo (Bacone e Cartesio). Se la società (in tutti i suoi livelli e gradi) non adotta
un approccio empirico e razionale nello sviluppare le proprie idee non sarà in grado di tenere un
processo innovativo a lungo in piedi. I razionalisti affermano che ci sono modi significativi in cui i
nostri concetti e le nostre conoscenze sono acquisite indipendentemente dall'esperienza sensoriale.
Gli empirici affermano che l'esperienza sensoriale è la fonte ultima di tutti i nostri concetti e delle
nostre conoscenze.
Il vantaggio della società occidentale è stato permesso dalla competitività dei filosofi e scienziati, i
quali hanno dato un metodo di produrre conoscenza. Il metodo ha permesso di ragionare e generare
nuove idee. Metodo e scienza sono fattori di innovazione.
Due studiosi, Rosenberg e Birdzell scrissero un libro che cercava di spiegare come l’Occidente è
divenuto ricco. Nel farlo, hanno individuato alcuni fattori favorevoli allo sviluppo dell’Occidente, che
hanno favorito lo sviluppo di nuove idee e dell’innovazione:
• Formazione delle città e dei mercati (che sono luoghi dove si scambia conoscenza, quindi
svolgono un ruolo simile a quello delle scuole);
• Sperimentazione (Galilei) e metodo scientifici (Cartesio);
• Presenza di istituzioni e la loro autonomia (che permettono di creare gruppi omogenei, lo
scambio di informazioni, tradurre pratiche in regole).
Vediamo a proposito il caso di Nicholas Appert. Egli fu un pasticcere francese di fine ‘700 e inizio
‘800. Vinse un premio perché scoprì che per conservare a lungo i dolci bisognava immergere i
contenitori in vetro in acqua bollente per un paio di minuti, estrarli, inserire il dolce e sigillarli. La
possibilità di inscatolare e mantenere a lungo gli alimenti fu una grande scoperta che gli fece
guadagnare un premio. Cosa succedeva scientificamente venne scoperto solo 60 anni dopo: il
riscaldamento riduce notevolmente la presenza di batteri, i quali sono i responsabili del degrado
degli alimenti. Questo avvenne grazie a Pasteur. Mentre Appert continuava con i suoi esperimenti,
ci fu un medico: Semmelweis. Operando in ospedale con le partorienti notò la presenza di un
numero elevatissimo di morti tra di loro. Nello stesso reparto creò due sezioni, una in cui ci si lavava
le mani prima di visitare i pazienti e nell’altra in cui tutto restava uguale a prima→nella prima sezione
venivano sempre cambiate le lenzuola, nella seconda no. Si notò come nella prima sezione il tasso
di mortalità si ridusse notevolmente! Ci fu una reazione dura tra la classe dei medici, a tal punto che
venne allontanato dall’ospedale. Solo dopo molti anni viene recuperato il metodo Semmelweis.
La comunità medica non credette a Semmelweis perché non fu in grado di spiegare razionalmente
quanto aveva notato e ottenuto: l’empirismo è utile, ma senza l’approccio scientifico razionale, non
potrà mai trovare il consenso.
Pasteur fu uno dei primi a rivalutare le scoperte di Semmelweis. Fu lui a capire che erano i germi e i
batteri a causare le morti delle partorienti e la conservazione dei cibi. Pasteur lavorava da solo. Non
aveva assistenti. Le innovazioni erano frutto delle sue idee.
Al giorno d’oggi poi, lo scienziato Craig Venter ha estremizzato il metodo scientifico. Creò una società
privata nel ’98, la Celera Genomics, con l’obiettivo di codificare il genoma. Per fare questo decide di
automatizzare le procedure di sequenziamento del genoma. Questa fu la prima organizzazione a
privatizzare le attività di R&S e grazie a questo ci fu una forte accelerazione dei processi, riuscendo
a battere sul tempo i rivali del consorzio “human genome”. Venter spostò i suoi studi su un altro
progetto: “digitalizing life”→modificare e risequenziare il DNA dei batteri e crearne digitalmente di
nuovi, svolgenti nuove funzioni (come, ad esempio, produrre metano). Il tutto a partire da Appert e
la sua scoperta! Venter parte dall’approccio empirico di Appert e lo trasforma tramite un approccio
scientifico e razionale.
SERENDIPITY
Un ultimo fattore dell’innovazione è la serendipity, ovvero il caso. Molte innovazioni si generano per
caso. Una volta che trovo una cosa per caso, devo capire però come commercializzarla. L’effetto
serendipity è parte dell’innovazione.
Ci sono molti prodotti che sono nati per caso: si cercava qualcosa e poi si è scoperto altro:
Ad esempio, vediamo il caso Post-it: Spencer Silver, un chimico della 3M (una multinazionale),
cercava di sviluppare un adesivo molto forte. Durante le prove commette un errore procedurale ed
ottiene una “collaccia” che non ha nessuna capacità di far aderire due superfici. Ma ha delle
caratteristiche: una volta che attacco due superfici, le stacco e si riattaccano. Durante l’adesione si
rompono delle bolle di gas e c’è adesione. Con il primo incollaggio non vengono rotte tutte, man
mano che stacco e attacco si rompono, fino a quando le bolle sono tutte rotte e non si attaccano più.
Aveva in testa componenti metallici e non carte. Solo anni dopo, Art Fry capisce la potenza di questa
colla sulle superfici di carta.
Vediamo il caso Ivory Soap: è il primo sapone solido. La Procter & Gamble realizza questo sapone
come frutto di un errore, ma comunque lo vende con un nome diverso da quello che doveva avere
in origine. Succede che tutti vogliono l’Ivory Soap e non i vecchi saponi perché questo galleggia
quindi quando si fanno i panni nella tinozza non diventa più un problema il sapone che scivola dalle
mani.
Quando nasce qualcosa per caso, non sai qual è il suo potenziale, lo capisci solo quando lo immetti
sul mercato.
LEZ 6: 6/10/2023
Thomas Edison è stato uno dei più grandi inventori della storia, e nessuno meglio di lui rappresenta
il fattore “creatività ed organizzazione”. Egli è anche conosciuto per due massime:
“La componente creativa è solo l’1%, il 99% è sudore”→questa è un’ottima sintesi di quanto abbiamo
studiato. Se le idee non trovano un processo organizzato per “inserirle” nel prodotto, non sono utili.
Per arrivare sul mercato bisogna lavorare molto, il percorso è lungo e c’è il rischio di fermarsi durante
il tragitto.
“Il valore di un’idea consiste nel metterla in pratica, nell’ usarla”→se abbiamo un’idea, ma non la
concretizziamo in qualcosa, il valore di questa idea è nullo! Solo quando trasformiamo quell’idea in
qualcosa da utilizzare, potremo trarne il suo valore (indubbiamente un valore economico).
Attenzione: conoscere i soli fattori di innovazione non ci permette di fare innovazione. Adesso
conosciamo ancora poco dell’innovazione. Il percorso con cui si arriva all’innovazione e il
meccanismo col quale essa diventa un business è ancora ignoto. Oltre ai fattori di innovazione che
abbiamo visto, nel processo di innovazione entrano una serie di altre risorse e fattori che sono difficili
da “sistematizzare”. L’unico modo per averne contezza, e soprattutto di comprendere le relazioni e
le interazioni tra fattori di innovazione e come queste portino poi all’innovazione, è di analizzare casi
di studio circa imprese che sono nate e basano il loro successo sui processi di innovazione→quindi
stiamo usando un approccio empirico, basato sull’osservazione e non tramite dei metodi matematici
e sperimentali.
Facciamo quindi una carrellata di questi casi di studio e vedremo altri fattori di innovazione, oltre a
quelli già visti:
1)Il caso Olivetti→è il classico caso da manuale. Tutte le imprese oggi evolute si rifanno al caso
dell’impresa di Adriano Olivetti, il quale creò il concetto di impresa anche dal punto di vista sociale
e non solo dal lato economico ed organizzativo. Capiamo come si sono messi insieme i fattori di
innovazione per far si che nascesse questa nuova forma di impresa.
Ecco, quindi, come il “contesto” diventa un fattore dell’innovazione: vedremo proprio come Olivetti
riuscirà a sfruttare il contesto in cui vive, cavalcando l’onda delle nuove tecnologie emergenti!
Olivetti si laurea con Galileo Ferraris, insegnante di elettromagnetismo, considerato uno dei padri
fondatori delle auto elettriche, nonché una figura fondamentale dell’elettrotecnica. Nel 1893 Olivetti
accompagna Galileo Ferraris al congresso di elettricità di Chicago (considerato il punto di svolta per
il settore elettrotecnico mondiale). Segue corsi di fisica alla Stanford University, un’università
all’epoca molto giovane e quindi in piena crescita.
Dopodiché, torna in Italia e nel 1896 e apre la CGS (centimetro, grammo, secondo), piccola officina
di strumenti di misura elettrici ad Ivrea: grazie alle informazioni ottenute nel congresso, Olivetti notò
la presenza di una nicchia di mercato, quella della strumentazione elettrica. Non potendo quindi
competere nel business principale (dominato dai colossi come la Westing House), aggredì la nicchia
che aveva dei potenziali di sviluppo (perché il mondo si stava evolvendo verso una elettrificazione).
L’acume di Olivetti si mostra anche nell’ubicazione dell’officina: infatti al tempo Ivrea era l’epicentro
dell’industria elettrica, ed era vicina alla maggior parte della domanda nazionale.
Riflettiamo sul fatto che Olivetti non ha inventato nulla, non parliamo di una grande
invenzione→spesso l’innovazione nasce grazie all’unione di frammenti di informazioni ottenute in
vario modo, in un contesto competitivo. La presenza di competitors che si stanno muovendo con
il nostro stesso ragionamento è per certi versi “fortificante” perché suggerisce come le idee di
partenza siano fondate e quindi questo permette di aumentare gli sforzi di innovazione e di
perseverare con la propria idea.
Ad un certo punto, nel 1908 crea l’impresa “Ing. Camillo Olivetti e C.” per la produzione di macchine
da scrivere. Nonostante possa sembrare una follia, ci sono almeno due ragioni per le quali questa
idea fu geniale:
2) in quel periodo nascono una serie di imprese come FIAT e Pirelli. Siamo un contesto in cui le
imprese sono in crescita ma la popolazione è ancora arretrata e presenta un’elevata percentuale di
analfabetismo. Nasce quindi in Italia uno sforzo di crescita volto a insegnare alla maggior parte dei
bambini a leggere e a scrivere, per permettere lo sviluppo del Paese. Le macchine da scrivere sono
nate proprio per questo→il modo di scrivere ordinato aiutava le persone, e quindi servivano
macchine da scrivere.
La domanda, purtroppo, era molto particolare: la domanda ovviamente era espressa in termini di
domanda aggregata, da parte di soggetti pubblici! Olivetti non riuscì a vendere la macchina da
scrivere fino a quando non arrivò una commessa pubblica: 100 macchine da scrivere da parte del
Ministero della Marina. La macchina da scrivere permetteva di scrivere documenti leggibili, perciò,
era acquistata prevalentemente dalle istituzioni. Infatti, dopo, arrivò un ordine dal Ministero delle
Poste.
Da questo impariamo che Il miglior finanziamento per un’innovazione è la domanda! Sapere che
c’è qualcuno che si comprerà ciò che stiamo sviluppando è il carburante per l’innovazione stessa.
Grazie al caso Olivetti impariamo anche che per le imprese la domanda pubblica è fondamentale!
Lo Stato e i suoi enti hanno spesso questa funzione, ossia di stimolare l’innovazione generando
domanda di innovazione. La domanda è una delle forme principali di interazioni tra stato ed
imprese→la dimensione delle imprese è figlia delle dimensioni della domanda.
Scoppia la guerra e l’Olivetti si dedica alla produzione bellica poiché alla base c’è la meccanica di
precisione. I fatturati crescono, infatti le guerre hanno la caratteristica di accelerare drasticamente
le innovazioni e i processi di innovazione nei paesi e nelle imprese.
Nel 1929 l’Olivetti apre in Spagna, a Barcellona il suo primo stabilimento all’estero. Incredibilmente,
nonostante nel 1929 ci fu una delle più grandi crisi industriali (culminata con la crisi di Wall Street),
Olivetti aprì comunque uno stabilimento in un altro Paese! Quindi questo è una misura del valore
intrinseco dei prodotti Olivetti→non ci sono crisi che tengono se il prodotto è innovativo.
L’innovazione ha la capacità di superare anche periodi di crisi intensi. Perché l’innovazione genera
nuova domanda, che non risente della crisi.
2)Il caso Pirelli→È un’impresa italiana che ha favorito lo sviluppo di tecnologie importanti. È un caso
illuminante, i fattori dell’innovazione sono fattori sempre un po’ presenti nel processo di innovazione
ma va studiata la realtà per comprendere al meglio le diverse situazioni.
Parleremo di Giovan Battista Pirelli (1848-1932). Anche lui, come Olivetti, trascorre un periodo
all’esterno grazie ad una borsa di studio messa a disposizione da Giuseppe Colombo. Giuseppe
Colombo aveva un ruolo importante, era un uomo visibile nel mondo industriale lombardo: costituì
nel 1884 a Milano la Società Generale Italiana di Elettricità. Fu uno dei più grandi sostenitori dello
sviluppo del Politecnico di Milano (all’epoca “Istituto Tecnico di Milano”), fu un’industriale e un
professore di matematica, e colui che ideò il prima sistema di illuminazione elettrica a Milano
(illuminò il Duomo e il teatro La Scala).
Quando torna in Italia, Pirelli fonda un’impresa di articoli in gomma→Pirelli ha studiato in Inghilterra,
la culla della rivoluzione industriale e potentissimo impero coloniale. In quel periodo, in Inghilterra
si stava sviluppando la produzione di gomma, a partire dal caucciù. Il caucciù è un materiale che
sottoposto a lavorazioni presenta caratteristiche spettacolari: risulta infatti infrangibile, isolante
(fondamentale per l’industria elettrica, sviluppatasi grazie ad Olivetti!) e malleabile (prende la forma
che si desidera).
Come per Olivetti, fu una grande domanda pubblica per far crescere la Pirelli. Nel 1889 ottiene dal
Ministero dei Lavori Pubblici l’appalto per la costruzione, la posa e la manutenzione di cavi telegrafici
sottomarini battendo i rivali inglesi, leader del settore: i cavi sottomarini sono possibili solo se ho un
isolante elettrico e quindi si rifanno alla Pirelli, industria di articoli in gomma. C’era un enorme
business che si stava aprendo!
LEZ 7: 18/10/2023
La strategia con cui opera Pirelli si divide in due parti: (i) solide relazioni con imprese estere ed
esperte concorrenti (per stare meglio sui mercati esteri e perché sono portatrici di conoscenze e
competenze nuove→una collaborazione strategica avrebbe sicuramente aiutato); (ii) attenzione ai
mercati internazionali (intercettare non solo una domanda nazionale ,ma poter ampliare la domanda
dei suoi prodotti anche ai mercati esterni, questo è fondamentale per ampliare il processo di
crescita).
In questo periodo di sviluppa il business delle vetture: ai primi del ‘900 il settore degli pneumatici
cresce con la crescita dello sviluppo delle autovetture. Anche con la Prima Guerra Mondiale Pirelli
ha la sua fortuna, visto che si impiegarono molti mezzi. Queste sono dinamiche fondamentali per la
crescita delle imprese!! Ad esempio, per le gomme delle vetture di guerra bisognava realizzare
pneumatici molto resistenti, quindi bisognava innovarsi.
3)Il caso Mr. Hewlett & Mr. Packard→è un caso modello sia per l’innovazione che per lo sviluppo
territoriale. Siamo sulla costa Ovest degli USA. Loro due sono i fondatori della hp. Si incontrano
all’università di Standford (che abbiamo capito essere un ruolo fertile per l’innovazione). Appena si
laureano vengono incoraggiati da Fred Terman (vice-rettore dell’università di Standford, che aiutava
i giovani con idee innovative per costruire delle imprese). Nel 1939 l’hp muove i primi passi in un
garage a Palo Alto (CA) producendo strumenti elettronici di misurazione (Olivetti faceva strumenti di
misura per l’elettricità ovvero correnti forti, mentre loro due per elettronicità quindi correnti deboli).
Nel 1952 Terman offrì a Hewlett e Packard un posto nel parco industriale (o distretto tecnologico)
noto come Silicon Valley fondato dall’università→l’università forma le persone, fa attività di ricerca
e trasforma le conoscenze delle persone in opportunità di business. I ricavi legati ai canoni di
localizzazione delle imprese (maggiormente hi-tech) che si sono andate ad insediare nella Silicon
Valley hanno consentito all’università di Stanford di scalare i vertici della ricerca scientifica. Ecco che
diventa interessante il risvolto territoriale: le università permettono di valorizzare il territorio e
generare uno sviluppo sostenibile. Si è creata una sorta di circuito virtuoso che ha portato alla
valorizzazione non solo del territorio ma anche dell’università. Questo fenomeno è stato studiato e
si è ragionato sul fatto che la capacità di sviluppare attività di ricerca applicata nelle innovazioni di
frontiera genera l’effetto di attrazione su quelle imprese che utilizzano tecnologie simili: effetto di
co-localizzazione. La Silicon Valley è diventata emblema di questo fenomeno, un vero e proprio polo
di innovazione. Si sviluppa l’idea che una buona capacità di ricerca in un ateneo può generare
attraverso spill-over (fuoriuscite) di conoscenza (anche attraverso start-up), un effetto di
agglomerazione, dimostrando che esistono una serie di vantaggi per le altre imprese tecnologiche a
co-localizzarsi al fine di valorizzare una serie di fattori, quali le competenze umane, i servizi avanzati,
le agevolazioni messe a disposizione di queste imprese per localizzarsi in un posto.
Non basta una buona università, ma servono altri elementi, come una visione ampia della funzione
di un’università in un territorio. Non è tanto investire soldi per generare la Silicon Valley, ma è
importante avere figure che hanno una visione ampia come Terman.
Tutti e tre i casi visti hanno un denominatore comune: un mentore che li guida. Nei primi due casi
c’è un viaggio all’estero che permette loro di portare una nuova tecnologia nel paese di origine, qui
c’è lo sviluppo di una tecnologia senza viaggio all’estero.
4)Il caso Breda→Nel 1876 Ernesto Breda si laurea in ingegneria all’università di Padova. Nel 1883
arriva a Milano dopo un lungo soggiorno di studio all’estero. In quel periodo iniziano a svilupparsi le
prime fabbriche, che iniziano a distaccarsi dai vecchi sistemi artigianali di produzione. Lui all’estero
conobbe realtà di fabbriche più avanzate e arrivato a Milano rilevò un vecchio stabilimento,
l’Elvetica, e iniziò a produrre locomotive. Nel fare questo, prese spunto da quanto osservò in Svizzera
e Germania e iniziò ad introdurre i principi di Taylor della divisione del lavoro e della razionalizzazione
dei processi produttivi. In quel periodo il business delle locomotive era in forte crescita, perché in
Italia iniziavano a svilupparsi le prime ferrovie. Il Parlamento effettuò nel 1885 un’azione legislativa
interessante: rese possibile privilegiare le imprese italiane negli appalti ferroviari purché i loro prezzi
non fossero superiori del 5% alle più convenienti offerte straniere. È così che si sviluppa la Breda,
perché l’idea del Parlamento era quella di sostenere la crescita di imprese italiane sufficientemente
competitive rispetto a quelle straniere. Poi, la Breda per prima, stabilisce una collaborazione stretta
con la COMIT (Banca Commerciale Italiana, l’odierna Intesa Sanpaolo). Questa banca aveva la fama
di essere una banca aggressiva nella capacità di sostenere le imprese: infatti, non faceva solo prestiti
alle imprese, ma entrava anche nella proprietà dell’impresa, investendo in capitale di rischio. La
COMIT entrò nella Breda acquisendone la maggioranza relativa. Questo garantisce a Breda di coprire
i debiti a breve termine in quanto dispone sempre di capitale circolante e questo permette di
sopperire alle irregolarità nelle commesse e nei pagamenti da parte di Ferrovie dello Stato. Oggi le
banche non entrano nei capitali sociali delle imprese! (è fresca però la notizia di un’acquisizione da
parte di Intesa San Paolo di una piccola quota di azioni di SpaceX!)
Nel caso Breda ritroviamo molti fattori dell’innovazione: metodo e scienza, creatività e
organizzazione, serendipity. Un ruolo molto importante è stato quello ricoperto sia dallo Stato sia da
una Banca→entrano quindi questi altri due fattori, oltre a quelli visti, e sono determinanti!
Breda beneficiò anch’essa dalla Guerra, che purtroppo è sempre un toccasana per queste imprese
perché genera una domanda, e si impegnò nella produzione di due aerei da guerra.
5)Il caso Florio→Vincenzo Florio, grande imprenditore calabrese. Caso importante perché riguarda
il sud Italia. Il tutto parte con il terremoto del 1799. A Bagnara Calabra c’era un piccolissimo
imprenditore, Florio, che aveva una piccola drogheria, e che in seguito al terremoto si trasferì a
Palermo con la sua famiglia, visti anche i grandi limiti dell’economia calabrese. La sua attività, grazie
a qualche innovazione, crebbe e ciò permise la creazione di un gruppo industriale. Mise in piedi,
infatti, diversi business: produzione e commercio di vino (marsala), produzione del tonno, attività
armatoriale (navi, trasporti e logistica), investimenti nella siderurgia, nell’estrazione e lavorazione
degli zolfi.
Dopo che l’Italia perse le rotte commerciali con l’unità di Italia, i Florio andarono in crisi e furono
costretti ad alienare le loro aziende: loro risanarono tutti i debiti con il patrimonio personale, cosa
che dal punto di vista etico ricalca un comportamento nobile e molto raro anche oggi. In ogni
innovazione c’è sempre un rischio, che deve essere accettato e rispettato.
6)Il caso Ferrero→È il caso di un’impresa non quotata in borsa, è la più grande impresa in Italia nel
settore agro alimentare. Questa storia richiama quella di Florio, perché non c’è un’innovazione
tecnologica motrice dell’impresa. Florio aveva una drogheria, Pietro Ferrero una pasticceria. Nel
1940 Ferrero aprì infatti una grande pasticceria a Torino, in un clima di grande incertezza a causa
della guerra. Aprì poi un laboratorio ad Alba, dove inizia a fare esperimenti. A causa della guerra, gli
ingredienti come il cioccolato erano diventati introvabili. Ferrero, condizionato dalla necessità, iniziò
a sfruttare una delle ricchezze del territorio, le nocciole. Nel 1946 esce il primo prodotto Ferrero, la
Pasta Gianduja, pasta a base di nocciole avvolta in carta stagnola, spalmabile ed economico (il
prodotto se fosse stato tutto di cioccolata sarebbe costato molto di più). La produzione aumenta
notevolmente in pochi mesi da febbraio a dicembre (da 3 quintali/mese con 50 dipendenti a
1000q/mese con 100 dipendenti). L’etichetta aveva al centro i bambini, grandi consumatori di
cioccolato. Visto che il laboratorio era diventato molto piccolo, nasce l’industria Ferrero. Quando ci
sono effetti di incremento rapido dei volumi di vendita e quindi anche di produzione, è necessario
intervenire su tutti i componenti dell’azienda, anche sull’effetto di leva commerciale; infatti, il fratello
capì che il prodotto doveva essere venduto anche fuori dal Piemonte. Compra una flotta di 12
camioncini e un dato interessante è che il numero di mezzi che la Ferrero utilizzava per distribuire il
proprio prodotto era secondo solo al numero di mezzi a disposizione per l’esercito italiano. Quindi
abbiamo non solo la capacità di inventare il prodotto ma anche di commercializzarlo per aumentare
la dimensione dell’impresa. Oltre a Pietro e al fratello Giovanni, si affianca il figlio di Pietro, Michele.
LEZ 8: 19/10/2023
Nel 1948 un episodio determina una caratteristica della Ferrero, che è rimasta tuttora. Avviene
un’alluvione che ricopre la fabbrica di fango, ma i fratelli Ferrero insieme ai dipendenti riescono a
ripulire le macchine e dopo quattro giorni di duro lavoro. Questo testimonia che esiste un legame
fondamentale tra impresa e territorio questa dimostrazione di solidarietà è testimone di come la
Ferrero ha impostato il rapporto con i dipendenti.
La Nutella nasce prima come “Cremalba” e poi “Supercrema”, ed essendo spalmabile si adatta bene
in termini di consumi. Nascono anche altri prodotti, come combinazione tra cioccolato che viene
dalle aree tropicali e la nocciola che viene dal territorio di Alba. “Sultanino” è una piccola stecca di
cioccolato e “Cremablok” un cioccolato ripieno di nocciola. Quando si iniziano a produrre centinaia
di quintali all’anno di prodotti che necessitano della nocciola, il territorio non basta più e l’azienda si
deve preoccupare di avere delle fonti di approvvigionamento aggiuntive, in Italia e all’estero.
Chiaramente alla Ferrero non importa solo della produzione della nocciola, ma soprattutto che
questa sia di qualità in modo tale da garantire redditi elevati agli agricoltori. Questo significa avere
una visione anche del benessere dei propri fornitori.
Nel 1956 Ferrero ebbe la sua prima avventura all’estero, in Germania, con una strategia di
coinvolgimento di locali, perché i locali non sono solo i dipendenti della Ferrero ma sono anche i
consumatori e i migliori testimonial dei prodotti della Ferrero. Nasce la pralina Mon Chèri,
cioccolatino che racchiude una ciliegia, che si afferma sul mercato tedesco e non solo.
Mentre Pietro Ferrero era più attento ai nuovi prodotti, Michele era più attento agli impianti e alla
comunicazione, e si inventò molti modi per attirare soprattutto i più piccoli.
Sarebbe normale che un’azienda della dimensione della Ferrero sia quotata in borsa, ma il processo
di accrescimento del capitale sociale è avvenuto in modo tale che la famiglia ha sempre potuto
seguire la dimensione dell’impresa, cioè ha avuto una condotta tale da poter capitalizzare all’interno
del Paese, ma questa è solo un’anomalia che però può essere un punto di forza cioè l’indipendenza
e l’autonomia della Ferrero.
7)Il caso dei Fratelli Wright→Questo caso tocca caratteristiche tecnologiche. Nel 1892 si ebbe lo
sviluppo delle biciclette modello penny-farthing, con la ruota davanti molto grande, ma presto si capì
che quella ruota grande, che serviva a far mantenere elevato il momento d’inerzia, poteva essere
rimpiccolita, creando una bicicletta più confortevole, che è quella che usiamo tuttora.
I fratelli Wright sono dei meccanici, che aprono a Dayton un negozio di biciclette, che non è una loro
innovazione ma sono in grado di costruirle e progettarle. Apportano anche dei miglioramenti come
il freno contropedale. Iniziano a prendere dimestichezza con i sistemi di distribuzione a catena, per
mettere a moto le biciclette.
Costruiscono anche aquiloni, che fanno sempre più grandi fino a creare il primo aliante che ha una
struttura particolare: due ali collegate da elementi verticali.
A un certo punto li viene l’idea che è possibile mettere a bordo di un aliante una persona. Ma c’è il
problema del controllo, se non c’è il motore. Qui si apre il punto fondamentale. Per cercare di
controllare l’aliante avevano messo a punto un sistema secondo cui la possibilità di ruotare il veicolo
attorno all’asse principale, lo consentivano svergolando le ali. Essendo costruttori di aquiloni, per
loro era sensato deformare l’ala: svergolando l’ala si svergolava il profilo alare e si creavano delle
spinte che facevano ruotare le ali attorno all’asse.
Nel 1903 avviene il primo volo che dura più di 1 min. Wright Flayer è considerato il primo aeroplano
(macchina volante motorizzata più pesante dell’aria) ad aver eseguito un volo controllato, sostenuto
e prolungato con un pilota a bordo.
I Wright tentarono di vendere il Flayer III, quindi cominciano a fare alcune cose: cosa negativa è che
interruppero gli esperimenti pratici che non gli hanno permesso di apportare migliori al prodotto,
quindi hanno messo appunto il modello ma c’erano anche altri che stavano lavorando per costruire
macchine volanti.
Provano a venderlo alle forze armate americane ma non hanno interesse e perché non riescono a
capire il potenziale. Finché non ci fu l’interesse della Compagnie Generale del consorzio francese che
insieme a un corpo americano fanno l’acquisto di quale esemplare in versione biposto.
A questo punto nasce a Wright Company nel 1909. Nonostante ciò, la Wright company non è la
leader mondiale dell’aeronautica. Nel 1903 è stata rifiutata la domanda di brevetto, perché non
chiarisce in maniera univoca quali sono gli elementi di innovazione tecnica, riconosciuto poi nel
1906. Vengono compiute delle ingenuità: il brevetto si riferisce a un velivolo senza motore e si
focalizza sul sistema di controllo del volo che ritengono essere l’elemento originale della loro
invenzione. Svergolando l’ala si crea una reazione che consentiva il rollio (rotazione attorno all’asse
principale di rotazione). Ma questa tecnica non è utilizzata attualmente dagli aeri, i quali modificano
la superficie alare ma lo fanno agendo solo su delle parti non sull’intera ala svergolata. Su questo
tema si aprì un contenzioso giudiziario.
8)Il caso Larry Page e Sergey Brin→Entrambi dottorato di ricerca a Stanford. Sono gli inventori di
Google. Iniziale mente però non fu tutto roseo. Loro avevano chiara l’idea di sistematizzare le infinite
informazioni presenti sulla rete. Il termine “Googol” è il termine matematico per indicare un 1
seguito da 100 zero. L’uso di questo termine riflette la missione dell’azienda. Loro, quindi, avevano
l’idea ma non disponevano della tecnologia necessaria per raggiungere l’obiettivo.
Il fatto che loro non sapessero molto bene cosa fare è una caratteristica delle imprese fortemente
innovative. Più e radical l’innovazione, più il contesto tende ad essere disallineato, tende a non
comprendere l’innovazione. Si parla di break through: non riesco ad essere finanziato, non trovo
bravi talenti; si ha difficoltà a sviluppare l’impresa!
Oggi Google è una multinazionale pubblica, cioè con un capitale diffuso. Sono riusciti ad organizzare
le informazioni sulla rete. Queste sono imprese che vivono di esternalità di rete, senza una grande
dimensione non vivono.
Nel 1995 si incontrano a Stanford, hanno questa idea e nel 1997 creano un primo prototipo. È in
grado di spiegare ciò che Google vuole fare. Anche loro poi finiscono nella Silicon Valley.
Oggi hanno delle performance spaventose, hanno fabbriche al cui interno ci sono server in grado di
svolgere le attività di ricerca, sono sparse nel mondo. Devono essere estremamente veloci nella
processazione delle ricerche. I tempi di risposta sono bassissimi in qualunque parte del pianeta e
questa è una caratteristica che dà successo ad una startup.
Ci sono aspetti su cui riflettere…Per fare una ricerca su Google dobbiamo consumare un sacco di
energia, molte delle informazioni sono inutili e impegnano un sacco di risorse, quindi entra in gioco
il concetto di sostenibilità energetica/ambientale… inoltre, questi sistemi sono vulnerabili, se
all’improvviso dovesse spegnersi Google avremmo molti problemi, infatti chi fa questo business deve
sapere a cosa va incontro.
9)Il caso Amazon→È un business cresciuto con una rapidità impressionante. È nato nel 1994. È una
startup che ha una base nel mondo digitale. Jeff Bezos era un socio e presidente di un’azienda che
operava a Wall Street nel mondo della finanza. Si trasferisce a Seattle e inizia a studiare una startup.
Bezos ha chiaro che grazie ad internet un’impresa può effettuare una categorizzazione di oggetti da
vendere attraverso questo canale. Voleva creare un book di prodotti online. Osserva che non si
poteva vendere tutto: inizia un processo di selezione di prodotti da vendere online, una 20ina; di
questa 20ina ne seleziona i più promettenti, video, libri, computer hardware e software, e compact
discs. Infine fa un’ultima selezione: vende online i libri per la grande domanda nel mondo, per il
basso prezzo unitario e per il grande numero di titoli disponibili nel mondo. Questo è l’inizio del
grande business. Ovviamente non tutto fila liscio: la vendita online non era abitudine, quindi anche
questa è una innovazione radicale.
All’inizio chi finanzia una startup? Si parla delle 3F: Family, Friends, Fools. Inizialmente non ci fu
profitto tanto che non si pensava ad un futuro per questa azienda. Questo fino al 2001. Dopo di che,
con il passare del tempo, a partire dal 2007 principalmente, c’è il boom di profitti e impiegati. Nel
2019 il fatturato è stato di 280 miliardi di dollari.
Questo è un vero esempio di business che scala. Si parla di scale-up: all’inizio sono tutte startup ma
solo quelle che hanno un grande potenziale possono fare scale-up.
10)Il caso SpaceX→Fondata nel 2022 da Elon Musk con l’obiettivo di ridurre i costi di trasporto
spaziale per la colonizzazione di Marte. È un’azienda manifatturiera aerospaziale statunitense e di
servizi di trasporto spaziale con sede a Hawthorne (CA).
Arriva nel campo aerospaziale con tanti soldi, ha un’elevata capacità di investimento grazie a startup
del passato. L’obiettivo con cui arriva e che si è posto subito faceva paura anche alla NASA:
colonizzare Marte. Elon Musk è un visionario. Ha realizzato lanciatori, costellazioni di satelliti
Starlink, Dragon cargo spacecraft, trasporto umano.
- Primo razzo privato a propellente liquido posto in orbita (Falcon 1 nel 2008)
- Prima azienda privata a lanciare, porre in orbita e recuperare uno spazioplano (Dragon nel
2010)
- Prima azienda privata a inviare uno spazioplano alla ISS (Dragon nel 2012)
- Primo decollo e atterraggio verticale con motore acceso per un razzo orbitale (Falcon 9 nel
2015)
- Primo riutilizzo di un razzo orbitale (Falcon 9 nel 2017)
- Prima azienda privata a lanciare un oggetto in orbita attorno al Sole (Falcon Heavy con una
Tesla Roadster nel 2018)
- Prima azienda privata a inviare astronauti in orbita e alla ISS (Crew Dragon Demo-2 mission
nel 2020)
Con la SpaceX i razzi sono costruiti in serie, perché ormai c’è una grande domanda. C’è un sovrapporsi
di innovazioni.
Il cambiamento portato da Elon Musk è molto più forte del cambiamento portato da Ford, con il
fordismo. Per studiare questi casi non si studiano i successi, ma gli insuccessi, il modo con cui ha
industrializzato gli indicenti learning by failure.
Big problem/risk→Big opportunity: se non si corrono grandi rischi difficilmente si hanno grandi
opportunità. L’entità del rischio è correlata alle grandi opportunità.
LEZ 9: 20/10/2023
INDICATORI DI INNOVAZIONE
L’innovazione è fondamentale nello sviluppo, ed è una delle determinanti dello sviluppo economico,
sociale e territoriale. Studiamo l’innovazione in ambito macroeconomico. Vediamo come misurare
innovazione, competitività e sviluppo a livello macro. Vogliamo studiare gli effetti che l’innovazione
ha sul sistema economico. Tornando allo schema, a livello macroeconomico siamo interessati a
capire come l’innovazione, attraverso la competitività, si traduce in sviluppo. Nel fare questo,
sapendo cos’è ormai l’innovazione, dobbiamo imparare a misurare sia l’innovazione, sia la
competitività, sia lo sviluppo. Misurare l’innovazione è una sfida che Nazioni e Regioni si pongono
per studiare la competitività. Vogliamo esaminare a livello di Paese (Stato o Regione) il livello di
innovazione per capire se un paese ha una capacità innovativa oppure no→se un territorio (Nazione
o Regione o anche imprese) non è innovativo, non sarà competitivo e quindi non riuscirà a generare
lo sviluppo desiderato e quindi prima o poi fallirà. Si tende a guardare l’innovazione come un fatto
mediatico; in realtà l’innovazione deve concretizzarsi in vantaggio competitivo→proprio per questo,
i Governi tendono ad incentivare l’innovazione, perché sanno che questo genera sviluppo. Se gli
incentivi non dovessero esserci più, però, anche lo sviluppo verrebbe meno. Il finanziamento
pubblico è un incentivo finalizzato a correggere tutte quelle dinamiche del mercato che per loro
natura rendono l’imprenditore avverso al rischio nel suo agire (il finanziamento non serve per
“pagare” l’innovazione, serve per ridurre l’avversione al rischio). Imprese che non innovano, non
vengono finanziate→le imprese ovviamente sono interessate all’incentivo, quindi fanno
innovazione.
Per misurare l’innovazione adotteremo una metodologia sviluppata dall’Unione Europea: parleremo
di EUROPEAN INNOVATION SCOREBOARD (EIS) e REGIONAL INNOVATION SCOREBOARD (RIS), e
sono i due indicatori di innovazione fondamentali→il primo misura l’innovazione a livello europeo,
il secondo misura l’innovazione su scala regionale.
L’Unione Europea fa misure statistiche sull’innovazione per ciascun Paese e per ciascuna Regione
dell’Unione. In più, per essere utile dal punto di vista del benchmarking (confrontarsi con Paesi e
Regioni migliori), questa analisi si estende anche ad altri Paesi NON appartenenti all’UE (Cina,
Canada, Russia, Corea del Sud…)→valutiamo così paesi con lo stesso metodo di riferimento. Questo
è stato fatto dall’UE per studiare l’innovazione e sfruttare queste misure sia per capire se le politiche
adottate sono efficaci, sia per modificare le politiche per renderle più efficaci. È l’unione di un’analisi
statistica tradizionale (valutazione dell’efficacia) e di una modifica in corso d’opera!
L’Unione Europea produce un report annuale sull’EIS, che permette di effettuare un assessment
comparativo sulle performance di ricerca ed innovazione dei vari paesi dell’UE e di alcuni paesi di
riferimento non membri dell’UE.
Questo indicatore permette agli enti governativi di valutare i punti di forza e i punti di debolezza dei
sistemi nazionali di ricerca ed innovazione degli stati membri, tracciarne i progressi ed identificare
le priorità da perseguire per incrementare le performance di innovazione.
L’EIS riguarda gli stati membri e altri stati dell’Europa come Islanda, Israele, Montenegro, Macedonia,
Norvegia, Serbia, Svizzera, Turchia, Ucraina e Regno unito. Coinvolge anche molti altri stati che non
fanno parte nemmeno dell’Europa allargata (Australia, Brasile, Canada, Sud Corea…), questo perché,
se voglio analizzare la capacità innovativa dei Paesi dell’UE, devo anche conoscere e misurare con lo
stesso criterio la capacità innovativa di altri Paesi.
Come funziona? Ciascun indicatore viene valutato tramite un punteggio. Alla fine si ottiene un
indicatore unico, normalizzato fra 0 e 100, indicativo del punteggio del Paese in innovazione.
Chiaramente, per ottenere una misura affidabile, è necessario fare riferimento ad indicatori che sono
più analitici, ed è lì che il tema diventa molto interessante, perché bisogna essere sufficientemente
accurati e ricercare qualsiasi aspetto da misurare legato all’innovazione.
Si costruisce questo framework, composto da una pluralità di indicatori (ciascuno con lo stesso peso),
che con una metodologia vengono ricondotti ad un indicatore sintetico. Da circa 32 indicatori, per
ogni Paese si arriva a costruire l’indicatore sintetico per ogni Paese. C’è un processo, che è stato
validato dal punto di vista metodologico, e che si modifica nel tempo→ci si è resi conto che alcune
componenti dei processi innovativi non venivano ancora rappresentate dagli indicatori esistenti, e
quindi se ne sono aggiunti altri! Un esempio è quello della recente aggiunta di tutte le spese di
innovazione NON legate alla R&S, che prima non venivano considerate e si sono ritenute importanti
solo dopo.
Tutti gli indicatori confluiscono in una misura, e la lista di indicatori è in continuo aggiornamento
→l’obiettivo è avere statistiche ufficiali ed affidabili al fine di poter ritenere valido il calcolo
dell’indicatore specifico.
Si sono individuati 4 ambiti generali nei quali si collocano i diversi indicatori per misurare
l’innovazione. Ciascun indicatore poi si poggia su una serie di variabili statistiche che sono
fondamentali per il calcolo dell’indicatore stesso, perché sono correlati all’indicatore (questo si
deduce da analisi di correlazioni che vengono fatte ex-ante all’inserimento della variabile
nell’indicatore)! Vediamo gli ambiti generali e gli indicatori:
Questo metodo valuta una moltitudine di indicatori selezionati in modo che siano oggettivi e colgano
la valutazione complessiva della capacità innovativa, e alla fine di tutta questa valutazione si fa una
media ponderata e si ottiene un unico indicatore, di valore compreso tra 0 e 1 (o tra 0 e 100). Si
tenga presente che ogni indicatore ha lo stesso peso.
Sulla base dell’indicatore sintetico di innovazione, l’UE classifica i paesi in 4 categorie in base al valore
dell’indice rapportato al valore medio dell’Europa:
• Innovation leaders: con indice elevato→ hanno rispetto alla media europea degli innovatori,
un valore superiore del 125% (Belgio, Danimarca, Finlandia, Svezia e Olanda);
• Strong innovators: hanno un valore tra il 125% e il 100% rispetto alla media europea (Austria,
Francia, Germania, Irlanda, Lussemburgo, Paesi Bassi, Irlanda);
• Moderate innovators: tra 70% e 100% (Estonia, Grecia, Italia, Lituania, Malta, Portogallo,
Slovenia e Spagna, Ungheria) della media Europea;
• Modest/emerging innovators: sotto il 70% (Bulgaria, Croazia, Lettonia, Polonia, Romania e
Slovacchia) della media europea.
Quindi se volessimo costruire un nuovo centro di R&S dove vado? Beh, ovviamente vado verso gli
innovation leaders, perché sono più propensi all’innovazione!
Gli indicatori sono usati non solo per misurare e comparare ma anche per valutare gli effetti delle
politiche di innovazione dei diversi Paesi. Servono quindi a monitorare ed implementare politiche di
innovazione.
L’EIS 2023 ha prodotto anche i risultati per i paesi NON membri dell’UE, ed è una situazione molto
importante e da analizzare
Qui vediamo le
performance dei
vari Paesi→la
barra colorata
indica il valore
dell’indice di
innovazione al
2023, il trattino
superiore è il
valore al 2022, mentre la barra piena grigia si riferisce al valore del 2016. Qui, mentre per gli
innovation leaders e per gli strong leaders grossomodo i valori si stanno mantenendo rispetto al
2022 (addirittura alcuni paesi come Cipro hanno un notevole miglioramento rispetto al 2016), alcuni
paesi hanno avuto delle flessioni negative (tra cui, purtroppo, l’Italia). Sono tipicamente quei paesi
che hanno vissuto delle crisi e di conseguenza l’innovazione ha risentito (e risentirà) di ciò.
Se rapportiamo gli indicatori rispetto alla media europea (la barra blu), ci accorgiamo come l’Italia
sia effettivamente un moderate innovator, perché performa al di sotto della media Europea. Al 2023
la Danimarca è la top innovator (la migliore tra gli innovation leaders)
Quest’altro grafico, invece, ci fa capire cosa succede nel mondo in termini di innovazione, grazie al
fatto che l’EIS permette di valutare l’indicatore anche per paesi non membri dell’UE e paesi non
facenti parte del continente europeo!
In questo grafico invece possiamo paragonare l’Europa (il pallino blu) al resto del mondo. Il grafico
ha gli stessi assi di quello precedente, e le linee tratteggiate sono i valori medi Europei di
cambiamento e indice di innovazione. La Cina è quella che, insieme alla Corea del Sud, ha avuto il
miglior cambiamento % dell’indice di innovazione→il mondo Orientale sta decisamente migliorando
in termini di capacità innovativa. Anche gli USA performano meglio della media europea, ma sono
dietro rispetto all’Oriente! Poi ci sono altri paesi che performano peggio in termini di cambiamento
rispetto all’Europa: parliamo di Russia, Canada, Brasile ed Australia→stanno accumulando dei ritardi
in termini di indice di innovazione. Sulle ordinate, quindi per l’indice di innovazione, domina la Corea
del Sud insieme a Canada e USA, che performano meglio dell’Europa.
Questo grafico ci permette subito di fare ragionamenti strategici, perché ci permette subito di
cogliere le dinamiche dei cambiamenti nella capacità innovativa dei diversi paesi, oltre che di avere
delle informazioni immediate sulla posizione dei vari paesi in termini di innovazione nel mondo. Il
grafico va letto in termini relativi: l’Europa ha una % di cambiamento rispetto all’Australia, che però
ha un indice di innovazione superiore. Il fatto che però la % di cambiamento sia superiore, ci
suggerisce che in un certo numero di anni l’Europa raggiungerà il valore dell’Australia, che avendo
una % di cambiamento più bassa, ha un “ritardo” rispetto alla media europea. Ecco cosa significa
ragionare i termini relativi: rapportare la posizione di innovazione dei diversi paesi, considerare le %
di miglioramento, ossia le “velocità” con le quali i paesi fanno innovazione, e rapportarle
relativamente agli altri paesi (o anche rispetto alla media europea), per vedere chi “corre” di più e
fare inferenza su quali saranno gli scenari futuri di innovazione. La Cina, quindi, che ha adesso un
indice di innovazione più basso della media Europea, crescerà vertiginosamente perché ha una % di
miglioramento elevatissima, quindi nei prossimi anni sicuramente arriverà al pari di USA e Corea,
superando l’UE, perché questi paesi hanno accumulato un ritardo rispetto alla Cina→più un paese è
“verso destra”, più riesce a migliorare in % negli anni il proprio indice di innovazione, quindi più
velocemente “salirà” e quindi aumenterà il proprio indice di innovazione e quindi migliorerà la
propria posizione di innovazione.
Le dinamiche di innovazione del mondo orientale (Cina, Corea e Giappone) sono state molto
importanti! Dal 2014 al 2021 questi Paesi hanno subito un notevole miglioramento in % dell’indice
di innovazione. Attenzione però: queste dinamiche di cambiamento vanno sempre interpretati nella
loro completezza, perché in base all’anno dal quale si misura il miglioramento %, si possono avere
risultati notevolmente differenti!
In ogni caso, possiamo affermare con certezza che la Cina si affermerà come leader di innovazione
nei prossimi anni
Questo secondo indicatore è stato creato proprio a causa del fatto che i Paesi, al loro interno, sono
fortemente eterogenei a livello regionale in termini di innovazione: basti pensare alle diverse regioni
Italiane. I paesi NON sono omogenei internamente, e queste differenze sono importanti perché
aiutano a capire come ogni regione può fare delle politiche regionali ad hoc per cercare di rafforzare
quei particolari valori che entrano nel calcolo dell’indicatore di innovazione e migliorare le proprie
performance innovative. Il RIS è quindi un’estensione a livello regionale dell’EIS, che permette di fare
un assessment delle performance di innovazione delle regioni europee, usando un numero ridotto
di indicatori rispetto a quelli usati nell’EIS.
L’ultimo report del RIS presenta un’analisi comparativa di 239 regioni appartenenti a 22 paesi
europei, unite anche alle regioni di paesi extra UE ed Europa come Norvegia, Serbia, Svizzera e Regno
Unito. Alcuni Paesi come Estonia, Lettonia, Cipro e Lituania vengono considerati come un’unica
grande regione. La metodologia statistica impiegata, non fa più riferimento ai 32 indicatori usati
nell’EIS, ma riduce a 21 il numero di indicatori, ritenuti quelli validi a valutare le performance
innovative delle regioni.
• Innovation leaders;
• Strong innovators;
• Moderate innovators
• Emerging innovators.
Delle 239 regioni, ben 211 hanno avuto un miglioramento; quindi, è presente una dinamica
innovativa importante. Dall’altro lato, le regioni più innovative tendono ovviamente a trovarsi nei
paesi più innovativi (Svezia, Danimarca, Finlandia). Ma questo non esclude che ci siano regioni più
innovative anche in paesi meno innovativi (come l’Italia)→”pockets of excellence”.
Le regioni più innovative in Europa sono: Hovestaden in Danimarca, l’area di Helsinki in Finlandia, la
Baviera in Germania e l’area di Berlino in Germania, l’area di Stoccolma in Svezia. Queste sono le
regioni che “aprono le piste” dell’innovazione, in cui le frontiere tecnologiche sono in rapida ascesa.
Questa è una mappa che ci descrive le diverse regioni europee classificate in base al RIS. Una
curiosità: la regione italiana più innovativa non è la Lombardia! Ci sono Friuli, Veneto ed Emilia-
Romagna! Ovviamente per le regioni le colorazioni sono “fluide”, quindi si hanno gradazioni
differenti nello stesso gruppo di performance: questo vuol dire che, ad esempio, ci sono diverse
regioni che sono moderate innovators, ma magari qualche regione “sta meglio” rispetto alle altre ed
è più vicina al gruppo superiore. Ci accorgiamo come poi, molti paesi che sono strong innovators o
innovation leaders, fondano il loro successo innovativo su poche (anche spesso una sola) regione
fortemente innovativa, e quindi presentano una fortissima dispersione interna in termini di capacità
innovativa. Tranne rari casi come l’Inghilterra e la Finlandia, non ci sono paesi omogenei dal punto
di vista innovativa. La Francia, ad esempio, ha come unica regione leader l’ile-de-France, mentre
tutte le altre regioni sono moderate od emerging innovators!
Soffermiamoci sulla situazione italiana: le regioni sono catalogate tramite un codice alfanumerico,
detto “NUTS”. Ad esempio, la Puglia ha codice ITF4. Vedere i valori del RIS e rifletterci su, considerato
che sono anche presenti il rank relativo rispetto alle altre regioni europee e la percentuale di
cambiamento.
La Puglia, a nostro malgrado, è un moderate innovator, e tra i moderate innovator si trova nella fascia
bassa, è nella seconda metà delle regioni europee per ranking ed ha un tasso di miglioramento delle
performance di innovazioni medio-basso. Ci sono fortunatamente alcune regioni italiane molto
performanti come quelle del nord e la Campania.
INDICATORI DI COMPETITIVITA’
Vediamo adesso come si misura la competitività. Vedremo quali sono gli indicatori che a livello macro
permettono di valutare la competitività. La nostra idea è sempre quella di spiegare le dinamiche
macroeconomiche che legano innovazione e competitività.
Non c’è un indicatore semplice, un numero, che la misura, come per l’innovazione. Quindi, dobbiamo
trovare anche qui un indicatore aggregato di altri indicatori analitici, misurare i diversi indicatori
analitici e tramite essi risalire al valore dell’indicatore aggregato, ottenendo una proxy della
competitività!
Quindi: in base a quali ragionamenti è possibile definire la competitività di una Nazione? Porter, nella
sua opera “il vantaggio competitivo delle Nazioni”, dice che la prosperità/ricchezza delle Nazioni è
qualcosa che si crea e non si eredita→una Nazione può anche essere ricca di risorse naturali ecc.,
ma questo non porta ricchezza! La ricchezza si genera attraverso l’azione degli individui della
Nazione. Inoltre, Porter sostiene che la competitività di una Nazione dipende dalla sua capacità di
innovare e migliorarsi! C’è un legame tra la competitività e il processo di trasformazione delle
industrie, che porta al miglioramento e all’innovazione della Nazione stessa. Nella visione
Porteriana, la prosperità si crea, e per fare ciò il Paese deve essere competitivo perché solo così
riesce a migliorare e trasformare il proprio apparato produttivo, innovando.
Ci sono due scuole di pensiero che ci aiutano ad arrivare a misurare la competitività di un Paese:
Siamo interessati a capire come l’innovazione entra a far parte della competitività: sappiamo
esserci una relazione forte tra questi due concetti, ma, nonostante ciò, abbiamo visto che ci sono
ben altri 11 pilastri ad influenzare la competitività. Nonostante siano tutti rilevanti, possiamo
affermare che l’innovazione sia una componente rilevante della competitività. Analizziamo nel
dettaglio i due pilastri della categoria innovation ecosystem:
PILASTRO 11: BUSINESS DYNAMISM→in questo pilastro il WEF parla di: costo per iniziare un
business (un paese è dinamico dal punto di vista del business se ha dei costi per l’avvio di
un’attività d’impresa che sono facilitatori dell’avvio stesso→un paese è competitivo se è
relativamente facile avviare un’iniziativa imprenditoriale); tempo per iniziare un business
(quanto tempo deve passare affinché l’impresa possa nascere? Ci sono ostacoli burocratici per
avviare un’impresa?); tasso di recupero delle insolvenze (in quanto tempo riesco a recuperare i
crediti dai creditori?); framework regolatorio per la gestione delle insolvenze (come devo agire
se un creditore è insolvente? Quanto tempo devo aspettare?); attitudine verso il rischio
imprenditoriale (luoghi con maggiore propensione al rischio sono luoghi con maggiore
dinamicità imprenditoriale. Ricordiamo che il rischio porta sempre con sé la possibilità del
fallimento); crescita di imprese innovative (se ci sono imprese innovative nel territorio, esso è
più competitivo); capacità di affrontare idee dirompenti; managerialità (quanto i senior manager
delegano l’autorità? I contesti con poca cultura della delega sono caratterizzati da strutture
verticistiche e quindi minore disponibilità ad accettare il rischio e i processi innovativi)
PILASTRO 12: CAPACITA’ INNOVATIVA→in questo pilastro il WEF parla di: diversità della forza
lavoro; stato dello sviluppo del cluster (si valuta l’esistenza nell’ecosistema di filiere connesse,
non solo la presenza di fornitori, ma anche di eventuali relazioni di collaborazione tra fornitori e
produttore→lo sviluppo delle imprese è integrato da forme collaborative?); co-invenzioni
internazionali (ci sono invenzioni frutto di collaborazioni internazionali?); collaborazioni fra gli
stakeholders; pubblicazioni scientifiche; numero di brevetti; spese in R&S
Il ragionamento fatto dal WEF è sempre lo stesso: si parte da indicatori analitici facilmente
misurabili e si perviene alla misura di un indicatore aggregato rappresentativo della competitività
di un paese (tramite una media pesata in cui ciascun indicatore ha lo stesso peso).
Uno dei problemi fondamentali che affliggono la competitività è il seguente: la competitività
genera degli effetti? Il seguente studio rapporta l’indice di competitività globale (sulle x) col
reddito nazionale lordo pro capite (sulle y in scala logaritmica). Si vede effettivamente che al
crescere dell’indice di competitività cresce anche il reddito nazionale lordo dei paesi. Ci sono
alcuni paesi che però non hanno una perfetta correlazione, questo ovviamente perché nella
realtà la relazione non è perfettamente lineare. Nonostante ciò, se osservassi i coefficienti di
correlazione, mi accorgerei subito della presenza di un’effettiva correlazione per tutti i paesi. I
paesi europei e americani sono tutti ad un livello alto; quindi, hanno un buon livello di
competitività e un buon reddito nazionale pro capite. I paesi africani hanno invece una situazione
drammatica con bassa competitività e basso reddito pro capite. Ancora, i paesi con le
performance peggiori hanno anche la maggiore dispersione delle osservazioni, rispetto ai paesi
con le performance migliori…questo problema è da ricercarsi in cosa? È come se gli indicatori
utilizzati non fossero in grado di descrivere al meglio le condizioni dei paesi meno performanti,
e ciò causa un errore e una dispersione elevata dei dati.
Una causa di questa dispersione può essere la presenza di risorse concentrate in alcuni paesi, la
stabilità sociopolitica, la cultura e le usanze. Spesso, una diversità elevata di queste dimensioni
tra i diversi valori porta ad una varianza elevata nel reddito nazionale e quindi una forte
dispersione nei dati. Un’ultima questione: i paesi sono competitivi perché hanno un alto reddito
pro capite, o hanno un alto reddito pro-capite perché sono più competitivi? Visto che la
competitività favorisce lo sviluppo, sembrerebbe essere la seconda la risposta giusta, ma non
possiamo escludere anche il contrario. Entrambe le versioni hanno un fondo di verità.
Questo grafico descrive la posizione dei diversi paesi rispetto al best performer nei diversi pillar.
Soffermandoci sull’innovation capability, il best performer è all’85% circa, il peggior paese è un
paese africano, mentre l’Europa si posiziona verso il 60% e performa meglio di tutti gli altri
eccezion fatta per il best performer. Possiamo poi analizzare da soli le performance dell’Europa
nei diversi pillar! Ad esempio, nel business dynamism i dati sono molto più compatti→questo
perché i paesi più avanzati sono quelli più burocratizzati e quindi quelli più strutturati, perciò non
deve stupirci questo dato.
Il seguente grafico invece mostra come si piazza l’Italia nei diversi pillar: il dato molto
interessante è quello sulla salute, dove l’Italia ha un punteggio di 100/100 e si piazza al sesto
posto nel mondo nel pillar della salute! Quindi l’Italia è uno dei paesi più competitivi nel campo
della salute. D’altro canto, però, le performance sono basse nella stabilità macroeconomica e nel
mercato del lavoro, mentre sono buone nell’innovation capability→possiamo quindi valutare
ogni singolo paese e capire perché quel paese è competitivo. Grazie a questi dati possiamo capire
se conviene andare in un determinato paese, e soprattutto perché. Quindi l’Italia può essere
attrattiva grazie al suo ottimo sistema sanitario, ma pecca molto nel mercato del lavoro! Questo
ci serve per capire l’importanza dell’indicatore di competitività.
Ormai sappiamo che, se c’è competitività, c’è sviluppo. Ma come misuriamo lo sviluppo? Ci verrebbe
istintivo suggerire il PIL come proxy dello sviluppo. Questo andrebbe bene se vogliamo sviluppare la
crescita economica! Ma se vogliamo parlare di SVILUPPO, la questione è più complessa: lo United
Nations Development Program definisce lo sviluppo come un concetto multidimensionale, che
include il progresso sociale, la crescita economica, l’uguaglianza, la partecipazione e la libertà, la
sostenibilità e la sicurezza degli individui. Questa definizione da una lettura ampissima del concetto
di sviluppo, ma che include tutte le componenti che interessano chi deve gestire e governare un
paese o una regione e garantirne lo sviluppo.
Quindi sorge una domanda: lo sviluppo è troppo esteso come concetto…allora noi cosa cerchiamo?
Ci interessa davvero lo sviluppo? Cosa vuol dire sviluppo? Sviluppo vuol dire crescita, ma cosa deve
crescere?
La parola sviluppo va associata a qualcosa: ecco perché parliamo di sviluppo economico, sviluppo
sociale ecc. → dello sviluppo si specifica sempre l’oggetto! L’UNDP parte dalla definizione di sviluppo
dell’individuo e da lì parte con la trattazione. Quindi cosa è lo sviluppo umano? L’UNDP fa un
ragionamento particolare. Quando si parla di sviluppo umano, si toccano una serie di dimensioni:
economia, efficienza, progresso sociale ecc. Ma soprattutto, per avere lo sviluppo umano, è
necessario che per ogni individuo si possa aumentare le possibilità di scelta→ho sviluppo umano
se quell’individuo ha maggiori possibilità di scelta! Questo ragionamento fu messo in piedi da
Mahbub ul Haq, il quale mise anche in piedi un sistema di misura dello sviluppo umano. Riuscì a
tradurre questi concetti nella misurazione di un indicatore dello sviluppo umano. Maggiori possibilità
di scelta permettono all’individuo di prendere la scelta per lui migliore. Più un paese è sviluppato,
maggiori sono le possibilità di scelta e quindi l’autonomia di scelta dell’individuo.
Questi ragionamenti hanno poi portato Amartya Sen a dare una definizione di sviluppo: secondo
Sen, infatti, lo sviluppo umano è l’avanzamento della ricchezza della vita umana (mette insieme
ricchezza e vita) piuttosto che della semplice ricchezza economica. Questa definizione spegne
definitivamente la vecchia idea di sviluppo legato ai concetti di ricchezza e crescita economica. A
volte lo sviluppo si ottiene non tramite ricchezza economica, ma tramite la ricchezza della vita
umana.
Ma quindi: è il modello di sviluppo economico che determina il futuro della società o c’è
qualcos’altro?
Come facciamo quindi ad arrivare all’indicatore di sviluppo? L’UNDP ha sviluppato lo HUMAN
DEVELOPMENT INDEX (HDI). È un indicatore di sviluppo che viene costruito su tre dimensioni,
ritenute le tre dimensioni principali dello sviluppo umano: salute, educazione e standard di vita.
Queste tre dimensioni, poi, si misurano tramite delle proxy: la salute si misura tramite l’aspettativa
di vita alla nascita; l’educazione tramite gli anni medi di istruzione e gli anni attesi di istruzione; gli
standard di vita si misurano tramite il reddito nazionale lordo pro-capite. Questo indicatore è
compreso tra 0 e 1 o tra 0 e 100
L’HDI viene pubblicato nel report delle Nazioni Unite, che include anche altri indicatori:
La misura deve essere semplice e attendibile. L’Human Development Index si ottiene attraverso una
media geometrica ed è un valore compreso tra 0 e 1 (o 0-100). Esiste un ufficio che si occupa della
redazione di un report sullo sviluppo umano. Questo ufficio non realizza più solo il report, ma anche
degli indicatori, che sono correzioni dello Human Development Index, che tendono a cogliere alcuni
aspetti che il primo, con il suo carattere sintetico, non riesce a cogliere. Quindi nello Human
Development Report troviamo una serie di indicatori che permettono di tener conto delle
disuguaglianze lato salute, lato genere, lato educazione ecc. Il tema delle disuguaglianze ha sempre
interessato le Nazioni Unite, che negli anni hanno “aggiustato” l’HDI tenendo conto delle
diseguaglianze. Infatti, ad oggi, il report include tutti questi indicatori a complemento dell’HDI:
A seconda quindi dell’ambito di studio, possiamo correggere l’HDI con i diversi indicatori che
tengono conto non solo dei valori medi ma anche di come questi valori di distribuiscono rispetto alla
media, facendoci capire gli effetti delle disuguaglianze sull’HDI.
Dal 1991 ad oggi i valori dell’indice sono stati sempre positivi e quindi l’indicatore globale di sviluppo
umano sta migliorando e l’effetto di questo miglioramento è che ovunque nel mondo c’è una
tendenza a migliorare; è un indicatore medio, quindi in alcuni paesi l’indicatore può peggiorare ma
mediamente migliora. Durante la crisi del 2008 si assiste ad una flessione della crescita - ma è pur
sempre una crescita - che negli anni successivi viene recuperata. Nel 2020 (e anche 2021) si è avuta
una flessione negativa dell’indice di sviluppo: esiste un problema a livello planetario, in questo caso
la pandemia, che ha tradotto lo shock in un impatto negativo sullo sviluppo umano. Se non avessimo
avuto i vaccini, la riduzione dell’indice del 2020 sarebbe stata ancora molto più negativa, perché la
popolazione si sarebbe ulteriormente ridotta.
Le Nazioni Unite hanno introdotto il PHDI (Planetary Human Development Index). È un indicatore
di tipo sperimentale, va ad aggiustare l’indicatore di sviluppo umano costruito sulle tre dimensioni
introducendo una quarta dimensione, le pressioni generate sul pianeta/sull’ambiente a causa della
presenza dell’uomo. Si fa riferimento all’antropocene. Il PHDI corregge quindi l’HDI e questa
correzione è legata al tema della sostenibilità perché evidenza il fatto che, se io genero sviluppo
umano ma lo faccio a scapito delle risorse del pianeta il problema principale è un problema di
disuguaglianza intergenerazionale, cioè chi verrà dopo di me non potrà usare quelle risorse. È un
indicatore che tende a corregge l’HDI tenendo conto delle disuguaglianze, che però non sono dello
stesso periodo di tempo ma considera disuguaglianza tra generazioni.
L’HDI viene moltiplicato per un fattore correttivo pari a (1- indice delle pressioni sul pianeta). Questi
indicatori sono proxy della situazione reale.
Come facciamo a tenere conto di tutto questo? Vengono utilizzate due variabili, che sono le proxy
della pressione umana sull’ambiente: emissione di anidride carbonica pro capite e l’impronta
materiale pro capite (per il consumo delle risorse, mi dice quanto materiale consumiamo per
abitante al fine di produrre beni e servizi). Sono due indicatori che catturano la pressione
sull’ambiente. Se non c’è pressione sull’ambiente il PHDI è uguale all’HDI, se invece è presente il PHDI
< HDI! In questa ottica, quindi, il PHDI misura il livello di sviluppo umano considerando le pressioni
planetarie.
Questo grafico riporta i diversi paesi in termini di correlazione tra HDI (sulle X) e PHDI (sulle Y). In
questo grafico notiamo come tutti i paesi che hanno un basso sviluppo umano, sono anche paesi che
hanno bassa pressione sull’ambiente, quindi HDI e PHDI praticamente coincidono. Quindi sono paesi
che producono pochi bene, che non garantiscono una vita molto dignitosa, ma nel fare questo
impattano poco sull’ambiente. Man mano che cresce l’HDI, invece, notiamo che il PHDI non cresce
allo stesso modo, e quindi cominciano a manifestarsi gli effetti delle pressioni planetarie. Le pressioni
che i paesi più sviluppati generano sono tanto più elevate quanto maggiore è l’HDI, e questo sposta
i punti sempre più in basso rispetto alla bisettrice (PHDI=HDI). Quindi a causa delle pressioni
planetarie ci troviamo davanti a casi in cui un paese con un HDI super elevato si trova in realtà con
un PHDI uguale ad un paese con HDI medio! Questo perché il paese più sviluppato genera maggiori
impatti perché consuma di più.
Lo Human Development Report 2019 affronta una serie di concetti da esaminare:
Il primo concetto è un concetto rivoluzionario: ogni valutazione delle disuguaglianze deve tenere
conto dei redditi e della ricchezza. I Paesi oggetto di analisi posseggono una disuguaglianza dal
punto di vista dei redditi ma anche dal punto di vista delle ricchezze, si possono avere redditi elevati
ma patrimoni modesti o viceversa (la differenza può esserci sia tra Paesi che all’interno dei Paesi).
Inizialmente diciamo di voler studiare solo il reddito pro capite per studiare lo sviluppo, ma poi
capiamo che è necessario guardare anche alla ricchezza; quindi, quanto negli anni le persone hanno
accumulato. Ci sono persone che fanno un lavoro modesto ma hanno una ricchezza dovuto a
patrimoni lasciati da antenati. Questo aspetto ha una valenza politica. Si avanza una questione di
equità: la Cina afferma di dover sfruttare risorse perché vuole recuperare quanto non sfruttato nel
Paese, vuole arrivare allo stesso sfruttamento degli altri Paesi, tipo la Grand Bretagna, un Paese di
colonizzatori, che ha creato un grande patrimonio grazie allo sfruttamento delle risorse. Quindi è
necessario guardare anche alla ricchezza! Patrimoni grandi sono facilmente tracciabili.
Per misurare le disuguaglianze noi guardiamo alla salute, all’educazione, ma dovremmo guardare
anche alla dignità e al rispetto dei diritti umani. Al centro della valutazione c’è l’individuo e poiché
sono le opportunità di scelta a influenzare il livello di sviluppo umano, dobbiamo considerare anche
tutti questi aspetti. La valutazione dello sviluppo umano si basa sulla valutazione delle capabilities
dell’uomo. Le capabilities vengono distinte in basic e enhanced.
Le capabilities basic sono: sopravvivenza nei primi mesi della vita dei bambini, educazione primaria,
accedere ad un livello tecnologico base, aver una minima resilienza dagli shock ricorrenti (alluvioni,
terremoti ecc.). Nello sviluppo umano queste sono capacità basiche, che devono essere disponibili
per tutta l’umanità; dobbiamo aspettarci che ogni stato abbia queste capacità base
Lo sviluppo umano deve garantire le basic capabilities, ma dove possibile offrire anche delle
enhanced capabilities.
Vediamo qualche esempio. Questa tabella indica che percentuale di popolazione di quel Paese ha
quel reddito mensile (PPP $):
C’è una forte diversità tra i valori, guardando a Costa d’Avorio e USA si nota il forte divario. Infatti, in
Costa d’Avorio il 20% della popolazione vive con massimo 100 dollari al mese, in USA solo il 5% Il
mondo è più simile alla Cina. I Paesi come la Costa d’Avorio sono problematici, nonostante abbiano
molta ricchezza a livello di risorse.
Osserviamo questo grafico che mette insieme l’HDI e la “linea di povertà” (la popolazione che vive
in un paese con meno di 1,9 dollari al giorno. La grandezza dei cerchi indica la % di persone che in
quel paese è in quella condizione). Man mano che l’HDI diminuisce vediamo che aumenta la
percentuale delle persone che vivono sotto la soglia di povertà. Ci sono addirittura paesi in cui l’80%
della popolazione vive sotto la soglia di povertà! Circa 600 milioni di persone in tutto il mondo vivono
al di sotto della linea di povertà. Qual è il problema? È che la gente che vive in questi paesi si sposterà,
cercando paesi che vivono in condizioni di più dignitose, al di sopra della soglia di povertà.
Un’altra questione affrontata dal report è la seguente: il cambiamento tecnologico ha generato
miglioramenti allo sviluppo, ma se guardiamo più nel dettaglio, ci accorgiamo di come il
cambiamento tecnologico ha acuito la divergenza tra i paesi e all’interno dei paesi. Nel
cambiamento tecnologico, alcuni paesi hanno beneficiato, altri no. Quindi il cambiamento
tecnologico è sia un driver per lo sviluppo che una fonte di divergenze!
Quando si apportano nuove tecnologie cosa succede dal punto di vista dell’ambiente? Si ha un
aumento della pressione sull’ambiente, quindi è uno strumento importante ma ha dei problemi.
Genera anche diseguaglianza ovviamente, perché chi adotta la tecnologia è avvantaggiato rispetto a
chi non la utilizza e aumenta di conseguenza le disparità.
La tecnologia ha un impatto che non è sempre positivo. Ogni policy maker vede nella tecnologia
un’opportunità, ma noi sappiamo che queste tecnologie creano un impatto non solo sull’ambiente
ma anche sulle persone: la tecnologia sostituisce le persone. Rimuove personale creando
disoccupazione ma allo stesso tempo crea opportunità per nuovi lavori (avrò bisogno di
manutenzione, produzione del pezzo ecc.). Adesso il saldo è positivo, sono stati creati più posti di
lavoro di quelli spazzati via, ma nel futuro questo diventerà un problema.
Le scelte devono essere fatte considerando che la nuova tecnologia deve da un lato creare sviluppo,
allontanando le persone dalla povertà, creando nuovi posti di lavoro e non disoccupazione. Viviamo
tutto questo ad una velocità elevatissima.
1. Effetto displacement: alcuni posti di lavoro vengono persi. Ci sono lavori che spariscono, e
questo ha un effetto negativo sulla domanda di lavoro;
2. Reinstatement effect: si generano nuovi posti di lavori, profili professionali che prima non
esistevano. Questo influisce positivamente sulla domanda di lavoro.
Questi tre effetti portano ad
una risultante da valutare: il
cambiamento tecnologico
ha un impatto positivo sulla
produttività, è un driver di
sviluppo, è un driver di
divergenze e comporta un
cambiamento netto nella
domanda di lavoro. Nel
lungo termine l’effetto è
stato positivo, nel breve
termine invece l’effetto di
displacement è stato
rilevante, dobbiamo
aspettarci periodi di crisi.
Ogni Paese ha
forme di
ammortizzazione
sociale per tenere
conto di tutti
questi effetti
(reddito di
cittadinanza).
Vediamo la
correlazione che
c’è tra HDI e reddito pro – capite (è un rank, quindi si intende il posizionamento in una classifica: 1 è
il più alto, 191 il più basso)→c’è forte correlazione: Paesi con alto HDI, hanno anche alto reddito pro–
capite. C’è comunque dispersione, legata alla salute e all’educazione. Quindi questa fu una delle
principali critiche rivolte allo sviluppo umano: ok, va bene introdurre le componenti di salute ed
educazione, ma la situazione cambia poco rispetto al reddito pro-capite→alla fine tra HDI e reddito
pro-capite c’è correlazione…sì, c’è un po’ di dispersione, ma la situazione è molto simile.
LEZ 13: 03/11/2023
Le Nazioni Unite hanno chiesto al dipartimento di sviluppo umano di considerare in maniera sempre
più forte il tema della sostenibilità, non solo ambientale, a tal punto che è necessario inserire nuovi
indicatori (Sustainable HDI).
Il cambiamento tecnologico è sempre più veloce, quindi abbiamo sempre meno tempo per mitigare
gli effetti negativi quali perdita posti di lavoro e problemi di salute (certe tecnologie hanno impatti
sulla salute dell’uomo). Sono aspetti ancora da codificare, ma la questione è che, se ex-ante non ho
tempo per valutare la nuova tecnologia, essa può essere dannosa. Bisogna concentrarsi su ogni
impatto che quel cambiamento tecnologico porta.
Oggi non si può non pensare a un modello di sviluppo che non sia sostenibile, dove per sostenibilità
non facciamo riferimento solo alla sfera ambientale. Mentre tutti parlano di sviluppo sostenibile,
pochi hanno un’idea concreta di quello che è un ragionevole modello di sviluppo sostenibile. Per
quanto si possa essere convinti della correttezza dello sviluppo sostenibile, non sappiamo se una
certa azione è sostenibile o no: l’uso dei computer è sostenibile?→Dobbiamo pensare alla sua
realizzazione ecc. È molto difficile fare valutazioni sulla sostenibilità attraverso delle regole. Non
basta il PIL per valutare lo sviluppo sostenibile, ma dobbiamo guardare ad una finestra più ampia.
1)Maltus ragionò sul fatto che il concetto di sviluppo non è per sé sostenibile (teorie Maltusiane).
Siamo nel 1798, a ridosso della Rivoluzione francese. Watt aveva iniziato da poco a creare energia,
dando inizio alla Rivoluzione industriale. Maltus scrisse un saggio intitolato “On the principle of
population, as it affects the future improvement of society” in cui sostenne la seguente tesi: le
dinamiche demografiche stanno generando un impatto significativo sul futuro della società, le
dinamiche demografiche (la crescita demografica) rendono più critiche questioni come
l’alimentazione (non si produce a sufficienza per sfamare la popolazione che cresce), rende più
vulnerabile la società alle epidemie, genera disordini sociali e conflitti. Il saggio ha una visione
pessimistica: secondo Maltus, in breve, esistono dinamiche demografiche che hanno un impatto
sulle risorse, in senso negativo. Nonostante non avesse visto chissà quale progresso della tecnologia,
già agli inizi dell’800 Maltus era riuscito a cogliere dei concetti concreti. Quando, però, nel ‘900 arriva
lo sviluppo tecnologico, Maltus viene dimenticato, perché il progresso (in ogni ambito) aveva fatto sì
che molti dei timori di Maltus sembrassero svaniti. Il fatto che la società e l’economia stesse
degradandosi affiorò solamente dopo la Seconda Guerra Mondiale: il modello di sviluppo che si stava
costruendo, sotto la spinta da un lato della rivoluzione fordista e dall’altro delle politiche del
consumismo, faceva acqua da varie parti.
2)Discorso di Robert F. Kennedy fatto negli USA all’università di Kansas, nel 1968. Gli USA, come ben
sappiamo, sono un Paese che sostiene il capitalismo, un modello che in quegli anni si stava
confrontando con il sistema sovietico.
È un discorso che mette in discussione il modello di sviluppo attuale. È un discorso che incomincia a
tracciare le regole di un buon modello di sviluppo (se avviene un incidente stradale, il PIL cresce, così
come omicidi perché si comprano armi e il PIL cresce). Riemerge il tema secondo il quale le cose ci
stanno sfuggendo di mano.
3)“I limiti alla crescita (economica)”, fu uno studio fatto da una serie di scienziati del Club di Roma,
nel 1972. Da questo studio nacque un libro che però non ebbe molta risonanza, in quanto vi si
sosteneva che le risorse naturali fossero limitate. Questo, unito all’analisi degli andamenti
demografici e del bisogno di materie prime come acqua, petrolio, prodotti alimentari, portò alla
rapida conclusione secondo la quale il sistema avesse un effettivo limite alla crescita. Da ciò, scaturì,
quindi, come fosse inutile monitorare la crescita del PIL. Un anno dopo, scoppiò la guerra del Kippur
nella quale una coalizione di paesi arabi invase l’Israele che però riuscì a prendere in mano la
situazione e ribaltarla. Un paio di settimane dopo, registrata una sconfitta, il mondo arabo capì che
il mondo occidentale aveva bisogno di combustibili fossili e di petrolio e quindi nel giro di poche
settimane il prezzo della benzina aumentò di 7 volte: il problema ebbe risonanza su tutto il sistema
economico mondiale, poiché di questo aumento ne risentirono non solo i trasporti, ma si ebbe anche
un impatto inflazionistico altissimo. Tutti incominciarono quindi a leggere quel libro, che diventò un
best seller. Nello studio del club di Roma vengono analizzate 5 variabili: la popolazione,
l’industrializzazione, l’inquinamento, la produzione di cibo e lo sfruttamento di risorse. Si dice che
questo studio abbia addirittura influenzato la politica cinese, portando ad una riduzione della
crescita demografica. Anche loro come Maltus, però, non riuscivano a vedere ciò che sarebbe
venuto dopo: la digitalizzazione.
• Se l'attuale tasso di crescita (delle 5 variabili) continuerà inalterato, i limiti della crescita sul
pianeta saranno raggiunti in un momento imprecisato entro i prossimi cento anni → il
risultato più probabile sarà un improvviso ed incontrollabile declino della popolazione e della
capacità industriale;
• È possibile modificare i tassi di crescita e giungere ad una condizione di stabilità ecologica ed
economica, sostenibile anche nel lontano futuro;
20 anni dopo scrivono un libro, “Oltre la crescita”, in cui si diceva che si era riusciti a spostare i limiti
poc’anzi elencati.
4)Nel 1987 le Nazioni Unite realizzarono il Bruntland Report, chiamato “il nostro comune futuro”,
in cui appurarono l’esistenza di un problema nello sviluppo: nasce la consapevolezza che lo sviluppo
DEBBA essere sostenibile. La sostenibilità è legata al bisogno intergenerazionale, secondo il quale
non deve essere compromessa la soddisfazione dei bisogni delle generazioni future. Il Report
Bruntland pone al centro il principio di equità intergenerazionale. A questo, nel 1992, seguì il
Congresso di Rio.
5)Nel 2008, il Presidente francese Sarkozy, istituisce la “commissione Sarkozy”, guidata da Illitz e da
Amartya Sen (che abbiamo visto che lavorava alle nazioni unite per lo sviluppo dell’indice) due premi
Nobel. Questa commissione aveva il compito di determinare una misura delle performance
economiche e del progresso sociale (2009). Lo scopo era comprendere i problemi del PIL e come
misurare il progresso sociale. Essi fecero un ottimo lavoro, perché cercarono di misurare cose
difficilmente misurabili. Loro misero a fuoco un concetto che ora è guida per i governi attuali:
riuscirono a giustificare l’esistenza congiunta del concetto di benessere attuale (current well-being)
e un problema di sostenibilità di questo benessere.
Il benessere si riferisce alle risorse economiche, come il reddito e ad aspetti non economici della vita
delle persone (cosa fanno, cosa possono fare, cosa sentono, l’ambiente naturale in cui vivono).
Quindi non si deve parlare del PIL, ma di cosa è davvero importante gli individui ovvero il benessere.
Bisogna poi preoccuparsi, però, che tutto questo sia sostenibile, e quindi bisogna comprendere come
misurare la sostenibilità. Per fare ciò, si valutò il fatto che c’erano degli stock di capitale che si vanno
mantenuti. Nel dettaglio, esistono il capitale naturale, il capitale fisico, il capitale umano e il capitale
sociale e gli stock di questi capitali si devono mantenere nel tempo. Per misurare la sostenibilità,
quindi, devo misurare questi stock! Ad esempio, come stock di capitale naturale posso calcolare la
quantità di acqua dolce→inoltre, bisogna mantenere quello stock nel tempo, affinché le generazioni
future possano anche loro usufruirne!
Quindi il nodo della questione era capire cosa, dal punto di vista statistico, potesse essere misurato
per fare queste valutazioni.
Seppure la commissione Sarkozy riuscì a capire come misurare questi temi, rimaneva un altro
ostacolo da superare: tutto ciò, infatti, doveva essere accompagnato da una effettiva messa in
pratica. Quindi, ogni Stato cominciò ad attrezzarsi per seguire queste direttive.
In Italia, ad esempio, fu messo in piedi un nucleo di lavoro costituito dall’ISTAT e dal CNEL, che
produrrà il documento detto BES: Benessere Equo e Sostenibile.
La problematica principale affrontata dai paesi fu quella di comprendere quali e quante fossero tutte
le variabili e come misurarle. Si parla infatti di “meta problema”, ossia realizzare una serie di fattori
e di valori, che però devono essere comparati con quelli di altri paesi (che sicuramente avranno
prodotto risultati diversi, seguendo metodologie differenti). Questo determinò la nascita di Eurostat.
Ogni paese ovviamente si focalizzava su diversi fattori: in particolare, nell’Area sud del Mediterraneo,
veniva declinato principalmente un problema legato all’acqua; nel nord, invece, era un problema di
energia.
Nasce l’OECD, che comincia uno studio partendo dal report della commissione Sarkozy, cercando di
“operazionalizzare” i concetti emersi, attraverso dei blocchi sotto riportati:
Come si mantiene la
produzione? Vi sono dei
fattori (inputs) in ingresso
che sono diversi: essi sono
capitale, lavoro e risorse
che sono però originate
essenzialmente da un
sistema creato da una
serie di asset naturali. Si
produce un output legato
al consumo, ai redditi e ai
servizi, ma anche ai
cosiddetti residuals che,
se non vengono riprocessati nel processo di produzione, finiscono di nuovo dell’ambiente. Gli output
che finiscono ai governi danno vita a consumi ed investimenti ma, per beneficiare di questi, devo
comunque fare riferimento a risorse naturali. Quindi, alla fine, tutte le attività economiche si
interfacciano con il sistema naturale.
Riprendiamo dal lavoro della commissione Sarkozy europea sulla misura delle performance
economiche dello sviluppo sociale del 2009. Questo ci diceva che per poter misurare performance
economiche e processo sociale dovevamo guardare sia aspetti relativi a variabili economiche come
reddito ma anche aspetti sociali, relativi a variabili come qualità della vita. Questa, come sappiamo,
è solo una parte della misurazione perché per valutare la sostenibilità delle performance
economiche e sociali dovevamo anche accertarci che fossero sostenibili nel tempo e che si dovevano
poggiare su degli stock di capitale che sono essenzialmente quello naturale, fisico (impianti, apparati
tecnici), quello umano e quello sociale (relazioni sociali). Quindi solo mantenendo adeguati livelli di
questi stock di capitale è possibile mantenere la sostenibilità delle performance economico e sociali.
L’OECD ha stabilito uno schema di misura in base al quale si legano le attività economiche agli asset
naturali e si vanno a considerare sia attività di produzione che di consumo. Entrambe le attività
economiche (di produzione e consumo) hanno un’interazione con il capitale naturale con diverse
frecce: la prima relativa alle risorse naturali in input nel processo produttivo. La seconda, relativa ai
rifiuti immessi nello stock di capitale e la terza, relativa al consumo di risorse che beneficia (bellezza,
salute, sicurezza). Questo schema è stato interpretato da tutti i paesi OECD.
In alto, invece, abbiamo il benessere degli individui e lo si divide in 2 parti: la qualità della vita e le
condizioni di vita materiali. Nel primo rientrano la salute, l’educazione, le skills, le connessioni
sociali, l’impegno civile, la sicurezza personale; nel secondo abbiamo reddito e ricchezza, abitazione,
lavoro e guadagni.
In merito a ciò, l’OECD dice che: mentre sulla qualità della vita si possono misurare effettivamente
gli elementi che la compongono, per misurare il secondo fattore viene utilizzato il PIL, che in parte
misura il reale beneficio in termini di redditi, lavoro e abitazione e in parte “esce dal confine del
benessere umano” e misura anche i cosiddetti “regrettables”, che sono tutte quelle attività che
generano problemi e che non vorremmo che si determinassero, perché contribuiscono al PIL
(inquinamento ecc.), MA NON al benessere (ecco che ritornano le parole di Kennedy).
La possibilità di avere un certo benessere nel tempo si poggia sulla disponibilità di capitale
economico, naturale, umano e sociale e quindi bisogna preservare queste 4 forme di capitale.
Questo framework viene seguito da tutti i paesi dell’OECD, che si basano su questo per misurare il
benessere. Questo framework è quindi costituente l’approccio per la valutazione delle performance
economiche e sociali, tenendo conto della sostenibilità.
BES: BENESSERE EQUO E SOSTENIBILE
Cosa avviene in Italia? A valle dell’esito della commissione Sarkozy, l’Italia avviò un suo progetto di
nome BES (Benessere Equo e Sostenibile): non interviene il PIL o il reddito, ma è il benessere che
deve essere equo (ben distribuito nella società) e sostenibile nel tempo in modo da non annichilire
quelle 4 forme e fattori di capitale. L’idea è quindi di sviluppare anche delle competenze sociali e
ambientali. Si vogliono integrare i fattori economici (PIL ecc.) con delle misure sulla qualità della vita
delle persone e sulla qualità dell’ambiente. L’idea è fare tesoro della commissione Sarkozy e tradurre
quei risultati in indicatori specifici per il nostro Paese. Questo progetto viene affidato ad un gruppo
di lavoro misto in cui vi sono rappresentanti dell’ISTAT e del Cnel, che riuscì a sviluppare un approccio
multidimensionale e quindi un sistema per misurare il BES.
L’idea è che questo gruppo ha prodotto un sistema per misurare tutte le componenti che entrano
nella valutazione del benessere degli individui. Quindi, alla fine, il BES è un insieme di indicatori,
perché l’idea è quella di avere un approccio multidimensionale per fornire una lettura ampia,
integrata e completa.
BES E SDGs
Mentre avveniva tutto ciò in Italia, nel 2016 si aggiunse anche il fatto che le Nazioni Unite avevano
proposto un’Agenda 2030 per lo sviluppo sostenibile, un programma a livello di Nazioni Unite in cui
venivano definiti degli obiettivi di sviluppo sostenibile, noti come Sustainable Development Goals
(SDGs). Questi sono 17 e sono stati declinati in sotto indicatori, andando ad individuare oltre 230
indicatori.
Quindi si crea una visione globale della misura dello sviluppo, in contrasto con quella
monodimensionale basata solo sul PIL.
OSS: Ovviamente il PIL è rimasto, ma ad esso si sono affiancati altri fattori, perché esso non solo non
misura tutto, ma tiene conto anche di cose che non hanno a che fare con il nostro benessere!
Ancora, l’ISTAT produce dal 2013 dei rapporti annuali sul BES, che nel 2016 è entrato a far parte del
processo di programmazione economica del nostro paese: dopo aver testato degli indicatori del BES,
nel 2016 si è deciso di inserire una valutazione dell’impatto delle politiche economiche (policy) su
alcuni indicatori BES nel Documento di Economia e Finanza (DEF) che riporti un’analisi
dell’andamento recente e delle valutazioni sulle policy economiche.
Cosa viene misurato in questo BES?
Ci sono 115 items raggruppati in 12 domini (indicatori) in cui l’ISTAT va a declinare il concetto di BES.
Per ognuno di questi 12 domini vengono definiti degli indicatori (115 in totale). I domini sono i
seguenti:
• Salute;
• Istruzione e formazione;
• Benessere economico;
• Relazioni sociali;
• Politica e istituzioni;
• Sicurezza;
• Benessere soggettivo;
• Ambiente;
1. Reddito disponibile lordo corretto pro capite (correzione che fa riferimento alla statistica);
2. Disuguaglianza del reddito netto (s80/s20) (rapporti tra chi detiene redditi più elevati e di
massa);
5. Eccesso di peso;
8. Rapporto tra tasso di occupazione delle donne 25-49 anni con figli in età prescolare e delle
donne senza figli;
Come viene fatta la selezione? Si scelgono degli indicatori che si ritengono affidabili e che
intercettino determinati bisogni della società (tasso di povertà, eccesso di peso ecc.) e obiettivi che
il governo si pone (CO2 ecc.).
Alcuni di questi indicatori cambiano sulla base di alcuni fenomeni che sono esogeni dal Governi
(esempio calzante è quello della pandemia da COVID). Bisogna ovviamente trovare un allineamento
tra le politiche regionali e nazionali e, conseguentemente anche sugli indicatori.
Mentre in Italia si procedeva con i risultati della commissione Sarkozy, prendeva sempre più piede
un’altra misura, quella dell’impronta ecologica. Questa misura fu stata sviluppata già nel 1990
attraverso degli studi e ha assunto oggi una elevata affidabilità, tant’è che è usata spesso anche in
valutazioni di carattere economico (legandosi alla questione della sostenibilità).
Noi siamo interessati a misurare l’impatto che l’uomo genera sugli ecosistemi presenti sulla Terra e
quindi l’impronta che l’individuo determina nella sua vita, sotto forma di domanda di risorse degli
ecosistemi presenti sulla Terra. Come si genera questa domanda di risorse? Essa la si genera sia
consumando le risorse naturali, ma anche inquinando queste stesse risorse naturali. Se noi
domandiamo qualcosa agli ecosistemi sulla Terra, dobbiamo considerare il fatto che questi sono in
grado di generare nuovamente queste risorse, dopo un certo lasso di tempo. Insieme alla domanda
si genera quindi una valutazione della capacità da parte della Terra di rigenerare quelle risorse che
noi stiamo domandando. Quanto domandiamo e qual è la capacità di rigenerare quanto abbiamo
domandato sono le 2 componenti fondamentali per capire se siamo in una condizioni di equilibrio
o meno con il sistema Terra.
Per ogni Paese è quantificabile un‘ impronta legata al totale della superficie richiesta per produrre
tutto ciò che viene domandato (acqua, alimenti, minerali, ecc.). Ma questa impronta la dobbiamo
considerare sia con riferimento alla terra (intesa come suolo, terreno), sia con riferimento a superfici
acquose e aerose. Quindi, come singolo paese, domandando delle risorse stiamo creando un
assorbimento da parte del sistema Terra (terra + acqua + aria), ossia stiamo generando una
determinata domanda. Dall’altra parte, un paese che dispone di terra, acqua e aria, ha una
determinata capacità di rigenerare queste risorse.
L’idea è che ci debba essere un equilibrio tra domanda e offerta: se la domanda è minore della
capacità naturale siamo in una condizione di equilibrio, viceversa siamo in una situazione di
disequilibrio.
Vediamo dal 1961 un aumento globale della popolazione, che da 3,1 miliardi è arrivata a circa 8
miliardi. Vediamo cosa abbiamo chiesto negli anni in termini di risorse: nel ’61 venivano richieste in
termini di risorse naturali 2,4 ettari globali per abitante, ma ogni abitante ne aveva a disposizione
3,2 (Total Biocapacity che viene calcolata considerando la superficie terrestre con le sue
componenti, dividendo questo valore per la popolazione). Quindi nel 1961 si consumava meno del
limite della terra di generare risorse. Infatti, l’ecological footprint to capacity ratio era pari a 0,74.
Nel ’65 l’impronta ecologica sale a 2,5 e, siccome anche la popolazione aumenta, la total biocapacity
scende a 3 ettari globali, con un rapporto pari a 0.85. Nel ’70 gli ettari globali richiesti e disponibili
sono entrambi pari a 2,8: questo significa che nel 1970 si era in un equilibrio totale, ma si era arrivati
al limite.
Che succede negli anni? La popolazione mondiale è aumentata e la biocapacity proprio per questo
è diminuita, nonostante la total ecological footprint si sia mantenuta pressoché costante. Con un
rapporto tra domandato e disponibile maggiore di 1, stiamo consumando capitale naturale,
erodendo le scorte di capitale naturale a disposizione.
Nel 2008 arriviamo ad un rapporto pari a 1,52, a causa del costante aumento demografico che si è
avuto per quasi 40 anni (e continua tutt’ora). Questo vuol dire che chiediamo 1,52 Terre!
OSS: Anche se noi abbiamo una situazione che si può mediare a livello planetario, a livello di singoli
paesi la situazione si squilibra ulteriormente, diventando ancora peggio di quella a livello planetario!
Guardiamo quest’altro grafico: sulle ascisse abbiamo il HDI e sulle ordinate l’impronta ecologica per
persona. Se plottiamo tutti i paesi (i colori rappresentano i continenti) osserviamo una distribuzione
di punti che assomiglia ad un’esponenziale. Utilizzando le soglie dell’HDI, abbiamo che i paesi che
hanno un alto valore di questo indice, sono quelli che hanno un valore HDI > 0,8, i paesi a basso HDI
sono quelli con HDI < 0,7; guardando alla biocapacity, se nel 1961 era poco oltre 3, nel 2014 si è
ridotta a qualcosa sotto 2 perché è aumentata la popolazione. I paesi al di sotto della biocapacity
sono i paesi africani, poi quelli del medio-oriente si spalmano un po’ ovunque, e al di sotto troviamo
anche dei paesi del pacifico, questi paesi però sono anche quelli con un basso HDI. I paesi europei
sono nella parte di HDI alto ma anche dove la biocapacity è molto elevata.
Si può notare che i paesi con maggiore indice di sviluppo umano, provocano anche maggiore EF.
Il quadrante ideale è quello in celeste, in cui un paese dovrebbe avere un HDI maggiore della soglia
di 0,7 e inoltre una ecological footprint inferiore alla biocapacità della Terra: impossibile.
LA CRESCITA ECONOMICA
Il concetto di crescita economica, così come lo intendiamo oggi (crescita del PIL), è destinato a
cambiare. Il tema del PIL, e di come esso possa essere utilizzato come indicatore della crescita
economica di un sistema socioeconomico, non è un’idea molto antica, e ancora oggi anima l’azione
dei governi, che ovviamente hanno un occhio di riguardo sul PIL per misurare la crescita economica
e per prendere decisioni in termini di politica economica. Cercheremo di capire come legare
l’innovazione alla crescita economica. Iniziamo però a vedere quando la questione della crescita
economica è diventata una questione importante e rilevante a livello di gestione di un Paese, per poi
passare in rassegna i pensieri che gli economisti classici hanno avuto nel tempo. Questo per capire
meglio ciò che sta avvenendo. Per capire quindi cosa intendiamo per “crescita economica”, partiamo
dalle origini. Tutto ha inizio con la Rivoluzione Industriale (prima della Commissione Sarkozy) che
accelerò i processi di produzione (ricordiamo che un processo di produzione consiste nella
trasformazione dei beni naturali in prodotti finiti o servizi).
Vediamo ad esempio il PIL pro capite del Regno Unito, paese in cui è partita la Rivoluzione.
Adam Smith (1732-1790) fu l’economista che incominciò a vedere gli effetti dirompenti delle
macchine, che entrarono nei primi grandi centri di produzione artigianale per generare forza
motrice. Vide gli effetti del cambiamento tecnologico, le prime forme di industrializzazione ed
esaminò come il cambiamento tecnologico poteva essere utile per migliorare lo stato della società.
Nel dettaglio, egli esaminò la relazione tra cambiamento tecnologico, divisione del lavoro e
cambiamento strutturale dell’economia. Individuò il concetto di divisione del lavoro: la divisione del
lavoro aumenta la produttività→ bisogna frammentare il ciclo produttivo, così ognuno diventerà
specialista di una parte del lavoro. Questo fu possibile perché iniziarono a comparire le prime
macchine motrici a vapore, i primi telai meccanici, che permisero proprio la specializzazione del
lavoro. Secondo Adam Smith, il processo tecnologico viene incorporato nei beni capitali, i beni che
servono a produrre e che portano ad una specializzazione del lavoro e quindi ad un aumento della
produttività. Adam Smith, però, non si concentrò sul processo di generazione di innovazioni.
David Ricardo (1772-1823) visse dopo Watt e incominciò a vedere la diffusione delle macchine in
tutte le industrie, non solo in quelle dell’acciaio, ma anche nelle tessili ad esempio. Secondo Ricardo,
questo effetto del progresso tecnico è rilevante ma ha una dinamica un po’ più complessa di quella
vista da Smith. Il processo tecnologico ha una natura esogena e una natura endogena. Dal punto di
vista endogeno l’innovazione porta a una riduzione dei prezzi e ad un aumento della domanda; se
riduco i prezzi, divento più competitivo, ho margini maggiori e posso aumentare i salari (o reinvestire
quel margine); aumentando la domanda, produco di più e quindi si mette in moto un meccanismo
fondamentale: un meccanismo basato sul consumo. Dal punto di vista esogeno, se ho innovazione,
divento più produttivo e grazie alle macchine posso ridurre il numero di persone; quindi, l’effetto
esogeno è la riduzione del livello di occupazione, che viene visto come un effetto positivo.
Secondo Karl Marx (1818-1883), l’innovazione è incorporata nelle macchine e che un nuovo settore,
ossia il settore dei produttori di macchine sta nascendo e le trasformando le macchine da inefficienti
a standardizzate. Si concentra sul concetto di standardizzazione (precursore del fordismo e del
taylorismo) e sugli effetti sociali dell’innovazione. L’innovazione è una dinamica complessa, non c’è
solo l’inventore ma c’è un processo sociale che porta allo sviluppo dell’innovazione e alla sua
incorporazione nelle macchine. C’è una contrapposizione di interessi tra il produttore della macchina
(il capitalista) e il lavoratore. Investendo capitale sul bene macchina, questo darà un ritorno di
capitale e la possibilità del capitalista di appropriarsi della rendita capitalistica→lotta di classe tra
capitalista e lavoratori. Marx afferma che bisognerebbe aumentare i salari visto che quel capitale è
generato grazie ai lavoratori e così nasce un conflitto tra lavoratori e capitalisti. Questa questione è
ancora viva e presente nella società di oggi, e l’obiettivo è quello di ricucire questo divario.
Fino a Marx si associava la crescita economica alla crescita dei redditi. La crescita economica viene
definita in maniera più puntuale da Schumpeter, il primo grande economista dell’innovazione.
Secondo Schumpeter (1883-1950), infatti, l’innovazione non era all’origine del processo di crescita
ma era all’origine del processo di sviluppo. Schumpeter quindi differenzia quindi crescita e sviluppo,
cosa che gli economisti del passato non avevano fatto. La crescita economica è definita come un
processo graduale di espansione produttiva (si producono più beni dello stesso tipo con gli stessi
metodi), lo sviluppo invece è un fenomeno radicale, che porta ad una trasformazione dei processi
produttivi e all’introduzione di nuovi beni. Si dà un’accezione diversa al concetto di sviluppo.
Gross Domestic Product (GDP) (o PIL in italiano): tutti i redditi che risultano dalla produzione di beni
e servizi che avvengono in un dato paese (home economy), non ci si preoccupa di chi è possessore
del reddito in quel paese. Tedesco, Austriaco o Italiano, l’importante è che la produzione avvenga in
QUEL paese. Quindi, se un italiano fa un investimento in una società in Brasile, questo investimento
NON rientrerà nel PIL Italiano, perché non è interno al paese.
Gross National Product (GNP): (o PNL in italiano) è il GDP più i redditi che vengono percepiti dai
residenti in quel paese, anche con beni all’estero. Esclude TUTTI i redditi che vengono prodotti in
quel Paese ma sono prodotti da persone che NON risiedono in quel Paese. Pone enfasi sulla
nazionalità di chi detiene i mezzi produttivi e i redditi.
→ Quando si parla di sviluppo economico di un paese ci sono diverse variabili che entrano in gioco.
A livello internazionale, la variabile più accreditata è l’HDI, che abbiamo analizzato nelle lezioni
passate.
Concentriamoci sulla crescita economica, e andiamo a vedere nei paesi sviluppati cosa succede alla
crescita del PIL. In questo grafico troviamo una valutazione della variazione % degli output:
Quali fattori determinano la crescita economica? È solo il progresso tecnico o c’è altro?
I fattori della crescita sono: capitale fisico, capitale umano, risorse naturali, progresso tecnologico.
Se utilizzo il capitale fisico, man mano si degrada; quindi, per mantenere lo stock di capitale fisso
devo investire, cioè, far realizzare altre macchine che a sua volta devono essere realizzate.
Il capitale umano è uno stock di risorse umane, da un punto di vista delle dinamiche economiche è
a tutti gli effetti una risorsa che ci serve nella produzione. Quando parliamo di capitale umano non
dobbiamo considerare solo il numero di persone ma anche il loro grado di addestramento, si fanno
investimenti al fine di aumentare il capitale umano.
Tra gli economisti si sta concretizzando sempre più l’idea che a concorrere maggiormente alla
crescita economica sia il capitale umano rispetto al capitale fisico. Questo perché probabilmente la
componente “soft” dell’attività produttiva (gestione, relazioni, comunicazione ecc.) è più impattante
ed importante della componente “hard” dell’attività produttiva (i processi in sé).
In generale, capitale fisico e capitale umano sono tra loro collegati: se ho uno stock di capitale fisico
elevato, è necessario uno stock di capitale umano elevato, con un grado di addestramento elevato.
Capitale fisico e capitale umano si devono legare e combinare in maniera organica, non possono
essere slegati tra loro. Quindi, un paese con un capitale fisico poco sviluppato difficilmente riuscirà
a trattenere nei propri confini un capitale umano sviluppato!
Le RISORSE NATURALI sono gli input produttivi non prodotti. Ne esistono di due tipi:
• Riproducibili: tendono a rigenerarsi in tempi brevi (una foresta, un banco di pesci, ecc.),
anche se l'intensità dello sfruttamento, oltre una certa soglia, può pregiudicarne il rinnovo;
• Non riproducibili: esistono in quantità finita, oppure si rinnovano nell'arco di intervalli di
tempo molto lunghi, per cui una volta che le riserve siano esaurite, è impossibile crearne
quantità ulteriori (per esempio, terra coltivabile, petrolio, minerali) nell’orizzonte temporale
di riferimento.
Le risorse naturali hanno un rapporto problematico con la crescita: ci sono molti paesi ricchi di
numerose risorse naturali, ma che non riescono a sfruttarle adeguatamente. Basti pensare al
Venezuela, ricchissimo di petrolio, la Nigeria, ricchissimo di uranio: tutti questi paesi NON riescono
a sfruttare adeguatamente queste risorse perché sono povere di capitale fisico e capitale umano.
Questo porta questi paesi a fare concessioni di queste risorse naturali verso altri paesi stranieri→
“dannazione delle risorse naturali”: ho le risorse naturali ma non riesco ad utilizzarle!
Ci sono poi paesi in grado di gestire al meglio le proprie risorse naturali e riescono a svilupparsi.
La TECNOLOGIA indica l'insieme dei processi produttivi disponibili in un determinato momento nel
sistema economico al fine di produrre un certo bene. Viene generalmente intesa in una dimensione
statica in quanto si riferisce a uno stato delle conoscenze tecnologiche che è proprio della globalità
delle imprese operanti in un medesimo settore (presupponendo un contesto di perfetta trasmissione
delle informazioni). Sono processi con cui utilizziamo capitale fisico, umano e naturale per realizzare
trasformazioni ad ottenere gli output finali destinati al mercato finale.
Stiamo andando verso una economia sempre più basato sulla conoscenza→ knowledge-based
economy. Le economie si stanno sempre più materializzando, ma dall’altro lato si stanno anche
dematerializzando perché aumenta lo stock di conoscenze, e ciò è fondamentale perché produce
valore; si va incontro a sistemi economici sempre più basati sulle conoscenze. Per generare nuova
conoscenza, innoviamo e quindi siamo più competitivi: l’innovazione è causa di competitività.
La crescita economica è una valutazione dell’espansione della produzione e quindi per valutarla
utilizziamo il PIL.
Abbiamo capito che esistono 4 fattori di crescita. Adesso vogliamo trovare una relazione strutturata
tra il PIL e questi fattori.
Possiamo scrivere una funzione di produzione dove l’output a livello aggregato, cioè il PIL, è una
funzione dei fattori di produzione impiegati ovvero capitale (K) e lavoro (L) e dell’efficienza del loro
impiego (y)
PIL = Y = f (K, L, y)
Il PIL è in una relazione funzionale con capitale e lavoro. Fondamentale è la combinazione dei due
fattori, che devono essere impiegati in modo efficiente.
Sì, ma che vuol dire “aumentare il fattore lavoro”? Vuol dire aumentare la popolazione in età
lavorativa. E se abbiamo un calo demografico? Si riduce L e quindi il PIL! Nel breve termine per
contrastare la riduzione di L posso solo favorire l’immigrazione; nel lungo termine posso fare
politiche a sostegno dele famiglie.
Sì, ma che vuol dire “aumentare il capitale fisico”? Vuol dire fare maggiori investimenti. Un esempio
è il PNRR, che in Italia ha l’obiettivo di generare un delta K positivo per ogni anno, spingendo verso
la crescita del PIL. Il drawback è la possibilità di creare disoccupazione da un lato e aumento
spropositato del capitale dall’altro. Iniettare nell’economia di un paese, all’improvviso, un capitale
elevato, genera un impiego NON efficiente di capitale e lavoro. Il PIL, alla fine dei conti, è una ricetta:
ho bisogno di un po’ di capitale e un po’ di lavoro, e questi fattori produttivi devono combinarsi
organicamente per produrre l’output. Se aumento improvvisamente un fattore a parità dell’altro,
questo aumento non sarà efficiente!
Quindi l’aumento del PIL a seguito dell’aumento di uno dei due fattori, a parità dell’altro, genera una
crescita anomala del PIL, che è tutt’altro che efficiente.
La produttività media del lavoro dipende dalla dotazione di capitale fisico, capitale intellettuale,
risorse naturali per unità di lavoro, nonché stato della tecnica e delle conoscenze. Se aumentassimo
lo stock di capitale, a parità di L aumenta il PIL e quindi la produttività media del lavoro.
Per aumentare il PIL posso: aumentare l’occupazione; aumentare il numero di ore lavorative annue
(tenendo costanti le altre variabili); aumentando la produttività oraria (a parità delle altre variabili).
Il fattore lavoro è quindi il prodotto di numero di occupati e ore lavorative annue. Di conseguenza,
nella produttività oraria avremo il contributo del fattore capitale e dell’efficienza di utilizzo dei fattori
di produzione (e quindi della combinazione di capitale e lavoro). Più il capitale cresce, combinandosi
col fattore lavoro, più esso contribuisce alla crescita del PIL.
La produttività oraria è il valore del prodotto generato per ogni ora di lavoro di un occupato. Ci dice
come tutti gli altri fattori si combinano con l’unità di fattore lavoro. Dipende dallo stock di capitale
fisico, dall’efficienza dell’impiego del fattore lavoro e del fattore capitale, è un valore fondamentale
che dobbiamo tenere sempre sotto controllo: più siamo produttivi in termini di produttività oraria,
più valore creiamo. Questo valore in più che viene creato, che fine fa? È possibile grazie a questo
valore riconoscere un incremento di salario ai dipendenti.
La perdita dei posti di lavoro non è solo un problema sociale, ma anche economico perché vedo il
PIL ridursi, ma posso vedere il numero di occupati ridursi perché non ho personale, la popolazione
invecchia: entrano in gioco le dinamiche demografiche. La crescita demografica ha un impatto
fondamentale sul fattore L. Con i migranti questo problema potrebbe risolversi, quindi anche la
politica sui migranti diventa una politica economica.
Le ore lavorative annue sono definite dai contratti, con il tempo tendono a diminuire perché
l’umanità vuole affrancarsi dal lavoro.
Se voglio aumentare il numero di occupati e ridurre le ore lavorative, come faccio ad aumentare il
PIL? Entra in gioco la produttività oraria. Cerco di produrre di più nel tempo; se amento di tanto la
produttività così come è successo dall’800 in poi posso ridurre le ore lavorative annue. La produttività
dipende dalla tecnologia, dai mezzi che ho a disposizione. Se si è capaci di aumentare la produttività
oraria abbiamo risolto ogni problema: non è necessario che aumenti la popolazione, i migranti non
sono più importanti dal punto di vista della forza lavoro, posso ridurre le ore di lavoro. Se aumento
la produttività oraria posso aumentare i salari, ma per fare questo devo aumentare lo stock di
capitale e tecnologia.
Qualsiasi discorso sul PIL, quindi, richiede sempre di menzionare l’aumento della produttività oraria.
ESERCIZIO:
Siamo in Italia, nel 2006. Gli occupati sono in media 2297800 (fonte Istat), con 1600 ore lavorative
annue medie. Sapendo che il PIL è pari a 1475 miliardi di euro, determinare la produttività oraria.
Prima riflessione: il divario tra la popolazione complessiva e gli occupati rappresenta proprio la
disoccupazione, che genera un ritorno negativo sul PIL! Ridurre la disoccupazione mi permette di
avere una crescita del PIL senza agire su ore lavorative e produttività oraria.
Otteniamo la produttività oraria dalla formula inversa che lega il PIL al fattore lavoro e alla
produttività oraria. Potremmo calcolare la produttività oraria in ogni anno, per vedere come essa
varia. Essendo la produttività il valore creato per ora lavorata nel paese, bisogna considerare che
questo valore tiene conto di TUTTI gli occupati di un Paese, dall’operaio al dipendente pubblico. Ci
da informazioni sull’efficienza della combinazione del fattore capitale col fattore lavoro, oltre che la
dotazione di capitale presente in quel paese in quell’anno.
C’è però un’altra considerazione: questo valore è un valore medio→mediamente, con quel valore
non posso remunerare l’ora lavorata in Italia. Questo valore deriva dal PIL. Questo vuol dire che quel
valore di 40,1 in parte compenserà salari e stipendi, in parte remunererà l’imprenditore, in parte
alimenterà il sistema economico del paese, tramite imposizioni fiscali e finanziamento del
welfare→più cresce la produttività oraria, maggiori saranno salari e stipendi, remunerazione
dell’imprenditore e finanziamento del sistema economico del paese! Quindi la produttività è la
chiave: essere in grado di aumentarla permetterebbe di risolvere moltissimi problemi. La
produttività è lo stato di salute del sistema economico, è la capacità di generare PIL. In Italia sta
crescendo pochissimo da più di 20 anni. È il termometro dell’economia del Paese. Attenzione: un
Paese che ha produttività elevate, pur avendo stipendi e salari maggiori, rimane comunque
competitivo perché ha una maggiore produttività oraria.
Facciamo un ragionamento:
Bisogna distinguere PIL reale da PIL potenziale. Il PIL reale è il PIL effettivo del paese; il PIL potenziale
è il massimo ottenibile se non avessi disoccupazione! Il PIL potenziale è il PIL massimo ottenibile in
quel paese con quei fattori, ma poiché non riesco a tenere massima l’occupazione (ci sarà sempre
un certo grado di disoccupazione*) avrò un PIL reale. Tanto maggiore è il divario tra PIL potenziale e
reale, tanto più il paese sta lavorando al di sotto delle sue possibilità, e si trova quindi in condizioni
di depressione economica.
*anche in una situazione ipotetica in cui tutti siano occupati, ci sarà sempre un livello minimo di
disoccupazione dato da tutti quegli occupati che passano da un’occupazione ad un’altra
(turnaround).
Il fattore capitale è l’insieme dei macchinari, impianti e beni/attrezzature necessari per svolgere
l’attività produttiva. Sappiamo che il PIL è condizionato dal capitale e in particolare dallo stock di
capitale (capitale fisso) che nel momento in cui cresce fa osservare una crescita del PIL a parità di
fattore lavoro.
Bisogna prestare attenzione al livello del “PIL reale”. Il livello del PIL reale, infatti, dipende anche dal
grado di sfruttamento dello stock di capitale disponibile: se lo stock di capitale viene parzialmente
sfruttato, come ad esempio un impianto che non viene utilizzato al massimo, il PIL reale è inferiore
al caso di pieno sfruttamento. Se lo stock di capitale è sfruttato al 100% mi aspetto di produrre il
valore del PIL. Se invece non è sfruttato al 100%, ho un PIL reale che differisce da quello potenziale.
Più innalzo il grado di sfruttamento degli impianti più sono in grado di innalzare il PIL reale. Il grado
di sfruttamento non è mai al 100%. In generale le imprese non operano mai al massimo livello dello
sfruttamento dello stock di capitale: si fa un investimento per 100 sapendo che gli impianti vengono
utilizzati al 80-85% perché le imprese vogliono mantenersi un margine di crescita laddove la
domanda dovesse aumentare. Il PIL potenziale non viene MAI raggiunto.
Ne consegue che, quando si va ad effettuare le misure dello sfruttamento dello stock di capitale si
hanno spesso sorprese: lo stock di capitale viene spesso utilizzato in maniera eccessivamente
prudente (il 60-70% dello sfruttamento è un valore molto vicino alla realtà). Questo perché nel
calcolo si considerano tutti gli impianti attualmente fermi per modifiche, manutenzioni, revamping
ecc. ma anche tutti gli impianti fermi posseduti da imprese che sono fallite. Al crescere del capitale
sfruttato cresce il PIL reale.
La macchina economica di un paese, guidata dai fattori capitale e lavoro e dalla loro combinazione,
è fortemente influenzata da fattori che generano una riduzione dell’output (PIL) dal suo valore
potenziale, al suo valore reale. Le politiche economiche di un paese sono tutte quelle politiche volte
a migliorare la combinazione tra fattore capitale e lavoro, al fine di ridurre il divario tra PIL reale e
potenziale.
La crescita dipende dal livello di lavoro e capitale. Se voglio crescere attraverso il fattore capitale
devo fare investimenti che portino ad aumentare lo stock di capitale: questo è il cosiddetto processo
di accumulazione di capitale. Ogni volta che faccio degli investimenti e incremento lo stock di
capitale, incremento anche il PIL. L’accumulo di capitale, l’acquisizione dei mezzi produttivi, avviene
per mezzo degli investimenti. L’investimento si genera risparmiando→È questo il tema che Harrod e
Domar vogliono esaminare, essendo convinti che il modello di crescita economica sia influenzato
dalla propensione al risparmio e dalla produttività di capitale. Questo modello è stato il precursore
del modello di crescita esogeno. Stante il fattore lavoro, più cresce il capitale, più cresce l’economia:
devo fare accumulazione di capitale, e per fare questo devo investire. Ma quegli investimenti
provengono dai risparmi. Si è intuita la presenza di un legame tra stock di capitale (che permette di
far crescere il PIL) e il risparmio che quell’economia può generare. Risparmio e consumo, insieme,
costituiscono il totale del PIL, perché di questo una parte sarà destinata ai consumi, e l’altra parte ai
risparmi. Potrò far leva sul risparmio, generato dal PIL stesso. Esiste una relazione tra risparmio e
incremento di capitale che consente la crescita economica.
Harrod e Domar costruiscono un modello che serve per calcolare e capire quanto vale (se esiste)
un tasso di crescita in condizioni di equilibrio del sistema economico. Equilibrio significa che si
ipotizza una condizione in cui i risparmi vengano convertiti totalmente in investimenti. Il consumo
alimenta la domanda mentre i risparmi vengono trasformati in investimenti per aumentare lo stock
di capitale.
C + S = GDP
Sappiamo che il livello dei risparmi è funzione del livello di GDP→S è una frazione del GDP:
S = sY
Dove s è un numero compreso tra 0 e 1. Se avessimo 0 a fronte di un PIL pari ad Y non avremmo
risparmi. Se s fosse pari a 1, avremmo i risparmi esattamente pari al PIL. s è chiamato propensione
marginale al risparmio. (s = 0,3 vuol dire che il 30% del PIL è destinato al risparmio e il 70% del PIL
è destinato ai consumi). Quindi i risparmi totali sono pari al totale dell’output moltiplicato per la
propensione marginale al risparmio!
Consideriamo ora il livello del capitale K. Per produrre Y ho bisogno di capitale. Osserviamo che, per
produrre un certo livello di reddito o di PIL pari a Y abbiamo bisogno di uno stock di capitale che è
un certo rapporto con Y. Se devo produrre 1000€ di PIL avrò bisogno di uno stock di capitale
normalmente superiore a 1000.
K = σY
Con il risparmio faccio gli investimenti e gli investimenti servono per aumentare gli stock di capitale.
Se osservo che esiste un rapporto pari a σ che nel breve/medio periodo resta costante, ho una
possibile crescita del PIL, Δ Y legata alla crescita del Δ K.
ΔK=σΔY
L’incremento dello stock di capitale fisso è quindi responsabile dell’incremento di Y, che potrà
crescere quanto può crescere il capitale, sotto la mediazione del fattore σ. In condizione di equilibrio
sappiamo che gli investimenti sono uguali ai risparmi. Quindi: ottengo un’equazione che in
condizioni di equilibrio mi dice che ciò che io posso risparmiare si tramuta in investimento che fa
aumentare Δ K e quindi Y.
Di conseguenza se
I= Δ K = σ Δ Y
I=S, allora σ Δ Y= sY
E quindi:
g = Δ Y/Y = s/σ = s (Δ Y/ Δ K)
Questo ci fa capire che il tasso di crescita economica è vincolato dal rapporto di s/σ, non posso
crescere come voglio. Questo modello ci dice che non possiamo andare dove vogliamo con il nostro
sistema economico. L’unico tasso di crescita possibile è s/σ.
Si possono fare azioni di crescita economica per favorire l’economia. Se voglio aumentare g e
considero σ costante, dovrò aumentare s e quindi aumentare la propensione marginale al risparmio
delle famiglie. Bisogna quindi invogliare le famiglie a risparmiare di più. Con più risparmio ho più
investimento quindi più capitale e quindi maggiore PIL a parità di s. È importante far aumentare s.
Ciò significa invogliare le famiglie a non consumare, sono di solito famiglie con redditi molto elevati
che consumano molto ma sono anche in grado di risparmiare. Famiglie con redditi bassi tendono a
consumare. Se aumento la propensione al risparmio devo ridurre la propensione al consumo, per
come funziona il sistema economico questa situazione non è vista di buon grado dalle imprese.
Per aumentare g, a parità di propensione al risparmio, bisogna ridurre σ, vuol dire essere in grado di
produrre lo stesso PIL con meno K. Il modello di Harrod-Domar è quindi semplice ma fortemente
formativo per capire le componenti della crescita economica. Ci suggerisce una serie di approcci per
poter incrementare la crescita economica.
Se ho un certo stock di capitale e voglio aumentare Y devo avere un σ piccolo. Per mantenere uno
stesso output, l’ideale sarebbe avere un σ piccolo, meglio ancora se prossimo a zero. σ è influenzato
dal progresso tecnico: in un’economia l’effetto del progresso tecnico si rileva su s perché a parità di
tutto se riesco a produrre lo stesso output con meno capitale vuol dire che sto facendo progresso
tecnico. s negli effetti di sviluppo tende a crescere perché aumentando Y devo aumentare lo stock di
capitale, l’andamento di σ va esaminato, non lo posso descrivere a priori. σ ha un valore più grande
di Y.
Assumiamo un’economia attualmente operante con una capacità produttiva di Y = 1000 e σ = 3. Devo
avere uno stock K = 3000. Assumiamo una propensione marginale al risparmio s = 0.3 e quindi
propensione ai consumi è 0.7. Il tasso di crescita g = 0.3/3 = 0.1→ossia, quell’economia ha possibilità
di crescere (incremento di Y) del 10% all’anno! In condizioni di equilibrio, questa economia cresce a
un tasso del 10%. È un tasso robusto: nella realtà avere un tasso di 1% è già tanto, perché la
propensione al risparmio è bassa, si aggira attorno allo 0.1-0.15.
OSS: La propensione al risparmio è maggiore nei paesi a redditi elevati perché loro posso
risparmiare.
Allo stato dell’esempio, con un PIL di 1000, il livello di risparmio è 0.3 x 1000 = 300 (destinati al
risparmio).
La crescita del PIL è 0.1 x 1000 = 100 (quanto possiamo crescere in termini di PIL). Quindi ci
aspettiamo che l’economia possa crescere da un PIL di 1000 ad un PIL di 1100.
L’incremento di PIL, però, deve essere compatibile con lo stock di capitale. Allora, poiché σ è 3, devo
aumentare lo stock di capitale di 300→ K = 3 x 100 = 300, che guarda caso è proprio pari ai risparmi
disponibili.
Gli investimenti dell’anno successivo saranno pari a 330 (il 10% di 1100 è 110, che con un σ di 3
richiede un incremento di stock di capitale di 330).
Attenzione:
La domanda del consumatore è di 770. La somma di 770 e 330 è 1100, cioè il nuovo output.
In buona sostanza, se voglio crescere devo essere sicuro di avere disponibilità di risparmio per poter
effettuare l’investimento, che sono quelli necessari per far aumentare lo stock di capitale che deve
garantire la crescita economica.
Il tasso di crescita deve essere compatibile con le nuove condizioni; i 330 devono essere proprio
quelli necessari per incrementare lo stock di capitale.
Possiamo lavorare su σ? È legata alla struttura economica quindi non la posso cambiare. Posso agire
su s, ma non è semplice, è legato al comportamento dei consumatori. Bisogna far accrescere K e
come si fa? Investimenti! I = ΔK, devo investire, solo così aumenta il PIL. Per investire devo
risparmiare. Ma se ho una Y grande devo garantire in condizioni di equilibrio che ci sia uno stock di
capitale incrementato (di 330 se ritorno all'esempio di prima), posso allontanarmi da una situazione
di equilibrio ma solo per poco perché poi dovrò restituire parte del capitale e lo prenderà da S.
ESERCIZIO 2:
s = 16 %
Y = 1800 bn Euro
σ = 3.0
I = Δ K = σ Δ Y = 3.0 Δ Y;
Δ Y = 288/3 = 96 bn Euro
Questi dati sono molto simili a quelli dell’economia italiana: in queste condizioni, l’economia
crescerebbe del 5%, e sarebbe fantastico se fosse vero.
Vediamo le
propensioni
al risparmio
dei diversi
paesi.
Possiamo
fare molte
riflessioni su
questo
grafico: in
Italia, dal
22% nel 1996 si è scesi al 12% nel 2011. l’Italia era, tra tutte le economie dell’area Euro, quella a
risparmiare di più. Adesso, invece, è l’economia che risparmia di meno! È aumentata la propensione
al consumo e quindi la domanda. Avere una più bassa propensione al risparmio, a parità di σ,
comporta per il modello di H-D un tasso di crescita minore! Questa riduzione del tasso di crescita in
Italia è anche significativa: abbiamo un quasi dimezzamento della propensione al risparmio, e quindi
un quasi dimezzamento del tasso di crescita! La Germania, d’altro canto, è il paese con la maggior
propensione al risparmio, e quindi con il maggior tasso di crescita (insieme alla Francia). La Spagna
ha un andamento particolare: ha un aumento della propensione al risparmio negli anni della crisi e
poi ha una diminuzione, come l’Italia. Regno Unito e Stati Uniti presentano una propensione al
risparmio molto bassa rispetto ai paesi euro: quei paesi sono più propensi al consumo, e quindi
hanno dei tassi di crescita più bassi di quelli europei secondo il modello di H-D. In realtà, scopriamo
che quei paesi hanno dei tassi di crescita più elevati di quelli dei paesi europei, e dovremo capire
perché!
Questo grafico ci insegna nuovamente che, riducendo la propensione al risparmio, il tasso di crescita
in condizioni di equilibrio è più basso.
ESERCIZIO PER CASA: quali parametri strutturali del sistema economico (s e σ) garantiscono un tasso
di crescita pari al 4%, con un PIL di Y=1800 bn euro?
Questo è un limite del modello di H-D, che vede come unica strada per la crescita l’aumento dello
stock di capitale impiegato, senza soffermarsi sull’innovazione tecnologica e sulle conseguenze che
ne derivano.
Quindi la produttività del lavoro (e quindi la crescita economica) aumenta sia aumentando lo stock
di capitale sia aumentando il progresso tecnico. Ma quale di queste due componenti influisce di
più?
Prima, ai tempi del modello di H-D, ciò che oggi è indicato come progresso tecnico era in realtà
descritto come un residuo statistico. Vale a dire, cioè, che esisteva una componente della crescita
che non era spiegata dall’aumento osservato nell’impiego dei fattori. Cioè, si andava ad imputare ad
altri fattori la causa della non totale correlazione tra incremento della produttività e incremento del
capitale pro-capite. L’incremento del capitale pro-capite NON era il solo responsabile della crescita
economica, come invece sosteneva il modello di H-D. In più, esso non era affatto la componente
predominante! Era quello che si considerava “residuo” ad essere la fonte principale della crescita.
Questo fu spiegato meglio dall’Analisi empirica di Solow (1957).
Attraverso questo studio, Solow analizzò l’andamento del PIL pro-capite negli Stati Uniti nel periodo
1909 – 1949. Concluse che non era l’incremento dello stock di capitale importante, ma era più
importante il progresso tecnico. Il progresso tecnico era la fonte principale di crescita, mentre
l’apporto dell’aumento nella produttività del lavoro, indotta da un incremento del capitale pro-
capite, aveva un ruolo secondario. Il famoso “residuo statistico” era in realtà il responsabile
dell’87,5% dell’incremento della produttività e quindi della crescita economica. Quello che invece si
pensava essere il vero motore della crescita economica, spiegava solo il 12.5% dell’incremento di
produttività. Attenzione, però: lo studio di Solow trae conclusioni circoscritte al periodo storico
(1909-1949) e al paese di riferimento (USA), e non possono essere generalizzate al mondo intero.
Questo aprì a prospettive totalmente nuove ai sistemi economici e alle politiche economiche. Le
politiche economiche passarono a focalizzarsi sul progresso tecnico e sulle innovazioni tecnologiche.
Solow fu influenzato dal pensiero di Schumpeter: ecco l’economia dell’innovazione→i governi
capiscono che occorre investire in innovazione tecnologiche, per spingere l’incremento della
produttività oraria e quindi la crescita economica! Conta più investire meglio che investire tanto.
L’interesse verso l’incremento dello stock di capitale resta comunque, ma a differenza del modello
di H-D questo non è più l’unico aspetto da considerare.
Osserviamo che, indipendentemente da quella che sarà poi la necessità di restituire parte di questo
finanziamento, il PNRR genera un incremento delle risorse disponibili per gli investimenti. Nel primo
anno, all’investimento che viene dalle risorse endogene al sistema, ossia quello tramite il risparmio
I=sY=180 miliardi di euro (in condizioni di equilibrio i risparmi sono tutti tramutati in investimenti),
si aggiunge la quota esogena, proveniente dal PNRR, 210/3 = 70 miliardi di euro. L’effetto del PNRR
è quindi quello di aumentare le risorse disponibili per gli investimenti al valore I’=250 miliardi di
euro. Sapendo che I’=σΔY’ e ΔY’ è proprio l’incremento del PIL che si verifica nel primo anno, avremo
che ΔY’=I’/σ=250/3=83 miliardi di euro→quindi il PNRR aumenta di 23 miliardi l’incremento del PIL.
Questo comporterà un nuovo tasso di crescita, che non è più pari a s/σ, che si basa invece sulle
condizioni di equilibrio tra risparmi e investimenti→questo equilibrio non vale più perché c’è anche
la quota esogena degli investimenti→g’= ΔY’/Y=83/1800=4,6% →grazie al PNRR ci aspettiamo che il
tasso di crescita aumenti, e questo avviene in maniera significativa, dal 3% al 4,6%.
Questo, per quanto riguarda il primo anno. Nel secondo anno lavoreremo su una Y+
ΔY’=1800+83=1883 miliardi di euro. Quindi, la componente endogena dell’investimento sarebbe
I=sY=0,1+1883=188,3 miliardi di euro →l’effetto del PNRR è quello non solo di sollecitare gli
investimenti nel primo anno, ma anche quello di presentare effetti positivi legati ai ritorni legati agli
investimenti sostenuti nel primo anno, negli anni successivi. Oltre I, aumenta anche Y negli anni
successivi. Seguendo i calcoli del primo anno, avremo nel secondo anno ΔY’=86 miliardi di euro, che
sommati a Y=1883 daranno il PIL per il terzo anno, che costituirà una componente endogena degli
investimenti I=0,1*(1883+86) e ad una ΔY’=89 miliardi di euro, ottenendo quindi un PIL alla fine dei
3 anni di finanziamento pari a 2058 miliardi di euro.
Ora, che succede quando finisce il PNRR? Verrà meno la componente esogena, e il paese continuerà
a crescere tramite la componente endogena, ossia le risorse provenienti dai risparmi. Il PNRR ha,
però, permesso ad Y di crescere più velocemente rispetto a come avrebbe potuto fare tenendo solo
conto degli aspetti strutturali del sistema economico (σ e s).
Il problema è che parte del PNRR va restituita! Quindi, parte delle risorse risparmiate saranno
destinate alla restituzione del finanziamento, quindi si avrà una riduzione di s. Questo è lo schema
su cui si basa e opera il PNRR. Il modello di H-D consente di fare molte valutazioni importanti: la
restituzione del finanziamento causa una riduzione di s, che riduce la crescita negli anni successivi al
PNRR→gli investimenti futuri al PNRR si ridurranno perché ci sarà una componente negativa legata
alla restituzione del prestito per cui I’=I-ΔY. Questo porterà, purtroppo, ad una riduzione di g, che
sarà condizionato da questi effetti, che causano la perdita delle condizioni di equilibrio.
OSS: non abbiamo considerato per niente la variabile lavoro, perché il PNRR incide solo sul capitale.
In realtà, questi investimenti sono mirati anche a far crescere l’occupazione nel sistema economico.
In termini aggregati, noi dobbiamo sempre pensare alla funzione produzione Y= f (K, L, y) che ci
descrive la presenza di una combinazione ottimale di K e L. Che succede quindi se genero un ΔK’>ΔK?
Ci si aspetterebbe un ΔL’>ΔL adeguato al ΔK’. La generazione di un impulso di K, in realtà, NON genera
il corrispettivo in L! Aumentare impulsivamente il capitale non genera l’adeguato aumento di
lavoro→avremo il cosiddetto shortage, ossia il fenomeno di indisponibilità di forza lavoro per coprire
l’aumento di capitale. Quindi si avrà un problema di efficienza, per cui si arriva a quantità di capitale
elevatissime senza avere le risorse umane adeguate a rendere produttivo quel capitale incrementale.
Il modello H-D non considera delle variabili importanti, ma solo fattore lavoro e fattore capitale. Poi
Solow ha introdotto il progresso tecnico, che non è una componete residuale (come si pensava) ma
è una componete fondamentale, nonché la principale responsabile dell’incremento della
produttività, a discapito dell’incremento del capitale pro-capite.
Il modello di Solow insieme al modello di H-D ha dato genesi a moltissimi modelli di crescita
economica che sono oggi prevalenti, chiamati “neoclassical” perché questi modelli si basano sulla
funzione di produzione classica e rappresentano l’output (PIL, reddito) attraverso una funzione del
capitale e lavoro.
Sono modelli che hanno l’obiettivo di andare oltre il modello di H-D. Questi modelli sono basati su
analisi nel lungo periodo. Questi modelli tengono conto dell’esistenza di variabili che variano in
modo esogeno: sono variabili che entrano nel modello, ma che devono essere prese come dati del
modello, sapendo che essi possono modificarsi indipendentemente dal modello stesso. Ecco perché
questi modelli sono anche noti come “modelli a crescita esogena”. Questi modelli ovviamente sono
concentrati sull’analisi della crescita economica, e tengono conto di 4 grandi fenomeni economici:
crescita della produttività (la produttività, e in particolare la sua crescita, è fondamentale, e non è
presente in H-D), accumulo capitalistico (già presente in H-D), crescita della forza lavoro
(popolazione in età lavorativa) e progresso tecnico. Questi modelli quindi sono più complessi, si
arricchiscono di variabili per cercare di catturare meglio i dati empirici.
È il nome usato per indicare essenzialmente tutti i modelli neoclassici, attribuendo proprio a Solow
la nascita di questi modelli a partire dai limiti del modello di H-D. Il lavoro che fanno Solow e Swan è
un lavoro inizialmente autonomo, nel quale entrambi avviano un percorso di miglioramento del
modello di H-D (pubblicato nel ’46).
Nel dettaglio, Solow fa qualcosa di importantissimo: guardare i dati→i dati sono fondamentali per i
modelli matematici, proprio perché un modello matematico assume valore quando esso è in grado
di spiegare i dati. Questo permetterà poi a Solow di vincere il Nobel nel 1987.
Questa funzione di produzione fitta bene i dati reali quindi la uso per fare un modello della funzione
di produzione del sistema economico che sto rappresentando. È una funzione molto flessibile,
matcha bene sia in ambito macroeconomico che in ambito microeconomico, i dati empirici.
Un’altra ipotesi fatta da Solow e Swan è quella di NON considerare intervalli di tempo discreti, e di
considerare un sistema a tempo continuo.
Ancora, Solow e Swan ipotizzano che NON ci sia azione del governo, e che il sistema sia chiuso, ossia
NON ci siano importazioni ed esportazioni! L’altra ipotesi di base è la presenza di un “single good”,
un singolo output, che viene prodotto grazie ai fattori K ed L secondo la funzione aggregata di Cobb-
Douglas.
Fittando molto bene i dati, se abbiamo una funzione come quella di Cobb-Douglas, noi possiamo,
avendo i dati a disposizione di X, L e K, stimare i valori di a, b e c tramite un modello di regressione
lineare. Attenzione, la funzione così come si presenta NON è lineare in a, b e c in quanto sono
esponenti. Pertanto, è necessario renderla lineare facendo ricorso ai logaritmi!
Per effettuare una regressione lineare multipla di tre valori, riscriviamo così la funzione di partenza:
Ottenuta tramite il “metodo dei minimi quadrati”, un metodo di regressione lineare di una funzione
esponenziale.
Quindi, se in diversi periodi di tempo io riesco ad ottenere i dati empirici di Output, Lavoro e Capitale,
ossia riesco ad ottenere in diversi periodi di tempo le triplette (𝑋𝑖 ; 𝐿𝑖 ; 𝐾𝑖 ), posso stimare grazie alla
regressione lineare multipla gli esponenti a, b e c tramite i loro stimatori:
K(t) è lo stock di capitale al tempo t. L(t) è il fattore lavoro. Il fattore t indica il tempo, mentre α è un
valore compreso tra 0 e 1, ed indica l’elasticità dell’output rispetto al capitale. Y(t) è l’output, la
produzione totale, il PIL al tempo t.
Quindi, in pratica, cosa abbiamo fatto? Abbiamo trasformato una funzione di partenza, y = f (K, L, y)
in una vera e propria equazione.
La presenza del fattore A(t) è importante: ricordiamo che prima Solow riteneva il progresso tecnico
come un residuo statistico. A seguito dei suoi studi, si interrogò su come considerare l’effetto del
progresso tecnico nella funzione produzione. Solow arrivò ad includere il progresso tecnico come un
fattore moltiplicativo del fattore lavoro. Se ci pensiamo, ciò è anche logico, per quanto abbiamo
detto nelle lezioni precedenti: A(t), progresso tecnico, è ragionevolmente “catturato” dal fattore
lavoro, perché è come se il fattore lavoro fosse più efficiente grazie al progresso tecnico. È come se
il progresso tecnico avesse un effetto moltiplicativo sul fattore lavoro! NON DEL CAPITALE! Questa
ipotesi di considerare il “lavoro effettivo” come il prodotto A(t)*L(t) mostrò una correlazione migliore
con i dati empirici. Quindi il progresso tecnico è da intendere come “abilitatore” del lavoro, che
permette una maggiore efficienza di impiego del fattore lavoro.
L’ipotesi di base di questo modello di Solow-Swan è che tutti i fattori di produzione siano impiegati
totalmente, e che i valori al tempo iniziale, A(0), K(0) e L(0) siano noti, e che quindi esista una
condizione iniziale al tempo 0.
Potremmo azzardare a dire che sarà il progresso tecnico ad influire maggiormente sulla crescita
economica. Quindi la maggior allocazione delle risorse deve avvenire su A(t)!
Solow e Swan definiscono la presenza di DUE variabili esogene: il fattore lavoro e il progresso tecnico.
Viene ipotizzato che il fattore lavoro L(t) abbia un tasso di crescita pari ad n e si caratterizzi per una
funzione esponenziale:
I fenomeni di crescita tendono ad avere andamenti esponenziali. Nel caso italiano ipotizziamo un n
molto piccolo, prossimo a 0, e se n è 0 vuol dire che non c’è crescita economica, l’economia italiana
sarà caratterizzata da un fattore lavoro costante. L’unico elemento di stima da valutare è proprio il
tasso n.
Anche A(t) cambia con un’esponenziale. Questo tasso g è il tasso di crescita del progresso tecnico.
Se g è 0 non c’è variazione rispetto ad A(0), se g è piccolo A cresce poco, se g è grande allora la
crescita di A è notevole:
Anche qui, se derivassimo entrambi i membri avremmo un rapporto costante tra la derivata di A ed
A, ossia il tasso costante g.
Il fattore lavoro effettivo, ossia la forza lavoro disponibile, è qualcosa che cresce con un tasso pari a
(n + g), in quanto pari ad A(t)*L(t). La disponibilità di fattore lavoro varia con un tasso n + g. Quindi,
N.B: essendo questi fattori, per l’appunto, esogeni, la loro variazione dipende da fattori ESTERNI al
sistema economico. Ad oggi, ci sono modelli che stanno ipotizzando il progresso tecnico come un
fattore endogeno, che varia quindi per fattori INTERNI al sistema economico. In quei modelli l’idea
è legare il progresso tecnico agli investimenti in R&S, intendendo il progresso stesso come la
risultante delle innovazioni derivanti da questi investimenti.
La scelta di un andamento esponenziale per lavoro e progresso tecnico è legata alle esigenze
risolutive dell’equazione differenziale associata.
Soffermiamoci sul prodotto A(t)*L(t): se registriamo un tasso negativo nella dinamica demografica,
il fattore lavoro L(t) tende a ridursi. Il modello di Solow-Swan ci dice che, anche in caso di cali del
fattore lavoro, possiamo già intuire quali possano essere le politiche economiche in soccorso a tale
calo demografico: se n è negativo, ma noi vogliamo avere comunque un tasso positivo nella forza
lavoro disponibile, possiamo automatizzare, riorganizzare i processi in modo innovativo→in soldoni,
investire sul progresso tecnico. Perché, se vogliamo mantenere un tasso positivo di variazione della
forza lavoro disponibile, n + g, ed n è un tasso negativo, noi dobbiamo aumentare g! La variazione in
positivo di g deve essere tale da compensare la variazione in negativo di n.
Sul fattore capitale sappiamo che, nel modello di H-D, in condizione di equilibrio il risparmio si
traduce in investimenti e gli investimenti in crescita del capitale. Poiché siamo in tempo continuo,
come cambia il K nel tempo? Con questa equazione differenziale:
La prima parte della funzione è uguale a H-D, ma poi si considera l’effetto del degrado dello stock di
capitale. Lo stock di capitale varia non solo perché c’è variazione di Y ma anche perché c’è un effetto
di degrado del capitale→il capitale, avendo una sua vita utile (macchinari, impianti ecc.), ha un
deprezzamento nel tempo che porta poi inevitabilmente alla sostituzione di questo capitale.
La variazione dello stock di capitale nel tempo è legata alle risorse investite (s*Y(t), con s propensione
marginale al risparmio) e alla dinamica di deprezzamento del capitale.
Quindi, per avere una variazione positiva di capitale, ci aspettiamo che i risparmi (e quindi gli
investimenti) siano superiori agli ammortamenti (legati al deprezzamento del capitale). Quindi,
l’ammortamento ha due funzioni: segnalare la necessità di sostituire il capitale e indicare un capitale
NETTO, al netto del deprezzamento, appunto.
Questi modelli quindi ci segnalano come H-D non consideravano il capitale, che ha una dinamica
importantissima nella crescita economica!
Facciamo una riflessione: sappiamo che è molto interessante sapere quanto vale la produttività
oraria del lavoro, in quanto variabile fondamentale che ci dice come il fattore lavoro si sta
combinando con capitale e progresso tecnico. Nel modello di Solow-Swan, il progresso tecnico
amplifica il fattore lavoro (l’abbiamo visto nella precedente lezione), quindi, se calcoliamo quant’è
l’output per unità di lavoro:
𝑌(𝑡)
𝑦(𝑡) = = 𝑘(𝑡)𝛼
𝐴(𝑡) ∗ 𝐿(𝑡)
Ma perché il rapporto tra l’output totale e la forza lavoro disponibile è pari a 𝑘(𝑡)𝛼 ?
Quindi riscrivendo y(t) sostituendo a Y(t) la funzione ottenuta nella scorsa lezione, avremmo:
Ora, poiché
𝐾(𝑡)
𝑘(𝑡) =
𝐴(𝑡) ∗ 𝐿(𝑡)
È ovvio che
𝑦(𝑡) = 𝑘(𝑡)𝛼
Con k(t) che rappresenta il rapporto fra i due fattori, lo stock di capitale al tempo t e il fattore lavoro
effettivamente disponibile. Quindi la produttività è pari al rapporto fra i due fattori, capitale e lavoro
effettivo, elevato alla alfa. Quindi, nel modello di Solow-Swan, la produttività oraria dipende dal
rapporto tra i fattori, aumenta quanto più aumenta lo stock di capitale per addetto→lo stock di
capitale influenza la produttività, e quindi è una componente fondamentale della crescita
economica. La crescita economica tramite la produttività dipende dal parametro α.
Solow e Swan arrivano a scrivere la seguente equazione differenziale (vedi sulle slide come ci si
arriva):
Che ci dice che la variazione nel tempo del rapporto fra capitale e lavoro (𝑘̇(𝑡)) dipende dalla
propensione marginale al risparmio, s, moltiplicata per il rapporto tra i fattori elevato ad α, e questo
ci dice che la propensione marginale al risparmio resta anche nel modello di Solow-Swan la
componente fondamentale della crescita economica. D’altro canto, però, Solow e Swan dicono che,
se aumenta lo stock di capitale, a parità di forza lavoro, questo contribuisce alla crescita delle risorse
a disposizione, proprio come accadeva nel modello di H-D. Quindi, le componenti positive della
crescita economica sono le stesse di H-D. La differenza, però, sta nel fatto che ci sono delle
componenti che agiscono in senso opposto alla crescita economica, e vanno in contrasto con il primo
termine attivo, che determina una crescita di 𝑘̇(𝑡). Le componenti che si oppongono hanno senso,
perché tutte determinano una riduzione del rapporto
𝐾(𝑡)
𝑘(𝑡) = e quindi una riduzione di 𝑘̇(𝑡): se aumenta δ, aumenta il fattore di deprezzamento
𝐴(𝑡)∗𝐿(𝑡)
del capitale e quindi si riduce il rapporto k(t); se aumenta n, aumenta il denominatore perché
aumenta L(t); se aumenta g, aumenta il progresso tecnico, quindi aumenta il prodotto 𝐴(𝑡) ∗ 𝐿(𝑡) e
quindi si riduce 𝑘̇(𝑡)→l’effetto del progresso tecnico, alla fine, qual è? Se 𝑔 > 0, 𝐴(𝑡) e 𝐴(𝑡) ∗ 𝐿(𝑡)
aumentano, quindi il progresso tecnico ha come effetto la riduzione di 𝑘(𝑡) e di 𝑘̇(𝑡). Questo ci
spiega una cosa fondamentale: il progresso tecnico, a parità di tutto il resto, permette di avere meno
capitale, anche se avessi n negativo. Il progresso tecnico va ad erodere il capitale, libera risorse del
risparmio, a favore dei consumi.
Adesso, ricordando la formula di Y(t), cosa possiamo dire? Nel modello di H-D il rapporto fra lo stock
di capitale e l’output è pari a σ, una costante. Nel modello di Solow-Swan, che succede al rapporto
K(t)/Y(t)? Ovviamente non dipende più da una costante, perché sappiamo che K e Y sono liberi di
variare nel tempo. In particolare, questo modello ammette una condizione di equilibrio. Cioè, per
quel particolare sistema economico esiste un particolare valore k*= K(t)/A(t)*L(t), che non verrà mai
raggiunta, ma che esiste. In quella particolare condizione di equilibrio, corrispondente al valore al
quale il sistema economico tenderebbe, il valore k* converge a:
In condizioni di equilibrio, cioè quando il sistema converge (se mai convergerà visto che i parametri
cambiano sempre) il rapporto fra K e Y dipende da quel rapporto. Se lascio quindi nel tempo evolvere
il modello di Solow-Swan, esso potrà tendere ipoteticamente ad una condizione di equilibrio. In
quella condizione, si osserva che K(t)/Y(t) è un rapporto di parametri strutturali del sistema
economico: la propensione marginale al risparmio, il tasso di crescita del progresso tecnico e il tasso
di deprezzamento del capitale. Questo rapporto ci permette di capire come quel sistema economico
si strutturerà in termini di rapporto tra capitale e output proprio al variare dei suoi parametri
strutturali.
Quindi, un dato sistema economico, con quei particolari parametri strutturali, tenderà all’equilibrio
ad un particolare valore di K(t)/Y(t), che dipende dai suoi parametri strutturali: più è grande la
propensione marginale al risparmio, più questo rapporto è alto. Quindi, nelle economie in cui si
spinge sulla propensione al risparmio, si hanno più stock di capitale, e quindi il capitale tende a
crescere maggiormente rispetto all’output; maggiore è δ, più il sistema economico si deprezza
rapidamente, e i tassi di ammortamenti sono elevati, quindi quel sistema economico vedrà ridursi il
K rispetto ad Y e quindi il rapporto K/Y si riduce; se ho una n più elevata, quindi la dinamica
demografica è positiva, il denominatore cresce, quindi il rapporto K/Y si riduce, e quindi
quell’economia sta facendo sempre più leva sull’occupazione. Questa cosa è tutt’altro che positiva
nelle economie avanzate, che dovrebbero ridurre n; più cresce g, più aumenta il progresso tecnico,
più il rapporto K/Y tende ad abbassarsi. Però è chiaro che, maggiore è g, più cresce l’economia, Ma
se g è più elevato, il sistema economico tenderà a crescere, ma con meno capitale.
Questa è chiamata regola d’oro del tasso di risparmio, ed è l’equivalente di σ del modello di H-D,
dove però questa volta si considera il fatto che tutti i fattori possono modificarsi nel tempo, andando
ad impattare il rapporto K/Y.
Vediamo un po’ di
dati: qui rileviamo
una crescita del
GDP. La Cina cresce
notevolmente,
hanno sorpassato
gli USA, il
Giappone cresce
molto molto
lentamente.
L’Europa ha avuto
una lieve decrescita nel 2009 per poi aumentare di nuovo. La Cina ha un grande L, ancora in crescita
ma non più molto come prima, perché hanno fatto politiche demografiche. La Cina sta crescendo
molto su g, che influisce su A(t), naturalmente cresce anche K.
Vediamo un foglio elettronico di EXCEL, per comprendere il funzionamento del rapporto K/Y:
Dati di partenza:
OSS:
𝑁𝑀𝑂𝐴 ∗ 𝑅𝑀𝐴𝑂
𝐿(0) = 1000000000
Con questo foglio possiamo sia stimare i parametri della funzione di Cobb-Douglas (nell’ipotesi di
avere dati ottenuti in via empirica) sia fare valutazioni sul modello di Solow-Swan. Il modello è molto
semplice, facilmente utilizzabile per fare previsioni sugli andamenti del sistema economico.
Facciamo l’ipotesi di simulare 600 anni per vedere come il sistema tende alla sua configurazione di
equilibrio stante le condizioni iniziali. Il sistema economico dell’esercizio presenta dei dati molto
simili a quelli del sistema economico italiano. Y(t) si calcola grazie alla funzione di Cobb-Douglas. K
(0), lo stock di capitale iniziale, è stato ipotizzato pari a 4500 miliardi di euro, ipotizzando quindi un
σ=3. Il progresso tecnico risponde all’equazione di Solow-Swan, ipotizzando un g = 0,01. Il fattore
Lavoro, invece, è valutato in termini monetari→dobbiamo partire dalla stima del numero medio di
occupati nel paese, 25000000. Questi hanno un loro reddito medio, posto pari a 20000 euro annui.
Di conseguenza, il prodotto fra il numero medio di occupati e del loro reddito medio ci permette di
ottenere il fattore lavoro (pari a 500 miliardi di euro), che è stato quindi calcolato in termine di valore
economico del lavoro. Viene ipotizzato un valore di 1500 ore medie lavorate all’anno. L(t) è quindi
calcolato come funzione esponenziale, come abbiamo visto per A(t), ipotizzando un n = 0,0005 e un
α=0,5.
È possibile aggiungere altri elementi di valutazione, già visti nella parte teorica: y(t) è la produttività
per 1 euro di lavoro efficace, ottenuto rapportando Y(t) al lavoro effettivo, A(t)L(t)→all’anno 0, la
produttività per 1 euro di lavoro è pari a 3. Possiamo anche calcolare la produttività per 1 ora di
lavoro efficace→qui bisogna tener conto delle ore lavorate: questa produttività si calcola con
l’espressione y(t)= (Y(t)/(A(t)L(t)) * (RMAO/NMOA) dove RMAO è il reddito medio annuo per
occupato e NMOA è il numero medio di ore annue lavorate. Questa produttività ci dice quanto è
produttiva 1 ora di lavoro, ed è molto importante perché ci dice come sta contribuendo il fattore
capitale alla produzione dell’output. Quindi, se lavoro un certo numero di ore, produco mediamente
una certa quantità di output!
Ancora, possiamo anche calcolare k(t) pari a K(t)/(A(t)L(t)), ossia il rapporto fra lo stock di capitale e
il lavoro effettivo. Possiamo anche calcolare σ, come rapporto tra K(t) e Y(t).
Inoltre, sono stati ipotizzati un tasso di deprezzamento del capitale, δ, pari a 0,05 e una propensione
marginale al risparmio, s, pari a 0,2.
Analizziamo i ruoli fondamentali assunti dalla propensione marginale al risparmio e dal progresso
tecnico. Se azzerassimo il tasso g di crescita del progresso tecnico, la crescita sarebbe molto più lenta,
nonostante ci sarebbe comunque accumulo capitalistico (l’economia, si dice, si “capitalizza”). Se
abbassassimo s, invece, ci accorgiamo subito che il capitale tenderebbe a ridursi, così come l’output,
ed entrambi si ridurrebbero ad un valore asintotico. Per dare di nuovo ossigeno alla crescita,
dobbiamo aumentare nuovamente il tasso del progresso tecnico: anche a seguito di una bassa
propensione marginale al risparmio, nonostante il capitale tenda a ridursi, l’output andrebbe a
crescere nel lungo periodo. Questo modello di crescita economica, con una bassa propensione
marginale al risparmio, riesce comunque a sostenere l’economia grazie al tasso di crescita del
progresso tecnico. Quindi la propensione al risparmio è una variabile fondamentale, perché lega
output e investimenti, ma una componente che può aiutare il sistema economico a garantire la
crescita, anche in presenza di una bassa propensione marginale al risparmio, è proprio il progresso
tecnico!
Ma questo modello di Solow-Swan, come lo utilizziamo? Alla comprensione del contributo del
progresso tecnico, Solow ci arriva andando a correlare i dati reali dell’andamento della crescita del
capitale e del lavoro, e vedendo che questi dati non erano compatibili se non si assumeva la presenza
del contributo fondamentale del progresso tecnico.
Adesso siamo arrivati all’analisi microeconomica dei processi di innovazione. Siamo interessati a
vedere cosa succede a livello dei singoli mercati, settori e imprese. Anche le imprese beneficiano
ovviamente degli effetti dell’innovazione. Ora il punto è capire: come sono capaci le imprese a
beneficiare e sviluppare i processi di innovazione?
I fondamenti teorici di economia che dobbiamo riepilogare sono due: l’approccio neoclassico e
l’approccio evolutivo (che nasce per spiegare tutto ciò che l’approccio neoclassico non è stato in
grado di spiegare). Sono due rappresentazioni utili per capire i fenomeni innovativi a livello di
impresa.
Approccio neoclassico
Si sviluppa agli inizi del Novecento, sotto l’ala degli economisti classici, a seguito dello sviluppo
industriale.
Nella visione neoclassica del sistema economico, molto semplice, l’attività produttiva viene vista
come una trasformazione che, attraverso una serie di fasi (stadi), conduce le risorse naturali in
prodotti finali. Il prodotto finale è il prodotto che va al consumo finale, al mercato, e non è
necessariamente il prodotto finito! È quel prodotto che non subisce più trasformazioni e, come tale,
finisce al consumo finale.
La trasformazione è consentita dalle tecnologie elaborate e messe a disposizione dai tecnici. Queste
si occupano di convertire le risorse naturali in prodotti finali e sono diverse di stadio in stadio nella
attività di produzione.
PRIMA IPOTESI DI BASE: le tecnologie sono messe a disposizione dai tecnici. Questo vuol dire che
quindi la tecnologia è sviluppata esternamente al contesto economico e le imprese possono adottare
queste tecnologie per effettuare le loro trasformazioni→ LA TECNOLOGIA È ESOGENA AL SISTEMA
PRODUTTIVO!
Abbiamo una serie di risorse naturali che entrano nel sistema economico e attraverso i diversi stadi,
utilizzando le tecnologie si trasformano e si produce il prodotto finale. Qui abbiamo degli input, un
output e una tecnologia che abilita la trasformazione stessa→il sistema economico è visto come una
macchina che converte input in output. Visione “ingegneristica” del sistema economico e del
processo produttivo.
La funzione di produzione è una relazione puramente tecnica che lega gli input (fattori di
produzione) agli output prodotti. Con un focus sulla produzione, ci stiamo focalizzando quindi sulla
costruzione dell’offerta nel sistema economico. Guardando quindi il lato della produzione, la
funzione produzione descrive la legge di produzione, ossia la trasformazione degli input in output
in un certo periodo di tempo. La funzione contiene al suo interno e descrive la tecnologia di
un’impresa, di un settore o dell’economia. Quindi i neoclassici associano alla tecnologia la funzione
di produzione. Per i neoclassici è la tecnologia stessa ad essere la relazione tecnica. Si osservi come
ad un cambiamento di tecnologia, si ha un cambio della funzione di produzione e quindi si è in
presenza di progresso tecnico→il progresso tecnico ha la funzione di modificare la tecnologia e
quindi di modificare la relazione tecnica tra i fattori in input e i fattori in output. La funzione di
produzione comprende tutti i metodi di produzione tecnicamente efficienti. Ma cosa vuol dire?
In economica, un metodo di produzione è una combinazione di input di fattori produttivi che viene
richiesta per produrre un’unità di output. Potremmo associare il metodo di produzione ad una
ricetta dei diversi input di fattori di produzione per ottenere l’unità di output. Tipicamente ci sono
diversi possibili metodi di produzione per produrre un’unità di output→posso quindi modificare il
contributo degli input per ottenere un’unità di output. Questo apre la strada verso il concetto di
“tecnicamente efficiente”.
Entrambi i metodi possono essere adottati; dal punto di vista tecnico non ho alcun modo di dire
quale dei due metodi sia migliore rispetto all’altro! La scelta su quale metodo adottare dipenderà
dal costo dei fattori; infatti, i due metodi, dal punto di vista tecnico sono IDENTICI! Se il capitale ha
un costo elevato, ad esempio, preferirò il metodo in cui il capitale viene meno utilizzato rispetto al
lavoro.
OSS: un metodo non può mai essere tecnicamente efficiente in maniera assoluta! Un metodo può
essere tecnicamente efficiente solo in relazione ad altri metodi!
La teoria neoclassica della produzione considera solo i metodi tecnicamente efficienti. Questo
perché il metodo tecnicamente efficiente è un metodo che un soggetto razionale (l’imprenditore)
utilizza. Soffermiamoci sull’aggettivo razionale: i neoclassici ipotizzano che il decisore sia un soggetto
dotato di piena razionalità, è una caratteristica che aiuta il processo decisionale perché assume
sempre che ci sia piena razionalità del decisore, e quindi permette di
ottimizzare/massimizzare/minimizzare. Questa posizione è indebolita dall’approccio evolutivo.
Attenzione: il fatto che il decisore razionale possa scegliere quale metodo utilizzare (ad alta intensità
di capitale o ad alta intensità di lavoro) consente ad economie diverse (in termini di struttura di
capitale e lavoro) di competere fra loro, così come a imprese che operano in settori e nazioni
differenti di competere fra loro. Quindi, l’impresa che opera in Germania preferirà un modello a
bassa intensità di lavoro, perché il fattore lavoro è molto costoso, preferendo quindi un maggior
impiego di capitale.
Questo è un isoquanto spezzato, anche qui c’è perfetta sostituibilità dei fattori.
Questo è un isoquanto continuo e convesso, non c’è perfetta sostituibilità (non c’è un’intercetta sugli
assi). Posso sostituire tra loro i fattori di produzione fino ad un certo livello→avrò sempre bisogno
di una quantità minima di uno dei due fattori per produrre quel livello di output.
La funzione di produzione viene trasformata in una funzione matematica. Da relazione prettamente
tecnica possiamo passare a funzione matematica. Secondo questa funzione, l’output Y è una
funzione di fattori, espressa dalla seguente relazione matematica generale:
La funzione produzione mette in relazione l’output con tutti i fattori di produzione, che sono
considerati come flussi. Sono quindi variabili che si riferiscono tutte all’unità di tempo, tranne i
rendimenti di scala e il parametro di efficienza.
Il fattore ν è il rendimento di scala, e si riferisce alle analisi di lungo periodo. Si assume che nel lungo
periodo sia possibile avere differenze nella dimensione dell’attività di trasformazione e quindi della
quantità di risorse in ingresso, e in base alle diverse combinazioni si possono produrre diverse
quantità di output (cambia la scala produttiva). In base alla quantità di output che devo produrre c’è
un effetto di economia o diseconomia che modifica l’output. Le economie di scala possono essere
positive se all’aumentare della scala aumenta l’efficienza o negative (diseconomie) se all’aumentare
della scala aumentano i problemi, le disorganizzazioni e le inefficienze. Non è possibile confrontare
economie con scale di produzione diverse!
Nella scelta dei fattori di produzione il prezzo è fondamentale. I prezzi dei fattori produttivi e quello
del prodotto NON entrano nella funzione di produzione. Essi sono utilizzati solamente in relazione
alle decisioni relative alle modalità di produzione dell'impresa. Un discorso è la rappresentazione
della funzione di produzione, un altro discorso è la scelta del metodo di produzione! Ne consegue
che la tecnologia è esogena al sistema economico (e quindi non ne consideriamo il costo) e i costi
dei fattori condizionano esclusivamente le scelte tecnologiche.
Nella realtà al posto di considerare l’output si considera il valore aggiunto. Questo perché le materie
prime, R, sono in rapporto costante con l’output per ogni livello di output.
X=Y–R
Inoltre, è possibile raggruppare l’input di terra S con le macchine e gli impianti nel fattore capitale K.
Pertanto, la funzione della produzione nella assume la forma tradizionale:
X = f (L, K, ν, γ)
Secondo la quale il valore aggiunto dipende dal fattore lavoro, dal fattore capitale, dal fattore di
efficienza e dai rendimenti di scala.
Queste relazioni funzionali vengono poi ritrovate in via sperimentale. Vado ad analizzare la
variazione del valore aggiunto al variare del fattore lavoro o del fattore capitale, fissato il valore
dell’altro e ipotizzando ν e γ costanti.
C’è un andamento ad S delle curve (andamento sigmoide). Nella prima curva, che descrive
l’andamento di X all’aumentare di L, notiamo che se aumenta K a parità di lavoro passiamo a livelli
sempre più elevati di output (valore aggiunto), così come se aumenta L si ha un aumento dell’output
secondo un andamento ad S, fino ad un tratto calante→la presenza del tratto calante è legata al
fatto che, raggiunta una combinazione ottimale dei due fattori, l’aggiunta di un solo fattore NON
favorisce l’ottimale combinazione con l’altro fattore, portando a forme di inefficienza del sistema,
con addirittura un eventuale calo dell’output prodotto. È anche ovvio: se ho un sistema con un certo
numero di macchine, attrezzature e impianti, con un certo numero di occupati, produco un
determinato output. Se aumento questo numero di occupati, l’output aumenta con un andamento
ad S fino a che i fattori K e L non raggiugono una certa combinazione ottimale. Raggiunta questa,
aumentare ancora il numero di occupati A PARITA’ di fattore capitale, porta il sistema in una
condizione di inefficienza, descritta dal tratto calante, che può anche portare alla riduzione
dell’output prodotto! Anche nella seconda curva i ragionamenti sono gli stessi! Esiste sempre l’area
ottimale, in cui i fattori si combinano in maniera ottimale, e l’area in cui il tratto è calante e i fattori
non si combinano più in maniera ottimale e addirittura si può avere una riduzione dell’output
all’aumentare del fattore.
Le curve ad S sono state oggetto di studio, tant’è che sono state “matematizzate”. La pendenza della
funzione di produzione rappresenta il prodotto marginale dei fattori di produzione.
P'L = X /L
P'K = X /K
In questo grafico sono stati rappresentati sia l’andamento di X che quello del prodotto marginale del
lavoro o del capitale. Notiamo che al punto di flesso del grafico di X corrisponde il massimo del
grafico della derivata e che al punto di massimo del grafico di X corrisponde uno zero del grafico
della funzione derivata.
Gli economisti sono interessati a studiare il prodotto marginale: a parità di tutti gli altri fattori e
parametri, ha senso aumentare il valore di un fattore di produzione finché non si arriva al punto in
cui si ha il massimo beneficio marginale in termini di aumento di quel fattore produttivo.
Andando a vedere un isoquanto continuo e convesso, la pendenza della curva è dK/dL, e ci dice in
quel particolare punto quanto possiamo sostituire un fattore con l’altro e viceversa. Spostandosi
verso sinistra aumentiamo K sostituendolo ad L; spostandoci verso destra aumentiamo L
sostituendolo a K. Quindi, espresso l’isoquanto analiticamente come K funzione di L, posso calcolare
la derivata dK/dL in un dato punto, e sapere quanto posso sostituire di un fattore rispetto ad un altro
fattore, muovendomi lungo l’isoquanto.
Quindi l’SMS è la pendenza della curva di isoquanto cambiata di segno, cioè -dK/dL. Il meno davanti
si usa proprio perché i metodi sono tecnicamente efficienti e poiché la pendenza dell’isoquanto è
negativa e io voglio un SMS positivo, metto il meno. In qualunque punto posso calcolare la pendenza
e ottenere il valore del saggio. Il valore dell’SMS cambia nella continua convessa man mano che mi
sposto lungo l’isoquanto. È costante, invece, quando l’isoquanto è lineare.
Possiamo dimostrare che l’SMS è anche uguale ai rapporti marginali dei fattori di produzione:
SMS L,K = -K /L = P'L / P'K
dX = K (X/K) + L (X/L)
e per definizione
dX = 0
Allora:
Questa dimostrazione è utilissima perché calcoleremo questo rapporto -K/L passando proprio per
i prodotti marginali! Conviene molto di più derivare la funzione di produzione per K e per L e farne il
rapporto.
Tutte queste grandezze sono fondamentali perché rientreranno nell’analisi del progresso tecnico,
uno dei principali contributi dell’analisi neoclassica all’innovazione.
Considerata una curva isoquanto, quindi, l’intensità dei fattori in un punto è il rapporto K/L, che ci
dice in che proporzione si trovano in quel particolare punto i fattori di produzione K ed L.
Vediamo adesso questo esercizio per prendere familiarità con questi concetti:
Ricordiamo che la curva isoquanto ha una espressione analitica del tipo K=f(L), fissato il valore di X.
Per determinarla, quindi, dobbiamo riscrivere la funzione di produzione per K, in funzione di L. Fatto
questo, dobbiamo capire sull’isoquanto quanto vale L se K vale 20: ossia, dobbiamo capire qual è
quel particolare metodo di produzione che fatto 20 il fattore capitale, mi permette di ottenere un
output di 100 con un certo valore L di fattore lavoro. Calcoleremo poi il rapporto tra le derivate
parziali che, cambiato di segno, ci permetterà di ottenere il SMS.
N.B: l’espressione di
questo isoquanto è
un’iperbole non
equilatera. Se gli esponenti
di K ed L non sono identici,
l’iperbole non è equilatera.
Il calcolo dell’SMS è molto semplice: possiamo sia calcolare -dK/dL dall’espressione dell’isoquanto,
oppure fare il rapporto tra i prodotti marginali, agendo sulla funzione produzione.
𝑑𝑋
𝑃′𝐿 = = 𝑎𝐾 𝑐 ∗ 𝑏 ∗ 𝐿𝑏−1
𝑑𝐿
𝑑𝑋
𝑃′𝐾 = = 𝑎𝐿𝑏 ∗ 𝑐 ∗ 𝐾 𝑐−1
𝑑𝐾
E quindi:
𝑃′𝐿 𝑎𝐾 𝑐 ∗ 𝑏 ∗ 𝐿𝑏 ∗ 𝐾 𝑏𝐾
= =
𝑃′𝐾 𝑎 ∗ 𝐿𝑏 ∗ 𝑐 ∗ 𝐾 𝑐 ∗ 𝐿 𝑐𝐿
Se la tecnologia è esogena, gli imprenditori si affacciano sul mondo della tecnica e cercano nuove
tecnologie e quindi, nuovi metodi di produzione tecnicamente efficienti. Questo determina la
sostituzione di vecchi metodi di produzione con nuovi metodi di produzione. Ogni qualvolta abbiamo
una modifica della tecnologia e quindi una modifica di ALMENO UN metodo di produzione, secondo
i neoclassici si è in presenza di progresso tecnico. Quindi le innovazioni si traducono come
manifestazione del progresso tecnico, con aggiunta di nuovi metodi di produzione alla funzione
produzione e sostituzione dei vecchi metodi di produzione, non più tecnicamente efficienti.
L’effetto dell’innovazione:
Ecco, quindi, l’effetto del progresso tecnico: a sinistra, la funzione di produzione (qui descrive come
varia X al variare di L, ma poteva anche descrivere come varia X al variare di K, non cambia nulla)→se
ho progresso tecnico, la funzione di produzione si sposta verso sinistra e si innalza. Quindi, a parità
del fattore variabile, col progresso tecnico riesco a produrre una quantità di X superiore. Quindi
l’introduzione del nuovo metodo di produzione ha la capacità di amplificare l’output realizzato, a
parità di tutti i fattori; a destra, l’isoquanto→a partire dall’isoquanto di sopra a X = costante, la
presenza di progresso tecnico è tale che LA STESSA X = cost la posso produrre con meno fattore K e
meno fattore L; pertanto, l’isoquanto si “schiaccia” verso gli assi cartesiani, proprio perché grazie al
progresso tecnico riesco a produrre la stessa quantità, ma con meno fattori di produzione. La
massima forma di progresso tecnico sarebbe quella in cui riuscirei a produrre la stessa quantità X di
partenza con fattori di produzione prossimi al valore 0.
Una volta che è stato inquadrato, si è anche compreso che le forme che il progresso tecnico può
assumere, non sono sempre le stesse: il progresso tecnico può determinare diversi spostamenti della
funzione di produzione e dell’isoquanto. Quelle traslazioni che abbiamo visto, non sono omotetiche,
è possibile addirittura avere delle rotazioni dell’isoquanto. Procediamo per gradi. L’idea della
presenza di diverse forme del progresso tecnico fu introdotta dall’economista neoclassico Hicks, che
si occupava di costruire una teoria sui salari. Secondo Hicks, infatti, il progresso tecnico può
determinare un cambiamento della forma dell’isoquanto, oltre che determinarne lo spostamento.
Secondo Hicks, ci sono tre forme di progresso tecnico, sulla base dell’effetto che esso determina sul
saggio marginale di sostituzione fra i fattori di produzione. Questo perché non tutte le innovazioni
hanno lo stesso impatto!
“capital deepening” = che sfrutta il capitale. Andiamo a vedere cosa succede nelle isoquanto.
Quindi, se in questi due punti vado a calcolare l’SMS, e so che SMS = -dK/dL, ossia il valore della
pendenza della tangente passante per X e X’, cambiata di segno. Fatto questo calcolo per entrambe
le isoquanto, osservo che la tangente su X non ha la stessa pendenza della tangente su X’! Quindi, i
SMS in X e X’ sono diversi! La quantità è uguale, il rapporto K/L è uguale, ma il SMS non è più
uguale…cosa ci suggerisce questo? Che la tangente, e quindi l’isoquanto RUOTANO IN SENSO
ANTIORARIO attorno al punto X’ rispetto alla tangente e all’isoquanto in X. Questa variazione che
effetto ha? Per valutare in maniera più semplice, supponiamo di traslare il punto X su X’, di fatto
andando a sovrapporre sullo stesso punto le due tangenti e quindi gli isoquanti:
Notiamo, quindi, che per effetto del progresso tecnico la tangente passa da A ad A’. In effetti, notiamo
che la tangente ruota in senso antiorario per effetto del progresso tecnico. Muovendomi su una retta
a K/L costante, nel punto di rotazione, cosa succede? Prima del progresso tecnico, muovendomi su
A, se avessi una riduzione di lavoro, ΔL, dovrei avere un certo incremento ΔK→prima del progresso
tecnico ho una serie di metodi di produzione disponibili e posso spostarmi sull’isoquanto
incrementando di ΔK se ho una certa ΔL; DOPO il progresso tecnico, invece, muovendomi su A’, se
avessi la stessa riduzione di lavoro ΔL, dovrei avere un certo incremento ΔK’, ma visto che la
pendenza della tangente si è ridotta, sono certo che ΔK’< ΔK. Quindi dopo il progresso tecnico posso
ridurre ΔL aumentando DI MENO il fattore capitale rispetto a quanto avrei dovuto fare prima del
progresso tecnico. Ecco perché questo progresso tecnico è “capital deepening”: a seguito del
progresso tecnico è come se sfruttassi meglio il capitale, perché riesco a sostituire lo stesso fattore
lavoro con meno capitale, ottenendo sempre lo stesso output.
Attenzione: a seguito del progresso tecnico, riducendosi la pendenza, si riduce anche il SMS!
Queste valutazioni non valgono per due punti qualsiasi: vanno sempre fatte tra due punti a pari
rapporto K/L. A differenti intensità dei fattori, possiamo avere differenti comportamenti del
progresso tecnico!
• SMS si riduce;
• K /L aumenta;
• P’L/P’K si riduce;
2. PROGRESSO TECNICO LABOUR DEEPENING
Esiste ovviamente l’equivalente “labour deepening” in cui l’isoquanto ha una ROTAZIONE ORARIA
della tangente in X’ rispetto al valore della tangente in X. I ragionamenti fatti sono gli stessi del capital
deepening. Infatti, a parità di ΔL, avremo un ΔK’> ΔK a seguito del progresso tecnico. Infatti, il
progresso tecnico di produzione labour deepening permette di usare meglio il fattore lavoro, e
sposta quindi i metodi di produzione verso quei metodi che usano più fattore lavoro e meno fattore
capitale.
Un progresso tecnico labour deepening è tale per cui:
• Effetto produzione
Le imprese che producono esse stesse nuove tecnologie tendono ad essere più efficienti delle altre
imprese. Aver investito e prodotto una nuova tecnologia porta l’impresa, se ha un atteggiamento
razionale, ad essere più efficiente. Questa maggiore efficienza ha un effetto benefico sulla
produttività media dell’intero sistema: questo si chiama effetto produzione. Quindi come primo
effetto, il progresso tecnico genera maggiore efficienza nelle imprese che producono le nuove
tecnologie, rispetto a quelle “tradizionali”. Quindi progresso tecnico→aumento produttività delle
imprese→risonanza sull’intero sistema.
• Effetto utilizzo
Nel momento in cui imprese di un settore tradizionale si dotano di nuove tecnologie, accrescono lo
stock di capitale per lavoratore, sia se mantengono lo stesso numero di lavoratori sia se esso cambia,
ma muovendosi seguendo un isoquanto tenderanno a ridurre il numero di lavoratori quindi avremo
che lo stock di capitale per lavoratore aumenta, questo fa aumentare la produttività del lavoro e
quindi del prodotto per lavoratore. Quindi anche l’utilizzo delle nuove tecnologie genera un aumento
di produttività, come già avevamo ben visto.
L’adozione di nuove tecnologie migliora l’organizzazione della produzione, cioè il modo in cui le
imprese combinano i fattori della produzione (lavoro e capitale), il che si traduce in un aumento di
quella che viene chiamata “produttività totale dei fattori”. Quando l’impresa adotta le nuove
tecnologie, tende anche a migliorare l’organizzazione! Combinano meglio i fattori di produzione e
questo genera un aumento di produttività. Questo particolare aumento di produttività è
fondamentale.
Stiamo evidenziando che, quando abbiamo progresso tecnico e quindi (nella visione neoclassica) si
stanno adottando nuove tecnologie, il solo utilizzo di queste nuove tecnologie genera sia un
aumento dello stock di capitale (effetto utilizzo) sia una ricombinazione ottimale dei fattori di
produzione. Non è solo acquisendo nuove tecnologie e facendo investimenti tecnologici che si
migliora l’efficienza delle imprese! L’efficienza delle imprese si migliora nel momento in cui, avendo
acquisito la nuova tecnologia, si è in grado di RIORGANIZZARE le attività di produzione attorno a
queste nuove tecnologie! Bisogna modificare i modelli di business, non basta solo aumentare lo
stock di capitale, bisogna ricombinarlo in maniera ottimale col fattore lavoro.
OSS: l’output, nella funzione produzione, dipende da terra, lavoro, capitale, stato ed organizzazione.
Semplificando, sappiamo che l’output inteso come valore aggiunto dipende da capitale, lavoro,
rendimenti di scala ed efficienza. Quindi, a parità di L, se aumento K ho sicuramente un incremento
di output. Ma è il fattore di efficienza, al netto dei rendimenti di scala, il fattore sul quale lavorare
maggiormente, perché l’effetto PTF influisce proprio sull’efficienza! Più organizzo bene i fattori, più
aumento l’efficienza e quindi la produttività. Ok l’aumento di K e L, ma devo anche combinarli in
maniera efficiente.
Esercizio 1:
X = a Lb Kc
Risulta:
→SMS dipende da c/b e K/L, quindi se c/b resta costante, SMS varierà al variare di K ed L
X* = a Lb Kc
Poiché si ha:
SMSL,K = (b K) / (c L)
Posso dire cosa accade al SMS in ogni punto a seguito di un incremento del coefficiente b!
SMS’L,K = (b’ K) / (c L) > SMSL,K per ogni K/L = cost, perché so che b/c è costante sempre.
In quanto b’>b e quindi il SMS è aumentato per effetto del progresso tecnico, il progresso tecnico è
quindi labour deepening.
Esercizio 2:
X=bL+cK
Risulta:
P'L = X /L = b
P'K = X /K = c
→SMS è sempre costante perché b/c costante! Quindi con una funzione di produzione lineare, l’SMS
è proprio il coefficiente angolare di quella retta!
- K /L = b/c
Più semplicemente si ha, posto X=X* (particolare valore di X costante lungo la isoquanto):
X* = b L + c K
K = X*/c - b L/c
Poiché si ha:
SMSL,K = b/c
Avere un aumento di b, qui, cosa vuol dire? Che, se prima eravamo sulla retta in alto nella figura alla
pagina precedente, per effetto della crescita di b in b’, l’intercetta con l’asse delle L si ha in X*/b’ che
è minore di X*/b→questo modifica la tangente, che ruota in senso orario e quindi il progresso è
labour deepening. Come nell’esercizio 1, questo vale per qualunque K/L, essendo l’unico presente
nella funzione. In generale, se la funzione di produzione NON è Cobb-Douglas o lineare, la natura
del progresso tecnico si valuta sempre per UN PARTICOLARE VALORE DI K/L! I DUE PUNTI DA
CONFRONTARE DEVONO SEMPRE ESSERE SULLA STESSA RETTA K/L.
Quindi, dovendo sempre produrre X=X*, aumentare b vuol dire, a parità di tutto il resto, ridurre L.
Quindi, stiamo andando incontro ad un rapporto X*/L maggiore, sta aumentando la produttività ma
in termini analitici se X*=bL+cK, se aumenta b, L deve diminuire se tutto rimane costante. Quindi il
progresso tecnico è labour deepening.
Esercizio 3:
X = 2 * L0,5 K0,5
si determini il tipo di progresso tecnico con intensità dei fattori pari a K/L=1 quando la funzione di
produzione diventa:
X = 2 * L * K0,5
SMS’L,K = b’ / c = 1 / 0,5 = 2
Quindi si ha progresso tecnico labour deepening in quanto SMS’L,K > SMSL,K
Otteniamo così le due isoquanto. Vogliamo capire che tipo di progresso tecnico si ha per L = 25.
Considerando L = 25, inizialmente siamo nel punto in blu, con un SMS = bK/cL. Per valutare la natura
del progresso tecnico, però, dobbiamo confrontare i valori a parità di K/L. Che significato ha andare
a valutare il progresso tecnico per L = 25? Il progresso tecnico mi porta per L = 25 dal punto blu al
punto giallo, ma noi dobbiamo ragionare a parità di K/L: quindi, per L= 25 NON posso confrontare il
punto blu e il punto giallo, al più posso confrontare il punto giallo con l’ipotetica intersezione tra la
retta tratteggiata in verde in basso e l’isoquanto A e il punto blu col punto in rosso. NON posso
confrontare il punto blu e il punto giallo!
Posso affermare che nella funzione di produzione di Cobb-Douglas ho SEMPRE labour deepening
perché per qualsiasi valore del rapporto K/L, se b aumenta ho labour deepening. Se c aumenta,
invece, ho capital deepening. Se aumentano b e c, devo vedere il contributo maggiore. Devo però
SEMPRE valutare punti a pari rapporto K/L, NON posso confrontare punti con diversa intensità dei
fattori. In ogni caso, nella Cobb-Douglas, ho sempre labour deepening.
Sono imprese efficienti, quindi, determinano sul sistema economico un miglioramento dell’efficienza
perché hanno sviluppato una nuova tecnologia → effetto produzione
Adottando queste tecnologie posso avere un beneficio quindi la loro adozione porta ad una
maggiore efficienza: a parità di tutto, laddove non c’è deficit non la uso, laddove c’è la uso e posso
decidere in che quantità utilizzarla in base al deficit →effetto utilizzo
Posso rimuovere il fattore lavoro e automatizzare il sistema, riduco L e aumento K, intervengo dove
necessario e ho miglioramenti di produttività. Le tecnologie non solo migliorano l’efficienza, ma
riorganizzo il modo di produrre → effetto PTF
A livello microeconomico, noi consideriamo tanto le grandi imprese quanto le piccole imprese. Le
nuove tecnologie sono SEMPRE accompagnate da modifiche organizzative: il fattore lavoro deve
ricombinarsi col fattore capitale, e la ricombinazione vuole un vero e proprio adeguamento del
lavoro a seguito della modifica del fattore capitale. Altro tema importante è quello del meccanismo
dell’apprendimento. Ora vogliamo capire come si manifesta il progresso tecnico, a seguito
dell’introduzione di una nuova tecnologia. L’impresa è considerabile come un soggetto cognitivo,
uno stock di conoscenze. A livello di singola impresa, l’apprendimento consente di:
• adattarsi alle nuove tecnologie: la nuova tecnologia richiede introdurre un nuovo addestramento
per adattarsi alla tecnologia;
• garantire un continuo flusso di cambiamenti e miglioramenti nei prodotti e nei processi produttivi.
CURVE DI APPRENDIMENTO
Ipotizzando che esso sia un prodotto, osserviamo come varia il costo unitario medio al variare del
tempo: notiamo di essere in presenza di un fenomeno di apprendimento perché il costo unitario
medio del prodotto si riduce all’aumentare del tempo. Qui la pendenza della curva/retta è
enfatizzata, in realtà la curva di apprendimento ha ovviamente un andamento curvilineo, con un
andamento asintotico per tempi infiniti→la riduzione dei costi unitari medi è sì presente, è sì
rilevante nei primi delta di tempo, ma successivamente va a stabilizzarsi. Man mano che si va avanti
nel tempo, l’incremento dovuto all’apprendimento è sempre meno. Il fenomeno dell’apprendimento
è molto importante a livello impiantistico, quando si installano nuovi impianti.
APPRENDIMENTO MULTIDIMENSIONALE
Molto più interessante è l’approccio multidimensionale. Ci da un’idea più complessa e completa del
fenomeno dell’apprendimento. L’apprendimento non è un semplice fenomeno, è un complesso di
fenomeni e nelle imprese può essere utilizzato in varie forme, anche strategiche. L’approccio
multidimensionale ci dice che l’apprendimento va studiato non potendo utilizzare la semplice proxy
della riduzione del costo unitario medio.
L’apprendimento esterno ha luogo esternamente all’impresa. Questa forma interessa l’impresa nei
suoi rapporti con altre imprese. Queste sono le modalità classiche con cui l’impresa apprende: si può
apprendere imitando, ed è una delle forme più praticate, e in questo caso si intende l’imitazione con
accezione positiva. Imitare vuol dire apprendere e spesso ciò ha risultati positivi, se fatto bene; esiste
anche un apprendimento da interazione, che spesso nasce dal fatto che chi viene copiato può
scegliere tanto di “chiudersi”, tanto di interagire e dialogare con l’impresa che la imita. Questa
interazione permette di apprendere ed avviene in maniera casuale, involontaria. Lo scambio di
conoscenza avviene da entrambe le direzioni ed involontariamente (ad esempio due rappresentanti
di imprese ad una fiera che vanno a prendersi un caffè e scappa qualche piccola informazione);
l’ultima forma di apprendimento è un apprendimento da cooperazione, quando si ha una
collaborazione tra l’impresa ed un’altra, ad esempio quando ho una partnership con un fornitore,
con un laboratorio. La prima fonte di conoscenza e innovazione sono i fornitori, poi i clienti, le fiere
e le università.
Schumpeter ha visto e studiato tutto quello che è successo ad inizio ‘900. Ha visto il progresso
tecnico in azione e come le imprese erano in procinto di trasformarsi. Il pensiero di Schumpeter
nasce come pensiero neoclassico ma evolve nel giro di 50 anni, avanzando fino alle teorie evolutive.
Arrivò alla conclusione che l’economia stessa fosse mossa dall’innovazione. Secondo Schumpeter,
l’impresa esiste proprio perché c’è innovazione. Questo concetto è ancora oggi molto complesso
da comprendere. L’innovazione è apprendimento, e le imprese sono restie ad innovare perché le
imprese stesse hanno la tendenza ad imitare. Le imprese che non innovano sono soggette a rischi e
costi, che condurranno quell’impresa al fallimento. Uno dei motori dell’innovazione, per
Schumpeter, è il mutamento tecnologico. Fattori capitale e lavoro esistono proprio perché si deve
innovare. La tecnologia è centrale nell’economia dell’innovazione. Tutto questo porta sviluppo
economico!
Schumpeter, appurata la centralità del progresso tecnico nei suoi ragionamenti, propose una teoria
del progresso tecnico e una teoria dell’innovazione a livello d’impresa.
È chiaro che, ad un certo punto, gli altri imprenditori cercano di capire, cercano di entrare nel
mercato. Dal monopolio, che è uno stadio di equilibrio, si transita verso un nuovo stadio di equilibrio:
l’oligopolio. Solo dopo tutte queste transizioni, si ritorna al mercato perfetto. Solo dopo che, però,
l’innovatore ha ampiamente beneficiato delle rendite monopolistiche.
Ricordiamo sempre dove siamo: siamo nell’analisi microeconomica dei processi di innovazione, a
livello di impresa e/o di settore. Dopo aver visto i contributi della scuola neoclassica circa i contributi
del progresso tecnico e del processo di apprendimento, stiamo analizzando i pensieri di Schumpeter,
il primo economista ad aver messo il tema dell’innovazione come centrale nell’analisi economica.
Oltre a fare questo, però, è andato aldilà di questo, risultando quasi “profetico” rispetto al futuro
delle startup: l’imprenditore è colui che introduce innovazione nei mercati, determinando sviluppo
economico. Schumpeter inquadra l’evoluzione dell’impresa, sottoposta ad un processo di
innovazione, come una transizione fra stati di equilibrio che, contrariamente al pensiero neoclassico
secondo il quale un’impresa che innovava si trovava sempre (prima e dopo l’innovazione) in un
mercato perfetto, permettono all’impresa che innova di passare da un mercato perfetto ad un
monopolio (essendo l’unica ad avere il nuovo prodotto, beneficiando degli extraprofitti del
monopolista), da un monopolio all’oligopolio (a seguito del processo di imitazione da parte delle
altre imprese. Rimane comunque uno stato di equilibrio: pochi produttori e consumatori pressoché
infiniti) e solo dopo che il processo di imitazione si completa, si ridetermina nuovamente il mercato
perfetto. Schumpeter quindi ritiene la dinamica di innovazione una transizione tra diversi stati di
equilibrio, sotto forma di diverse strutture di mercato. Alla fine, si torna nuovamente al mercato
perfetto perché, ipotizzando che l’imprenditore che innova venga poi imitato dalle altre imprese
(tutti gli imprenditori sono razionali), al termine della transizione, tutti gli imprenditori avranno
imitato l’innovazione. Questo schema è fondamentale per l’analisi dei processi di innovazione, e lo
è persino tutt’oggi: spiega i meccanismi di extraprofitto e accumulazione capitalistica, nonché i
processi di imitazione che gli imprenditori generano sul mercato. Alla fine, l’innovazione porta
sempre sviluppo economico in un sistema economico.
È evidente che, Schumpeter arriva a questa modellazione dei processi di innovazione dopo aver visto
nei primi due decenni del ‘900 il formarsi di grandi imprese attorno a dei processi di innovazione
(esempio, Ford e P&G) che divenivano grandi e scalavano proprio grazie all’innovazione.
L’imprenditore-innovatore è anche il soggetto che accumula capitale grazie agli extraprofitti, e lo fa
rapidamente. Questo tema è quello che Schumpeter inquadra agli inizi del ‘900. L’analisi economica,
quindi, non può che osservare questi fenomeni.
OSS: la possibilità di mantenere il monopolio per un certo periodo di tempo è legato alla capacità
delle altre imprese di dar luogo al processo di imitazione→la presenza di un brevetto, ad esempio,
rallenta la transizione monopolio-oligopolio, favorendo la formazione di grandi capitali.
Soffermiamoci sul tema dell’imprenditore-innovatore: fino a prima di Schumpeter, era visto come
soggetto razionale che guidava le decisioni delle imprese. Ponendo l’innovazione al centro delle
decisioni aziendali, Schumpeter individua proprio nell’imprenditore il motore dell’innovazione e
dell’intera economia capitalistica. Solo l’imprenditore può farlo, in quanto è il soggetto che ha
un’idea, ha una tecnologia, ha delle risorse, effettua degli investimenti e attiva il processo di
innovazione. È in grado di coordinare i fattori di produzione per impiegarle nei processi di
innovazione. Ancora oggi si fa riferimento al termine di “imprenditori schumpeteriani”, per indicare
gli imprenditori che introducono delle innovazioni. Esistono anche degli “imprenditori imitatori” che
hanno un ruolo inferiore nell’analisi economica. I due ruoli non sono mutualmente esclusivi: un
imprenditore può essere innovatore e al contempo imitatore. Non ci sono classi diverse, è l’azione
imprenditoriale a classificare l’imprenditore, fermo restando che la funzione vera dell’imprenditore
è e rimarrà sempre il “fare innovazione”. Nelle economie socialiste (non capitalistiche) il ruolo
dell’imprenditore è svolto dallo Stato. Quindi l’economia capitalistica ha un vantaggio rispetto
all’economia socialista, perché lo Stato è molto più lento nell’azione di coordinamento delle risorse.
Ovviamente questi sono idealtipi, non esistono economie totalmente capitalistiche o socialiste!
Innovazione e profitto
Quelli che abbiamo visto fino ad ora, sono i contributi di Schumpeter all’analisi economica. In tutti
questi, due sono quelli che ci interessano maggiormente: l’aver reso l’innovazione come il centro
dello sviluppo economico e l’aver reso l’imprenditore come l’archetipo del soggetto che determina
sviluppo dell’impresa e del sistema economico.
Su questo secondo punto, Schumpeter cerca di trovare una spiegazione che vada oltre l’analisi
economica, ricercando una giustificazione dell’extraprofitto di cui l’imprenditore-innovatore
beneficia. Come già detto, l’economia nasce come scienza sociale→nell’analisi economica non conta
solamente esaminare i fenomeni economici, conta anche esaminare i fenomeni a livello aggregato
e collettivo, ossia il ruolo che i diversi soggetti/operatori hanno all’interno di una società. Di
conseguenza, il fatto che un sistema capitalistico permetta ad un individuo di beneficiare di un
extraprofitto pone un problema etico: radicatasi questa dinamica di transizioni di stato
nell’economia, la società ritiene che questo meccanismo di appropriazione degli extraprofitti sia
giusto? La risposta a cui perviene Schumpeter è molto interessante, perché ci fa capire molte cose:
questo profitto è l’espressione del valore del contributo dell’imprenditore alla produzione, e che
quindi spetta all’imprenditore in quanto rappresentativo della sua azione innovatrice è creativa. È
giusto che gli individui si approprino degli extraprofitti in quanto questi sono la remunerazione delle
loro azioni! È un premio a chi innova ed è creativo. È la remunerazione del rischio di cui
l’imprenditore si fa carico per introdurre un’innovazione, che non è detto abbia successo sul
mercato! Il profitto è un meccanismo incentivante, che attiva l’azione virtuosa degli imprenditori di
essere innovativi e creativi.
Questa posizione di Schumpeter è molto forte. È l’intuizione del “primo imprenditore” ad essere
premiata. L’azione imprenditoriale diventa, di fatto, un’azione sociale: a livello di collettività,
accettare questa “premiazione” significa mettere la società nelle condizioni di “correre” più
rapidamente, di crescere rapidamente. È la stessa cosa che avevamo visto col progresso tecnico, ma
adesso siamo in scala microeconomica.
Sì, ma, alla fine, siamo tutti d’accordo o abbiamo qualche dubbio su queste affermazioni? In ottica
socialista, perché questo premio va tutto all’imprenditore e non vengono premiati anche i lavoratori?
Quanto di questa remunerazione debba essere a favore dell’imprenditore e quanto della forza lavoro
impiegata nell’innovazione? Questo è uno dei tanti problemi attuali.
Fenomeni di innovazione
e anche altri, precedentemente non considerati, ma che con Schumpeter assumono importanza:
3)Apertura di nuovi sbocchi di mercato: un’impresa che apre un nuovo sbocco di mercato sta
innovando, senza modificare né processi né prodotti!
4)Acquisizione di nuove fonti di materie prime: una nuova fonte di materie prime è a tutti gli effetti
un cambiamento, per cui il metodo di produzione rimane uguale ma abbiamo nuovi materiali;
Schumpeter vive l’inizio del 1900, in cui si è vista la comparsa di nuove tecnologie, nuovi laboratori,
centri di R&S anche all’interno delle imprese. In una fase iniziale, il pensiero di Schumpeter ha
impostazione neoclassica. Dopo aver rielaborato questa evoluzione nel sistema economico e nelle
imprese, modifica la sua visione dell’innovazione, tant’è che parleremo di prima fase e seconda fase
dei modelli di innovazione di Schumpeter. Nel passaggio tra le due fasi c’è una rottura importante,
che mette in discussione un pilastro dell’approccio neoclassico: la tecnologia NON si sviluppa
esternamente all’impresa
Nella prima fase, considera la produzione di conoscenza scientifica totalmente esogena al sistema
economico ed alle sue influenze→università e centri di ricerca operano ponendosi domande e
dando risposte, e agiscono in maniera del tutto indipendente dalle esigenze del sistema economico
(non si fanno influenzare dal sistema economico). La scienza, la tecnica e la produzione di
conoscenza scientifica si sviluppano indipendentemente; pertanto, le invenzioni prodotte possono
essere trasformate in innovazioni grazie all’intuizione dei cosiddetti “uomini nuovi”, gli imprenditori,
che intuiscono qualcosa di nuovo, adottano l’invenzione e la usano per generare innovazione. Una
volta che un’innovazione radicale ha successo e viene introdotta nel mercato, esso si sconvolge. Si
ha un profitto monopolistico temporaneo a favore del sistema e dell’imprenditore, con conseguente
crescita. L’aver acquisito l’informazione che quella nuova tecnologia consente di fare innovazione e
creare extraprofitti, gli sciami di imitatori seguiranno il processo di imitazione che riporteranno il
sistema all’equilibrio. Questo equilibrio verrà perturbato nuovamente alla nascita di una nuova
innovazione.
Schumpeter a valle della prima fase riflette sul suo pensiero in base a quanto vede negli anni e
cambia il proprio modello di innovazione in maniera importante.
Nella seconda fase, Schumpeter osserva le grandi aziende che, capendo che l’innovazione è in grado
di generare vantaggio monopolistico, si attivano per accelerare il processo di produzione della
conoscenza. Come si accelera la produzione della conoscenza? Le aziende cominciano a costituire
delle loro funzioni interne di R&S, sviluppando una capacità di R&S importante. Questa attività di
R&S porta ad una conoscenza prodotta all’interno delle aziende e finalizzata ai bisogni delle aziende.
Quindi, Schumpeter conclude che esiste un’influenza del sistema economico nello sviluppo delle
conoscenze scientifiche. Questo vuol dire che la conoscenza e il suo progresso sono influenzati dal
sistema economico! Incomincia a diventare sempre più rilevante la conoscenza prodotta
nell’impresa, piuttosto che quella “curiosity driven”. La conoscenza scientifica diventa sensibile al
sistema economico e alle sue influenze. Addirittura, oggi, sono i governi a sostenere lo sviluppo della
conoscenza scientifica e tecnica all’interno delle imprese. Non solo hanno una capacità di
finanziamento proprio, ma le imprese sono supportate anche dal governo.
Questo cambio permette una modifica profonda del modello di Schumpeter: arrivo ad intuire la
nascita di una spirale virtuosa, secondo la quale, l’impresa che fa innovazione beneficia dei vantaggi
monopolistici e, se investe parte o la totalità di questi extraprofitti in ulteriori attività di R&S, riuscirà
a produrre ulteriore conoscenza e quindi riuscirà a generare ulteriori innovazioni e un’ulteriore
spirale virtuosa. Questo fenomeno è effettivamente presente anche oggi, ed è importantissimo.
Schumpeter, nella fase finale della sua vita, conclude sostenendo che esiste un legame fra scienza,
tecnologia, investimenti innovativi e mercato, e questi legami sono molto più intimi di quanto
possano apparire.
Esistiti dal 1925 al 1984. Controllavano le telecomunicazioni ma hanno sempre ritenuto importante
l’attività di R&S per competere con l’innovazione e attraverso l’innovazione di successo, cioè gli extra
profitti monopolistici. Sono stati il laboratorio principe, che ha avviato la spirale virtuosa di cui
parlava Schumpeter. In questi laboratori sono state portate avanti ricerche avanzatissime che hanno
permesso ai ricercatori di ricevere premi Nobel. Si fa ricerca di base. Furono venduti alla Nokia e
attualmente appartengono all’Alcatel-Lucent Venture. A loro si attribuiscono l’invenzione dei
transistor, dei laser ecc.
Anche la Philips ha avuto una storia numerosa di premi Nobel, con un laboratorio di ricerca di base
di assoluto livello. Per decenni ha realizzato prodotti innovativi e beneficiato di ciò; con il tempo fare
R&S è stato sempre più costoso e la competitività è aumentata, così ha fatto una scelta di
specializzazione, specializzandosi in ambito biomedicale. Anche Philips, come Bell Labs, ha
accorciato l’orizzonte temporale delle loro attività di ricerca, focalizzandosi maggiormente sulla
ricerca applicata. Philips e Bell Labs hanno un punto in comune: entrambi fanno ricerca su tecnologie
dette “dirompenti”, in particolare sull’elettronica. Le innovazioni, quindi, seguono lo sviluppo delle
conoscenze scientifiche e di base. Quindi, mentre alcuni centri si focalizzano sulla ricerca applicata
perché in quegli ambiti è già cominciata la competizione oligopolistica, in altri ambiti, altri centri di
ricerca e sviluppo di imprese private, stanno cominciando a ragionare come Philips e Bell Labs hanno
ragionato agli inizi sull’elettronica.
Caratteristiche dell’innovazione
Di Schumpeter vogliamo ricordare anche l’analisi dei fenomeni di innovazione, da un punto di vista
marco economico settoriale. Schumpeter conduce osservazioni riguardanti il tempo in cui si
manifestano le innovazioni e rispetto ai settori economici in cui si manifestano.
Schumpeter osserva che alcune innovazioni avvengono in quanto si sono verificate altre innovazioni.
Qui NON sta parlando della imitazione di un’innovazione, ma sta parlando del fatto che, quando
compare una particolare innovazione, poi si verificano altre innovazioni che è come se formassero
un “grappolo di innovazioni”, ossia un gruppo di innovazioni che in qualche modo dipendono da
quella prima innovazione. Questo discorso è interessante in quanto apre il tema dei cicli economici.
Quindi non è imitare, è: compare in un certo tempo un’innovazione e, in seguito, altre innovazioni
seguono in qualche modo correlate a quell’innovazione. Grappolo di innovazioni NON SONO GLI
IMITATORI. Un grappolo di innovazioni è un insieme di innovazioni, nel quale delle N innovazioni
presenti nel grappolo, N-1 sono correlate in qualche modo a quella principale.
Schumpeter osserva anche che le innovazioni non si concentrano in maniera uniforme su tutti i
settori, ma ci sono settori in cui ci sono più innovazioni e settori in cui ci sono meno innovazioni.
Questa concentrazione su alcuni settori comporta una diversa dinamica evolutiva nei diversi settori.
Un esempio tipico è la fotografia digitale: nell’ambito delle tecnologie ottiche e digitali, il manifestarsi
di un grappolo di innovazioni ha portato a far sì che quel settore economico si sviluppasse. Possiamo
dire che settori con alta concentrazione di innovazioni vedono una forte crescita. Al contrario, nel
settore dell’agricoltura, nel passato rispetto al settore della fotografia digitale ci sono stati tassi di
crescita molto più lenti, proprio perché ha beneficiato di meno innovazioni. Oggi, però, cominciamo
a vedere molte innovazioni anche nel settore agricolo (ad esempio, tecnologie digitali, biotecnologie,
agricoltura di precisione ecc.) e quindi potrebbe cambiare in maniera decisamente importante e
diventare un settore estremamente più dinamico in termini di crescita. Un altro esempio è il settore
dell’industria delle costruzioni, che fino a 10-20 anni fa era molto tradizionale, con pochissime
innovazioni, e in seguito alla nascita di nuovi materiali e nuove tecnologie per gli “edifici intelligenti”
sta per subire una profonda dinamica evolutiva.
Questi modelli concettuali sono molto importanti, soprattutto per capire in quali settori investire: se
fossi un fondo di investimento, andrei a vedere quali sono i settori interessati da innovazioni nel
futuro e che potranno crescere grazie ad esse.
Questo discorso per i settori economici vale anche nelle aree geografiche: 100 anni fa nessuno
avrebbe investito negli Emirati Arabi, oggi sono interessati da dinamiche innovative molto
importanti.
Dopo aver visto i grandi cambiamenti nell’economia statunitense e mondiale nel 1929, fornendo una
comprensione (tramite modelli) di quelle dinamiche, Schumpeter arriva a concludere che
l’evoluzione economica si sviluppa come una sequenza di processi, ciascuno caratterizzato da una
due fasi:
Quindi, per Schumpeter, l’evoluzione economica passa per due dinamiche: la dinamica innovativa,
basata sul processo di innovazione imprenditoriale, sulla creazione di profitti e occupazione; la
dinamica recessiva, legata al fatto che prevalgono gli effetti di imitazioni, che causano meno spinta
innovativa e meno sviluppo economico.
Schumpeter sostiene che, i grappoli di innovazione importanti sono quelli che contribuiscono
notevolmente alla fase di espansione e quindi alla fase di prosperità; mentre, in assenza di
meccanismi di innovazione, i meccanismi di imitazione sono quelli che tendono maggiormente a
favorire la fase di recessione.
Questa analisi, tuttavia, è molto semplicistica! È stata ulteriormente sviluppata da Kuznets, premio
Nobel per l’economia, il quale sintetizzò meglio il pensiero di Schumpeter sui cicli economici. A
seguito di studi condotti sul settore dell’edilizia negli USA nel 1930, pervenne alla considerazione
secondo la quale a generare i cicli economici contribuiscono:
Fattori esogeni: tra i quali figurano scoperte scientifiche e innovazioni tecnologiche. Se si sviluppano,
queste contribuiscono alla crescita;
Quindi Kuznets riprende il pensiero di Schumpeter e aggiunge anche i contributi dei fattori endogeni,
legati proprio alla struttura dell’economia, che contribuiscono proprio alla formazione
dell’andamento ciclico di un sistema economico nel lungo periodo (decenni).
1)hyp 1: esiste una relazione tra la produzione in un dato tempo t, Y(t), e lo stock di capitale K in quel
tempo, K(t). Questa relazione la conosciamo ed è tale che K(t) = g Y(t), che ci dice come Y(t) e K(t)
sono legate da una costante g, chiamata coefficiente di capitale. Quindi, per poter soddisfare un
certo livello di output, è necessario avere uno stock di capitale g volte maggiore dell’output. In
questa relazione si annida il principio di accelerazione degli investimenti.
2) hyp 2: la produzione si adatta (tende ad adattarsi) alla domanda, per cui le imprese producono in
relazione alla domanda. L’investimento che le imprese fanno è determinato in funzione di quella che
è la domanda che le imprese prevedono. Ad esempio, se prevedo che la domanda è in crescita, farò
investimenti per aumentare la mia dotazione di capitale; se prevedo che la domanda non è in
crescita, non farò investimenti!
3) hyp 3: la durata media del capitale, soggetto ad un tasso di logoramento annuo, è costante nel
tempo e pari ad n [anni]. Di conseguenza, il tasso di logoramento è pari ad h=1/n. Quindi, ogni anno,
1/n del valore del capitale, si logora e non è più utilizzabile e va rimpiazzato.
In primis, possiamo affermare che dobbiamo fare investimenti di sostituzione, per sostituire il
capitale logorato, che ogni anno si logora di 1/n * K(t). Questo investimento, Ir(t), è pari a:
Poi, abbiamo anche un investimento netto, ossia ciò che aggiungiamo in termini di capitale, al tempo
t. Facciamo questo perché abbiamo evidentemente una previsione di crescita della domanda al
tempo t+1. Se prevediamo che la domanda non crescerà, l’investimento netto sarà pari a 0. Quindi,
l’investimento netto In(t) al tempo t è pari all’incremento di capitale che prevediamo al tempo t al
fine di essere in grado di produrre Y(t+1) al tempo t+1:
Da cui:
Notiamo come, per effetto di g, possiamo legare gli investimenti ad Y. A questo punto, possiamo
calcolare l’investimento totale al tempo precedente, t-1:
Guardiamo questo esempio numerico. I dati di partenza sono i seguenti: D(0)=100; I(0)=250; g=5;
h=0.5
Assumendo g=5, al tempo t=1 vuol dire che lo stock di capitale che mi consente di produrre Y(t)=100
è pari a K(t)=5*100=500. Questo vuol dire che devo considerare un investimento di sostituzione Ir(t)
a causa del logoramento del capitale nel tempo. Avendo ipotizzato un tasso di logoramento h=0,5,
avrò un Ir(t)=250, che mi indica quanto capitale devo rimpiazzare per sopperire a tale logoramento.
L’investimento netto al tempo t=1 si stabilisce in relazione alla produzione che prevedo di dover fare
al tempo t+1, ossia t=2. Per fare questo ragionamento, al tempo t devo prevedere la domanda al
tempo t+1, che secondo le previsioni riamane costante e pari a 100, pertanto l’investimento netto è
nullo. Di conseguenza, l’investimento totale è pari a Ir(t)+0 ossia 250. Essendo al primo periodo, la
domanda al tempo 0 è pari a D(0)=100 e un investimento totale I(0)=0, pertanto, non abbiamo
variazioni negli investimenti tra t=0 e t=1.
Al tempo 2 abbiamo lo stesso rispetto al tempo 1, l’unica cosa che cambia è l’investimento netto,
perché si prevede un aumento della domanda dal tempo 3, che passa da 100 a 120, incrementando
di 20. Di conseguenza, l’incremento di capitale è pari a g*Y(t=3)=100 quindi In(t=2)=100. Quindi,
l’investimento totale tiene conto anche dell’investimento netto, e vale 350. Questo comporta
rispetto al tempo 1 una variazione di 100 negli investimenti.
Al tempo 3 abbiamo una domanda e una produzione di 120, quindi lo stock di capitale è pari a g*120
ossia 600. Questi 600, sottoposti a logoramento, comportano un investimento di sostituzione pari a
0,5*600=300. L’investimento netto, invece, in previsione del fatto che al tempo 4 la domanda non
varia rispetto al tempo 3, è nullo. Quindi l’investimento totale è pari a 300. Attenzione, la variazione
degli investimenti qui è negativa! Quindi abbiamo un aumento nella variazione della produzione e
una riduzione nella variazione degli investimenti!
Così via, per gli altri periodi di tempo nella tabella. In sintesi, cosa osserviamo? Osserviamo che,
mentre la domanda ha un profilo di crescita relativamente “tranquillo”, perché si mantiene
pressoché costante, aumenta di poco, poi torna costante. È uno scenario ideale per la domanda,
quasi perfetto, oltre che prevedibile. Al contrario, gli investimenti netti oscillano fortemente a causa
di ciò, comportando una variazione degli investimenti che oscilla da valori negativi a valori positivi.
Quindi, con una domanda costante, la variazione degli investimenti comincia ad oscillare→questo
fenomeno, in termini aggregati, determina all’interno del sistema economico l’oscillazione delle
variabili economiche, pur in uno scenario che sembra buono e di crescita.
DI
Se la domanda diminuisce, si ha una caduta di D, di PIL e conseguentemente, sullo stock di K cosa
faccio? È difficile eliminare stock di K. Lo stock di K si logora comunque, quindi si dovrà decidere se
sostituirlo sapendo che non verrà usato totalmente, azzerando l’investimento netto (non posso fare
investimenti netti negativi). Oppure si riducono gli investimenti di sostituzione, dato che il K non
serve più.
Queste variazioni ci danno dei problemi, a livello di impresa: se siamo un’impresa che produce beni
strumentali, che sono i tipici investimenti per ampliare il capitale vedrò la mia domanda oscillare.
Questo effetto montagna russa comporta a sua volta una variazione della domanda D! Così come
sale e scende la domanda delle imprese dei beni strumentali, varia la domanda delle imprese. Se
varia un settore, varia la domanda aggregata per tutto. Se varia un settore che è interdipendente
con altri, se la sua domanda varia, varierà anche quella degli altri settori.
Quindi, l’acceleratore degli investimenti ha una componente di instabilità del sistema rilevante.
Quindi, riprendendo la variazione degli investimenti:
Vedremo cosa succede alle variazioni degli investimenti nel tempo, in relazioni ad eventuali
variazioni della domanda:
CASO 1: se n tende ad infinito, il tasso di logoramento del capitale h tende a 0. Quindi, il capitale non
si logora e quindi la variazione degli investimenti è legata solo cioè il capitale si logora con tasso
1/infinito e quindi non abbiamo bisogno di In (sostituzione) e l’investimento totale è legato alle
aspettative sui livelli di produzione e il ∆I(t) diventa, essendo h tendente a 0:
Cioè, faccio investimenti netti e il loro valore è legato alla variazione che io ipotizzo sul livello di
produzione t+1 meno le variazioni che avevo già ipotizzato.
CASO 2: se n=1, allora h=1, c’è una componente istantanea, il capitale si logora tutto, il nostro
investimento deve avere una componente di sostituzione pari a K(t). La variazione di investimenti da
effettuare al tempo t è una variazione che tiene conto della variazione del livello di produzione che
ci aspettiamo:
che
∆𝐼(𝑡) = 𝑔 [∆𝑌(𝑡 + 1)] parte importantissima
osservazione umana
OSS: naturalmente, il principio di accelerazione degli investimenti NON è l’unico fattore endogeno
che influisce sulla fluttuazione dei cicli economici. Ad esempio, anche il moltiplicatore del reddito
può considerare andamenti ciclici. Secondo il moltiplicatore del reddito, gli investimenti I producono
un incremento del reddito R, generando un ∆𝑌, che è pari ad un certo numero di volte il valore degli
investimenti stessi. Questo fattore moltiplicativo che lega I ed Y dipende dalla propensione al
risparmio. Questa caratteristica è molto importante. In economia, normalmente, la componente che
il Governo può controllare, è una quota parte degli investimenti totali, ossia gli investimenti pubblici.
Gli investimenti privati, sono nelle mani delle imprese. Quindi gli investimenti totali sono somma di
investimenti pubblici ed investimenti privati. Gli investimenti pubblici sono molto utili: se noto che
gli investimenti privati sono in riduzione, aumento gli investimenti pubblici (con degli investimenti
integrativi) per mantenere un prefissato livello di reddito. Queste manovre prendono il nome di
“politiche anticicliche”. Anticiclica perché, nel momento in cui si sta per verificare la recessione, a
causa della caduta degli investimenti privati, effettuo investimenti pubblici integrativi per sopperire
a tale caduta e attenuare, o eliminare, la recessione.
Kirzner si interessa dei temi di innovazione, imprenditorialità e competizione. Degno di nota è il suo
contributo “the driving force of the market”.
Per Kirzner esiste qualcosa che non è spiegabile dal pensiero Schumpeteriano, ossia la capacità
dell’imprenditore di capire ciò che i consumatori si aspettano e vogliono dall’innovazione. I
consumatori hanno idee ed aspettative differenti. Quindi, per l’imprenditore sorge un problema:
essendoci una miriade di idee differenti, quale scelgo per l’innovazione? QUI STA L’IMPRENDITORE
KIRZNERIANO: l’imprenditore secondo Kirzner intuisce, perché ha una capacità detta alertness, ossia
la capacità di essere vispo, intuitivo, scoprire bisogni insoddisfatti. L’imprenditore trova un piano che
sia in grado di coordinare tutte (o la maggior parte) delle diverse esigenze dei consumatori. Quindi
l’imprenditore Kirzneriano comprende tutti i piani di domanda dei consumatori e propone un’offerta
che, secondo lui, è in grado di rispondere in un certo modo alle diverse esigenze. Un altro
imprenditore proporrà una soluzione differente, in grado di risolvere differentemente le esigenze dei
consumatori, e qui sta la competizione!
Se l’imprenditore è stato sufficientemente veloce e capace, il suo prodotto potrà competere con gli
altri prodotti, e questa sua capacità, come nel caso Schumpeteriano, viene ricompensata attraverso
il profitto. Il profitto è descritto come l’indice dell’avvenuta individuazione di latenti situazioni di
disequilibrio e dell’apprestamento di mezzi idonei al loro superamento. È il premio, anche qui, per
le capacità dell’imprenditore.
Qui occorre, però, discutere bene il concetto di scoperta imprenditoriale: così come l’imprenditore
Schumpeteriano si sforza per trovare le migliori tecnologie in grado di proporre un prodotto
innovativo, l’imprenditore Kirzneriano impiega uno sforzo sul mercato, per capire i bisogni del
mercato stesso, e questo sforzo porta all’individuazione della soluzione più efficace.
Volendo provare a sintetizzare, Kirzner e Schumpeter NON sono in contrasto! Sono complementari.
Vedremo, però, che esiste un modo per ricongiungerli grazie all’approccio evolutivo! Tutte e due le
visioni sono da adottare: dipende solo dal tipo di mercato, di prodotto, dal tipo e numero di
concorrenti ecc. Ciascuno dei due è figlio dei propri tempi.
Approccio evolutivo
Oltre all’approccio neoclassico abbiamo visto che c’è un altro approccio microeconomico per
analizzare i fenomeni di innovazione, che è quello evolutivo. Questo approccio fornisce una
prospettiva estremamente diversa ed esplicativa di quello che avviene nelle imprese. Si è sviluppato
in epoca più recente, verso gli anni ’80. L’approccio neoclassico si concentra sulla funzione
produzione e su come l’imprenditore mette insieme i diversi fattori di produzione. L’approccio
evolutivo ci permette di capire cosa accade effettivamente alle imprese quando operano sul
mercato. Per farlo, partiremo proprio dall’analisi del contributo di Schumpeter
Schumpeter, però, nei suoi concetti, non spiega una cosa fondamentale: se continuo a fotografare il
mercato, cosa succede? Oggi, osservo che i produttori non si imitano perfettamente e non sono
perfettamente razionali. Quindi, fotografando il mercato, mi accorgo che le imprese NON IMITANO
PERFETTAMENTE L’INNOVATORE, anzi, tendono un po’ ad imitarlo e un po’ a differenziarsi da esso!
La differenziazione, per Porter, è una delle modalità con le quali l’impresa può ricercare vantaggio
competitivo. Il concetto di differenziazione, tallone di Achille di Schumpeter, è proprio l’incipit del
pensiero evolutivo. Guardiamo questa immagine:
Su questo tema, gli economisti si sono interrogati per anni e ancora continuano a farlo. Ancora, un
altro esempio è quello delle compagnie aeree: ce ne sono tantissime e tutte differenti, come fanno
a sopravvivere, perché non è avvenuto un processo di imitazione totale? Perché Ryanair sopravvive
a Lufthansa? Perché quelle imprese sopravvivono, pur vivendo in una competizione nei mercati, che
è una competizione che spinge a cercare le soluzioni migliori per sopravvivere. È come se le imprese
fossero delle specie animali che, per sopravvivere, un po’ si imitano e un po’ si differenziano. Queste
prime intuizioni risalgono agli anni ’60-’70, gli anni delle grandi competizioni fra le imprese, ed è
proprio in quel periodo che si usava fare riferimento alla metafora della sopravvivenza delle specie
viventi: l’idea era, essenzialmente, che le imprese come le specie viventi combattono fra di loro per
sopravvivere. Il mercato è un’arena competitiva dove le imprese, un po’ simili e un po’ diverse, sono
in competizione fra loro, e lottano per la sopravvivenza. Questa metafora crebbe sempre più tra gli
economisti, che percepirono questa similitudine, ma non avevano ancora formalizzato un pensiero
rigoroso al riguardo.
N.B: Quando non si ha ancora una teoria, ma si va a attingere da altri pensieri, si usano le metafore:
prendiamo un concetto slegato da quanto stiamo dicendo e lo utilizziamo per spiegare meglio il
pensiero che vogliamo portare avanti. La competizione delle imprese viene metaforicamente intesa
come la lotta fra gli animali per la sopravvivenza in un habitat naturale.
Ad un certo punto, il ragionamento viene ripreso da una serie di contributi fondamentali: il primo,
negli anni ’50, apre la mente degli economisti, è il contributo di Alchian. Nel 1982, grazie a questo
contributo, nasce un libro fondamentale di Nelson e Winter, “An evolutionary theory of economic
change”, che imposta l’analisi dell’impresa (e in particolare l’innovazione nell’impresa) utilizzando
una metafora di tipo evolutivo. È un libro molto dirompente che richiede di fare dei cenni sulla teoria
evolutiva per capire il comportamento delle imprese.
Il ragionamento che Nelson e Winter fanno parte dall’osservazione della realtà. Osservando la realtà,
loro dicono che ci sono una serie di questioni che non li convincono:
Per Nelson e Winter, è il modo con cui si prendono le decisioni a caratterizzare l’impresa. Le decisioni
riguardano tutte le aree dell’impresa! Questo salto dalla funzione di produzione alle routine è
importante, ma è anche figlio dei tempi di Nelson e Winter. Le imprese negli anni ’60 hanno
cominciato a “managerializzarsi”; oggi, anche chi ha un ruolo operativo, prende decisioni in
un’impresa. Le routine, poi, permeano tutto il mondo organizzativo, anche nella vita di tutti i giorni,
e sono proprio i comportamenti routinari a mantenere la stabilità in un sistema. Una routine, per N
e W è un qualsiasi modello comportamentale regolare e oggetto di prevedibilità. Naturalmente
questo implica che l’obiettivo sia quello di rappresentare qualunque comportamento dell’impresa
sulla base del concetto di routine. La prevedibilità delle routine rende più facile lavorare con le
routine stesse, perché danno stabilità all’organizzazione. Il fatto che le routine si ripetano da identità
all’organizzazione. Le routine NON sono una funzione esplicativa di come avvengono le attività,
vanno solo a caratterizzare le attività.
Ma quindi, Nelson e Winter dicono: sostanzialmente, le routine giocano nelle imprese il ruolo che i
geni giocano nelle specie viventi. I geni, infatti, caratterizzano gli individui e rimangono stabili. Questa
è l’analogia fondamentale tra teoria dell’impresa e teoria evolutiva delle specie, ed è il punto di
partenza delle teorie evolutive.
Ora, se una routine si mantiene sempre uguale nel tempo, il sistema rimane sempre lo stesso nel
tempo. Ma se anche una sola routine dovesse cambiare, mi aspetto un cambiamento del sistema.
Quindi la routine da stabilità, il loro cambiamento dà il cambiamento del sistema.
I caratteri persistenti di un organismo sono determinati dalle routine, ma non esistono solo questi!
Esiste anche il carattere ereditario: nelle specie viventi si replicano negli individui successivi gli stessi
caratteri degli individui genitori (non totalmente, ma in buona parte sì), lo stesso si può dire delle
imprese→le imprese hanno dei caratteri persistenti e, quando esse generano nuove imprese, nuove
divisioni, nuovi rami d’impresa ecc. “trasmettono” come eredità molti dei loro caratteri.
Quindi grazie alle routine tutto diventa prevedibile, ma c’è anche una componente stocastica,
secondo la quale quasi tutto si replica nelle routine, ma bisogna sempre ricordarsi che non si è
onnipotenti. Pertanto, tutto questo è all’interno di un contesto di razionalità limitata→siamo
soggetti a una certa razionalità ma c’è anche una componente di imprevedibilità.
Prima di entrare nel vivo delle teorie evolutive delle imprese, dobbiamo riflettere sulle teorie
evolutive in ambito biologico.
La teoria evolutiva alla quale oggi facciamo riferimento è quella di Darwin. In realtà, non è l’unica
esistente: esiste un’altra teoria evolutiva, ossia quella proposta da Lamarck e nata prima di quella di
Darwin.
Jean-Baptiste Lamarck (1744-1829): Nel Settecento abbiamo l’Illuminismo. Lamarck nel 1802 scrive
il Trattato di Filosofia zoologica. Sostiene che in un essere vivente un organo si sviluppa con il suo
uso e che questo carattere viene acquisito dai discendenti, che nasceranno quindi con quell’organo
più sviluppato. Il suo esempio più famoso è quello della giraffa, ma la natura ne offre molti altri (gru,
uccelli acquatici palmipedi). La giraffa ha il collo lungo perché è l’uso che sviluppa l’organo. I suoi
eredi ereditano questo carattere modificato. La giraffa manifesta la sua intenzionalità e allunga il
collo, usandolo. Le discendenze continueranno a loro volta ad allungare il collo. C’è competizione tra
gli animali, quindi, la giraffa ha un comportamento razionale e intenzionale: mangia le foglie dagli
alberi e allunga il collo. La giraffa si è adattata all’ambiente, se gli alberi continuassero a salire
allungherebbe il suo collo. Ogni animale si è adattato in relazione al contesto. Il contesto ha quindi
un ruolo importante nell’evoluzione ma per Lamarck c’è anche una parte di intenzionalità propria
del soggetto di adattarsi al contesto. L’ipotesi di Lamarck è nota come legge di ereditarietà dei
caratteri acquisiti. Quindi, per Lamarck, in base all’uso un individuo modifica una propria parte del
corpo per mantenere la sua competitività nell’ambiente in cui vive e, tale modifica, viene ereditata
da tutti gli individui successivi e rimane come carattere persistente di quell’individuo. Poi esiste il
meccanismo di selezione naturale che è lo “strumento” col quale la natura determina quale carattere
è più adatto a sopravvivere in quell’ambiente.
Gli studi hanno confermato che le teorie evolutive in ambito biologico si poggiano sulle teorie di
Darwin e non quelle di Lamarck.
OSS: Lamarck non sapeva nulla dei geni e del loro ruolo nell’evoluzione; pertanto, le sue teorie si
basano SOLO sui caratteri esteriori delle specie.
OSS: come tutte le teorie innovative e tutte le spiegazioni, Darwin non ebbe un’accoglienza calorosa
dalla comunità scientifica, che vedeva quasi come un insulto l’associazione della discendenza
dell’uomo a quella degli animali. Darwin introdusse un cambiamento radicale nel modo di pensare
della società.
Capiamo cosa succede post-Darwin, quando si scoprono i geni e la loro funzione. Innanzitutto,
dobbiamo distinguere due concetti fondamentali. Nella teoria genetica, vegetale e animale si parla
di genotipo e fenotipo come due concetti distinti! Il genotipo di un individuo è dato dal suo corredo
genetico, ciò che viene riportato dal suo DNA (la sequenza di proteine) ed è qualcosa di immutabile
nel tempo. Dato il genotipo, il fenotipo di un individuo è quell’insieme di caratteri che l’individuo
manifesta all’esterno. Il fenotipo dipende dal genotipo, dalle interazioni fra i geni e anche da fattori
esterni e rappresenta le caratteristiche esteriori dell’individuo. Pertanto, per sua natura, il fenotipo
può variare. Quindi ogni individuo nelle sue cellule ha il proprio genotipo che mantiene la sua
stabilità nel tempo e il proprio fenotipo, l’insieme dei caratteri esteriori che l’individuo manifesta e
possono variare.
Esempio: individuo umano con occhi azzurri. Il carattere “occhi azzurri” è un fenotipo, in quanto
carattere esteriore che l’individuo manifesta; quel fenotipo è dipendente da uno o più geni e quindi
dal genotipo dell’individuo→quello che noi osserviamo all’esterno, che è il carattere che sottopone
l’individuo alla selezione naturale, è connesso a caratteri interni, propri del corredo genetico (geni e
genotipo). Quindi, un fenotipo dipende da più geni e un gene può influenzare diversi fenotipi.
È evidente, quindi, che il contributo della genetica non sposta moltissimo nelle teorie evolutive: i
caratteri esteriori sono quelli che l’individuo, manifestando, sottopone alla selezione naturale. Ma
quei caratteri esteriori dipendono dal genotipo. Pertanto, selezionando tutti gli individui con quel
fenotipo, nella sopravvivenza della specie, se quel carattere è favorevole alla replica di questi
individui, è evidente che quel genotipo sottostante quel carattere esteriore ne risulterà selezionato.
Il meccanismo di selezione naturale è operante a livello di fenotipo, mentre il meccanismo che
determina quel particolare fenotipo è caratterizzato dal genotipo. Questo vuol dire che, una volta
che la selezione naturale ha scelto dei fenotipi nell’evoluzione, sta conseguentemente scegliendo i
genotipi da cui quei fenotipi dipendono!
Se si replicano solo gli individui col fenotipo “occhi azzurri”, è evidente che si staranno replicando i
genotipi che influenzano l’avere occhi azzurri. I cambiamenti negli individui si manifestano a livello
di genotipo e, nel momento in cui casualmente si dovesse generare un cambiamento nel genotipo,
questo determinerà un cambiamento del fenotipo, ma non è detto che questo verrà poi selezionato
dall’ambiente. Se dovesse accadere, avverrà la replicazione.
Quindi la teoria evolutiva si conclude sostenendo che le variazioni nei caratteri fenotipici sono delle
conseguenze di mutazioni di carattere genotipico. Questo punto è fondamentale perché è il gene a
definire le capacità intrinseche di ogni organismo.
Adesso dobbiamo ricercare l’analogia tra questa teoria evolutiva e quella a livello di impresa: noi
possiamo associare alle routine che caratterizzano le attività dell’impresa il significato di gene.
Cerchiamo di capire meglio. Le imprese sono caratterizzate dalle loro routine, devono produrre
beni/servizi, assumere/licenziare dipendenti, fare campagne pubblicitarie ecc. e Nelson e Winter ci
dicono che queste routine possono essere assimilate ai geni degli esseri viventi. Questo ha senso
perché le routine organizzative sono quel patrimonio di conoscenze che tende a mantenersi stabile
nell’imprese e che influenza le performance dell’impresa. Quindi, come le routine sono i geni, le
performance dell’impresa sono i fenotipi, i caratteri esteriori che l’impresa manifesta che dipendono
dai geni, ossia le routine organizzative. Quindi, l’idea di N e W e che si possa andare avanti grazie a
questa analogia, sviluppando la teoria evolutiva dell’impresa. La selezione naturale tra le imprese
avviene sulle performance e non sulle routine. Solo dopo che le imprese vengono selezionate in base
alle performance, vengono selezionate le routine sottostanti a quelle performance!
Di conseguenza, il meccanismo che porta a decidere il cambiamento di una routine non può essere
un meccanismo casuale, perché le imprese modificano le proprie routine per modificare le proprie
performance; quindi, queste modifiche avvengono attraverso un ragionamento che deve essere
costruito con intenzionalità. Questo, ovviamente, ci pone davanti a un problema: le teorie biologiche
rispondono alle logiche darwiniane…nelle imprese, non potendo essere casuale il meccanismo di
modifica delle routine, bensì intenzionale, perché ci riferiamo alle teorie di Darwin e non di Lamarck?
Dobbiamo accettare il fatto che l’impresa possa decidere intenzionalmente quale performance
modificare e quindi quale routine modificare. Ma è veramente così?
La selezione avviene sulle performance e non sulle routine, il mercato sceglie in base ai caratteri più
apprezzati. Ma questi caratteri richiedono delle routine per essere sviluppati. Quindi, per Nelson e
Winter il cambiamento è intenzionale a livello genotipico e la selezione naturale avviene a livello
fenotipico. Il cambio di performance sottende ma è anche sotteso da un cambiamento intenzionale
della routine organizzativa. Il cambio di performance guida il cambio di routine, ma è allo stesso
tempo il cambio stesso della routine a guidare il cambio di performance! Quindi il modello di Nelson
e Winter è molto più vicino a quello di Lamarck. Nonostante questo, a causa della razionalità limitata,
c’è anche una componente Darwiniana di casualità che opera contemporaneamente
all’intenzionalità dell’impresa stessa. Quindi l’impresa ha intenzione di cambiare quella routine ma
per qualche ragione legata al caso avviene che alcuni cambiamenti di routine funzionano meglio di
altri→i meccanismi evolutivi delle imprese sono tendenzialmente Lamarckiani ma c’è sempre la
componente Darwiniana. Tutte le decisioni d’impresa sono prese in condizioni di razionalità limitata.
Spesso accade che c’è pochissimo tempo per prendere le decisioni: in quel caso si fa affidamento
alla razionalità intuitiva, una razionalità che si basa sull’intuito che, attenzione, non è un “tirare la
monetina”, ma è un intuito addestrato che permette di prendere decisioni razionali in tempi limitati.
Proviamo ad applicare questi concetti col caso di Poste Italiane: le poste, prima, erano un luogo in
cui era davvero difficile sopravvivere. Quando si arrivava in un ufficio postale, le code erano gestite
in maniera irrazionale, seppur con logica FIFO. Osservando attentamente questo particolare
fenomeno, possiamo rilevare che c’era una routine organizzativa che “aiutava” ad ordinare
l’interfaccia tra i clienti e i servers, e questa routine organizzativa prevedeva che il cliente successivo
andasse ad accodarsi nella coda più breve in termini di lunghezza. Questa routine passata era molto
rudimentale, e ipotizzava comunque un bacino d’utenza ridotto. Con l’avvento di internet e delle
nuove tecnologie, il numero di clienti alle poste aumentò di gran lunga, rendendo non più efficace
quella routine organizzativa. Quali sono le performance di un ufficio postale, viste dal lato del
cliente? Il tempo medio di attesa, la varietà di servizi offerti, il tempo di servizio, il comfort
dell’ambiente (possibilità di stare seduti, ambiente gradevole ecc.). Quindi, un servizio
apparentemente semplice come quello postale, visto dalla prospettiva del cliente (e quindi del
mercato) permette di interfacciarsi con l’impresa attraverso le performance da misurare. Avendo dei
concorrenti (banche e internet), la scelta di Poste Italiane fu quella di creare la fila unica, ossia il
meccanismo in base al quale non ci si deve più mettere in una fila ma si deve prendere un ticket
all’ingresso dell’ufficio, e sarà il sistema computerizzato ad accodare il cliente nella prima fila
disponibile. Questa fila unica, insieme al saltafila, rappresenta una routine organizzativa, perché
hanno modificato il modo in cui Poste si interfaccia ai clienti. In particolare, hanno reso le poste più
attraenti ai clienti. L’impatto della modifica nella routine organizzativa ha permesso di ridurre le
performance, in particolare il tempo medio di attesa, gli ambienti, l’umore dei clienti ecc.
Quindi, è sempre doveroso distinguere le performance osservate con l’occhio del cliente, dalle
routine organizzative.
Altro esempio: prendiamo il caso di Lufthansa. Le compagnie aeree hanno deciso di migliorare le
performance al cliente negli aeroporti. Per fare questo hanno modificato tutta una serie di routine
organizzative come: il check-in, che adesso è online e permette di ridurre le code in aeroporto.
Lufthansa poi ha creato anche dei terminali in loco per effettuare il check-in il giorno della partenza;
miglioramento del servizio online di customer care; redesign delle lounge al fine di aumentare i
servizi offerti e il comfort. Come mai tutti questi cambi di routine? Per incrementare le performance
al cliente ed essere così più competitivi con le altre compagnie. È stata la competizione che ha spinto
Lufthansa a capire quali fossero le performance che i clienti valutavano maggiormente nelle loro
scelte di volo. L’importante è che le modifiche genotipiche impattino fenotipi che sono richiesti dal
mercato.
Quindi, a livello di impresa, la teoria evolutiva è prevalentemente lamarckiana, nel senso che le
imprese modificano le loro routine con intenzionalità per rispondere meglio all’ambiente in cui si
trovano e, con maggiore probabilità essere selezionate dai mercati in cui operano e competono.
In un libro di uno dei più famosi evoluzionisti recenti, Stephen Gould, dal titolo “il pollice del panda”,
si effettua uno studio sulle teorie evolutive e in particolare sulle teorie evolutive sociali. L’impresa è
a tutti gli effetti un soggetto sociale in evoluzione, in quanto composta da individui che interagiscono
fra loro. Gould dice che, quando abbiamo a che fare con sistemi sociali, il meccanismo evolutivo è
differente da quello biologico, prettamente Darwiniano, ed è di matrice Lamarckiana. Quindi, non è
una sorpresa dire che il modello evolutivo dell’impresa sia Lamarckiano. Questo perché l’evoluzione
della cultura umana è essa stessa di natura lamarckiana. Quello che osserviamo nei sistemi sociali è
il processo di accumulo della conoscenza, che consente all’evoluzione dei sistemi sociali e quindi
delle imprese di avere carattere Lamarckiano. Gould sostiene che questa evoluzione è rapida e
accumulativa→tutti accumuliamo conoscenza grazie agli insegnamenti. Questo accumulo permette
di prendere decisioni, a volte in condizioni normali e a volte in condizioni estreme. Ma queste
decisioni si prendono sempre sulla base della conoscenza accumulata! Tutto questo, però, consente
anche di avere una razionalità (limitata o intuitiva), che è il motore delle decisioni. Ovviamente, le
decisioni prese non sono sempre perfette, proprio a causa della razionalità limitata. Anche quando
le decisioni vengono prese correttamente e coerentemente alle conoscenze disponibili, si è sempre
in condizioni di razionalità limitata. Questo, però, ha un vantaggio: l’accumulo di conoscenza e la
conseguente presa di decisioni razionale è un processo estremamente rapido! L’evoluzione
Lamarckiana grazie all’intenzionalità nel cambiamento rende l’evoluzione molto più rapida rispetto
al cambiamento darwiniano legato al caso. D’altro canto, però, il cambiamento lamarckiano espone
maggiormente agli errori causati dalla razionalità limitata. L’evoluzione darwiniana si basa su
meccanismi casuali che la natura ha tutto il tempo di analizzare. Solo dopo che questi cambiamenti
vengono acquisiti dalla natura, si ha l’ereditarietà dei caratteri.
Coevoluzione
Cerchiamo di capire meglio cosa vuol dire evoluzione nelle imprese. Fino ad ora abbiamo visto il
processo evolutivo come il cambiamento genotipico delle routine delle imprese che determina il
cambiamento fenotipico delle performance delle imprese, e sono questi ad essere esposti ai
meccanismi di selezione del mercato. Il soggetto è l’impresa che cambia per rispondere alle esigenze
del mercato.
Possiamo anche considerare che nel mercato ci possono essere altre imprese, e che l’evoluzione
dell’impresa non avvenga in un rapporto 1:1 col mercato. Possiamo ipotizzare che l’evoluzione
avvenga in un rapporto fra due o più imprese presenti nel mercato e il mercato stesso! Nel mercato
ci sono i concorrenti, pertanto i cambiamenti fatti da un’impresa sono spesso dettati e ispirati dai
cambiamenti fatti dai concorrenti, oltre che dalle risposte che vengono date dal mercato. Si evince
che, oltre a parlare di evoluzione possiamo parlare di coevoluzione: ogni individuo evolve nel
proprio ambiente e coevolve in relazione alla presenza di altre specie nell’ambiente. Questo è vero
nella natura e, ovviamente, nei sistemi sociali e quindi fra le imprese.
Rapporto di coevoluzione
In biologia, il rapporto di coevoluzione è un rapporto che lega le specie attraverso tre modelli:
1)modello predatorio: modello preda e predatore, in cui c’è una specie (esempio, lupo) predatrice e
una specie preda (esempio, pecora). C’è un rapporto di coevoluzione perché, ad esempio, se non ci
fossero più prede, i predatori avrebbero problemi a svilupparsi e quindi si avrebbero dei
cambiamenti come la riduzione del numero di predatori;
2)modello parassitico: modello ospite e parassita, c’è una specie ospite che ospita la specie parassita
che vive nell’ospite senza distruggerlo perché è proprio l’ospite che tiene in vita il parassita;
3)modello simbiotico: modello ospite e simbionte, c’è una specie ospite e una specie simbionte che
vive di relazioni NON parassitiche con l’ospite. Di conseguenza, il ruolo di ospite e simbionte è
interscambiabile fra le due specie.
Questa analisi trova applicazioni in ambito imprenditoriale, in quanto è un tipo di modello evolutivo
più raffinato.
SECONDA OSSERVAZIONE: le tecnologie che sto utilizzando, hanno per loro natura un range di
variazioni di prodotto o processo possibili. Nel senso che, se io faccio il pandoro, avrò dei forni, delle
impastatrici, delle macchine per il confezionamento, ma tutte quelle tecnologie hanno una loro
natura per cui a fronte dei segnali provenienti dal mercato, al più potrò passare da pandoro a
panettone! La tecnologia, quindi, da un lato genera una capacità di trasformazione, dall’altro lato
per sua natura genera uno spazio entro cui posso cambiare e quindi, uno spazio entro cui NON
posso cambiare! NON è un errore di scrittura. Spesso i segnali del mercato potrebbero indurci a fare
dei cambiamenti, ma è la tecnologia stessa a limitare questi cambiamenti. Capire la capacità che una
tecnologia ha di cambiare è fondamentale per capire come un’impresa può reagire al mercato.
Questa immagine spiega benissimo quanto detto: sulle X ho il tempo e sulle Y invece ho lo spazio
delle soluzioni tecnologiche (in base ad una particolare variabile tecnologica, una misura della
soluzione tecnologica. È uno spazio perché indica tutti i possibili valori di quella misura. Può essere
un peso, una dimensione, una qualsiasi variabile tecnologica). Se nel tempo ho modificato la mia
capacità tecnologica, e nel presente sono nel punto indicato dal grafico, con quella tecnologia e
decido di fare un miglioramento tecnologico, lo spazio delle soluzioni tecnologiche che la mia
tecnologia mi mette a disposizione (nel medio-breve termine) è definita da una “forchetta” di
possibili valori della mia variabile, che delimitano quindi un range entro cui la mia tecnologia può
cambiare. Quindi, dei salti come quello in rosso NON SONO POSSIBILI, perché impediti dalla
tecnologia stessa che stabilisce i limiti massimi. Non posso andare oltre il range. La traiettoria
tecnologica è quella definita dalla tecnologia stessa.
Esempio: sto producendo un pannello solare, la variabile tecnologica è il peso. Se voglio un pannello
tecnologico con un peso INFERIORE al range della sua traiettoria, non posso farlo, NON posso
rispondere al mercato!
Quindi, la tecnologia consente un certo range di cambiamenti, e la natura stessa della tecnologia
implementata LIMITA lo spazio delle possibili soluzioni: alcune soluzioni, per quella tecnologia e per
quel range NON SONO POSSIBILI.
TERZA OSSERVAZIONE: soffermiamoci sul ruolo della conoscenza scientifica. Il suo ruolo in
qualunque cambiamento tecnologico è molto importante. Pertanto, presidiare le conoscenze
scientifiche nei cambiamenti tecnologici è fondamentale. Ogni volta che abbiamo un cambiamento
tecnologico, notiamo che esso ha sempre maggiore bisogno di essere assistito dalle conoscenze
scientifiche. La cosa curiosa, però, è anche un’altra: nei processi innovativi c’è anche sempre un
crescente bisogno di conoscenza NON legata alla conoscenza scientifica (attenzione, non ascientifica.
Qui si parla di un concetto slegato alla conoscenza scientifica, non di ascientificità), maggiormente
legata all’esperienza. Questo perché la conoscenza scientifica è solo una frazione di input del
processo innovativo. Quindi, c’è bisogno di ingegneri, si, ma c’è anche forte bisogno di conoscenza
pratica, tacita, per sviluppare le innovazioni. Questo trend è generale, vale sempre, in ogni settore e
in ogni mercato.
QUARTA OSSERVAZIONE: C’è una crescente complessità delle attività di R&S→rileviamo che tutte
le imprese, anche le più piccole, hanno bisogno sempre più di R&S. Se va fatta della ricerca, bisogna
necessariamente organizzare il processo di R&S, e questo ovviamente aumenta la complessità
organizzativa. Questo tende, di fatto, a favorire le organizzazioni più grandi, quelle più
istituzionalizzate, ma questo era anche ovvio: più i processi sono complessi, più è probabile che le
grandi imprese siano più pronte rispetto alle piccole ad affrontare la complessità della R&S. Questo
ha dei risvolti enormi in termini di politiche economiche: bisogna cercare di supportare al meglio le
piccole imprese!
QUINTA OSSERVAZIONE: diventa sempre più rilevante il learning-by-doing, il fare. Non serve solo
pensare, progettare, comunicare, serve anche e soprattutto fare. Un po’ di pratica aiuta sempre.
Cambiamento e incertezza
Sappiamo che il cambiamento tecnologico ha una serie di elementi ed aspetti che vanno presi in
considerazione. Poi, sappiamo anche che il cambiamento si proietta nel futuro! Cambiare vuol dire
partire dal presente, raccogliere tutte le osservazioni che abbiamo appena fatto ed essere pronti a
cambiare. Essere pronti a cambiare richiede di prevedere il futuro. Il problema è che, a causa della
fortissima incertezza che permea il futuro, è praticamente ormai impossibile fare previsioni EX-
ANTE! EX-POST è facilissimo, ci riescono tutti, ma a noi interessa farlo ex-ante.
Se siamo in un condizioni di incertezza elevata, cosa può venirci incontro? Avere uno stato dell’arte
fatto bene. Lo stato dell’arte è la conoscenza relativa a tutte le soluzioni tecnologiche OGGI presenti,
e questo è molto facile da ricavare. Lo stato dell’arte delle tecnologie ci da le direzioni del
cambiamento nel breve-medio termine. Quindi, la conoscenza attuale aiuta a trovare le direzioni del
cambiamento.
2)SATA e verniciatura ad acqua: SATA aprì lo stabilimento a Melfi e introdusse per la prima volta la
verniciatura ad acqua. Questo permetteva di ridurre notevolmente l’inquinamento e, inoltre, SATA
presidiava lo stato dell’arte. Il problema è che i consumatori non si fidavano, perché ovviamente la
vernice si sarebbe rimossa dopo poco tempo. Quindi, non è tutto nelle mani dell’impresa: anche il
mercato ha responsabilità, deve essere in grado di cogliere l’innovazione!
In realtà, oggi, vediamo che il cambiamento tecnologico non è sempre solo puramente tech-push o
puramente demand-pull, ma esiste una TEORIA IBRIDA. Tendiamo a far prevalere sempre questa:
c’è una trazione della domanda unita a una spinta della tecnologia. Ma queste due determinanti,
una forza attrattiva del mercato e una forza di spinta tecnologica, come si combinano per dar luogo
all’innovazione?
La teoria dei paradigmi tecnologici ci permette di rispondere a questa domanda. La teoria dei
paradigmi tecnologici riviene dalla teoria dei paradigmi scientifici. Pertanto, prima capiamo cosa è
un paradigma scientifico
Paradigma scientifico
Thomas Kuhn, un filosofo della scienza, si interessò alle rivoluzioni scientifiche, e scrisse un libro
“Sulla struttura delle rivoluzioni scientifiche” nel 1962. Nell’ambito dei suoi studi, arrivò a definire il
concetto di paradigma scientifico. Secondo Kuhn, in un dato campo di ricerca il paradigma scientifico
è un “quadro” in cui sono tracciati i problemi più importanti di quel campo, un “riferimento” (con
cui la conoscenza può progredire) e un “modello di indagine” (con cui vado ad indagare i fenomeni
scientifici).
1)il movimento dei pianeti: il riferimento nel movimento dei pianeti qual è? Fino al 1400 ci
avrebbero risposto che il movimento dei pianeti risponde al riferimento del modello tolemaico.
Tolomeo nel suo Almagesto propose il modello geocentrico, nel quale i pianeti venivano immaginati
come sfere materiali e ruotavano attorno alla Terra. Grazie al modello tolemaico nacque un interesse
nello studio dei pianeti, che portò all’intuizione circa il fatto che ciascun pianeta avesse il proprio
moto e la propria orbita. Tolomeo fu il primo che, dalle osservazioni, riuscì a “creare” dei numeri e
ragionare/sistematizza questi numeri. Tutte queste osservazioni, quindi, cominciarono a prendere la
forma di una conoscenza scientifica. La prima svolta si ebbe con Copernico, nel 1400-1550→pur
continuando ad utilizzare gli aggiustamenti del sistema Tolemaico e ritenendo la sua ipotesi quella
corretta, propose come (ipotesi da verificare) un modello eliocentrico, che permetteva di rendere il
modello molto più aderente alle osservazioni empiriche. La seconda svolta si ebbe con Thyco Brahe,
tra il 1500 e il 1600→pur sostenendo le idee di Tolomeo come corrette, cominciò a raccogliere dati
in modo preciso ed analitico, che permettevano di spiegare esattamente tutti i problemi del modello
tolemaico. Questo fu possibile proprio grazie allo sviluppo in quegli anni di nuove tecnologie ottiche.
Sulla scia di Brahe, giunse Keplero→risolse una serie di problemi nel sistema tolemaico. Quindi,
quella che fu una piccola ipotesi di discussione proposta da Copernico, egli non ebbe la capacità di
convincere la società a cambiare! Alla fine, arriviamo a Galileo→come osservato da Brahe, usò il
telescopio e arrivò ad affermare che la Terra NON era ferma, ma ad essere fermo era il Sole. Quindi,
Copernico aveva ragione! Quindi, quando un modello sta morendo e un nuovo modello sta
emergendo, si crea confusione e disordine sociale, perché i vecchi problemi vengono risolti in
maniera innovativa e sorgono nuovi problemi.
Quindi, tornando alla definizione di Kuhn: il campo di ricerca è lo studio del moto dei pianeti; il
quadro comprende tutti i problemi circa il moto dei pianeti stessi; il riferimento era quello tolemaico
e il modello di indagine era quello copernicano. Le rivoluzioni scientifiche avvengono tramite il
successo di un nuovo paradigma scientifico a discapito di uno vecchio.
2)la deriva dei continenti: la deriva dei continenti è una teoria geologica, che è stata sviluppata circa
un secolo fa da Wegener, che nel 1921 sostenne che osservando i territori interessati dai terremoti
si potevano osservare dei moti relativi e, se prendessimo una cartina geografica e unissimo tutti i
continenti, ci accorgeremmo di come essi combacino perfettamente! Quindi, i continenti, si
muovono! Per oltre 20 anni, Wegener incontrò l’opposizione della comunità scientifica, ma fu
ritenuta poco dopo a tutti gli effetti una rivoluzione.
3)la struttura dell’atomo: ci sono state varie rivoluzioni scientifiche in poco tempo, dalla teoria di
dalton al modello di Thomson, Rutherford, Bohr ecc. Tutte queste rivoluzioni, in modi diversi,
lasciarono di stucco la comunità scientifica. Ad oggi, il modello di riferimento è il modello ad orbitali.
Quindi possiamo definire il concetto di paradigma, per capire, alla fine, a cosa ci è utile. La scienza
riesce a progredire proprio grazie alle rivoluzioni scientifiche. Quando i modelli di riferimento
vengono messi in discussione, nasce un nuovo modello di riferimento che è un nuovo paradigma
scientifico. Quindi, il passaggio da un paradigma scientifico ad un altro è la rivoluzione scientifica.
Secondo Kuhn il processo conoscitivo non evolve verso ciò che vogliamo conoscere, ma da ciò che
già conosciamo. Ancora, il successo di un paradigma è ALL’INIZIO, quando qualcuno evidenzia che il
vecchio paradigma non è più efficace e propone un nuovo paradigma. Poi, succede che si continua
a sviluppare conoscenza che non farà altro che tentare di mettere in discussione il paradigma stesso,
per prepararsi ad una nuova rivoluzione scientifica.
Kuhn conclude sostenendo che la conoscenza scientifica NON progredisce solo attraverso le
rivoluzioni, ma anche grazie alle risoluzioni di tutti i problemi presenti in un paradigma. La risoluzione
di tutti questi problemi presenti in un paradigma è nota come scienza normale. Quindi la conoscenza
scientifica progredisce tramite la scienza normale in uno stesso paradigma e, tramite le rivoluzioni
scientifiche da un paradigma all’altro.
Rivoluzione scientifica
Bertrand Russel, poi aggiunge dicendo che ciò che avviene nella conoscenza scientifica è un po’ lo
stesso che accade quando vediamo quelle immagini che possono sembrare un animale o possono
sembrarne un altro→nella rivoluzione scientifica non esistono buoni e cattivi, c’è chi è ancora
ancorato ad un modello vecchio e chi è già ancorato al nuovo modello, e noi dobbiamo accettare
quella diversità, perché è proprio il conflitto tra nuovo e vecchio che permette di sviluppare nuova
conoscenza e fa progredire più rapidamente la conoscenza scientifica!
Qual è il legame tra paradigma scientifico e paradigma tecnologico? Il legame sta proprio nel
concetto di paradigma, comune ad entrambi. Chi ha sviluppato il concetto di paradigma tecnologico
è partito proprio da Kuhn. Poi, esiste anche un legame più profondo tra paradigmi tecnologici e
scientifici: quando abbiamo cambiamento tecnologico noi guardiamo al modo in cui la conoscenza
tecnologica progredisce. Ma la tecnologia è conoscenza? Sì, il cambiamento tecnologico è il
cambiamento della conoscenza tecnica! Dando una definizione di tecnologia, intesa come
conoscenza, diamo una definizione universale, che ci permette di tornare a Kuhn e ragionare in
termini di rivoluzioni e progresso tecnologico.
Definizione di tecnologia
LEZ 30: 10/01/2024
TECNOLOGIE DIROMPENTI
perché ne acquisiamo di nuova ma perdiamo quella vecchia; ancora, c’è un’analogia tra ciò che
avviene nello sviluppo della scienza e ciò che avviene nello sviluppo della società.
Bertrand Russel, poi aggiunge dicendo che ciò che avviene nella conoscenza scientifica è un po’ lo
stesso che accade quando vediamo quelle immagini che possono sembrare un animale o possono
sembrarne un altro→nella rivoluzione scientifica non esistono buoni e cattivi, c’è chi è ancora
ancorato ad un modello vecchio e chi è già ancorato al nuovo modello, e noi dobbiamo accettare
quella diversità, perché è proprio il conflitto tra nuovo e vecchio che permette di sviluppare nuova
conoscenza e fa progredire più rapidamente la conoscenza scientifica!
Qual è il legame tra paradigma scientifico e paradigma tecnologico? Il legame sta proprio nel
concetto di paradigma, comune ad entrambi. Chi ha sviluppato il concetto di paradigma tecnologico
è partito proprio da Kuhn. Poi, esiste anche un legame più profondo tra paradigmi tecnologici e
scientifici: quando abbiamo cambiamento tecnologico noi guardiamo al modo in cui la conoscenza
tecnologica progredisce. Ma la tecnologia è conoscenza? Sì, il cambiamento tecnologico è il
cambiamento della conoscenza tecnica! Dando una definizione di tecnologia, intesa come
conoscenza, diamo una definizione universale, che ci permette di tornare a Kuhn e ragionare in
termini di rivoluzioni e progresso tecnologico.
Definizione di tecnologia: è l’insieme delle conoscenze che sono sia immediatamente pratiche
(perché legate a problemi e mezzi concreti), che teoriche (ma praticamente applicabili, per quanto
non necessariamente già applicate), di know how, di metodi, di procedure, di esperienze, di successi
e di insuccessi e anche di strumenti e di attrezzature.
La teoria dei paradigmi tecnologici, quindi, che permette di studiare i processi di innovazione
seguendo le teorie evolutive, si fonda sulla definizione di tecnologia intesa come conoscenza.
Riflettiamo sulla definizione di tecnologia: fanno parte della tecnologia successi e insuccessi! Tutta
la tecnologia passa attraverso successi e insuccessi o, meglio, dell’analisi di ciò che è avvenuto negli
insuccessi e la correzione di essi, per evitare che se ne manifestino altri; la parte di strumenti e
attrezzature è messa in secondo piano nella definizione di tecnologia. Viene messa in risalto la
componente legata alla conoscenza.
Per dare una definizione di paradigma tecnologico, sfruttiamo una analogia tra conoscenze
scientifiche e tecnologiche: le procedure di ricerca e la natura stessa delle tecnologia sono analoghe
a quelle che caratterizzano le scienze; di conseguenza, i paradigmi tecnologici svolgono un ruolo
molto simile a quello dei paradigmi scientifici!
Questo esempio ci fa capire come, anche per una tecnologia basica, esiste un’evoluzione e in questa
evoluzione ci sono tanto dei miglioramenti nella tecnologia tanto dei veri e propri cambiamenti
“radicali” della tecnologia→anche nella tecnologia, quindi, osserviamo delle rivoluzioni
tecnologiche, ossia dei cambi nel paradigma tecnologico (si passa da un paradigma ad un altro) e
del progresso tecnico (che ricorda la scienza normale/ordinaria), ossia dei miglioramenti/evoluzioni
interne allo stesso paradigma tecnologico (ad esempio il desktop publisher che dal getto a inchiostro
passa al laser. Sono miglioramenti incrementali in uno stesso paradigma).
Esempio: common rail→il bisogno tecnologico era avere un’iniezione nel motore sia più rispettosa
dell’ambiente, sia più efficiente sia più performante a bassi numeri di giri del motore.
N.B: non è così semplice definire il compito tecnologico! Bisogna stare attenti anche nella definizione
di materiali e principi chimico-fisici. Bisogna essere dettagliati e al contempo flessibili.
OSS: quindi tutti quei diversi panettoni visti nella prima parte delle teorie evolutive sono tutti quanti
dei diversi trade-off!
All’interno di un paradigma tecnologico, posso avere progresso tecnico se miglioro almeno una
dimensione del trade-off. Nel momento in cui io miglioro una dimensione del trade-off, oltre ad
avere progresso tecnico sto percorrendo un prezzo di traiettoria tecnologica. La traiettoria
tecnologica è il percorso che percorriamo, all’interno di un paradigma tecnologico, per andare da un
trade-off a un trade-off successivo. È l’evoluzione in un paradigma tecnologico di tutti i trade-off che
si generano a seguito di un’attività di innovazione “normale”, anche nota come progresso tecnico.
Osserviamo il seguente grafico:
L’abbiamo già visto all’inizio di questo argomento. Se nel presente sono in quel punto, io posso
andare in A, in B o in C, ammettendo ovviamente che essi rientrino nel range ammissibile dello spazio
delle soluzioni tecnologiche. Facciamo un esempio concreto: prendiamo un paradigma tecnologico,
la fotocamera digitale, e una dimensione tecnologica rilevante, la risoluzione del sensore (in
megapixel). In quel punto posso muovermi in A, B o C e quei tre punti rappresentano tre trade-off
differenti possibili, in cui io posso migliorare quella dimensione tecnologica: in A miglioro molto, in
B miglioro e in C miglioro poco. A, B e C sono tre possibili alternative che posso selezionare per i
futuri trade-off.
Ovviamente questo l’abbiamo fatto per UNA sola dimensione tecnologica, ma noi sappiamo che ogni
paradigma ha potenzialmente N dimensioni tecnologiche rilevanti. Allora, possiamo, all’interno di
un paradigma tecnologico, definire un sistema di assi cartesiani in cui ad ogni asse si associa una
dimensione. Conseguentemente, quello che noi vediamo è che un trade-off è un punto di quello
spazio a N dimensioni e, l’evoluzione da un punto di trade-off ad un punto di trade-off successivo
(progresso tecnico) consiste nel cambio di trade-off!
Supponiamo, per comodità, che il paradigma abbia N=3 dimensioni tecnologiche rilevanti.
Riportiamo lungo i tre assi X, Y e Z queste dimensioni. Si noti come NON CI SIA PIU L’ASSE DEL TEMPO,
perché nelle traiettorie tecnologiche il tempo non è rilevante! Ciò che è rilevante è che, se nella
mia traiettoria tecnologica sono nel punto 1, esso corrisponderà a un particolare valore della
dimensione di X, Y e Z che QUEL trade-off rappresenta. Quindi quel punto 1 rappresenta un trade-
off, un prodotto concreto che è stato realizzato ed è sul mercato.
Se miglioro quel trade-off, ossia miglioro almeno una performance su X e/o Y e/o Z, mi muovo dal
punto 1 ad un nuovo trade-off coincidente con la prima punta della freccia celeste. La lunghezza
della prima freccia celeste è un tratto di traiettoria e coincide col progresso tecnico che mi ha
consentito di migliorare almeno una dimensione tecnologica e quindi il trade-off!
Proporre questo nuovo trade-off, che conseguenze ha? Se quel trade-off viene accettato dal
mercato, bene, ha successo e si conferma nella traiettoria tecnologica; se, invece, non dovesse avere
successo sul mercato (la deviazione rossa che si vede dopo la freccia celeste) e quindi quel trade-off
non viene selezionato dal mercato! Questo mi costringerà a tornare indietro e proporre un nuovo
trade-off, che coinciderà con la punta della seconda freccia celeste e, se il mercato lo accetterà,
quello diventerà un nuovo trade-off, altrimenti dovrò nuovamente tornare indietro e proporre un
nuovo trade-off! Questo meccanismo mi consente di rappresentare tutta la traiettoria tecnologica.
Seguendo quindi la traiettoria tecnologica in celeste, alla fine arrivo a C, che consiste in un trade-off
nettamente migliorato rispetto al trade-off 1 di partenza. Ciò che osservo è che spesso da uno stesso
trade-off possono essere proposti diversi trade-off che, laddove fossero di successo, potrebbero dare
via ad ALTRE TRAIETTORIE TECNOLOGICHE A PARTIRE DA QUELLA DI PARTENZA. Dal trade-off 1, si
sono create tre traiettorie tecnologiche che hanno portato all’affermazione di ben tre trade-off di
successo che coesistono sul mercato, B, C e D. Dal trade-off 2 è nata la traiettoria tecnologica del
trade-off A.
Il tempo è irrilevante perché noi ci interessiamo della traiettoria in termini di dimensioni
tecnologiche. Certo, è chiaro che un trade-off viene temporalmente dopo rispetto a quello
precedente.
Possiamo affermare che l’insieme di tutte le traiettorie tecnologiche (inviluppo, l’insieme dei punti
tracciati e raggiunti) che hanno avuto lo stesso compito, materiali, principi chimico-fisici prende il
nome di paradigma tecnologico. Quindi il paradigma tecnologico è questo cilindro che racchiude
tutte le possibili traiettorie tecnologiche associabili a QUEL paradigma tecnologico!
N.B: tra le dimensioni descritte dagli assi è possibile utilizzare anche il costo perché è una dimensione
fondamentale di un paradigma tecnologico. Inoltre, i punti 1 e 2 di partenza sono due trade-off
differenti, magari due prodotti che coesistono sul mercato e sviluppati da due imprese differenti.
Tendenzialmente un trade-off successivo è migliore rispetto a quello di partenza.
Quindi, all’interno di uno stesso paradigma tecnologico, diverse imprese seguono diverse traiettorie
tecnologiche.
La rivoluzione tecnologica causa l’abbandono del cilindro, passando verso un nuovo paradigma
tecnologico, un nuovo cilindro, caratterizzato da nuove dimensioni tecnologiche e quindi nuove
traiettorie tecnologiche.
Introduciamo il concetto di euristiche: torniamo ad analizzare il caso in cui viene proposto un nuovo
trade-off, che però non viene accettato dal mercato e quindi non ha successo commerciale.
Un’impresa può sapere a priori se avrà successo quel trade-off? Beh, qui entriamo in una logica
lamarckiana: c’è intenzionalità nell’azione dell’impresa, ma non posso sapere a priori se quel trade-
off avrà successo sul mercato a causa della razionalità limitata. Nel momento in cui si percorre quel
tratto rosso di potenziale traiettoria, non sappiamo se a seguito di questo cambio intenzionale il
trade-off avrà successo sul mercato. Questo vuol dire che l’impresa agisce comunque pensando che
quel trade-off sia una buona soluzione, poi però sta al mercato determinare se questo avrà successo
o se sarà un fallimento e quindi interromperà quel tratto di traiettoria. Dal punto di vista della
conoscenza questo comportamento è noto. Spesso, di fronte a problemi la cui soluzione è ignota, si
procede per “euristiche”, ossia si procede proponendo soluzioni che a priori riteniamo buone. Dal
punto di vista cognitivo noi pensavamo che fossero buone poi, in base al mercato, parleremo di
euristica buona/positiva se effettivamente quella soluzione era buona o di euristica negativa se il
mercato boccia quella soluzione. Questo concetto, sviluppato dal filosofo della scienza Lakatos, è
molto importante per capire se i trade-off proposti sono euristiche positive o negative. Quindi, la
traiettoria si sviluppa secondo euristiche positive ma può anche incontrare euristiche negative che
ci costringono a tornare indietro. Questo fortifica l’accezione di tecnologia come conoscenza
tecnologica e stock di conoscenze.
DEF: L’euristica è un insieme di regole, indicazioni, strategie e tecniche che guidano i suoi esponenti
(scientifici o tecnologici) nell’elaborazione di nuove versioni in base a un piano di lavoro coerente e
in parte prestabilito. La definizione seguente incarna al 100% la logica lamarckiana.
OSS: anche in condizioni di dover prendere una decisione in tempi estremamente rapidi
manteniamo un approccio lamarckiano e per euristiche? In quel caso la nostra razionalità limitata
non ha modo di svilupparsi ed esprimersi; pertanto, in tempi estremamente rapidi perdiamo il
carattere di intenzionalità e, quindi, è come se agissimo in un contesto di tipo darwiniano.
Conseguentemente, ci avviciniamo ad un modello evolutivo più Darwiniano. Soltanto che, sappiamo
come spesso gli individui riescono ad agire impulsivamente sulla base dell’esperienza, pur non
esplicitando una razionalità→parliamo come abbiamo già visto di razionalità intuitiva. In questi casi
l’euristica è elaborata implicitamente e non esplicitamente.
Dimensioni tecnologiche→cosa è importante per uno pneumatico? Indice di carico, durata ecc.
In questo caso, avendo due dimensioni tecnologiche (per semplicità), la traiettoria si sviluppa in un
piano bidimensionale.
A, B, C, D, E ed F sono tutti prodotti commerciali, pneumatici che hanno avuto successo sul mercato.
Se fossimo nel presente in A, troveremmo sul mercato il pneumatico A caratterizzato da quel valore
di durata e da quel valore di indice di carico. Dopo (non ci interessa QUANTO dopo) si svilupperà il
pneumatico B che rappresenterà il nuovo trade-off tra i valori di indici di carico e durata, in
particolare avrà un miglioramento di entrambe le dimensioni tecnologiche. Stessa cosa per gli altri
punti. Adesso noi siamo in F, quindi ora dobbiamo decidere quale nuovo trade-off raggiungere. Per
capire quale trade-off raggiungere dobbiamo esaminare tutti i possibili punti dello spazio esplorabile
per il miglioramento. Questo spazio virtualmente si ottiene costruendo su F un riferimento di assi,
uno verticale che indica il miglioramento del solo indice di carico e uno orizzontale che indica il
miglioramento della sola durata. I possibili punti/trade-off variano in questo continuum circoscritto
da questo piano fittizio costruito su F. Lo spazio esplorabile è quello evidenziabile in giallo, perché
l’importante è che almeno una dimensione sia migliorata. Il quadrante in basso a sinistra NON è
esplorabile perché coincide con un peggioramento di entrambe le dimensioni. Ovviamente il
quadrante ideale sarebbe quello in alto a destra. Questo perché noi puntiamo ad evitare
peggioramenti delle dimensioni: da un punto di vista pratico, se ci pensiamo, peggiorare anche una
sola delle due variabili vorrebbe dire peggiorare le prestazioni del prodotto. Ma siamo sicuri che il
mercato accetterà queste condizioni? (logica Kirzneriana) Se il mercato vuole una durata maggiore
e noi ci muoviamo a sinistra, pur aumentando l’indice di carico non riusciamo a soddisfare le
esigenze del mercato. Devo quindi trovare una soluzione che riesca contemporaneamente a
soddisfare le richieste del mercato e soddisfare le capacità aziendali (deve essere realizzabile).
Quindi siamo in una via di mezzo tra il pensiero Schumpeteriano di technology push puro e il
pensiero Kirzneriano di market pull puro. È in questo ambito che prenderemo la nostra euristica e ci
posizioneremo in un punto del piano, aspettando il responso del mercato, seguendo quindi un
approccio ibrido (forza trainante + forza attrattiva).
Introduciamo adesso il tema delle prescrizioni: esse ci dicono che, se siamo all’interno di un
paradigma tecnologico, noi abbiamo una serie di forti indicazioni a procedere lungo certe direzioni
nel cambiamento tecnologico. Quindi, pur quanto potremmo ampliare lo spazio delle soluzioni
tecnologiche, alla fine seguiremo sempre quelle direzioni prescritte e condizionate dal paradigma
tecnologico stesso!
Questo è molto importante perché nel momento in cui abbiamo una certa tecnologica, alla fine dei
conti noi ci muoveremo migliorando il trade-off secondo direzioni prescritte. Quindi orbiteremo
sempre in un intorno prescritto. Questo ci induce a rimanere all’interno del paradigma tecnologico
perché cambiare paradigma causa l’abbandono delle prescrizioni. Le prescrizioni sono utilissime
perché ci dicono dove e cosa migliorare. Quindi il paradigma sì ci aiuta a migliorare, ma le prescrizioni
stesse ci “accecano” perché non ci mettono in luce le possibilità derivanti dal cambio di paradigma.
Di conseguenza, esiste il cosiddetto effetto di esclusione: da un lato, i paradigmi ci aiutano con le
prescrizioni; dall’altro, i paradigmi hanno un forte effetto di esclusione che ci rende ciechi rispetto
ad ulteriori alternative tecnologiche. L’effetto di esclusione va sempre tenuto in considerazione.
Concludendo, sulle traiettorie tecnologiche possiamo affermare che abbiamo dei criteri economici
che ci aiutano a definire i percorsi e a seguito dei quali scegliamo una soluzione rispetto ad un'altra.
Inoltre, scelta e stabilita una determinata traiettoria, per effetto delle prescrizioni restiamo collegati
a quella traiettoria. Nelson e Winter affermano che si tende sempre a seguire le traiettorie naturali
dettate dal progresso tecnico (capacità tecnologiche) e dai criteri economici. Purtroppo, la capacità
tecnologica stessa esercita un’inerzia al cambiamento: se facciamo pellicole chimiche, certo
possiamo migliorarle, ma è difficile affacciarsi verso nuove frontiere tecnologiche. Il progresso
tecnico secondo N e W ci accompagna nel descrivere le traiettorie naturali. Da qui, nasce il problema
classico delle innovazioni: il progresso tecnico normale, come la scienza normale, abilita innovazioni
incrementali. Le innovazioni radicali, invece, sono quelle che abilitano il passaggio da un paradigma
tecnologico all’altro.
OSS: per capire se due soluzioni tecnologiche appartengono allo stesso paradigma, dobbiamo
confrontarli secondo i 4 punti che abbiamo visto per determinare il paradigma tecnologico.
Osservazioni empiriche
Come sempre, partiamo dai fatti empirici per arrivare a costruire un ragionamento teorico.
L’interesse verso le tecnologie dirompenti nasce quando si cominciarono ad osservare nelle grandi
imprese globali e internazionali una leadership industriale estremamente fragile. Questo colpì molto
gli studiosi e le imprese stesse. Il caso principe è proprio quello di Kodak, che era il leader indiscusso
sul mercato della fotografia con pellicola chimica, e nel giro di pochissimi anni andò in crisi.
L’esistenza di queste leadership fragili fu oggetto di analisi delle proprietà stesse, che cercano di
capire quali fossero le cause di questa fragilità. Di casi ce ne sono tantissimi: dal settore delle
costruzioni, all’aerospazio, alla microelettronica, ai computer ecc. In questi settori si osservò che le
pratiche manageriali cosiddette “ammirate e imitate” avevano sbagliato NON dal punto di vista delle
competenze manageriali ma, pur seguendo ciò che le pratiche stesse suggerivano, avevano
comunque fallito. Pertanto, nacque la necessità di comprendere quali nuove pratiche manageriali
andassero implementate per evitare questi fallimenti.
Esempio di tecnologia dirompente: l’auto elettrica nel 2013→nel 2013 eravamo nella traiettoria
tecnologica dei motori endotermici e dovevamo capire se continuare su quella traiettoria o cambiare
paradigma con la tecnologia dell’elettrico. Ancora oggi c’è una situazione di fluidità tra le soluzioni,
però nel 2013 questo cambio era caratterizzato da problemi infrastrutturali (stazioni di ricarica),
problemi nella batteria ecc. Quindi scegliere tra andare avanti con quella traiettoria o cambiare
paradigma è un problema incredibile che deve tener conto anche delle dinamiche del mercato, oltre
che delle capacità tecnologiche. Per non parlare del fatto che esistono addirittura dei competitors
che nascono già in quel nuovo paradigma (ad esempio come BMW vs Tesla)! Scegliere la strada da
percorrere è complicatissimo.
Interpretazione
A seguito delle diverse analisi di questi fallimenti, quale fu l’interpretazione che fu data? Non fu
causa di errori del management delle imprese, ma fu a causa dell’introduzione nel mercato di
innovazioni aventi carattere dirompente (disruptive).
Quindi, i top manager dovevano addestrarsi per capire come reagire in maniera corretta a queste
tecnologie disruptive.
MODELLO DI CHRISTENSEN E BOWER
Tra i diversi modelli esistenti, il primo ad aver introdotto in maniera chiaro il carattere di dirompenza
fu il modello di Christensen e Bower. Christensen si occupò nella sua tesi di dottorato del tema dei
dischi rigidi e delle innovazioni nel campo dei computer e degli hard disk. Questo modello si applica
a tutti i contesti. Christensen e Bower mettono in risalto il ruolo della domanda: il carattere di una
tecnologia non dipende dalla tecnologia, ma dipende dalla domanda! Quello che decreta il successo
di un’innovazione tecnologica è la domanda!
Sulla base di questo, C e B sostengono che le imprese dominanti in un settore hanno degli elevati
rischi di fallimento se si presentano queste tecnologie con carattere dirompente, che NON sono le
innovazioni radicali ma presentano una situazione diversa.
Al contrario delle innovazioni dirompenti, le innovazioni radicali sono quelle che si percepiscono
subito, come l’acqua bollente per la rana nel primo caso. Di conseguenza, anche le grandi imprese
possono essere colpite dalle innovazioni dirompenti.
3)Tipicamente, i prodotti e i servizi che usano la tecnologia dirompente costano meno dei
prodotti/servizi basati sulla vecchia tecnologia. Questa non è una caratteristica necessaria ma
tipicamente avviene così. Questo ovviamente condiziona la scelta del cliente, il quale rimane ancora
ancorato alla tecnologia tradizionale perché rivede qualità.
Essa non è esente dalla capacità di migliorare! Porta a innovazioni in grado di migliorare le
prestazioni dei prodotti/servizi secondo i canoni richiesti dei clienti tradizionali. Quindi le tecnologie
esistenti migliorano a seconda delle richieste dei clienti, e questo dava sicurezza alle grandi imprese
che continuavano quindi ad investire nelle tecnologie esistenti, guardando alla disruptive come una
tecnologia dedicata solamente alle nicchie di mercato.
Entrambe le tecnologie, sustaining e disruptive, hanno prospettive di sviluppo che sono in grado di
soddisfare le aspettative dei clienti!
Entrambe le tecnologie afferiscono a due modelli di business differenti, dividendosi quindi lo stesso
mercato: chi presidia la sustaining technology punta a conservare e rafforzare il modello in vigore,
ottimizzando i processi già esistenti; chi presidia la disruptive technology tende a cannibalizzare e
indebolire il modello in vigore, sostituendo i processi esistenti!
Kodak, ad esempio, punta a preservare il modello di business della sustaining technology, e anche in
questo (oltre agli aspetti tecnologici e di mercato) si evidenzia la sua debolezza.
Cosa fanno normalmente le imprese leader? Tendono a sottovalutare la minaccia delle tecnologie
disruptive, continuando ad investire per soddisfare i clienti tramite le tecnologie tradizionali. Questo
comportamento manageriale mainstream non era assolutamente errato. L’errore è stata
l’insensibilità nel valutare la potenziale pericolosità delle disruptive!
Le grandi imprese, quindi, prendono dei rischi associati a questo comportamento. Questi rischi
tendono, ovviamente, ad aumentare se le traiettorie di miglioramento delle tecnologie disruptive
sono rapide, perché più esse sono rapide (e quindi, più le loro performance migliorano rapidamente)
più esse sono in grado di raggiungere le performance delle tecnologie tradizionali. Addirittura,
vedremo come NON è necessario raggiungere le performance delle tecnologie tradizionali: il
carattere disruptive non sta tanto nel colmare il gap di performance. La tecnologia tradizionale
potrebbe anche essere più performante. Il punto è che, se la prestazione principale migliora con la
tecnologia dirompente in modo molto rapido, questo determinerà nei clienti uno switch rapidissimo
dalla vecchia alla nuova tecnologia!
La tecnologia dirompente è quindi subdola e insidiosa. Questo porta difficoltà nelle imprese a
razionalizzare il problema. Potremo essere anche bravissimi a capire la dirompenza, ma ciò che
rimane è l’estrema complessità nel capire le traiettorie delle tecnologie dirompenti!
I rischi sono utili per aver ben chiaro cosa potrebbe accadere, ma questo deve servire solo come
stimolo ad aumentare il livello di monitoraggio su ciò che avviene sul fronte tecnologico. Dobbiamo
monitorare il tasso di crescita e la rapidità nelle traiettorie tecnologiche disruptive.
Vediamo adesso questo grafico fondamentale: sull’asse x abbiamo il tempo mentre sulle y plottiamo
la performance principale. Osserviamo che, da un lato abbiamo (curva nera) l’andamento della
performance principale di una tecnologia disruptive. Al tempo iniziale, essa è bassa e nettamente
inferiore di quella che viene richiesta dagli usi di più bassa qualità (curva rosa), ossia gli usi di chi
non ha particolari esigenze nella performance. La disruptive technology, finché non migliora la
performance per arrivare almeno ad intercettare il low quality use risulta inefficace sul mercato, pur
sviluppandosi nei laboratori. Non appena intercetta la low quality use, entra in competizione. Certo,
lato performance principale soddisferà segmenti molto esigui del mercato, non riuscirà a soddisfare
i “most demanding use”. La disruptive technology è in grado di migliorare la propria performance
principale e, se è in grado di migliorarla più di quanto nel tempo aumentano le richieste che i vari
segmenti di mercato fanno della performance principale, arriverà un momento in cui (intersezione
curva blu e nera) la disruptive technology sarà in grado di soddisfare tutti i segmenti di mercato
anche sulla performance principale!
A questo punto entrano in gioco le performance secondarie (dove già sappiamo che la DT è superiore
alla ST) ed eventualmente anche i costi. Da questo punto in poi (evidenziato in giallo) la DT spiazza
completamente la ST! Ecco la dirompenza: unione del miglioramento rapido delle performance e la
capacità di arrivare ad un certo punto a soddisfare tutti i segmenti di mercato anche sulla
performance principale.
Quindi, quando dobbiamo monitorare la dinamica tecnologica di una DT, dobbiamo anche
monitorare le dinamiche della domanda! La pendenza della curva D indica la rapidità con la quale la
DT intercetterà i segmenti alti e bassi del mercato. Poi, la ST può anche avere una pendenza
maggiore, tanto a comandare è il mercato.
L’invettiva di Christensen
“quando studiamo le tecnologie, tendiamo ad osservare periodi di tempo più o meno lunghi che
dipendono e dalle dinamiche tecnologiche e dalle dinamiche di mercato. In realtà, di fronte alle
tecnologie dirompenti, i tempi coi quali si manifesta la dirompenza sono molto brevi. Per poter
cercare di capire cosa sta avvenendo, non si può più avere un orizzonte di osservazione lungo, ma
considerare tecnologie che cambiano rapidamente. Così come in genetica non si studiano gli umani,
ma gli insetti della frutta, perché hanno cicli genetici molto rapidi (un giorno di vita), se si vuole capire
cosa accade nel business, bisogna studiare gli hard disk, perché sono molto simili agli insetti della
frutta”
Gli errori strategici compiuti dalle grandi imprese leader
1)Non si preoccupano di anticipare le esigenze future dei consumatori→le grandi imprese DEVONO
valutare la loro tecnologia e le potenziali tecnologie dirompenti ANCHE in relazione alle performance
secondarie, anche quelle di nicchia e quelle relative ai nuovi mercati emergenti!
2)Non investono sufficientemente su quelle tecnologie che inizialmente non hanno applicazioni sui
mercati principali, ma che li invaderanno più tardi.
Sicuramente, la prima regola manageriale da seguire è sviluppare le capacità relative alle nuove
tecnologie internamente all’impresa: dentro il centro di R&S bisogna avere la capacità di presidiare
le potenziali tecnologie dirompenti.
Ancora, un’altra regola fondamentale è creare nuove strutture organizzative nell’impresa, come ad
esempio un nuovo centro di R&S per separare le attività riguardanti le tecnologie dirompenti perché,
se così non fosse, l’establishment dell’impresa attuale tenderebbe a trascurare le tecnologie
dirompenti, sia perché concentrato sul core business, sia perché vengono sottovalutate.
Infine, occorrerebbe creare un’organizzazione separata, una nuova unità di business indipendente
dall’organizzazione di partenza, che si occupa dei nuovi prodotti e processi relative alle DT.
OSS: Se non si fosse in grado di creare una nuova business unit, o in generale di gestire internamente
le DT, si potrebbe optare per acquisire un’altra organizzazione (come, ad esempio, le startup) e
adibirla alle tecnologie dirompenti.
L’idea è rappresentare la tecnologia come “logos”, ossia come rappresentazione di concetti e quindi
come un qualcosa di maneggiabile attraverso idee e informazioni. L’altra idea è pensare di cambiare
la tecnologia e generare nuove soluzioni tecnologiche (e quindi generare innovazione) cambiando
proprio i concetti che la rappresentano e le relazioni tra essi, il tutto senza alcun supporto del mondo
fisico. Ovviamente qualche cambiamento avrà successo, qualche altro no!
Vediamo alcuni problemi lasciati aperti dal modello neoclassico e dal modello evolutivo: