Sei sulla pagina 1di 114

ECONOMIA INDUSTRIALE

PARTE 1. fondamenti dell’economia di mercato. Logica e limiti


1.2 interesse individuale
Il pensiero che è alla base del “capitalismo” nasce dall’idea che l’individualismo non sia in contrasto con l’utilità
generale.
Tale concetto venne presentato sottoforma di satira dall’economia De Mandeville tramite il saggio “the Fable of bees”,
nel quale descriveva un modo straordinariamente efficace alcune caratteristiche etiche proprie del funzionamento
della società, che poi saranno prese in chiave economica da Adam Smith e in chiave socio politica da Benjamin. In
questo saggio racconta di un alveare nel quale le api che abitano sono afflitti da tutti i possibili vizi individuali che si
possono immaginare: sono avide in quanto possono guadagnare, amano il lusso e vogliono spendere, sono invidiose e
quindi controllano il comportamento altrui--> tutte queste caratteristiche però fanno nascere il “bene comune” difatti
l’avidità vince l’ozio, il lusso crea lavoro, l’invidia spinge all’emulazione di coloro che hanno successo. In questa satira si
pensa che alla base del pensiero economico del capitalismo e dello sviluppo dell’economia di mercato via sia in
definitiva la considerazione che gli uomini sono egoisti e che solo in un sistema in cui vi è questo vizio privato può
corrispondere però ai canoni etici del bene.
Il concetto che l’interesse dei singoli alla fine coincidesse con l’interesse generale viene anche attribuito ad Adam
Smith. Analizzando i due suoi più celebri brani riassumiamo che:
“ricchezza delle nazioni”--> non è dalla benevolenza del macellaio o del fornaio che noi ci aspettiamo la nostra cena,
ma dalla loro considerazione del proprio interesse personale. non ci rivolgiamo alla loro umanità, ma loro egoismo e ad
essi parliamo dei loro vantaggi e non delle nostre necessità.
“mano invisibile”--> svolgendo una particolare attività in modo da produrre il maggior valore possibile, l’individuo
persegue solo il proprio interesse ed egli è guidato da una mano invisibile a promuovere una finalità che non è parte
delle sue intenzioni. Ricercando il proprio interesse egli promuove frequentemente è quello dell’intera società.
1.3 economia ed etica
Nell’opera di Smith “theory of moral sentiments” il ruolo dell’individuo e il suo interesse personale è definito come
prudenza comune, cioè come regola di condotta generale accettata e praticata la quale è unione di ragione e
comprensione.--> “morale della simpatia”.
Inoltre il concetto di “dominio di sé” esplicato nella stesa opera indica una prevalenza di valori etici nel
comportamento dell’individuo e che quindi l’interesse personale non può essere confuso con il mero egoismo e il
guadagno.
L’individuo è posto al centro del processo economico, come lo è del sistema politico in democrazia, perché le sue
scelte, espressione della “prudenza comune”, definiscono un sistema di gran lunga preferibile a qualsiasi altro
ordinamento.
È necessario affermare però in generale nell’opera “ricchezza delle nazioni” non vi è il concetto che l’interesse del
singolo coincida con quello generale, ma vi è invece quello che la burocrazia (=giudizio di pochi) farebbe molto peggio
di quanto risulterebbe dalla libera scelta dei privati.--> l’idea di Smith è che l’interesse della comunità è la semplice
somma degli interessi dei singoli --> la libertà naturale dei comportamenti deriva dalla conciliazione dell’interesse
privato con l’efficienza, il che risulta equivalente al concetto di concorrenza.
la mano invisibile invece non è altro che il meccanismo di riequilibrio dei mercati concorrenziali. Tale concetto
proclama la superiorità dell’organizzazione dell’economia guidata dalla mano invisibile della concorrenza rispetto ad
ogni altro sistema restrittivo, fra questi monopolio e restrizioni al commercio. Ricordiamo però che tale condizione non
garantisce che il risultato costituisca l’ottimo assoluto.
Smith definisce i compiti di cui lo Stato si deve occupare: giustizia, opere pubbliche, istruzione; inoltre compila dei
difetti del semplice sistema della libertà naturale, come ad esempio il conflitto di interessi.
Il modo con cui raggiungere finalità etiche (uguaglianza, giustizia ecc) restano affidate alla “prudenza comune” dei
comportamenti, cioè alle virtù del dominio di sé, prudenza , giustizia e beneficienza. Le espressioni dei valori etici di
una cultura e di una società non possono che essere definite e misurate con criteri qualitativi e possono modificarsi
con il passare del tempo.
La ragione della separazione creata da Smith fra scienza economica ed etica è quindi da attribuire all’intuizione che
l’elaborazione delle conoscenze sull’economia si prestasse ai metodi di una scienza esatta, mentre per l’etica ciò non
sarebbe stato ovviamente possibile.
1.4 l’economia di mercato fra costruzione induttiva e deduttiva
J. Feder, afferma che molte delle preposizioni di Adam Smith non possono essere accettate come principi di politica
universale, ma possono essere considerate valide solo in una particolare fase dell’industria, ricchezza e civilizzazione.
Tale considerazione anticipa la successiva evoluzione del pensiero economico classico, in prevalenza riconducibile alla
scuola inglese, da David Ricardo, John Stuart Mill, W. Jevons fino a trovare la formulazione più completa e deduttiva
rappresentata dalla “teoria dell’equilibrio economico generale “ di Leon Walras.
Gli economisti storico-istituzionali rifiutavano dunque le ampie generalizzazioni della scuola dell’economia classica, che
sembravano fondate sulla assunzione per cui ciò che vale per la società inglese deve valere anche per tutto il resto del
mondo.
Nello studio dei fenomeni economici si vennero a formare a partire da Ricardo due differenti indirizzi:
 Indirizzo classico ( e in seguito neoclassico) di orientamento “teorico deduttivo”
 Indirizzo “empirico induttivo” con analisi dei fenomeni effettivamente presenti nella realtà storica e istituzionale
1.5 la sintesi di Alfred Marshall
Alfred Marshall è considerato uno degli economisti più celebri e tramite le sue opere “principles of economics e
Industry and Trade” possono essere considerate l’origine della moderna economia industriale. Egli riconobbe il limite
della teoria classica e neoclassica (ma NON Smith) in quanto i suoi seguaci considerarono nei loro scritti l’uomo come
entità omogenea, né si preoccuparono di studiarne gli aspetti differenziali. Il loro errore fondamentale fu quello di non
rendersi conto di quanto fossero suscettibili le condotte e gli elementi strutturali delle industrie
La teoria dell’equilibrio economico parziale proposta da Marshall nell’opera “principles of economics” con l’analisi
della domanda e dell’offerta di specifici ambiti di attività economica (industries) e il riconoscimento delle diversità dei
mercati spianarono la strada per la nascita dell’”economia industriale” in Europa e dell’”industrial organization” negli
USA.
1.6 le “market failures”
l’economia industriale riguarda efficacemente i casi nei quali le forze spontanee del mercato producono distorsioni
all’equilibrio che perciò si allontana dall’”ottimo paretiano” producendo una distribuzione delle risorse imperfetta.
Market failures o imperfezioni del mercato, è un termine che indica una vasta casistica che si può classificare nelle
seguenti tipologie:
1. La produzione di beni pubblici e sociali che il mercato non è in grado di produrre nella quantità e nella specie
desiderabile a causa di comportamenti opportunistici o perché il suo valore non è incorporabile in un prezzo.

2
2. La presenza di fenomeni legati all’incertezza e all’instabilità che allontanano il sistema dall’equilibrio stabile. Essi
riguardano sia il sistema nel suo complesso (teoria macroeconomia keynesiana) sia le specifiche di singole
industrie e mercati.
3. La presenza di restrizioni alla concorrenza determinate dal potere monopolistico che vanno dalla forma più blanda
di concorrenza monopolistica alla forma più estrema che si verifica nel caso dei monopoli naturali
4. La presenza del fenomeno delle esternalità
5. La presenza di costi di transazione che rende il ricorso al mercato meno efficiente o più rischioso rispetto
all’accentramento delle operazioni produttive nell’ambito di una struttura di comando quale è l’impresa.
6. La presenza del fenomeno dell’”asimmetria informativa”, citata anche nel saggio “the markets for “Lemon””. Per
asimmetria informativa si intende quando una parte degli operatori del mercato dispone informazioni rilevanti
sulla qualità del prodotto che non sono disponibili per gli altri.
L’insieme di queste failures rende la realtà dei mercati, delle “industrie”; tuttavia prima di entrare nell’analisi è
necessario contestualizzare con la situazione storico-istituzionale nel quale operano i mercati.
1.7 le correzioni al mercato. Da Smith a Keynes
La rivoluzione industriale ha preso il via negli anni della pubblicazione delle opere di Smith e tramite esse si è
confermata la superiorità dell’economia di mercato su ogni altra forma di organizzazione del sistema economico da un
punto di vista dell’efficienza; inoltre si sono dimostrati anche i limiti e i difetti funzionali sotto il profilo dei valori etici
rappresentati dalla giustizia e le distorsioni spontanee nel funzionamento del sistema.
L’esperienza ha evidenziato il problema della “stabilità” del sistema basato sull’economia capitalistica--> ciò ha
richiesto l’introduzione di correttivi di carattere istituzionale: es. sindacato dei lavoratori, legislazione sul lavoro,
tassazione sul reddito ecc.…
1.8 sindacati e legislazione del lavoro
Il primo problema del sistema basato sull’economia di mercato è rappresentato dalla debolezza dei lavoratori
salariati (journeymen) rispetto ai capitalisti che offrono lavoro. Il problema venne osservato da Smith che affermava
che--> essendo i datori di lavoro meno numerosi dei lavoratori dipendenti era per loro più facile coalizzarsi in “cartelli”
configurando una forma di mercato monopsonistica per la contrattazione dei salari.
Inoltre Smith afferma che nel mercato del lavoro il principio della concorrenza è ostacolato da una asimmetria di forza
contrattuale fra capitalisti (padroni) e lavoratori, cosicché eventuali misure per rimuovere questo ostacolo
rappresentano condizioni per rafforzare il grado di concorrenza e non indebolirlo. In condizioni di Monopsonio
l’imprenditore determinerà la quantità di lavoro da assumere al punto in cui la produttività marginale è uguale al costo
marginale---> ciò dà origine ad una differenza fra la produttività del lavoro e il salario medio, differenza che Marx
definisce “plusvalore”. Questa riflessione indusse una parte degli economisti classici “Lassalle” e “Marx” a condurre le
proprie analisi sulla legge ferrea dei salari, secondo cui il salario dei lavoratori dipendenti non avrebbe potuto
eccedere il livello della pura sussistenza, il quale era costituito dalle condizioni di vita minime alle quali i lavoratori
avrebbero accettato di mettere al mondo dei figli, e di mantenerli finalità del lavoro, evitando che vi fosse nel lungo
periodo una caduta della quantità di lavoro offerta.
Smith invece aveva una visione molto più avanzata; dopo aver notato come nel Nord America in Inghilterra i livelli
salariali fossero ben superiori a quello della sussistenza egli osservava come i livelli salariali del Nord America sono
molto più alti che in Inghilterra, ma benché il Nord America non sia ancora così ricco come Inghilterra è molto più
vivace e progredisce con maggiore rapidità nell’ulteriore produzione di ricchezza. --> il segnale più decisivo della
prosperità di un paese e l’aumento della sua popolazione.
“Una remunerazione liberale del lavoro e contemporaneamente l’effetto è il sintomo di una crescente ricchezza
nazionale. Il costringere il lavoratore a rimanere povero costituisce il sintomo naturale di uno stallo e i salari da fame lo
sono del fatto che le cose stanno rapidamente peggiorando”.

3
Al contrario gli aumenti della produttività conseguiti dalla tecnologia delle manifatture industriali e dall’applicazione di
quantità crescente del capitale si trasferirono in cospicui aumenti dei salari anche sotto la pressione dell’attività
sindacale, e oltre al miglioramento delle condizioni di vita dei lavoratori.
1.9 le politiche sociali. Previdenza obbligatoria e sanità
Il secondo problema riguarda la capacità die singoli individui di badare a se stessi.
Le prime istituzioni moderne in tese a incorporare determinati valori, espressione di giustizia e di uguaglianza nel
funzionamento corrente del sistema economico, furono introdotti dal cancelliere Bismark, mediante l’assicurazione
obbligatoria per il pensionamento dei lavoratori dipendenti una volta raggiunto il limite di 65 anni di età;
successivamente altri esempi con la Gran Bretagna di Churchill.
Il termine welfare è legato alle riforme del presidente degli Stati Uniti Roosevelt. Le politiche sociali del Welfare State
si ispirano al principio dell’uguaglianza delle opportunità, contenimento delle conseguenze derivanti dalle
disuguaglianze nella distribuzione del reddito e più in generale la ricchezza e all’assistenza pubblica a coloro che non
sono in grado di assicurarsi il minimo necessario per un’esistenza dignitosa.---> il tratto fondamentale è costituito dalle
assicurazioni sociali finanziati da contributi obbligatori.
Le controversie sulle politiche sociali nelle democrazie occidentali riguardano la scelta del livello dei servizi forniti dallo
Stato, livello che deve soddisfare i bisogni individuali e delle famiglie.
Hayek, sotto il profilo dei principi dal punto di vista della coerenza fra economia di mercato le politiche sociali afferma
dell’esistenza di persone che per varie ragioni non possono guadagnarsi da vivere un’economia di mercato, come i
malati vecchi handicappati fisici e mentali, cioè coloro che soffrono condizioni avverse e contro le quali molti non sono
in grado di premunirsi da soli, ma che è una società che abbia raggiunto un certo grado di benessere può permettersi
di aiutare, assicurare un reddito minimo a tutti o un livello sotto cui nessuno scenda quando non può più provvedere a
se stesso.---> protezione legittima contro rischi comuni a tutti ed è compito necessario della grande società.
1.10 finalità della tassazione
Il terzo ordine di problemi istituzionali suscitato dal sistema dell’economia di mercato è che questo sistema non riduce
le disuguaglianze fra i soggetti dell’economia, ma tende ad aumentarle e dal problema della produzione dei beni
pubblici.
Sin dall’inizio la principale finalità della tassazione del reddito e del patrimonio è stata costituita dal finanziamento
della costruzione e del funzionamento dei beni pubblici (difesa, viabilità e così via).Adam Smith era favorevole al
sistema delle concessioni per la realizzazione dei beni pubblici, ma non sempre era possibile o conveniente e per
questo riconosceva la necessità dell’intervento pubblico finanziato con il prelievo di imposte.
Pensiero dei classici sulla tassazione--> “È ragionevole che le spese sostenute a beneficio generale dell’intera
comunità siano pagate dal contributo dell’intera società, con il concorso di tutti, il più possibile in proporzione alle
capacità di ciascuno.”
Ai tempi dei classici le finalità della tassazione prendevano in considerazione solo la questione del finanziamento della
spesa per beni pubblici, e non anche quella della redistribuzione del reddito e perciò la prescrizione sulla tassazione ai
fini del valore dell’uguaglianza erano limitate solo alla “capacità contributiva”. Solo all’inizio del 900 la finalità di
redistribuzione fu incorporata nei sistemi fiscali attraverso l’introduzione delle aliquote.
1.11 l’antitrust
il “market failure” dell’economia capitalistica riguarda anche la concentrazione delle imprese, o per meglio dire la
possibilità per alcuni di costituire e sfruttare la posizione dominante acquisita nel mercato.
Già questo tipo di distorsione del mercato e della concorrenza si può vedere storicamente già da quando esistono i
mercati quindi c’è l’epoca di Aristotele.

4
Secondo lo stesso Aristotele il buon funzionamento dei mercati è anche nell’interesse dell’imprenditore, ma solo con
le innovazioni tecnologiche della seconda metà dell’ottocento che avevano determinato un aumento delle dimensioni
dell’impresa e la ricerca di economie di scala, e con un largo ricorso alle concentrazioni (fusioni e acquisizioni) che si
provocarono distorsioni sistematiche della concorrenza, e da queste crisi di sovrapproduzione. Inoltre la discesa dei
prezzi spinse gli imprenditori a forzare ancora di più sulla concentrazione per formare posizioni monopolistiche in
grado di controllare le quantità o i prezzi. Ciò accade quasi in contemporanea sia in Europa sia negli Stati Uniti.
La dottrina prevalente era l’empire building, cioè il gigantismo, ossia la convinzione che la grande dimensione
procurasse forza competitiva e che conquista si potessero raggiungere dimensioni ancora più grandi. --> le
conseguenze sono il danneggiamento dei produttori più piccoli con le pratiche monopolistiche e con i prezzi predatori,
volti all’eliminazione della concorrenza, e nel caso dei consumatori si trovarono di fronte a prezzi alti.
A questa situazione ci fu una reazione da parte di John Sherman con lo Sherman act del 1890 nel quale si stabilirono
quali comportamenti sono da giudicare “forme di concorrenza sleale”. Secondo la tradizione della Common Law
consiste nel fatto che mentre in Europa i divieti riguardano l’abuso di posizione dominante, degli Stati Uniti e
l’esistenza stessa di posizione dominante essere vietata.
Difatti la legislazione antitrust costituisce un insieme di leggi volte a promuovere l’efficienza, impedendo le pratiche
monopolistiche e la distorsione dei mercati; inoltre la legislazione antimonopolistica ha avuto origine negli Stati Uniti
con una chiara connotazione etico sociale: il ripristino della fiducia nell’equità del sistema economico politico. Nel caso
europeo invece l’obiettivo finale era costituito dalla volontà di integrare i mercati nazionali in un grande mercato
unico.
1.12 stabilità e sviluppo
Il quinto tipo di correttivo introdotto per correggere le failures dell’economia di mercato riguardano la stabilità e lo
sviluppo.
L’osservazione di Smith circa la relazione fra alti salari libera concorrenza e rapida crescita spiega la parte strettamente
economica dello sviluppo, ma non è sufficiente a garantire nella stabilità del sistema né che il sistema raggiunga le
condizioni di crescita più elevati possibili con la piena occupazione dei fattori disponibili.
Il mercato produce instabilità per tre motivi:
1) Fattore tecnico, ossia quando l’elasticità dell’offerta è maggiore di quella della domanda di una particolare
industria, da cui il “teorema della ragnatela”.
2) Instabilità dei prezzi dovuta alla moneta
3) Presenza del fenomeno del “ciclo economico”, al cui se ne occuperà John Keynes.
Al tempo di Adam Smith la stabilità non era considerata un valore.si pensava che la stabilità era affidata alla natura o al
massimo si poteva avere l’inflazione dovuta alla scoperta di nuovi giacimenti di oro o di argento o allo svilimento del
contenuto metallico delle monete. La stabilità del valore intrinseco delle merci dipendeva dall’idea che quest’ultimo
dipendesse fondamentalmente dalla quantità di lavoro incorporata nella merce e dall’idea che i salari fossero stabiliti
in termini reali. Si pensa che chi ha introdotto il valore della stabilità del sistema economico di mercato siano due
economisti famosi: J. M Keynes e Röpke. Keynes introdusse due concetti rivoluzionari per il sapere corrente:
a) La moneta non è estranea all’equilibrio dei mercati
b) Il liberismo e la mano invisibile non garantiscono la stabilità e lo sviluppo.
La moneta non è estranea all’equilibrio dei mercati--> egli studiò sulle forze che determinano le variazioni del prodotto
e dell’occupazione nel loro complesso e per quanto si lasciano alcuni dettagli da parte risulta chiaramente che la
moneta entra negli scambi economici in modo essenziale specifico. difatti se l’offerta di moneta è abbondante, perché
la spesa pubblica finanziata con l’emissione di cartamoneta in luogo delle imposte, O perché è facile attingere
risparmio dei mercati internazionali ne deriva un’espansione dei consumi e degli investimenti. di qui la conclusione che
la domanda e l’offerta non sono indipendenti dalla moneta.

5
Inoltre Keynes ha previsto che uno stimolo alla domanda effettiva (consumi investimenti) avrebbe comportato una
crescita dell’offerta fino a portare il sistema la piena occupazione; tale concetto venne portato in pratica
all’esasperazione fino ad arrivare alla generazione del fenomeno della “stagflazione”, ossia dell’elevata inflazione in
presenza di un’economia stagnante, caratteristica degli anni 70 del secolo scorso.
Keynes fu importante anche per aver ispirato gli accordi di “Bretton Woods’” tramite tre principi fondamentali:
- Convertibilità con cambi fissi delle principali valute in dollari, e di questi in oro
- La tendenza verso la piena liberalizzazione degli scambi di merci e di servizi, con la costituzione della Wto (World
Trade Organization)
- Controllo e sostegno della stabilità dei rapporti di cambio e dei tassi di crescita esercitato su base mutualistica da
parte di organismi multinazionali specializzati
La “globalizzazione dei mercati finanziari” non era prevista, anzi da Caine veniva giudicata negativamente, perché i
movimenti di capitali potrebbero portare a squilibri nelle bilance dei pagamenti con effetti strutturali sul livello di
occupazione.
Il liberismo e la mano invisibile non garantiscono stabilità e sviluppo--> proprio tramite concezione che Keynes aveva
messo in luce le ragione della naturale tendenza verso l’instabilità dei mercati, da cui la necessità che il governo
intervenga sulla domanda effettiva per stabilizzare il sistema in piena occupazione. Tale costatazione dopo aver
osservato la grande crisi del 1929 della quale il governo si astenne da qualsiasi intervento lasciando così precipitare la
produzione e di conseguenza il reddito, i consumi, gli investimenti.
Secondo invece Röpke, egli comprendeva che l’instabilità del potere di acquisto della moneta provoca nei migliori dei
casi incertezza degli operatori economici, e di cui disoccupazione e stagnazione. tale constatazione venne data dalla
sua esperienza dei drammi provocati dall’inflazione in Germania nella quale lui sosteneva la presenza della virtù della
moneta “dura” (cioè stabile) contro le miserie della moneta “molle” (cioè inflazionistica).

2. Le metodologie di analisi
2.1 La scuola di Harvard
La metodologia di analisi dell’economia industriale associata è il nome di Edward Mason e John Bain assume il nome
di “Scuola di Harvard”. tale analisi ha un carattere fortemente empirico e il metodo di tale scuola si fonda su un
approfondimento sistematico dei fallimenti di mercato determinata dal potere monopolistico. Esso si articola nel
paradigma “struttura-condotta-risultati” (= structure-conduct-performance).
Il paradigma S-C-P ( Struttura Condotta Performance ) è un teorema economico che lega i risultati (performance) delle
imprese al loro comportamento (condotta) e, indirettamente, alla struttura del settore industriale di appartenenza.
Viene sviluppato negli anni '30 del Novecento negli Stati Uniti presso l'università di Harvard nell'ambito dell'economia
industriale.
In base a questo primo approccio le caratteristiche della struttura di un settore economico determinano in modo
esogeno e univoco il comportamento delle imprese che vi fanno parte.
Secondo la scuola di Harvard e le imprese devono rispettare le regole del gioco scritte all’esterno di esse. L’impresa in
grado di adattarsi prima è meglio (condotta) alle regole del gioco (struttura) si afferma e vince (performance).al centro
degli studi di questo paradigma viene posto il settore economico.
• settore industriale. Secondo il paradigma il comportamento delle imprese è determinato dalle caratteristiche della
struttura del settore industriale (dimensione impianti, numero imprese, differenziazione di prodotto, barriere di
ingresso, concentrazione).la struttura industriale determinata dalle condizioni di base del mercato. Le condizioni di
base del settore industriale sono prevalentemente delle caratteristiche di lungo periodo nel breve periodo sono
considerate variabili esogene del modello economico, non modificabili né dalle imprese, né dai policy maker. Le
principali condizioni di base di un settore industriale sono le seguenti:

6
 Tecnologia--> la tecnologia determina l’andamento del costo medio di produzione delle imprese e le
economie di scala della produzione.ad esempio degli impianti di Grandi dimensioni le economie di scala
consentono di ottenere il costo medio più basso in corrispondenza di un’elevata quantità di produzione
(scala minima efficiente).quanto maggiore è la quantità di produzione minima efficiente in rapporto alla
domanda tanto più forti sono le barriere di ingresso è maggiore il livello di concentrazione dell’offerta
(numero delle imprese) e le dimensioni delle imprese (capacità degli impianti) nel settore industriale.
 Elasticità della domanda--> elasticità della domanda di beni è determinato dalla sostituibilità di un bene
economico con altri beni sostituti.
 Tasso di crescita della domanda--> una domanda in forte crescita lascia ampio spazio alle imprese new
comers, le quali possono attuare un piano di investimento per entrare nel mercato con maggiori
possibilità di crescita rispetto al mercato statico e maturo.
 Fattori storico-ambientali--> la struttura industriale è influenzata anche da fattori storici ambientali del
sistema economico.ad esempio l’imprenditorialità è generalmente ostacolata dall’instabilità politica del
paese, dal livello di corruzione, dalla sindacalizzazione del lavoro.
• condotta/comportamento. Il comportamento condotta delle imprese indica l’insieme della politica e delle scelte
aziendali relative al prezzo e alla produzione.
• performance. Comportamento delle imprese determina a sua volta le performance delle stesse, ossia i loro risultati
economici (profitto, fatturato, potere di mercato, efficienza, potere di mercato, benessere collettivo).è opportuno
distinguere due diversi obiettivi delle politiche industriali:
 Performance aziendale--> la performance aziendale è il risultato economico della singola impresa.è
generalmente misurata in termini di fatturato, di profitto, di vendite, di quote di mercato.
 Surplus totale--> il surplus totale è il benessere collettivo (o benessere sociale) che tutti gli operatori
economici (imprese, consumatori, lavoratori, Stato) traggono dal settore industriale.
Ad esempio, il grado di concentrazione dell'offerta è correlato direttamente al margine di profitto conseguibile dalle
imprese. Nel monopolio l'offerta è concentrata in una sola impresa che ottiene un profitto elevato. Nell'oligopolio
l'offerta è distribuita tra poche imprese e il profitto è positivo ma inferiore rispetto a quello di un’impresa monopolista.
Nella concorrenza perfetta l’offerta è suddivisa tra una moltitudine di imprese e il profitto è tendenzialmente nullo
CRITICA--> Il paradigma analizza soltanto un aspetto della realtà. La struttura industriale influenza determina il
comportamento delle imprese ma è anche vero che alcune imprese leader, di grandi dimensioni e con un forte potere
di mercato, possono essere in grado di modificare a proprio vantaggio sia le regole del gioco che le caratteristiche
stesse del settore industriale in cui operano a scapito delle altre imprese industriali in quest’ultimo caso la relazione
tra settori impresa cessa di essere univoca per diventare biunivoca. Tale ipotesi è portata avanti dalla “nuova
economia industriale”.
In sintesi il modello della scuola di Harvard è fondamentalmente basato sull’osservazione di elementi fattuali derivati
dall’osservazione empirica, tutt’al più stilizzate in categorie omogenee relazioni causali. Inoltre secondo tale
metodologia esistono alcune caratteristiche di base presenti nelle particolari industrie che possono provocare delle
distorsioni della struttura dell’industria, che ne allontanano le effettive caratteristiche da quelle ideali della
concorrenza perfetta. Per questa ragione l’economia industriale che si spira la scuola di Harvard può essere anche
definita “economia dei mercati imperfetti”. --> le imprese possono sfruttare a proprio vantaggio tali imperfezioni
come anche contribuire a renderle più profonde in funzionamento dell’ottenimento della miglior performance a
possibile sotto il loro punto di vista. Date queste caratteristiche del funzionamento dei mercati l’intervento
dell’autorità pubblica è giustificato dalla finalità di correggere il funzionamento dei mercati e fare sì che le
performance che ne conseguono sia prossima al più possibile all’interesse generale quello dei consumatori.
2.2 La scuola di Chicago
La scuola di Chicago deriva dai tradizionali principi dell’economia classica e neoclassica, ai quali tuttavia fu impressa
una dose maggiore di realismo. L’iniziatore della scuola fu Aaron Director, fondatore del filone disciplinare “law and

7
economics”. Altra figura innovativa fu Stigler, il quale i suoi lavori furono considerati la quintessenza dell’empirismo
nell’economia congiunto a solide basi teoriche. difatti i suoi studi vengono illustrati con dati tratti dalla realtà empirica
del mondo degli affari invece che utilizzare esemplificazioni astratte basate su ipotesi.
Sigler si differenzia dalla scuola di Harvard per l’importanza che viene attribuita alla teorizzazione, ovvero alla
costruzione di modelli, sia pure in campi specifici e delimitati, che possano ricondurre i fatti osservati a generalità sulle
ipotesi di comportamento dei soggetti economici. Egli rileva che quasi sempre gli interventi della “mano pubblica” sui
mercati producono risultati peggiori di quelli che le forze spontanee del mercato avrebbero determinato.
Sigler dimostra che in moltissimi casi la prassi che dirige l’intervento pubblico si basa su valutazioni errate, come il
divieto di certe condotte economiche o le misure di sostegno perché non prendi spunto da un contesto teorico
coerente e approfondito.
----> la regola che sovrasta tutti gli altri possibili indirizzi è la “concorrenzialità dei mercati”, alla luce della quale tutte le
interferenze esterne finiscono con l’essere nocive, salvo l’impedire che le imprese stesse riducano il grado di
concorrenza nel mercato attraverso pratiche che limitano la concorrenza.
In contrapposizione alla scuola di Harvard che ha delle analisi delle imperfezioni del mercato l’osservazione dei
comportamenti delle imprese, la scuola di Chicago ritiene che il potere esplicativo dei fenomeni effettivamente
osservati stia nel “modello di concorrenza perfetta”. Ciò significa che nel modello della scuola di Chicago le
performance dipendono essenzialmente dalla capacità di innovazione di visione strategica dei manager. Sono pertanto
le migliori performance a formare posizioni dominanti e non viceversa.
Quindi la relazione che lega il dato della struttura dell’offerta alle performance deve essere interpretato in senso
ascendente. Un esempio può essere i risultati della Microsoft, che non dipendono dalla sua posizione dominante, ma
al contrario quest’ultima dipende dalla capacità tecnologica educativa della stessa azienda.
Da notare quindi che quando in un’industria è assicurata la libertà di entrata per nuovi concorrenti le distorsioni che si
osservano nella struttura rappresentano solo una fase del processo concorrenziale, che non deve essere
necessariamente negativo e in contrasto con l’efficienza e con l’interesse generale, che comunque è destinata ad
evolvere sotto la spinta delle forze del libero mercato e della concorrenza.
Un intervento dell’autorità di governo non andrebbe affatto incontro all’interesse generale, perché avrebbe piuttosto
l’effetto di favorire i potenziali, ma meno efficienti, concorrenti, al prezzo di costi più elevati e di minore innovazione.
Quindi mentre la scuola di Harvard giustifica e sollecita qualche forma di intervento pubblico, la scuola di Chicago da
indicazioni del tutto opposte: restrizioni protezioni allontanano le condizioni del mercato da quelli della concorrenza e
si risolvono in benefici per pochi.
Potere di mercato e fattori chiave--> Per la scuola di Chicago il potere di mercato e le posizioni monopolistiche, non
sono necessariamente ai fattori negativi, a condizione che siano garantite le condizioni di libertà di entrata e di
contendibilità. l’innovazione tecnologica e le tecniche manageriali nonché la libertà di entrata rappresentano i fattori
chiave per la comprensione della dinamica dei mercati.
2.3 i nuovi sviluppi teorici. La “nuova economia industriale”
La “teoria dei giochi” ha determinato un nuovo indirizzo di carattere fortemente teorico e astratto dello studio il
funzionamento dei mercati e dei comportamenti fra le imprese. L’applicazione della teoria dei giochi analisi economica
avuto origine dal lavoro di due matematici americani.
Un “gioco” è un modello formalizzato che descrive una situazione di comportamenti interdipendenti nel quadro di
regole date, dove il risultato di ciascun giocatore dipende sia dalle sue scelte sia dalle azioni compiute degli altri
giocatori. Il comportamento ottimale di un’impresa o la sua strategia ottimale quindi non dipende solo dei propri costi
di produzione e dal volume della produzione ma anche da ciò che l’impresa in questione congettura circa il
comportamento delle altre imprese. Quindi le scelte decisionali di un particolare soggetto o impresa dovrebbero tener

8
conto degli effetti di quest’ultime sulle congetture delle altre imprese e delle conseguenze sul loro comportamento in
futuro.
Questo approccio dell’analisi economico industriale in ragione della sua impostazione fortemente astratta ne attenua il
confine con la micro economia e finisce con l’allontanarsi dal requisito originale degli studi di economia industriale: la
prevalenza del metodo empirico induttivo e il forte legame con la realtà fattuale dei mercati e delle imprese.

3. Settori e mercati. La teoria dell’equilibrio economico di Marshall. Il mercato rilevante. I distretti industriali. Le
classificazioni statistiche
3.1 settori e mercati
Ciascuna scuola di pensiero dell’economia industriale studia i “settori industriali” e i “mercati” in base alla propria
impostazione teorica.
La definizione dei settori e dei mercati assume contorni diversi a seconda della natura del soggetto e delle finalità
dell’analisi da condurre. Le imprese si pongono tale problema per stabilire le proprie strategie: quote di mercato,
analisi delle caratteristiche dei concorrenti, azioni più efficaci eccetera.
Con il termine industria (industry) o settore industriale ci si riferisce ai venditori; per il termine mercato ci si riferisce
agli acquirenti.--> secondo questa distinzione il settore può essere identificato sulla base di fattori di offerta il mercato
sulla base di fattori di domanda.
Andrews definisce l’”industria” come l’insieme di imprese che utilizzano tecnologie di processo simili e possiedono
esperienze e conoscenze comuni che rendono possibile produrre un particolare prodotto qualora risulti conveniente.--
> da ciò ne deriva che vengono raggruppati i processi produttivi simili in quanto presuppongono uno stesso patrimonio
di esperienze e di conoscenze, o presenti in una stessa organizzazione tecnica o impieghino una stessa materia prima.
Tali criteri sono adatti a settori tecnologicamente maturi, ma non a seguire i cambiamenti tecnologici che
caratterizzano il dinamismo capitalistico. difatti il criterio è poco adeguato anche quando si applichi all’industria
caratterizzata da un’intensa innovazione di prodotto, dei metodi di distribuzione di commercializzazione.
Proprio per questo è possibile anche definire settori in funzione dell’esistenza dell’estensione di reti o sistemi di
distribuzione delle imprese. Faranno parte di uno stesso settore tutti i beni e servizi che la rete controllata da
un’impresa o da un gruppo di imprese può distribuire a raggiungere. Si tratta di un criterio innovativo che viene
utilizzato dalle imprese impegnate nella competizione in mercati dinamici dall’autorità antitrust che regolano i settori
delle public utilities, dove le innovazioni tecnologiche hanno reso le reti utilizzabili per più impieghi in relazione ad
attività diversificate.
------> le definizioni basate sul criterio tecnologico presentano limite di non tener conto del mercato dei consumatori;
le definizioni basate sul mercato e su elementi della domanda tengono conto dei gusti e delle preferenze dei
consumatori, dei luoghi di consumo e dei bisogni dei consumatori.
I processi produttivi che soddisfare uno specifico bisogno compagni e servizi sostituibili o complementari costituiscono
un’industria. Proprio riguardo a questo punto è importante soffermarsi sull’analisi di Bain. Tale analisi possiede molti
elementi di un’analisi di mercato facendo riferimento al concetto di sostituibilità tra prodotti dal punto di vista dei
consumatori. Per misurare tale sostituibilità Bain utilizza il concetto di elasticità incrociata tra beni sostituti, data dal
rapporto tra la variazione percentuale della quantità domandata del bene y e la variazione percentuale del prezzo del
bene x:
In funzione del segno dell’elasticità incrociata possiamo classificare un bene come “sostituto” si elasticità incrociata è
maggiore di zero; si definisce un bene “complementare” se l’elasticità incrociata è minore di zero; si definisce un bene

9
indipendente se il suo valore è uguale a zero. Quanto maggiore è il valore dell’elasticità incrociata, tanto più i due
prodotti sono sostituibili fra loro e configurano un mercato. Tendenzialmente per Bain nei mercati di prodotti non
differenziati, l’elasticità di sostituzione è molto più marcata rispetto i mercati dove beni sono diversificati.
Per le imprese la definizione dei mercati è un’operazione molto importante ai fini della scelta delle strategie aziendali:
l’interesse delle imprese è più quello di segmentare il mercato, in particolare al fine di discriminare i prezzi, piuttosto
che quello di stabilirne i confini.
3.2 l’ambito competitivo e l’equilibrio parziale di A. Marshall
Gli aspetti della domanda dell’offerta sono connessi a quelli di settore industriale attraverso il concetto di “ambito
competitivo”. Per “ambito competitivo” (=relevant market) si intende l’insieme delle porzioni della domanda e
dell’offerta e di consumi caratterizzati da una significativa elasticità incrociata della domanda.
La definizione di ambito competitivo coincide con quella di equilibrio economico particolare o parziale di A. Marshall,
quindi con il suo concetto di Industry. La definizione di mercato è secondo Marshall è quello spazio economico in cui
“buyers and sellers are in a such free intercourse with one another that the prices of the same goods tend to equality
easily and quickly.
Il mercato in Marshall è quello in cui può essere identificato un unico prezzo e nel quale è valida l’analisi dell’equilibrio
parziale. la teoria dell’equilibrio parziale considera l’equilibrio presente in una parte soltanto dell’economia, cioè
interminato mercato, supponendo che non varino le condizioni esistenti negli altri mercati sulla base delle ipotesi della
massimizzazione dell’utilità dell’agire dell’individuo nel mercato.
3.3 il mercato rilevante: definizione e applicazione alla normativa antitrust
L’applicazione della normativa antitrust esige di definire l’ambito specifico in cui si esercita la concorrenza fra le
imprese, ovvero il “mercato rilevante”, che può essere definito come il più piccolo contesto nel cui ambito è possibile
la creazione di un potere di mercato.--> più genericamente si può definire mercato rilevante il più piccolo insieme di
prodotti in un’area geografica in cui è possibile per le imprese porre in atto fattispecie è proibito dalla legislazione
antitrust.
Esempio. Nel caso delle concentrazioni tra imprese il mercato rilevante il più piccolo insieme di prodotti in cui la
concentrazione può portare al rafforzamento o alla creazione di una posizione dominante tale da ridurre in modo
significativo la concorrenza in tale mercato.
-----> La definizione del mercato rilevante fa quindi riferimento all’insieme dei prodotti delle aree geografiche che
esercitano un vincolo competitivo reciproco.
In base alle linee guida sulla definizione di mercato rilevante pubblicati dalla commissione europea “linee guida
comunitarie”, il mercato va definito sia sotto il profilo del prodotto, che sotto il profilo geografico per individuare i
concorrenti effettivi delle imprese interessate che sono in grado di condizionare il comportamento di quest’ultime ed
impedire loro di operare in modo indipendente da effettive pressioni concorrenziali.
Mercato rilevante sotto il profilo del prodotto--> comprende tutti i prodotti e servizi che sono considerati
intercambiabili o sostituibili dal consumatore, in ragione delle caratteristiche dei prodotti, dei loro prezzi, dell’uso cui
sono destinati. Nella definizione di mercato rilevante infatti viene considerata anche l’elasticità di sostituzione
dell’offerta nel caso in cui questa possa influenzare la sostituibilità dal lato della domanda.si tratta di definire il
mercato in situazioni nelle quali tale sostituibilità ha effetti equivalenti, in termini di efficacia ed immediatezza, a quelli
della sostituibilità sul versante della domanda. Un esempio di sostituibilità dal lato dell’offerta rappresentata da
prodotti differenziati in base alla qualità; anche se i prodotti sono di qualità diversa ogni impresa può modificare
agevolmente la propria produzione senza sostenere costi elevati in modo da produrre il tipo di qualità richiesta. Invece
se la sostituibilità dal lato dell’offerta e tale da comportare i costi elevati di cambiamento, nuovi investimenti ritardi di
tempo, questa non sarà presa in considerazione per la determinazione del mercato rilevante.

10
Mercato rilevante sotto il profilo geografico--> È definito come l’aria nella quale le condizioni di concorrenza sono
sufficientemente omogenee e che può essere distinta da zone geografiche contigue dove le condizioni di concorrenza
sono differenti.il limite geografico di un mercato viene determinato analizzando sia un amento del prezzo in una
località influisca in modo sostanziale sul prezzo di un’altralocalità.se è così entrambi le località appartengono allo
stesso mercato geografico.
Per l’individuazione del mercato geografico occorre raccogliere informazioni relative almeno ai seguenti aspetti:
1) Entità dei costi di trasporto da valutare in relazione al valore aggiunto per unità di prodotto
2) Disponibilità degli acquirenti del prodotto a spostarsi
3) Eventuale presenza di barriere di natura tariffaria e non tariffarie agli scambi internazionali.
Tre casi tratti da procedimenti delle due autorità (AGCM e Commissione antitrust europea) che semplificano alcune
caratteristiche dell’individuazione del mercato rilevante
1 caso: caso del mercato del calcestruzzo (AGCM)
L’Autorità Garante della Concorrenza e del Mercato (AGCM) , nel 2004, ha deliberato che l’intesa realizzata dalle
società (…) ha determinato una significativa e consistente alterazione della concorrenza nel mercato del calcestruzzo
preconfezionato. In considerazione della gravità e della durata dell’infrazione l‘Autorità ha condannato le parti al
pagamento di sanzioni pecuniarie, per un importo complessivo di circa 40 milioni di  euro.
A seguito di una segnalazione all'Autorità secondo la quale le Parti avrebbero posto in essere, nel periodo dal 1999 al
2002, un'intesa volta principalmente alla ripartizione di forniture di calcestruzzo destinate ai cantieri edili della
provincia di Milano (Mercato Geografico Rilevante) e, parzialmente, di alcune province limitrofe (Lodi, Como, Pavia e
Varese), con l’obiettivo di accrescere i ricavi attraverso l’incremento dei prezzi di listino e la riduzione progressiva dei
termini di pagamento.

A seguito delle indagini effettuate, l’Autorità  ha accertato – sulla base di documenti, verbali di incontri ed ammissioni
di alcune delle Parti – la sussistenza di un accordo anti competitivo nettamente delineato, che ha avuto ad oggetto la
ripartizione del mercato del calcestruzzo nel Mercato Geografico Rilevante. L’accordo prevedeva anche stringenti
meccanismi di controllo del rispetto delle carature, tali da rendere l’intesa particolarmente vincolante; si tratta, in
particolare, di elaborazioni centralizzate di dati su cantieri e forniture - acquisiti attraverso uno scambio di informazioni
continuo e altamente organizzato - nonché di ispezioni da svolgersi direttamente presso gli impianti delle società al
fine di verificarne le produzioni ed i documenti contabili.
Va peraltro considerato che sebbene il mercato del calcestruzzo abbia dimensioni geografiche limitate in ragione delle
caratteristiche di deperibilità del prodotto e dello sfavorevole rapporto peso/prezzo, le parti interessate disponevano
di numerosi impianti in Lombardia per cui l’accordo ha determinato una significativa distorsione concorrenziale.
L’intesa ha quindi visto coinvolti i principali operatori presenti nel Mercato Geografico Rilevante (rappresentando una
quota superiore all’80%), mercato di notevole rilievo sia in termini di volume che di valore.

II caso: il mercato delle Pay-tv: il caso Newscorp/telepiù (commissione europea)


A partire dall’inizio degli anni 90 sono stati sempre più numerosi casi sottoposti dall’autorità antitrust italiana e alla
commissione europea riguardanti il settore delle televisioni a pagamento. In questo caso specifico si parla della fusione
tra Newscorp e Telepiù. Newscorp sosteneva l’esistenza di un unico mercato rilevante tra televisione in chiaro e
televisione a pagamento, poiché la forza degli operatori televisivi in chiaro costituiva un’effettiva limitazione per gli
operatori della televisione a pagamento. La commissione invece identificava due mercati distinti, esiste un mercato
separato per la pay TV. Tale mercato si finanzia con gli abbonamenti e in misura minore con la pubblicità o contributi
statali. Mentre nel caso della televisione in chiaro la relazione commerciale esiste solo tra il fornitore del programma e
l’inserzionista pubblicitario, nel caso della pay TV esiste anche una relazione commerciale diretta tra il fornitore del
programma e lo spettatore in quanto abbonato. La commissione osservava che le condizioni di concorrenza sono
perciò diverse per la televisione a pagamento è quella in chiaro. Mentre nel caso della televisione in chiaro il

11
parametro fondamentale la relazione tra lo Cher di pubblico e i prezzi della pubblicità, nel caso della televisione a
pagamento il fattore chiave la relazione tra la struttura dei programmi il numero di abbonamenti. Il fatto che gli
abbonati siano disposti a pagare somme considerevoli per la pay TV indica chiaramente che quest’ultima rappresenta
un prodotto diverso destinato a pubblico ben definito.
Commissione concluse che la pay TV e la televisione in chiaro rappresentano ancora mercati nettamente distinti in
Italia, nonostante l’innegabile interazione reciproca di fatti se aumenta l’offerta di un’emittente in chiaro sarà tanto
minore l’incentivo degli spettatori adottare per l’abbonamento alla pay TV. Proprio per questo la commissione non ha
escluso che in futuro prossimo grazie al processo tecnologico e alla presenza di concorrenza potenziale di altre
piattaforme la distinzione dei due mercati possa attenuarsi, creando una crescente affinità tra le modalità che
convogliano l’intrattenimento.
III caso: il mercato della distribuzione di bevande in Italia: il caso Partesa Verona/bevande bombana (AGCM)
Partesa è una società attiva nel commercio all’ingrosso di bevande, che svolge funzioni di holding di controllo di una
rete di società operanti nel medesimo settore. Partesa è controllata al 100% da Heineken Italia SpA, impresa
produttrice di birra.
Partesa ha avviato, a partire da alcuni anni, una significativa serie di acquisizioni nel mercato della distribuzione di
bevande. All’inizio del piano di acquisizioni (1994), la definizione di mercato rilevante dell’Autorità comprendeva
entrambi i mercati rilevanti della produzione di birra e della distribuzione di bevande.
Nel corso degli anni, la definizione del mercato rilevante si è modificata, abbandonando il mercato della produzione di
birra e restringendosi, per quanto riguarda il mercato rilevante della distribuzione di bevande, al solo canale
tradizionale, o lungo, o horeca (Hotel, Restaurants, Cafes), in quanto i grossisti di bevande si sono specializzati, e quelli
che prima erano due segmenti di uno stesso mercato sono divenuti due mercati rilevanti separati ai fini antitrust.
Tuttavia, il consistente piano di acquisizioni effettuato da Partesa ha portato quest’ultima società ad essere un
operatore presente su tutto il territorio nazionale e a evidenziare l’esistenza di un processo di integrazione verticale
effettuato da Heineken per il tramite di Partesa. Questo processo di integrazione verticale è volto, secondo l’AGCM, “a
costituire una filiera integrata della distribuzione della birra in capo ai produttori, che ha come effetto di consentire un
controllo diretto della commercializzazione di birra nel canale horeca attraverso l'acquisizione di grossisti
indipendenti.” La definizione di mercato merceologico rilevante si è quindi ulteriormente modificata, per giungere ad
una intersezione dei due mercati precedentemente definiti: secondo l’Autorità, infatti, quando un produttore di birra
acquisisce un grossista indipendente, l’acquisizione è in grado di modificare i flussi di birra commercializzata. Per
questa ragione, il mercato rilevante da un punto di vista antitrust risulta essere quello della commercializzazione della
birra ai punti vendita del canale horeca effettuata dai singoli produttori, attraverso distributori indipendenti o
verticalmente integrati. Dal punto di vista geografico, l’Autorità tende a far coincidere i mercati rilevanti con i confini
provinciali, anche se in taluni casi non esclude che, in ragione delle caratteristiche locali della domanda, il mercato
rilevante possa superare i confini provinciali.
Appare interessante notare che l’Autorità non fa ricorso in questo caso ai criteri identificati nelle Linee Guida
comunitarie, che prevedrebbero la valutazione dell’economicità di alternative presenti in altre aree geografiche (nel
caso in questione, la valutazione dell’incidenza dei costi di trasporto sul prezzo finale). Utilizzare una suddivisione
amministrativa su base provinciale, sulla base di un ragionamento induttivo, può determinare un
sottodimensionamento del mercato geografico rilevante, soprattutto in alcune aree del Paese (ad esempio, nella
Pianura Padana, i confini provinciali possono essere troppo limitativi rispetto al raggio efficiente di consegna di un
grossista, valutato in base ai costi di trasporto).
3.4 il distretto industriale come oggetto di indagine dell’economia industriale
In contrapposizione alle definizioni esaminate precedentemente è importante porre in evidenza la proposta
metodologica di Becattini, il quale propone il “distretto industriale Marshall Jano” come nuovo oggetto di indagine
dell’economia industriale. La prima definizione dei distretti industriali e di al Fred Marshall il quale utilizza questo
termine per descrivere la concentrazione di imprese di piccole e medie dimensioni specializzate nella lavorazione del

12
cotone della lana in Inghilterra. La logica economica dei distretti risiede per Marshall nell’azione delle economie di
scale esterne ossia nei vantaggi di costo associati alla concentrazione di un’industria è una particolare area geografica.
Becattini arricchisce il concetto di distretto industriale utilizzandolo per interpretare lo sviluppo industriale italiano del
secondo dopo guerra; egli osservò i numerosi casi di concentrazione di piccole e medie imprese in Italia, in particolar
modo nel centro ed egli trovò conferma della validità teorica del concetto di distretto industriale. Per definizioni
distretti industriali possono essere riconosciuti laddove si riscontri un esteso numero di piccole imprese, legati da
relazioni verticali di cooperazione e da relazioni orizzontali di concorrenza specializzate in una o più industrie
complementari in un’area delimitata naturalmente storicamente. --> questa definizione enfatizza la peculiare
interazione tra vita economica e vita sociale che si realizza all’interno dei distretti grazie alla forte densità di relazioni
economiche e umane. Difatti un distretto è proprio un entità socio economica caratterizzata dalla compresenza attiva
di una comunità di persone da una popolazione di imprese in un’area delimitata naturalmente storicamente. Da qui
l’idea di un’atmosfera industriale e il senso di appartenenza a una comunità di vita e di lavoro. Da ciò ne deriva che
nella formazione e nel funzionamento dei distretti, così come per il mantenimento del loro vantaggio competitivo, il
fattore dell’economia di scala esterne svolge un ruolo determinante.
3.5 le classificazioni industriali e le fonti statistiche
Negli anni si è giunti ad una classificazione delle attività economiche unica a livello mondiale.
L’obiettivo è stato perseguito a partire dalla nuova classificazione definita nell’ambito delle Nazioni Unite: la
“International Standard Industrial Classification of All Economic Activities”, alla quale si sono allineati tutti i paesi del
mondo. Anche a livello europeo, la Nomenclatura generale delle attività economiche europea è stata modificata nel
2006. Infine, in Italia, l’Istituto di Statistiche nazionale si è adeguata predisponendo una nuova classificazione
denominata Ateco 2007.
Nella classificazione Ateco 2007 ogni attività economica è stata codificata con un numero di cinque cifre. Le varie
attività economiche sono raggruppate, dal generale al particolare, in sezioni, divisioni, gruppi, classi e categorie.
I limiti della classificazione statistica sono:
1. L’impossibilità di cogliere la differenziazione verticale, ossia la differenziazione dei prodotti in funzione
del livello dei redditi dei clienti.
2. L’incapacità di cogliere le relazioni tra attività.
Le principali pubblicazioni da cui trarre dati economici rilevanti sono: Istat, Mediobanca, Unicredit-Mediocredito
Centrale e Confindustria.
Struttura e codifica della classificazione Ateco 2007
Nella classificazione Ateco 2007 ciascuna attività economica viene codificata generalmente con un numero di cinque
cifre. Le varie attività economiche sono raggruppate, dal generale al particolare, in sezioni (1. Lettera), divisioni (II
cifre), gruppi (3 cifre), classi (4 cifre) e categorie (5 cifre). Ciascuno di questi livelli di classificazione è contraddistinto da
un codice alfanumerico come indicato in parentesi.
Per quanto riguarda le attività industriali in senso ampio, queste si distribuiscono nelle sezioni “estrazione di
minerali”, “attività manifatturiere”, “fornitura di energia elettrica, gas, vapori e aria condizionata”, “fornitura di acqua;
reti sognare, attività di gestione dei rifiuti risanamento” e “costruzione”. Per “industria in senso stretto” si intende la
somma delle sezioni con l’esclusione dell’industria delle costruzioni. Sono state inoltre create nuove divisioni delle
attività manifatturiere per rappresentare industrie nuove o già esistenti che hanno aumentato la propria rilevanza
economica o sociale. la ragione della differenziazione è nella necessità di disporre di una rappresentazione statistica di
attività che realizzano prodotti ad alta tecnologia.

4. La teoria dell’impresa

13
4.1 introduzione
È necessario parlare del cambiamento che è avvenuto nell’economia di mercato nel corso del tempo riguardo al
potere decisionale. Il ruolo degli individui si è molto ridotto e la figura dell’imprenditore (undertaker) e del capitalista
si sono fuse in quella dell’impresa e della società (corporation).per questo motivo il capitalismo contemporaneo è
definito corporate o managerial capitalism.
4.2 il ruolo e la natura dell’impresa
Coase afferma che l’impresa fu distinta dal meccanismo della formazione dei prezzi e per essere descritta in maniera
più realistica essa è un’associazione dotata di personalità distinta da quella dei soci (azionisti), che grazie al suo
capitale può acquisire risorse trasformabili in prodotti o servizi da vendere sul mercato, ottenendo dalla differenza fra
ricavi e costi sostenuti un profitto con il quale remunerare il capitale e quindi gli azionisti.
Egli afferma che al di fuori dell’impresa i movimenti dei prezzi guidano la produzione che si realizza attraverso una
serie di transazioni di scambio sul mercato. all’interno dell’impresa tali transazioni sono eliminate, e a causa della
complicata struttura basata sullo scambio sono le decisioni dell’imprenditore a guidare la produzione.--> l’impresa
quindi è un’organizzazione che sostituisce il meccanismo dei prezzi e degli scambi nello svolgimento dei processi
economici, se e quando il principio gerarchico risulti più efficiente del ricorso al mercato.
Se l’impresa è individuale il criterio dell’utilità individuale resta il parametro più realistico, e considerando
esclusivamente la prospettiva del proprietario (azionista), la massimizzazione dell’utilità coincide con la
massimizzazione del valore del capitale dell’impresa. ricordiamoci però che il criterio della massimizzazione del profitto
non coincide con la massimizzazione dell’utilità.
---> contendibilità del controllo societario: indica la possibilità per un gruppo esterno all’effettivo azionariato
dell’impresa di assumerne il controllo. Le corporation americane inglesi risultano contenibile perché i sindacati azionari
di controllo più grandi mediamente non superano il 5% del capitale azionario degli Stati Uniti e il 10% in Gran
Bretagna.
4.3 il capitalismo anglosassone (shareholders)
Nel caso dei sistemi anglosassoni, dove prevalgono le società contendibilità fortemente dipendenti dal mercato
azionario e dove sono presenti coalizioni fra singoli azionisti per detenere stabilmente il controllo di specifiche società,
si deve tener conto della distinzione tra la proprietà, che compete all’insieme di azionisti, e il controllo, che è
esercitato dagli amministratori o manager. I primi sono i “mandanti”, i secondi sono gli “agenti”.
La principale conseguenza della separazione fra proprietà e controllo e che gli obiettivi delle due categorie possono
non coincidere, nel senso che il manager posto a capo dell’impresa potrebbe non condividere la massimizzazione del
profitto per gli azionisti. Tale pensiero era già presente ai tempi di Adam Smith che affermava: essendo costoro gestori
di denaro altrui piuttosto che del proprio, non ci si può attendere che si controllino e vigilino con lo stesso rigore con il
quale i soci proprietari badano ai propri interessi.
In teoria però il comportamento dei manager è sottoposto ad una serie di “vincoli” che tendono a farlo coincidere con
quanto richiesto dagli azionisti:
vincoli interni all’impresa--> tali vincoli dipendono dalla circostanza che i manager sono assunti con un contratto che li
induce a comportarsi conformemente agli interessi degli azionisti. Tuttavia quando l’azionariato è molto frazionato
come nella maggior parte dei paesi anglosassoni, la capacità degli azionisti di controllare il loro comportamento si
indebolisce a causa dei costi elevati per la sorveglianza. Si genera così una asimmetria informativa, c’è una differenza
nelle informazioni disponibili rispettivamente da parte degli azionisti e del management che rende estremamente
arduo per i primi valutarne esattamente il costo di agenzia, ossia la differenza del valore dell’azienda con o senza quel
particolare management e quindi la decisione se sostituire o meno il management in carica. Spesso viene utilizzata la
pratica delle “stock options” ossia l’utilizzo di premi e incentivi per spronare il management a vedere negli interessi dei
soci. La recente branca dell’economia che si occupa delle asimmetrie informative propone una sola soluzione di

14
equilibrio che si verifica quando il management conduce un Leveraged buy-out, ossia l’acquisto delle azioni della
società finanziato da un debito che sarà estinto dal flusso dei profitti generato successivamente.---> ciò vuol dire che le
società ad azionario diffuso non dovrebbero esistere, o meglio, che se esistono solo perché la propensione al rischio
dei manager è inferiore a quella della media degli investitori in azioni.
Vincoli derivanti dal mercato del lavoro--> tale vincolo deriva dal fatto che risultati poco brillanti della gestione
producono una cattiva reputazione per i manager che ne sono responsabili, e dato che nelle imprese via la rotazione
del management è un fatto piuttosto frequente, l’incentivo ad acquisire una buona reputazione che può determinare
nei manager una motivazione coerente con quella degli azionisti.
Vincoli derivanti dalle competizioni fra imprese--> un’impresa poco competitiva è destinata a scomparire; la
sopravvivenza dell’impresa e quindi del proprio posto di lavoro, genera nel management una motivazione allineata a
quella degli azionisti.
Vincoli derivanti dal mercato dei capitali--> sei un’impresa non è gestita in modo da massimizzare il suo valore di borsa,
il prezzo basso delle sue azioni costituisce un’opportunità per gli investitori che con una scalata la maggioranza delle
azioni della società possono lucrare la differenza fra il valore corrente delle azioni a quello che si determinerebbe
qualora la società fosse affidata gestori più abili o più motivate gli interessi degli azionisti. il rischio di subire una
scalata ostile funziona anche in via preventiva nel determinare le motivazioni del management.
Ad oggi vi è una forte preoccupazione per la comparsa di sintomi che fanno pensare a gravi disfunzioni che potrebbero
condurre all’esaurirsi dei requisiti etici su cui si fonda la superiorità del sistema dell’economia di mercato.ci si riferisce
all’emergere di scandali, dovuti alla manipolazione delle informazioni, scandali eccezionali per l’entità, la durata e il
numero delle persone coinvolte, come il caso di Parmalat in Italia.
4.4 il capitalismo renano (stakeholders). Il caso della Fiat auto
La profonda differenza del modello capitalistico che si è affermato sulle sponde del Reno consiste nella “ corporate
governance” e in particolare nel fatto che quel controllo azionario della maggior parte delle grandi imprese è
riconducibile ad un numero limitato di soggetti, e perciò non è la natura pubblica nel senso inglese del termine. Le
conseguenze che derivano da questa differenza sono due: la prima è di carattere culturale, difatti la massimizzazione
del valore per gli azionisti e, cioè grosso modo il profitto riguardano un fatto privato dei proprietari risultano traguardo
assai meno generalmente accettato di quanto lo sia nei paesi di cultura anglosassone. Da questa frattura, e dalla vasta
estensione della proprietà statale delle imprese che un tempo caratterizzava quasi tutti i paesi europei, per cui la
dottrina del puro profitto veniva respinta, è sorta una variante di compromesso, cioè una dottrina che stabilisce come
obiettivo degli amministratori la massimizzazione del valore non solo per gli azionisti, ma per un ambito più vasto di
portatori di interessi nell’impresa chiamati stakeholders.
Esempio caso Fiat--> nell’autunno 2002 la direzione della Fiat auto annunciò la sua intenzione di chiudere l’impianto di
termini Imerese in Sicilia. Ciò era in contrasto con gli interessi della comunità dei cittadini di termini Imerese ma lo
stesso tempo bisogna valutare l’interesse generale in rapporto a quello degli azionisti e a quello della comunità locale.
L’alternativa la chiusura dell’impianto ossia la prosecuzione dell’attività avrebbe potuto realizzarsi, ma in maniera non
economica e facendo gravare l’onere sugli azionisti o i contribuenti, oppure tramite l’aiuti statali.
Nel primo caso, per un generico azionista della Fiat, una riduzione del valore delle sue azioni per sostenere
l’occupazione in un piccolo stabilimento siciliano non è accettabile. Per quanto riguarda invece gli aiuti pubblici, senza
considerare il divieto posto dai trattati della comunità europea, si può osservare che così si darebbero fondi per
un’impresa inefficiente e tali fondi potrebbero andare nelle mani di imprese emergenti.
Quello di Termini Imerese è stato però un caso circoscritto in quanto alla fine trovarono la soluzione attraverso il
trasferimento di flussi compensativi di produzione che non compromise in modo sensibile né gli interessi degli azionisti
e né quelli della comunità locale
4.5 effetti della globalizzazione sulle condotte strategiche delle imprese. Il fenomeno delle imprese transnazionali o
“Platform companies”

15
L’interazione fra la liberalizzazione del commercio internazionale e la rivoluzione del sistema delle comunicazioni ha
determinato un profondo cambiamento dei modelli di attività delle grandi imprese globali, prima in Gran Bretagna e
negli Stati Uniti e poi in Europa e in Giappone. Tale argomento è divenuto al centro dell’attenzione a causa del
persistere a livelli elevati della disoccupazione, livelli che vengono associati direttamente o indirettamente al
fenomeno della deindustrializzazione (--> cioè la progressiva riduzione della quota delle attività manifatturiere sul Pil)
e per le implicazioni che ne potrebbero derivare dal punto di vista dello sviluppo tecnologico.
I modi tradizionali con cui si produce valore per l’economia e i risultati per gli azionisti si sarebbero modificati
profondamente. La produzione del valore nelle attività di impresa avviene in una sequenza che può essere
rappresentata come una catena formata da 3 anelli:
a) Concezione e progetto industriale di un prodotto o servizio
b) Produzione manifatturiera
c) Attività di marketing e di distribuzione
I modelli tradizionali di management si concentravano principalmente sul secondo anello di questa catena, ossia la
produzione manifatturiera, che era considerata l’area strategicamente più rilevante per le imprese e per la loro
competitività. L’esempio più classico e celebre è quello dell’impero automobilistico di Ford. Egli ha preceduto la
globalizzazione della produzione e degli scambi. I suoi metodi organizzativi consentivano di produrre automobili più
rapidamente e con minori costi di chiunque altro.
Con le trasformazioni determinate dalla globalizzazione e dalla rivoluzione del sistema delle comunicazioni, la rilevanza
strategica dei singoli anelli della catena del valore è radicalmente cambiata, perché l’anello costituito dalla produzione
manifatturiera è diventato quello che più risente della concorrenza low cost da parte dei paesi emergenti; e
conseguentemente nei paesi più evoluti proprio questo elemento tende a diventare il punto debole della competitività
per le imprese.
Questo processo ha avuto origine con le imprese della grande distribuzione, come Wallmart che ha spostato i propri
acquisti dal mercato domestico verso paesi dai quali era possibile ottenere prodotti di qualità equivalente ma a prezzi
inferiori. Questo modello di management è utilizzabile anche da parte di grandi imprese manifatturiere che si sono
riorganizzate attraverso la delocalizzazione trasformandosi da multinazionali a transnazionali - TNC (Ikea, Nokia, Apple,
Nike).
Il modello di management delle TNC (o “Platform companies”) consiste nella riduzione della rilevanza strategica
dell’attività manifatturiera. Questo determina un duplice vantaggio costituito sia dall’effetto positivo della riduzione
dei costi di produzione diretti, che dalla riduzione del capitale investito ottenuto grazie alla delocalizzazione nei
processi produttivi e, di conseguenza, si ha un miglioramento in proporzione del rendimento percentuale sul capitale
sul capitale investito (Roe). Le imprese TNC, quindi, si trovano a realizzare profitti molto consistenti dovuti alla
competitività dal lato dei costi di produzione e dalla minimizzazione dell'impiego di capitale. Ciò fa salire i rendimenti
percentuali per gli investitori ed i benefits per i manager.
----> Delocalizzando gli investimenti necessari e le fasi di produzione manifatturiera, e limitandosi alla progettazione
dei prodotti successivamente acquistati da fabbriche a costi molto bassi, le imprese transnazionali mantengono
comunque il controllo dei marchi e delle reti di distribuzione che consente loro di vendere i prodotti in tutto il mondo.
Le implicazioni di questo modello hanno portato alla deindustrializzazione, ovvero alla progressiva riduzione della
quota determinata dalle attività manifatturiere sul Pil.
Questo fenomeno non è del tutto nuovo. Negli anni ’60 in Gran Bretagna l’economista Kaldor, sulle orme di Solow,
sviluppò un’analisi delle cause e degli effetti sul progresso tecnologico lanciando un allarme sul processo di
deindustrializzazione. ---> Secondo la sua teoria, la diminuzione del valore aggiunto dell’industria manifatturiera
avrebbe provocato gravi danni in quanto in essa era contenuto il progresso tecnologico. Nel 1966 Kaldor convinse il
leader laburista James Callaghan a introdurre un’imposta differenziata sui salari prevedendo un’aliquota maggiore
per il settore dei servizi, cercando di incentivare lo sviluppo delle attività manifatturiere. --> Risultati deludenti che

16
portarono, nel 1973, alla rimozione di questa imposta in quanto stava avendo un effetto negativo sullo sviluppo
dell’industria dei servizi turistici.
Ma, a parte questi risultati negativi, gli effetti che oggi derivano dalle imprese Tnc hanno una grande implicazione di
carattere macroeconomico: l’outsourcing (esternalizzazione dei servizi) ha concorso a mantenere bassa l’inflazione sia
per i prodotti fabbricati meno costosi, ma anche perché ciò ha spezzato il potere contrattuale dei sindacati e
aumentato la concorrenza all’interno dei sistemi europei e americani.
Inoltre, altra conseguenza del modello Tnc è quella di ridurre gradualmente il significato delle statistiche del
commercio internazionale. Con il crescere delle imprese Tnc, la parte statisticamente visibile della catena del valore si
traduce in un elemento del passivo della bilancia commerciale. Al contrario, la parte meno visibile risulta difficilmente
percepibile nella contabilità macroeconomica. Questa parte meno visibile, però, genera profitti più elevati, migliori
livelli di salario e posti di lavoro più stabili.
Infine, ultima conseguenza è nel contributo che avrebbero potuto offrire nella stabilità economica. Infatti, si riteneva
che la globalizzazione rappresentasse l’ingrediente più importante per poter diminuire la volatilità dei risultati
economici.

PARTE II. gli elementi di base


5. La teoria della domanda
5.1 la domanda Marshalliana
La prima formalizzazione della teoria della domanda è dovuta all’economista inglese Alfred Marshall, presentata nella
sua opera Principles of Economics come la relazione funzionale tra la quantità domandata da un consumatore e il
prezzo di una specifica merce. La curva di domanda quindi di un singolo consumatore, per un dato prodotto, riassume
la relazione fra quantità massima del prodotto acquistata nell’unità di tempo ed ogni possibile prezzo; la curva quindi
rappresenta sempre la quantità domandata dal consumatore come funzione del prezzo, ed i suoi punti sono possibilità
alternative  q = f(p).
I caratteri della curva di domanda:
La curva è inclinata negativamente dato il principio della utilità marginale decrescente, per il quale tanto più alto è il
prezzo tanto minore è la quantità domandata a parità delle altre condizioni. A questa regola fanno eccezione due casi
particolari:
 Quando il consumatore valuta la qualità di un prodotto dal suo prezzo.
 Quando il consumatore è spinto ad acquistarlo proprio per il suo elevato prezzo.
Il livello del prezzo è riportato sull’asse delle ordinate, la quantità (variabile dipendente) sulle ascisse, in contrasto con
la comune prassi matematica. La curva si riferisce, inoltre, ad un preciso momento, quindi tutte le possibili
combinazioni prezzo – quantità sono ipotetiche, ad eccezione di una.
La posizione e la forma di una curva di domanda marshalliana individuale dipendono da:
a) Gusti e preferenze del consumatore;
b) Reddito monetario del consumatore;
c) Prezzo di ogni altro prodotto, tenuti costanti.

17
Al variare di uno di questi tre parametri si ottiene uno spostamento in parallelo della curva. Al variare del prezzo
invece si ha un movimento lungo la curva stessa. È evidente quindi che mentre il reddito monetario è costante per ogni
punto sulla stessa curva di domanda, il reddito reale invece muta continuamente passando da un punto all’altro.
L’informazione essenziale che si ottiene dalla curva di domanda è il grado di reattività della quantità domandata di un
prodotto ad ogni variazione del suo prezzo. Tale rapporto prende il nome di elasticità della domanda al prezzo,
espresso in termini percentuali = rapporto tra la variazione proporzionale della quantità domandata di X e la variazione
proporzionale del prezzo di X.
−Δ Q
∗P
ΔP
ϵ=
Q
Due caratteri particolari di tale espressione:
1. L’elasticità viene presa per convenzione come positiva, il che spiega la presenza del segno meno davanti
alla frazione, posto per rendere non negativo il numero che esprime l’elasticità.
2. L’elasticità della domanda al prezzo è espressa in termini di variazioni relative, non assolute, nella
quantità domandata e nel prezzo, data la difficoltà di avere utili indicazioni dalle ultime.
- se una curva ha elasticità > 1 è elastica ed una diminuzione del prezzo aumenterà la spesa del
consumatore;
- se una curva ha elasticità < 1 è inelastica un aumento del prezzo accrescerà la spesa del consumatore
per quel bene;
- se una curva ha elasticità = 1, eventuali variazioni del prezzo non alterano la somma che il
consumatore spende.
L’elasticità della domanda di un bene al suo prezzo dipende dai seguenti fattori:
a) Durata del periodo cui si riferisce la curva di domanda: ogni curva di domanda è definita per un dato
intervallo temporale, per cui la domanda è solitamente più elastica per lunghi periodi, dato che più è
lungo l’intervallo di tempo considerato più agevole risulta per i consumatori sostituire un bene con un
altro.
b) Numero di beni sostituibili a disposizione: se un prodotto ha molti sostituti stretti la sua domanda sarà
elastica al prezzo.
c) Incidenza di un prodotto sul bilancio del consumatore: all’aumentare dell’incidenza di un bene sul
bilancio del consumatore l’elasticità della sua domanda tenderà a crescere.
d) I possibili usi alternativi cui un bene si presta: più un prodotto è adatto a svariate applicazioni più è
elastica la sua domanda.

Il concetto di elasticità può essere riferito anche ad un’altra variabile diversa dal prezzo, cioè il livello del reddito
monetario di un consumatore. Nell’unità di tempo e con prezzi costanti di tutti gli altri prodotti, la relazione tra livello
del reddito monetario di un singolo consumatore e la quantità domandata di un bene è illustrata dalla curva di Engel.
La variazione della quantità domandata al variare del reddito monetario del consumatore può essere misurata per
ogni punto della curva di Engel per mezzo della elasticità della domanda al reddito, data da (rapporto tra variazione
percentuale della quantità domandata e la variazione percentuale del reddito):

−ΔQ
∗Y
ΔY
ϵ=
Q

18
Dove:
Y è il reddito monetario iniziale
Q è la quantità consumata originariamente
dY è la variazione del reddito monetario del consumatore
dQ è la variazione della quantità consumata

I beni possono avere elasticità al reddito positiva o elasticità al reddito negativa:


• elasticità al reddito > 0 (positiva): incrementi del reddito monetario del consumatore comportano aumenti della
quantità domandata di un bene, come ad esempio generi elementari;
- elasticità al reddito > 1 : un incremento di un punto percentuale nel reddito monetario comporta
un aumento percentuale maggiore di uno nella quantità domandata.
- elasticità al reddito < 1 : un aumento di un punto percentuale del reddito monetario determina un
incremento percentuale minore di uno della domanda.
• elasticità al reddito < 0 (negativa) : incrementi del reddito monetario del consumatore comportano riduzioni nel
consumo di una merce, come ad esempio beni inferiori.
In ogni caso, l’elasticità della domanda di un prodotto al reddito muta a seconda del livello stesso del reddito
monetario individuale: a certe fasce di reddito corrisponderà un’elasticità positiva, mentre a partire da altre potrà
essere negativa
Una variazione nel prezzo del bene X influenza il comportamento del consumatore in un duplice modo:
1. Da un lato, se il prezzo di X diminuisce, l’acquisto di tale prodotto diventa, a parità del prezzo di tutte le
altre merci, relativamente più conveniente ed il nostro consumatore sarà spinto sempre ad aumentare
la domanda del bene X (Teorema di Slutsky), in sostituzione dei prodotti divenuti relativamente più
costosi  effetto sostituzione.
2. La riduzione del prezzo di X comporta anche un miglioramento del reddito reale del consumatore, che
può fare aumentare gli acquisti di tutti i prodotti, compreso il bene X, a meno che questo sia un bene
inferiore, la cui domanda diminuisce quando il reddito reale aumenta  effetto reddito.
Per quanto riguarda la domanda del mercato essa può venire costruita semplicemente sommando le schede di
domanda individuali ovvero:
Domanda di mercato = somma delle domande individuali.
n
Q=∑ q=f ( p)
i=1

5.2 Il processo di revisione della teoria neoclassica


Il modello della domanda marshalliana è un eccellente formalizzazione della relazione quantità/prezzo ma risulta
ragionevole solo nel breve periodo, mentre non è realistica se il riferimento temporale diviene più ampio.
Ne consegue che la quantità domandata di un particolare prodotto può variare anche per motivi che non dipendono
soltanto dal prezzo e dal potere di acquisto che il consumatore può spendere per un dato prodotto, cioè dal suo
reddito. Oggetto della revisione della teoria neoclassica sono gli stessi postulati su cui si fonda la stessa teoria
neoclassica, cioè:
1. Costanza del sistema di preferenze del consumatore;

19
2. Relazione reversibile e differenziabile fra i tre parametri del modello di equilibrio statico paretiano:
quantità domandata, prezzo e reddito del consumatore;
3. Realismo dell’ipotesi di massimizzazione dell’utilità soggettiva nel comportamento del consumatore;
4. Razionalità ed autonomia del comportamento del consumatore nei confronti dei fattori e delle variabili
esogene.
Questi assiomi caratterizzanti il modello di comportamento del consumatore nell’economia neoclassica, sono stati
posti in discussione e grazie a indagini sempre più empiriche e si è potuta dimostrare:
 L’inattendibilità dell’assioma della stabilità del sistema di preferenze individuali  le funzioni di utilità
dei consumatori, cioè dei loro gusti e preferenze, variano anche in base a variazioni di prezzo e\o di
reddito attese dal consumatore, passate esperienze di consumo, frequenti comportamenti imitativi,
attività di promozione delle vendite.
 L’elasticità della domanda al prezzo muta in relazione all’ampiezza della variazione del prezzo e si sono
quindi avanzati fondati dubbi sulla esistenza di curve di domanda isoelastiche all’andamento del prezzo.
Duesenberry, nel 1949 approfondirà questo fenomeno, definendolo “irreversibilità della funzione della
domanda”.
 Non è realistico nemmeno l’assioma relativo alla indipendenza del sistema di preferenze del singolo
consumatore da ogni condizionamento esterno. La teoria neoclassica ipotizza un comportamento
razionale del consumatore assolutamente autonomo; la funzione di utilità dipende solo dai gusti e dal
reddito del consumatore nonché dai prezzi, mentre è insensibile alla domanda degli altri consumatori.
Una tale impostazione non può reggere il riscontro della verifica empirica. Ne consegue l’assoluta
improbabilità di una funzione di domanda collettiva, come somma delle singole funzioni di domanda
individuali.
 Inoltre, negare la presenza del fattore tempo significa escludere la presenza di qualsiasi elemento
dinamico, di qualsiasi processo di cambiamento, ma anche giustificare la esistenza stessa dei tre assiomi
appena discussi.

5.3 La teoria Marrisiana.


L’ipotesi base del modello dovuto a Robin Marris (1964) è riconducibile all’assunto secondo cui i consumatori,
superato il livello dei bisogni di sussistenza, sono portatori di un sistema di preferenze tutt’altro che stabile ed
indipendente. Al contrario, i bisogni dei consumatori sono oggetto di una incessante trasformazione in funzione del
continuo flusso di stimoli e di informazioni che alterano il sistema di giudizi e di valori.
Un altro elemento fondamentale del comportamento del consumatore è costituito dalle esperienze di consumo
acquisite: memorizzando le esperienze di consumo, il consumatore formula un quadro di riferimento, continuamente
aggiornato, in base al quale prende le proprie decisioni di acquisto presenti e future. È provato che la maggior parte
dei casi, un prodotto viene comprato se è già stato oggetto di consumo precedente.
In tal modo trova giustificazione l’affermazione che è l’esperienza a creare i bisogni. Nel consumatore si possono
comunque risvegliare bisogni latenti tramite lo stimolo del messaggio pubblicitario o i giudizi di altri consumatori su un
determinato prodotto. Marris privilegia questo secondo canale di “attivazione del consumo”.
Il ricorso all’esperienza altrui appare fondamentale nello spiegare la diffusione dei consumi nella moderna società
industriale in cui, essendo particolarmente elevato il saggio di introduzione di nuovi prodotti, è impensabile che ogni
individuo possa sperimentare da solo ogni nuovo bene.
Date tali premesse, è possibile prendere in esame il meccanismo con cui un nuovo prodotto si introduce in fasce via via
più vaste di consumo.

20
Marris suddivide i consumatori in pionieri e pecore:
• i pionieri, a differenza delle pecore, sono caratterizzati una maggiore sensibilità nell’esplicitare i propri bisogni
latenti, maggiore vulnerabilità al richiamo pubblicitario e in generale maggiore coraggio riguardo alle incertezze delle
novità. Essi decidono nuovi acquisti senza fruire di stimoli da parte di altri consumatori. Il numero complessivo di
consumatori pionieri di un prodotto appena lanciato dipende dal prezzo, dalla qualità del prodotto, dalla spesa
pubblicitaria e da alcune caratteristiche socio – economiche, come il livello e la distribuzione del reddito. La domanda
dei consumatori pionieri risulta quasi sempre anelastica, mentre la curva del consumatore pecora è caratterizzata da
una buona elasticità alle variazioni di prezzo. È opportuno comunque tenere distinta la funzione che determina il
numero dei pionieri da quella che definisce il comportamento del singolo pioniere.
Il pioniere incorpora il nuovo prodotto nel proprio schema di preferenze, creando la propria curva di domanda fino ad
allora inesistente, con un processo irreversibile.
• Parimenti irreversibile è il cambiamento che subisce il consumatore pecora tutte le volte che, in seguito ad
attivazione, è stimolato ad acquistare un dato prodotto.
L’insieme di tutti i consumatori (o perché attivati o perché pionieri) che sono disposti a consumare quantità positive di
un prodotto ad un dato prezzo, è definito popolazione del mercato, la cui dimensione è funzione sia del prezzo e delle
qualità del prodotto, sia delle caratteristiche della popolazione stessa.
Quando un nuovo prodotto viene lanciato sul mercato, i compratori sono pochi, ma superata la prima comprensibile
diffidenza e sollecitata da una insistente pubblicità, gli acquisti di questi aumentano. Se i pionieri raggiungono un
determinato numero critico ed esprimono favorevoli apprezzamenti sul prodotto, le persone con cui entrano in
contatto possono essere stimolate da un comportamento imitativo: le pecore attivate potranno così influenzare nuovi
consumatori, innescando così una reazione a catena di vaste proporzioni.
Si sono ora richiamati due concetti nuovi:
 Criticità: particolare condizione della domanda, cioè il passaggio della domanda di un prodotto dalla
fase di gestione a quella di esplosione, in cui sussiste criticità se la probabilità che si innesti una reazione
a catena, è vicina all’unità, e quindi quasi certa.
 Contatto socio-economico: quando una persona è in grado di stimolare un’altra all’acquisto di un nuovo
bene  ciò è possibile se fra i due vi è affinità di gusti, valori etici sociali ed economici (appartenenza
alla stessa classe sociale). Non tutti i contatti sociali sono socio – economici. Da questa tipologia di
contatti con un consumatore deriva uno stimolo; il numero degli stimoli ricevuti, sarà funzione non
soltanto del numero dei singoli consumatori già esistenti con cui si stabilisce un contatto, ma anche del
numero medio di contatti avuti con ciascuno di essi durante un certo periodo.
E’ possibile quindi riassumere questa prima parte della analisi marrisiana così: la domanda complessiva del mercato è
data dalla somma delle singole schede di domanda individuali, che differiscono fra loro a seconda che si tratti di
consumatori pionieri o pecore.

La funzione che esprime la domanda di un pioniere sarà: q ij =Φ p ( X i X j ) μ ij

Mentre quella che esprime la domanda delle pecore sarà: q ij =Φ s ( X i X j ) v ij


La domanda aggregata è dunque uguale a: Q i=N p Φ p+ N a Φ S

E’ possibile distinguere 3 fasi caratteristiche della domanda:


1. Fase di gestazione, quando Na = 0 e quindi vij = 0.
2. Fase di saturazione, quando Na = Ns (vij = 1) e Qi = NsΦ s
3. Fase esplosione: fase instabile, intermedia fra le due precedenti.

21
Premesso che i pionieri sono distribuiti casualmente in una popolazione data, la popolazione del mercato può essere
composta da un grande numero di gruppi primari, contraddistinti dal fatto che ogni membro è in contatto socio-
economico con ogni altro.
In questi gruppi si possono osservare vaste reazioni a catena, rese più intense da diffusi fenomeni di emulazione e
conformismo, strettamente dipendenti dalla struttura del sistema di gruppi e legami.
La catena dei contatti non è né regolare né ininterrotta, per cui i contatti effettivi saranno certamente minori di quelli
potenzialmente possibili. I contatti mancati sono quasi sempre riconducibili alla presenza degli “sbarramenti sociali che
sono causa della forma irregolare della dimensione dei gruppi primari e delle ampie interruzioni nelle catene di gruppi
connessi; le interruzioni, casuali e non, derivanti da tali ostacoli frazionano ogni popolazione di mercato in un certo
numero di insiemi connessi distinti, definiti gruppi secondari, caratterizzati dal fatto che alcuni soltanto dei loro
membri appartengono contemporaneamente a due o più gruppi.
Relativamente al grado di stratificazione si intende il minimo numero di gruppi secondari, legati al gruppo primario da
un certo grado di connessione, in cui può essere divisa una popolazione razionalizzata. Teoricamente, una popolazione
omogenea, per quanto stratificata, può essere sempre completamente attivata da un produttore capace di innescare
una reazione a catena in ogni suo gruppo secondario. Al contrario invece, saturati gruppi secondari di una popolazione
primaria, il processo di attivazione non può essere trasferito semplicemente su un’altra popolazione omogenea, tranne
nel caso in cui quest’ultima abbia un reddito tale da appartenere alla popolazione del mercato di quel prodotto.
Il numero di gruppi secondari in cui popolazione viene suddivisa è funzione sia delle cause di interruzione vere e
proprie sia del grado di stratificazione, il quale viene determinato dalla seguente relazione:

λ=√ S
n

Dove S rappresenta il numero dei gruppi secondari. In linea di massima Marris rileva che quanto minore è il valore di
lambda tanto più facilmente un nuovo bene sarà in grado di saturare una data popolazione di mercato.
Occorre considerare, oltre ai beni finali di consumo, anche i beni di produzione, cioè quei prodotti intermedi oggetto di
transazioni tra le imprese. Marris dimostra la validità della propria teoria anche per questi beni. Nel caso limite in cui
non vi fosse progresso tecnologico, la domanda di prodotti strumentali, essendo regolata solo dall’andamento degli
altri beni, aumenterebbe solamente con esplosioni delle vendite dei prodotti di consumo. In realtà però la tecnologia
compie continui progressi.
Vi sono settori produttivi che rispondono più prontamente allo stimolo di una innovazione tecnica e altri invece, che
Marris ricollega alle produzioni di bene già saturati, nei quali l’inerzia raggiunge punte massime. Molto spesso un
macchinario, pur non essendo fisicamente logoro, viene ugualmente sostituito con uno nuovo per potere usufruire
delle innovazioni tecnologiche in esso incorporate. È probabile che certi dirigenti, per prendere tale decisione, abbiano
bisogno di uno stimolo come le pecore, il quale può derivare da due fonti:
a) Dal contratto personale con altri dirigenti che hanno già introdotto l’innovazione : processo di stimolo,
attivazione e propagazione del tutto analogo a quello illustrato nel caso dei consumatori. Ogni dirigente
potrà subire uno stimolo ad innovare venendo a contatto con altri manager che abbiano già introdotto
quel miglioramento e che operino nel medesimo settore produttivo. Anche in questo caso avremo un
contatto socio – economico, dal momento che le due persone appartengono al medesimo ceto sociale e
sono accomunate dagli stessi interessi ed aspirazioni professionali.
b) Dagli effetti delle rinnovazioni introdotte da altre imprese concorrenti: anche qui, come per il
consumatore, avremo una rete interconnessa di contatti, interrotta da barriere e sbarramenti vari, che si
estende su tutto il settore industriale. Se un’impresa opera ad esempio in un mercato oligopolistico ed
alcuni concorrenti adottano una innovazione che fa sentire il suo effetto negativo sulle vendite di

22
un’altra impresa, quest’ultima molto probabilmente sarà stimolata ad imitarli, cioè ad introdurre quel
miglioramento.
Osservazioni conclusive sulla teoria di Marris:
 Nell’analisi delle condizioni di criticità si è stabilito che, a parità di altre condizioni, una popolazione di
mercato di vaste dimensioni è più facile da saturare di una piccola, poiché il numero critico necessario di
pionieri aumenta molto meno che proporzionalmente all’incremento di dimensione del mercato da
penetrare.
 Marris trascura una delle componenti che più influiscono sulla domanda: la durata del prodotto,
variabile essenziale per analizzare andamento della cd “domanda per sostituzione”.
5.4 la domanda di beni di consumo durevole
Ulteriori motivi di insoddisfazione circa la capacità esplicativa del modello neoclassico di comportamento del
consumatore derivano dalla necessità di considerare le difformità che si presentano nel caso in cui l’oggetto della
decisione di acquisto sia costituito da beni di consumo immediato, beni di consumo durevole e beni strumentali.
In questa sede si analizzano solo i modelli di previsione ed analisi della domanda generale di beni omogeni
riguardante un intero settore produttivo, scindendo dai modelli relativi all’analisi della domanda particolare della
singola impresa.
- La domanda di beni di consumo immediato (alimentari) è funzione della capacità di acquisto del
consumatore, cioè del prezzo e del reddito; inoltre questi beni sono di solito perfettamente
divisibili ed il loro consumo viene ripetuto frequentemente.
- Nel caso dei beni di consumo durevole (elettrodomestici e automobili) l’acquisto è relativamente
saltuario e comporta una spesa non trascurabile in rapporto al reddito del consumatore. Essi sono
inoltre indivisibili ed offrono un servizio prolungato nel tempo. Ne deriva che l’analisi teorica
neoclassica che ha sempre privilegiato come oggetti di studio i beni di consumo immediato non
può trovare applicazione riguardo ai beni di consumo durevole, la cui domanda è influenzata da un
maggior numero di variabili e relazioni. La domanda di beni di consumo durevole è stata
indubbiamente uno degli elementi portanti dello sviluppo industriale italiano del dopoguerra.
Per analizzare le leggi alle quali risponde l’andamento della domanda di tale categoria di merci occorre verificare
l’applicabilità a tali beni del principio di accelerazione al consumo di questi beni. Secondo questo principio la domanda
di beni strumentali dipende dalla variazione della domanda finale dei prodotti ottenuti con l’uso di quel particolare
strumento produttivo. I t= A ( D t−D t −1 ) + DS t

Dove:
It--> domanda di beni strumentali al tempo t
A--> coefficiente che misura la produttività del bene strumentale
Dt --> quantità del prodotto finale domandata al tempo t
DSt--> domanda dovuta alla necessità di sostituire il macchinario esistente obsoleto
Per quanto riguarda la domanda di beni di consumo durevole, l’applicabilità del principio risulterebbe legittima
qualora si assumesse che la diffusione dell’uso di un determinato bene di consumo durevole fosse legata al reddito
disponibile dei consumatori. Supposizione logicamente fondata ma difficilmente applicabile. La domanda di beni di
consumo durevole dipende dalle variazioni del reddito dei consumatori e non dall’entità del reddito dei consumatori:
Dt = A ( Rt −Rt −1 ) + DS t

23
Considerato che l’elasticità della domanda le variazioni del reddito può essere indagata differenti stati di
aggregazione, per la maggior parte di beni di consumo durevole tale elasticità si è dimostrata per lungo tempo
superiore a quella media dei consumi globali aggregati. in altri termini le ricerche empiriche hanno sottolineato come a
differenza di ciò che si verifica per i beni di consumo, ogni aumento del reddito comporta un incremento più che
proporzionale della domanda dei beni di consumo durevole e viceversa, un decremento del primo genera una
concomitante riduzione più che proporzionale della seconda.
Riguardo al prezzo, si deve rilevare che l’analisi empirica dell’elasticità della domanda generale di singoli settori
industriali al prezzo presenta numerose difficoltà: ad esempio quasi impossibile riuscire a separare gli effetti sulla
domanda che derivano dalla variazioni dei prezzi da quelli che hanno origine dei mutamenti dei mezzi di promozione
delle vendite.ad ogni modo i più importanti i beni di consumo durevole mostrano un’elasticità al prezzo sensibilmente
inferiore a quella del reddito. Ciò viene spiegato dalle seguenti considerazioni:
----> domanda di molti beni di consumo durevole è influenzata dal prezzo di altri prodotti (energia elettrica, carburante
eccetera eccetera) che concorrono a determinare il costo di utilizzazione
---> le variazioni del prezzo di un particolare bene di consumo durevole determina una variazione del costo del servizio
reso meno che proporzionale all’incremento del prezzo; si pensi all’incidenza del prezzo di acquisto di un’automobile
sul costo chilometrico di esercizio.
---> il parametro del reddito appare più idoneo a spiegare la diffusione dei consumi sociali in un sistema industria,
stante che la crescita della domanda di beni di consumo durevole come si è ricordato in apertura è una delle principali
variabili esplicative della crescita del reddito nazionale.
5.6 la domanda di beni intermedi e di investimento
Riguardo ai beni di produzione “intermedia” (quali materie prime, semilavorati) i modelli empirici che maggiormente
si addicono ad una previsione della domanda aggregata sono quelli di interdipendenza input-output e quelli che si
riferiscono alla politica di immagazzinamento perseguita dalle imprese.
Parlando delle materie prime, la previsione della domanda presenta notevoli difficoltà a causa delle particolari
caratteristiche di tali beni. Essi sono molto eterogenei sia sotto l’aspetto tecnologico sia riguardo agli utilizzatori
finali.ne consegue infatti che la domanda di beni intermedi dipende non solo dalle variabili proprie della funzione di
domanda di beni finali (prezzi, reddito e le loro rispettive variazioni, spese di pubblicità), ma anche da una variabile
particolarmente significativa nelle moderne economie industriali: “ i cambiamenti della tecnologia”--> l’azione di
questi ultimi fa sì che una particolare materia prima venga richiesto in funzione non solo del livello assoluto del prezzo,
quanto soprattutto del rapporto fra tale prezzo e quello di altri materiali.
Un secondo elemento perturbante deriva dal fatto che i beni intermedi possono essere immagazzinati in grandi
quantità senza gravi pericoli di deterioramento; la loro domanda risulta quindi influenzata anche dal livello degli stock
costituiti presso l’impresa utilizzatrice, nonché dalle aspettative economico congiunturali e tecnologiche di
quest’ultime.
I beni finali di produzione (o beni di investimento) presentano alcune rilevanti analogie con i beni di consumo
durevoli. La previsione della domanda per incremento netto dello stock è condizionata dalle variabili che definiscono la
domanda di beni di consumo finale ed in particolare della macro variabile reddito nazionale. Pertanto opera il
“principio di accelerazione”, analiticamente definito da: I =f (∆ Y )
Dove:
I--> investimenti
dY--> variazione del reddito
Per previsioni di lungo periodo, le ricerche empiriche che si riferiscono a particolari beni di produzione ricorrono
direttamente alla macrovariabile “investimenti nazionali netti”, se ci riferisce alla sola domanda per incremento netto
dello stock; e si parla di “investimenti nazionali lordi” se si aggiunge la domanda per sostituzione.

24
Gli investimenti nazionali si possono analizzare con riferimento al lungo e al medio-breve periodo.
Lungo periodo--> si ricorre a modelli macroeconomici del tipo di quello di Harrod-Domar: esso si fonda sulla
previsione dell’andamento delle due tradizionali variabili “propensione al risparmio” e “coefficienti marginali capitale-
prodotto” e ignora del tutto le oscillazioni di carattere congiunturale.
Breve periodo--> si utilizzano modelli che, a fianco delle tradizionali variabili esplicative e predittive dell’andamento di
lungo termine, mettono in risalto anche gli elementi congiunturali ciclici. Ad essi ricorrono sia l’operatore pubblico per
ottenere quelle informazioni sulle varie fasi della congiuntura indispensabili per il governo dell’economia, sia le grandi
imprese industriali che operando nel settore di beni di produzione possono trarre dalla conoscenza del presumibile
andamento degli investimenti industriali fissi lordi, nel breve-medio periodo, indicazioni preziose circa la possibile
evoluzione futura delle loro vendite.
I modelli vengono ricondotti a due principali categorie:
1) Modelli basati sul “principio di accelerazione” che fanno cioè dipendere gli investimenti dalla variazione della
domanda (cioè del valore aggiunto prodotto);
2) Modelli del tipo “ profitti-investimenti” in cui gli investimenti sono fatti dipendere dai profitti o dai fondi disponibili
delle imprese.
Modello accelerativo del gruppo di Studio di Ancona--> in questo modello gli investimenti industriali fissi lordi
dipendono direttamente dalla variazione del valore aggiunto dell’industria, quest’ultimo rettificato per mezzo di un
coefficiente adatto a quantificare i vincoli incontrati dalle industrie nell’attuare gli investimenti programmati. Tali
vincoli derivano sia da elementi di ordine tecnico (es raccolta informazioni, elaborazione e scelta delle alternative), sia
da elementi di ordine economico, I quali operano in modo differenziato a seconda che la fase congiunturale sia
espansiva recessiva. Nel caso in cui sia espansiva le predizione ricavabili dal principio di accelerazione sono
ridimensionate dai vincoli che derivano dall’insufficienza dell’autofinanziamento accumulato nelle fasi precedenti; in
fase recessiva invece i suddetti fattori di ordine economico impediscono al flusso di investimenti di cadere al di sotto
del livello corrispondente al mancato ammortamento dei macchinari degli impianti e al loro rinnovo.
Che possiamo dire quindi che gli investimenti industriali fissi lordi dipendono: direttamente secondo il principio
dell’acceleratore, dal saggio di variazione del valore aggiunto dell’industria, vale a dire dalla domanda di beni
industriali, nonché dei profitti realizzati dall’impresa, i quali permettono l’accumulazione di fondi propria disposizione;
inversamente dal costo del capitale dalla capacità produttiva inutilizzata.
Modello di Sylos Labini--> esso si ricollega alla logica di tipo “profitti investimenti”. il punto di partenza è la distinzione
fra la funzione degli investimenti industriali per le grandi imprese e quella per le medie le piccole imprese: • il saggio di
variazione degli investimenti industriali delle grandi imprese direttamente dalla quota di mercato di profitto corrente,
dal saggio di variazione di tale quota e dal grado di capacità produttiva inutilizzata.
• nel caso delle medie piccole imprese invece gli investimenti sono funzione dei profitti correnti, del loro saggio di
variazione e della liquidità totale.
I modelli econometrici di tipo macro economici danno informazioni sulle variazioni degli investimenti industriali fissi
lordi, ma sono carenti sia sotto il profilo delle distinzioni tra domanda di sostituzione domanda per ampliamento dello
stock, sia riguardo l’analisi delle variazioni delle scorte.
È interessante effettuarne un confronto con i modelli utilizzati dalle singole imprese industriali per prevedere la
domanda di beni di produzione nel medio-breve periodo.
In molti modelli a livello di singola unità produttiva si nota la presenza delle medesime grandezze delle equazioni di
prima. Essi si fondano sui seguenti parametri:
 Costo del denaro, rappresentato dal saggio di interesse corrente; la disponibilità di linee di credito,
espressa dalla variazione della liquidità del sistema creditizio;
 I profitti correnti delle imprese e o i profitti attesi

25
 Il grado di utilizzazione della capacità produttiva, misurabile con il ricorso o a determinati coefficienti
empirici, quali gli indici adottati in Italia oppure al rapporto fra produzione effettiva e produzione
potenziale massima
 Il tempo di aggiustamento vale a dire quel lasso di tempo necessario perché lo stock effettivo di beni
strumentali si adegui, tramite mutamenti indotti della domanda, le variazioni teoriche dello stock
conseguenti a variazioni dei prezzi e o del reddito nazionale.
Parlando invece della domanda di sostituzione si pongono due importanti considerazioni:
• domanda di sostituzione per i beni di produzione influenzata dal livello dei profitti (passati, attuali e attesi)
dell’impresa utilizzatrice non, e dal livello del reddito.
• I modelli operativi aziendali danno notevole rilievo l’innovazione tecnologica; la vita media degli impianti produttivi
viene quindi considerato assai più breve di quanto sarebbe lecito supporre in base ai dati tecnici.
Più in particolare l’analisi disaggregata della domanda di beni strumentali deve tener conto di alcuni elementi di
notevolissima importanza a livello aziendale. fra questi ultimi ci limiteremo a ricordare il grado di assistenza tecnica
garantita dall’imprese produttive distributrici; le facilitazioni offerte la sostituzione del macchinario in uso; le
prestazioni tecniche offerte al prodotto.
5.6 la domanda residuale
La domanda residuale è quella parte della domanda di mercato che si rivolge ad una singola impresa offerente. in un
contesto di economia statica la domanda residuale semplicemente costituita dalla differenza fra domanda complessiva
del mercato e la quota assorbita dalle altre imprese che costituiscono l’offerta ovvero:

Dj=D−Σ Di
La domanda residuale Dj dell’impresa j è uguale alla differenza, per un dato prezzo, fra D’ e la somma delle vendite
realizzate dalle altre imprese (NR). Tale formula rappresenta la domanda residuale nella forma Marshall Jana con tutto
il correlato di ipotesi, in particolare l’ipotesi principale “other Things the same”.
L’andamento parallelo alla domanda del mercato della curva di domanda residuale introduce un’altra ipotesi: ovvero
che la quantità della domanda che viene soddisfatta dalle altre imprese permanga costante ad ogni livello di prezzo.si
tratta di un’ipotesi coerente con la natura della funzione di domanda Marshall Jana che si limita a descrivere tutte le
combinazioni possibili di quantità e prezzo alternative a quella data corrente sul mercato, per cui la quota di domanda
assorbita dalle altre imprese può essere coerentemente considerata costante.
6.Struttura e regime di variazione dei costi di produzione
6.1 introduzione
La struttura e il regime dei costi di produzione costituiscono l’aspetto più importante tra le condizioni di base
dell’offerta nel paradigma SCP (structure, conduct, performance)

6.2 Struttura dei costi di produzione


La struttura dei costi di produzione si riferisce al breve periodo (intervallo di tempo tanto breve da non consentire
all’impresa di variare la quantità impiegata di fattori), definibile come intervallo di tempo compreso tra quello in cui
tutti i fattori sono fissi e quello in cui tutti i fattori sono variabili.
Al crescere del periodo di tempo considerato, la quantità di un numero sempre maggiore di fattori diventa variabile.
Nel lungo periodo, infatti, tutti i fattori produttivi sono variabili e la loro quantità è lasciata alla discrezione
dell’imprenditore. L’estensione temporale del breve periodo cambia a seconda di ogni industria: in quelle in cui la
quantità dei fattori fissi non è rilevante il breve periodo può riferirsi ad un breve intervallo di tempo; per altre industrie

26
invece il breve periodo può essere misurato in anni (es. industrie dell’acciaio, lungo arco di tempo per espansione della
capacità produttiva di base).
Relativamente al breve periodo ed alla struttura dei costi di produzione occorre distinguere 3 concetti di costo totale:
 Costi totali fissi: passività totali che l’impresa deve sostenere nell’unità di tempo per fattori fissi. Poiché
la quantità di tali fattori è per definizione costante, il costo totale fisso sarà il medesimo
indipendentemente dalla quantità prodotta. Alcune voci che concorrono a costituirlo sono ad esempio il
deprezzamento dei fabbricati e delle attrezzature e le imposte sul patrimonio.
 Costi totali variabili: sono i costi totali che l’impresa deve sostenere per acquistare i fattori variabili.
Aumentano all’aumentare della produzione, dato che livelli produttivi più elevati richiedono fattori
variabili in quantità maggiore, il che si traduce in costi variabili più elevati. Per bassi livelli produttivi, gli
incrementi nell’utilizzo di fattori variabili possono dar luogo ad incrementi della loro produttività: i costi
totali variabili aumentano con la quantità prodotta ma ad un tasso decrescente. Tuttavia, superato un
certo punto, i rendimenti marginali del fattore variabile diventano decrescenti e i costi variabili
aumentano ad un tasso via via maggiore. Questa proprietà dei costi totali variabili deriva dalla legge dei
rendimenti marginali decrescenti.
 Costi totali: somma dei costi totali fissi e dei costi totali variabili.

E’ possibile analizzare più a fondo il comportamento del costo totale integrandolo con quello dei costi medi e
marginali. Ci sono infatti 3 funzioni di costo medio, che corrispondono alle tre funzioni del costo totale:
 Costo medio fisso: dato dal rapporto fra costo totale fisso e quantità prodotta. Diminuisce al crescere
della quantità prodotta. Andamento descritto graficamente da iperbole equilatera, infatti in ogni suo
punto il prodotto fra ascissa (Q) e ordinata (CMF) è uguale ad una costante, il costo totale fisso.
 Costo medio variabile: dato dal rapporto tra costo totale variabile e quantità prodotta.
 Costo medio totale: rapporto tra costo totale e quantità prodotta. È pari alla somma del costo medio
fisso e costo medio variabile. Per i livelli produttivi in corrispondenza dei quali le curve del costo medio
fisso e variabile hanno entrambe andamento decrescente, il costo medio totale è necessariamente
decrescente. Esso tuttavia raggiunge il livello minimo dopo il costo medio variabile, perché in un certo
intervallo gli incrementi di quest’ultimo sono più che compensati dalle diminuzioni del costo medio
fisso.

Infine, abbiamo il costo marginale che è l’incremento del costo totale a seguito di un incremento unitario nella
quantità prodotta. Se C (Q) è il costo totale relativo ad una produzione di Q unità, il costo marginale nell’intervallo
compreso fra Q e (Q – 1) unità prodotte sarà C(Q) – C(Q – 1). Per bassi livelli produttivi, il costo marginale può
assumere un andamento decrescente al crescere della quantità prodotta, per raggiungere un minimo e poi crescere
all’aumentare della produzione. Le ragioni di ciò possono essere collegate alla legge dei rendimenti marginali
decrescenti.
A seguito di una variazione di ΔQ il costo marginale sarà pari a:
ΔCTV + ΔCTF
ΔQ
Ma essendo i costi fissi costanti, ΔCTF=0, il costo marginale è pari a:
ΔCTV
ΔQ

27
Inoltre, se il prezzo del fattore variabile è un dato per l’impresa, ΔCTV = P(ΔI), dove ΔI rappresenta la variazione nella
quantità impiegata del fattore variabile conseguente ad un incremento pari a delta Q nella produzione. Così il costo
marginale è pari a:
dI I
MC=P =P
dQ PMa
Dove PMa rappresenta il prodotto marginale del fattore variabile.
Dato che al crescere della quantità prodotta, PMa ha generalmente andamento crescente e raggiunge un massimo e
poi declina, il costo marginale normalmente diminuisce, raggiunge un minimo per poi aumentare. --> Esiste dunque un
nesso tra la forma della funzione del costo marginale e la legge dei rendimenti marginali decrescenti. Tutto ciò si
spiega facilmente se si pensa che il costo marginale medio non è altro che il costo dell’ultima unità prodotta, per cui se
esso è più basso del costo medio tende ad abbassare la media. Se si aggiunge un valore inferiore alla media, la media si
abbassa. Ne consegue che l’unico punto in cui il costo medio è uguale al costo marginale è quello corrispondente al
punto di minimo della curva dei costi medi.
I costi medi, ed il loro andamento, sono però meglio descritti dalla funzione dei costi formulata da Sylos Labini  C =
vq + k, dove v sono i costi variabili, q la quantità prodotta e k i costi fissi. Fino al pieno utilizzo della capacità produttiva
il costo medio di produzione è decrescente, mentre il costo marginale è costante ed uguale al costo variabile v.
6.3 l’analisi del “break even point”
La variabilità dei costi di produzione nel breve periodo, con la capacità produttiva data, dipende in definitiva dal peso
relativo dei costi variabili e dei costi fissi.
Se tutti i costi sono variabili, cioè proporzionali alla quantità prodotta, la variabilità del costo in relazione ai diversi
gradi di utilizzo della capacità produttiva è nulla;
se invece tutti i costi sono fissi, la variabilità del costo medio di produzione alle variazioni della quantità prodotta sarà
molto grande perché a mano a mano che aumenta la produzione il costo per ogni singola unità sarà sempre più
piccolo. Ciò determina forti conseguenze nella struttura del settore, che possono essere esaminate tramite il grafico
dei ricavi e dei costi di un’impresa.
Questo è basato sostanzialmente sulla struttura dei costi di produzione, ossia sul rapporto tra costi fissi e costi
variabili. Presupponendo un’elasticità unitaria della domanda, possiamo dire che esiste una relazione unitaria tra
prezzo e quantità che determina una inclinazione di 45° rispetto all’asse delle ascisse della retta dei ricavi. I costi di
produzione sono rappresentati da una retta orizzontale, non variano al variare della quantità prodotta, e da una retta
inclinata dei costi variabili, che crescono al crescere della produzione; da queste due rette dei costi si ricava la retta dei
costi totali che è parallela a quella dei costi variabili, ma parte dalla quota in cui i costi fissi intercettano l’asse delle
ordinate.
La posizione di break even si raggiunge quando la retta dei costi totali interseca quella dei ricavi, nel punto q*. Si tratta
di una analisi piuttosto semplice ma largamente utilizzata. Una impresa può servirsene per determinare ad esempio
l’effetto sui profitti di una riduzione attesa delle vendite.
Anche le difficoltà congiunturali di alcune industrie possono essere spiegate con riferimento alla loro struttura dei
costi. Se il valore dei costi fissi K fosse elevato il valore dei costi variabili fosse basso, la diminuzione delle quantità
prodotte avrebbe conseguenze ben più gravi provocando perdite. Gli incrementi delle quantità prodotte oltre il break
even producono effetti opposti. Benché generalmente i grafici dei ricavi e dei costi presuppongono una funzione dei
costi totali lineari, è possibile modificare questa ipotesi e introdurre una funzione dei costi totali curvilinea.
6.4 altri concetti di costo (opportunità, “sunk costs”)
Il concetto di costo opportunità fa parte del modo di pensare e di agire di ogni agente razionale. Il costo opportunità di
usare una qualunque risorsa per un determinato scopo è il beneficio che si sarebbe potuto trarre dall’impiego di quella

28
risorsa nel miglior uso possibile alternativo. A questo proposito a volte si parla anche di costo imputato. Questi costi
indicano la convenienza o meno a proseguire una determinata attività.
Altro concetto importante in economia industriale è quello di sunk cost = costo irrecuperabile. Esso è un investimento
in un bene capitale che non ha usi alternativi. In altre parole, è un costo sostenuto per acquisire un fattore produttivo
che avrà costo opportunità nullo. Infatti, questo non condiziona alcuna decisione successiva all’avvio di un’attività
Al contrario, un costo fisso che può essere evitato deve essere considerato nel prendere una decisione. I costi, inclusi
quelli fissi, che non si devono pagare in caso di interruzione di una attività sono definiti costi evitabili.
6.5 il regime dei costi di produzione (lungo periodo)
Nel lungo periodo tutti i fattori sono variabili, non ci sono funzioni del costo fisso di lungo periodo perché non
esistono fattori fissi. Utile guardare al lungo periodo come orizzonte di programmazione.
La decisione principale da prendere in relazione ai costi è quella relativa alla dimensione dell’impianto di produzione.
Tale scelta dipende dalla quantità che l’impresa intende produrre nel lungo periodo, supponendo che vorrà produrla in
modo da minimizzare il costo medio.
La funzione del costo medio di lungo periodo mostra il costo unitario minimo corrispondente ad ogni livello produttivo
nel caso che sia possibili costruire l’impianto delle dimensioni desiderate. Il costo unitario minimo corrispondente a
ciascun livello produttivo è dato dalla funzione del costo medio di lungo periodo; tale funzione è tangente a ciascuna
delle curve del costo medio di breve periodo nel punto in cui gli impianti ai quali esse si riferiscono sono a livelli di
produzione ottimale  inviluppo delle curve di breve periodo.
N.B. la curva di costo medio di lungo periodo non è tangente a quelle di breve periodo nei loro punti di minimo: nel
tratto in cui decresce è tangente a sx del minimo, nel tratto in cui cresce a dx
Per quanto riguarda le combinazioni tra i fattori che assicurano il minor costo, la funzione del costo medio di lungo
periodo può essere interpretata così: in corrispondenza di ogni livello produttivo, il costo totale e medio di lungo
periodo è minimo quando tutti i fattori sono combinati in modo che il prodotto marginale di ogni euro investito in un
fattore sia pari a quello di ogni euro investito negli altri. Solo nel caso che l’impresa usi la combinazione tra i fattori che
assicura il miglior costo, è possibile raggiungere la funzione del costo medio di lungo periodo.
Nella maggioranza delle produzioni industriali la funzione dei costi medi di lungo periodo ha caratteristica forma ad L
invece di quella tradizionalmente supposta ad U; ciò significa che la funzione è decrescente per un lungo intervallo per
poi rimanere costante per un tratto di lunghezza variabile fino al comparire delle diseconomie di scala. Dalla curva si
possono ricavare le differenze di efficienza e di competitività che si determinano fra imprese differenti. La pendenza
della curva esprime il vantaggio che si acquisisce in termini di costo medio unitario di produzione avendo una
dimensione più elevata: se la pendenza è molto accentuata nella fase iniziale, le imprese più grandi saranno più
efficienti delle piccole; se invece la pendenza non fosse accentuata o non vi fosse, non ci sarebbe alcun vantaggio a
passare da una piccola quantità prodotta ad una grande quantità.
Il punto in cui la curva smette di decrescere identifica la dimensione ottima minima dell’industria presa in
considerazione. Se la produzione è realizzata su scale più piccole, il livello dei costi di produzione sarebbe più elevato,
se invece la produzione è realizzata su scale più elevate della DOM, non ci sarebbe alcun guadagno in riduzione dei
costi e la scelta avverrebbe in condizioni di indifferenza. Da una particolare funzione dei costi di lungo periodo deriva
una delle caratteristiche della struttura dell’offerta, cioè la tendenziale concentrazione del settore: inserendo la curva
di domanda nel grafico della funzione del costo medio di lungo periodo si può ricavare il numero di imprese che
possono coesistere in condizioni di efficienza sul mercato. L’informazione sulla DOM consente anche di rilevare le
barriere all’entrata.
Dato il costo medio di lungo periodo relativamente ad un certo livello produttivo, per calcolare il costo totale di lungo
periodo basta moltiplicare il costo medio di lungo periodo per la quantità prodotta. Partendo dalla funzione del costo
totale di lungo periodo è facile calcolare la funzione del costo marginale di lungo periodo, che mostra quantità
prodotta ed il costo risultante dalla produzione dell’ultima unità addizionale nel caso che l’impresa abbia modo di

29
attuare le variazioni della quantità impiegata di tutti i fattori che le consentono di raggiungere la combinazione
ottimale.
Come è ovvio, il costo marginale di lungo periodo è, rispettivamente, minore, uguale e maggiore del costo medio di
lungo periodo nel tratto in cui quest’ultimo è decrescente, minimo e crescente.
6.6 le economie di scala
L’analisi dei costi fino a qui condotta consente di introdurre più agevolmente il concetto di economie di scala, che
indicano vantaggi di costo che si ottengono all’aumentare della dimensione della capacità produttiva e della
produzione.
Un’impresa realizza economie di scala quando il costo medio unitario di produzione diminuisce all’aumentare della
produttività dei suoi impianti.
La presenza di economie di scala rilevanti in un settore influenza il suo grado di concentrazione. Esse si associano alla
presenza di rendimenti di scala crescenti, anche se possono derivare da numerosi altri fattori. Occorre chiarire che tali
economie vanno distinte sia dai rendimenti di scala crescenti sia dalle economie di saturazione degli impianti; se infatti
i rendimenti di scala si riferiscono alla relazione fra variazione degli input e variazione degli output, per le economie di
scala la relazione presa in esame è quella fra dimensione dell’impianto e costo medio unitario di produzione.
Inoltre, le economie di saturazione sono dovute al fatto che il costo medio unitario diminuisce all’aumentare della
quantità prodotta, in quanto i costi fissi si ripartiscono su un numero maggiore di unità di prodotto. L’esistenza di
economie di scala segna invece che una maggiore dimensione dell’impianto consente un uso più efficiente delle
risorse coinvolte nel processo produttivo. I due concetti sono comunque correlati: in presenza di economie di scala, il
sussistere di diseconomie da mancata saturazione esprime la incapacità da parte dell’impresa di sfruttare economie di
scala potenziali.
I settori caratterizzati da più elevate economie di scala sono le industrie di processo come la siderurgia, il cemento e la
chimica e le industrie di elettrodomestici, autoveicoli e motori.
6.7 le determinanti delle economia di scala
Queste possono derivare dalla presenza di rendimenti di scala crescenti, e quindi da tutti i fattori che possono
determinarne la presenza, nonché da fattori connessi con il grado di controllo del mercato e correlati con la scala di
produzione (“economie monetarie”).
Una delle prime determinanti delle economie di scala fu individuata da Smith (Ricchezza delle Nazioni), il quale poneva
in evidenza i vantaggi della divisione del lavoro manifatturiera, sia in senso statico che dinamico. Grandi volumi di
produzione permettono una maggiore divisione del lavoro che aumenta la produttività delle risorse umane impiegate
e delle macchine, per mezzo della specializzazione delle mansioni e dei processi.
L’indivisibilità dei fattori produttivi dà luogo al “principio dei multipli”, per il quale, se una impresa utilizza diversi
macchinari indivisibili, deve scegliere come livello di produzione minimo il minimo comune multiplo della produzione
dei vari macchinari. Quando un processo è realizzato con più fattori produttivi che non sono divisibili all’infinito,
l’aumento della dimensione determina una riduzione dei costi di produzione. A questo proposito è utile introdurre una
distinzione fra:
---> Economie di scala a livello di prodotto: la lavorazione di componenti in metalli può richiedere lo stesso tipo di
operazioni meccaniche ma un diverso assetto del layout degli impianti per poter produrre il prodotto nella varietà di
forme e dimensioni richieste. Se il tempo di riassetto del layout è lungo, rischia di essere superiore a quello di
produzione. Quante più unità di ciascun articolo si producono, tanto più i tempi influiscono in misura minore sul costo
totale di lavorazione del singolo prodotto. In generale l’introduzione di macchine automatiche permette lotti di
produzione più ampi. Quando si fabbricano grandi quantità di singoli prodotti, cresce la necessità di dedicare più
attenzione alla individuazione di difetti nei relativi processi produttivi. Le economie di scala specifiche hanno anche

30
una importante dimensione dinamica dato che nell’esecuzione di operazioni complicate l’abilità degli operai cresce
con l’esperienza, per cui imparano facendo il lavoro materialmente.
---> Economie a livello di impianto: a questo livello le economie di scala più importanti derivano dall’aumento delle
dimensioni delle singole unità di produzione; questo è particolarmente evidente nelle industri di processo (raffinazione
petrolio, industria siderurgica o chimica). Entro certi limiti, la produzione di un impianto tende ad essere all’incirca
proporzionale al suo volume, mentre la quantità di materiali e l’attività di fabbricazione necessaria per costruire l’unità
addizionale in questione saranno proporzionali alla superficie occupata dalle camere di reazione, dei serbatoi e dei tubi
di collegamento dell’unità. In questi casi viene applicata dai tecnici la regola empirica dei due terzi, per la quale se
l’area di una superficie varia con un rapporto di 2/3 rispetto alla variazione del suo volume, anche il costo di
costruzione di una unità produttiva nelle industrie di processo aumenterà di 2/3 rispetto alla crescita della propria
capacità produttiva. Tutto ciò equivale a dire che l’elasticità dei costi rispetto al volume prodotto sarà di circa 0,6.
Un altro vantaggio del maggiore dimensionamento degli impianti è quello delle economie delle riserve di capacità; in
un impianto le cui dimensioni consentono di utilizzare solo una macchina specializzata deve esistere una macchina di
riserva per evitare interruzioni per guasti accidentali. Nel caso di un impianto più grande, è necessaria una sola
macchina in più per porre al riparo l’impresa, ad un costo che inciderà in misura minore sui costi totali di produzione.
---> Economie multimpianto e a livello di impresa: economie derivanti da specializzazione e da riserve di capacità
possono valere anche nel caso della gestione di numerosi stabilimenti da parte di una singola impresa in quanto le
diverse unità produttive specializzate possono beneficiare di una maggiore scala, mentre in caso di interruzione della
produzione di uno stabilimento è possibile contare sulla disponibilità di un altro. Allo stesso modo, in caso di
impreviste fluttuazioni della domanda servita da uno stabilimento, può farvi fronte l’impianto con capacità in eccesso.
In molte circostanze è più conveniente disporre di più impianti disseminati sul territorio piuttosto che di un unico
impianto centralizzato. Questo avviene quando i costi di trasporto sono elevati rispetto al valore del prodotto
trasportato.
Inoltre, la concentrazione di ingenti quantità di capacità produttiva in singole aree può provocare la difficoltà di
reperimento della forza lavoro necessaria presso la manodopera locale e quindi aumenti del osto di tale fattore. In
generale, gli impianti con linee produttive più delimitate sono più facili da gestire e permettono di sfruttare appieno le
economie specifiche di ciascun prodotto. Le economie multimpianto includono:
- vantaggi nell’approvvigionamento di materie prime: anche di fonti finanziarie, a breve e lungo termine. In generale le
grandi imprese sono ritenute meno soggette a rischi congiunturali, per la capacità che hanno di bilanciare gli effetti
negativi.
- vantaggi nella promozione delle vendite: sono soprattutto collegati alla facilità di rafforzare la fedeltà al prodotto del
consumatore o di assicurare a nuovi prodotti una larga diffusione più rapidamente.
- vantaggi nella raccolta del capitale;
- vantaggi nella dotazione di risorse e competenze di tipo organizzativo – manageriale. Si può pensare ai vantaggi della
centralizzazione di funzioni organizzative come la ricerca e lo sviluppo. In generale i costi fissi di produzione non
variano al variare del livello di output, e quindi gravano soprattutto sulle imprese più piccole, ma soprattutto imprese
più grandi possono permettersi risorse manageriali più specializzate e competenti.
Attraverso la centralizzazione degli acquisti su larga scala una impresa con molti impianti che produce un bene
omogeneo può spuntare prezzi minori per le materie prime ed altri mezzi di produzione rispetto ai piccoli acquirenti.
Questi vantaggi derivano da tre motivi principali:
1) effettivi risparmi nell’ordinazione, nella programmazione della produzione, nella amministrazione, nei costi di
spedizione;
2) possibilità di stipulare contratti più favorevoli quando si acquistano grandi quantità;
3) maggiore potere contrattuale e di ritorsione nei confronti dei fornitori in quanto grandi imprese possono minacciare
più credibilmente azioni di integrazione verticale.

31
I vantaggi nella promozione delle vendite, nell’accesso al mercato e della marca del prodotto da parte delle grandi
imprese sono collegati soprattutto alla facilità di rafforzare la fedeltà al prodotto e il consumatore o di assicurare più
rapidamente una larga diffusione ai nuovi prodotti. --> esistono infatti economie legate alla dimensione degli
investimenti pubblicitari, dovuta al fatto che necessario raggiungere una soglia minima di messaggi diffusi prima che
questi esplicano la loro efficacia; in altri termini vi è una componente fissa indipendentemente dalla quantità
effettivamente venduta dei costi pubblicitari.
Le imprese di grandi dimensioni hanno anche considerevoli vantaggi nell’approvvigionamento di fonti finanziarie, sia di
prestiti a breve termine, sia di finanziamento a lungo termine. In generale le grandi imprese sono ritenute meno
soggetti a rischi congiunturali per la capacità che hanno di bilanciare gli effetti negativi, più solide e a redditività più
stabile. Per tutte queste ragioni il costo medio del capitale tende a variare inversamente la dimensione dell’impresa .
Alla grande dimensione vengono associati vantaggi anche nel reperimento di risorse manageriali e organizzative
specializzate in innovazione tecnologica.si può pensare ai vantaggi della centralizzazione di funzioni organizzative
come la ricerca e lo sviluppo, la direzione e servizi informatici.
6.8 economia di ampiezza o di gamma
La maggior parte delle imprese offre una gamma di prodotti diversi tra loro collegati. Quando la produzione congiunta
di due prodotti è più conveniente rispetto alla produzione separata di ciascuno dei due si parla di economie di
ampiezza (economies of scope) o di gamma (anche economie di varietà).
In termini più analitici, siamo in presenza di economie di ampiezza quando il costo di produrre congiuntamente q1
unità del bene 1 e q2 unità del bene 2 è più basso del costo di produrle separatamente.
Vale quindi formalmente la seguente disuguaglianza: C (q1, q2) < C(q1, 0) + C(0, q2)  condizione di sub-additività dei
costi di produzione.
Tali economie si accompagnano a molti casi di integrazione verticale e di diversificazione, mentre le economie di scala
rappresentano il presupposto dei processi di concentrazione. Sebbene la presenza di economie di ampiezza renda
efficiente la produzione congiunta anche quando questa non avvenga all’interno di una singola impresa, la presenza di
costi di transazione e di rischi di comportamenti opportunistici giustificano la produzione da parte di una singola
impresa.
Le economie di ampiezza sono determinate dalla condivisione di:
1. Fattori o componenti del sistema produttivo (impianti, attrezzature, linee di produzione);
2. Attività materiali della struttura commerciale (canali distributivi, reti): si prestano per la
commercializzazione di più prodotti invece che di uno solo.
3. Risorse immateriali in dotazione all’impresa (immagine, reputazione, know-how, managerialità):
ricorrente è il caso di sfruttamento dell’immagine di un marchio, creata grazie alla attività promozionale
su un mercato delle informazioni commerciali relative al mercato di un prodotto per la
commercializzazione di un secondo prodotto connesso al primo.
L’utilizzo di fattori di produzione comuni coincide anche con quei casi ad esempio, della produzione congiunta di latte
e yogurt in una industria alimentari. Questi processi realizzano prodotti congiuntamente secondo rapporti
relativamente fissi, utilizzando in maniera completa risorse materiali che rimarrebbero sottoutilizzate altrimenti.
6.9 diseconomie di scala
Possono elencarsi numerosi fattori che tendono a far crescere dopo un certo livello la curva dei costi supposta ad L. Tra
questi rilevano in particolare i fattori legati ai costi dei processi di coordinamento e di informazione che aumentano
con la dimensione dell’impresa. Oltre una certa scala, il costo del fattore organizzativo e imprenditoriale può crescere
più che proporzionalmente o la sua efficacia diminuire. Nelle grandi imprese i vantaggi prima elencati della grande
scala possono così essere compensati da inefficienze amministrative e organizzative (rischi di burocratizzazione).

32
Con la crescita della scala dimensionale, aumenta anche il numero di mercati servii dalla stessa impresa con diverse
SBU. Il coordinamento di tali unità di business tende ad aumentare costi di trasporto e difficoltà logistiche.
Mentre le diseconomie di scala sono legate solamente a fattori organizzativi ed operativi, le economie di scala
includono anche fattori di natura tecnologica e transattiva. Occorre poi notare che un aumento nella dimensione di
impresa può risultare contemporaneamente in economie e diseconomie di scala. Un’ampia letteratura mostra che
entrambe le forme di impresa possono avere una loro razionalità economica – efficienza ed efficacia – a seconda dei
contesti competitivi e tecnologici e dei settori di appartenenza. Molti dei vantaggi di scala sono legati a imperfezioni
dei mercati che non funzionano secondo criteri di efficienza allocativa o a fattori legati al controllo del mercato che
reagiscono alla scala di produzione.
6.10 economie di scala esterne
Possono essere contrapposti ai vantaggi della produzione su larga scala quei vantaggi derivanti dalla “localizzazione
dell’attività produttiva”, ossia della concentrazione di più imprese di piccola e media dimensione specializzate nella
produzione di un singolo bene o di più beni tra loro correlati in uno spazio delimitato territorialmente.
Le piccole imprese, pertanto, se non possono beneficiare delle economie dipendenti dalle loro risorse interne,
possono profittare delle economie dipendenti dallo sviluppo generale dell’industria, ossia delle “economie esterne” di
produzione. Marshall definisce le economie esterne come i “risparmi di costo che dipendono dallo sviluppo di una
industria e che si producono grazie alla concentrazione in piccoli spazi di piccole e medie imprese, grazie alla
localizzazione di una industria”.
I vantaggi per le piccole imprese della localizzazione dell’attività produttiva derivano dai processi che si sviluppano a
livello locale soprattutto tramite:
1. Sviluppo di industrie ausiliarie;
2. Diffusione delle conoscenze tecniche e educazione alle abilità e al gusto necessari all’attività
produttiva;
3. Circolazione delle idee riguardanti i prodotti, le tecniche produttive, i mercati, ecc.;
4. Facile reperimento di manodopera specializzata e facilità con cui i lavoratori specializzati trovano
impiego.
Questi processi determinano una serie di vantaggi sul lato dell’offerta che costituiscono la nota triade marshalliana
delle economie esterne:
 Economie di specializzazione degli input produttivi
 Economie di specializzazione a livello di beni e servizi intermedi
 Trasferimenti di informazioni e competenze tecnologiche
Si aggiungono inoltre i vantaggi sul lato della domanda della localizzazione dell’attività produttiva, che fanno
riferimento soprattutto alle economie di approvvigionamento. Incorre in costi più bassi l’acquirente che si reca in
un’unica località per visionare prodotti e contrattarne il prezzo, piuttosto che nel caso occorra visitare fornitori
localizzati in punti dello spazio diversi e tra loro distanti.
6.11 economie di apprendimento
A volte si parla di economie di scala dinamiche, per indicare le cosiddette economie di apprendimento, cioè le
riduzioni dei costi medi unitari generate dall’esperienza. L’esistenza di processi di apprendimento fu evidenziata per la
prima volta nell’industria aeronautica negli anni ’30, divenendo poi una legge generale industriale. Si osservava che via
via che veniva prodotto un maggior numero di singoli velivoli, il costo di produzione di ciascun velivolo diminuiva; con
il passare del tempo quindi la produttività degli operai, delle maestranze e delle macchine cresceva, la progettazione
ed il layout degli impianti diventava più razionale grazie all’esperienza accumulata. Tale fenomeno può essere
rappresentato da una cura in cui sull’asse orizzontale è posto il costo di produzione, mentre su quello verticale una

33
variabile che approssima l’esperienza accumulata, che può essere misurata con la produzione o gli investimenti
cumulati o con il tempo.
Così come le economie di scala, le economie di esperienza possono riguardare sia la produzione che le altre attività
dell’impresa. Le curve di esperienza hanno lo stesso effetto delle economie di scala, ma i due fenomeni vanno tenuti
rigorosamente distinti. Il termine apprendimento viene in genere utilizzato per abbracciare tutti i tipi di miglioramento
del know-how e delle procedure organizzative che avvengono passivamente, per il semplice accumulo di esperienza
nel fare qualcosa. La curva di apprendimento fornisce una ulteriore giustificazione della persistenza della dominanza o
anche del rafforzamento della dominanza di una impresa leader di mercato: vendendo di più, l’impresa dominante
riduce i suoi costi più velocemente, il che la rende ancora più competitiva, facendone aumentare le vendite. Dalla
presenza di curve di apprendimento deriva una legge generale dell’economie industriale; se nel mercato esistono
situazioni di concorrenza, i prezzi dei prodotti industriali devono diminuire nel tempo in termini reali, proprio per
effetto delle curve di apprendimento. Guadagno di produttività ottenuto grazie all’accumulo dell’esperienza viene
trasferito al mercato tramite la riduzione dei prezzi per effetto del processo di competizione tra le imprese. Per loro
natura, i processi di apprendimento possono essere inesauribili ma rimangono sistematicamente associati ad una
traiettoria tecnologica; costituiscono uno dei principali fattori che rendono poco plausibili i modelli di efficienza
industria – impresa basati sul ciclo di vita del prodotto.
L’esistenza di marcati processi di apprendimento conferisce una forte dinamicità alle dinamiche concorrenziali dei
mercati e contribuisce a spiegare perché talvolta le posizioni di dominanza siano difficilmente superabili, es. degli
aeroplani ’70.
6.12 misurazione dell’andamento dei costi
Analisi empirica dell’andamento dei costi, misurazione economie di scala, ampiezza o apprendimento sono rilevanti
per tutte le decisioni delle imprese che riguardino la crescita interna o le operazioni di fusione ed acquisizione, entrata
in un mercato ecc. ma hanno anche rilevanza per le autorità pubbliche.
I metodi e gli approcci di misurazione dei costi possono essere suddivisi in tre categorie:
a) Analisi del rendimento del capitale investito dalle imprese che appartengono a diverse categorie
dimensionali, tramite l’analisi dei bilanci. Si associa la dimensione dell’impresa con il ROI; in questo
modo se vi è tra queste due variabili una correlazione positiva si può sospettare la presenza di
economie di scala, e cioè di una funzione dei costi decrescente al crescere della produzione. Essendo il
ROI influenzato dalla differenza fra ricavi e costi, è possibile che diversi livelli di ROI siano determinati
non da livelli diversi dei costi di produzione, ma da diversi livelli dei ricavi. La tecnica di misurazione
basata sul ROI può essere applicata solamente a livello di impresa, perché utilizza i bilanci delle
imprese. Se invece occorre misurare la presenza di economie di scala a livello di impianto, si ricorre alla
analisi del fabbisogno di investimento per unità di produzione rispetto a diverse alternative
dimensionali.
b) Approccio sviluppato da Stigler: partendo dalla osservazione per la quale, se una particolare dimensione
di stabilimento è efficiente, con il trascorrere del tempo, tutte le imprese appartenenti all’industria
tenderanno ad avvicinarsi a quella dimensione. Di conseguenza, qualsiasi dimensione di stabilimento o
di impresa che sopravvive nel tempo è efficiente. Nel caso in cui tutte le imprese operanti in una
industria sostengano costi simili, lo studio basato sulla sopravvivenza delle impese individua la singola
dimensione efficiente; se invece le imprese sostengono costi diversi o fabbricano prodotti differenti, la
loro scala ottimale varierà, e tale tipo di studio potrà individuare solo la gamma delle dimensioni
efficienti delle imprese. Tale metodologia è appropriata solo quando le variazioni nella curva dei costi
dipendano solo dall’aumento dei costi e non da altri fattori.
c) Analisi statistica o econometrica dei costi: metodo più diretto ed adatto per gli impianti. Per
determinare la pendenza della curva dei costi di lungo periodo di un impianto, si pongono in relazione
costi medi di produzione registrati per un campione abbastanza ampio di impianti con statistiche che

34
riflettono il prodotto di questi ultimi, considerando anche altre variabili. I modelli econometrici più
utilizzati per stime della presenza di economie di scala sono funzioni di costo o funzioni di produzione
translogaritmiche. La difficoltà di questo metodo risiede principalmente nel reperimento di dati, che
quasi mai sono pubblici. Le imprese inoltre sono molto restie a fornire informazioni sui propri costi.
6.13 il fenomeno delle esternalità
Il fenomeno dell’esternalità è rappresentato dalla presenza di circostanze che influenzano il livello della produttività o
dei costi di produzione malgrado non vengano prese in considerazione dall’imprenditore nelle proprie valutazioni
decisionali. Le esternalità possono essere positive e negative, a seconda che abbiano o meno l’effetto di aumentare la
produttività o ridurre i costi.
Tipico esempio della presenza di esternalità positive è rappresentato da due proprietà contigue destinate una alla
coltivazione di alberi da frutto e l’altra all’allevamento delle api. Ciascun imprenditore considera esclusivamente i
possibili effetti diretti della propria decisione. Nei distretti industriali, la presenza di esternalità positive è alla base
dello sviluppo e della competitività di tale forma di organizzazione del lavoro tra imprese.
Esempi di esternalità negative possono essere riferiti all’inquinamento ambientale.

PARTE III. La struttura dei settori


7.la concentrazione dell’offerta. Misurazione. Cause ed effetti
7.1 introduzione
Punto di partenza delle analisi empiriche dell’economia industriale è la definizione del grado di concentrazione che
caratterizza e determina la struttura di una industria. Per “industria” si intende l’aggregato di unità produttive
individuate sulla base di un comune denominatore, che può essere ad esempio: un prodotto o una gamma di prodotti
omogenei in funzione dei materiali utilizzate nel processo produttivo, o in funzione dell’uso finale. Sulla base di tale
definizione, si intende far riferimento ad un tipo di concentrazione orizzontale, distinta dai fenomeni di integrazione
verticale e di concentrazione globale.
La concentrazione misura la distribuzione delle imprese in una industria per dimensione.
Un’industria è concentrata se il numero n delle imprese in essa operanti è piccolo; a parità di n il grado di
concentrazione cresce all’aumentare della variabilità della dimensione e in particolare quando “una larga porzione di
un qualche aggregato è detenuta da parte di una piccola porzione di unità produttive e decisionali, la quale domina
l’aggregato”. (Bain, 1959).
La concentrazione gioca un ruolo fondamentale nell’approccio strutturalista; il paradigma SCP è stato da molti
economisti identificato nell’ipotesi che gli oligopoli più concentrati beneficino di profitti maggiori di quelli meno
concentrati. Il corollario implicito è che “lo scopo di un indice di concentrazione è di predire di quanto il prezzo di
equilibrio di un’industria si allontani dal livello di concorrenza”. (Stigler, 1968)
Quindi, il grado di concentrazione di un’industria riflette il comportamento potenziale delle imprese in essa operanti, e
in particolare, il potere da esse esercitato nel determinare un prezzo di mercato superiore al costo marginale.
Occorre, però, sottolineare che la concentrazione è una determinante importante della struttura di una industria ma
non è di per sé stessa una misura del monopolio o del potere di mercato, essendo quest’ultimo l’effetto di numerosi
fattori strutturali e della loro interazione.
7.2 misure statistiche della concentrazione
Un efficace indice di concentrazione deve essere: facile da calcolare ed interpretare, indipendente dalla dimensione
dell’aggregato di base e deve variare tra 0 ed 1. La sua definizione pone numerosi problemi di natura empirica e
statistica:

35
1. La scelta della variabile da porre a misura della dimensione : le analisi empiriche propongono tali
alternative:
a) vendite o quantità prodotte (output): tale scelta dà rilevanza alla domanda senza però tenere conto
della integrazione verticale; sarebbe quindi a tale fine più opportuno utilizzare il valore aggiunto.
b) numero degli occupati e capitale investito: variabili inidonee in quanto riflettono più propriamente
caratteristiche del processo produttivo non univocamente ricollegabili al grado di concentrazione.
c) immobilizzi: variabile che pone problemi di valutazione (valori correnti o storici) e comunque non
idonea a riflettere univocamente il grado di concentrazione di una industria.
2. Definizione dell’aggregato di riferimento: valutazione che richiede l’individuazione del criterio
economico più adeguato e la definizione geografica.
3. Scelta dei metodi di misura più efficaci : duplice dimensione della concentrazione – numero imprese e
distribuzione per dimensione – pone non pochi problemi nella costruzione di un indice sintetico; sotto
questo aspetto si distinguono indici di concentrazione assoluti, legati ad entrambe le dimensioni, ed
indici di concentrazione relativi (o di disuguaglianza), che misurano solamente la dispersione delle quote
di mercato.
I due fattori dimensionali che caratterizzano la concentrazione sono rappresentati attraverso la curva di
concentrazione, definita dalla percentuale cumulata dell’output (asse y) e dal numero cumulato delle imprese
ordinate a partire dalla più grande (asse x). Le curve rappresentate sono tutte concave verso il basso, o al limite sono
delle rette nel caso di imprese di eguale dimensione.
Ipotizzando che ciascuna delle curve disegnate rappresenta una industria, è possibile effettuare dei confronti tra le
stesse: mentre si può univocamente affermare che l’industria A è più concentrata delle altre due, non altrettanto
immediato è il confronto fra B e C. La presenza di un punto di intersezione implica una valutazione specifica dei diversi
tratti delle curve in questione.
Hannah e Kay (1977) suggeriscono alcuni criteri utili di lettura delle curve di concentrazione:
1. Criteri di classificazione: una industria è più concentrata di un’altra se la sua curva di concentrazione
giace, per ogni suo punto, al di sopra della curva dell’altra.
2. Principio del trasferimento delle vendite: il trasferimento da una piccola ad una grande impresa causa
un aumento della concentrazione, che si traduce in un rigonfiamento della curva.
3. Condizioni di entrata: entrata di una piccola impresa, ferme restando le quote delle altre imprese, porta
ad una diminuzione della concentrazione.
4. Condizioni di fusione: una fusione porta ad un aumento della concentrazione, potendo essere
scomposta in un trasferimento di vendite da una piccola ad una grande impresa combinato con l’uscita
di un’impresa dal mercato.

7.3 indici di concentrazione assoluta


La categoria degli indici di concentrazione assoluta è una categoria caratterizzata sia dal numero delle imprese che
dalle rispettive quote di mercato.
Si definiscono rispettivamente l’output dell’industria e la quota relativa dell’impresa i-esima:

X =∑ xi
xi
si=
X
Un indice di concentrazione assoluto C è definito considerando gli elementi contenuti nella seguente formula:

36
C=∑ h s si i

Dove hsi è la ponderazione attribuita alle quote di mercato delle imprese

Reciproco del numero delle imprese


Questo indice è pari a 1/n soddisfa tutte le condizioni esposte ad esclusione del trasferimento delle vendite. Viene
utilizzato raramente in quanto non considera la dimensione relativa delle imprese s i , che in questo indice ha valore
pari a zero.
Rapporto di concentrazione
Il rapporto di concentrazione misura la proporzione dell’output delle r imprese più grandi, con r scelto
arbitrariamente:

C r=∑ S I
Dove hsi in questo caso è uguale a 1.
Tale indice da rilevanza, nella scelta di r, solo ad un tratto della curva di concentrazione dell’industria; il rispetto delle
condizioni dettate da Hannah e Kay dipende dalla significatività del tratto prescelto e dalla possibilità di evidenziare le
informazioni più significative della curva di concentrazione e le trasformazioni che la caratterizzano nel tempo.
L’indice C4 misura il grado di concentrazione delle quattro maggiori imprese dell’industria considerata e solitamente
viene utilizzato con riferimento a settori fortemente oligopolistici.
Indice di herfindahl-hirschman (hhi)
Particolarmente usato negli studi sulla concorrenza oligopolistica. La sua peculiarità è quella di proporre una
ponderazione della quota di mercato detenuta della singola impresa. L’indice soddisfa tutte le condizioni di Hannah e
Kay prendendo esso in esame tutti i punti sulla linea di concentrazione:
n
HH =∑ si
2

i=1

Dove h s =s i
i

La scelta di tale tipo di ponderazione consente di attribuire un peso maggiore alle imprese che detengono una quota di
mercato maggiore; per converso, il valore dell’indice non risente molto della presenza di imprese di piccolissime
dimensioni. Nel caso di monopolio l’indice HH avrà il valore massimo pari ad 1, in quanto c = 0 (disuguaglianza quote di
mercato) per n = 1; nel caso di molte imprese di uguali dimensioni esso sarà pari ad 1/n, e tenderà a 0 in presenza di
un numero infinito di imprese.
Entropia
Questo indice mira a rappresentare l’elemento dell’incertezza, caratterizzante una data industria. Esso è utilizzato
come una misura inversa della concentrazione, in quanto ad un minor numero di imprese presenti sul mercato e/o alla
presenza di poche grandi imprese (elevata concentrazione) dovrebbe corrispondere un minor grado di incertezza.
1
E=∑ s i ln ⁡( )
si
Invece il peso dato alle quote di mercato è pari a:
1
ln ( )
si

37
Tanto è maggiore il coefficiente di entropia e tanto più incerto diviene il controllo della quota di mercato per la singola
impresa. Nel caso del monopolio l’entropia è minima e dato che s = 1 e ln(1) = 0, l’indice è uguale a zero.
Nel caso di molte piccole imprese di uguale dimensione, dato che si = 1/n ne deriva che:

1 1
E=∑ ln ( n ) =n ln ( n ) =ln ⁡( n)
n n
L’entropia aumenta sia all’aumentare dell’omogeneità delle quote di mercato sia all’aumentare del numero di imprese.
(evidenze empiriche pagina 139)

7.4 Indice di concentrazione relativa.


Gli indici di concentrazione relativa non tengono conto del numero, in valore assoluto, delle imprese e trovano la loro
rappresentazione sintetica nella curva di Lorenz.
Essa è definita dalla percentuale cumulata dell’output dell’industria (asse y) e dalla percentuale cumulata delle
imprese disposte in ordine crescente (asse x). La linea OT rappresenta l’ipotesi in cui le imprese dell’industria
considerata abbiano tutte uguale dimensione. È importante notare che il numero delle imprese non influisce
sull’andamento della curva di Lorenz, che potrebbe essere lo stesso per un’industria con due imprese di uguali
dimensioni e per un’industria con 1000 imprese di uguale dimensione.

coefficiente di Gini: indice dato dal rapporto fra l’area tratteggiata, sottostante la retta di equidistribuzione, e l’area
OTS: maggiore è la disuguaglianza dell’industria, maggiore è l’area tratteggiata e dunque il valore del coefficiente di
Gini all’interno dell’intervallo [ 0 , 1 ]. Valori bassi del coefficiente indicano una distribuzione abbastanza omogenea,
con il valore 0 che corrisponde alla pura equidistribuzione, ad esempio la situazione in cui tutti percepiscono
esattamente lo stesso reddito; valori alti del coefficiente indicano una distribuzione più diseguale, con il valore 1 che
corrisponde alla massima concentrazione, ovvero la situazione dove una persona percepisca tutto il reddito del paese
mentre tutti gli altri hanno un reddito nullo.
Coefficiente di variazione: questa misura della disuguaglianza di un’industria è stata introdotta nella formulazione
dell’indice di Herfindahl-Hirschman. Il coefficiente c è dato dal rapporto tra la deviazione standard della dimensione di
ciascuna imprese (dalla dimensione media dell’intera industria) e la dimensione media:
σ
c=
x (media)
L’indice rileva la dispersione delle dimensioni relative delle imprese dal valore medio delle stesse.

38
Varianza dei logaritmi della dimensione d’impresa: questo indice è utile quando l’analisi verte sulla crescita relativa
delle imprese. La sua formulazione si basa sulla rappresentazione logaritmica delle quote relative dell’impresa e sul
concetto di media geometrica:
2
1 xi
v=
2
n
∑ log (
x ( media )g
)

Dove x(media)g è la media geometrica delle dimensioni delle imprese operanti nell’industria esaminata.
Se si considera dato il numero delle imprese presenti, l’andamento degli indici può dare utili informazioni sulla
struttura competitiva dell’industria considerata.
7.5 I processi deterministici.
La letteratura relativa al fenomeno della concentrazione ha avuto come primo obiettivo quello di individuarne le
origini. Se l’approccio deterministico sottolinea il carattere originario del fenomeno per cui in un dato momento e in un
dato mercato le condizioni di costo e di domanda saranno tali da spingere le imprese a muoversi con azioni deliberate
verso un livello di concentrazione d’equilibrio, l’approccio stocastico si basa su una interpretazione “casuale” dei
fenomeni di crescita delle singole imprese presenti in un dato mercato, e questi fenomeni sono il risultato di eventi
incerti che, correlati al comportamento delle singole imprese, determinano la performance delle stesse e l’evoluzione
della struttura dell’industria.
Il livello di concentrazione d’equilibrio, verso il quale tendono le imprese, varia al variare delle condizioni tecnologiche
o di costo e delle condizioni di domanda. Il fattore che occupa un ruolo centrale nel determinare livelli crescenti di
concentrazione è quello delle economie di scala.
Nel grafico (pagina 146) è ipotizzata una situazione di partenza caratterizzata dalla curva di costi medi di lungo periodo
(LAC) e dalla retta di domanda (D): nel lungo periodo, l’equilibrio di concorrenza sarà per ciascuna impresa definito
dalla DOM e dal prezzo (x1 e p1). In tali ipotesi avendo ogni impresa la dimensione ottimale x1, il livello di
concentrazione sarà determinato dal numero delle imprese in esso presenti e dal rapporto x1/D1.
Ipotizzando un cambiamento tecnologico che provochi un abbassamento della curva dei costi fino a LAC2, l’effetto di
questo farebbe aumentare la DOM, diminuire il prezzo di equilibrio concorrenziale e aumentare la quantità
domandata fino a D2.
L’effetto del livello della concentrazione dipenderà dalle mutate condizioni di dimensione ottima minima e di
domanda; è facilmente intuibile infatti che se la crescita nella dimensione del mercato (aumento della quantità
domandata) è minore dell’aumento del livello della scala di produzione ottimale, la concentrazione dell’industria
aumenterà. I limiti che la teoria presenta derivano da due semplificazioni:
1. Una relativa all’andamento della curva dei costi, per i quali viene ipotizzata una forma ad U; mentre in
curve di costo ad L le economie di scala interessano un tratto rilevante della funzione di costo dopo il
punto di DOM. È evidente che in queste condizioni, le economie di scala determinano, in un equilibrio
concorrenziale, solamente il livello minimo di concentrazione dell’industria.
2. Una relativa all’ipotesi del raggiungimento di un equilibrio di concorrenza individuato da p = mc; se il
prezzo del mercato è p, è evidente che anche imprese con scala inferiore a quella ottimale potrebbero
operare nel mercato, e che il livello minimo di concentrazione del mercato in questo caso è dato da
x2/D2.

7.6 I processi stocastici.


Gli eventi casuali che producono effetti sulla dimensione dell’impresa possono essere rappresentati dalla distribuzione
normale di Gauss – Laplace; essendo la probabilità di detti cambiamenti uguale per ciascuna impresa e soprattutto
indipendente dalla sua dimensione iniziale, le imprese piccole dovrebbero gradualmente raggiungere le dimensioni di

39
quelle più grandi, cosicché il gruppo tenderebbe a divenire più omogeneo. Nella realtà, come detto, si osserva una
distribuzione dimensionale asimmetrica. La spiegazione di ciò è nella particolare ipotesi di crescita nota come legge
dell’effetto proporzionato. Sulla base di questo modello, formulato da Gibrat, tutte le imprese a prescindere dalla loro
dimensione hanno la stessa probabilità di una data crescita percentuale: eventi casuali dunque influenzeranno la
dimensione della singola impresa con la stessa probabilità ma con diversi tassi di crescita reali. Non esiste un vantaggio
delle imprese più grandi in tale processo di crescita, essendo l’aumento dimensionale legato ad una serie di eventi che
influenzano tutte le imprese dell’industria considerata con la stessa probabilità. La presenza di economie di scala che
dovrebbe favorire la crescita dell’imprese più grandi offre un impulso aggiuntivo ma non determinante all’aumento
della concentrazione.

7.7 Potere di mercato, concentrazione ed elasticità della domanda.


Il teorema fondamentale del paradigma SCP (structure, conduct , performance), costituito quindi dalla relazione fra
performance di un’industria, le caratteristiche delle sue strutture e i comportamenti, può trovare conferma sotto il
profilo delle relazioni teoriche. Assumendo che le performance di un settore siano misurate dal suo tasso di profitto π
si può dimostrare analiticamente che questo dipende da tre fattori:
1. Elasticità della domanda
2. Concentrazione dell’offerta
3. Condotte collusive
Si definisce potere di mercato il rapporto che c’è fra il margine di profitto (p – MC) ed il prezzo. Tale rapporto viene
convenzionalmente indicato dall’indice di Lerner  L = (p – MC) / p.
Per l’insieme delle imprese che costituiscono l’offerta, assumendo che le funzioni di costo non siano omogenee,
l’indice di Lerner diventa:
n
p−MC i
L=∑ s i
i =1 p
Dove s con i costituisce la quota di mercato dell’i-esima impresa. L’indice può essere quindi definito come la media
ponderata dei margini di profitto delle imprese in un settore. È ovvio che se la funzione dei costi è uguale per tutte le
imprese, l’indice L può essere espresso nella formula base sopra indicata. La caratteristica rilevante di tale indice è che
per una industria nel suo complesso esso è uguale all’inverso dell’elasticità della domanda:
p−MC 1
L= =
p ϵ
Considerando le singole imprese, la funzione di domanda (p = f(Q)) di ciascuna di esse diventa p= f (q1 + q2 + … + qn)
dove la sommatoria di qi da i ad n è uguale a Q; il profitto per ciascuna impresa quindi sarà dato da π= p q i−c i qi .
In questo caso, le variazioni del margine di profitto per ciascuna impresa sono date non solamente dalla differenza fra
prezzo e costo di produzione, ma anche dalla variazione della quota di mercato, cioè dalla reazione che le altre
imprese potrebbero mettere in atto in conseguenza della decisione assunta dalla impresa i-esima. Sotto questo profilo
fondamentale si possono immaginare due situazioni tipiche:
a) Le imprese non tengono in considerazione le reazioni delle imprese rivali, il che può essere verosimile in
tre circostanze:
- mercato si trova in posizione di equilibrio di Nash, dove nessuno ha interesse a modificare le proprie
posizioni;
- specifica impresa considera date le decisioni dei competitors, come nella tipica formulazione
dell’equilibrio di Cournot;

40
- le imprese sono legate da un cartello, e non vi è quindi incertezza circa il comportamento delle
concorrenti.
In questa ipotesi l’indicatore del potere di mercato L diviene uguale al rapporto fra indice HH e elasticità
della domanda. Ciò significa che l’indice HH di un settore diviso per il valore assoluto dell’elasticità della
domanda esprime il valore tendenziale della media ponderata dei margini di profitto delle imprese.
b) Le imprese sono consapevoli della possibilità che le loro azioni possono provocare una variazione della
condotta delle altre imprese, e debbono perciò formulare congetture circa la natura delle reazioni delle
altre imprese. In questo secondo caso l’indicatore del potere di mercato diviene:
p−MC 1+ λ
L= =
p nϵ
Dove n rappresenta il numero delle imprese presenti sul mercato, e lambda è rappresentata dalla congettura che
l’impresa i-esima formula sulla reazione che la sua variazione di quantità provocherà sulla quantità offerta dalle altre
imprese.
In entrambi i casi, oltre alla condizione di base rappresentata dalla elasticità della domanda, la variabile strutturale
concentrazione risulta avere un peso rilevante nella determinazione della performance tendenziale di una industria,
sia che essa si esprima sotto forma di indice HH sia che si esprima più semplicemente sotto la forma della numerosità
delle imprese che costituiscono l’offerta. Le numerosissime ricerche empiriche svolte a partire da Bain e Stigler
mostrano in effetti una significativa correlazione fra la concentrazione ed i margini di profitto. Stigler sosteneva che “ in
generale i dati suggeriscono che non sussiste correlazione fra profittabilità e concentrazione se il valore di HH è
inferiore a 0,250 o la quota di mercato delle prime quattro imprese (C4) è al di sotto dell’80%”.

8.Le barriere all’entrata


8.1 Definizione delle barriere all’entrata.
Si segue l’impostazione di Bain, che lega le barriere all’entrata alla capacità di alzare il prezzo ad un livello superiore al
costo medio da parte degli incumbents (--> imprese incombenti cioè le imprese già presenti nel settore). Ciò consente
di interpretare le barriere all’entrata come uno dei principali elementi della struttura del mercato all’interno del
paradigma SCP. Se la concentrazione riflette il numero dei rivali effettivi esistenti nel mercato, le condizioni che
determinano l’entrata indicano i potenziali concorrenti.
Aiuta ad avere altre prospettive di studio la distinzione tra:
 Barriere all’entrata come vincoli costituiti da fattori di natura istituzionale : derivano sia da vincoli di
natura regolamentativa (che legano lo svolgimento di una data attività produttiva all’ottenimento di
autorizzazioni, licenze, permessi) sia da vincoli d natura istituzionale (legati all’insieme di norme che
regolano i sistemi fiscali, finanziari, assicurativi, tariffari e di appalto e per lavori pubblici). Si tratta di
vincoli tanto meno rilevanti tanto più il mercato si apre al libero scambio di beni, servizi e persone.
Nonostante tale intento dell’UE, persistono, per alcuni settori, barriere all’ingresso di imprese non
nazionali o forme camuffate di aiuto alle imprese nazionali sempre meno compatibili con la normativa
europea in materia di aiuti e concorrenza.
 Barriere più propriamente economiche , derivanti da fattori della struttura o della condotta dei mercati,
che esistono anche in assenza di restrizioni regolamentative.
Ulteriori definizioni:
1. Definizione Demsetz --> Secondo alcuni autori, come Demsetz, le barriere all’entrata si limitano a questi
vincoli istituzionali e coincidono con le sole restrizioni delle autorità di governo o di regolazione (es.
tariffa o dazio doganale). L’autore fa anche l’esempio del settore dei taxi. Secondo Demsetz tuttavia

41
anche se le autorizzazioni non fossero contingentate costituirebbero sempre una barriera all’entrata, in
quanto provocano un aumento dei costi operativi andando a restringere artificialmente l’entrata. Nella
visione di Demsetz l’operare concorrenziale porterebbe alla eliminazione dei profitti monopolistici nel
lungo periodo non comportando la creazione di barriere all’entrata. Visione che identifica le barriere
con le restrizioni governative della libertà d’entrata.
2. Definizione Stigler --> Una seconda definizione, suggerita da Stigler, concentra l’attenzione sulle
asimmetrie nelle condizioni di costo e di domanda fra imprese già attive e potenziali nuovi concorrenti.
Stigler, nello specifico, definisce una barriera all’entrata come “costo di produzione che deve essere
sostenuto da una impresa che cerca di entrare in una industria, e che non deve essere sostenuto dalle
imprese già attive nell’industria”. Visione che tende ad enfatizzare la presenza di condizioni di mercato
asimmetriche.
Secondo queste definizioni, ogni vantaggio delle imprese già attive sulle potenziali viene usato come una
barriera all’entrata e come fonte di profitti di lungo periodo. Stigler affermò però che non esistono
barriere all’entrata quando le imprese già attive ed i potenziali concorrenti hanno le stesse condizioni di
costo e di domanda.
3. Definizione Bain--> Una terza definizione, quella più spesso usata, è attribuibile a Bain, per il quale le
barriere all’entrata misurano di “quanto, nel lungo periodo, le imprese già sul mercato possono
aumentare i loro prezzi di vendita al di sopra dei costi medi minimi di produzione e distribuzione senza
indurre l’entrata di imprese potenziali concorrenti”. Il prezzo massimo che impedisce l’entrata è il prezzo
più alto che le imprese attive possono stabilire senza attirare l’entrata (prezzo di esclusione). Uno dei
postulati della concorrenza perfetta e di quella monopolistica è costituito dalla libertà di entrata ed
uscita delle imprese dal mercato. La realtà, al contrario, ci insegna che le imprese affermate possono
disporre di vantaggi competitivi di vario genere rispetto ai potenziali competitori, cosicché la decisione
di entrare in un determinato mercato comporta l’assunzione di un rischio, che può essere rappresentato
dalla possibilità di sostenere perdite e dall’entità di queste. Per Bain quindi, l’effetto potenziale delle
barriere all’entrata – persistenza dei prezzi al di sopra dei costi unitari minimi di lungo periodo –
definisce la loro natura. La definizione di Bain è più ampia di quella di Stigler, dal momento che tiene
conto del ruolo delle economie di scala come causa di barriere, potendo queste condurre a prezzi
maggiori dei costi unitari minimi. La definizione di Bain è anche diversa da quella di Demsetz, dato che
questo avrebbe classificato come barriere anche le concessioni per taxi, anche se queste fossero state
liberalmente disponibili, a prezzi concorrenziali; Bain non accetterebbe questa definizione, poiché
nessuno in questa situazione realizza sovrapprofitti.
La definizione di Bain è la più complessa fra le tre, aprendo la strada a sviluppi che prendono in
considerazione i comportamenti delle imprese e la loro interdipendenza con la struttura del mercato.
Sulla base di prezzo massimo che impedisce l’entrata, Bain definì la condizione di entrata come il mark-
up o il margine percentuale realizzabile al di sopra del costo medio minimo delle imprese incumbents.
La condizione d’entrata misura l’altezza delle barriere in un particolare mercato; secondo questa
definizione, si tratta di un concetto di lungo periodo.
8.2 Determinanti delle barriere all’entrata.
Bain fornisce la definizione di barriere all’entrata nell’ambito di uno studio che individua tre classi di determinanti che
possono influenzare la condizione d’entrata in un mercato; tali determinanti sono riferite a condizioni oggettive di
mercato e configurano barriere di tipo assoluto, indipendenti dalle aspettative delle imprese entranti e delle reazioni
degli incumbents:
 Economie di scala: rappresentano una determinante rilevante della condizione di entrata quando la
DOM di produzione è elevata rispetto alla dimensione del mercato. In questo caso un potenziale
entrante potrebbe aggiungere all’offerta già esistente un notevole volume di produzione e generare
quindi una significativa diminuzione nel livello generale dei prezzi e quindi dei profitti conseguibili. I
potenziali entranti possono anche essere indotti a fare ingresso sul mercato con una scala produttiva

42
ridota rispetto a quella ottimale, per non aumentare eccessivamente l’offerta. Comportando però
l’entrata con una scala sub-ottimale costi più elevati per la nuova impresa, i prezzi di lungo periodo
applicati dagli incumbents possono essere più elevati rispetto al costo medio minimo, senza indurre
nuovi ingressi: in questo senso le economie di scala costituiscono un deterrente all’entrata.
Il grafico (pag. 159) mostra la curva dei costi medi unitari di lungo periodo di un’impresa, nuova o già
attiva, con la consueta forma ad L in cui i costi inizialmente diminuiscono per poi rimanere costanti per
un intervallo molto ampio di valori di produzione. Data tale configurazione, è possibile operare in
maniera efficiente solamente producendo almeno la quantità OB. Se il mercato totale è di ampiezza pari
ad OM, potranno operare sul mercato un numero massimo di tre imprese, che produrranno ciascuna la
quantità OB che assicura il conseguimento della DOM.
Anche se l’impresa entrante potesse entrare alla DOM, deve strappare alle imprese già attive una grossa
fetta del loro mercato, eliminarne cioè una. Per ottenere ciò, in un primo momento dovrebbe
sopportare gravi perdite. Se, però, confida che il mercato si espanderà, potrà strategicamente
sopportare perdite iniziali da recuperare una volta che il mercato si sarà ampliato (barriere dinamiche).
Il caso illustrato evidenzia due fattori ulteriori che influenzano l’entrata e precisamente:
• inclinazione della curva dei costi di produzione;
• tasso di espansione della domanda.
Se la curva è molto inclinata e la domanda è stagnante, l’entrata con impianti sottodimensionati sarà
ostacolata in quanto il divario in termini di costo tra impresa dominante e rivale potenziale sarà
notevole. Viceversa, quando la curva è poco inclinata con domanda crescente, l’entrata con impianti
sottodimensionati può non essere penalizzante come nel caso precedente, poiché le maggiorazioni di
costo non sono rilevanti.

 Vantaggi assoluti in termini di costo: barriera legata alla presenza, per il potenziale entrante, di costi di
produzione unitari superiori a quelli delle impese già attive sul mercato, qualunque sia la scala
produttiva adottata. Ciò significa che i rivali potenziali hanno una curva dei costi medi di lungo periodo
che giace sempre e comunque al di sopra di quella che caratterizza le altre imprese. Rispetto al caso
precedente, qui la nuova impresa sopporta uno svantaggio in termini di costo di produzione a qualsiasi
livello di produzione essa scelga di produrre. I vantaggi assoluti di costo di cui godono le imprese
incombenti derivano da una molteplicità di fattori. Per prima cosa, l’impresa dominante può disporre di
tecniche produttive superiori, può avere accesso ai fattori produttivi a prezzi e\o condizioni più
favorevoli oppure può disporre di risorse naturali meno costose o qualitativamente superiori, esempio
perfetto quello relativo alle industrie minerarie. Infine, le imprese incombenti potranno disporre di
maggiori disponibilità liquide; a causa delle imperfezioni del mercato di capitali, i settori che richiedono
un forte apporto di capitali iniziali sono protetti contro i potenziali entranti. Questa osservazione è
coerente con la formulazione di Stigler, in quanto evidenzia imperfezioni nel mercato dei fattori che
generano barriere all’entrata. Qualunque ne sia la causa, tali costi maggiori a carico dei potenziali rivali
sussistono nonostante essi operino ad una scala produttiva ottimale.

 Differenziazione del prodotto: si manifesta in una preferenza, momentanea o definitiva, dimostrata dai
consumatori nei confronti dei prodotti già esistenti sul mercato rispetto a quelli potenziali nuove
imprese. Impresa avviata può godere di reputazione positiva presso la clientela, in genere associata ad
un marchio, che le consente di applicare prezzi superiori ai costi unitari di produzione, senza attrarre
nuovi entranti. La nuova impresa quindi per riuscire a collocare la propria produzione è costretta ad
applicare prezzi decisamente inferiori a quelli dei produttori già esistenti, vedendo così ridurre i propri
ricavi, oppure sostenere elevati costi di produzione, vendita e distribuzione aumentando i propri costi
per unità di prodotto. La lunghezza del periodo di promozione e avviamento ed i costi ad esso relativi
costituiscono una barriera in quanto, più è ampio tale arco temporale più l’entrata sarà scoraggiata.

43
8.3Le barriere all’entrata aggregate
Le industrie studiate da Bain, 20 settori industriali negli USA, furono classificate in tre categorie, secondo la condizione
aggregata di entrata:
1. “molto alta”: per cui le imprese già attive potevano aumentare il prezzo del 10% rispetto ai costi medi
minimi, senza attirare l’entrata
2. “sostanziale”: corrisponde alla possibilità di aumenti del 5 – 9%
3. “moderata”: relativa ad un mark-up potenziale sui costi medi minimi compreso tra l’1 ed il 4%.
Le determinanti delle barriere all’entrata rivestivano maggiore o minore importanza a seconda del settore analizzato.
Si possono, quindi, sintetizzare le seguenti conclusioni dello studio di Bain:
• Le economie di scala sono una causa frequente di barriere all’entrata, ma configurano barriere basse. Questo è
dovuto al fatto che esistono pochi settori industriali in cui la dimensione ottima minima è molto elevata rispetto alla
dimensione dell’intero mercato;
• I vantaggi assoluti di costo non sono causa rilevante di alte barriere all’entrata, ad eccezione di quei settori in cui
sussiste il fenomeno di integrazione; importante è anche la presenza di brevetti industriali e il fabbisogno di capitale
può rivelarsi una causa di notevole effetto nella determinazione della condizione di entrata;
• I vantaggi da differenziazione del prodotto sono una causa frequente di barriere all’entrata e sono in grado di
generare barriere molto alte.
8.4Le Barriere tecnologiche.
Aspetto dei vantaggi riconducibili ad una superiorità tecnologica protetta da brevetti o altri diritti su opere dell’ingegno
e di know-how legato alla ricerca e sviluppo già avviata. I brevetti forniscono all’inventore diritti esclusivi su prodotto,
processo, sostanza o design nuovo ed utile. La protezione legale accordata invece ai lavori artistici è quella dei diritti
d’autore.
La finalità di brevetti e diritti d’autore è quella di fornire un incentivo all’innovazione, assicurando una protezione che
consenta di remunerare le risorse impiegate per lo sviluppo della stessa innovazione, come i costi di ricerca e sviluppo.
La protezione legale conferisce un potere di monopolio all’inventore; un innovatore, ex post, diventa un monopolista.
Tale situazione comporta un costo sociale in termini di efficienza, misurata all’inefficienza allocativa associata ai prezzi
di monopolio. Si configura quindi un trade-off tra inefficienza ed incentivo all’innovazione. Questo può essere in parte
risolto combinando in maniera ottimale gli elementi della protezione come l’ampiezza e la durata. Quanto più lunga è
la durata di un brevetto o di un diritto d’autore, tanto più velocemente la collettività si appropria del valore di
quell’innovazione e viceversa.
Il caso Microsoft - Commissione europea.
Il caso Microsoft Corporation – Commissione europea Costituisce un esempio delle più recenti e significative
applicazioni della normativa antitrust.
Il caso si è concluso dopo 5 anni di indagini, con la condanna della società statunitense Microsoft per abuso di
posizione dominante. Secondo la antitrust europea, il gigante dell'informatica non ha rispettato la normativa europea
sulla concorrenza, sfruttando il suo quasi monopolio sui sistemi operativi per PC ai fini di ottenere una posizione
dominante sia nel mercato dei sistemi operativi dedicati ai server di fascia bassa, sia nel mercato dei media player.
Microsoft è stata accusata di aver posto in essere due distinti tipi di abuso volti ad estendere il suo potere di mercato
nel mercato dei sistemi operativi per PC.
Tale strategia, detta anche di leveraging, applicata ad un diverso prodotto e ad un diverso mercato geografico rispetto
a quello europeo, ha costituito oggetto di indagine anche per l'antitrust americano in un caso precedente.

44
Microsoft ha abusato del proprio potere di mercato 1) limitando deliberatamente l’interoperabilità tra pc che operano
in Windows e server per gruppi di lavoro non Microsoft e 2) abbinando il proprio programma Windows Media Player a
Windows, il proprio sistema operativo presente su praticamente tutti i pc.
Questo comportamento illegale ha consentito a Microsoft di acquisire una posizione dominante sul mercato dei
sistemi operativi per server per gruppi di lavoro e rischia di eliminare completamente la concorrenza da tale mercato.
Secondo la commissione europea, la vendita abbinata di WMP al sistema operativo per PC Windows, frena
l'innovazione e riduce artificialmente gli incentivi per le imprese operanti nel settore della musica, dei film e di altri
media, nonché per gli sviluppatori di software e per i fornitori di contenuti, a sviluppare le proprie offerte per adattarle
ai media player concorrenti. Di conseguenza si determina una preclusione del mercato ai concorrenti (foreclosure),
riducendo in ultima analisi la scelta dei consumatori, in quanto i prodotti concorrenti subiscono uno svantaggio che
non è dovuto né ai loro prezzi né alla loro qualità.
Una delle linee di difesa della Microsoft è stata quella di enfatizzare le peculiarità della concorrenza in un mercato
caratterizzato da una rapida innovazione tecnologica e da barriere all'entrata di tipo tecnologico.
Il caso Microsoft è quello di un'impresa che domina la sua industria in virtù di una serie di innovazioni di successo e che
viene accusata di approfittare di quella posizione di monopolio acquisita attraverso una serie di pratiche volte a
sfruttare le esigenze di compatibilità con i suoi prodotti come un'arma contro i concorrenti.
Il fatto che Microsoft riesca a fissare il prezzo al di sopra del costo marginale di produzione e distribuzione e che tale
prezzo non attragga nuovi entranti, non costituisce il segno di un potere monopolistico, ma riflette le condizioni di
concorrenza specifiche del mercato. Dunque, secondo Microsoft, è stata la natura della concorrenza che procede per
scavalcamento che ha differenziato l'industria del software da altre industrie. Nell’industria dei software e in altre
industrie basate sullo sfruttamento dei diritti di proprietà intellettuale, la concorrenza induce a investire per creare
nuovi prodotti, o migliorare quelli esistenti, finché le imprese possono aspettarsi un profitto che sia tale da risultare
competitivo.
La difesa di Microsoft fa riferimento a una nozione di barriere all'entrata affine a quella di Demsetz e della scuola di
Chicago in quanto nega che l'entrata sia bloccata per le imprese più efficienti che sappiano introdurre un nuovo
sistema operativo.
A ciò, la commissione europea ha replicato argomentando che, invece, il mercato rilevante dei sistemi operativi per
server era protetto da sostanziali barriere all'entrata, che emergevano proprio tenendo conto della particolarità
dell'industria, quali le barriere dovute alla compatibilità degli standard e le esternalità di rete. La commissione, inoltre,
obiettava che la minaccia di entrata non può realizzarsi nel breve termine e non è quindi imminente. Tali fattori
finiscono per conferire un elevato potere di mercato all incumbent e ritardare i processi di innovazione tecnologica dei
rivali concorrenti.
Dunque, Microsoft avrebbe tentato di estendere il suo potere di mercato nel mercato dei sistemi operativi per PC
anche ai nuovi mercati, creati dalle innovazioni introdotte dai suoi concorrenti.
Microsoft, quindi, ha ricevuto una multa molto elevata e, inoltre, è stata obbligata: a) a immettere sul mercato entro
90 giorni dalla sentenza una versione di Windows priva di lettore multimediale e b) a comunicare ai suoi concorrenti
informazioni sulle interfacce richieste in modo da permettere l'installazione dei prodotti delle aziende concorrenti su
pc con sistema operativo Windows.
8.5 Barriere all’uscita. Prezzo di eliminazione.
Le barriere all’uscita sono i fattori economici, strategici ed emotivi che trattengono l’impresa nel mercato anche se la
redditività è bassa o negativa.
Se, ad esempio, un’impresa impiega in un dato settore un’attrezzatura altamente specialistica, quindi difficilmente
rivendibile o trasferibile, si tratterà di un sunk cost, un costo difficile da recuperare che rende l’uscita dall’industria
poco probabile. Un analogo effetto di deterrenza dall’uscita hanno altri fattori, come ad esempio l’esistenza di

45
contratti di lavoro di lungo termine, obblighi statutari per la stipula di contratti di fornitura di b\s già in essere,
interdipendenze con altre attività della stessa impresa, ostacoli politici o fattori affettivi e personali.

L’esistenza di fattori economici che rendono costosa l’uscita costituisce oggetto di considerazione in fase di entrata.
Praticamente quindi uno degli aspetti che influenza l’entrata di una impresa in un’industria è la capacità dell’impresa di
uscirne; se quindi è costoso uscire da un settore industriale, gli incentivi ad entrarvi sono ridotti. I costi di uscita
servono a impedire l’entrata proprio come quelli sostenuti per entrare in una industria.
Le barriere all’uscita rivestono un ruolo fondamentale nella teoria dei mercati contendibili di Baumol, Panzar e
Willig.--> In questi mercati non esistono barriere all’entrata e all’uscita. I nuovi concorrenti entrano e lasciano senza
dover sostenere costi netti; nessun concorrente è scoraggiato all’entrata dal fatto che, in caso di uscita dal mercato,
perderebbe il denaro investito. Ogni investimento è recuperabile all’uscita, al netto dei deprezzamenti.

Avendo già definito il concetto di prezzo di esclusione come quel prezzo che impedisce l’entrata di nuovi concorrenti e
che definisce l’elevatezza delle barriere all’entrata, è possibile ora dare una definizione di “prezzo di eliminazione”,
ossia quel prezzo in corrispondenza del quale uno o più concorrenti presenti in una industria sono indotti a sospendere
la produzione e ad uscire dal mercato. La decisione di uscire dal mercato verrà presa qualora i prezzi correnti non
consentano di coprire il costo variabile, e quindi la posizione più vantaggiosa per l’impresa che si trova in tali
circostanze è quella di interrompere la produzione. A volte può essere preferibile una decisione di vendita
dell’azienda, perché il valore realizzabile da una cessione potrebbe essere maggiore di quello che si potrebbe ottenere
recuperando parte dei costi fissi con una decisione di prezzo, elevandolo ad un livello maggiore dei costi variabili.
A scoraggiare l’entrata o a favorire l’uscita possono però anche essere le strategie adottate dagli incumbents, e non
solamente le barriere strutturali. A questo fine si individuano le strategie di deterrenza all’entrata, le quali fanno
perno sul prezzo o su altre variabili. Tra le strategie non di prezzo si ricordano: espansione della capacità produttiva,
proliferazione dei prodotti e contratti di lungo periodo. Esistono poi strategie che un monopolista può mettere in atto
per costringere alla ritirata le imprese che sono appena entrate nel mercato, in particolare la strategia dei prezzi
predatori. Un’impresa adotta una politica predatoria dei prezzi quando, in una prima fase, riduce il proprio prezzo ad
un livello molto basso per spingere i concorrenti ad uscire dall’attività e per scoraggiare l’ingresso da parte di potenziali
imprese; in una seconda fase, quando i rivali sono usciti dal mercato, aumenta il prezzo. In altre parole, l’impresa
incorre in perdite di breve periodo per ottenere profitti di lungo periodo.
Quando gli incumbents pongono in essere strategie di deterrenza all’entrata si dice che l’entrata è impedita; se gli
incumbents pongono in essere strategie che rendono l’entrata poco profittevole (es. strategia del prezzo limite),
l’entrata è bloccata. Quando gli incumbents invece non fanno nulla per ostacolare l’ingresso di nuovi entranti e ciò è
profittevole, l’entrata è accomodata.
Con riferimento alla misura di costo, Areeda e Turner (1975) sostengono che da un punto di vista teorico la migliore
misura è quella del costo marginale. Tuttavia, suggeriscono di utilizzare nella pratica il costo medio variabile, definito
come la somma di tutti i costi variabili, divisa per l’output, data anche la difficoltà di misurare il costo marginale di
un’impresa. Quindi un prezzo di eliminazione, secondo Areeda e Turner, è quello ragionevolmente inferiore al costo
variabile dei potenziali entranti.

9.La differenziazione. Effetti della spesa pubblicitaria. La qualità e le innovazioni di prodotto. La “non price
competition”
9.1 Introduzione.
La differenziazione del prodotto è un elemento che attiene tanto alle condizioni strutturali del mercato quanto agli
elementi che caratterizzano la condotta degli operatori in esso presenti.

46
Il concetto di differenziazione implica che i prodotti in concorrenza nel mercato abbiano caratteristiche differenti o
siano considerati tali dagli acquirenti. I venditori percepiscono:
 Condizione strutturale: la non perfetta sostituibilità dei propri prodotti rispetto a quelli dei concorrenti.
 Condizione di condotta: l’opportunità di indurre e utilizzare elementi di differenziazione nella domanda
dei propri prodotti. Ciò incide in modo sostanziale sulle strategie delle imprese.
Nel caso in cui i prodotti siano percepiti come non perfetti sostituti da parte degli acquirenti, ciascuna impresa definirà
una propria curva di domanda residuale. Nel caso in cui invece i prodotti siano perfettamente omogenei, tutte le
imprese concorrenti devono applicare lo stesso prezzo se vogliono continuare a vendere il proprio prodotto.
Il prezzo del bene dunque è determinato sulla classica curva di domanda inclinata negativamente dalle quantità totali
offerte sul mercato. In tali ipotesi, le imprese possono essere considerate price taker:
pt = p=a−b ( Q ) =a−b ( q 1+ q2 )

Se l’acquirente considera il prodotto dell’impresa 1 non perfettamente sostituibile con quello dell’impresa 2, la curva
di domanda del prodotto dell’impresa 1 non può essere rappresentata nella formulazione sopra mostrata ma sarà :
pt =a−b1 q1−b2 q2

In questa equazione la curva di domanda di ciascuna impresa dipende non dalle quantità totali del mercato ma dalle
quantità offerte dall’altra impresa e dal grado di differenziazione di ciascun prodotto espresso nel coefficiente b. Tanto
più il prodotto dell’impresa 1 è differenziato tanto più il suo prezzo è indipendente dalla condotta dell’impresa 2.
9.2 La differenziazione dei prodotti: modelli teorici.
Un prodotto si differenzia dai prodotti in concorrenza quando presenta una caratteristica che cattura, a parità di altre
qualità, la preferenza di tutti i consumatori (differenziazione verticale). Vi sono però casi più frequenti in cui i
consumatori valutano in modo differente le caratteristiche qualitative dei prodotti in concorrenza (differenziazione
orizzontale).
L’approccio utilizzato nel definire il concetto teorico di differenziazione fa leva sull’ipotesi che la domanda dei
consumatori non sia orientata tanto al prodotto quanto alle caratteristiche o attributi del prodotto e dei prodotti
concorrenti. Ciascun prodotto è individuato attraverso la definizione delle caratteristiche che meglio rappresentano la
funzione di utilità dell’acquirente i-esimo per ciascun prodotto k. Se fosse possibile produrre tutte le possibili
combinazioni di attributi sarebbe possibile soddisfare le preferenze di ciascun consumatore. La presenza di costi fissi e
di economie di scala nella produzione di ciascuna combinazione fa sì che ciascun consumatore non troverà il prodotto
che risponde perfettamente alla sua combinazione ottimale, ma la sua scelta sarà determinata dai prezzi relativi delle
combinazioni offerte.
L’aggregazione delle preferenze espresse dai singoli consumatori determina per ciascun prodotto e per ciascun
venditore una curva di domanda negativamente inclinata.
Un secondo approccio teorica nasce dalla letteratura sulle informazioni dei consumatori e sui costi di transazione.
Ciascun consumatore, nel prendere le proprie decisioni di acquisto, investe nell’acquisizione di diverse tipologie di
informazione fino al punto in cui i benefici attesi da una scelta più oculata tra i brand offerti sul mercato eguaglia il
costo marginale dell’informazione (Porter).--> Ciascun consumatore ha a disposizione quindi un set di informazioni
incompleto e diverso da quello degli altri acquirenti. Ne consegue che, anche se le preferenze di tutti i consumatori
sulle caratteristiche rilevanti del prodotto fossero identiche, essi esprimerebbero per ciascun livello di prezzo dei
prodotti in concorrenza una preferenza diversa in quanto diverso è il set di informazioni a loro disposizione. Per alcuni
costi i consumatori sostengono un costo specifico nel passare ad un prodotto concorrente (switching cost): eventuali
variazioni di prezzo che incidono sulla funzione di preferenza inducono alcuni ma non tutti gli acquirenti ad un

47
cambiamento di prodotto. La presenza di costi transattivi può divenire un elemento di differenziazione contribuendo
essa a determinare le condizioni strutturali che definiscono la curva di domanda di un prodotto differenziato.
Modello Di Akerlof --> Importanza della qualità dell’informazione nel determinare in situazioni di incertezza le scelte
dei consumatori ed il funzionamento dei meccanismi di mercato sono state analizzate per la prima volta da Akerlof nel
1970.
Il mercato delle auto usate (market for lemons) è utilizzato dall’autore per dimostrare che, nel caso in cui si ipotizzi una
situazione in cui gli acquirenti si affidano a valutazioni statistico-probabilistiche per superare l’incertezza delle
informazioni sulle caratteristiche qualitative del prodotto, i venditori avranno un incentivo ad offrire prodotti di bassa
qualità. In tale situazione, il beneficio connesso alla vendita di prodotti di buona qualità avvantaggia principalmente
tutto il gruppo dei venditori anziché il singolo venditore: l’effetto è una progressiva riduzione della qualità media dei
prodotti offerta e della dimensione stessa del mercato.
Il mercato delle auto è caratterizzato da auto nuove e auto usate, le quali possono essere entrambe buone o cattive
(lemons). L’acquirente di un’auto nuova non sa se il prodotto che ha acquistato è buono e cattivo: è verosimile quindi
che questi consideri, inizialmente, ogni possibile auto di qualità media, associando cioè una probabilità q
all’eventualità che l’auto acquistata sia buona, ed una probabilità (1 – q) che essa risulti cattiva. Le misure delle
probabilità così definite derivano dalla quantità di auto buone e bidoni presenti sul mercato.
Dopo aver posseduto l’auto per un po’ di tempo però il proprietario (venditore nel mercato dell’usato), che ha
comprato la propria auto nuova, conosce la qualità della propria auto meglio del compratore. Il proprietario è dunque
nelle condizioni di poter fare una stima molto più accurata e assegnerà una nuova probabilità all’eventualità che la sua
macchina sia un bidone. Il prezzo a cui il proprietario vorrà vendere la sua auto sarà maggiore di quello che il
compratore sarà disposto a riconoscergli sulla base delle informazioni a sua disposizione: il prezzo di un’auto buona e
di una cattiva è per il compratore identico e coincide con il prezzo medio.
Il venditore, che non potrà ricevere il valore effettivo della sua auto, uscirà dal mercato e quindi il numero dei bidoni
sul mercato aumenterà con il conseguente peggioramento della qualità percepita dal compratore.
La domanda dipende dal prezzo delle auto p e dalla qualità media delle auto usate offerte dal mercato; l’offerta di auto
usate e la qualità p dipendono dal prezzo p, dalla qualità e dall’offerta S(p). In equilibrio, la quantità offerta è uguale a
quella domandata per un dato livello di qualità. Se la qualità diminuisce, i compratori saranno disposti via via a pagare
un prezzo minore il quale a sua volta determinerà un peggioramento della qualità.
Estrema conseguenza di tale processo è la distruzione dello stesso mercato se prevarrà la presenza di venditori che,
offrendo beni di qualità inferiori, portano fuori dal mercato quelli di qualità superiore. Rimedio più ovvio per il
compratore che voglia assicurarsi un livello normale di qualità attesa è la garanzia. Altro efficace rimedio all’incertezza
è la reputazione del brand, nella misura in cui il compratore possa rivalersi evitando acquisti futuri di prodotti del
brand.
9.3 Analisi empiriche.
Il concetto di non perfetta sostituibilità dei prodotti in concorrenza introduce dal punto di vista teorico la misura più
appropriata del grado di differenziazione. L’approccio teorico basato sulle caratteristiche del prodotto introduce
semplificazioni e soluzioni metodologiche percorribili. Questo approccio consiste nel definire un prodotto attraverso le
sue caratteristiche più rilevanti. Gli attributi sono accomunati dal fatto di essere misurabili.
Il problema più rilevante nell’impostare analisi empiriche sugli effetti della differenziazione resta quello di stimare la
valutazione del consumatore ed il peso che ciascuna delle caratteristiche che identificano il prodotto hanno nel
definire il mix ottimale. È necessario individuare gli strumenti econometrici che consentono di derivare dette stime dai
dati disponibili su ciascun prodotto o tipologia di prodotto.
9.4 Effetti della spesa pubblicitaria.

48
L’approccio basato sulla teoria dell’informazione e dei costi transattivi individua nella spesa pubblicitaria un
potenziale fattore di differenziazione dei prodotti. Essa contribuisce infatti a definire il set di informazioni a
disposizione degli acquirenti e le loro preferenze. Inoltre, la spesa pubblicitaria rappresenta per i consumatori una
fonte di informazione relativamente economica.
È evidente che il contenuto informativo della pubblicità dipende dal fatto che i consumatori possano o meno
determinare la qualità del prodotto prima di acquistarlo. (Nelson, 1970).
Si definiscono prodotti con qualità individuabili quelli che possono essere valutati prima dell’acquisto, ed in relazioni
ad essi si parla pubblicità informativa.
Si parla di prodotti con qualità da sperimentare quando questi devono essere prima acquistati e poi provati, in questo
caso si parla di pubblicità persuasiva.
Sulla base di questa distinzione, Nelson suggerisce che l’intensità della pubblicità sarà maggiore per i beni con qualità
da sperimentare, sottolineando la funzione più persuasiva che informativa della stessa. Questa visione riduttiva del
ruolo della pubblicità non considera che anche questi ultimi beni sono soggetti alla valutazione del consumatore, che
non può essere ingannato dal lungo periodo. È evidente che l’acquirente cercherà il riscontro delle qualità evidenziate
nella pubblicità e che anche una pubblicità persuasiva deve tener conto dell’effettiva abilità del consumatore di
giudicare la qualità del prodotto dopo l’acquisto.
Per entrambe le tipologie di beni è fondamentale la considerazione per la quale l’intensità della pubblicità e la sua
persistenza nel tempo può essere di per sé stessa segnale di qualità ed avere una valenza informativa.
Porter (1974) fa riferimento alle abitudini di acquisto dei consumatori distinguendo fra:
 Beni di convenienza: basso prezzo di acquisto e elevata frequenza di acquisto, il consumatore spende
meno tempo nell’acquisto di tali beni che sono dunque più suscettibili all’effetto della pubblicità.
 Beni di spesa: prezzo unitario maggiore e sono acquistati meno frequentemente, consumatore potrebbe
essere influenzato più dalla assistenza commerciale che dalla pubblicità.
Un basso investimento in pubblicità può essere ipotizzato nel caso di prodotti segnati da un elevato turnover degli
acquirenti; i beni ad alto contenuto di moda richiedono massicci investimenti in pubblicità al fine di crearne e
mantenerne l’immagine. Gli esempi analizzati individuano nelle diverse caratteristiche della domanda dei beni la
motivazione della diversa intensità di pubblicità che caratterizza le strategie delle imprese venditrici nei diversi
mercati.
Legge di ottimizzazione del Marketing Mix--> Nel modello Dorfman – Steiner, le variabili strategiche che definiscono
la politica del marketing di un’impresa sono: prezzo, qualità e pubblicità; un’impresa monopolistica utilizza queste
variabili e sceglie il livello ottimale di pubblicità con l’obiettivo di massimizzare i profitti. Ipotizziamo una funzione
inversa di domanda:

Q=f ( p , s , z )

Dove la quantità è definita dalle variabili prezzo p, pubblicità s, qualità z. La pubblicità viene eseguita attraverso un
unico canale di informazione ed è acquistata ad un prezzo costante unitario per messaggio pubblicitario T; il fattore
qualità viene considerato costante. Il profitto dell’impresa monopolistica è definito nella nota equazione:

π= pQ ( p , s , z )−C [ Q ( p , s , z ) ] −sT

La condizione di primo ordine per la massimizzazione del profitto è definita, rispetto la variabile p, dato un livello
costante di pubblicità:

49
δπ δQ δC δQ
=Q+ p − =0
δp δp δQ δp
δC δQ
Dove =MC
δQ δp
Il risultato del modello di Dorfman – Steiner è che, in un’impresa monopolistica, il livello ottimale della spesa
pubblicitaria, dato dal rapporto tra spesa pubblicitaria e fatturato (sT/pQ), risulta essere uguale al rapporto tra
l’elasticità della domanda alla spesa pubblicitaria ed elasticità della domanda al prezzo.
Ovviamente l’intensità di pubblicità sarà maggiore quanto maggiore è l’elasticità della domanda alla pubblicità e
quanto minore è l’elasticità della domanda al prezzo. Questo è il caso dei prodotti legati all’immagine, per i quali la
domanda è meno sensibile al prezzo che alla pubblicità e l’intensità di pubblicità è maggiore rispetto al livello medio
registrato in altri settori.
Un rapporto pubblicità/vendite costante presuppone che il rapporto tra le relative elasticità rimanga costante.
Il risultato del modello D-S derivato per una impresa monopolistica può essere generalizzato al fine di considerare la
concorrenza tra diverse imprese oligopolistiche. Ciò implica che la funzione di domanda rappresentata
precedentemente dipenda dal prezzo e dalle politiche pubblicitarie e di prodotto dell’impresa considerata e delle altre
imprese rivali.
9.5 Gli effetti delle politiche di qualità e della innovazione di prodotto.
Il requisito minimo affinché si possa parlare di innovazione è che il prodotto, processo, metodo organizzativo o di
marketing siano nuovi, o significativamente migliorati, con riguardo all’impresa in questione. Ciò significa che
l’innovazione potrebbe anche essere stata sviluppata precedentemente da altre imprese ed organizzazioni ma essere
sconosciuta all’impresa in questione fino al momento della sua adozione.
La definizione riportata nella terza edizione dell’Oslo Manual fa riferimento ad un concetto ampio di innovazione che
include ben quattro categorie fondamentali:
1. Innovazione di prodotto: quando vengono introdotti nuovi beni/servizi, o sviluppate nuove modalità di
utilizzo di prodotti preesistenti, apportati significativi miglioramenti alle caratteristiche funzionali, o di
utilizzo/fruizione di b/s preesistenti per migliorarne performance e qualità. Il design gioca un ruolo
fondamentali: si traducono in una innovazione di prodotto solo quei cambiamenti di design che
comportano un mutamento significativo nelle caratteristiche funzionali e di utilizzo di un certo prodotto
(negli altri casi innovazione di marketing).
2. Innovazione di processo: introduzione di nuovi o significativamente migliorati metodi di produzione o
distribuzione (vari aspetti logistici dell’impresa). Generalmente si associa ad una riduzione dei costi medi
unitari di produzione/distribuzione, oppure può comportare un aumento qualitativo dell’output finale, o
anche essere il prerequisito necessario per la produzione o distribuzione di nuovi, o significativamente
migliorati beni o servizi.
3. Innovazione organizzativa: introduzione di un nuovo, o significativamente migliorato metodo per
l’organizzazione delle pratiche, routine e procedure che caratterizzano lo svolgimento dell’attività di
impresa, oppure può riguardare l’organizzazione interna con riferimento alle modalità di suddivisione
del lavoro, oppure riguardare anche le modalità di gestione delle relazioni esterne con altri agenti
economici ed istituzioni pubbliche. Generalmente sono finalizzate all’aumento della performance di
impresa, tramite riduzione dei costi amministrativi e transattivi, aumento soddisfazione sull’ambiente di
lavoro e quindi della produttività dei lavoratori.
4. Innovazione di marketing: finalizzata alla implementazione di un nuovo metodo di marketing, o nuove
strategie, nuovi concetti e strumenti che non siano stati utilizzati precedentemente dall’impressa.
Obiettivo finale è aumento delle vendite, aumentando attrattività del prodotto, estendendo target o

50
modificando le modalità di collocamento. Oggetto della nuova strategia può essere sia un nuovo
prodotto o un prodotto già esistente.
Mentre vengono esclusi da tale definizione i cambiamenti minori e non significativi, sono positivamente valutate anche
le innovazioni che sono state implementate da altre imprese o mercati, e che successivamente sono state adottate
dall’impresa.
Il processo di diffusione è fondamentale importanza dal momento che l’impianto economico delle innovazioni dipende
proprio dalla loro diffusione.
Un prodotto, processo, metodo organizzativo o di marketing si dicono nuovi per il mercato quando l’impresa introduce
per prima l’innovazione nel suo mercato, laddove il mercato è costituito dall’impresa e dai suoi competitors e può
includere una linea di prodotto oppure un’area geografica. Il concetto di “nuovo per il mercato” rileva quando
l’innovazione viene introdotta da un’impresa per la prima volta, rispetto a tutti i mercati ed a tutte le industrie, sia
nazionali che internazionali.
L’accento sul grado di novità ha fatto emergere nella letteratura la contrapposizione fra:
 Innovazione radicale: relativamente alla dimensione interna queste richiedono la riconfigurazione
strutturale del bagaglio di risorse e competenze posseduto dall’impresa, per cui possono essere definite
competence-destroying. Presentano un notevole cambiamento tecnologico ed hanno un significativo
impatto sul mercato rendendo obsoleti i prodotti preesistenti. Determina una discontinuità tecnologica.
Aspetto rilevante è il potenziale di miglioramento. Nell’arco di un certo intervallo temporale le
tecnologie preesistenti saranno spiazzate dalle nuove, in grado di offrire performance significativamente
superiori.
 Innovazione incrementale: relativamente alla dimensione interna queste poggiano su un preesistente
sistema di risorse e conoscenza e pertanto possono essere definite competence-enhancing.
Relativamente alla dimensione esterna, queste innovazioni si caratterizzano per un modesto
avanzamento tecnologico e pertanto non rendono obsoleti e non competitivi i prodotti esistenti sul
mercato. Avvantaggia le imprese preesistenti ma le rende particolarmente vulnerabili nei confronti
dell’innovazione radicale, che può aprire una traiettoria tecnologica facilmente percorribile dalle
imprese entranti.
Nei nuovi scenari apertisi con l’avvento delle ICT, nei quali l’impatto economico delle due tipologie di innovazione è
risultato molto diverso da quello sopra descritto. Alcune imprese operanti sul mercato persero la loro leadership in
favore di nuovi entranti anche a seguito di innovazioni incrementali, o viceversa altre imprese riuscirono a difendere la
loro leadership anche a seguito dell’introduzione di innovazioni radicali (es. IBM). Il superamento della
contrapposizione tradizionale ha aperto la strada ad una classificazione più ampia e completa:
 Henderson e Clark propongono una classificazione delle varie tipologie di innovazione sulla base
dell’impatto di quest’ultima sulle competenze coinvolte nella realizzazione di un certo prodotto. In
particolare, vengono individuati due tipi fondamentali di competenze richieste per sviluppare ed
introdurre innovazioni: conoscenze alla base dei componenti e conoscenze alla base dei legami tra
componenti. Sulla base di queste due conoscenze è possibile individuare quattro tipologie fondamentali
di innovazione:
1) innovazioni incrementali: hanno scarso impatto sia sulle conoscenze dei componenti di un prodotto
sia su quelle architetturali.
2) innovazioni modulari: comportano cambiamenti significativi delle conoscenze alla base dei
componenti, mantenendo sostanzialmente inalterate le conoscenze architetturali.
3) innovazioni architetturali: esercitano il loro impatto sulle conoscenze relative ai legami dei
componenti, ma non coinvolgono le conoscenze alla base dei componenti.

51
4) innovazioni radicali: poggiano su un nuovo set di conoscenze, sia alla base dei componenti che
architetturali.
 Abernathy e Clark propongono invece una classificazione che si basa sull’impatto dell’innovazione su
due tipologie di competenze, ritenute fondamentali per il successo di una innovazione:
1) competenze tecniche: indispensabili per lo sviluppo e l’implementazione di una certa innovazione, ma
affinché si possa proporre al meglio la novità sul mercato e beneficiare economicamente delle
innovazioni introdotte è necessario avere anche competenze commerciali.
2) competenze commerciali: potrebbero spiegare, se elevate, il mantenimento della leadership anche a
seguito dell’introduzione, nello stesso mercato, di una innovazione radicale.
Sulla base di tali considerazioni i due studiosi distinguono 4 fondamentali tipologie di innovazioni: innovazioni
creatrici di nicchia (preservano le conoscenze tecnologiche e rendono obsolete quelle di mercato), innovazioni
rivoluzionarie (rendono obsolete le conoscenze tecniche e preservano quelle di mercato); innovazioni regolari
(preservano entrambe le conoscenze); innovazioni architetturali (rendono obsolete entrambe le tipologie di
competenze).
 Christensen introduce invece il concetto di disruptive technologies, innovazioni che risultano essere la
causa principale della perdita della leadership di alcune imprese operanti nel mercato. Tale criterio di
classificazione non si basa né sulla complessità tecnologica né sulle competenze richieste, ma fa
riferimento alla domanda dei consumatori: questo tipo di tecnologie presenta dei livelli di performance
inferiori rispetto alle funzionalità richieste dai consumatori tradizionali, ma superiori con riferimento a
dimensioni secondarie valutate da nicchie di consumatori correnti, o futuri potenziali.
Inoltre, i prodotti che incorporano le tecnologie disruptive generalmente costano meno. È possibile
individuare tecnologie:
 1) disruptive low-end: indirizzate ai segmenti bassi del mercato e a quei consumatori che prestano molta
attenzione al prezzo accontentandosi di livelli medi di prestazioni;
 2) disruptive new-market: finalizzate all’apertura di un nuovo mercato.
Dato che tali tecnologie non sono volte a soddisfare le esigenze della quota maggioritaria dei
consumatori correnti, vengono spesso sottovalutate dalle incumbents che preferiscono investire in
tecnologie volte a migliorare prodotti preesistenti e a soddisfare le esigenze dei consumatori
tradizionali. La situazione diventa pericolosa per l’incumbent quando la nuova tecnologia presenta un
rapido tasso di miglioramento delle performance considerate rilevanti dai consumatori principali. In
questo caso, quando la nuova tecnologia supera la performance della tecnologia consolidata, le imprese
operanti vedono minata la loro sopravvivenza sul mercato.
L’attività di innovazione rappresenta un’efficace strategia competitiva per le imprese produttrici ed è solitamente
associata ad un incremento nel benessere dei consumatori. Bisogna, però, considerare che l’innovazione si sostanzia in
un processo economico che presenta alcune criticità, per quanto indubbiamente desiderabile. Infatti, esso, in una
prima fase, richiede una fase iniziale in cui principi o idee di prodotto vengono sviluppate in prototipi (fase
dell’invenzione), la quale richiede investimenti in attività di ricerca rischiosi in quanto sono incerti gli esiti della stessa.
La fase successiva dell’innovazione richiede un’ulteriore attività di sviluppo che, insieme ad iniziative di marketing, può
decretare il successo del lancio commerciale del nuovo prodotto. Se l’innovazione è significativa e ha successo, essa si
diffonde con effetti positivi sul benessere dei consumatori e sulla crescita del sistema economico. In questa terza fase
del processo di progresso tecnologico, diffusione, sono soprattutto i competitors a giocare un ruolo fondamentale. Il
prodotto dell’attività di invenzione e di innovazione infatti presenta alcune delle proprietà che definiscono un bene
pubblico: una volta disponibile, può essere riprodotto ad un costo molto basso e non è facile impedire alle imprese
concorrenti di beneficiarne (inappropriabilità e indivisibilità). Queste due caratteristiche e i costi elevati associati
all’attività di ricerca giustificano comportamenti di free-riding e di opportunismo che possono costituire un
disincentivo all’attività di innovazione. L’introduzione di brevetti e licenze d’uso mira a risolvere questo problema

52
attraverso il riconoscimento del diritto legale di proprietà sui benefici economici riconducibili a detti prodotti.
L’esigenza di creare le condizioni più favorevoli al progresso tecnologico e agli investimenti è al centro del dibattito
sulla definizione di politiche industriali volte a garantire la crescita di sistemi economici avanzati.
9.6 Struttura di mercato e innovazione di prodotto.
Il problema cruciale nello studio dei processi di innovazione è quello di valutare l’influenza che strutture di mercato
monopolistiche o concorrenziali hanno sull’attività di innovazione: obiettivo è quindi quello di definire quale contesto
competitivo offra gli incentivi maggiori alla attività di innovazione.
L’analisi classica sulla teoria dell’innovazione – Arrow 1962 – individua nella concorrenza la forma di mercato in cui gli
incentivi all’innovazione sono più forti. Se infatti l’impresa opera inizialmente in un contesto competitivo avrà un
incentivo maggiore ad introdurre una innovazione di processo che consente una riduzione dei costi rispetto ad una
impresa monopolistica.
Demsetz critica le conclusioni di Arrow. Ipotizzando un inventore esterno che applica una royalty per unità di prodotto
sia alle imprese in concorrenza che a quella in monopolio, il maggior incentivo riscontrabile nella prima forma di
mercato è determinato dalla restrizione dell’output tipica del monopolio. La differenza fra concorrenza e monopolio
scompare se si assumono imprese di uguali dimensioni, ovvero nell’ipotesi che l’impresa in concorrenza produca lo
stesso output di quella in monopolio. L’incentivo all’innovazione offerto dal monopolio è maggiore se si ipotizza che
l’inventore non è vincolato ad applicare la stessa royalty per unità di prodotto nelle due industrie.
La contrapposizione fra concorrenza e monopolio è ricomposta nella visione schumpeteriana della distruzione
creativa.
Nelle tesi di Schumpeter, infatti, prevale l’argomentazione che la grande dimensione offre di per sé incentivi maggiori
all’innovazione tecnologica: le grandi imprese hanno risorse maggiori da destinare all’attività di ricerca, una piccola
impresa ha bisogno di finanziamenti per intraprendere il progetto di sviluppo, risorse difficili da reperire se il mercato
dei capitali non funziona perfettamente. L’analisi di Schumpeter non conduce al classico trade-off concorrenza-
monopolio. Essa piuttosto implica una visione dinamica che lascia spazio nel breve periodo a forme di potere
monopolistico: l’effetto benefico della concorrenza deriva non dalla concorrenza di imprese esistenti ma, piuttosto,
dalla concorrenza potenziale che nuovi prodotti o nuovi processi possono portare nel mercato distruggendo la
posizione acquisita dal monopolista.

9.7 La differenziazione e il potere di mercato.


Nell’analizzare i diversi fattori che possono determinare la differenziazione di prodotti sono state evidenziate le
implicazioni in termini di poteri di mercato e concorrenza. Detta relazione è esemplificata attraverso la formalizzazione
di un modello di differenziazione orizzontale nel quale i prodotti, pur essendo perfetti sostituti dal punto di vista
qualitativo, si differenziano per l’elemento spaziale e la localizzazione geografica dell’offerta rispetto al luogo di
domanda e consumo.
La situazione rappresentata può essere generalizzata a tutte quelle in cui venditori e compratori sono fisicamente
separati e un costo di trasporto deve essere pagato dall’acquirente per comprare da uno specifico venditore. Nello
stesso modo può essere esteso ad includere i casi frequenti in cui due prodotti si differenziano per alcune
caratteristiche valutate in modo differente da ciascun consumatore.
Il modello di Hotelling (1929) offre una soluzione al problema sopra definito. I venditori cercheranno, in una sorta di
gioco ripetuto, di posizionarsi l’uno alla destra dell’atro al fine di sottrarre al concorrente un numero maggiore di
consumatori. Questo gioco raggiunge un punto di equilibrio quando entrambi si collocano esattamente nel punto
centrale della spiaggia.
Il problema decisionale dei due venditori può essere formulato anche come la scelta della politica di prezzo
ipotizzando che la localizzazione sia esogenamente fissata.

53
10.La diversificazione
10.1 Definizioni e misure
La diversificazione è il processo per cui un’impresa caratterizzata da un particolare tipo di attività produttiva avvia
attività economiche diverse da quelle tradizionali, pur mantenendo la sua presenza nell’ambito originale.
Un’impresa può divenire diversificata o conglomerata in diversi modi:
1. Acquisizioni di altre imprese
2. Fusioni
3. Sviluppo di nuove attività, crescita interna
Il processo può essere orizzontale se in direzione di mercati contigui a quello originale, verticale se in direzione di
attività appartenenti alla stessa filiera (monte o valle) o conglomerale se riguarda attività non connesse al core
business.
La definizione di diversificazione poggia su quella di diversità. Il concetto di mercato rilevante è flessibile, non esiste un
confine netto.
La misura della diversificazione si fonda sui concetti di attività prevalente e sul grado di diversificazione. Il criterio più
immediato per stabilire se un’attività prevale è assumere l’entità di fatturato come grado di importanza dell’attività.
Il grado di diversificazione si può misurare in due modi.
1. Census of manifactures degli USA rapporta le attività secondarie alla totale. Questa misura ha gli stessi
pregi e difetti dell’indice Cn
2. Indice HH come sommatoria dei valori elevati al quadrato delle attività dell’impresa. HH è uno se
l’impresa non è diversificata, 1/n nel caso in cui tutte le attività abbiano la medesima dimensione.
10.2 Fattori che determinano la diversificazione
Le cause che spiegano i processi di diversificazione sono:
1. Vantaggi nei costi di produzione
2. Vantaggi nei prezzi di vendita
3. Strategie di sviluppo dell’impresa
4. Aspetti finanziari
10.3 Effetti sui costi di produzione
Una delle giustificazioni che viene frequentemente proposta per le operazioni di fusione e di diversificazione è basata
sui risparmi di costi che si possono ottenere per mezzo della ripartizione di costi indivisibili su una più ampia gamma di
prodotti. ---> Si basa quindi sulla ripartizione dei costi indivisibili, ma non va confusa con l’economia di scala.
Il fattore indivisibile può essere anche intangibile come la marca o la reputazione.
10.4 Effetti sui prezzi di vendita
Mediante la diversificazione è possibile segmentare la domanda del mercato e quindi sfruttare le differenti elasticità
dei segmenti della curva di domanda con prezzi diversi.
I vantaggi potrebbero dipendere dall’uso di due tecniche di vendita: tying sales (o full line forcing) e bundling sales.

54
Tying sales---> si ha quando un venditore condiziona la vendita di un prodotto all’acquisto contemporaneo di un altro.
Tale pratica è vietata dalla legislazione antitrust. Vengono danneggiati i concorrenti minori che si vedono sottrarre una
parte della domanda potenziale non potendo contrapporre un’offerta differenziata.
Bundling sales--> La tecnica bundling sales consiste nell’offrire un certo numero di prodotti diversi ad un unico prezzo.
Mira a trasferire una parte della rendita che si formerebbe per i consumatori.
La diversificazione sotto il profilo delle condotte di prezzo può consentire i sussidi intra gruppo (deep pocket) o
l’estensione di una posizione dominante da un settore all’altro.
10.5 Strategie di sviluppo dell’impresa
Uno dei tipici motivi che spinge a diversificare è la situazione in cui la generazione di risorse prodotte dall’attività
tradizionale supera le esigenze dell’impresa per mantenere la propria competitività nel settore di origine.
Assumendo che la domanda segua quella marrisiana ovvero passi fasi di: introduzione, crescita, maturità e declino e
che la quota di mercato sia indice di potere di mercato e di profittabilità, si può costruire una matrice definita BCG
(boston consulting group). L’asse delle ascisse indica le quote di mercato e quello delle ordinate indica il tasso di
crescita delle vendite di quel determinato prodotto.
Scomponendo la matrice si ottengono quattro quadranti:
1. Cash cows sono i prodotti che hanno una buona profittabilità e bassi tassi di crescita. La generazione di
risorse supera esigenze di crescita.
2. I prodotti star sono quelli a maggiore redditività e crescita.
3. I question mark sono quelli su cui puntare per lo sviluppo. Bassa quota di mercato e alto tasso di
crescita.
4. I dogs vanno eliminati. Bassa profittabilità e basso tasso di crescita del mercato.
10.6 Profili finanziari
Sotto il profilo finanziario la diversificazione solleva dei problemi:
1. Il valore del capitale economico (capitalizzazione) espresso dalle quotazioni delle azioni nel medio-lungo
periodo.
2. Il costo del capitale di rischio (ke) ovvero il rendimento richiesto dal mercato per le azioni di una
particolare impresa
3. La crescita, la stabilità del gruppo, e l’adeguatezza delle risorse finanziarie
Il primo e il secondo aspetto possono essere considerati simultaneamente poiché il valore delle azioni è il rapporto fra
risultato atteso e saggio di rendimento richiesto dal mercato che, fatto salvo il fattore fiscale, coincide con il costo del
capitale proprio di un’impresa.
Per risultato atteso si intende l’insieme dei risultati che possono determinarsi con una determinata probabilità (la
somma delle quali è uno). (Per comodità si assume che la distribuzione probabilistica dei risultati sia di tipo normale.)
• La media è il risultato più probabile. Si calcola come sommatoria dei risultati attesi per le loro rispettive probabilità.
• La deviazione standard indica la dispersione intorno alla media. Si calcola come radice quadrata della varianza.
Questa indica il rischio connesso ad una specifica impresa.
La teoria finanziaria assume che il mercato sia in prevalenza costituito da operatori avversi al rischio, a parità di
rendimento atteso quindi, preferiscono l’attività meno rischiosa. Di conseguenza, il costo del capitale per le imprese
caratterizzate da sigma maggiore risulterà più alto.

55
Un obiettivo del processo di diversificazione può consistere nel compensare il fattore di rischio di un’industria con
quello di un’altra così da ottenere una covarianza minore alla varianza delle singole attività. Diminuito il
rischio complessivo dell’impresa, dovrebbe diminuire il costo del capitale proprio e aumentare il valore delle azioni.
In realtà i mercati azionari dimostrano di non apprezzare che un’impresa ne sostituisca le funzioni per la
diversificazione del rischio. Questa è la ragione per cui il valore di mercato di un’impresa conglomerale è inferiore al
valore delle singole attività.
La diversificazione può concorrere all’obiettivo della stabilità dell’impresa, attraverso il fenomeno della covarianza,
ma ciò avviene ad un costo rappresentato dal maggior rendimento richiesto dal mercato.
Sfruttando questa circostanza vi fu negli anni 80 una corsa alle scalate (take overs) delle imprese conglomerali, le cui
attività venivano poi vendute separatamente (spin off) lucrando la differenza di valore.
Le motivazioni della diversificazione possono risiedere nel fatto che il management si prefigga obiettivi di crescita
superiori a quelli effettivamente possibili nel settore di operatività tradizionale. Questo se i mezzi sono risorse proprie.
Ma il ritmo di crescita del valore della produzione e dei profitti può essere aumentato anche con il ricorso
all’indebitamento e alle piramidi societarie.
L’uso dei moltiplicatori societari e finanziari si regge sulla circostanza che il rendimento delle attività reali si mantenga
al di sopra del saggio di interesse.
Sono condizioni abbastanza realistiche sotto l’ipotesi di un’economia reale in forte crescita e a bassi tassi di interesse.
Ma mutate le circostanze, possono rivelarsi micidiali per la stabilità e la sopravvivenza dei gruppi che le hanno
adottate.

11.L’integrazione verticale
11.1 Definizioni e misure
L’integrazione verticale può essere definita secondo due prospettive:
• La prospettiva structure-conduct-performance: l’integrazione verticale è uno degli elementi della struttura
industriale e indica la misura in cui una singola impresa realizza al suo interno fasi successive di produzione di un
prodotto.
• Prospettiva strategica: è la strategia di un’impresa che decide di muoversi verso un’altra fase del processo
produttivo o distributivo, sia attraverso la fusione o acquisizione che avviando nuove attività.
L’integrazione può anche essere considerata un caso specifico di diversificazione che avviene nell’ambito di un unico
processo produttivo.
Un’impresa è specializzata se svolge una singola fase del processo produttivo. Ad esempio, le imprese appartenenti ai
distretti industriali.
L’integrazione verticale ha una dimensione quantitativa e può riguardare tutte o alcune fasi della filiera produttiva.
Adelman (1958), ha suggerito il rapporto tra la sommatoria del valore aggiunto e la sommatoria delle vendite.
Quanto più l’impresa è integrata tanto più è alto il valore dell’indice che nel caso limite di completa integrazione è 1.
Questa misura presenta delle limitazioni. L’indice fornisce differenti risultati a seconda dello stadio in corrispondenza
del quale viene misurata l’integrazione. Esso è più un indicatore dello stadio di produzione o distribuzione che della
concentrazione, e non può essere utilizzato per confrontare l’integrazione tra imprese in diversi stadi di produzione.
Quindi riflette più la direzione che il livello di concentrazione e non tiene sufficientemente conto il numero degli stadi
integrati.

56
La misura sarà più elevata per le imprese ad alto valore aggiunto o profitti elevati. Oltre a ciò, anche le fluttuazioni dei
prezzi e dei costi avranno effetti divergenti sul numeratore e denominatore del rapporto.
Un’altra famiglia di indici è quella che utilizza le tavole di input-output, dalle quali si può desumere quanto un’impresa
dipenda dal mercato. I limiti delle misure dipendono tutti dal grado di aggregazione geografica e settoriale delle
matrici intersettoriali. Se gli indici sono espressi in termini monetari, i prezzi di trasferimento tra le imprese possono
divergere dai prezzi di mercato, generando incertezze.
11.2 Cause e obiettivi dei processi di verticalizzazione
L’integrazione verticale si verifica per le stesse cause per le quali esistono le imprese. In una prospettiva statica che
non considera cambiamento economico, tecnologico e istituzionale, si individuano tre determinanti:
1. Vincoli o economie tecnologiche
2. Economie di transazione
3. Imperfezioni di mercato
In una prospettiva dinamica, si distinguono due filoni: il primo, che si ricollega agli intenti strategici delle imprese,
considera le scelte in materia di integrazione come modalità per acquisire potere di mercato, il secondo, di natura
evolutiva, si concentra sugli aspetti dinamici dell’integrazione e sulle competenze e varietà di comportamenti delle
imprese.
---> Fattori tecnologici
Alcuni processi produttivi sono caratterizzati da forti interdipendenze tecnologiche. Un esempio è l’industria del ferro
con quella dell’acciaio.--> I costi di trattamento e di fusione sono ridotti se il processo è continuo.
L’integrazione potrebbe evitare la ripetizione di operazioni e ridurre i costi di una serie di materiali ausiliari per la
conservazione e il trasporto.
Queste sono economie di tipo tecnologico.
Le economie di tipo termico presentano fattori di interdipendenza o complementarietà tecnologica. Anche la
macerazione e produzione della carta, le industrie di processo.
Il patrimonio tecnologico di un’impresa si presta ad essere applicato a campi diversi da quelli in cui si è
originariamente sviluppato. L’impresa ha interesse a sfruttare tale patrimonio soprattutto nei settori continui a monte
o a valle della sua attività.
Le complementarietà tecnologiche hanno natura statica o dinamica. Nel caso di settori caratterizzati da conoscenza
stabile, con un tasso di innovazione contenuto e apprendimento lento, le conoscenze sono spesso codificate in
brevetti.
Nel caso di settori caratterizzati da forte dinamismo, le conoscenze che sono incorporate nelle routine organizzative,
rende non disponibili o difficili da coordinare sul mercato le diverse conoscenze richieste, spingendo quindi
all’integrazione verticale.
Quando un settore è a forte dinamismo tecnologico e le imprese governano rapidi processi innovativi, si può rendere
necessario coordinare e integrare conoscenze e competenze tra loro diverse.
---> Economie di transazione, la teoria di Coase e Williamson
La teoria dei costi di transizione, così come le altre teorie istituzionali si pongono il problema dei confini dell’impresa,
e quindi dell’integrazione verticale.
Ronald Coase operò una distinzione tra il coordinamento del mercato e il coordinamento imprenditoriale. Ad
entrambi si associano dei costi, rispettivamente di transazione (o di uso del mercato) e di organizzazione.
I costi di transazione sono quelli sostenuti per acquisire e trattare l’informazione, i costi per la negoziazione.

57
I costi organizzativi sono generati da rendimenti decrescenti della funzione organizzativa e la crescente probabilità di
errori nella gestione al crescere della dimensione.
L’impresa nasce per economizzare sui costi di transazione quando:
1. L’utilizzo del meccanismo dei prezzi risulta troppo oneroso e diventa conveniente internalizzare le
transazioni (caso di fallimento di mercato)
2. Il ricorso a una molteplicità di contratti completi comporta costi di negoziazione più elevati di quelli
connessi ad un contratto incompleto
L’impresa intraprenderà delle nuove attività fino al punto in cui i costi di coordinamento interno dell’ultima attività
internalizzata uguagliano i costi di coordinamento del mercato. Questo è il grado di equilibrio dell’integrazione
verticale (in condizioni concorrenziali).
Questo approccio fu ripreso da Williamson che formulò l’ipotesi che gli attori economici agiscano in condizioni di
razionalità limitata (Simon>> limitata capacità umana di prevedere e risolvere problemi complessi) e
opportunisticamente, ossia traendo profitto dalle opportunità vantaggiose che si presentano.
Le conclusioni di Williamson sono che, l’organizzazione interna consente di economizzare sui costi connessi alla
razionalità limitata (fattore umano) in tutti quei casi in cui il sistema dei prezzi non offre un’informazione sufficiente e
l’incertezza (condizione ambientale) è sostanziale.
L’organizzazione interna consente di economizzare sui costi legati all’opportunismo dei contraenti e dal fatto che via
via che un contratto viene rinnovato, diminuisce il numero delle parti che effettivamente vi partecipano.
Le situazioni che inducono all’integrazione verticale:
1. Specificità dei beni capitali (asset specifity). Un bene capitale è specifico quando viene realizzato su
misura per uno o alcuni acquirenti particolari e non potrebbe essere utilizzato per servire il ciclo
produttivo di un altro acquirente. Il fornitore dipende completamente dal suo acquirente. Se fallisce
quest’ultimo fallisce anche il fornitore. In questi casi, è conveniente ricorrere all’integrazione. La
specificità può riguardare anche il capitale umano e può spiegare la maggiore preferenza per i contratti
di lavoro piuttosto che di consulenza. La specificità di una risorsa va valutata anche con ricorso alla
frequenza delle transazioni (numero di scambi in cui viene effettuata la transazione). Si distinguono
transazioni occasionali e ricorrenti. In generale, all’aumentare di risorse umane e materiali richieste da
un certo investimento, aumentano i costi di transazione, mentre tendono a diminuire con l’aumentare
della frequenza delle transazioni. Si farà ricorso all’integrazione in caso di elevata specificità delle risorse
e di transazioni ricorrenti (beni di consumo).
2. Incertezza. Il ricorso al mercato è caratterizzato da numerosi fattori di incertezza e rischio come ritardi o
interruzioni delle consegne, mancato rispetto dei termini ecc. Per ripararsi da questi rischi, le imprese
aumentano il livello di scorte, questo può portare ad un aumento delle immobilizzazioni in grado di
pregiudicare l’equilibrio finanziario dell’impresa. L’integrazione con i propri produttori di materie prime
permette di contenere il livello delle scorte, minore è infatti il rischio di ritardi o interruzione consegne e
quindi minori sono i costi di produzione. Questi casi sono frequenti soprattutto nei settori che operano
nel mercato delle materie prime (commodities) scambiate sui mercati internazionali soggette a rilevanti
fluttuazioni nei prezzi e quantità immesse. I rischi di fornitura sono legati anche alla qualità, al rischio di
prodotti difettosi o non conformi a degli standard di qualità.
3. Compressione o blocco informativo (information impactedness ). Può essere difficile stipulare un
contratto che dia all’impresa fornitrice incentivi per raccogliere le informazioni. Se viene pagata una
quota fissa per il reperimento di informazioni, l’acquirente non è protetto dal rischio che il fornitore dia
informazioni incomplete. Quindi possono sorgere controversie sui pagamenti.

58
4. Coordinamento estensivo. L’integrazione facilita un coordinamento ampio, come accade nelle industrie
dotate di reti (ferrovie, compagnie aeree). Una ferrovia ha una domanda di traffico sulla linea principale
che dipende dallo sviluppo di traffico su quelle secondarie. Le società ferroviarie hanno un incentivo a
fondersi (Carlton e Klamer, 1983).
1. Anche nell’industria elettrica, l’integrazione è giustificata co la complessità di coordinamento.
La teoria di Williamson si distacca dall’approccio struttura condotta performance in quanto studia l’organizzazione
interna dell’impresa (anziché assumere a priori che il comportamento dell’impresa persegue la massimizzazione del
profitto) e descrive l’ambiente in cui questa opera in termini di distribuzione dei costi di transazione anziché in termini
di struttura di mercato.
--->Imperfezioni dei mercati
Le imperfezioni dei mercati comprendono tutti quei casi in cui i beni vengono venduti a prezzi non competitivi o non
vengono prodotti affatto (incompletezza dei mercati). Per alcuni prodotti di recente introduzione i mercati a monte o i
canali di distribuzione non sono abbastanza sviluppati e possono portare a prezzi molto elevati.
La minaccia di sostituirsi al fornitore o al distributore può essere un efficace mezzo per spingerli ad offrire condizioni
migliori. Situazioni di prezzi non competitivi si possono sviluppare non solo come risultato di situazioni monopolistiche
ma anche in risposta a fluttuazioni dei prezzi e a incertezza.
In un mercato concorrenziale non esistono a priori incentivi all’integrazione in quanto tutti fattori produttivi e gli
output possono essere acquisiti ai prezzi liberamente determinati dal mercato. Diversi autori hanno ipotizzato
l’esistenza di incertezza nei mercati concorrenziali.
Arrow (1975) discute il caso di asimmetrie di informazione tra produttori a monte e a valle che generano un incentivo
all’integrazione. Le imprese a valle hanno informazioni limitate sul prezzo delle materie prime e questo limita la loro
capacità di prendere decisioni efficienti sulle proporzioni da usare nei loro processi produttivi.
Carlton presenta un modello valido per quei mercati in cui il prezzo non è il solo strumento utilizzato per allocare i beni
e sono possibili fenomeni di razionamento della domanda. Quando il razionamento è possibile, si crea incentivo a
integrare per aumentare la probabilità di avere per tempo il prodotto. L’impresa potrebbe produrre i propri input per
soddisfare il livello prevedibile di domanda e far affidamento sui fornitori per la parte di domanda meno stabile.
Tuttavia, i fornitori quando la domanda non attesa cresce potrebbero aumentare i prezzi, quindi c’è incentivo ad
integrarsi.
---> Motivazioni strategiche e restrizioni della concorrenza
Gli incentivi monopolistici all’integrazione verticale hanno rappresentato un’area di intensa e recente attività di
ricerca. Già Bain segnalava tra il 1956 e 59 che l’integrazione è interpretabile in termini di barriera all’entrata.
Infatti, ottiene il risultato immediato di eliminare uno o più concorrenti potenziali per i mercati nei quali già si operi e
aumenta i requisiti in termini di fabbisogno di capitale iniziale per i potenziali entranti.
A volte viene realizzata per aggirare normative di regolamentazione e antitrust o per evitare controlli sui prezzi e le
tasse.
Le restrizioni verticali sono accordi sanzionati da contratti tra produttori e distributori o tra produttori e fornitori volti
a ottenere gli stessi effetti dell’integrazione verticale ma tra imprese che preservano la loro indipendenza giuridica e
strategica.
Le restrizioni verticali sono oggetto di attenzione da parte dell’antitrust nei mercati in cui esiste potere di mercato.
Possono portare all’aumento del potere di mercato delle imprese che vi ricorrono. Queste, assieme al prezzo imposto
o alle clausole di esclusiva possono essere usate come strumento di collusione oppure come uno strumento per
escludere i rivali dal mercato.

59
Le restrizioni verticali più diffuse sono il franchising, le vendite collegate o abbinate, i prezzi imposti e gli accordi di
esclusiva.
Negli accordi di franchising, il produttore vende i diritti di esclusiva, ossia il diritto a vendere il prodotto, al distributore
dietro pagamento di un canone di concessione. Oggetto del contratto sono una o più licenze di diritti di proprietà
intellettuale, assistenza tecnica e commerciale. Permettono al franchisior di sfruttare e difendere la propria
reputazione.
Il prezzo imposto è la pratica in base alla quale il produttore impone un prezzo minimo ai rivenditori. Questo crea nei
rivenditori l’incentivo a far perno su variabili diverse dal prezzo. Se il prezzo lascia un margine al rivenditore questo
può essere utilizzato per impedire la competizione a valle quando questa distruggerebbe l’incentivo dei venditori a
investire in promozioni e servizi per incrementare la domanda. Questo è considerato illegale, mentre sono ammessi i
prezzi consigliati.
Gli accordi per le vendite in esclusiva nascono dall’esigenza dei produttori di evitare che dai propri investimenti
traggano beneficio i rivenditori, se questi vendono anche prodotti dei concorrenti. Tuttavia, queste clausole possono
anche causare l’uscita dei concorrenti dal mercato e, per questo, sono perseguite.
La pratica delle vendite abbinate copre diverse tipologie di vendita in cui due o più prodotti sono venduti
congiuntamente e non si riferisce necessariamente a prodotti collocati in fasi consecutive di uno stesso processo o
filiera. Alcuni casi di tying (mixed o pure) e bundiling sales. Il motivo che rende oggetto di attenzione da parte
dell’antitrust le vendite abbinate è che se un’impresa gode di una posizione dominante sul mercato A, con questa
pratica, potrebbe trasferire la propria posizione dominante anche sul mercato B concorrenziale.
---> Modelli dinamici
Il grado di integrazione verticale di un’industria può variare nel tempo, in funzione della fase del ciclo di vita del
settore.
Stigler (1951) sviluppa un modello di integrazione verticale in termini dinamici sulla base del teorema smithiano “la
divisione del lavoro è limitata dall’ampiezza del mercato”.
In una prima fase di crescita del settore le imprese tendono a svolgere internamente tutte le attività intermedie e
complementari connesse con la produzione dell’output finale in quanto il mercato dei prodotti intermedi è ancora
limitato. Anche se ci sono rendimenti crescenti, a un’impresa non conviene specializzarsi perché incorrerebbe in
rilevanti costi fissi che non si distribuirebbero su un output elevato.
Ipotesi: output X, input A e B. Proporzioni fisse costanti input-output e che i costi di produzione di ogni input sono
indipendenti da quelli dell’altro. Ipotizzo costo addizionale produzione di X costante=AC3. Economie di scala rilevanti
input A>>AC1. E modeste per B>>AC2. La somma verticale di queste tre curve è AC4>> costi unitari di un’impresa
integrata.
Come si vede nel modello di Stigler, la produzione di A richiede una scala molto più elevata di B per giungere
all’efficienza dei costi. Quindi la produzione richiede scale diverse per ogni input. Le attività con tali diverse relazioni
possono essere esternalizzate.
Nei primi e ultimi stadi dello sviluppo di un’industria, il mercato può essere troppo piccolo per supportare produttori di
A e di B, l’integrazione quindi sarebbe una scelta obbligata. Le economie esterne marshalliane sono poco sviluppate e
questo impedisce la divisione del lavoro tra le imprese.
Quando l’industria si espande, le imprese tenderanno a disintegrarsi specializzandosi nella loro attività core e a
rivolgersi allo sviluppato mercato dei prodotti intermedi.
A mano a mano che l’industria si sviluppa e raggiunge la maturità, si sviluppano nuovi prodotti che riducono la
domanda del prodotto originale, il settore si riduce di dimensioni. Le imprese si integrano di nuovo.

60
Le conclusioni tratte da Stigler hanno trovato riscontri empirici soprattutto nel settore tessile e nell’industria
informatica. Anche il modello della concorrenza dinamica di Steindl arriva a queste conclusioni.
Williamson critica il modello di Stigler perché prende in considerazione solo i costi di produzione e non quelli di
transazione. A queste critiche si aggiungono quelle legate alla teoria evolutiva che sottolineano il limite di non
considerare l’innovazione e il cambiamento tecnologico.

PARTE IV. I casi della concorrenza. I mercati contendibili. I casi del monopolio. Il monopsonio. La
concorrenza monopolistica
12.2 I casi della concorrenza. Equilibrio di breve e lungo periodo
Il modello di concorrenza perfetta si basa su cinque ipotesi principali:
1. Struttura del mercato atomistica: le imprese operanti nel mercato sono numerosissime e,
conseguentemente, ciascuna impresa ricopre una quota di mercato così piccola che la sua condotta non
ha alcun impatto significativo sulle altre impese e sul mercato.
2. Omogeneità del prodotto: i prodotti offerti sono perfetti sostituti, il consumatore a parità di prezzo è
indifferente.
3. Informazione perfetta: trasparenza del mercato. Noti prezzi, qualità, caratteristiche.
4. Libertà di accesso e di uscita dal mercato e completa mobilità dei fattori di produzione. Le imprese
possono entrare e uscire senza sostenere costi rilevanti.
5. Price taking: ciascuna impresa considera il prezzo come dato. Se fissa un prezzo maggiore di quello di
mercato, perde l’intera quota di mercato; se lo fissa inferiore, acquista l’intera domanda a fronte di una
capacità produttiva considerata costante nel periodo di mercato.
2. Ne consegue che l’impresa considera una domanda individuale perfettamente orizzontale: lungo
questa curva il p uguaglia il ricavo marginale. Considerato che l’impresa produce una quantità che
corrisponde al punto in cui MR=MC, il prezzo è uguale al costo marginale.
Tutte queste caratteristiche richiedono una serie di condizioni corollario tra cui: la perfetta divisibilità della produzione,
l’assenza di esternalità e di costi di transazione. La prima è legata alla tecnologia della produzione; l’assenza di
esternalità garantisce che l’impresa sostenga tutti i costi associati alla sua attività di produzione e non possa passarli ad
altri operatori di mercato. La perfetta trasparenza implica che imprese e consumatori non sostengono costi di
transazione per operare e acquisire informazioni.
Il periodo di mercato (spot market) è un periodo durante il quale la quantità offerta delle imprese può essere
considerata costante. Il prezzo di mercato è ottenuto all’intersezione tra la curva di DA inclinata negativamente e
quella di OA verticale. (pagina 223)
Quando si passa ad analizzare la posizione delle imprese nel breve periodo, la curva di offerta rispecchierà per ogni
impresa la soluzione ottimale individuata nella relazione p=MC. L’equilibrio di breve periodo, in corrispondenza
dell’intersezione tra domanda e offerta, può determinare una situazione di profitto, in quanto il prezzo potrebbe
essere superiore a MC. Questa situazione è temporanea perché i profitti registrati attireranno l’ingresso di nuovi
operatori; grazie al meccanismo dell’uscita, è temporanea anche la situazione di perdita.
Nel Lungo Periodo la presenza di profitti indurrà l’ingresso di nuovi operatori che produrranno allo stesso livello di
costo degli incumbent. La curva di offerta di lungo periodo è orizzontale in corrispondenza di p=AC (livello minimo dei
costi medi totali).

12.3 Equilibrio di concorrenza e funzioni di produzione

61
Le curve di offerta del mercato sono state definite come la somma orizzontale delle curve di offerta delle singole
imprese.
• Questo è retto da un’ipotesi: che le curve di offerta dei fattori produttivi siano perfettamente elastiche, ossia se si
verifica un aumento o una diminuzione della produzione di tutte le imprese del settore, il prezzo dei fattori rimanga
invariato.
Se invece, l’espansione della produzione fa salire il prezzo dei fattori allora le curve dei costi delle singole imprese si
spostano verso l’alto e la curva di offerta di breve periodo diventa meno elastica.
Nel lungo periodo se l’aumento della produzione determina un aumento dei prezzi dei fattori, la curva di offerta, tende
a crescere e avrà pendenza positiva.
• Una seconda importante ipotesi riguarda la funzione di produzione. --> Questa deve avere rendimenti di scala
costanti. In ipotesi di prezzi dei fattori produttivi costanti, la presenza di rendimenti di scala costanti garantisce, che,
dopo il raggiungimento della dimensione ottima minima e per un lungo tratto della curva dei costi medi e marginali, le
imprese non avranno un incentivo ad aumentare la propria scala di produzione, per sfruttare economie di scala, o a
non ridurla per evitare diseconomie.
12.4 Stabilizzazione dei mercati concorrenziali. Futures e floor prices.
I mutamenti nella funzione di offerta (elasticità) introducono possibili fonti di squilibrio e instabilità nel processo
concorrenziale.
Inoltre, mutamenti nelle abitudini di consumo, possono determinare spostamenti della curva di domanda. Questi
elementi introducono elementi di instabilità nelle quantità e nei prezzi.
Si consideri il modello dinamico del teorema della ragnatela.
SS’ e DD’ sono le curve di offerta e domanda e OP0 (maggiore di quello di equilibrio) è il prezzo del periodo
precedente. La quantità offerta a quel prezzo si ricava da SS’ ma a questa quantità nella curva di domanda corrisponde
un prezzo diverso OP1. Il processo continua e convergerà all’equilibrio.
La convergenza è garantita dal fatto che la curva di offerta è più rigida di quella di domanda; l’ampiezza del movimento
di prezzo e quantità aumenta nel tempo, allontanando il sistema dall’equilibrio, nel caso in cui la domanda avesse una
pendenza maggiore di quella della offerta.
Il rischio è che per effetto di variazioni della domanda o dell’offerta le variazioni di prezzo siano tali da compromettere
la sopravvivenza del settore. In questo caso il governo interviene fissando dei floor price, così da evitare che il prezzo
scenda al di sotto del livello soglia mettendo in crisi il settore.
Una soluzione a questa instabilità è rappresentata dai futures. Un contratto future attribuisce al sottoscrittore il diritto
e l’obbligo di acquistare o vendere un determinato bene (commodity futures) o strumento finanziario (financial
futures) ad una scadenza prefissata. È un contratto standardizzato e negoziato in mercati amministrati (exchange) per
effetto del quale alla scadenza le quantità vendute/acquistate vengono acquisite/consegnate dall’operatore del
mercato a prezzo prefissato. I futures offrono una protezione assicurativa (hedging) da indesiderate variazioni di
prezzo.
12.5 I mercati contendibili
Il meccanismo dell’entrata e dell’uscita funziona in assenza di costi di ingresso e uscita (sunk cost) e nell’ipotesi che
tutti gli operatori, anche i potenziali, possono avere liberamente accesso al mercato delle materie prime: mercati
perfettamente contendibili (Baumol, Panzar e Willing 1982). In questo mercato, l’equilibrio di concorrenza perfetta è
sostenibile se nessun potenziale entrante ha la possibilità di ottenere dei profitti, ossia se p(entrante)<C(q(entrante)),
per ogni combinazione di prezzo e quantità tale che p (entrante)<=p e q (entrante)<=D(p(entrante)).

62
Se il mercato presenta opportunità di profitto, un potenziale concorrente potrebbe entrare e realizzare un guadagno
prima che i prezzi cambino, e quindi uscire senza costo se le prospettive future non sono favorevoli. Il mercato è
vulnerabile ad una concorrenza hit and run.
Il meccanismo dell’entrata garantisce che anche industrie con rendimenti di scala crescenti riportino comportamenti
perfettamente competitivi: l’efficienza dei risultati di mercato è conseguenza del fatto che le imprese inefficienti
rimangano potenziali entranti.
12.6 Il monopolio (NON FARE DAL 12.6 AL 12.12)
Il modello di monopolio puro si basa sull’ipotesi che in un mercato caratterizzato da un prodotto per il quale non sia
possibile individuare prodotti sostituti, operi una sola impresa.
Un’impresa può acquisire e conservare lo status di monopolista perché detiene un vantaggio competitivo rilevante che
crea una barriera all’entrata o alla sopravvivenza dei concorrenti.
Il vantaggio acquisito può essere protetto da specifici interventi dello stato.
La motivazione al monopolio più significativa è il monopolio naturale. Un’impresa è monopolio naturale se può
produrre la quantità di mercato Q ad un costo inferiore rispetto a quello che caratterizzerebbe la produzione di k
imprese che si dividono in parti uguali la quantità.
La presenza di costi medi decrescenti e di costi marginali costanti o decrescenti in corrispondenza della quantità Q
determina la condizione di subadditività di costo.
12.7 Equilibrio monopolistico
Il monopolista stabilisce il prezzo e la quantità in modo da massimizzare il suo profitto. La curva di domanda di
mercato coincide con quella del monopolista.
O sceglie Q e vede il prezzo sulla curva di domanda o sceglie il prezzo e vede Q sulla curva di domanda.
Se sceglie Q: lo fa in corrispondenza di MR=MC. L’output è minore di quello in concorrenza e il prezzo maggiore, in
quanto applicherà un mark-up a p=MC. L’ampiezza del mark-up dipende dall’elasticità della domanda al prezzo.
Se la curva di domanda è più rigida allora il monopolista applicherà un mark-up maggiore. Questa conclusione è valida
in un modello statico, infatti, anche se nel BP è piuttosto rigida, la domanda può subire dei mutamenti nel tempo.
Perciò il monopolista potrebbe decidere di non sfruttare il tratto anelastico nel breve periodo per evitare che i
consumatori preferiscano nel lungo periodo prodotti sostituti.
Una visione dinamica del monopolista spiega perché questi applica un prezzo minore di pm per scoraggiare l’entrata di
nuovi concorrenti (prezzo limite).
12.8 Costi e benefici del monopolio
La possibilità di restringere l’output e di aumentare i prezzi determina due effetti sul benessere sociale. Il benessere
sociale è la somma del surplus del produttore e del surplus del consumatore.
Il primo effetto è redistributivo >> una parte di surplus del consumatore si trasferisce nelle mani del monopolista.
Questo è pari al profitto che riesce ad ottenere applicando il mark-up alla quantità. Il surplus del consumatore si
riduce.
Il secondo effetto è una perdita per il consumatore (non trasferita al produttore) che deve rinunciare all’acquisto del
bene. La perdita secca di benessere o deadweight loss è la perdita di surplus del consumatore non trasferita più una
perdita per il produttore per il surplus che avrebbe ottenuto se avesse prodotto più quantità al prezzo di concorrenza.
La perdita secca di benessere è stata definita sulla base della formulazione di Harberger (1954) che utilizza stime dei
parametri della curva di domanda marshalliana dei singoli settori. Bce= ½(pm-pc)*(qm-qc)

63
L’elasticità della domanda al prezzo è il parametro determinante nella definizione della perdita secca. L’effetto su di
essa non è tuttavia univocamente determinabile. Un aumento del mark-up non coincide necessariamente con un
aumento della perdita secca.
Elevati mark-up coincidono con elasticità bassa della domanda al prezzo: aumenti del prezzo non hanno impatti
rilevanti su q (e quindi sulla perdita secca) ma si traducono in ingenti trasferimenti monetari dal consumatore al
produttore.
Il metodo del calcolo della perdita secca presenta il limite di basarsi sulla curva di domanda marshalliana, l’approccio
utilizzato è quello dell’equilibrio economico particolare. --> Lungo una curva di domanda marshalliana l’utilità del
consumatore non è costante.
La definizione di una curva di domanda hicksiana, che attraverso variazioni compensative mantiene costante l’utilità
del consumatore, consentirebbe di incorporare nel confronto anche l’effetto dell’elasticità al reddito della domanda
del bene considerato.
La dimensione di equilibrio economico particolare non consente di introdurre nel calcolo della perdita secca l’effetto
che il trasferimento monetario al monopolista ha sia sulla quantità domandata di altri prodotti, e quindi sugli output di
equilibrio degli altri settori, sia sul livello di utilizzo dei fattori produttivi.
In una prospettiva di equilibrio economico generale la perdita secca dipende, non solo dall’elasticità della domanda al
prezzo, ma anche dall’elasticità al reddito e dall’elasticità incrociata con ogni altro bene.
Per Bergson (1973), il passaggio al monopolio di uno o più settori compromette il pieno utilizzo dei fattori produttivi,
se si considera costante il reddito reale dei consumatori. Solo l’ipotesi di un incremento del reddito reale dei
consumatori tale da compensare la variazione di p imposto dal monopolista, garantisce il mantenimento del pieno
impiego dei fattori produttivi.
Un contesto di equilibrio generale è preferibile per non sottostimare la perdita secca nel passaggio al monopolio.
L’analisi di Harberger si sviluppa dal lato della domanda ipotizzando che l’impresa in monopolio e quella in
concorrenza abbiano la stessa curva di costi marginali.
Tullock e Posner (1975) sostengono che la stima della perdita secca è sottostimata se non si considerano i costi
necessari all’ottenimento e mantenimento del potere monopolistico: questi assumono la forma di un eccesso di
capacità produttiva o eccessivi investimenti in pubblicità o differenziazione.
Un’altra fonte dei maggiori costi di monopolio è quella che deriva da inefficienze intrinseche al processo produttivo.
Un’impresa inefficiente che opera in concorrenza esce dal mercato perché si ipotizza operi in perdita, mentre un
monopolista inefficiente potrebbe comunque conseguire profitti.
Leibenstein definisce come x-inefficieny tutti quei fattori associabili alla mancanza di motivazione determinata
dall’assenza della pressione competitiva e del confronto con altri competitors.
I benefici del monopolio sono riconducibili alla capacità di investire nella ricerca e sviluppo di nuovi processi e prodotti
associata alle potenzialità di profitto del monopolista.
12.9 Il monopsonio
Il monopsonio (un solo compratore che si contrappone ad una pluralità di venditori) rappresenta un caso
perfettamente speculare di quello del monopolio.
Il monopsonista limita i propri acquisti alla quantità che fa coincidere il costo marginale del fattore acquistato con la
sua produttività marginale. Ma la restrizione della quantità domandata rispetto a quella che sarebbe offerta in
condizioni di mercato concorrenziale ha l’effetto di ridurre il prezzo.
L’area del sovraprofitto del monopsonista è maggiore di zero, e può essere scomposta in una parte che misura il
trasferimento di rendita fra i produttori più efficienti e il monopsonista stesso, e in un’altra che misura la perdita netta

64
di benessere sociale, che corrisponde al valore della differenza di ciò che si sarebbe prodotto nel caso di concorrenza
bilaterale e ciò che viene effettivamente prodotto.
Degli esempi sono il mercato del lavoro, le commesse pubbliche, i settori a monte di industrie fortemente concentrate.
Tuttavia, è inverosimile che il monopsonista restringa i propri consumi per ottenere un sovraprofitto, il principale
interesse del monopsonista nel lungo periodo è conservare la pluralità di fornitori. Perciò i prezzi offerti, imposti o
accettati dal monopsonista sono configurati sulla base di un mark-up positivo, essi praticano un price cap sui costi
stimati dei fornitori, che consenta a questi di restare nel mercato.
Il monopsonista tende ad intervenire sulla struttura dei propri fornitori, per massimizzare il profitto, in modo da
determinare oltre alle condizioni di prezzo che ne garantiscono la sopravvivenza, anche prezzi di fornitura più
contenuti.
12.10 La concorrenza monopolistica
Il modello di concorrenza monopolistica abbandona l’ipotesi di prodotti omogenei della concorrenza perfetta.
Le ipotesi del modello di Chamberlin sono:
- Nel mercato ci sono molti produttori e il prodotto di ciascuno di essi, per quanto differenziato, sia un
sostituto sufficientemente buono di quello degli altri
- Il numero delle imprese sia sufficientemente elevato da generare in ciascuna impresa l’aspettativa che le
proprie azioni sfuggano ai concorrenti
- La curva di domanda e le funzioni di costo siano le stesse per ogni impresa
Si ritiene che il settore del commercio al minuto abbia molte caratteristiche di questo modello.
Il prodotto può essere caratterizzato da differenziazione spaziale, per caratteristiche intrinseche. La diminuzione di
prezzo da parte di un’impresa non necessariamente sottrae quote di mercato delle altre.
Per aumentare le vendite ha come leve: prezzo, caratteristiche prodotto, pubblicità, promozioni.
12.11 Equilibrio nella concorrenza monopolistica
La non omogeneità dei prodotti implica che la curva di domanda della singola impresa non sia perfettamente
orizzontale. La singola impresa è in qualche modo price maker e adotta le proprie decisioni di prezzo e quantità lungo
questa curva di domanda residuale negativamente inclinata.
Per massimizzare il profitto MR=MC. Inizialmente un’impresa pratica un prezzo p0>p1.Se un’impresa riduce il prezzo,
in corrispondenza di p1 che massimizza il profitto (MR=MC), tutte le altre lo troveranno vantaggioso e abbasseranno il
prezzo. Ne consegue, che l’impresa dopo aver abbassato il prezzo, si confronterà con una curva di domanda residuale
meno elastica di quella ex ante.
Questo processo continua iterativamente finchè l’impresa singola non avrà più incentivo a cambiare il prezzo.
L’equilibrio di breve periodo si raggiunge quando dd (curva di domanda ex ante) e DD (curva di domanda sotto l’ipotesi
che le altre imprese reagiscono anch’esse abbassando il prezzo, meno elastica) si intersecano in corrispondenza della
quantità che assicura MR=MC.
Nel lungo periodo i profitti degli incumbent attireranno nuovi concorrenti. Questo processo abbassa le curve di
domanda. L’equilibrio di lungo periodo si raggiunge quando tutte le imprese conseguono un profitto nullo. Il punto di
equilibrio non coincide per forza con il punto di minimo del costo medio come in concorrenza perfetta. I profitti sono
nulli ma non necessariamente c’è efficienza produttiva. La distanza tra i due modelli dipende dal grado di
differenziazione che determina la pendenza della curva di domanda (più piatta se i prodotti sono più omogenei).

65
A differenza che in concorrenza perfetta, potrebbe esservi capacità in eccesso, questo margine è dato dalla differenza
tra la produzione ideale e la quantità prodotta nel lungo periodo. L’inefficienza è uno svantaggio ma il vantaggio è
avere sul mercato dei prodotti vari.
12.12 Critiche al modello di Chamberlin
Le ipotesi alla base del modello della concorrenza monopolistica sono state criticate.
Stigler critica il concetto di gruppo di imprese con uguali curve di domanda e di costo. Questo può accadere solo se i
prodotti sono omogenei.
Harrod sottolinea che il processo per arrivare all’equilibrio di lungo periodo utilizza la curva di costo marginale di lungo
periodo e di ricavo marginale di breve periodo. --> Questo nel modello porta a fissare un prezzo maggiore che induce
l’entrata di nuovi concorrenti spostando domanda e ricavo marginale verso il basso.
Harrod non è d’accordo, cerca di dimostrare che la capacità inutilizzata è minore di quella teorizzata da Chamberlin.

13.Le politiche di prezzo. Tecniche e strategie delle imprese “price maker”


13.1 La formazione dei prezzi
I prodotti e i relativi mercati possono essere distinti in due categorie:
• le commodities, ovvero merci poco o non differenziate,
• products o customs, ovvero i prodotti per i quali la differenziazione assume un ruolo importante.
La prima categoria è costituita da prodotti naturali, o prodotti della trasformazione industriale. In queste tipologie di
prodotti l’equilibrio è assicurato dalle variazioni di prezzo che fanno si che Offerta =Domanda.
Nel caso di products, invece, è necessario distinguere le imprese price-maker ma quelle price-taker. Mentre per le
price-taker le decisioni da prendere riguardano solamente la quantità, per le price-maker si pone il problema di come
fissare il prezzo di vendita.
Hall e Hitch dimostrano che gli imprenditori e i dirigenti in azienda hanno scarsa o nessuna familiarità con i concetti di
costo e ricavo marginale. Il metodo più utilizzato nella prassi è il full cost pricing.
il full cost pricing consiste nel rilevare i costi di produzione imputabili al prodotto e aggiungere a questi un margine di
ricarico o mark-up sufficiente a coprire i costi non direttamente attribuibili al prodotto e a far conseguire un margine di
profitto normale. Empiricamente trovano un valore in media al 10% del valore delle vendite.
La tecnica del full cost pricing può essere applicata con una serie di variazioni:
1. Gross margin: si riscontra prevalentemente nel commercio. Consiste nell’applicare il mark-up ad un solo
costo di produzione
2. Roi pricing: in questo caso l’obiettivo è, al posto di un margine di profitto sul valore della produzione, da
un dato rendimento sul capitale investito (ROI)
3. Flexible mark-up: il margine di ricarico può essere considerato alla stregua di un’indicazione, in base alla
quale si procede alla definizione del prezzo considerando le reazioni dei concorrenti
4. Direct costing: raccomandato dagli aziendalisti, utile nelle aziende multiprodotto. Ci si limita a calcolare
il costo diretto di produzione.
Esse sono le modalità effettive secondo le quali le imprese “price-maker” procedono nel definire i prezzi dei prodotti;
queste tecniche non sono in contrasto però con la teoria microeconomica della fissazione del prezzo.
Full cost pricing: p = v+k

66
dove v sono I costi variabili diretti e k è la quota di imputazione dei costi indiretti fissi e del margine di profitto
desiderato.
k = K/q
dove K è il totale dei costi da ripartire e q rappresenta la quantità prodotta.
Dato che q = f(p) allora in qualche modo occorre immaginare una curva di domanda, ovvero una relazione tra
quantità prodotta e prezzo.
Applicando il concetto di margine normale, si anticipano le reazioni del mercato e dei propri concorrenti
incorporandole nelle proprie decisioni di prezzo. Nella prassi la formazione del prezzo rappresenta il punto terminale
di un procedimento che si svolge per tentativi o successive approssimazioni.
13.2 Gli obiettivi delle politiche di prezzo
L’obiettivo della formazione del prezzo è la massimizzazione dei profitti (MR = MC). --> Hall e Hitch invece sostengono
che le imprese fissino il prezzo applicando un mark up al costo di produzione. Gli imprenditori sono quindi più orientati
a formare i prezzi con l’obiettivo di conseguire un profitto “normale”, cioè adeguato a remunerare il capitale
impiegato, tenuto conto dei rischi dell’impresa. Questa apparente contraddizione fra la massimizzazione dell’utilità
individuale e ciò che si manifesta nel mondo reale può essere spiegata dai differenti orizzonti temporali presi in
considerazione rispettivamente dalla “Teoria del prezzo” e dagli “imprenditori reali”.
• Mentre nel primo caso, l’orizzonte è istantaneo, nel secondo ciò che si tende a massimizzare è il valore dell’impresa,
che risulta dal flusso attualizzato dei profitti futuri.
• Se l’orizzonte è prolungato la fissazione del prezzo deve tener conto anche: della sostituibilità nel breve periodo, del
prezzo delle merci sostituibili, della sostituibilità di lungo periodo, dell’entrata di nuovi competitors, delle reazioni degli
incumbent.
In questo senso va interpretato l’aggettivo “normale”, riferito al margine di profitto e non a una autolimitazione
praticata dall’imprenditore sui propri profitti.
13.3 Obiettivi di specifiche politiche di prezzo
Per le imprese che sono price-maker le politiche di prezzo possono ispirarsi anche ad obiettivi diversi dalla costituzione
di un profitto normale o massimo istantaneo. In particolare:
----> Vintage pricing: Consiste nel praticare prezzi che consentano di recuperare nel più breve tempo possibile il
capitale impiegato per lo sviluppo del prodotto. Quello che consente di avere un basso payback period.
I
PBP=
( p−c )∗q
Dove I è l’investimento iniziale, e rispettivamente p e c sono i prezzi e i costi variabili. q indica le quantità vendute.
La logica che sostiene questa politica dei prezzi è quella di cautelarsi contro il rischio dell’ingresso di nuovi competitori,
che abbatterebbe i prezzi, prima che si recuperi l’investimento iniziale.
---> prezzi di penetrazione: a logica opposta si ispira tale politica dei prezzi; I prezzi di penetrazione risultano inferiori a
quelli di equilibrio allo scopo di facilitare la diffusione del consumo di un prodotto, salvo, in un secondo momento
quando i consumi sono stabili, rialzare i prezzi fino ad un livello ottimale. Questa politica viene utilizzata quando il
prodotto è destinato a scalzarne un altro la cui abitudine di consumo è già radicata, e quando la proporzione di costi
fissi su quelli totali è elevata e sono rilevanti le economie di scala. Un prezzo di penetrazione si trova nell’intervallo tra
costi marginali e costi medi, al di sotto dei quali si trova la politica dei prezzi predatori.
----> prezzi predatori : Si trovano al di sotto dei costi medi ed hanno come scopo la restrizione del numero dei
concorrenti per poi sfruttare la posizione dominante che si raggiunge ex post.

67
La ratio delle politiche predatorie consiste nel ritenere che la rendita monopolistica che conseguirebbe all’eliminazione
dei concorrenti sia superiore alle perdite sopportate durante la fase di predazione per mantenere i prezzi al di sotto
dei costi di produzione. Sono vietate dall’antitrust.
Secondo la regola di Areeda e Turner, la prova di politiche predatorie consisterebbe nell’osservare prezzi stabilmente
al di sotto dei costi marginali variabili di produzione.
---> prezzi limite : Consistono nel fissare un prezzo e una corrispondente quantità in modo che la domanda residuale
per le imprese sia uguale a zero. Ciò può verificarsi sia per vantaggi assoluti nei costi sia per effetto del postulato di
Sylos
---> prezzi discriminatori : La pratica dei prezzi discriminatori si fonda sull’esistenza di diversi valori di elasticità nelle
curve di domanda individuali o di gruppi di consumatori la cui somma costituisce la domanda di mercato.
La discriminazione può essere temporale quando i prezzi tendono a sottrarre la maggiore quota possibile di rendita al
consumatore, praticando prezzi decrescenti al crescere del mercato; oppure spaziale quando i prezzi vengono
discriminati per area geografica; per categoria di clienti o di utenti.
Un esempio molto chiaro di discriminazione temporale è rappresentato dal “mercato delle pellicole
cinematografiche”. In questo caso il mercato è segmentato in tre settori che vengono utilizzati in successione: le sale di
proiezione, il mercato dei Dvd e la vendita di canali televisivi commerciali. Separando temporalmente i tre segmenti
risulta possibile per le case di produzione cinematografiche ottenere un volume di entrate che è nettamente superiore
a quello che si realizzerebbe se i mercati non fossero tenuti rigidamente distinti.
Oltre alle politiche di prezzi differenziati nello spazio e nel tempo, vi sono le politiche dei prezzi che fanno leva sulla
diversa forza contrattuale delle categorie della clientela, e sul diverso grado di informazione dei clienti.
Un esempio potrebbe essere quello di un “gestore di servizi telefonici”, che distingue fra una tariffa fissa (es
abbonamento annuale) e una variabile proporzionale al traffico, introducendo così, una discriminazione a sfavore degli
utenti più piccoli, e a favore degli utenti maggiori. Il costo fissi è uguale per tutti ma l’incidenza del costo fisso sul totale
dei costi per gli utenti decresce al crescere del volume del traffico.
13.4 Vendite connesse (bundling) e vendite trainate (tying)
Accade spesso che un’impresa subordini la vendita di un bene alla condizione che il consumatore acquisti
contemporaneamente un altro servizio o prodotto. --> bundling puro
Es. la pratica degli editori di abbinare alla vendita dei quotidiani una rivista collegata
In altri casi, il venditore offre un’alternativa tra acquistare separatamente singoli beni ed acquistarli insieme ad un
prezzo scontato. --> bundling misto
Es. la formula giornale + DVD, ma qui il cliente può scegliere
I casi di bundling sales ( o vendite connesse) sono molto diffuse e spesso considerati una necessità di mercato,
piuttosto che un’opzione di marketing.
Es. la vendita di un’automobile. Il cliente acquista un insieme di beni costituito da ruote, componenti meccanici ecc.:
ciascun bene potrebbe anche avere una domanda di mercato autonoma, indipendentemente dalla combinazione, ma
il venditore sceglie di offrire al mercato il prodotto costituito dall’insieme delle singole parti.
Una tipologia differente, ma che condivide con il bundling il meccanismo della vendita collegata è la pratica delle
vendite trainate. Le tying sales (o vendita trainante)--> acquistando il prodotto primario definito trainante o legante, il
cliente si impegna ad acquistare dallo stesso venditore un secondo bene, definito trainato o legato. L’impegno può
avere natura contrattuale o tecnologica. L’impegno può avere natura contrattuale o tecnologica. Nelle vendite trainate
la proporzione tra beni abbinati è generalmente variabile, in quanto legata alla scelta di consumo del cliente

68
Es. “macchine fotocopiatrici” quando il produttore impone al cliente anche l’acquisto dei toner di ricambio. La quantità
del bene trainato (il toner) è variabile da consumatore a consumatore, in funzione dell’intensità d’uso del prodotto
trainante (fotocopiatrice).
Queste strategie (bundling a proporzioni fisse, e tying a proporzioni variabili) possono essere realizzate attraverso
vincoli contrattuali, ovvero mediante l’integrazione tecnologica dei beni abbinati. L’integrazione tecnologica dei beni
abbinati costituisce una forma di connessione più forte, in quanto vincola le scelte del venditore oltre quelle
dell’acquirente.

Le motivazioni legate all’efficienza --> In alcune circostanze l’offerta di beni o servizi in abbinamento è motivata dal
contenimento dei costi o dal miglioramento della qualità offerta.
Per Hylton e Salington, bundling e tying sales possono avere effetti socialmente desiderabili. Assemblare singoli
componenti potrebbe essere più oneroso e complicato per il cliente e per il produttore, considerati i vantaggi derivanti
da specializzazione e economie di scala.
Il risparmio di costo può riguardare anche il produttore o venditore quando le pratiche in esame permettono lo
sfruttamento di economie di ampiezza di gamma nella fase di produzione o distribuzione. I vantaggi sono direttamente
trasferiti al consumatore con prezzi più bassi (Evans e Salinger).
Il venditore potrebbe anche avere un’altra ragione per imporre o incentivare l’acquisto di beni in blocco, ovvero
preservare la reputazione dei propri prodotti (Posner). -->Esempio automobile di lusso e pneumatici di qualità
assicurata.
Bundling e tying sales possono costituire un efficace strumento di discriminazione e avere effetti ambigui sia positivi sia
negativi sul benessere aggregato.

Bundling e discriminazione del mercato --> offerto da Stigler (articolo del 1963) un importante contributo all’analisi
delle vendite connesse come meccanismo di discriminazione del mercato. L’economista americano osservava che
anche in assenza dei vantaggi di costo o di complementarità nel consumo, il bundling può separare i consumatori in
gruppi omogenei, consentendo al venditore di estrarre una maggior porzione della loro rendita. La condizione
necessaria affinché la discriminazione tra diverse tipologie di clientela sia efficace e profittevole è che le preferenze
relative siano inverse fra differenti gruppi di clientela. È necessario cioè che le rispettive domande siano correlate
negativamente e dunque che i consumatori con maggiore disponibilità all’acquisto di un prodotto siano meno
disponibili all’acquisto di altri prodotti correlabili. La vendita in blocco consente al venditore di forzare ciascuna
tipologia di clientela ad acquistare, insieme a quello preferito, anche i beni meno desiderati.

Effetti e convenienza del bundling come pratica discriminatoria.--> Il modello di Adams e Yellen: analisi di Stigler
appare incompleta su tre fronti:
1. Assume pochi gruppi di consumatori ben identificati nelle loro preferenze
2. Trascura i costi di produzione
3. Non include il bundling misto nel set di possibili strategie commerciali del venditore.
Adams e Yellen (1976) nel loro modello confermano le ipotesi che il venditore offra due soli beni e che ciascun
acquirente attribuisca al consumo contemporaneo di entrambi un valore pari alla somma dei singoli valori soggettivi.
La loro analisi dimostra che:

69
• Il bundling puro è preferibile alla vendita separata quando il beneficio di una maggiore estrazione della rendita dei
consumatori attivati sopravanza l’effetto negativo delle minori vendite effettuabili nei singoli mercati e quello di
indurre di indurre alcuni clienti ad acquistare beni valutati meno del loro costo (problemi dell’inclusione e
dell’elusione). Ciò si verifica tanto più le valutazioni individuali per i singoli beni sono negativamente correlate e
quanto minori sono i costi marginali di produzione e vendita degli stessi.
• Il bundling misto è preferibile a quello puro quando i costi di produzione sono elevati e\o quando le domande sono
correlate negativamente in modo imperfetto. Il vantaggio è quello di consentire una alternativa, operando quale
meccanismo di discriminazione indiretta tra diverse categorie di clienti.

Le vendite tying come meccanismo di misurazione e discriminazione--> le caratteristiche operative delle vendite
trainate permettono di misurare implicitamente la intensità d’uso individuale del bene trainante e quindi di praticare
prezzi complessivi differenziati in funzione del suo grado di utilizzo. Le pratiche tying di fatto replicano il meccanismo
operativo delle tariffe a due stadi: modulando adeguatamente la componente fissa e la componente variabile è
possibile discriminare tra consumatori in funzione della diversa intensità d’uso.
L’effetto complessivo delle pratiche di tying sul benessere aggregato è positivo quando consentono di accrescere la
domanda, stimolando l’acquisto di quanti altrimenti si sarebbero astenuti. Il bene trainante può essere venduto infatti
ad un prezzo più basso, proprio allo scopo di invogliare l’acquisto dei clienti che ne fanno un uso meno frequente.

Bundling e tying come strumenti di estensione delle posizioni dominanti. Il smpt della scuola di Chicago--->
Bundling e tying non sono solo strumenti per realizzare la discriminazione di prezzo. Un venditore in posizione
dominante in un mercato può tentare di estendere tale potere in mercati contigui o complementari.
In alternativa, può semplicemente proteggere la sua attuale posizione di forza contro gli altri concorrenti e nuovi
ingressi nel mercato. Per questi motivi queste pratiche sono oggetto di attenzione da parte dell’antitrust.
La diffidenza verso queste pratiche ha radici nella teoria della leva (leverage theory): tramite bundling o tying
un’impresa in posizione dominante può estendere il suo potere facendo leva sul potere detenuto nel primo mercato.
Anche i nuovi ingressi sono scoraggiati: nel caso del tying i nuovi entranti dovrebbero accedere ad entrambi i mercati.
Se l’ingresso richiede investimenti rischiosi allora esso è ancora meno probabile e frequente.
La teoria poggia su due condizioni essenziali, non sempre verificate nella realtà.
1. L’impresa deve essere in posizione dominante almeno su un mercato
2. Il prodotto trainato o connesso non deve avere usi alternativi, se non marginali, a quello in
combinazione con il bene principale o trainante.
A partire dagli anni 70 la teoria della leva è stata fortemente criticata dalla scuola di Chicago nell’ambito della revisione
della critica del monopolio. Questa critica è nota come teorema del profitto monopolistico unico. Secondo questo, le
pratiche sopracitate pur determinando l’estensione della posizione dominante, non si risolverebbero in alcuna
duplicazione dei profitti monopolistici, e porterebbe anche a risultati non convenienti a chi le adotta.
Se l’estensione del monopolio non determina profitti aggiuntivi (e al limite li riduce) allora la scelta del bundling
sarebbe legata solo a motivazioni di efficienza. Vietare il bundling vorrebbe dire ridurre il benessere.
Si consideri l’esempio di due beni complementari A e B. se il mercato A è servito da una sola impresa, questa
attraverso il bundling potrebbe monopolizzare anche il mercato B. si supponga che i clienti siano disposti a pagare fino
ad un massimo di pt per l’acquisto congiunto di A e B. l’impresa potrebbe valutare due strategie:
- Vendere i due beni in bundle al prezzo pt, monopolizzando anche B

70
- Vendere i beni separatamente, applicando un prezzo concorrenziale in B pb=cb. E applicando un prezzo
di monopolio in A pa=pt-cb
La seconda strategia è più conveniente della prima per l’impresa. Infatti, nel passaggio dalla prima e la seconda:
- Alcuni consumatori sceglierebbero versioni rivali di B. tuttavia, dato che pb=cb l’impresa non subisce
perdite
- Alcuni consumatori che non avrebbero acquistato B dall’impresa sono indotti a farlo quando sul mercato
sono presenti altre alternative di quel bene, con un effetto sui profitti dell’impresa. Perché le maggiori
vendite di B comportano anche maggiori vendite del bene complementare A, sul quale l’impresa
guadagna margini monopolistici.

Le conclusioni Smpt sono profondamente innovative. Quindi se l’estensione del monopolio non determina
profitti aggiuntivi, la scelta del bundling da parte del venditore sarebbe priva di logica, se la pratica non fosse
tesa a realizzare i vantaggi di efficienza descritti in precedenza. La valutazione complessiva risulta pertanto
ribaltata: vietare il bundling si risolverebbe in una riduzione di benessere, in contrasto con le finalità stesse della
politica della concorrenza.

In conclusione, estendere la posizione dominante ad ambiti complementari tramite il bundling non consente di
duplicare lo sfruttamento economico del potere di mercato. Il venditore non troverebbe alcuna convenienza, a
meno che ciò non si accompagni alla realizzazione di vantaggi di efficienza, in termini di costo e qualità.

A conclusioni analoghe si giunge anche quando i beni non sono complementari. Se le domande di A e B sono
indipendenti e il mercato B è competitivo, il monopolista non trova profittevole offrire un bundle con A.
L’impatto è tanto più significativo quanto maggiore è la preferenza dei consumatori per versioni rivali di B o comunque
quanto minore è la qualità della versione del bene B.

I contributi più recenti della teoria economica---> Il teorema del profitto ha influenzato molto le teorie successive e la
prassi antitrust degli ultimi anni.
Nella posizione di Chicago è determinante l’ipotesi di perfetta concorrenza, con l’assenza di barriere all’ingresso nel
mercato trainato o connesso. Alcuni contributi recenti invece hanno individuato dei casi in cui queste pratiche possono
restringere la concorrenza innalzando artificiali barriere all’entrata.
Una prima spiegazione è data da Whinston. L’autore si concentra sull’effetto di deterrenza all’ingresso nel caso di beni
con domanda indipendente: la vendita bundling consente di scoraggiare l’ingresso di nuovi rivali in quanto comporta
che il monopolista in A adotti politiche aggressive in B potenzialmente concorrenziale. Affinché il meccanismo di
deterrenza funzioni è necessario che l’impegno alla vendita congiunta sia credibile e non reversibile nel caso in cui
l’ingresso di concorrenti si verifichi realmente. In caso contrario il bundling sarebbe privo di valore strategico.
L’impegno è credibile quando realizzato tramite l’integrazione fisica o tecnologica, quindi realizzata dalla produzione
piuttosto che dal marketing.
Nalebuff ha dimostrato che in alcuni casi il bundling può funzionare come deterrenza all’ingresso anche in mancanza
di un impegno credibile. Ciò può accadere quando l’impresa fronteggi il rischio di ingresso non solo in B ma anche in A.
l’offerta in pacchetto fa si che in ciascun mercato la domanda sia ridotta ai soli consumatori con una più stretta
preferenza per prodotti rivali di A e B. così rendendo più improbabile l’ingresso, soprattutto se vanno sostenuti sunk
cost.
Se i beni legati sono legati da una relazione di complementarietà il contesto è diverso; finora abbiamo ipotizzato beni
che possono avere domande indipendenti.

71
Choi e Stefanidis considerano un contesto dinamico nel quale l’ingresso di nuovi concorrenti è legato al successo delle
iniziative di ricerca e sviluppo e dunque alla capacità di innovazione incrementale dei potenziali concorrenti.
Se l’impresa adotta il bundling puro di fatto obbliga i potenziali concorrenti ad accedere contemporaneamente nei due
mercati, imponendo una duplicazione di costi e di rischi per l’investimento in innovazione. Riducendo l’incentivo a
investire è meno probabile anche l’innovazione.
Carlton e Waldman descrivono un meccanismo che si basa su una strategia, detta difesa perimetrale. Un’impresa che
entri nel mercato complementare con un prodotto di una qualità superiore può decidere successivamente di entrare
anche in quello principale. Legando la vendita dei due beni, l’incumbent accresce i costi d’ingresso nei due mercati.

Bundling e tying: la disciplina negli Usa e in Europa--> Nella maggior parte dei casi queste pratiche perseguono
vantaggi di efficienza, come la riduzione di cosi o il miglioramento della qualità, piuttosto che l’esclusione di
concorrenti o l’innalzamento di barriere.
In altri casi, questa strategia serve per segmentare il mercato, e queste hanno effetti positivi sul benessere sociale.
Negli Usa bundling e tying sono oggetto della Section I dello Sherman Act (contratti o cospirazioni restrittive al
commercio) e della Section III del Clayton Act (vendite condizionate). L’evoluzione della disciplina è partita da una
condanna rigida per sé all’adesione ad una rule of reason, ancorché limitata, ai soli mercati ad alto contenuto
tecnologico.
Lo standard legale rimane a metà, da un lato aderisce al principio di illegalità per sé della giurisprudenza più datata,
dall’altro lo integra, richiedendo che l’illegalità venga dimostrata (modified per sé illegality). Questo rappresenta il
superamento dell’accettazione acritica della teoria della leva.
Per dichiarare l’illegalità, in particolare:
- I beni legati siano realmente distinti, ovvero presentino un’autonoma domanda di mercato
- Il venditore possegga un apprezzabile potere di mercato
- La connessione risulti imposta all’acquirente
- Le condotte comportino una sostanziale restrizione degli scambi
Nel caso Microsoft III è stata adottata la rule of reason. Tale standard consente di indagare l’impatto effettivo sul
benessere aggregato valutando i possibili effetti anticompetitivi e bilanciando questi con i benefici derivanti da
efficienza e effetti pro-concorrenziali.
In Europa, l’atteggiamento della commissione e delle corti verso le pratiche di bundling e tying si caratterizza per un
maggior grado di ostilità, dovuto all’influenza delle teorie più datate. In particolare, sono trattare come forme di abuso
ai sensi dell’art. 82 del Tce. In Europa, anche, la disciplina ha subito un’evoluzione.
In particolare, le condizioni per essere inquadrate come infrazioni:
- I beni combinati devono essere realmente distinti
- L’impresa detiene una posizione dominante
- Non è consentita alcuna alternativa all’acquisto abbinato
- La condotta esaminata restringe la concorrenza
Nelle decisioni fin qui adottate, nessun valore o quasi è stato attribuito a giustificazioni di natura efficientistica.

Price rebates, sconti-fedeltà--> riduzioni di prezzo accordate a fronte dell’impegno del cliente di approvvigionarsi
esclusivamente o quasi presso un’impresa in posizione dominante. Sul piano sostanziale permettono di realizzare gli

72
stessi effetti di un accordo di esclusiva. Gli sconti fidelizzanti impediscono che i clienti si riforniscano anche da
produttori concorrenti (finalità di esclusione analoghe al tying).
Anch’esse sono pratiche contrastate dall’antitrust. Se nel breve periodo il cliente ottiene un vantaggio dalla riduzione
dei prezzi, nel medio lungo è possibile un effetto di indebolimento del processo concorrenziale, conseguente alla
monopolizzazione del mercato. Nel maggio 2009 la commissione europea ha sanzionato Intel con una multa di oltre
un miliardo di euro per l’adozione.
13.5 I prezzi discriminatori
La teoria neoclassica (Pigou) tende a classificare tre diverse modalità di discriminazione, distinguendo il tipo di
informazioni sui consumatori di cui l’impresa si avvale e dispone per discriminare.
• discriminazione di I tipo--> Nel caso della discriminazione di primo tipo, i clienti hanno domande unitarie e il
venditore conosce con esattezza la disponibilità a pagare di ogni potenziale cliente: applicando a ciascuno esattamente
il suo prezzo soggettivo, il venditore riesce a prelevare l’intera rendita del consumatore. --> Questa è assai improbabile
nel mondo reale.
Le altre due tipologie comportano l’imperfetta cattura della rendita del consumatore ma sono più attinenti alla realtà.
• discriminazione di II tipo--> Nella discriminazione di secondo tipo, l’impresa possiede alcune informazioni sulle
preferenze medie dei vari consumatori, ma non è in grado di osservare le caratteristiche individuali. Può offrire un
menu di combinazioni (ad esempio prezzo-qualità) e sfruttare i meccanismi di auto selezione o di screening personale.
• discriminazione di III tipo--> Infine, il venditore potrebbe individuare alcune caratteristiche osservabili (come l’età,
l’occupazione) come segnali della relativa disponibilità a pagare ed utilizzarli per discriminare il prezzo: discriminazione
di terzo tipo.
Quelle del primo e terzo tipo sono forme non anonime, realizzate attraverso la conoscenza dell’identità del singolo
cliente, e del suo valore soggettivo (primo tipo) o quantomeno di sue caratteristiche verificabili. Si tratta di
discriminazione diretta.
Quella del secondo tipo, invece opera mediante un processo endogeno di autoselezione compiuto dal consumatore
stesso. È detta discriminazione anonima o indiretta.

14. Teoria dell’oligopolio. I comportamenti collusivi


14.1 i caratteri comuni degli oligopoli
Sotto la denominazione di oligopoli si raccolgono forme competitive assai differenziate tanto da richiedere analisi
distinte per le varie tipologie di oligopolio.
Le caratteristiche fondamentali e comuni a tutti gli oligopoli:
1. Scarsa numerosità delle imprese che operano in un particolare ambito concorrenziale. Devono essere
poche le imprese che detengono potere di mercato, che quindi hanno un erto margine di
discrezionalità. --> Tale condizione quindi va intesa nel senso che debbono essere poche le imprese che
detengono un potere di mercato nell’ambito di settore, disponendo di un certo margine di
discrezionalità nella formulazione delle proprie politiche.
2. Un ambito può definirsi oligopolistico anche se le imprese sono elevate ma solo poche si configurano
come imprese leader mentre la maggioranza opera in condizioni subordinate e subisce passivamente le
decisioni delle leader in materia di prezzi e altre variabili. Da tale caratteristica deriva che il prezzo dei
prodotti non risulta più una risultante automatica dell’equilibrio fra produzione e consumo. I prezzi
dei settori oligopolistici sono frutto di decisioni autonome delle singole imprese, ma tali decisioni non
sono totalmente arbitrarie: le condizioni di domanda e delle altre variabili influenzano o determinano le

73
decisioni delle singole imprese. I meccanismi impersonali del mercato sono sostituiti da singoli centri
decisionali, perfettamente identificabili.
3. Diversamente dal caso del monopolio, le decisioni delle singole imprese non possono limitarsi alla
conoscenza della domanda di mercato. Le imprese devono tenere conto delle reazioni delle imprese
rivali. La curva di domanda di ogni singola impresa deve considerare anche l’elasticità di sottrazione, e
cioè l’effetto di una decisione di prezzo o promozionale su variazioni di quote di mercato. Le singole
imprese non hanno una curva di domanda reale di fronte, ma questa dipende dalle ipotesi formulabili
circa il comportamento delle altre imprese (curva di domanda immaginata).
4. L’oligopolio è caratterizzato da un certo grado di incertezza. Non esistono posizioni di equilibrio
spontanee.
Queste tre caratteristiche sollevano tre ordini di problemi studiati da tre filoni di ricerca.
• Il primo, teorico, riguarda la formazione e il mantenimento dell’equilibrio oligopolistico.
• Il secondo riguarda le modalità di collusione fra gli oligopolisti.
• Il terzo concerne il comportamento delle singole imprese in seguito a variazioni dei costi e della domanda.

14.2 L’equilibrio negli oligopoli. Formulazioni teoriche


Le costruzioni teoriche, come quelle di Bain e Sylos Labini, possono essere ricondotte a due ipotesi fondamentali che
descrivono il comportamento degli oligopolisti e che prendono il nome dai due economisti che gli diedero una
formulazione.
• Ipotesi di Cournot. Egli definisce un comportamento indipendente degli oligopolisti. Posto in condizioni di incertezza,
ciascun imprenditore farà le proprie scelte assumendo semplicemente che non scateneranno reazioni da parte dei
concorrenti. Ciascuna impresa tende a massimizzare il profitto in maniera indipendente rispetto agli altri competitori.
Se il comportamento è comune a tutte, risulta agevole dimostrare che il saggio di profitto derivante da tale
comportamento, esprimibile come rapporto fra prezzo praticato ed il costo unitario di lungo periodo (PM = ( P –
MC)/P), è diretta funzione del numero delle imprese rivali. Il saggio di profitto del settore diminuisce al crescere di n,
variando da un massimo (profitto monopolistico) ad un minimo (quando le imprese sono molte numerose, settore che
opera in condizioni di concorrenza).
Una variante all’ipotesi di Cournot è costituita dal “postulato di Sylos”. Secondo quest’ultimo i competitori si
comportano come se si attendessero dai rivali la reazione più sfavorevole (peggiore), consistente nel propendere a
mantenere inalterata la propria quota di mercato nel caso di aumento della quantità offerta. -->In questo modo è
possibile trovare un limite superiore ai prezzi praticabili dagli oligopolisti, ed un limite inferiore alla produzione
complessiva offerta al mercato.
La determinazione dei punti dell’oligopolio (prezzo di esclusione, prezzo di eliminazione, saggio di profitto del settore)
lascia irrisolti alcuni nodi relativi all’assetto del settore e relativi al comportamento delle imprese che ne fanno parte.
• Ipotesi di Chamberlin. La seconda ipotesi di comportamento viene richiamata con il nome di Chamberlin, che
definisce un comportamento opposto rispetto a quello di Cournot. Le imprese che operano in un settore in numero
limitato non possono non rendersi conto che le rispettive performance sono interdipendenti. Ne segue che le imprese
fisseranno un prezzo monopolistico che massimizzi i profitti del settore, ripartendo poi fra loro le quote di mercato
secondo tattiche collusive.
14.3 Modalità e forme della collusione oligopolistica
L’obiettivo delle tattiche collusive è eliminare l’incertezza dell’oligopolio e far conseguire profitti maggiori quelli
normali. Le modalità di collusione sono le seguenti:

74
- Accordi formali e informali
- Price leadership
- Regole empiriche di decisione
- Uso di punti focali
• Accordi formali e informali: stipulazione di intese volte a limitare o impedire la competizione fra le imprese che
sottoscrivono l’accordo. Accordi possono essere ad esempio relativi a formulazione di una politica comune di prezzi
oppure alla suddivisione del mercato fra i competitori.
Gli accordi sui prezzi rappresentano la forma più blanda di collusione, dato che la definizione di un prezzo comune di
vendita non esclude che imprese possano competere fra loro, differenziando il prodotto oppure aumentando le
proprie capacità produttive. Tali accordi possono o meno essere noti al pubblico. Le difficoltà obiettive che si
incontrano nel mettere in atto politiche collusive relative alla fissazione del prezzo risiedono sia negli aspetti tecnici
degli accordi sia in un problema economico di fondo.
L’accordo sui prezzi porta a formulare infatti un prezzo monopolistico, o comunque un ricavo unitario superiore al
costo unitario di produzione. Non appena avviene ciò però le singole imprese sono stimolate ad espandere la
produzione per massimizzare i profitti, compromettendo la possibilità di mantenere il prezzo concordato. Può quindi
essere necessario sottoporre a controllo anche altre variabili delle politiche aziendali, estendendo la
regolamentazione ai volumi di produzione di ciascuna impresa e del settore nel suo complesso. Ciò può essere
effettuato ricorrendo allo strumento del cartello, che può configurarsi come:
1) cartello obbligatorio: accordo inteso a limitare la produzione delle singole imprese, assegnando a ciascuna di esse
una quota massima di produzione. Può essere più o meno integrato da un consorzio centralizzato di vendita, che
monopolizza la distribuzione del settore. Es. sindacati di vendita formati nel settore dei fertilizzanti (Seifa in Italia)
2) cartello di offerta: si applica nei settori che producono su commessa, e consiste nell’interporre un organismo fra i
committenti e le imprese, che provvede a raccogliere le ordinazioni e a distribuirle in proporzione alle quote di
mercato storicamente detenute dalle varie aziende facenti parte del settore. L’obiettivo consiste nel bloccare le singole
quote del mercato eliminando ogni incentivo alla riduzione dei prezzi. Si fa frequente ricorso a questi cartelli quando la
produzione del settore sia interamente assorbita da un monopsonista. L’intento è quello di contrapporre una
struttura unitaria al potere contrattuale del compratore.
3) cartello di razionalizzazione: forma più rigida, consiste nel coordinare i piani di produzione e le politiche di vendita
delle diverse imprese del settore in modo integrato, come se si trattasse di un’unica azienda. Tale forma penalizza
pesantemente le imprese meno efficienti, e richiede un forte grado di controllo delle imprese più dinamiche sulle altre.
• Price leadership: si verifica quando il gruppo di imprese che costituisce l’offerta attribuisce ad una singola impresa la
funzione di stabilire i prezzi di vendita. Vi è una o più imprese che si comportano da price-maker e le altre seguono le
sue decisioni passivamente.
L’esistenza di una price leadership può dipendere dalla struttura del settore (price leadership con impresa dominante),
oppure può avere origini non misurabili ma legate alla storia del settore (price leadership barometrica).
>Nel caso di leadership con impresa dominante, il settore è caratterizzato dalla presenza di un’impresa dominante di
vaste dimensioni, che copre una quota rilevante del mercato e da un elevato numero di piccole imprese. Queste non
possono influenzare il prezzo di mercato e seguono le decisioni della leader. Quest’ultima nello stabilire la propria
linea di azione deve tener conto non solo della domanda generale ma anche delle quantità che le imprese di piccole
dimensioni offriranno complessivamente al mercato come funzione del prezzo stabilito dalla leader.
Sotto il profilo dell’analisi di comportamento delle imprese, i maggiori problemi si pongono in relazione all’uso che
l’impresa dominante fa del proprio potere di mercato. Questa può limitarsi a sfruttare la rendita che proviene dalla sua
posizione di forza oppure può abusarne tentando di rafforzare ulteriormente la propria posizione. Il concetto di abuso
resta molto discrezionale.

75
>Nel caso della leadership barometrica, al contrario, la struttura del settore si presenta in modo meno definito. Non è
facile spiegare perché una particolare impresa assume la leadership nella definizione dei prezzi. L’impresa leader può
essere stata in passato una dominante o un’impresa particolarmente dinamica, oppure potrebbe essere una robusta
dal punto di vista finanziario. Questa situazione da luogo ad un sistema meno stabile del precedente.
È sempre possibile che a seguito di un mutamento di tecnologie o della domanda, qualche impresa decida di rifiutare
la leadership e comportarsi autonomamente; se ciò si verifica in un settore che ha sperimentato la leadership
barometrica, la rottura segue l’instaurazione di una nuova leadership.
• Regole empiriche di decisione e punti focali: queste due ultime forme di collusione hanno origine nell’applicazione
generalizzata di schemi decisionali empirici uniformi. Ad esempio, se si determina il prezzo sulla base dei costi, il
comportamento è sostanzialmente collusivo anche senza l’intenzione di colludere.
Un esempio è il caso delle “gare d’appalto”, in cui le offerte dei competitori mostrano i prezzi equivalenti.
Analogo comportamento collusivo giunge anche il caso in cui si determini il prezzo sulla base dei riflessi sul
comportamento dei concorrenti.
14.4 Ostacoli ai comportamenti collusivi
La collusione ha l’obiettivo di mantenere il saggio di profitto del settore su livelli monopolistici. È chiaro ovviamente
l’interesse delle singole imprese a dare vita ad accordi e a comportamenti collusivi. Vi sono però molti ostacoli alla
collusione. ---> Gli ostacoli ai comportamenti collusivi sono l’Antitrust e delle caratteristiche delle imprese che
operano nel settore.
In Europa la disciplina Antitrust è stabilita in origine dalle norme degli articoli 85 e 86 del trattato istitutivo del Mercato
comune europeo.
• L’art. 85 dichiara incompatibili con il Mercato comune tutti gli accordi fra imprese che siano suscettibili di limitare il
commercio fra gli stati membri ed abbiano l’effetto di impedire, falsare o restringere la concorrenza all’interno del
mercato comune.
• L’art. 86 proibisce, l’abuso di posizioni dominanti da parte di una o più imprese.
La disciplina della concorrenza nella Cee è più orientata al comportamento delle imprese che non alla struttura del
mercato. Ha esclusivo riguardo a casi che presentino simultaneamente le seguenti caratteristiche:
- La collusione ha manifestazione in un accordo o nel comportamento delle imprese
- Le politiche restrittive devono infierire con il commercio negli stati membri
- Gli accordi devono comportare effetti negativi sulla concorrenza
Ne deriva che dagli interventi della Cee sono esclusi sia i comportamenti collusivi che hanno effetti limitati ad un unico
ambito nazionale sia le collusioni che hanno come obiettivo il miglioramento delle tecniche produttive o della
distribuzione.
Le possibilità di colludere possono incontrare forti limitazioni che hanno origine nelle caratteristiche economiche del
settore.
1. Differenziabilità dei prodotti, esistenza di asimmetrie nella curva di domanda particolari di ogni impresa ;
è chiaro che se il prodotto o servizio non è rigidamente standardizzabile un accordo sui prezzi non
blocca la competizione. Se i prodotti sono fortemente differenziati, può essere impossibile stabilire un
accordo sui prezzi
2. Asimmetria nei costi di produzione delle varie imprese. se i costi di produzione sostenuti dalle varie
imprese non sono al medesimo livello, i prezzi preferiti dalle singole imprese differiscono fra di loro.
L’accordo sul prezzo è frutto di un compromesso fra interessi divergenti, e le singole imprese possono
decidere di seguire una linea di azione autonoma, impedendo la collusione.

76
3. Struttura dei costi di produzione caratterizzata da un’elevata quota di costi fissi . tanto maggiore è la
quota dei costi fissi sul totale di costo di produzione, tanto meno è probabile l’affermarsi di un
comportamento collusivo. L’esperienza sembra smentire tutto ciò: fenomeni collusivi sono assai
frequenti nei settori di base dove i costi fissi sono estremamente elevati (siderurgia, minerali). In
generale, gli accordi sui prezzi appaiono solidi quando la domanda assorbe una quota elevata delle
capacità disponibili.
L’affermazione andrebbe corretta facendo riferimento al livello delle capacità produttive occupate. Gli accordi sono
solidi quando la domanda assorbe una quota elevata delle capacità disponibili, mentre il loro rispetto appare
problematico in caso contrario. In certe situazioni, la decisione di un’impresa di ingrandire i propri impianti può essere
interpretata come un atto ostile dalle altre.

15. Le condotte non collusive. Teoria della curva di domanda ad angolo


15.1Formulazione originaria della teoria di Sweezy
Ai fini dell’analisi del comportamento di imprese facenti parte di un oligopolio, la teoria della curva di domanda
spezzata offre un modello assai preziose. Il modello non costituisce una teoria generale dell’oligopolio, né può avere la
pretesa di esaurire la vastissima gamma di politiche attuabili dalle imprese oligopolistiche, ma piuttosto costituisce uno
stimolante strumento concettuale.
La teoria fu sviluppata nell’ambito della critica ai modelli di equilibrio parziale e generale dagli interventi di Staffa e
Robinson. L’Obiettivo era la dimostrazione della testi che, in riferimento ad un sistema economico monopolizzato da
grandi imprese, il movimento dei prezzi non riveste più il ruolo fondamentale teorizzato da Marshall e Walras
(determinare equilibrio di breve periodo fra quantità domandate ed offerte e coordinare l’allocazione dei fattori fra i
diversi settori produttori). L’equilibrio, al contrario, sarebbe assicurato dalle variazioni delle quantità di merci offerte
dalle grandi imprese.
Risulta evidente l’appartenenza della teoria della curva di domanda spezzata al tema più ampio relativo all’analisi del
fenomeno dei prezzi amministrati. Tale tema era dedicato alla analisi delle leggi di formazione dei prezzi nei settori in
cui la grande depressione produsse moderate o trascurabili variazioni dei prezzi, contrariamente alle predizioni della
teoria economica. In numerosi settori industriali i prezzi non risultavano determinati dalla interazione fra compratori e
venditori, ma venivano fissati “amministrativamente” dai venditori, in funzione del potere discrezionale detenuto dalle
poche imprese operanti sul mercato.
L’interesse del modello sviluppato originariamente da Sweezy va oltre la polemica del prezzo. La teoria in parola
anticipa in buona misura la sequenza SCP, fornendo un modello predittivo ed esplicativo delle performance delle
imprese in condizioni di variabilità della domanda e dei costi di produzione. L’ambito di applicazione della teoria della
curva di domanda spezzata non può che fare riferimento ad un contesto di oligopolio omogeneo in cui le dimensioni
delle singole imprese sono equidistribuite.
Supponiamo di esaminare un settore costituito da un numero limitato di imprese aventi dimensioni circa uguali, che
producono un bene omogeneo e non possono stabilire fra loro un accordo sistematico volto alla delimitazione delle
QdM oppure alla formazione collettiva del prezzo (ipotesi di oligopolio omogeneo non collusivo). In queste condizioni
il comportamento delle imprese in merito alla formazione dei prezzi è condizionato. Una componente fondamentale
della curva di domanda che le singole imprese immaginano di avere di fronte a sé è costituita dalle diverse ipotesi circa
il comportamento delle rivali, in occasione di una azione di aumento o diminuzione del prezzo.
Le singole imprese, secondo tale teoria, sono portate ad immaginare di vere di fronte due curve di domanda, aventi
differenti elasticità. La prima avrà elasticità più elevata, e rappresenta la curva di domanda del prodotto della singola

77
impresa nel caso in cui intenda aumentare il prezzo, la seconda rappresenta il caso in cui l’impresa prospetti una
diminuzione del prezzo.
Nel primo caso (azione di aumento di prezzo) la singola impresa può ritenere che le altre imprese siano indotte a non
modificare i rispettivi prezzi, e quindi all’aumentare del prezzo consegue una robusta diminuzione delle quote di
mercato. Nel secondo caso invece (riduzione del prezzo) la singola impresa può ritenere che le altre imprese
adeguerebbero rispettivamente i prezzi al nuovo livello. L’incremento della quota di mercato dell’impresa che ha
assunto l’iniziativa di riduzione del prezzo sarebbe quindi molto modesto o addirittura nullo.
Nei mercati oligopolistici i prezzi tenderanno ad essere piuttosto rigidi in presenza di variazioni della domanda, il che
equivale a dire che le imprese oligopolistiche tenderanno ad amministrare l’offerta, facendo variare le quantità offerte
proporzionalmente alle quantità domandate, con il risultato di mantenere stabiliti i prezzi.
Il modello della curva di domanda spezzata può anche osservare gli effetti delle variazioni dei costi di produzione sui
prezzi. Se le variazioni dei costi sono contenute nell’ambito della discontinuità della curva dei costi marginali, il prezzo
al quale l’impresa massimizza il profitto rimane inalterato. Se gli aumenti dei costi di produzione fossero così rilevanti,
allora l’impresa sarebbe indotta a modificare il prezzo per ristabilire l’eguaglianza fra costo e ricavo marginale.
Le variazioni dei costi di produzione non comportano immediate variazioni dei prezzi; ciò equivale a dire che un
aumento dei costi di produzione diretti ha l’effetto almeno nel breve periodo di ridurre il profitto delle imprese che
non possono stabilire comportamenti collusivi fra loro. A tali conclusioni Sweezy pervenne con una metodologia
deduttiva.
A conclusioni simili giunsero gli economisti di Oxford Hall ed Hitch; procedendo con il metodo delle interviste,
osservarono che la formazione del prezzo da parte delle aziende industriali ha come principale riferimento la
copertura del costo medio. In questa ottica, le variazioni della domanda che
si verificano successivamente alla fissazione del prezzo non influiscono sui prezzi medesimi, e che quindi i prezzi
tendono ad essere rigidi rispetto alle variazioni della domanda. Gli autori riconobbero però due importanti eccezioni al
principio della rigidità dei prezzi:
1. Quando la caduta della domanda è di notevole entità e durata
2. Quando i costi di produzione di tutte le imprese si modificano simultaneamente in uguale proporzione.

15.2 Critiche alla teoria della domanda ad angolo. La sua effettiva applicabilità
La teoria della curva di domanda spezzata fu in un primo tempo considerata una teoria generale dell’oligopolio, grazie
alla sua attitudine predittiva ed esplicativa sul fenomeno della rigidità dei prezzi nei settori oligopolistici. In una fase
successiva la teoria fu sottoposta ad una sere di ripensamenti critici intesi a contestare la validità.
Un ampio esame critico della teoria della curva di domanda fu condotto da Stigler, con l’obiettivo di verificarne la
consistenza teorica e la rispondenza alle dinamiche effettivamente registrate dai prezzi nei settori oligopolistici.

• Sotto il primo profilo Stigler decise di esaminare analiticamente i vari fattori da cui dovrebbe dipendere l’ampiezza
della discontinuità della curva dei ricavi marginali, e quindi l’effettiva staticità dei prezzi praticati dalle singole
imprese di fronte a variazioni della domanda e\o dei costi di produzione.
Innanzitutto bisognerebbe definirsi il grado di concentrazione assoluta del settore al quale potrebbe corrispondere un
comportamento interdipendente del tipo di quello ipotizzato da Sweezy, Hall ed Hitch.
Tale livello di concentrazione fu identificato in un numero di imprese compreso fra 5 e 10. Se il numero fosse minore,
vi sarebbe una elevata probabilità che le imprese instaurino un comportamento collusivo, in questo caso nella curva di
domanda immaginata dalla singola impresa non comparirebbe l’angolo ipotizzato da Sweezy, o comunque la
variazione di elasticità sarebbe di scarso rilievo. Se invece il numero delle imprese fosse maggiore di dieci, la variazione

78
del prezzo effettuata da una singola impresa potrebbe non essere avvertita dalle altre, e quindi non dare luogo ad
azioni di ritorsione.
Il comportamento interdipendente quindi è il presupposto della forma di mercato oligopolistica e se tale presupposto
non si verifica, non appare corretto definire oligopolistica la particolare forma competitiva; se inoltre le imprese hanno
modo di colludere fra di loro, viene a mancare una delle condizioni base implicite alla teoria della curva di domanda
spezzata. Più in generale, la forma di mercato di “oligopolio omogeneo non collusivo” non si presta ad una
definizione esclusivamente numerica. Tale forma può essere definita solamente in termini qualitativi: sussiste quando
nel settore si riscontrano i caratteristici comportamenti fondati su interdipendenza ed incertezza.
• Un secondo ordine di osservazioni riguarda la concentrazione relativa del settore, ovvero la distribuzione
dimensionale delle singole imprese. Se le dimensioni delle singole imprese non fossero omogenee, sarebbe verosimile
che una fra queste assuma la funzione di price leader, ed in questo caso non vi sarà incertezza nel settore circa il
comportamento delle singole imprese. Tuttavia la curva di domanda spezzata può trovare applicazione anche in settori
che hanno una distribuzione non omogenea delle quote di mercato delle singole imprese, e conservare una notevole
validità teorica ed operativa.
Stigler inoltre puntualizzò che l’esistenza e l’entità dell’angolo dipendono da:
1. Grado di omogeneità del prodotto
2. Impossibilità di colludere
• Sotto il profilo della verifica della rispondenza delle predisposizioni teoriche alle dinamiche effettivamente
registrate dei prezzi nei settori oligopolistici, Stigler trovò che in sette settori dell’industria americana (sigarette,
acciaio, esplosivi, benzina, potassa, antracite, automobili) gli aumenti di prezzo effettuati da una impresa sono
generalmente seguiti da analoghi aumenti da parte delle altre imprese, mentre nel caso di diminuzioni del prezzo il
comportamento delle imprese è assai meno unanime. L’autore ne conclude che il comportamento previsto da
Sweezy non era da giudicarsi realistico. Le considerazioni di Stigler non appaiono del tutto accettabili, perché tratte da
contesti caratterizzati da condizioni diverse da quelle assunte dalle ipotesi base del modello; nello specifico, tutti i
settori esaminati mostravano fenomeni di collusione, dovuta all’esistenza di una impresa leader, oppure collegabile
alla simultaneità delle variazioni dei costi di produzione. Analisi di Stigler NON INVALIDA la teoria della curva di
domanda spezzata, ma dimostra che laddove le variazioni dei costi sono simultanee per tutte le imprese del settore
oligopolistico ne segue un comportamento collusivo. Se tale conclusione viene accettata, ne deriva che se tutte le
imprese di un determinato settore operano sui medesimi mercati di acquisizione dei fattori, e non esistono
significative differenze nelle strutture delle imprese, il comportamento delle imprese in parola tenderà ad assumere
forme collusive.
Altre critiche sono state formulate. Un primo problema, di carattere formale, è stato sollevato osservando che, se
l’impresa si comporta in funzione della massimizzazione del profitto, essa tenderà a praticare il margine massimo di
ricarico e quindi la curva dei costi marginali deve assumere la posizione che si colloca nella parte inferiore
dell’intervallo di discontinuità della curva dei ricavi marginali. In tale ottica quindi, una diminuzione dei costi
dovrebbe comportare una immediata diminuzione del prezzo; dal punto di vista logico-formale l’osservazione è
fondata, ma non regge se vagliati alla luce dei criteri effettivi di formazione dei prezzi.
Ulteriori critiche vengono mosse da coloro che osservano che la teoria della curva di domanda spezzata non spiega
sufficientemente come un determinato prezzo si sia formato. Il modello non si prefiggeva di fornire lumi sui criteri di
formazione dei prezzi nell’oligopolio omogeneo, essendo il prezzo di un dato istante il risultato di un processo
competitivo che può avere assunto le forme più varie, ma ha piuttosto l’obiettivo di esplorare le leggi di variazione dei
prezzi.
Le riserve avanzate quindi derivano dall’aver preteso l’applicabilità della teoria della curva di domanda spezzata a
fenomeni estranei alle ipotesi base.
15.3estensione al caso di settori costituiti da diverse imprese di diverse dimensioni

79
La disponibilità di strumenti di calcolo in grado di simulare gli effetti delle variazioni di un numero elevato di variabili
ha permesso la rimozione di alcune ipotesi semplificatrici che caratterizzano il modello di Sweezy, e di estendere
quindi l’analisi del comportamento interdipendente degli oligopolisti a settori aventi vari gradi di concentrazione
relativa. Versione aggiornata ed elaborata della teoria della curva di domanda ad angolo, desunta dal particolare
modello di simulazione della domanda “particolare” delle imprese oligopolistiche dovuto a Momigliano. Esso
prescinde da congetture a priori circa le reazioni degli avversari, facendo esclusivo riferimento ad elementi
quantitativi: il comportamento delle imprese risulta deducibile non da ipotesi ma da elementi oggettivi che
caratterizzano la struttura del mercato.
Il modello di Momigliano è inteso a simulare gli effetti di una variazione di prezzo da parte di uno o più competitori, e
quindi a determinare la curva di domanda particolare che ciascuna impresa può desumere da quella generale del
mercato, tenuto conto di un elevato numero di possibili mosse effettuabili da parte delle aziende di competizione fra
loro. Una applicazione semplificata del modello, riferita al caso di duopolio, prodotto omogeneo e nessuna
sostituibilità con altri prodotti, consente di derivare, noti i coefficienti di elasticità, una serie di curve di domanda
particolare. La curva di domanda particolare dell’impresa che fa la mossa di prezzo è costituita da una curva che
presenta sistematicamente un angolo con concavità verso il basso se la quota di mercato iniziale è superiore al 50%,
e con concavità verso l’alto se la quota di mercato iniziale è inferiore al 50%.
Da tale constatazione se ne possono derivare le seguenti conclusioni:
1. L’effetto della riduzione del prezzo di vendita da parte di un competitore sarà tanto maggiore sul piano
dell’incremento della sua quota di mercato quanto minore è la dimensione relativa dell’impresa.
2. Nel caso di settori oligopolistici costituiti da imprese diverse dimensioni, quelle più grandi avranno una
preferenza sistematica per la stabilità del prezzo di vendita. Al contrario, le imprese minori tenderanno a
mettere in atto comportamenti aggressivi sul piano delle politiche commerciali, potendo beneficiare di
una elevata elasticità di sottrazione.
3. Se non esistono differenze nei costi di produzione delle singole imprese, la distribuzione disomogenea
delle dimensioni aziendali in termine di quote relative di mercato può condurre ad una forma di
mercato altamente instabile. La situazione tenderà ad evolversi verso una forma di mercato in cui le
imprese hanno una dimensione equivalente.
L’interesse del modello è particolarmente notevole sotto il profilo della relazione dinamica fra costi di produzione e
prezzi. Nel tentativo di trarre deduzioni circa il comportamento delle imprese per ciò che attiene alla variabile prezzo,
oltre alle considerazioni relative all’elasticità di sottrazione occorre tenere presente anche la variabile fondamentale
rappresentata dai costi di produzione. Il comportamento previsto dalla teoria della curva di domanda spezzata appare
realistico qualora le variazioni dei costi di produzione non siano simultanee per tutte le imprese e qualora le
dimensioni delle singole imprese siano all’incirca equivalenti.
L’esistenza di una impresa leader è sovente associata ad un’asimmetria dei costi di produzione delle diverse imprese.
Se tale asimmetria non sussistesse, ci si troverebbe indubbiamente di fronte ad una struttura instabile.
Se però esiste una impresa leader, e la sua posizione nei confronti delle rivali è stabile nel tempo, ciò significa che
l’impresa deve potere fruire di qualche vantaggio competitivo sulle altre imprese. In questo caso il prezzo preferito
dalla impresa minore è superiore al prezzo praticato dalla impresa leader. Le imprese minori pertanto sono più
propense ad aumenti del prezzo che non ad azioni di allargamento della propria quota di mercato. In questa situazione
dunque prevale la linea delle imprese leader, il cui comportamento è condizionato da una curva di domanda
immaginata ad angolo, con concavità rivolta verso il basso.
Se l’esistenza di una impresa leader è dovuta a ragioni tecnologiche che si riflettono in differenze assolute dei costi di
produzione, le variazioni dei prezzi nel settore tenderanno ad avere luogo secondo la dinamica prevista dalla teoria
della curva di domanda spezzata. Nel caso in cui non esistano differenze nei costi di produzione e si abbia una price
leadership di carattere barometrico, possono verificarsi guerre di prezzi, come previsto dal modello di Momigliano e
verificato largamente dall’esperienza di molti settori industriali (caso dell’industria del tabacco americana).

80
15.4realismo della curva di domanda ad angolo
L’azione delle variabili che agiscono sulla politica dei prezzi delle imprese industriali e sulle loro performance, avviene
in modo congiunto, così da rendere impossibile il tentativo di isolare il movimento dei costi, della domanda e della
capacità produttiva, correlandone gli andamenti con le variazioni dei prezzi. Non si può non rilevare però come le
analisi attualmente disponibili sembrino concordare con le predizioni della teoria della curva di domanda spezzata.
Grazie ai lavori di Sylos Labini ed altri studiosi, si può dare per acquisito che la dinamica dei prezzi industriali tende ad
assumere tali caratteristiche:
1. In relazione al breve periodo si nota una scarsa elasticità dei prezzi rispetto alle variazioni dei costi
diretti. Tale elasticità ha un valore nettamente inferiore all’unità sia in Italia che in USA. Il mark-up non è
quindi mai costante, e diminuisce temporaneamente nelle fasi di aumento dei costi di produzione
diretti.
2. Nel lungo periodo l’elasticità dei prezzi rispetto alle variazioni dei costi tende ad essere
sistematicamente uguale all’unità. I prezzi cioè risulterebbero determinati dai costi diretti più il mark-
up costante, idoneo a coprire i costi generali e ad assicurare un profitto soddisfacente.
3. In riferimento alla relazione prezzi-domanda, le variazioni della domanda non influenzano i prezzi e le
diminuzioni di questa danno luogo ad una uguale diminuzione dell’offerta, cosicché i prezzi rimangono
costanti.
Tali caratteristiche forniscono indicazioni di carattere generale circa le performance aziendali relativamente alle
variazioni di talune quantità base.
PARTE V. Le politiche industriali
18. La domanda aggregata come fattore della produttività
18.1 La legge di Kaldor-Verdoorn
Sin dagli albori della scienza economica moderna era presente il fenomeno rappresentato dalla connessione fra
domanda del mercato e produttività di una industria. Nel breve periodo, nel caso in cui vi siano capacità produttive
non pienamente utilizzate, la crescita della produzione dà luogo ad una diminuzione dell’incidenza dei costi fissi per
unità di prodotto che eventualmente si somma alla crescita della produttività. Nel lungo periodo ciò si verifica quando
siano presenti fenomeni come economie di scala, curve di apprendimento, innovazioni tecniche dei processi produttivi
che aumentano la produttività del capitale e\o del lavoro, ovvero diminuire l’incidenza del loro costo per unità di
prodotto.
Una formalizzazione statistica della relazione prodotto-produttività del lavoro è esposta nel modello conosciuto come
“legge di Kaldor-Verdoorn”.
Sulla base di tale legge è possibile ricavare prescrizioni sulla verosimiglianza dei parametri assunti nei processi di
pianificazione, ma è soprattutto possibile indurre l’esistenza di relazioni dirette di lungo periodo fra la crescita della
domanda e la crescita della produttività, relazioni che rappresentano uno fra i più importanti fattori del meccanismo
dello sviluppo. La legge può essere rappresentata dall’equazione:
=*q+
 è il saggio di variazione della produttività del lavoro
 elasticità o coefficiente di Verdoorn
Q la crescita dell’output
Dove lambda è il saggio di variazione della produttività del lavoro, q la crescita dell’output e eta definisce il valore di
elasticità, oppure coefficiente di Verdoorn. Esaminando serie storiche di lungo periodo si è trovata l’evidenza di una
relazione abbastanza costante fra le variazioni della produttività del lavoro e del volume della produzione industriale,

81
osservando in particolare che il valore medio del coefficiente di Verdoorn si trova in un intervallo tra 0,3 e 0,6 con un
valore medio di 0,45: nel lungo periodo un aumento della produzione di circa il 10% corrisponde a un aumento della
produttività del lavoro poco meno del 5%.
Modello circolare basato sulla relazione di causalità diretta fra crescita e produttività, semplice schema teorico che
permette di focalizzare immediatamente il circolo vizioso da un incremento o da una caduta della domanda. La
formulazione originaria della legge è stata poi ampliata, rendendo lo schema più flessibile e più utile ai fini delle
decisioni di politica economica e di pianificazione delle imprese. Kaldor ha infatti fornito una spiegazione del fenomeno
osservato, mettendolo in relazione con:
• presenza di economie di scala e curve di apprendimento;
• rilevanza della specializzazione delle imprese e dell’interazione fra queste;
• presenza di progresso tecnico endogeno e incorporato nel capitale.
Kaldor inoltre osservava che la relazione dinamica fra produttività e crescita riguarda prevalentemente il settore
dell’industria manifatturiera, principale propulsore dello sviluppo economico, la cui capacità di crescita si riflette con
effetti moltiplicativi sugli altri settori dell’economia. A questo punto si potrebbe obiettare che la struttura dei sistemi
economici occidentale risulti sensibilmente variata rispetto a quella esaminata a suo tempo da Kaldor, per via del
crescente peso del terziario, e che quindi la terziarizzazione rappresenta un elemento endogeno dello sviluppo. Se è
vero che il minor peso dell’industria manifatturiera può in qualche modo diminuire la portata degli effetti del circolo
virtuoso, si può sottolineare che questo atteggiamento di Verdoorn risulta accettabile sulla base delle verifiche
empiriche e della ragionevole previsione che la relazione si mantenga stabile per lunghi intervalli di tempo. Ciò che è
rilevante per il sistema nel suo complesso è il valore rappresentato dall’elasticità media del rapporto fra produttività e
prodotto; meno lo è il valore dei singoli addendi da cui questa media in definitiva dipende.
Nei sistemi aperti alla concorrenza internazionale un elemento della massima importanza per conferire realismo al
modello è rappresentato dalla competitività della produzione di un particolare paese rispetto a quella dei suoi
concorrenti, e delle sue variazioni relative.
Le numerose verifiche empiriche della legge di Kaldor-Verdoorn mostrano l’esistenza di una relazione prodotto –
produttività abbastanza costante, anche se in misura differente da paese a paese; tale risultato è prevedibile, perché il
circolo virtuoso “domanda – produttività” non costituisce per certo l’unico meccanismo di sviluppo. Ai fini dello
sviluppo assumono importanza decisiva in particolare il tasso di accumulazione ed il contesto istituzionale; il primo
perché incorpora le innovazioni che influenzano la produttività del lavoro, il secondo in quanto riflette gran parte delle
esternalità che condizionano che condizionano i processi produttivi. È evidente quindi che nel lungo periodo possono
emergere discordanze anche notevoli fra i tassi di sviluppo del reddito e dell’occupazione nei diversi paesi,
determinando differenze che non risultano spiegabili in base alle condizioni generali.
18.2 Produttività, competitività e margini di profitto
Lo schema esaminato ha un limite che è costituito dal considerare solo indirettamente i prezzi, considerando
sostanzialmente sinonimi i termini produttività e competitività, i quali in un sistema aperto alla concorrenza
internazionale non sono necessariamente coincidenti. Infatti pur registrando andamenti positivi della produttività
fisica, un settore potrebbe perdere competitività in seguito ad una dinamica di costi unitari più accentuata di quanto
accade ai propri concorrenti, oppure alla comparsa di concorrenti che sostengono costi di produzione meno elevati o
che possono praticare prezzi più vantaggiosi per il mercato.
Il circolo virtuoso domanda – produttività – domanda che può essere indotto dal modello di Kaldor-Verdoorn
potrebbe interrompersi a causa della sottrazione di quote crescenti del mercato da parte di nuovi competitori, i quali
fruiscano di costi unitari del lavoro inferiori o comunque di elementi che ne stimolano maggiormente l’incremento
della competitività.

82
Il modello dovrebbe perciò considerare in modo esplicito non solo le variazioni della quantità, ma anche il livello dei
prezzi e dei costi di produzione
pq = wL + cq + MOL
Si ottiene che y (valore aggiunto unitario per y=p-c) risulta uguale a wL/q+mk. Dove w è il saggio salariale, L il numero
di addetti; q la quantità prodotta; mk (MOL/q) margine lordo per unità di prodotto. Trascurando le variazioni di mk,
perchè si assume che il mark-up sia costante si ottiene questa relazione:
q = (w+L) - y.
I primi due elementi del secondo membro descrivono gli effetti del moltiplicatore keynesiano, perché nella prospettiva
macroeconomica la crescita di L e di w si traduce in crescita della domanda (q) per effetto della crescita dei consumi.
La crescita di L può far crescere la capacità produttiva che può incorporare innovazioni, il cui effetto sarebbe far
crescere la produttività.
Le variazioni di w sono incentivi da parte delle imprese alla crescita di produttività.
Il valore y esprime l’inverso delle variazioni della competitività, ovvero la possibilità di applicare prezzi inferiori senza
ridurre il margine lordo. Una crescita esogena della domanda, quindi, può riflettersi in una ulteriore crescita
(moltiplicatore della competitività) attraverso il miglioramento della competitività e il conseguente allargamento della
quota di mercato detenuta da un’impresa o da un’industria nazionale.

19. La politica industriale in Italia. L’intervento pubblico. Uno scorcio storico (1945-1980)
19.1 introduzione
Sono ben conosciute le caratteristiche del processo di sviluppo italiano: fattori originari, come ritardato avvio del
processo di industrializzazione e protezionismo doganale, e caratteristiche dello sviluppo (estensione area pubblica e
dualismo fra Nord e Mezzogiorno).
Struttura italiana caratterizzata da una particolare forma di dualismo: accanto ad un numero ristretto di grandi
imprese convive una moltitudine di imprese di piccole dimensioni con caratteristiche ed esigenze in contrasto con le
prime.
La storia dello sviluppo industriale italiano è la storia di uno sviluppo incompiuto, nel senso che il fenomeno
dell’industrializzazione ha riguardato una parte soltanto della società e del territorio.
I rapporti fra governo e industria dal dopoguerra si sono versi nel quadro di una progressiva abolizione della
protezione doganale, e di qui un ulteriore esigenza di sostenere l’offerta con trasferimenti ed altri sostegni di
carattere finanziario. La debole struttura dell’industria italiana non era in grado di provvedere in via autonoma,
sostituendo alle protezioni tariffarie protezioni oligopolistiche, che consolidassero la presenza italiana in determinate
aree di mercato. Il filo conduttore della politica industriale italiana è costituito dalla continua oscillazione fra la
necessità di fare riferimento ai tradizionali punti di forza dell’industria del nostro paese e decisione di avviare un nuovo
modello di sviluppo. In questa alternanza le vicende congiunturali anno fatto quasi sempre prevalere la prima fra le
istanze citate. L’Italia non ha mai vissuto le intense esperienze di pianificazione industriale sperimentate nell’ultima
fase del conflitto mondiale da Germania ed Inghilterra, né la rigida programmazione inaugurata in Francia ed Olanda
nel periodo post bellico.
19.2 Dopoguerra e i primi studi sulla programmazione (1945-1947)
Primi interventi sull’industria rispondono alla necessità di rifornimento di materie indispensabili per la ripresa
dell’attività industriale, oltre a riferimenti alimentari. Il primo documento di cui si ha notizia è il “Piano di primo
aiuto” del 1945, redatto dal Cir e dalla commissione alleata di controllo, modificato in seguito al recupero dei territori
occupati. Esame delle potenzialità produttive dell’industria italiana e un quadro relativamente dettagliato dei
fabbisogni di importazioni e di merci. L’obiettivo di tali studi non era quello del mutamento strutturale del sistema, ma

83
quello di eliminare possibili strozzature allo sviluppo dell’industria. Tentativo che merita menzione è lo studio
effettuato per conto del Consiglio economico nazionale della Democrazia cristiana da Saraceno. In esso si propone la
pubblica amministrazione come elemento centrale della programmazione e della politica industriale (esplicita richiesta
di creare una solida base di domanda interna per lo sviluppo industriale). La strada che verrà poi effettivamente
imboccata sarà l’opposto: rapporto fra pubblica amministrazione ed industria verterà sui trasferimenti alle imprese,
destinati a divenire col tempo sempre più generalizzati e massicci.
19.3 Amministrazione centrista di De Gasperi (1948 – 1953)
Periodo che si inaugura con la stesura di un nuovo piano del Comitato interministeriale per la ricostruzione (Cir), reso
necessario per l’utilizzazione dei fondi messi a disposizione dal piano Marshall. Obiettivo dominante è il riequilibrio dei
conti con l’estero, e lo strumento principale è un meccanismo che consenta di attivare i settori esportatori (Fondo
Imi-Erp, concessione di finanziamenti per consentire ad aziende industriali italiane l’acquisto di materie prime,
macchinari, attrezzature, beni e servizi occorrenti alla ricostruzione e allo sviluppo dell’esportazione italiana). Chiara
era quindi la scelta originaria della politica industriale italiana: da un lato, spinta verso economia aperta mediante
sviluppo dei settori esportatori, dall’altro attivazione di meccanismi di trasferimento in modo da guidare lo sviluppo dei
settori secondo gli obiettivi politico-economici prestabiliti.
La politica settoriale che ispirava l’utilizzazione del Fondo emerge dal comportamento del Cir, che fissava alcuni criteri
di priorità riguardanti determinati settori chiave dell’economia industriale italiana, e precisamente la siderurgia, fonti
di energia, industria meccanica e chimica.
In questo triennio fu condotto anche il primo tentativo di mettere a punto moderni strumenti di analisi per il governo
dell’industria, con la costruzione della matrice Chenery e Clark; l’andamento effettivo dell’industria fu più brillante
delle previsioni.
A tale impostazione facevano contrasto le richieste della sinistra che chiedeva che il motore dello sviluppo non fosse
costituito dalla domanda estera ma dai lavori pubblici. Su questa linea muoveva il “Piano del lavoro” proposto dalla
CGIL nel 1949; tale programma anticipava alcuni temi tuttora al centro del dibattito politico-economico.
Un ultimo tratto di politica industriale da rilevare in questo periodo è l’atteggiamento nei confronti della mobilità,
cioè degli interventi a sostegno delle imprese in crisi. Numerose imprese dell’area privata furono indotte alla
chiusura dalla interruzione del flusso delle commesse e dall’incapacità di ricollocarsi nel campo delle produzioni
civili. Diverso fu il caso dell’industria cantieristica; data le obiettive difficoltà di ricollocare la mano d’opera
esuberante in altri settori, ci si trovò di fronte alla necessità di condurre un intervento di sostegno nel settore, in
grave crisi per mancanza di commesse. A questo scopo venne istituito il Fondo industria meccanica, che doveva
somministrare credito alle imprese impossibilitate a utilizzare le vie ordinarie; il Fondo poteva tuttavia anche
intervenire acquistando partecipazioni, e per questa via si determinò rapidamente un allargamento dell’area
pubblica nell’industria. Tale intervento inaugura un altro tratto caratteristico della politica pubblica per l’industria:
sostegno di imprese in crisi mediante trasferimenti da parte dello Stato, nonostante nelle fasi iniziali tali
trasferimenti furono modesti (sostegno alla meccanica in crisi e ai cantieri da parte di Iri e Efim parti a 20\25 miliardi
di lire annui tra il 1946 ed il 1955.
19.4 La politica industriale nello “schema Vanoni”
Con il 1953 si può dire concluso il periodo della ricostruzione, e la politica industriale inizia ad essere influenzata dal
radicale cambiamento degli obiettivi generali di politica economica. Si passa infatti al prevalere dell’obiettivo della
piena occupazione, e dell’attenuazione degli squilibri territoriali fra Nord e Mezzogiorno.
Le linee guida della politica economica risultano chiaramente definite nello “schema di sviluppo dell’occupazione e del
reddito in Italia nel decennio 1955-1964”, meglio noto come Schema Vanoni. Tale documento identificava come
obiettivi:
 Uno sviluppo annuo del reddito nazionale del 5%

84
 Creazione di 4 milioni di posti di lavoro aggiuntivi
 Riduzione degli squilibri territoriali fra Nord e Sud
Tenendo conto di una previsione di incremento della produttività del 3% annuo ed un tasso medio annuale di
risparmio del 18% ne derivava che la compatibilità fra la creazione di 3,2 milioni di posti di lavoro e le formazioni
previste di capitale si realizzava con un fabbisogno di capitale per addetto di 1,5 milioni di lire.
Lo schema appariva particolarmente debole sotto il profilo della strumentazione. A questo scopo fu costituito un
“comitato per lo sviluppo dell’occupazione e del reddito” presieduto da Saraceno, che produsse sei memorie, due
delle quali avevano diretto rilievo per la politica industriale. Il primo fra gli studi citati riguarda l’energia elettrica, con
l’obiettivo di determinare le occorrenze di carattere finanziario connesse allo sviluppo del settore. Un effettivo
contributo dello Schema Vanoni sul piano della politica industriale si ebbe nel campo della siderurgia: Sviluppo del
settore siderurgico, primo piano di settore predisposto in Italia.
Il piano siderurgico si articola in una valutazione della domanda di acciaio proiettata al 1962, nella stima
dell’andamento dell’offerta, distinguendo offerta proveniente dalla trasformazione di minerale da quella proveniente
dal rottame, in una analisi dell’opportunità della costruzione di un grane stabilimento a ciclo integrale. La conclusione
del programma settoriale è favorevole alla costruzione del nuovo centro e alla sua localizzazione nel Mezzogiorno. Il
piano dette luogo al centro siderurgico di Taranto, primo ed unico esempio di realizzazione diretta di programmazione
settoriale nel quadro dello Schema Vanoni. In realtà però non è agevole stabilire se la realizzazione del centro
siderurgico di Taranto fosse il risultato di una azione programmatoria del governa oppure il governo; cioè se il
programma siderurgico non sia stato altro che la sanzione formale di un programma aziendale già sviluppato in
dettaglio da parte dell’Iri, a cui il programma settoriale aggiunse solamente il crisma dell’ufficialità. L’Iri infatti aveva già
svolto in modo autonomo un impegnativo programma di riconversione; inoltre, alla ripresa dell’attività di
programmazione, gli organi dello Stato furono accusati di svolgere un ruolo esclusivamente notarile nei confronti della
volontà delle imprese, e di concedere quindi i pareri di conformità del Cipe solo sulla base delle richieste avanzate
dalle imprese senza tentare di determinarne gli indirizzi. Di fatto quindi la programmazione industriale si trasferisce
definitivamente in questo periodo all’interno delle imprese stesse. Ciò deriva in parte dalla oggettiva debolezza della
programmazione nazionale, in parte dal fatto che il brillante andamento dell’industria, trascorsa la depressione del
1957-58, superava largamente i traguardi stabiliti dalla programmazione, per cui si faceva strada il principio della non
ingerenza in meccanismi la cui efficienza superava le aspettative. Inoltre i personaggi più rappresentativi della politica
industriale italiana ritenevano inapplicabili al nostro paese gli schemi di programmazione messi in atto all’estero.
Le politiche di settore prendono dunque forma all’interno dei maggiori gruppi. La politica pubblica di governo
dell’industria si vale piuttosto di strumenti orizzontali, come incentivi per industrializzazione del Mezzogiorno e
trasferimenti a favore di particolari categorie di imprese. Fra tali trasferimenti lo strumento di maggiore rilievo attivato
nel periodo è la legge 623/1959, per il credito agevolato alle piccole e medie imprese, congiuntamente all’istituzione del
Mediocredito Centrale.

Tale legge nasce sulla scorta delle preoccupazioni suscitate dalla recessione del ’58, ma giunge in ritardo quando
l’economia è ormai entrata nella fase di ripresa. La legge coglierà l’obiettivo di favorire l’allargamento della base
industriale delle aree di industrializzazione tradizionale (Lombardia-Piemonte-Liguria) e nuove aree del Centro Nord, il
cui sviluppo si fonda appunto sulle imprese di piccole e medie dimensioni.
Ha inizio la tendenza alla moltiplicazione dei centri di governo dell’industria.
Un giudizio negativo invece viene espresso in riferimento alla legge 1470/1961; tale legge apre la strada ad interventi
assistenziali totalmente in contrasto delle regole della concorrenza che avevano ispirato la politica industriale,
inducendo nel sistema elementi di rigidità che troveranno applicazione sempre più frequente negli anni successivi.
19.5 La fine della rapida crescita. Il prevalere degli strumenti di breve periodo (1963-1968)
Periodo di transazione dallo “Schema Vanoni” al “Programma economico nazionale, 1965-1969” conobbe un brusco
mutamento del quadro economico e politico. Si riscontrò infatti una impennata inflazionistica dell’economia ed un

85
netto peggioramento dei conti con l’estero, dovuti al forte aumento del costo del lavoro ed ai timori diffusi fra la
borghesia imprenditoriale dalla nazionalizzazione dell’energia elettrica. La situazione determinò il doppio effetto della
flessione dei margini di profitto e della comparsa di un consistente deficit nella bilancia commerciale. In questa
prospettiva si producono rapidamente alcuni avvenimenti che segneranno in modo duraturo le linee di sviluppo
dell’industria italiana negli anni successivi.
La prima considerazione riguarda la contrapposizione di interessi che viene apparentemente a formarsi nell’ambito
del sistema industriale. Nella lunga fase di sviluppo che precede la crisi del 1963-64 i fattori trainanti la crescita
industriale sono sicuramente la domanda estera e la domanda di beni strumentali. In tale fase non esiste alcuna
contraddizione fra settori ad alta intensità di lavoro e orientati all’esportazione e settori pesanti, ad alta intensità di
capitale, meno competitivi all’estero ma con una base sufficiente per lo sviluppo interno. Il rialzo del costo del lavoro
e l’avvio di un processo di inflazione interna sospinto dai costi determina una perdita di competitività all’estero che
propone ai due emisferi dell’industria italiana strategie diverse.
Per l’industria ad alta intensità di lavoro il problema centrale è il recupero della competitività, che apparentemente
può essere raggiunto tramite una manovra restrittiva che elimini il fattore originario di squilibrio. Per l’industria
pesante l’inflazione interna non rappresenta un pericolo immediato, ed anzi, nelle opinioni correnti favorirebbe un
processo di alleggerimento dell’indebitamento finanziario.
La seconda considerazione riguarda la strumentazione con la quale il governo si trovava nella fase in parola. Dal lato
degli strumenti di medio periodo non vi era nulla. Gli unici strumetni erano dunque costituiti dalla politica monetaria e
creditizia e dalla politica dei trasferimenti mediante le leggi di agevolazione finanziaria.
Per quanto riguarda l’uso di strumenti strutturali, quale il sistema delle partecipazioni statali, si manifestano numerosi
contrasti fra chi vorrebbe vedere le imprese pubbliche quale strumento in grado di supplire le deficienze dell’iniziativa
privata e chi ad esse preferirebbe assegnare un ruolo autonomo, da definirsi all’interno dei gruppi medesimi.
Nei fatti le imprese a partecipazione statale sono ancora largamente autosufficienti sotto il profilo finanziario, e
dunque meno condizionabili dal potere politico di quanto in seguito accadrà. In tale periodo di transizione si
intensificano le pressioni sul sistema delle partecipazioni statali per gli interventi di salvataggio delle imprese in crisi.
Sugli orientamenti da assumere nell’uso degli strumenti congiunturali le autorità monetarie sembrarono oscillare per
un breve periodo. Di fronte alle resistenze che le autorità monetarie internazionali avrebbero dimostrato all’ipotesi di
una eventuale svalutazione della lira, non restava altra via praticabile se non quelle della politica deflativa, che ha
inizio con la restrizione creditizia della seconda metà del 1963. È evidente che la manovra di stabilizzazione colpisce
più violentemente i settori a più alta intensità di lavoro.
Dall’esperienza maturata attorno alla crisi del ’63-’64 e alla successiva stabilizzazione hanno origine due ordini di
riflessioni che accompagneranno la politica industriale italiana, e si manifesteranno in specifiche scelte al
ripresentarsi di fenomeni di crisi (1971):
a. La prima riflessione riguarda gli effetti direzionali della politica monetaria dell’industria. Si fa strada la
tesi secondo cui gli effetti della politica monetaria sarebbero assai più avvertiti dalle imprese di
dimensioni minori, in virtù della maggiore autonomia finanziaria di quelle maggiori. Sarebbe possibile
utilizzare la politica monetaria in funzione di politica industriale, attuando una politica selettiva volta a
favorire i settori più forti a danno delle imprese industriali destinate al declino. La strumentazione della
strategia industriale si volgeva dunque al breve periodo, proprio nella fase in cui per la prima volta vigeva
un programma economico nazionale.

b. La seconda riflessione riguarda la necessità di una ristrutturazione settoriale dell’industria italiana, per
modificarne la composizione a beneficio di settori a più elevato contenuto tecnologico; anche come
conseguenza della più spinta competizione internazionale seguita all’entrata in vigore del Trattato di
Roma del 1960. Nell’industria italiana la differenziazione era relativa all’interno dei settori, in relazione a
dimensioni delle imprese, livello delle tecnologie e qualità del management.

86
Nasce quindi, come riflesso di taluni temi dominanti la cultura economica di allora e dei problemi posti
dall’utilizzazione dei fondi messi a disposizione delle società ex elettriche dagli indennizzi, la bandiera della
concentrazione. Essa si traduce, sul piano legislativo, nella legge 170\1965, che concedeva cospicue
agevolazioni fiscali alle fusioni fra imprese, e sul piano della struttura industriale si traduce nella nascita di
colossi nel campo di telecomunicazione e chimica (Sip, fusione tra Montecatini ed Edison).

Appare evidente quindi, in relazione alle vicende di quel periodo, che la nazionalizzazione dell’energia
elettrica e la riconversione dei gruppi ex elettrici rappresentarono la grande sfida perduta della strategia
industriale italiana. Nel complesso, il PUBBLICO FECE MOLTO MEGLIO DEL PRIVATO: l’Iri tramite la Sip costruì
una moderna rete di telecomunicazioni utilizzando gli indennizzi.

Il tema della ricerca fu trascurato, e solo nel 1968 fu varato un provvedimento per la ricerca applicata,
comunque non sufficiente a colmare il ritardo tecnologico dell’industria italiana, dovuto anche alle carenze
della ricerca di base. Esso giungeva comunque troppo tardi, quando ormai si stava delineando una seconda e
più grave crisi dell’industria italiana.

Sul piano istituzionale, si registra nel periodo in esame una azione di riorganizzazione degli organi della
programmazione economica. Il Cipe (Comitato interministeriale per la programmazione economica)
sostituisce il vecchio Cir come organo di coordinamento dell’azione pubblica nell’economia. Al Cipe si affianca
l’Ispe (Istituto studi per la programmazione economica) con il compito di procedere a indagini, ricerche e
rilevazioni inerenti alla programmazione economica ai fini della preparazione dei documenti programmatici.

19.6 La crisi dell’ ”autunno caldo (1969-1970) ed il fallimento della programmazione


Come l’avvio del programma 1965-69 fu spiazzato dalla crisi recessiva, così l’avvio del nuovo ciclo di
programma avvenne nelle condizioni peggiori. Si potrebbe sostenere che la strategia industriale italiana ha
sempre fatto riferimento a “tre punti di forza”:

1. Un costo del lavoro relativamente inferiore al livello medio degli altri paesi industrializzati
2. Favorevole ragione di scambio fra manufatti industriali e materie prime, e fra materie prime e
materie energetiche in particolare
3. Andamento espansivo della domanda internazionale

Tali punti di forza vengono a cadere e le preoccupazioni contingenti finiscono per prevalere sulle azioni di più
ampio respiro.

Sia il Rapporto preliminare al Programma economico nazionale 1971-1975, noto come “Progetto ‘80”, che i
successivi documenti prodotti dal Ministero del Bilancio e dall’Ispe, mostravano una chiara coscienza della
precarietà dei fattori di successo dell’industria italiana e identificavano un complesso di azioni orizzontali
(riguardanti i fattori produttivi) e verticali (riguardanti specifici settori) da condursi nel quadro del
programma, definite “Programma di promozione”: fra questi solamente uno vedrà la luce, il “Programma di
promozione per l’industria chimica”.

Alla fine del 1969 si avvia un ciclo analogo a quello del ’62-’64. Il costo del lavoro per unità di prodotto subisce
un fortissimo aumento, e la manovra sui prezzi è bloccata dalla stabilità dei prezzi internazionali. Dunque,
nuovamente, si determinano una caduta verticale dei profitti e l’allargamento del deficit commerciale. A
differenza del ciclo precedente però la situazione sociale è più tesa, il che esclude la possibilità di una
ristabilizzazione fondata su una indiscriminata manovra restrittiva; gli effetti della dinamica salariale nel ciclo
1970-72 influenzano in modo differenziato le performance dei settori.

Di fronte alla nuova crisi la reazione istituzionale consiste nel varo di una nuova legge di sostegno al settore in
maggiore difficoltà (“legge tessile” – 1101\1971 - ristrutturazione e riconversione imprese tessili) e nel
tentativo di evitare una indiscriminata politica di salvataggi e di permanente allargamento della area pubblica

87
nell’economia mediante l’istituzione della Gepi.
Il maggiore limite della “Legge tessile” consisteva nella totale assenza di un riferimento strategico, cioè di
criteri guida che dessero un contenuto operativo ai termini ristrutturazione e riconversione. L’intervento
dunque si risolse in una somma di trasferimenti dal settore pubblico alle imprese, trasferimenti forse
opportuni per il sostegno di talune aziende, ma comunque difficilmente riconducibili alla logica della
programmazione. La crisi peraltro non riguardava solamente l’industria tessile, ma si dimostrava acuta anche
nei settori della chimica e della metallurgia. Le preoccupazioni dovute al persistere della crisi indussero il
governo a proporre, ed il Parlamento ad emanare, una nuova legge di crisi, 464\1972, che estendeva le
previdenze disposte dalla legge tessile agli altri settori industriali; le vicende singolari di tale legge forniscono
una anticipazione delle difficoltà di conciliare una politica istituzionalizzata di trasferimenti all’industria con un
rigoroso controllo sull’utilizzazione dei fondi, difficoltà contro le quali si scontrerà più tardi la più ponderata
legge per il coordinamento della politica industriale del 1977.

La legge 464\1972:

 Mira innanzitutto ad estendere i termini massimi di applicabilità della “cassa integrazione


guadagni”, con l’evidente intento di alleggerire i conti economici delle imprese dal carico della
mano d’opera in eccesso, aggirando anche il problema della mobilità, che a seguito della
recessione costituiva il problema per eccellenza nei rapporti fra governo e industria.
 Prevedeva inoltre facilitazioni creditizie, sotto forma di contributi in conto interessi, e tributarie
alle imprese che dessero corso a programmi di ristrutturazione e conversione dell’attività
produttiva.

Inizialmente lo stanziamento fu modesto, ma venne più volte rifinanziata fino a 813 miliardi complessivi.
Tuttavia le procedure per l’istruzione, l’accoglimento delle domande e l’erogazione dei contributi furono rese
così complesse che la legge decadde.

L’esperienza della legge tessile insegna che i trasferimenti dello Stato alle imprese sotto forma di agevolazioni
finanziarie rischiano di aggravare i problemi dei settori industriali, se la loro concessione ha luogo in assenza di
un quadro di riferimento o di una strategia volta a pilotare la riorganizzazione del settore.
Il grande sforzo di attuare una programmazione industriale concentrata, nell’ambito del Programma
economico nazionale, fu condotto in riferimento all’industria chimica.

Si diede la priorità all’industria chimica sia per la strategicità del settore sia proprio per la struttura del settore
stesso:

 Elevatissima intensità di capitale rendeva efficace la principale arma della programmazione


industriale: il parere di conformità del Cipe necessario per ottenere le agevolazioni finanziarie.
 Forte concentrazione del settore avrebbe reso più agevole la concertazione fra industria e
governo.

Il cosiddetto piano chimico si articola su due documenti.

1. Dopo la delibera del Cipe, venne affidato all’Ispe il compito di svolgere gli studi necessari alla
preparazione di un piano. Il “Rapporto preparatorio del programma di promozione per l’industria
chimica”, redatto e sottoposto all’esame di autorità amministrative, sindacati e imprenditori nel
1971, sviluppava una analisi dell’industria chimica italiana ed esponeva alcune ipotesi e proposte
per lo sviluppo della chimica primaria. Tale rapporto prevedeva una crescita tendenziale della
produzione chimica nell’ordine del 10-11%. Il flusso di investimenti necessario era identificato in
4.500 miliardi di lire nel decennio, e l’effetto occupazionale in un saldo netto di 190.000 posti di
lavoro aggiuntivi nel decennio.

88
2. In base al rapporto preparatorio ed alle osservazioni raccolte, il Cipe predispose il “Progetto di
promozione per l’industria chimica di base prima sezione”, a cui avrebbero dovuto seguire altre
sezioni.

Il piano chimico si risolse dunque in un piano che limitò il campo di indagine ai prodotti steam cracking
della virgin naptha. Il progetto indicava i criteri strategici per la riorganizzazione e lo sviluppo del settore,
la previsione di espansione delle capacità produttive ed i criteri per la valutazione dei programmi di
investimenti. Il piano chimico si tradusse in un grave insuccesso. Per quanto il piano avvertisse
chiaramente circa il rischio della creazione di una capacità produttiva eccedentaria, esso non riuscì a
frenare la corsa delle imprese chimiche verso l’acquisizione di pareri di conformità, in un processo
competitivo fondamentalmente basato sull’accrescimento della capacità produttiva. Il piano contribuiva
ben poco a risolvere i problemi della chimica italiana: debolezza chimica secondaria, insufficiente
efficienza nelle funzioni della commercializzazione, scarsità di ricerca e di innovazione. Ma la crisi della
chimica italiana fu piuttosto dovuta al ritardo con cui si diede avvio ai programmi di espansione delle
aziende del settore; ritardo che fece si che queste ultime fossero colte dalla recessione e dalla inflazione
mentre erano in corso programmi di investimento che si sarebbero alla fine rivelati troppo costosi e non
strettamente indispensabili. Il fallimento della programmazione non risiede nel fallimento dell’ironia, ma
piuttosto nella debolezza delle strutture amministrative, che nel periodo considerato non riuscirono a
produrre sul terreno operativo altro se non lo sfortunato troncone di piano dedicato all’etilene.

19.7 La prima crisi petrolifera (1973 – 1976)

Alla lunga crisi attraversata dall’industria italiana aveva fatto riscontro una impasse dal lato governativo.
La flessione dei margini di profitto prodotta dall’aumento del costo unitario del lavoro e della rigidità
dei prezzi non aveva trovato risposta né in una manovra deflativa né in una inflativa. L’unico apparente
effetto era stato una forte accelerazione dei processi di investimento labour saving da parte
dell’industria, che dovevano essere finanziati con un massiccio ricorso all’indebolimento, vista la flessione
dei margini di profitto.
La crisi politica del 1972 aveva condotto alla fine dei governi di centro-sinistra; insieme alle delusioni
prodotte dai tentativi di programmazione economica, ciò condusse al definitivo abbandono della politica
di piano, all’inizio del 1973. L’azione di governo dell’industria volge quindi nuovamente agli strumenti di
breve periodo, mentre si avvicina la crisi internazionale che seguirà al rialzo dei prezzi petroliferi e delle
altre materie prime.

 Potenziale inflazionistico accumulatosi tra il 1970-71


 Seconda metà ’72 forti tensioni provenienti dal rialzo dei prezzi delle materie prime internazionali
 Entrata in vigore dell’Iva nel gennaio ’73 fornì occasione per un forte rialzo dei prezzi interni, che
aumentò di oltre il 15%.

Di fronte a tali fenomeni l’autorità monetaria decide di imboccare la via inflativa. Il 9 febbraio 1973
viene annunciata l’uscita della lira dal serpente monetario, il che di fatto si tradurrà in una svalutazione
della nostra moneta di oltre il 14% fra gennaio e luglio.

Dal punto di vista industriale la manovra viene accolta con evidente favore dai settori a più alta intensità
di capitale, che nell’inflazione vedono il mezzo per ricondurre l’indebitamento a livelli fisiologici. Ma tutto
ciò si rivelò un errore di valutazione: la necessità di controllare la svalutazione della lira indurrà le autorità
monetarie a determinare un forte rialzo dei tassi di interesse. L’esplosione inflazionistica fa sorgere
diffuse preoccupazioni, a cui si tenta di dare una risposta con provvedimenti di controllo dei prezzi. Il filo
che connette i provvedimenti di svalutazione della lira con il controllo dei prezzi interni sembrerebbe
quello di permettere alle imprese un recupero dei margini sulle vendite all’esportazioni, mantenendo
bloccati i margini interni. Dopo aver prodotto risultati deludenti, il controllo dei prezzi viene abbandonato
nel luglio 1974.

89
L’aumento del prezzo delle materie prime iniziato nel 1972 faceva venir meno il secondo punto,
tradizionale riferimento della strategia industriale italiana: la favorevole ragione di scambio fra le nostre
esportazioni di manufatti e le importazioni. Tuttavia i tratti caratteristici della crisi non appaiono
immediatamente in modo chiaro; il rialzo dei prezzi internazionali dà l’avvio ad un ciclo di scorte per cui le
imprese possono migliorare nettamente i loro margini, i quali raddoppiano nel corso del 1973. Nel ’74
rimangono costanti, mentre il volume delle vendite registra un aumento record del 44%, in massima
misura imputabile ai prezzi. Di contro però gli oneri finanziari raddoppiano nel corso dell’anno,
comportando una flessione dei margini netti, e mettendo in evidenza gli effetti del perverso meccanismo
inflazione-tassi di interesse.

Puntualmente, nel 1975 si registra anche la flessione della domanda, ultimo elemento mancante per
toccare la crisi. La manovra di controllo dell’economia nel breve periodo che tenta di reagire alla
recessione mediante una politica monetaria permissiva si traduce in un grave insuccesso. All’inizio del
1976 la lira subisce una nuova forte svalutazione e i tassi di interesse sono ricondotti a livelli altissimi,
mentre i margini lordi dell’industria cadono al di sotto del 2% del fatturato. La spirale inflazione-
svalutazione del cambio ha colpito di più i settori ad alta intensità di capitale rispetto ai settori ad alta
intensità di lavoro. La svalutazione del cambio ha nel complesso consentito di recuperare i differenziali
del costo e del lavoro italiano rispetto all’andamento degli analoghi costi all’estero, mentre l’enorme
aumento degli oneri finanziari non poteva essere recuperato con aumenti dei prezzi, la cui entità avrebbe
posto fuori mercato le imprese che operano in concorrenza internazionale. Gli effetti della crisi tendono a
scaricarsi in modo più sensibile sulle imprese di più grandi dimensioni, che risultano assai più indebitate.

Alle considerazioni interne vanno aggiunti elementi derivanti dal mutato quadro di competizione
internazionale, che indebolisce la competitività italiana in alcuni settori di base e di altri settori
tradizionali.

La flessione dei margini colpisce soprattutto i settori della chimica, gomma, carta, alimentare e tessile.
Analogamente vi è un ridimensionamento dei medesimi settori, a cui si aggiungerà poi la crisi della
siderurgia. La crisi del 1975 mostra tre elementi di sintesi che focalizzano l’attenzione delle autorità di
governo dell’economia:

1. Crisi finanziaria delle imprese, che si manifesta nell’aumento del peso degli oneri finanziari sul
fatturato: aspetto all’origine di una proposta del governatore Carli, mirante, nella forma, ad una
grandiosa operazione di consolidamento dei debiti a breve accumulati dall’industria, nella
sostanza, ad un radicale mutamento della struttura dell’industria italiana, che ne avrebbe
avvicinato il modello organizzativo a quello tedesco. La proposta mirava ad un coordinamento
nelle politiche delle imprese grazie ad un maggior coinvolgimento del sistema bancario, come
dimostrava appunto l’esperienza tedesca; la formulazione della proposta però apparve troppo
radicale, suscitando una forte resistenza.
2. Caduta degli investimenti;
3. Problemi connessi alla mobilità del lavoro: due aspetti all’origine di una proposta governativa
dedicata al “coordinamento della politica industriale e la ristrutturazione del settore”. La
proposta prevedeva istituzione di un Fondo per la ristrutturazione, la riconversione e lo
sviluppo industriale, dotato di 2.500 miliardi di lire, la cui amministrazione sarebbe spettata ad
un organo interministeriale di nuova costituzione: il Cipi; a tale organo, comitato
interministeriale per la politica industriale, si demandava il compito di mettere a punto i
lineamenti di una strategia industriale, nel quadro di un piano a medio termine. La proposta
inoltre delineava alcuni interventi per favorire la mobilità del lavoro nelle imprese.

La reazione dei partiti non governativi fu negativa, al punto che il progetto “Moro- La Malfa” dell’agosto
1975 fu una delle non trascurabili fonti della crisi del governo bipartito e della fine anticipata della
legislatura. Gli ultimi atti della legislatura sul piano industriale sono costituiti dal varo della legge
183\1976, “Disciplina dell’intervento straordinario nel Mezzogiorno per il quinquennio 76-80. Questa si

90
poneva come obiettivo quello di riordinare il credito agevolato all’industria, misura necessaria e urgente il
cui compimento avverrà nella legislatura successiva. Da ultimo il governo predispose uno strumento
inteso ad assicurare un maggior coordinamento dello sviluppo industriale, subordinando
all’autorizzazione del Cipe l’effettuazione di investimenti agevolati per importi superiori a 500 milioni di
lire, e di qualsiasi investimento di importo superiore a 10 miliardi di lire.

19.8 La politica dei piani di settore

La gestione dell’economia di breve periodo non aveva risolto i problemi di fondo dell’industria, che
invece risultavano aggravati. Strategia volta a recuperare la competitività industriale per mezzo della
svalutazione del cambio aveva accelerato la dinamica della crisi finanziaria dell’industria pesante.
Inoltre si era resa necessaria una moltiplicazione degli interventi di sostegno mediante trasferimenti dallo
Stato alle imprese. I trasferimenti avevano l’effetto di attenuare la capacità dell’area di mercato di
resistere alla imposizione dei vincoli e alle richieste volte a portare il sistema al livello delle aspirazioni.
La caotica disciplina che regolava i trasferimenti dava luogo a distorsioni che sono state al centro di una
polemica pubblicistica non da poco. Inoltre, la copertura attuata dallo Stato ad una serie di oneri impropri
che a vario titolo gravavano sulle imprese aveva in parte concorso a rendere ingovernabile la spesa
pubblica ed a falsare i meccanismi di funzionamento del mercato del credito.

Il riordino dei meccanismi del credito agevolato ha inizio con il d.P.R 902\1976, istitutivo di un fondo
nazionale per il credito agevolato al settore industriale, recante disposizioni volte ad armonizzare i criteri
per la corresponsione delle agevolazioni.

Per quanto il provvedimento fosse necessario, esso si prestava in modo indiretto alla formulazione di
indirizzi di sviluppo industriale. Piuttosto il provvedimento era in grado di bloccare talune iniziative, ma
non di promuovere altre giudicate coerenti agli obiettivi dell’azione di governo dell’industria. La
successiva delibera Cipe di attuazione infatti sospendeva la concessione di contributi ad investimenti
espansivi attuati in settori nei quali si giudicava eccedentaria la capacità produttiva. La diffusa
preoccupazione che il fondo fosse utilizzato per interventi di salvataggio di grandi gruppi in crisi dettò una
norma che non escludeva alle agevolazioni le imprese di grandi dimensioni.

L’intento si scontra con alcuni problemi posti dalla concreta attuazione della programmazione
industriale. Il dialogo diretto fra governo e industria per determinare comportamenti imprenditoriali
coerenti alle scelte della PA in materia industriale, ha prevalentemente riferimento alle grandi imprese.
L’esclusione di queste dalle agevolazioni privava la parte governativa del tradizionale strumento di
pressione sulle imprese maggiori. Il dilemma relativo alla valutazione comparata dei rischi e dei benefici
associati alla ammissibilità delle grandi imprese alle agevolazioni finanziaria e alla loro esclusione, si è
risolto con un provvedimento che riammette le imprese maggiori agli incentivi finanziari. La seconda
tappa del processo di adeguamento della istituzione di riassetto dell’industria ebbe inizio con la
presentazione di un nuovo progetto di legge, che in parte riprendeva i contenuti del progetto Moro-La
Malfa), nell’ottobre 1976. Tale progetto prevedeva:

1. Istituzione del Cipi (Comitato interministeriale per il coordinamento della politica industriale), al
quale spettavano: elaborazione di direttive per organizzazione e sviluppo del sistema
industriale e individuazione dei settori per i quali si ritiene necessario uno specifico quadro
programmatico di interventi.
2. Stanziamento di cospicui fondi di finanziamento per investimenti di ristrutturazione e
riconversione in coerenza con gli indirizzi strategici elaborati dal Cipi.
3. Rifinanziamento del fondo di ricerca Imi.
4. Criteri per favorire la mobilità della mano d’opera.
5. Definizione delle aree alle quali limitare gli interventi di salvataggio della Gepi.

91
Il disegno di legge, più volte modificato, diede luogo alla legge 675/1977, intitolata “Provvedimenti per il
coordinamento della politica industriale, la ristrutturazione, la riconversione e lo sviluppo del settore”.
La successiva delibera del Cipi identificò le aree di intervento in sette grandi settori ed in tre linee
orizzontali, per le quali il Ministero dell’Industria avrebbe dovuto predisporre “programmi finalizzati”. Fu
rapida la elaborazione di quest’ultimi, ma non altrettanto rapide furono le discussioni fra le parti sociali.
Nei fatti tale legge risulta in più parti ambigua circa la definizione di indirizzi e metodologie. Essa
rappresenta:

 In parte una legge di riordino del credito agevolato che colma le lacune della legge 183\1976
 In parte una legge di riforma che introduce nuovamente i metodi della programmazione nel
governo dell’industria. Questi tuttavia non sono chiaramente definiti.

L’esigenza di salvaguardare la legge da utilizzazioni improprie avevano portato innanzitutto ad introdurre


una norma (emendamento Andreatta-Grassini) relativa ad un massimale di indebitamento, oltre il quale
le imprese non avrebbero potuto fare ricorso alle agevolazioni, e, in secondo luogo, a stabilire la
finanziabilità esclusivamente per nuovi investimenti. La legge 675\1977 ha certamente deluso chi si
aspettava un intervento taumaturgico capace di risolvere i problemi dell’industria. L’incredibile ritardo
intercorso fra formulazione originaria e operatività del progetto ha anche impedito il raggiungimento
degli obiettivi contingenti alla base della proposta, relegando la legge alla cronaca dei molti tentativi
incompiuti di programmazione, nonostante la metodologia originale, ricca di rimandi microeconomici,
offre strumenti utili.

19.9 Piani di settore e strategia industriale

Il tratto più originale della legge per il coordinamento della politica industriale nei confronti dei
precedenti interventi sull’industria era costituito dal passaggio del regime degli incentivi finanziari dal
principio della automaticità al principio della discrezionalità. Mentre nella legislazione industriale
precedente si prevedeva una sorta di automatismo, per il quale un’impresa che si trovasse in date
circostanze maturava una sorta di diritto a ricevere l’agevolazione prevista dalla legge, nel caso della
legge 675\1977 si prevedeva che la validità dell’iniziativa da agevolare fosse vagliata dal Cipi, alla luce
degli indirizzi delineati dai programmi finalizzati di settore.

Veniva quindi introdotta una formalizzazione dei rapporti fra governo e industria già sperimentata in
Francia e GB.

I programmi settoriali predisposti dal Ministero dell’Industria coprivano una aliquota rilevante del settore
industriale, con oltre 3 milioni di addetti, e riflettevano la presenza di caratteri strutturali e problematici
dei settori sottostanti affatto eterogenei. Il contenuto dei programmi può essere scisso in due momenti
principali, che recepiscono le direttive formulate del Cipi:

1. Fase analitico-conoscitiva: volta ad identificare le caratteristiche strutturali dei settori, le


uniformità di comportamento ed i fattori esplicativi di questi ultimi; i fattori che influenzano la
performance dei settori e le aree problematiche comuni di ciascun settore. Sotto questo profilo i
piani di settore forniscono elementi di indubbia utilità non solo per scelte di carattere settoriale,
ma anche per offrire all’esecutivo e al Parlamento indispensabili basi di conoscenza dei
meccanismi di funzionamento e delle problematiche dell’industria. I piani dunque servono a
colmare il gap informativo fra governo ed industria.
2. Fase politico-propositiva: volta alla soluzione di specifici problemi dell’industria, a fornire quindi
criteri operativi per le decisioni del Cipi.

92
Scorrendo tali piani il profilo dell’industria italiana si fa più nitido. È possibile dunque distinguere nelle
aree di crisi che hanno origine di crisi di sbocchi, e che quindi richiedono di un migliore coordinamento
dello sviluppo dell’offerta da realizzarsi a livello nazionale e comunitario.

Nel complesso, l’immagine dell’industria italiana che emergeva da tale anili è quella di un sistema
industriale che ha avuto uno sviluppo diffusivo, fondato prevalentemente sull’allargamento delle
gamme qualitative dei prodotti offerti, e assai meno sulla specializzazione in produzioni qualificate.
L’ulteriore sviluppo dell’industria italiana quindi deve avvenire superando la tradizionale debolezza
tecnologica, ma anche mediante un miglioramento dei metodi di commercializzazione.

Se è vero però che l’elevato frazionamento della struttura dell’offerta industriale costituisce un serio
limite all’adozione di tecniche di commercializzazione che caratterizzano gli oligopoli differenziati, non è
meno vero che l’elasticità e la flessibilità proprie delle unità aziendali di minori dimensioni hanno
rappresentato uno dei più notevoli punti di forza dell’industria italiana nella competizione internazionale.
Per questo motivo i programmi di settore accordavano una netta preferenza a sperimentazioni di
carattere associativo, sulla cui efficienza si può avanzare qualche dubbio.

Sotto i profilo delle prospettive occupazionali l’industria italiana ha raggiunto la fase della maturità. Dal
punto di vista delle prospettive di riequilibrio della distribuzione territoriale dell’apparato produttivo, i
programmi di settore evidenziano quanto poco ci si possa attendere in questo campo di carattere
settoriale.
I programmi di settore hanno anche suscitato qualche atteggiamento ostile che ha indotto alcune parti a
reclamare la liquidazione dell’esperimento e il passaggio ad altre forme di programmazione. Tale
atteggiamento, giustificato sì dai limiti metodologi della programmazione, è però molto rischioso. Invece
che inseguire permanentemente lo strumento ottimale di definizione dei rapporti fra governo e industria,
sarebbe convenuto fermarsi su uno strumento ed introdurre progressivamente le modifiche e gli
aggiustamenti suggeriti da esperienza e esigenze funzionali. L’esperienza quindi condotta nel nostro
paese in questa fase mette in evidenza gravi limiti che si incontrano nella messa a punto di programmi di
settore riferiti ad una parte soltanto del sistema industriale. La performance di un settore si spiega solo
parzialmente con fattori interni al settore stesso, e l’analisi quindi in questo modo esclude buona parte
dei problemi rilevanti.

Vi è quindi l’esigenza di estendere l’analisi all’intero sistema industriale, per cogliere le economie esterne
di conoscenza che si possono ricavare da un complesso di studi che non trascuri importanti segmenti
della realtà e della problematica industriale. D’altra parte però i programmi di settore forniscono il
quadro di riferimento per le decisioni strategiche potendone costituire uno strumento di attuazione. I
programmi di settore, superato lo stadio conoscitivo inziale, debbono fondarsi sulla collaborazione fra
governo, imprenditori e sindacati, mediante periodiche discussioni e revisioni dei programmi. Il
coinvolgimento delle tre parti non si limita agli aspetti conoscitivi, ma si dovrebbe estendere anche
all’aspetto decisionale, in modo che le parti in causa siano pienamente informate dei differenti profili di
problemi, rendendosi responsabili degli atti da compiere e delle decisioni prese. Inoltre, i programmi non
possono prescindere dall’esistenza di un quadro di interventi a livello nazionale che definisca le linee di
riferimento, e che stabilisca una politica dei fattori produttivi.

Uno dei maggiori problemi con i quali i programmi di settore hanno dovuto confrontarsi è quello della
crisi dei grandi gruppi; in relazione a tale problema si stanno mettendo a punto ulteriori strumenti di
intervento: la legge per il risanamento finanziario delle imprese, che permette l’intervento diretto del
sistema bancario, filtrato dai consorzi nelle imprese industriali, ed il provvedimento di riforma delle
procedure concorsuali per i grandi gruppi.

La brusca fine della legislatura impedì il completamento del disegno di riforma di intervento sull’industria.
Durante questo periodo la fisionomia dell’industria italiana ha mostrato importanti cambiamenti:

93
consolidamento di nuove aree di industrializzazione e rafforzamento del ruolo delle imprese di media
dimensione. Rivitalizzazione dell’industria prodottasi mentre la faticosa opera di riforma conduceva ad
una virtuale paralisi dei tradizionali strumenti di intervento dello Stato, conferma l’ipotesi di chi ritiene
non applicabili al contesto italiano le esperienze di programmazione vissute in altri paesi europei. La
riscoperta del mercato e dei comportamenti che lo Stato deve seguire per assicurarne il funzionamento
ha esercitato una notevole influenza nella estensione dell’ultimo documento da richiamare: il testo del
“Piano triennale 1979-81” definiva i problemi della politica industriale italiana in due categorie
fondamentali di problemi: il risanamento delle aree di perdita e lo sviluppo della base produttiva. In
entrambi i casi la filosofia del piano appariva più orientata al mercato di quanto non fosse stato dato
rilevare in alcuni dei documenti succedutisi dallo Schema Vanoni in poi.

19.10 Le svalutazioni competitive negli anni della transizione verso la regolazione dei mercati e la
privatizzazione (1979- 1990)

Gli anni ’80 hanno segnato l’inizio della fine delle politiche di piano, con i correlati interventi a pioggia
di incentivi e benefici finanziari, pur mantenendosi qualche forma di interventi agevolativi per la nascita
e il consolidamento delle piccole-medie imprese, per le regioni sottosviluppate e quelle che necessitano
di processi di riconversione. Le cause di questa svolta si riconoscono in tre categorie principali:

1. Constatazione della inadeguatezza dei risultati conseguiti rispetto a quelli attesi. Decennio fece
registrare crisi di alcune industrie sulle quali lo sviluppo pianificato faceva affidamento, e la
contemporanea affermazione di industrie costituite da piccole e medie imprese, come la moda
e l’arredamento, trascurate dalla programmazione.
2. Crisi delle grandi imprese, soprattutto pubbliche, faceva venire meno lo stimolo a coordinare
piani strategici di queste ultime con i piani di carattere nazionale, come avveniva in passato.
3. A livello teorico, la rivoluzione della scuola di Chicago ed il relativo indirizzo free trade dei
governi Reagan e Thatcher, la rivoluzione dei trasporti e della telecomunicazione, e gli accordi
Gatt, resero del tutto obsolete le idee alla base della programmazione.

A ciò fece da corona il “Libro Bianco (1985)”, promossa dall’allora presidente della commissione europea
che decretò l’aprirsi di una nuova fase della politica industriale, nella quale le dottrine e la prassi
concernenti proprietà pubblica, protezioni e incentivi vennero sostituite dalla filosofia del mercato e
delle regole.
Nonostante l’abolizione del Cipi e del Cip e della moltitudine di Comitati interministeriali tarderà fino al
1993, essi furono strumenti del tutto desueti per tutto il corso degli anni ’80. Mentre si faceva strada la
visione delle funzioni regolatrici, non interventiste, del governo nei confronti dei mercati, lo stesso Cipe
sopravvisse trasformandosi in un organismo decorativo, dopo l’incorporazione del Ministero del Bilancio
in quello del Tesoro.

Negli anni della transizione fra i tentativi frustrati del dirigismo e gli anni’90 l’illusorio tentativo di
mantenere e di recuperare competitività all’industria italiana fu nella sostanza affidato alla
sottovalutazione del cambio della lira rispetto alle altre principali valute del nostro interscambio
commerciale. Si veniva così a creare un effetto protezionistico generalizzato perché la sottovalutazione
favoriva le esportazioni e sfavoriva le importazioni. Gli elevatissimi tassi di interesse, elevati per non
lasciare spazio a inflazione e svalutazione, rendevano proibitivi gli investimenti di rinnovo delle capacità
produttive, creando le condizioni per le catastrofiche vicende monetarie dell’inizio degli anni’90,
quando la lira svaluto di oltre il 50% e nel settembre 92 l’Italia si trovò sulla soglia del default
finanziario.

20. la crisi della produttività e della crescita (1995-2010)

20.1 lo strano caso del sistema Italia

94
Italia e i suoi risultati economici hanno sempre rappresentato un caso enigmatico per gli economisti;
purtroppo negli anni recenti l’Italia non ha rappresentato, come in passato, un caso di economia in rapida
crescita, ma bensì un caso di un’economia a crescita zero:

Invecchiamento della popolazione: gravi problemi in termini di produttività e welfare. Età media più alta
d’Europa, numero della popolazione diminuirebbe se non vi fosse l’immigrazione.

Elevato indebitamento del settore pubblico


Esistono tendenzialmente tre scuole principali di pensiero economico contemporaneo:

Scuola che focalizza l’incertezza, la domanda effettiva, la domanda aggregata ed il meccanismo del
moltiplicatore-acceleratore (J.M.Keynes, Cambridge).

La scuola neomonetarista che si concentra sull’operatività dei mercati (von Hayek, London School of
Economics; Friedman, scuola di Chicago).

“Supply side economics” che dà il maggiore rilievo alla qualità dell’offerta (Mundell, Laffer).

20.2 Produttività e ristagno


La crisi italiana esiste a prescindere dalla crisi più generale che ha investito il sistema globale a seguito
dell’esplosione della bolla della finanza creativa. Il PIL, principale indicatore dei risultati economici,
segnala una anomalia che dura già da tempo: economia italiana è stata stagnante per diversi anni, con
una crescita del PIL nell’ultimo quinquennio prima della crisi che era inferiore alla metà della media. Gli
andamenti negli anni della crisi del 2008 sostanzialmente confermano queste caratteristiche, dato che la
flessione italiana è stata sempre superiore alla media europea, la quale è stata superiore a quella degli
USA e oltre il doppio di quella mondiale.
Questo dato si è tradotto in una rilevante flessione del reddito pro capite nei confronti degli USA e nei
confronti delle altre potenze industriali europee. Il reddito pro capite italiano, facendo pari a 100 il dato
dell’UE a 27, risulta pari a 102, ed è in diminuzione, essendo superato da Regno Unito e dalla Spagna. In
questa circostanza il traino esercitato dai consumi (“C”) sulla crescita della domanda (Consumi,
Investimenti, Spesa pubblica e Esportazioni costituiscono la domanda aggregata keynesiana) sulla
produttività, nel nostro sistema, è risultato decisamente inferiore rispetto alla dinamica dei principali
concorrenti per effetto della crescita rallentata del reddito e dei consumi.
La produttività (misurata come Clup, Costo del lavoro per unità di prodotto) va ancora peggio, dato che
all’effetto della produttività stagnante si è sommata una dinamica dei costi del lavoro più accentuata
rispetto a quella dei paesi concorrenti. Nel periodo 1996-2007 il Clup italiano è cresciuto in ragione
dell’1,5% medio annuo: mentre per i nostri concorrenti più diretti, Francia e Germania, il Clup è diminuito
dell’1% annuo.
Con una perdita di competitività pari al 31% dal lato dei costi in confronto ai due nostri principali
concorrenti sul mercato globale, la sopravvivenza sul mercato è diventata molto difficile.
I dati più recenti del 2008-2009 riflettono la pesante flessione della produzione dovuta alla crisi che ha
portato ad un aumento del Clup ben superiore al 4%: quel che è certo è che non hanno portato ad un
miglioramento di competitività.
Sono lontani ormai i tempi, 1999, in cui i rapporti dell’Ocse indicavano per l’Italia un vantaggio
competitivo in termini di Clup pari a quello degli USA e superiore del 60% alla Francia e alla Germania:
tale vantaggio si è ridotto di oltre due terzi.
Per tutto il periodo che va dal secondo dopoguerra in poi le esportazioni “X” hanno trainato la crescita
dell’economia italiana. Attualmente esse rappresentano circa il 25% del PIL, che controbilancia le
importazioni di materie prime e di prodotti energetici. Tuttavia però la “quota di mercato” delle
esportazioni italiane sul commercio mondiale in termini di quantità è stata progressivamente erosa dalla
competizione dei paesi emergenti, mentre l’incremento dei prezzi unitari non è stato in grado di
compensare le variazioni negative dei quantitativi esportati. Le esportazioni del nostro paese sono scese

95
dal 4,6% del ’96 al 3,6% del 2006. L’anno di crisi del 2009 ha registrato una caduta delle esportazioni
italiane pari al 21,5% rispetto al 2008.
Non si può non menzionare il fatto che l’Italia è scesa all’ultimo posto nella classifica della produttività
pubblicata dall’Ocse. La tendenza della produttività italiana a ristagnare e a perdere terreno non solo nei
confronti delle economie in rapida crescita ma anche dei competitori tradizionali rappresenta ormai un
fenomeno duraturo. Tuttavia la “maglia nera” della classifica Ocse costituisce un fatto anche
psicologicamente traumatico.

20.3 Le analisi post keynesiane


Le relazioni sussistenti fra andamento della produttività e sviluppo rappresentano il principale oggetto di
studio di tutte le scuole dell’economia contemporanea. La prima fra queste, che ha origine dall’opera
prima di Keynes (The General Theory of Employment, Interest and Money, 1936), considera che la
domanda privata o pubblica, coperta o meno da entrate corrispondenti, traina l’offerta attraverso il
meccanismo del moltiplicatore-acceleratore, e stabilisce quindi una chiara relazione di segno positivo fra
domanda, produttività e sviluppo.
Il modello post-keynesiano Kaldor-Verdoorn delle relazioni circolari fra domanda aggregata (sistema
economico nel suo insieme), domanda effettiva (domanda che si rivolge alle singole industrie) e
produttività può farci capire tale meccanismo. Il termine “circolare” sta a significare che una variabile, la
produttività, influenza l’altra, la domanda, e viceversa, mentre il progresso tecnologico è paragonabile ed
è una variabile esogena.
La sintesi di queste relazioni può essere così espressa: “un incremento della domanda determina un
incremento della produttività e\o dei salari e\o dell’occupazione, che determinano un incremento della
domanda e viceversa, soggetta ad un vincolo di competitività o di profitto, al netto delle variazioni
determinate dall’innovazione”. Il senso delle relazioni è che, assumendo che le altre variabili non
cambino, gli incrementi di produttività si traducono in incrementi del PIL, per effetti di incrementi della
domanda interna (via salari, occupazioni e\o investimenti) o estera, per effetto del miglioramento della
competitività, aumenti che a loro volta determinano incrementi di produttività. I fenomeni economici
sono ciclici e non lineari: né i circoli virtuosi (variabili sono in aumento) né i circoli viziosi (variabili in
diminuzione) possono durare all’infinito.
Il “Sistema Italia” offre un caso perfetto per illustrare tale teoria.
Fra il 1995 ed il 2000, l’economia italiana cresceva ad un tasso normale (media annuale del 3% annuo).
All’alba del nuovo secolo ogni cosa è cambiata, il circolo ha smesso di essere virtuoso ed è diventato
vizioso, ed i risultati sono quelli descritti.
La situazione italiana quindi è coerente al modello post keynesiano, ma il constatare che il circolo
vizioso ha improvvisamente preso il posto di quello virtuoso non permette di capire perché ciò è
avvenuto.
Secondo il “principio della domanda effettiva” della teoria keynesiana questi fatti potrebbero riflettere
una scarsa fiducia nel futuro da parte degli imprenditori a partire dal 1995. Tuttavia la domanda rimane la
stessa di quella relativa al fenomeno della flessione delle nascite. Tutto ciò non può essere accaduto in
conseguenza di cause generali, come la recessione o l’attacco terroristico alle Torri Gemelle oppure la
recente “bolla immobiliare”, perché le ripercussioni di questi eventi hanno riguardato tutta l’economia
mondiale e non soltanto un paese, e soprattutto un fenomeno di tale rilevanza non può essere spiegato
da variazione dei salari, disoccupazione o profitti.
Non ha particolari responsabilità neanche l’introduzione dell’Euro (2002); è stata una buona moneta che
ha sostituito una moneta cattiva, che conteneva ormai un virus inflazionistico. Le abitudini inflazionistiche
che si erano radicate con l’uso della vecchia lira hanno continuato ancora un po’ anche con l’euro e
l’inflazione italiana è stata superiore ai livelli degli altri paesi dell’euro nelle prime fasi dell’adozione.

-) Il ruolo del “capitale umano”. Nuovi sviluppi sul modello post keynesiano di Solow: profilo riguardante
il ruolo dell’innovazione e del capitale umano come determinante dello sviluppo economico. Robert
Solow è conosciuto più che altro per il modello di crescita economica che porta il suo nome, paradigma
della sintesi post keynesiana. Il modello permette di separare le determinanti della crescita dell’output
in variazioni incrementali di input, mentre l’incremento del prodotto che non risulta spiegato

96
dall’incremento dei due input (K ed L) viene attribuito al progresso tecnologico. Con tale modello Solow
arrivò alla conclusione per la quale 4\5 della crescita marginale del prodotto era da attribuirsi al
progresso tecnologico. A partire dalla pubblicazione del modello, 1950, si sono evoluti modelli sempre più
sofisticati di cui il più importante è rappresentato dal contributo di Mankiw, Romer e Weil. I tre
economisti americano dimostrarono che, se si include il capitale umano nel concetto di capitale, allora la
capacità esplicativa del modello di Solow risulta enormemente potenziata. Da questa osservazione deriva
la conclusione che l’elemento rappresentato dalla formazione del personale (capitale umano) nel
determinare la crescita della produttività riveste un ruolo paragonabile se non persino superiore a quello
dell’innovazione tout court, o di quella di processo e di prodotto. Il rovescio della medaglia della
celebrata struttura flessibile dell’industria italiana basata sulle piccole-medio imprese, consiste proprio
nella esiguità delle risorse che tali sistemi di imprese possono destinare alla qualificazione del fattore
costituito dal capitale umano e alla ricerca, che rappresentano pur sempre in gran parte una esternalità
per l’economia delle imprese.

-) La visione neomonetarista della scuola di Chicago: prende in considerazione la competitività dei


mercati; in tale prospettiva ciò che determina buoni risultati economici è la concorrenzialità. Ogni
ostacolo alla concorrenza (monopoli, aiuti, regolamentazioni) determina effetti diversi da quelli dichiarati
e risultati peggiori di quelli che si avrebbero avuto in loro assenza. Secondo Friedman il governo e la
spesa pubblica dovrebbero essere neutrali rispetto alla concorrenza fra i soggetti economici, limitandosi
a garantire la stabilità, finanziando o producendo i beni pubblici che il mercato non può produrre da sé,
come l’educazione, giustizia e infrastrutture. Il neomonetarismo deriva i suoi studi dalla teoria
quantitativa della moneta di Fisher. Nonostante le raccomandazioni di politica economica non siano
opposte alle idee di derivazione keynesiana, il bersaglio dei neomonetaristi è costituito piuttosto dalla
economia bastarda, creata dalla commistione fra pubblico e privata che ostacola la concorrenzialità dei
mercati. Prevalere della scuola neomonetarista ha condotto alla deregolamentazione alle privatizzazione
degli anni ’80. Grande prominenza al ruolo delle forza spontanee del mercato, imprese e management su
tutte, dato che il loro successo svolge un ruolo darwiniano nella allocazione dei fattori produttivi, creando
spazio per nuove imprese più efficienti con l’eliminazione dei soggetti che non usano bene le risorse
(morte dell’elettronica di consumo negli USA e nascita della Silicon Valley, esempio dei grandi successi
ottenuti dall’applicazione di questi modelli).

La disciplina dei mercati e della concorrenza fa parte delle competenze dell’UE, e costituisce, assieme alle
politiche che attuano tale disciplina, la giustificazione ed il fondamento dell’allargamento dei mercati
(globalizzazione, delocalizzazione); tale allargamento ha determinato il ciclo di crescita eccezionalmente
lungo che ha preceduto la crisi che ha avuto inizio nel 2007-2008. L’allargamento del mercato spiega i
consolidati successi di Cina e Germania, ma non spiega il declino di produttività e crescita in Italia: per un
grande paese esportatore, la rimozione degli ostacoli al commercio internazionale dovrebbe dare
vantaggi ben superiori agli svantaggi determinati dalla maggiore concorrenza sul mercato interno dal lato
delle importazioni. Il venire meno del sostegno offerto dalle svalutazioni competitive alle industrie
esportatrici e a quelle che subiscono la concorrenza delle importazioni può aver ridotto la profittabilità
delle attività esposte alla concorrenza, e reso relativamente più attrattive quelle protette.

-) Supply side economics: aspetto relativo alla “dimensione” della presenza pubblica in economia (si parla
di Small o di Big government). La moderna “economia dell’offerta” ha rappresentato la reazione agli anni
bui della stagflazione, dovuta al dilagare della spesa pubblica, e si fonda sulla assunzione per la quale la
spesa pubblica produce risultati decrescenti, cioè esattamente l’opposto di quanto accade nel settore
privato dove i rendimenti sono crescenti (“The State is the problem, not the solution”). Questa visione
ha avuto successo in America ed in misura minore Europa. Anche nella patria di Lady Thatcher, la spesa
pubblica ha continuato ad aumentare e non è mai diminuita. Per questo motivo il differenziale di crescita
fra America ed Europa può essere spiegato dalla dimensione della spesa pubblica, il quale però non può
spiegare il differenziale fra Italia ed il resto d’Europa, nonostante la spesa pubblica italiana avesse
sostanzialmente analoga composizione e dimensione, forse diversa efficienza, rispetto agli altri paesi

97
europei. Concludendo, per spiegare la crisi della produttività e della crescita in Italia, gli strumenti
dell’analisi economica consentono di formulare solamente ipotesi.

Infrastrutture e Sviluppo economico


Rileggendo gli scritti di Marshall, padre fondatore della supply side economics, possiamo avvicinarci alla
soluzione di una parte di questo enigma. Per spiegare il fenomeno delle “economie esterne”, l’autore
inglese sosteneva che il fattore dominante dell’epoca (principles of economics, 1890) non fosse lo
sviluppo dell’industria manifatturiera, ma di quella dei trasporti. Aggiungendo a questa constatazione la
sigla Ict, si renderebbe immediatamente chiaro quanto la spesa pubblica per le infrastrutture sia
determinante per la produttività e lo sviluppo. Inoltre in Europa, con l’affermarsi del modello di
economia sociale di mercato, il settore pubblico dell’economia è cresciuto considerevolmente anche
nella spesa sociale e la quantità della spesa pubblica fa della qualità della spesa stessa un problema
prioritario dell’economia.
La malattia italiana ha origine dalla flessione della produttività reale a partire dal 1996, e rappresenta
l’esplodere conclamato di un male i cui sintomi sono rimasti in incubazione per un lungo periodo di
tempo.
Diminuzione del tasso di crescita della produttività reale ricorda l’improvvisa perdita di pressione nella
cabina di un aereo in volo. Considerando che già si stava volando basso, dato che da tempo ormai la
crescita della produttività aveva rallentato, la nostra quota di volo è ulteriormente scesa alla metà di
quella europea, che a sua volta è la metà di quella mondiale.

20.5La palude legislativa e il macigno sulle spalle


Spiegazione potrebbe essere trovata in tre dati impressionanti: massa enorme delle leggi in vigore che
continua a crescere, debito pubblico e pressione fiscale.
Studio della Banca d’Italia del 2007, leggi vigenti in Italia erano più di 21mila, contro le quasi 10mila in
Francia e le circa 4mila in Germania. Tale diluvio legislativo si trasforma in un pantano che appesantisce i
movimenti, la cui massa invece di consolidarsi continua ad espandersi per ragioni che sono difficili da
spiegare. Forse si tratta di un difetto di modernità nel paese che è stato la culla del diritto, ma tutto ciò ha
creato un brodo di coltura perfetto per la burocrazia, la legislatura ed i Tar.
Il debito pubblico è il macigno che grava sulle spalle del paziente italiano. Si è appesantito a dismisura
come conseguenza della crisi sociale degli anni ’70 e dei suoi strascichi. Il debito italiano è il più alto
d’Europa dopo quello greco, e l’Italia è sorvegliata speciale da parte dei mercati finanziari, pronti a
sanzionare gli anelli deboli della catena dei paesi euro (Pigs). Nonostante la discesa dei tassi di interesse
internazionali, l’Italia non ha potuto approfittare della corsa generale apertasi nel dare sostegni pubblici
alle economie, perché è consapevole di avere l’attenzione dei mercati finanziari puntata addosso e non
può permettersi di allargare ulteriormente lo spread dei tassi di interesse sul debito pubblico.

Il differenziale dei tassi di interesse sui titoli decennali del Tesoro in raffronto a quelli tedeschi risultava
aumentato, all’acme della crisi finanziaria del gennaio 2009, da 45 a 150 basis points, per poi scendere a
80 nel febbraio 2010, visto il comportamento più virtuoso della politica fiscale italiana rispetto a quelle
degli altri Pigs, per poi risalire a 150 dopo la crisi della Grecia (maggio 2010).

I vincoli del mercato hanno imposto di fare “di meno e dopo” di quanto fatto dai nostri concorrenti. Sono
trascorsi quindici anni da quando la produttività reale italiana ha cominciato a perdere quota, e nello
stesso periodo la paralisi delle infrastrutture ha condotto al caos. Gli investimenti in infrastrutture sono
stati cancellati o sono proseguiti al rallentatore, generando così costi aggiuntivi per rispondere alla
sensibilità ambientale cresciuta in tutto il mondo sviluppato. Considerati come fattori ostacolanti la
costruzione di nuove grandi autostrade l’orografia italiana e le preoccupazioni per la difesa ambientale, la
modernizzazione delle interconnessioni dei trasporti su rotaia ha la massima importanza. Quanto alle
altre infrastrutture da cui dipende lo sviluppo ed il benessere (educazione, ricerca, salute e giustizia), il
fatto che in Italia esistano oltre 120 sedi universitaria, e che neppure una figuri fra le prime cento nelle
classifiche internazionali getta un’ombra inquietante sul futuro del nostro paese.

98
20.6Il peso fiscale

L’elevata pressione fiscale è l’ovvia conseguenza della vastità della spesa pubblica e dell’elevatezza del
debito. Il sovrappeso del debito pubblico italiano è un problema che risale agli anni ’80. Dopo la firma del
trattato di Maastricht e per tutto il decennio successivo l’Italia si è trovata in compagnia del Belgio a
condividere il primato europeo nella speciale classifica dei paesi relativamente più indebitati. Entrambi i
paesi hanno dovuto subire le imposizioni del “patto di stabilità”, aumentando fortemente la pressione
fiscale. Se nel caso del Belgio la manovra di correzione ha avuto successo, perché l’aumento fiscale è
stato accompagnato da una risoluta azione di freno alla crescita della spesa, nel caso dell’Italia
l’inasprimento fiscale non è stato accompagnato da una contestuale azione di contenimento della
crescita della spesa, e ciò ha avuto l’effetto ridurre soltanto marginalmente il peso dell’indebitamento
pubblico sul Pil. Il succedersi di dodici formazioni governative nel periodo 1992-2009 è un indice
significativo dell’instabilità politica che si è tradotto in un compromesso molto pericoloso se protratto nel
tempo: accentuare pressione fiscale senza domare la crescita della spesa. La pressione fiscale in Italia ha
superato anche quella della Francia e del Belgio, divenendo la più elevata fra i paesi censiti dall’Ocse. Con
il sopravvenire della crisi del 2008 le cose sono andate ancor più peggiorando, perché volendo mantenere
la spesa in disavanzo sotto controllo, la pressione fiscale tenda ad aumentare inerzialmente in presenza di
flessioni del reddito.
La struttura del prelievo inoltre è fortemente concentrata sui redditi del lavoro dipendente e delle
imprese con un prelievo di fiscalità complessiva che supera il 75% degli utili lordi. Qui si intravedono
chiaramente i criteri di una supply side economics applicati al rovescio, dove la crescita della spesa
pubblica avviene a spese degli investimenti e dei consumi privati, penalizzando i settori a più elevata
produttività.

20.7Dalle riforme degli anni ’90 al quindicennio perduto. La nuova terapia

La malattia dell’Italia si è resa conclamata e più acuta per conseguenza della grande recessione, a partire
dalla seconda metà del 2008, accentuando il twin deficit nei conti dell’estero e nel disavanzo. Essa ha
origine da cause molto complesse ed eterogenee. Non esistono soluzioni semplici per problemi
complessi, ma innanzitutto non ci si deve nascondere che la recessione colpisca l’Italia più gravemente di
quanto accada per i nostri alleati-competitors. L’Italia è entrata in condizioni relativamente peggiori
rispetto agli altri grandi paesi sviluppati perché il sistema risultava già in forte decelerazione e
cogliendo il sistema delle imprese nel bel mezzo di una fase di ristrutturazione, necessaria per
recuperare le perdite di competitività.
Nelle prime fasi della crisi le condizioni della nostra finanza pubblica hanno fatto sì che la preoccupazione
di non compromettere lo standing creditizio del paese sul mercato internazionale avesse il sopravvento
sulla necessità di condurre politiche fiscali anticicliche di sostegno alla domanda e alla competitività.
Prima fase, esclusivamente difensiva, ha rappresentato una scelta obbligata ed ha avuto successo grazie
al concorso di tre ordini di circostanze:

Altri paesi si sono trovati nella posizione di costituire gli anelli più deboli della catena dell’euro.

Il sistema bancario italiano è risultato meno compromesso nelle attività di speculazione immobiliare e di
intermediazione.

Grazie alle politiche monetarie espansive della Fed e della Bce il livello dei tassi di internazionali è sceso.

Quando i tassi però ricominceranno a salire per effetto della ripresa internazionale, o dell’inflazione, il
disavanzo pubblico italiano diverrà esplosivo. Occorre quindi utilizzare questo breve intervallo per
introdurre le riforme e le correzioni strutturali che attendono da così lungo tempo. Può essere istruttivo il
confronto con il precedente della crisi 1974-1975. I gravi errori di politica economica che si compirono
allora in Italia, costituiti dall’adozione di un sistema di indicizzazione dei salari, dall’impegno dell’Istituto

99
di emissioni di sottoscrivere in maniera illimitata e incondizionata i titoli del Tesoro, prolungavano
l’instabilità oltre il decennio. Oggi gli errori non potrebbero essere ripetuti; il campo degli strumenti della
politica economica si è molto ristretto, specificatamente a:

1. Spesa pubblica ed infrastrutture: richiede che la severa cura a cui la stabilizzazione della moneta
ha sottoposto il settore privato sia ora estesa al settore della spesa pubblica. Pensioni, sanità, PA
contengono ampi margini di arretratezza e inefficienza la cui riduzione potrebbe tradursi in
rilevanti alleggerimenti della pressione fiscale.
2. Debito e patrimonio pubblico: politica delle privatizzazioni, dopo un avvio promettente, è poi
proseguita stancamente.
3. Concorrenzialità dei mercati: malgrado le norme e gli istituti introdotti e malgrado il generoso
impegno di coloro che vi hanno dedicato attività, forniscono una parte della spiegazione del più
singolare fra i paradossi della sindrome del “paziente italiano”: mentre i costi unitari del lavoro
sono aumentati di più di quanto sia avvenuto per i nostri principali concorrenti, il potere
d’acquisto per le nostre famiglie risulta comparativamente diminuito.
4. Il “che fare” di fronte all’allungamento della durata della vita media: crescita del numero dei
pensionati rispetto ai lavoratori attivi. Il fenomeno per cui la crescita dei salari si traduce in una
corrispondente crescita della domanda effettiva perde la sua efficacia a livello aggregato se la
quota dei lavoratori attivi sul totale della popolazione attiva diminuisce. Senza una profonda
revisione del sistema pensionistico il prolungarsi della vita media degli individui si trasforma da
principale indicatore del benessere in un fattore che pregiudica la base stessa da cui ha origine il
benessere.

21. le nuove tendenze delle politiche industriali. La regolazione dei mercati e le authorities

21.1introduzione

Linea ispiratrice delle nuove politiche industriali può essere espressa dal principio della promozione e
della tutela di condizioni di concorrenzialità dei mercati, che si realizza eliminando le posizioni
monopolistiche e prevenendo comportamenti restrittivi della concorrenza praticati dalle imprese
incombenti. Il fondamento di tale principio risiede nella constatazione secondo cui la concorrenza è il
migliore sistema possibile non solo nella prospettiva dei consumatori ma anche in quella di efficienza,
competitività e innovazione. Si è quindi determinato un capovolgimento delle politiche che si ispiravano
alla protezione dei produttori.

21.2La tutela della concorrenza

Azione delle Autorità preposte alla tutela della concorrenza trova la giustificazione economica principale
nella inefficienza allocativa del monopolio. In regime di monopolio infatti l’output fissato dal
monopolista è inferiore a quello ottimale, e di conseguenza anche il prezzo è più elevato del livello
ottimale. Si può quindi parlare di costo sociale del monopolio. Condizioni di inefficienza allocativa si
caratterizzano anche in caso di oligopolio, che costituisce una forma di mercato più diffusa, nonostante
però non esista una misura precisa di quanto e quando un oligopolio molto concentrato è effettivamente
dannoso per la concorrenza del mercato.

Accanto al costo sociale del monopolio, secondo alcuni recenti sviluppi, appare rilevante includere anche
i costi relativi alla creazione e al mantenimento di posizioni monopolistiche; tra questi rilevano:

1. Comportamenti dei monopolisti rivolti a scoraggiare entrata di nuove imprese: Esistenza di


extraprofitti richiama l’entrata di nuove imprese. Il monopolista potrà adottare diverse strategie
di deterrenza dell’entrata, come l’applicazione di prezzi più bassi di quelli che portano alla
massimizzazione dei profitti di breve periodo. Queste strategie da un lato comportano una

100
riduzione dei costi sociali del monopolio, dall’altro però hanno effetti negativi il cui risultato netto
va valutato nel lungo periodo, relativamente alla durata del monopolio.
2. Comportamenti dei monopolisti nei settori delle public utilities volti a estendere abusivamente la
propria posizione dominante in segmenti di mercato contigui liberalizzati
3. Costo opportunità legato agli investimenti che altri operatori farebbero senza monopolio:
tendenzialmente si ritiene che i nuovi entranti investano molto di più di un monopolista se il
mercato viene aperto alla concorrenza.
4. Minore progresso tecnologico del monopolio: gli incentivi ad innovare sono più forti nelle
industrie concorrenziali, mentre il monopolio ritarda il progresso e causa perdite di benessere.
Alle innovazioni infatti sono associati generalmente diminuzioni di costi e aumento dei profitti,
importanti per una impresa concorrenziale, non per un monopolista che già gode di extraprofitti.

Le normative per la tutela della concorrenza sono diffuse in quasi tutti i paesi industrializzati e sono
caratterizzate da una struttura comune, nonostante alcune difficoltà legate al contesto economico:

1. Norme in materia di posizione dominante o di monopolio


2. Norme in materia di intese e forme di comportamento coordinato
3. Norme in materia di concentrazione

A queste si associa la creazione di un organismo tecnico di applicazione della politica della concorrenza.
Generalmente tali norme si applicano a tutti i settori della economia, ma ciascuno Stato può individuare
settori nei quali la normativa non viene del tutto applicata o trovare alcune limitazioni. Allo stesso modo
possono essere previste esenzioni relative ai comportamenti vietati che vengono autorizzati in ragione
degli effetti positivi che ne possono derivare in termini di benessere collettivi.

-----> La normativa antitrust negli Stati Uniti.

USA hanno preceduto tutti gli stati industrializzati nell’emanare lo Sherman Act nel 1890. La prima
sezione vieta i cartelli espliciti, mentre la seconda sezione stabilisce che “ogni persona che
monopolizzerà” verrà ritenuta colpevole di un reato grave. Nonostante la seconda sezione formuli
esplicitamente un divieto di monopolio generale, nella prassi le Autorità ne hanno fornito una
interpretazione diversa, che ha portato a sanzionare solo alcuni comportamenti monopolistici capaci di
generare inefficienza. Per porre rimedio all’ambiguità della formulazione e risolvere dubbi interpretativi,
furono approvate successivamente due ulteriori normative:

• Clayton Act, che mira principalmente a combattere quattro prassi specifiche (discriminazione dei prezzi,
utilizzo di vendite abbinate di beni, monopoli locali che determinano riduzione della concorrenza e
fusioni che limitano la concorrenza). In materia di fusioni, l’ultima revisione delle linee guida governative
prescrive l’utilizzo dell’indice HH per valutare se sono restrittive della concorrenza. Calcolati i valori
dell’indice (moltiplicato per mille) nel mercato rilevante e la sua variazione a seguito dell’operazione di
concentrazione. Crea il Department of Justice.

• Federal Trade Commision Act, ha creato una nuova agenzia Governativa, la Ftc, che oltre a svolgere
attività non connesse all’antitrust, vigila sull’applicazione delle leggi antitrust e giudica le controversie.
Rientra tra le responsabilità della Ftc la protezione del consumatore e la prevenzione della pubblicità
ingannevole.

• Ftc e Department of Justice sono gli organismi responsabili della applicazione delle leggi antitrust. Un
provvedimento della Ftc può portare a un provvedimento che impone l’abbandono di certe pratiche; un
provvedimento del DoJ può concludersi con un provvedimento con finalità analoghe. Il DoJ può anche
intentare una causa penale.

101
Il modello statunitense vede dunque coinvolti organi amministrativi e giudiziari nell’attività antitrust. I
giudici interpretano e fanno rispettare la legge, mentre il DoJ e l’Ftc vigilano perché non si determinino
comportamenti anticompetitivi, insieme con i privati cittadini.

----> La normativa antitrust in Europa.

Il trattato dell’UE, artt. 81 a 89, fornisce il quadro normativo della politica europea di concorrenza.
Ulteriori norme sono contenute in Regolamenti del Consiglio e della Commissione. Politica europea
comprende cinque ambiti principali:

1. Divieto di accordi restrittivi della concorrenza: art. 81 si applica alle imprese che possono
pregiudicare il commercio tra Stati membri e che impediscono o falsano la concorrenza. Vi
rientrano gli accordi orizzontali, che prevedono fissazione congiunta dei prezzi di vendita o rivendita,
la spartizione dei mercati e la limitazione della produzione. Sono vietate anche le limitazioni alla
concessione di sconti, fissazione di margini per la rivendita ecc. intese di questo tipo finiscono per
produrre prezzi più elevati e quantità inferiori a quelle desiderate dai consumatori. Possono
risultare restrittivi della concorrenza anche gli accordi verticali, come ad esempio accordi di esclusiva
tra produttore e distributore di un bene. Divieto non si applica nel caso in cui gli accordi restrittivi
contribuiscano a incoraggiare la concorrenza, e cioè: migliorano la produzione o distribuzione
oppure promuovono il progresso, fanno beneficiare i consumatori di una congrua parte, sono
necessarie per conseguire i benefici. Per i casi ricorrenti in cui tali condizioni possono essere sempre
dimostrate, la Commissione ha adottato i cd regolamenti di esenzione per categoria, che fissano le
condizioni da rispettare per determinate categorie di accordi. Tali regolamenti accordano alle
imprese una più ampia libertà di scelta quanto all’organizzazione della propria attività economica e
allo stesso tempo individuano con chiarezza alcune pratiche apertamente restrittive della
concorrenza, pertanto vietate.
2. Divieto di abusi di posizione dominante: art. 82; gli abusi possono consistere in:
- imposizione diretta o indiretta di prezzi di acquisto o di vendita o di altre condizioni contrattuali
particolarmente gravose;
3. - limitazione della produzione, dei mercati e dello sviluppo tecnologico, con pregiudizio per i
consumatori (rifiuto a produrre un bene finale o intermedio);
4. - applicazione nei rapporti commerciali con altri contraenti di condizioni contrattuali oggettivamente
diverse per prestazioni equivalenti;
5. - subordinazione della conclusione dei contratti all’accettazione dei contraenti di prestazioni
supplementari che non abbiano alcuna connessione con l’oggetto dei contratti stessi.

Le concentrazioni sono disciplinate da un apposito Regolamento, che ha introdotto a livello comunitario


una disciplina sul controllo preventivo di tutte le operazioni di concentrazione nelle quali il fatturato
delle imprese interessate superi determinate soglie. In questi casi, prima di effettuare l’operazione,
occorre che le imprese ne diano informazione alla Commissione, che può vietare l’operazione se la
concentrazione ostacoli significativamente una concorrenza effettiva nel mercato comune o in una parte
essenziale di esso. Al di sotto delle soglie comunitarie, le concentrazioni vengono esaminate dalle
Autorità nazionali garanti della concorrenza degli Stati membri.

3. Divieto delle concentrazioni che creano e rafforzano una posizione dominante (Regolamento sulle
concentrazioni)

4.La liberalizzazione dei settori in regime di monopolio (art. 86): divieto rivolto agli stati membri di
introdurre o mantenere in vigore in vigore misure contrarie alla concorrenza, che può essere rimossi se
si dimostri che l’applicazione delle norme concorrenziali è di ostacolo alla specifica missione loro
affidata, sia in termini giuridici che di fatto.

102
5.Divieto degli aiuti di Stato (art. 87 e 88): specifiche clausole contenute nella normativa europea dirette
a disciplinare l’azione dello stato in campo economico tramite l’uso di risorse pubbliche per promuovere
determinate attività economiche o proteggere le industrie nazionali, pubbliche o private che siano. La
concessione di denaro pubblico costituisce un aiuto di Stato. Gli aiuti possono falsare la concorrenza
leale ed effettiva tra imprese e danneggiare l’economia, e per questo la loro elargizione è controllata
dalla Commissione. Sono consentiti quelli conformi all’interesse comune dell’UE (favorire sviluppo delle
regioni svantaggiate, promozione PMI, ricerca e sviluppo, protezione ambiente ecc.).

Queste norme tracciano i limiti delle politiche industriali tradizionali, che corrispondono in gran parte a
misure di sostegno ai produttori, subordinandone l’ammissibilità alla verifica delle condizioni di
compatibilità con le finalità sottostanti alla creazione dell’UE e con la politica della concorrenza.
Commissione europea è l’istituto al quale è affidata l’attuazione della normativa a tutela della
concorrenza a livello comunitario.

----> La normativa antitrust in Italia e l’Agcm.

Disciplina antitrust in Italia approvata con la legge 287\1990, che ha istituito l’Autorità garante per la
concorrenza ed il mercato. Normativa che ricalca quella europea.

Articolo 2 vieta le intese che hanno obiettivo o effetto di restringere la concorrenza e che comportano
quindi una consistente restrizione della concorrenza all’interno del mercato o in una sua parte rilevante.
Sono considerate intese non solo gli accordi formali tra operatori economici, ma tutte le attività
economiche in cui è possibile individuare il concorso volontario di più operatori.

Articolo 4 disciplina le deroghe al divieto di intesa, casistica corrispondente a quella europea delle
condizioni cumulative da soddisfare. La legge italiana non vieta la posizione dominante, ma pone dei
vincoli ai possibili comportamenti di un’impresa che si trova in questa situazione.

Per quanto riguarda invece le operazioni di concentrazione, la legge richiede che tutte quelle il cui
fatturato realizzato nel territorio italiano superi determinate soglie, siano comunicate all’Autorità, mentre
sono esentate le fusioni e acquisizioni che riguardano imprese con fatturati di modesta entità.

Nel caso dei monopoli legali e delle imprese pubbliche, la legge fa propri i principi comunitari,
prevedendo che la disciplina antitrust possa trovare delle limitazioni, ma solo per tutto quanto
strettamente connesso all’adempimento degli specifici compiti affidati alle imprese che erogano servizi di
interesse economico generale o che operano in regimi di monopolio legale.

L’Agcm ha potere investigativo e decisionale sui casi di violazione della concorrenza legati a intese e
cartelli tra imprese, abusi di posizione dominante, operazioni di concentrazione. Recentemente ha
acquisito anche competenze in materia di pubblicità ingannevole e comparativa e di conflitti di interesse.
Inoltre, l’Autorità effettua pareri e segnalazioni circa leggi vigenti o in via di formazione che possano
introdurre restrizioni alla concorrenza. In base a tale poteri, svolge anche un ruolo di promozione della
concorrenza, fornendo suggerimenti e indicazioni su come leggi e regolazioni settoriali possano essere
orientate in un senso pro concorrenziale. Autorità, che pubblica le proprie decisioni sul proprio
Bollettino settimanale, è un organo collegiale. Un presidente, quattro Componenti, nominati da Camera e
Senato. Sono presenti in Italia altre istituzioni che hanno analogo ruolo in settori specifici, come la Banca
di Italia e l’Isvap.

----> Obiettivi delle politiche per la concorrenza.

Obiettivo generale è promozione dell’efficienza, quale quella che si realizza in concorrenza perfetta. Non
essendo questa però facilmente realizzabile, l’azione antitrust si attesta su obiettivi di second best, quali

103
diffusione del potere di mercato (intesa come libertà di accesso al mercato) e difesa della libertà
economica dei partecipanti al mercato (difesa del funzionamento del meccanismo concorrenziale).
Mirando tali politiche all’efficienza allocativa, non possono esservi gruppi o categoria sociali in partenza
favorite, se non i consumatori. D’altra parte la difesa delle piccole imprese dallo strapotere dei grandi
gruppi è all’origine dello Sherman Act, e numero decisioni americane sono state influenzate dalla finalità
di garantire alle piccole imprese più efficienti di utilizzare appieno i vantaggi derivanti dalle loro superiori
capacità produttive ed organizzative. Stesso atteggiamento, attenuato, si ritrova nelle politiche europee.
In generale, tutte le normative evolvono in funzione dell’ambiente economico e istituzionale di
riferimento; quella antitrust ad esempio risente della struttura dell’industria cui si applica, al suo grado di
concentrazione, integrazione e struttura proprietaria. Lo sviluppo della normativa antitrust è stato anche
connotato da un sempre maggior peso della teoria economica; “cicli interpretativi” delle normative legati
al susseguirsi di paradigmi teorici tra loro alternativi.

----> Differenza fra normativa statunitense ed europea.

Maggiori difformità si sono evidenziate in passato nell’ambito del controllo sulle operazioni di fusione e
acquisizione. Tra gli anni ’30 e ’70 il paradigma SCP ebbe una forte influenza sulla normativa antitrust
americana. L’atteggiamento degli organi e l’applicazione dei tribunali era legata agli effetti dei
comportamenti d’impresa sulla struttura di mercato e sulle condizioni di accesso ad esso. A partire dagli
anni ’70 invece si afferma il pensiero della scuola di Chicago, più attento all’efficienza. Più attenzione agli
aspetti organizzativi del mercato e comportamenti dell’impresa considerati in relazione agli effetti che
essi producono.

21.3La regolazione economica

Fondamento economico della regolazione trova giustificazione nell’esistenza dei fallimenti di mercato,
tra cui si ricomprende il monopolio naturale. Le fonti e le forme che possono assumere i fallimenti di
mercato sono molteplici. Nell’ambito della regolazione economica possono essere considerate solo
alcune forme:

• Monopolio naturale: (vedi cap. 7 e 12) si realizza quando la domanda del mercato di un bene può
essere soddisfatta da parte di una singola impresa ad un costo più basso di quello che si avrebbe se a
produrre il bene fossero due imprese o qualsiasi altra combinazione di esse. Poiché il monopolio genera
vari tipi di inefficienza statica e dinamica, deve essere regolato. Ciò può avvenire adottando diversi
modelli di fissazione del prezzo (cap. 22).

• Esternalità: presenza di situazioni in cui gli operatori sul mercato, nel prendere le proprie decisioni,
sono indotti a trascurare le ricadute degli effetti negativi o positivi di tali decisioni su terzi (esempi
classici di esternalità positive: prevenzione di fenomeni di inquinamento ambientale, stabilità dei mercati
finanziari). Interdipendenza che altera il funzionamento del mercato, impedendo al prezzo del bene di
sintetizzare tutte le informazioni rilevanti per la conclusione dello scambio. In presenza di esternalità
negative, il prezzo non riflette il costo sociale del comportamento di domanda ed offerta, e quindi si avrà,
rispettivamente, un consumo ed una produzione superiore all’ottimo; in caso di esternalità positive, si
avrà consumo o produzione inferiore all’ottimo. La regolazione interviene per rendere espliciti i costi
sociali di tali decisioni penalizzando\incentivando le attività che generano esternalità negative\positive.

• Asimmetrie informative: l’informazione sui prodotti o servizi lungi dall’essere perfetta, potendo essere
insufficiente o incompleta perché costosa, falsa o complessa. Quando la reciproca esperienza si rivela
insufficiente a eliminare tali asimmetrie, l’intervento pubblico può essere orientato ad imporre standard
qualitativi minimi o a subordinare l’esercizio di una attività produttiva a controlli e autorizzazioni. In
alcune circostanze il mercato può non garantire la fornitura di un servizio secondo le modalità ritenute
socialmente desiderabili; ciò si verifica nei servizi di pubblica utilità (poste, telecomunicazioni e ferrovie),

104
caratterizzati da una domanda non uniformemente distribuita sul territorio e di tipo stagionale o ciclica.
Obblighi di servizio imposti anche a servizi non essenziali, come le farmacie, i taxi e le edicole, dove si
traducono nell’imposizione di regole relative agli orari di erogazione o ai turni.

• Universalità del servizio: da un punto di vista economico, i servizi essenziali rientrano nella categoria
dei beni di merito, il cui consumo è ritenuto un bene, sulla base di considerazioni sociali o politiche, ma
comunque extraeconomiche.

----> Oggetto della regolazione è riconducibile a tecniche di fissazione dei livelli dei prezzi e dei loro
meccanismi di adeguamento, e della fissazione dei livelli di qualità.

----> Il problema della fissazione dei livelli di prezzo (optimal pricing).

Problema si pone nei termini di definire una remunerazione equa per l’impresa che garantisca la
massimizzazione del benessere collettivo. Per illustrare come avviene la fissazione ottimale delle tariffe
nel caso di un monopolio naturale in base a criteri marginalisti e nell’ipotesi di informazione perfetto è
opportuno ricorrere ad un grafico. Se il monopolista viene sovvenzionato utilizzando il gettito fiscale
raccolto in maniera efficiente, la collettività gode di un maggior benessere se il prezzo è pari al costo
marginale ed in presenza di un sussidio. Efficienza data dal porre prezzo uguale al costo marginale e dal
sovvenzionare il monopolista. Tale modello però si basa su ipotesi poco realistiche:

 i regolatori non conoscono i costi medi del settore


 i governi riescono raramente ad effettuare il prelievo in maniera efficiente
 le imposte più comunemente usate creano un divario fra prezzo e costo marginale.

I sussidi quindi di solito comportano un costo in termini di risorse reali. Inoltre, la necessità di
trasferimenti dal regolatore all’impresa regolata può portare al fenomeno della cattura del regolatore,
per il quale le imprese investono risorse per influenzare le decisioni del regolatore in modo da
massimizzare i sussidi da ricevere. Di solito quindi sono più comuni regolazioni second best, che pongono
il prezzo pari al prezzo medio e non al prezzo marginale. Altre soluzioni proposte per evitare gli
inconveniente legati al prezzo politico e a quello pubblico, e per minimizzare le perdite di efficienza, sono
riconducibili a due modelli di fissazione dei prezzi nel caso di imprese monopolistiche mono- prodotto e
multi- prodotto.

In caso di impresa mono-prodotto, si descrivono i modelli di discriminazione dei prezzi: consente la


fissazione di prezzi diversi in funzione della diversa elasticità al prezzo di ciascun consumatore o gruppo di
consumatori. Ciò è possibile se il monopolista è capace di identificare tali elasticità e di separare i
consumatori. La produzione del monopolista in questo modo può avvenire in maniera efficiente senza
necessità di erogare servizi. Soluzione che però danneggia i consumatori che si vedono estratta tutta la
loro rendita. Compatibili con le normative antitrust sono ad esempio quelle basate non sulla elasticità di
prezzo per prestazioni equivalenti, ma che differenziano i prezzi in funzione dei livelli e dei periodi di
consumo.

In caso di impresa multi-prodotto, si descrivono i modelli à la Ramsey (tariffe non lineari e tariffe di
picco): in questo caso si pone anche il problema dell’imputazione dei costi comuni, rendendo l’analisi
della regolamentazione molto più complessa. I prezzi vengono differenziati in base alla teoria di Ramsey,
secondo la quale un’impresa in monopolio dovrebbe aumentare i prezzi al di sopra dei costi marginali in
modo inversamente proporzionale all’elasticità della domanda rispetto ai prezzi. In caso di applicazione di
tal regola, i prezzi sono più alti nei mercati a domanda meno elastica e viceversa, realizzandosi quindi una
discriminazione. I prezzi ottimali quindi sono quelli di monopolio ridotti proporzionalmente in modo tale
che i ricavi totali siano esattamente uguali ai costi totali. Il caso più noto di prezzo non lineare è quello
delle tariffe binomie, utilizzate nei settori della telefonia e del gas. Tariffa binomia caratterizzata da una

105
quota fissa, e da un prezzo unitario, pari al costo marginale, per ogni unità acquistate. Tramite la quota
fissa tutti i consumatori partecipano in parti uguali alla copertura dei costi fissi, garantendo in questo
modo l’equilibrio finanziario dell’impresa. In caso però di non identità dei consumatori, si generano
problemi di equità.
Se invece la domanda è soggetta a rilevanti fluttuazioni periodiche, giornaliere o annuali, è possibili
fissare prezzi per i diversi periodi (peak o off peak), più alti per la fornitura dei servizi nei periodi di picco e
più bassi nei periodi fuori picco. Necessario perché i beni non sono immagazzinabili e le imprese devono
mantenere una capacità produttiva dimensionata per le fasi di picco, anche se nei periodi fuori picco
rimane inutilizzata.

Nella pratica della regolazione, entrano spesso considerazioni sociali e distributive, oltre che economiche,
che portano alla definizione di un sistema di sussidi incrociati fra servizi forniti dall’impresa a diversi
gruppi di consumatori. Se ci sono sussidi incrociati, alcuni utenti pagan un prezzo inferiore al costo
marginale, e la differenza viene pagata da altri che pagheranno un prezzo superiore.

La teoria classica di regolamentazione si basa sull’ipotesi cruciale di informazione perfetta: regolatore è


in grado di osservare la funzione di costo del monopolista privato. La moderna teoria ha posto invece
sempre più in evidenza casi in cui il regolatore, in condizioni di informazione asimmetrica, sia costretto a
ricorrere a formule che mimano il comportamento dei mercai. Le decisioni del regolatore avvengono
inoltre in condizioni di incertezza, mentre la teoria classica non considera gli aspetti dinamici delle
strategie di prezzo.

-----> Il controllo della dinamica dei prezzi e i sistemi di incentivazione.

Dopo aver determinato il livello ottimale delle tariffe, bisogna calcolare che l’intervento del regolatore
influenza le strategie di variazione dei prezzi delle imprese. Essendo l’amministrazione dei prezzi
finalizzata a mitigare potere di mercato ed a ridurre i fallimenti del mercato, l’evoluzione dinamica delle
economie e delle imprese potrebbe riproporre gli stessi presupposti di intervento regolatorio in forme
diverse. Ci si propone di proporre modelli di regolazione ottimale che tengano conto in modo esplicito
dell’esistenza delle asimmetrie informative. In questo modo si definiscono meccanismi incentivanti per
indurre l’impresa a raggiungere gli obiettivi che il regolatore stesso si propone. Gli schemi di regolazione
incentivante più diffusi, associati ad esperienze internazionali, sono:

• Il metodo di regolazione del saggio di rendimento del capitale (ROR): esperienza di regolazione
statunitense. Consiste nella fissazione del regolatore di un tasso di rendimento massimo sul capitale
investito che l’impresa dovrà rispettare. Tale vincolo è così definibile:

profitto
r= ≤X%
capitaleinvestito

Il vincolo deve spingere l’impresa a fissare tariffe che rispettino quel vincolo sui profitti, consentendo

remunerazione equa del capitale, in linea con i rendimenti che altre imprese simili ottengono nei mercati.

Se il saggio eccede questo valore, il regolatore impone una riduzione delle tariffe. Il tasso di rendimento

massimo ed i prezzi sono tenuti fissi per tutto il periodo regolatorio, che va dai 3 ai 7 anni. Tale

meccanismo ha alcuni
effetti distorcenti (Averch e Johnson), dovuti all’esistenza di asimmetrie
informative a sfavore del regolatore. Nel caso di un’impresa operante in monopolio che produce un solo
servizio, la fissazione di un dato vincolo, porterà l’impresa ad aumentare il capitale investito, realizzando
investimenti non necessari, per poter ottenere un maggior volume di affari senza che il regolatore le
imponga una riduzione tariffaria. In questo modo l’impresa sceglie una combinazione produttiva non

106
efficiente per il livello di produzione individuato. Gli effetti dell’intervento regolatorio quindi sono
analoghi a quelli di un cambiamento del rapporto fra i prezzi relativi dei fattori. Si ha una inefficienza
produttiva, dato che l’impresa impiega una quantità eccessiva di capitale, ed una inefficienza allocativa,
dato che la produzione avviene a costi più elevati. Se l’impresa abbassa i costi, il prezzo fissato ex post dal
regolatore sarà più basso, in modo da lasciare all’impresa lo stesso tasso di rendimento.

Il metodo del vincolo alle variazioni annuali dei prezzi (Price cap): esperienza europea e italiana.
Applicazione di un tetto alla crescita dei prezzi dei servizi prodotti da un’impresa, vincolandola nel
tempo alla variazione di un indice dei prezzi di un paniere di beni e di una grandezza X che riflette
l’efficienza produttivaàΔP = RPI – X, dove RPI è l’indice dei prezzi al consumo. Questo corrisponde in
genere al tasso di inflazione negativo registrato al tempo t zero, oppure al tasso di inflazione
programmato. La X può assumere diversi valori percentuali a seconda delle valutazioni del regolatore. Il
price cap può essere applicato tramite vari modelli operativi, con alcune caratteristiche in comune.
Innanzitutto il vincolo induce l’impresa a comportarsi in maniera più efficiente, riducendo i costi, ed il
problema della asimmetria è meno stringente rispetto a quanto accade nel ROR. Il valore X infatti è
fissato in base a valutazioni prospettiche sulla capacità dell’impresa di conseguire efficienze nella
produzione. Rispetto al ROR, il price cap ha maggiori vantaggi per i consumatori. Con il riadeguamento
degli indici, i consumatori possono beneficiare delle riduzioni di costo conseguite dall’impresa. Metodo
associato ad una relativa semplicità applicativa, nei bassi costi amministrativi e nelle sue capacità di
incentivare l’efficienza e di migliorare il benessere sociale.

La regolazione dei prezzi riguarda anche i prezzi intermedi; questi sono rilevanti in tutti i servizi nei quali
esista una infrastruttura a rete il cui utilizzo da parte di operatori terzi avviene sulla base di tariffe o prezzi
regolati (es. gasdotti, linee ferroviarie, aeroporti). A tal proposito si parla di essential facility, definibile
come una infrastruttura che:

1. Costituisce un asset
2. Non duplicabile
3. Nell disponibilità di un’impresa in posizione dominante
4. Non presenta ragioni tecniche per negare l’accesso ad esso (condivisibilità).

In presenza di una essential facility occorre regolamentarne l’accesso per favorire la concorrenza nelle
altri fasi della produzione, stabilendo regole e prezzi equi, non discriminatori e con riguardo solamente ai
prezzi efficienti. Chi possiede una essential facility gode di una posizione dominante. Il regolatore riduce
lo spazio di discrezionalità delleimprese, imponendo ex ante precise e vincolanti regole di accesso alla
infrastrutture essenziali. Se le imprese non rispettano i criteri sopra indicati, si configura un abuso di
posizione dominante.

----> La regolazione della qualità: aspetti qualitativi assumono sempre più importanza nella dinamica
competitiva ed hanno implicazioni di benessere sociale. L’utente è l’elemento più debole in quanto meno
informato rispetto agli altri agenti e privo di alternative economiche. Proprio per questo sono state
introdotte le Autorities, che devono regolamentare il settore e trasferire ai consumatori almeno parte
dei guadagni di produttività che può produrre un sistema liberalizzato. Si distinguono standard
qualitativi vincolanti per le imprese regolate in standard di qualità generali e specifici. Per vincolare le
imprese, possono essere introdotti diversi strumenti incentivanti e penalizzanti. Alcuni di questi ad
esempio possono prevedere indennizzi automatici di rimborso agli utenti, altri una modifica del
meccanismo di regolazione dei prezzi. Ad esempio, la tecnica del price cap può essere modificata per
introdurre una regolazione degli aspetti qualitativi del servizio offerto, simultanea del prezzo e della
quantità.

21.4 I costi della regolazione e la teoria della cattura

107
Costi relativi all’attività di regolazione valutabili secondo una duplice prospettiva:

 Considerare costi di funzionamento che una struttura di regolazione richiede ed i costi


amministrativi che l’attività impone alle imprese regolate (costi di transizione).
 Tener conto della possibile inefficacia e distorsività che lo stesso intervento regolatorio può
introdurre (costi di regolazione).

Con riguardo ai costi di funzionamento, l’attività di regolazione e monitoraggio ha un costo. Le imprese


che devono conformarsi alle nuove regole sosterranno costi. Tali costi hanno comunque una dimensione
inferiore ai costi di regolazione, i quali hanno una natura sia statica che dinamica. Il caso più rilevante di
regulation failure è quello trattato nella cd “teoria della cattura”, in base alla quale il regolatore tende a
condividere e tutelare nel tempo gli interessi delle imprese regolate e ad esserne catturato. In caso di
cattura, il regolatore può sovrastimare i costi del servizio, fissando un prezzo troppo alto che riduce il
benessere dei consumatori e aumenta i sovraprofitti delle imprese. Possono esservi errori che portano a
fissare prezzi troppo bassi, che infliggono perdite alle imprese regolate, danneggiando i livelli qualitativi o
la continuità del servizio. In entrambi i casi crescerà la reazione dell’opinione pubblica che contrasterà gli
eccessivi profitti o il deterioramento del profitto, con conseguente perdita di reputazione del regolatore.

21.5 La concorrenza per il mercato

Soluzione alternativa è quella volta a far emergere attraverso un meccanismo d’asta la concorrenza per il
mercato. Idea proposta da Demsetz, che vedeva nel meccanismo d’asta una modalità per far prevalere in
quei mercati dove non è possibile raggiungere la concorrenza – come i monopoli naturali – l’operatore
più efficiente. Ciò richiede esistenza di un numero di concorrenti adeguato tra i quali non sussistano
asimmetrie informative e tale da impedire comportamenti collusivi. Concorrenza per il mercato NON
RISOLVE i problemi della regolazione, ma può essere uno strumento complementare all’attività di
regolazione, non alternativo. L’asta può essere il primo momento dell’attività di regolazione, in cui si
assegna ad un privato la concessione ad operare su un certo mercato.

21.6 La “qualità” del regolatore

Grande attenzione al disegno istituzionale delle Autorità che presiedono alla regolazione economica.
Secondo Baldwin e Cave le principali caratteristiche “desiderabili” di un regolatore sono:

1. Competenza: regolatore deve considerare opzioni alternative e prendere decisioni che


compongono gli interessi di più parti, sulla base di informazioni spesso incomplete.
2. Efficacia: attività deve corrispondere a quella specificata nel mandato assegnatoli nel mandato
legislativo. Non sconfinare dai compiti e predisporre strumenti adeguati a conseguire gli obiettivi
assegnati.
3. Efficienza: impiegare risorse in maniera efficiente.
4. Indipendenza: dagli interessi dell’industria regolata e da quelli dell’impresa regolata, dai suoi
clienti, concorrenti e fornitori; indipendenza relativa dai poteri dello Stato.

Requisito suggerisce una sua collocazione al di fuori di strutture ministeriali, per soddisfare il requisito di
efficacia ed efficienza. L’attività di regolazione non è del tutto assimilabile ad una attività di applicazione
di norme e procedure prestabilite, ma richiede la fissazione di nuove regole e procedure a situazioni in
continua evoluzione. Si tratta di promuovere la concorrenza nei settori caratterizzati da condizioni di
monopolio naturale.

Vi sono altri tre motivi che concorrono a ritenere preferibile la soluzione istituzionale che colloca il
regolatore al di fuori dell’amministrazione ministeriale:

108
a) un regolatore politico deve infatti essere rieletto, e ciò lo porta ad assegnare un peso elevato
all’obiettivo del mantenimento dei livelli occupazionali, e di fissare prezzi bassi per gli utenti rappresentati
dai gruppi di pressione più influenti. Inoltre il regolatore politico può essere sensibile a tematiche che
esulano dall’economia del settore, come la volontà di contenere il tasso di inflazione.

b) i servii pubblici richiedono cicli di investimento estremamente lunghi e periodi di pianificazione


corrispondenti; l’orizzonte temporale di un controllo politico è assai più breve, coincidendo con la
lunghezza del mandato elettorale. Se la funzione di regolazione fosse affidata al potere esecutivo il
regolatore definirebbe il meccanismo regolatorio riferendosi ad un orizzonte temporale molto più breve
di quello dell’agente.

c) se le imprese sono private, la creazione di un’Autorità indipendente è più adatta a minimizzare i rischi
di comportamenti di tipo politico legati al ciclo elettorale.

1. Accountability: attività deve godere indirettamente di una forma di legittimazione democratica e


deve essere sindacabile e controllabile da qualche altro potere dello Stato.

Uno strumento tipico di dialogo con altre istituzioni è la presentazione alle Camere di una
Relazione annuale sull’attività svolta e sullo stato dei servizi. Altre forme sono le audizioni
conoscitive; accanto a questi strumenti le procedure e le tecniche di regolazione permettono di
dare una soluzione al problema della legittimazione democratica. Sotto il profilo della
sindacabilità, gli atti delle Autorità devono essere sottoposti a un giudizio esterno nelle fasi di
formazione, applicazione ed effetto. Nelle fasi ex ante di formazione, sono previste forme di
consultazione pubblica. Tra le forme ex post si può citare il controllo da parte di organi
amministrativi di controllo interni ed esterni, Collegio dei revisori e Corte dei Conto, e la
sindacabilità giurisdizionale presso la giustizia amministrativa, Tar e Consiglio di Stato.

2. Trasparenza, equità ed accessibilità delle procedure adottate: decisioni devono essere frutto di
una pari considerazione di tutti gli interessi in gioco. Criterio che trova limiti nei requisiti di
indipendenza e competenza, ma che fornisce una base per la sua accountability.

21.7 Le autorità di regolazione nell’ordinamento italiano

Principi dell’attività di regolazione disciplinati nella legge 481\1995, che istituisce l’Autorità per l’energia
elettrica ed il gas e l’Autorità per le garanzie nelle telecomunicazioni. La legge nasce in un contesto di
ripensamento del ruolo dell’operatore pubblico nell’economia italiana; prendendo atto dell’inefficacia di
interventi fondati sul ricorso alla gestione diretta da parte dello stato, si attribuì ad Autorità indipendenti
dal potere politico i compiti della regolazione, le cui finalità sono:

1. Garantire promozione concorrenza ed efficacia nel settore


2. Garantire adeguati livelli di qualità nei servizi
3. Assicurare fruibilità e diffusione dei servizi in modo omogeneo sul territorio
4. Definire sistema tariffario certo, trasparente e basato su criteri predefiniti
5. Promuovere la tutela degli interessi di utenti e consumatori.

Le Autorità operano in piena autonomia e con indipendenza di giudizio, e godono anche di autonomia
organizzativa, definendo i propri regolamenti. Per entrambe, i componenti sono scelti fra persone dotate
di alta e riconosciuta professionalità e competenza nel settore.

21.8 Autorità di garanzia e di regolazione

109
Esistono differenze nelle giustificazioni economiche, negli strumenti e negli obiettivi delle politiche
della concorrenza e della regolazione. Le autorità di garanzia o tutela sono preposte alla tutela di
funzioni di diritti costituzionalmente rilevanti, come libera concorrenza e funzionamento corretto del
mercato, e svolgono funzioni prevalentemente giudiziarie, che si sostanziano nell’applicazione delle
regole in base a criteri di imparzialità. Sul piano strettamente economico, all’Agcm compete il compito di
vigilare sul rispetto delle regole, mentre le Autorità di regolazione intervengono solo laddove vi siano
fallimenti di mercato, svolgendo un’attività normativa che definisce ex ante ed ex post regole. L’Agcm,
oltre a svolgere attività di segnalazione e formulazione di pareri, ultimamente si è vista assegnare poteri
di intervento, per prevenire la formazione e\o il mantenimento di posizioni dominanti nel settore delle
comunicazioni, dell’energia elettrice e della televisione a pagamento.

Le autorità di regolazione invece accentuano sempre più la loro funzione di monitoraggio sull’andamento
del settore e sul rispetto dei vincoli di regolazione.

22 La proprietà pubblica e privata delle imprese

22.1 introduzione

Nell’epoca seguita alla prima rivoluzione industriale nei paesi dell’Europa occidentale venne usata la
proprietà statale come soluzione al problema costituito dalla presenza di monopoli naturali. Così si
definiscono i settori di attività economica, cioè quei settori per i quali vale la condizione di sub-additività,
ovvero una funzione dei costi di produzione che presenta un minimo in corrispondenza dell’esistenza di
una sola impresa. Negli Stati Uniti, al contrario, si preferì la regolamentazione e la concessione a privati
per lo sviluppo delle grandi industrie di servizi.

In seguito alla grande depressione, che provocò una crisi di sfiducia nei meccanismi dell’economia di
mercato, la proprietà statale delle imprese non fu più considerata uno strumento per correggere le
market failures nei casi di monopolio naturale ma assunse anche un carattere valoriale che vedeva nella
nazionalizzazione dell’industria uno strumento per sostenere l’occupazione e per correggere le
disuguaglianze distributive causate dal capitalismo. L’idea che le nazionalizzazioni fossero uno strumento
per una maggiore equità distributiva si rafforzò dopo la seconda guerra mondiale e la proprietà pubblica
si estese nei settori dell’industria pesante e del sistema bancario.

22.2 Privatizzazioni in Italia

Nonostante nel corso degli anni ’70 l’Italia era il paese occidentale con maggiore estensione della mano
pubblica sulla proprietà delle imprese, il processo attraverso cui il fenomeno si era realizzato non aveva
mai avuto un carattere ideologico o politico.

La statalizzazione dell’economia italiana non derivava dai principi del socialismo ma aveva origine in
caratteristiche storiche e culturali che caratterizzarono la prima fase dell’industrializzazione italiana. Per
le prime Claudio Napoleoni e Sylos Labini individuarono il ritardo con cui l’industrializzazione si avviò in
Italia, nel fatto che le tecnologie richiedevano capitali ingentissimi difficilmente reperibili solo con il
ricorso a privati cittadini. Tra le seconde vi è l’antica diffidenza del carattere nazionale degli italiani verso
il libero mercato e l’impiego dei capitali in investimenti a rischio. Scarsità di capitale di rischio,
dipendenza dalle banche e dalle sovvenzioni statali furono le caratteristiche originali del processo di
industrializzazione italiano. La soluzione fu trovata nel sistema della banca universale, la quale raccoglie
depositi dai risparmiatori e li converte in investimenti a lungo termine nelle attività produttive.

110
L’intreccio tra banche e controllo delle imprese fece si che, dopo la grande depressione, l’insolvenza delle
imprese minacciò il tracollo dell’intero sistema bancario. Il governo intervenne con la costituzione dell’IRI
e finì con il ritrovarsi proprietario non solo delle banche nazionali “salvate” ma anche di gran parte delle
imprese italiane di cui le banche costituivano i principali azionisti.

Queste vicende conferirono alla dirigenza delle imprese pubbliche una forte autonomia dando vita ad
una esperienza di corporate management. La formula delle partecipazioni statali infatti realizzava la
separazione tra proprietà e controllo, non per l’assenteismo della proprietà ma per il fatto che il
principale azionista ( lo stato) si asteneva dall’interferire con il management. Il successo delle
partecipazioni statali in Italia si fondava su due aspetti:

• professionalità del management: in origine il management non proveniva dalla burocrazia ma dal
settore privato e questo carattere veniva preservato con il meccanismo della cooptazione, escludendo
interferenze politiche nella scelta dei dirigenti;

• autonomia finanziaria: l’equilibrio finanziario si basava su discreti margini di profitto, tassi d’interesse
bassi e raccolta d’ingenti capitali con lo strumento obbligazionario e l’intermediazione dei grandi istituti
mobiliari del tempo.

Questo equilibrio si danneggiò tra gli anni ’60-’70 per l’erosione dei margini di profitto (determinata da
una redistribuzione del reddito più favorevole ai salari) e per il rialzo dei tassi d’interesse.

La situazione non migliorò fino alla nomina di Guido Carli come ministro del tesoro. Diventato poi
governatore della Banca D’Italia fu un fautore della stabilità monetaria, secondo cui l’inflazione, oltre ad
essere un danno per l’economia nel suo complesso, costituisce un’imposta regressiva che colpisce le
categorie più deboli. È proprio con Carli che prende avvio il progetto di privatizzazioni italiano nel 1990;
egli infatti istituì una commissione con l’incarico di predisporre un piano per avviare l’azione politica
economica delle privatizzazioni.

Idea giuda del piano: superare l’ostacolo più facile per ottenere consenso e, anche in forza di quello,
procedere per affrontare quelli più difficili. Quindi fu indicato come strumento preliminare la
trasformazione in SPA delle imprese pubbliche che avevano già caratteristiche adatte al collocamento di
azioni al pubblico. Per le altre imprese in cui vi era un’eccessiva diversificazione delle partecipazioni
(come IRI) era preferibile la formula dello spin-off, cioè la vendita separata delle capogruppo settoriali,
indirizzo seguito dal successivo governo Amato.

Oltre ad identificare lo strumento, il piano di privatizzazioni indicava sei obiettivi:

1. Risanamento del bilancio e del debito pubblico mediante proventi delle vendite di azioni
2. Allargare il mercato azionario nazionale
3. Favorire l’afflusso di capitali dall’estero
4. Introdurre maggiore concorrenza nell’economia di mercato
5. Eliminare l’influenza dell’azionista occulto, cioè del sistema dei partiti sulla gestione delle
imprese
6. Creare consenso politico

quattro obiettivi sono stati conseguiti in misura non trascurabile cosa che non è avvenuta per gli ultimi
due.

Una parte rilevante di ciò che furono l’IRI e l’EFIM si trova ancora sotto il controllo pubblico, così come
l’Eni e l’Enel.

111
Nelle privatizzazioni del settore bancario pubblico un ruolo rilevante è stato svolto dalle fondazioni
derivanti dagli scorpori dettati dalla legge Amato. Tuttavia la governance delle fondazioni è in parte
controllata indirettamente da partiti politici.

Per quanto riguarda le aziende municipalizzate le pochissime cessioni realizzate avendo riguardato quote
di minoranza non sono classificabili come privatizzazioni.

Poiché questa prima fase non è stata completamente realizzata, risultava impossibile raggiungere gli
obiettivi della seconda fase, cioè estendere le privatizzazioni agli altri servizi pubblici.

23 Il protezionismo

Con il termine di protezionismo economico intendiamo qualunque forma di intervento statale, come i
dazi e il contingentamento delle importazioni, le sovvenzioni alle imprese e così via, che hanno l’effetto di
determinare un sistema di prezzi nel mercato interno diverso da quello che si formerebbe in loro assenza
in un regime concorrenziale, e il cui obbiettivo consisterebbe nel favorire produttori nazionali rispetto a
quelli esteri, migliorando la bilancia commerciale e il livello di occupazione.

23.3 Ragioni a sostegno delle politiche protezionistiche:

• Il protezionismo preserva l’occupazione nell’industria nazionale

• Il protezionismo impedisce che un’intera industria nazionale venga eliminata: in caso contrario si
creerebbe una dipendenza dai fornitori esteri

• Il protezionismo costituisce un contrappeso alle politiche di aiuti più o meno occulte di cui beneficiano i
concorrenti stranieri: tariffe doganali, quote alle importazioni e aiuti alle imprese rappresentano
strumenti insostituibili nei negoziati del commercio internazionale

• Il protezionismo sarebbe necessario nelle fasi iniziali (infant industries) dello sviluppo di un settore
esposto alla concorrenza internazionale.

23.4 ragioni contro il protezionismo:

Tra le ragioni per cui i sistemi basati sull’economia di mercato producono risultati migliori di ogni altro
sistema, Smith indicava in particolare il legame fra specializzazione, produttività del lavoro e estensione
del mercato. Ne consegue che ogni restrizione artificiale degli scambi opera a danno della
specializzazione e quindi della produttività del lavoro. Le misure protezionistiche conferiscono vantaggi ai
produttori nazionali a spese dei consumatori.

L’analisi di Smith verrà ripresa da Ricardo con la “teoria dei vantaggi economici comparati”, in cui si
ipotizza un rapporto bilaterale tra due paesi che producono due sole merci: anche se la produttività di un
paese fosse stata superiore a quella del secondo paese per entrambi i prodotti, la soluzione ottimale
sarebbe stata quella di produrre solo la merce per cui la sua produttività risultasse più elevata. Si tratta di
una tesi anti-intuitiva e spesso mal compresa. Ma semplici calcoli matematici permettono di dimostrare
che la soluzione della specializzazione ricardiana porta ad un volume di produzione più elevato, il quale
potrebbe essere poi ripartito attraverso lo scambio.

L’ultimo grande economista della tradizione inglese, Keynes, affrontò il problema del mercantilismo sotto
il profilo del legame tra protezionismo e livelli occupazionali nella sua opera “teoria generale
dell’occupazione, dell’interesse e della moneta”: vi è una correlazione inversa tar surplus della bilancia

112
commerciale e livello dei tassi di interesse, che può sussistere solo in un regime monetario basato sulla
convertibilità della moneta in metalli preziosi.

23.6 politiche predatorie

Le politiche protezionistiche costano al soggetto che le pratica assai più di quanto rendano alla comunità
nel suo complesso. L’effetto reale del protezionismo consiste invece nell’avvantaggiare un gruppo
d’interesse, ponendone il costo a carico della collettività. Tuttavia l’utilizzo degli strumenti protezionistici
rappresentano il male minore quando esso costituisce una ritorsione a comportamenti protezionistici
messi in atto da altri paesi, oppure alla palese violazione delle regole della fair competition. Ci si riferisce
alle politiche predatorie che consistono tipicamente nel praticare prezzi inferiori al costo variabile
(marginale) alo scopo di eliminare uno o più competitori, salvo poi, una volta conseguita una posizione
dominante, sfruttarla con l’imposizione di prezzi monopolistici.

113
114

Potrebbero piacerti anche