Sei sulla pagina 1di 112

Capitolo 1

I fondamenti dell’economia di mercato.


Logica e limiti

L’economia industriale è un ramo specialistico dell’economia politica il cui campo di applicazione, INDUSTRY,
comprende tutte le attività di impresa svolte su larga scala, ad eccezione del settore agricolo e del settore bancario-
finanziario, i quali richiedono strumenti diversi e specifici per poter essere analizzati. Le tappe fondamentali della
costituzione dell’Economia industriale come disciplina specialistica risalgono alle opere di ALFRED MARSHALL
“Teoria dell’equilibrio economico parziale” 1890 e “Industry and trade” 1919.
Dopo la crisi del ’29, un ampio numero di economisti iniziò ad allontanarsi dalle teorie della scuola neoclassica e dai
suoi modelli astratti, con l’obiettivo di approfondire la realtà empirica del fenomeno delle grandi imprese dotate di
potere di mercato, cercando di penetrare la realtà del funzionamento delle imprese nel contesto di mercati
imperfetti, cioè realmente esistenti e diversi dalle sofisticate astrazioni della teoria dell’equilibrio economico
generale. Tale approccio fu iniziato da un ciclo di seminari svoltosi ad Harvard da E.S. MASON, che pose le basi, negli
anni ’30, per lo studio delle relazioni causali fra struttura dell’offerta, condotte delle imprese e risultati perseguiti.
Questi indirizzi furono poi raccolti e sistematizzati nella pubblicazione del lavoro di Joe BAIN “Industrial Organization”
che formalizzò il c.d. paradigma di Harvard, ossia la relazione S-C-P. Altro autore che diede un importante contributo
fu George STIGLER, il quale elaborò saggi su vari temi relativi alla materia.
Il nuovo indirizzo di studi sul funzionamento dei mercati e sul comportamento delle imprese era poi stimolato ed
alimentato dalla produzione di materiale di analisi derivante dalle cause discusse davanti all’Antitrust.
Nel corso degli anni quindi l’impostazione generale si è arricchita e sviluppata con nuovi strumenti e nuove strategie,
utili ad analizzare il comportamento delle imprese che operano in mercati imperfetti. Questi nuovi sviluppi hanno reso
meno convincente il determinismo dell’impostazione tradizionale S-C-P, mettendone in evidenza dei chiari limiti.
Tuttavia tale paradigma rimane il punto di riferimento per lo studio della materia ed allo stesso tempo un coerente
metodo espositivo degli argomenti di essa.

Il sistema di partenza è l’ECONOMIA DI MERCATO basato sull’idea che l’individualismo non è in contrasto con l’utilità
generale; concetto presentato in forma satirica da de Mandeville, “la favola delle api: vizi privati e pubbliche virtù”,
1714, che descriveva in modo efficace alcune caratteristiche etiche proprie del funzionamento della società, poi
riprese in chiave economica da Smith ed in chiave socio-politica da Benjamin. Nella satira quindi è presente l’origine
del giudizio diffuso per il quale alla base del pensiero economico del capitalismo e dello sviluppo dell’economia di
mercato vi sia in definitiva la considerazione etica che gli uomini sono fondamentalmente egoisti, e che solo un
sistema che volga tale vizio privato all’interesse e al bene comune può corrispondere ai canoni etici del bene.
Questa coincidenza tra l’interesse dei singoli e l’interesse generale viene erroneamente attribuita anche alle opere di
ADAM SMITH: si tratta infatti in questo caso di una semplificazione che ne travisa il pensiero, fondata sulla lettura
affrettata di due celebri brani tratti dalla “Ricchezza delle nazioni”, 1776: il primo, riassunto nella frase “there are no
free lunches”, passo nel quale l’economista inglese parla del self-love, dell’egoismo; il secondo passo è quello che
esprime la metafora della mano invisibile.
La met

Questi due brani possono essere compresi solamente alla luce dell’analisi dell’opera maggiore di Smith, “Theory of
moral sentiments”. In essa il ruolo dell’individuo ed il suo interesse personale è definito come prudenza comune, cioè
come regola di condotta generale accettata e praticata, unione di ragione e comprensione da una parte e del dominio
di sé dall’altra. È evidente che quest’ultimo concetto, il dominio di sé, indica una prevalenza di valori etici nel
comportamento dell’individuo, e quindi che l’interesse personale non è da confondere con egoismo e guadagno.
L’individuo è posto al centro del pensiero economico, visto che le sue scelte, espressione della prudenza comune,
definiscono un sistema di gran lunga preferibile a qualsiasi altro ordinamento. In realtà dalle opere di Smith emerge
un altro concetto, cioè quello che la burocrazia (il giudizio dei pochi) farebbe molto peggio di quanto risulterebbe dalla
libera scelta dei privati. Dal sistema della libertà naturale dei comportamenti ci si attende la conciliazione
dell’interesse privato con l’efficienza= concetto di concorrenza perfetta. La mano invisibile altro non è che il
meccanismo di riequilibrio dei mercati ma non è detto che il risultato costituisca l’ottimo assoluto. Smith definisce
chiaramente quali compiti richiedano l’intervento dello Stato, ma stila anche un lungo elenco dei difetti del semplice
sistema della libertà naturale. L’economista quindi presenta l’economia di mercato basata sulle scelte individuali e il
laissez faire solo come presunzione di ottimo sociale, un second best, cioè un sistema non necessariamente ottimale
1
ma preferibile ad un’astratta soluzione non realizzabile.

2
Smith basa la sua definizione del funzionamento dell’economia di mercato sull’osservazione di fatti e comportamenti
presentati però in modo universale, cioè validi in ogni circostanza di tempo e luogo. Proprio contro quest’universalità
sono state mosse delle critiche da parte degli economisti tedeschi della scuola storico-istituzionale che rifiutavano le
generalizzazioni della scuola classica e sostenevano la diversità delle istituzioni nei vari paesi, l’imperfezione dei
mercati e il relativismo dei principi economici prefiggendosi di approfondire i singoli casi specifici dai quali poi
eventualmente trarre leggi generali.

Troviamo quindi da una parte l’indirizzo classico e in seguito neoclassico di orientamento deduttivo e dell’altra
l’indirizzo storico-istituzionale di orientamento empirico induttivo.

Alfred Marshall fu uno dei più celebri economisti inglesi di Cambridge le cui opere sono considerate l’origine della
moderna economia industriale. Fu fortemente critico nei confronti della teoria classica e neoclassica, ritenendo che
“Ricardo ed i suoi seguaci” (NON Smith) considerarono l’uomo come entità omogenea, senza studiarne gli aspetti
differenziali e senza rendersi conto soprattutto di quanto le condotte e gli elementi strutturali delle industrie fossero
suscettibili. L’analisi di domanda ed offerta delle industrie e delle imperfezioni dei mercati (TEORIA DELL’EQUILIBRIO
ECONOMICO PARZIALE) spianarono la strada all’economia industriale=campo dell’analisi economica che riguarda
specificatamente i casi nei quali le forze spontanee del mercato producono distorsioni all’equilibrio, che si allontana
dall’ottimo paretiano, producendo una distribuzione delle risorse imperfetta market failures:

1. Produzione di beni pubblici e sociali, che il mercato non è in grado di produrre nella quantità e nella specie
desiderabili a causa dei comportamenti opportunistici o perché il loro valore non è incorporabile in un
prezzo.
2. Presenza di fenomeni legati a incertezza e instabilità che allontanano il sistema dall’equilibrio stabile e che
riguardano sia il sistema nel suo complesso (teoria macroeconomica keynesiana) sia circostanze specifiche di
singole industrie e mercati (teoria dell’oligopolio e dei giochi strategici).
3. Presenza di restrizioni alla concorrenza determinate dal potere monopolistico
4. Presenza del fenomeno delle esternalità, per cui alcuni costi e benefici che derivano dalle decisioni di singoli
operatori non risultano incorporate nel sistema dei prezzi che l’imprenditore prende in considerazione nel
determinare le proprie scelte (es. costi dell’inquinamento).
5. Presenza di costi di transazione che rende il ricorso al mercato meno efficiente o più rischioso rispetto
all’accentramento delle operazioni produttive nell’ambito di una struttura di comando quale l’impresa.
6. Fenomeno dell’asimmetria informativa (Akerlof), che si determina quando una parte degli operatori del
mercato dispone di informazioni rilevanti sulla qualità del prodotto che non sono disponibili agli altri.

L’insieme di queste imperfezioni rende la realtà dei mercati ed il loro funzionamento molto diversi da ciò che si
determinerebbe in base agli assiomi della concorrenza perfetta, la quale costituisce un caso limite ideale la cui
probabilità di verificarsi è piuttosto una eccezione.

La rivoluzione industriale ed i successivi sviluppi dell’economia nell’800 hanno da una parte confermato la superiorità
dell’economia di mercato sotto il profilo dell’efficienza, dall’altro ne hanno mostrato difetti e limiti funzionali sotto il
profilo dei valori etici rappresentati, ed anche hanno mostrato le distorsioni spontanee e l’inattitudine dell’ordine
spontaneo a produrre soluzioni accettabili per una casistica rilevante. Tutto ciò ha richiesto l’introduzione di correttivi
di carattere istituzionale:

a) Sindacati e legislazione del lavoro: il primo problema implicito al sistema basato sull’economia di mercato è
rappresentato dalla relativa debolezza dei lavoratori salariati rispetto ai capitalisti che offrono il lavoro. Già
Smith aveva affermato che essendo i datori meno numerosi dei lavoratori, era più facile per loro coalizzarsi in
cartelli configurando una forma di monopsonio per la contrattazione dei salari. L’economista inglese ricorda
che nel mercato del lavoro il principio della concorrenza è ostacolato da una asimmetria di forza contrattuale
tra capitalisti e lavoratori per cui per il mercato del lavoro l’equilibrio naturale NON corrisponde ad un
equilibrio concorrenziale, ma al monopsonio in l’imprenditore determina la quantità di lavoro da assumere
fino a quando la produttività marginale del lavoro è uguale al costo marginale (> salario medio) dando origine
ad un plusvalore e ad un minor livello di occupazione. Questa riflessione spinse una parte degli economisti
classici, fra cui Marx, a porre al centro della analisi la “legge ferrea dei salari”, per la quale il salario dei
lavoratori dipendenti non avrebbe potuto eccedere il livello della pura sussistenza, evitando che vi fosse
conseguentemente una caduta della quantità di lavoro offerta.
Anche per tale legge vi è un equivoco relativo alla posizione di Smith, visto spesso come uno dei suoi
sostenitori, se non proprio l’originale autore. La visione di Smith era però molto più avanzata, toccando
addirittura prescrizioni di politica economica. L’economista inglese sottolineava come il segnale più decisivo
della prosperità di un paese fosse l’aumento della sua popolazione; sosteneva infatti che se il lavoro fosse
stato talmente ben remunerato, allora per una famiglia il fatto di avere numerosi figli, invece che essere un
peso, avrebbe rappresentato fonte di opulenza e prosperità. Smith era inoltre convinto che una
remunerazione liberale del lavoro è contemporaneamente l’effetto ed il sintomo di una crescente ricchezza
nazionale, e che quindi costringere il lavoratore a rimanere povero non è altro che un sintomo di stallo.
Gli aumenti della produttività conseguiti dalla tecnologia e dalla applicazione di quantità crescenti del
capitale si trasferirono in cospicui aumenti dei salari anche sotto la pressione sindacale, andando a migliorare
le condizioni di vita dei lavoratori e dando una espansione sistematica, di lungo periodo, del potere
d’acquisto. Ovviamente, nel processo virtuoso di redistribuzione degli incrementi di produttività, le trade
unions e la legislazione a protezione dei lavoratori hanno svolto ruolo di primissimo piano nella difficile
ricerca di equilibrio fra monopsonio, nel quale spontaneamente cadrebbe il mercato del lavoro, ed il
prevenire la formazione di una rendita a favore di lavoratori già occupati.
b) Le politiche sociali: Previdenza obbligatoria e sanità: il secondo problema riguarda la capacità dei singoli
individui di badare a se stessi. Le prime istituzioni moderne ispirate al principio della giustizia e
dell’uguaglianza risalgono alla Germania di Bismarck (assicurazione obbligatoria per pensionamento dei
lavoratori dipendenti raggiunti i 65 anni di età) e alla Gran Bretagna del governo liberale di Churchill. Il
termine welfare però è legato alle riforme di Roosevelt e di Lord Beveridge. Tali politiche sociali si ispirano a:
- uguaglianza delle opportunità;
- contenimento delle conseguenze derivanti dalle disuguaglianze nella distribuzione del reddito e della
ricchezza;
- assistenza pubblica a chi non è in grado di assicurarsi minimo necessario.
Il tratto fondamentale di tali politiche è costituito dalle assicurazioni sociali finanziate da contributi
obbligatori, pubblica istruzione e fornitura di alloggi a prezzi coerenti con i livelli salariali.
Le controversie relative alle politiche sociali nelle democrazie occidentali sono relative alla scelta del livello
dei servizi forniti dallo Stato, livello che deve soddisfare i bisogni individuali e delle famiglie senza però
costituire un disincentivo al lavoro produttivo (es. sussidi alla disoccupazione troppo elevati). Da questi
concetti nasce la definizione contemporanea del liberalismo economico, inteso con il termine economia
sociale di mercato.
c) Finalità della tassazione: il terzo problema istituzionale è dato dal fatto che il sistema dell’economia di
mercato non riduce le disuguaglianze fra i soggetti dell’economia, ma tende ad aumentarle. Inizialmente la
principale finalità della tassazione del reddito e del patrimonio era costituita dal finanziamento dei beni
pubblici. Smith era favorevole alle concessioni per la realizzazione di beni pubblici ma riconosceva anche la
necessità dell’intervento pubblico finanziato con il prelievo di imposte. Tuttavia non si può parlare di finalità
di redistribuzione del reddito fino all’inizio del ‘900, la quale fu incorporata nei sistemi fiscali attraverso la
progressività delle aliquote. Progressivo e rapidissimo indebolimento del valore dell’uguaglianza.
d) Antitrust: la market failure dell’economia capitalistica relativa alla accentuazione delle disuguaglianze
riguarda anche la concentrazione delle imprese, ovvero la possibilità di costituire o sfruttare la posizione
dominante acquisita nel mercato. Da quando esistono i mercati esiste qualche forma di distorsione
intenzionale del mercato e della concorrenza. Si iniziarono a provocare distorsioni sistematiche solamente a
partire dalla seconda metà dell’800 con le innovazioni tecnologiche e la diminuzione dei costi di trasporto.
Effetto principale delle distorsioni furono crisi di sovrapproduzione e quindi cicli depressivi e recessioni; la
discesa dei prezzi spinse gli imprenditori a forzare ancora di più sulla concentrazione per formare posizioni
monopolistiche che permettessero loro di controllare quantità o prezzi. La dottrina prevalente nella
conduzione degli affari era l’empire building cioè il gigantismo: vi era la convinzione che la grande
dimensione procurasse forza competitiva e permettesse di raggiungere dimensioni ancora più grandi. Tutto
questo però, oltre a danneggiare i produttori più piccoli ed i consumatori, creava il ceto dei tycoons dotati di
una sproporzionata ricchezza ed influenza.
La reazione a tutto ciò venne dal ceto politico, quando il senatore Sherman riuscì a far approvare a larga
maggioranza l’Act del 1890; la legislazione fu poi migliorata con il Clayton Act del 1914 e con l’istituzione della
Federal Trade Commission, ufficio a cui spettava il compito di stabilire quali comportamenti fossero da
giudicare “forme di concorrenza sleale”. Se in Europa (es. Trattato di Nizza) i divieti riguardano l’abuso di
posizione dominante, negli USA è l’esistenza stessa della posizione dominante ad essere vietata. Nel caso
europeo l’obiettivo finale era costituito dalla volontà di integrare i mercati nazionali in un grande mercato
unico, nel caso statunitense invece era quello di disperdere il potere economico e ripristinare la fiducia
nell’equità del sistema economico e politico.
e) Stabilità e sviluppo: quinto, in ordine di tempo, tipo di correttivi introdotti per correggere le imperfezioni
dell’economia di mercato riguarda la stabilità e lo sviluppo. La relazione tra alti salari, libera concorrenza e
rapida crescita spiega la parte economica dello sviluppo ma non garantisce la stabilità del sistema né il
raggiungimento delle condizioni di crescita più elevate possibili con la iena occupazione dei fattori disponibili.
Il mercato produce instabilità per tre ordini di motivi:
1)fatto tecnico che si verifica in casi specifici, quando elasticità offerta è maggiore di quella della domanda di
una particolare industria (“teorema della ragnatela”);
2)instabilità dei prezzi della moneta;
3) fenomeno del ciclo economico, alla cui comprensione si impegneranno inutilmente molti
economisti fino alla comparsa di Keynes.
Non è facile indicare a quale economista o a quale scuola si debba attribuire il merito di avere introdotto il
valore della stabilità nel sistema dell’economia di mercato. Si orientati ad assegnare tale merito a due
personaggi non ugualmente famosi:
- KEYNES: introdusse due concetti rivoluzionari per il sapere corrente:
il liberismo e la mano invisibile non garantiscono affatto stabilità e sviluppo: contributo più noto fra
quelli dati da Keynes consiste nell’aver messo in luce le ragioni della naturale tendenza verso l’instabilità
nei mercati, e quindi il necessario intervento del governo sulla domanda effettiva per stabilizzare il
sistema in piena occupazione. Trasse ispirazione dalle vicende della grande crisi, quando i governi di
fronte al continuo peggiorare dei mercati rimasero ancorati alle prescrizioni di Cobden e del laissez faire
neoclassico. Keynes partì dalla critica alla legge di Say, per la quale la stabilità sarebbe assicurata dal
fatto che l’offerta finisce inevitabilmente per creare domanda finale (per Keynes questo equivaleva alla
proposizione per la quale non vi sarebbero ostacoli alla piena occupazione).
la moneta non è estranea all’equilibrio dei mercati: se l’offerta di moneta è abbondante, perché la
spesa pubblica è finanziata con l’emissione di carta moneta (signoraggio) in luogo delle imposte, ne può
derivare una espansione dei consumi e degli investimenti. Da qui la conclusione che domanda ed offerta
non sono indipendenti dalla moneta. Occorre inoltre ricordare che Keynes, pur essendo contrario al
mantenimento del sistema monetario internazionale, viveva in un mondo in cui l’emissione della carta
moneta era limitata dall’impegno dell’emittente alla convertibilità in metallo e dunque la pratica del
signoraggio era ristretta a circostanze eccezionali. L’economista americano era molto preoccupato della
instabilità che sarebbe potuta derivare dalla globalizzazione dei mercati finanziari. Il sistema di Bretton
Woods si basava su tre principi fondamentali: > convertibilità con cambi fissi delle principali valute in
dollari, e di dollari in oro; > tendenza verso piena liberalizzazione degli scambi di merci e servizi,
creazione WTO; > controllo e sostegno della stabilità dei rapporti di cambio e dei tassi di crescita,
esercitato su base mutualistica da FMI e WB. La globalizzazione dei mercati finanziari non era affatto
prevista.

- ROPKE: fu il principale teorico della stabilità monetaria. Il tedesco comprendeva che l’instabilità del
potere di acquisto della moneta provoca, nel migliore dei casi, incertezza negli operatori economici,
e quindi disoccupazione e stagnazione. Ropke sosteneva le virtù della moneta dura contro le miserie
di quella molle (inflazionistica). Le posizioni di Ropke erano condivise anche dal governatore della
Banca d’Italia Luigi Einaudi, il quale fece della stabilizzazione della lira il cardine del programma di
politica economica da cui prese l’avvio la ricostruzione del dopoguerra.
Il mondo anglo-americano non conobbe l’inflazione nelle proporzioni dei paesi sconfitti, ma dovette
reagire agli eccessi dei keynesiani liberal, che sulla base di rilevazioni statistiche sostenevano che
l’inflazione non danneggiasse l’occupazione ma che la favorisse. Queste dispute accademiche erano
utilizzate dai politici per cercare di acquisire il consenso di gruppi di elettori, ad esempio aumentando
spese per assistenza medica o sociale, non aumentando tassazione ecc.
La controffensiva monetarista fu guidata da Friedman e dalla scuola di Chicago; il primo riformulò la
teoria quantitativa della moneta di Fisher, ricavandone la ferma convinzione che fosse necessario
controllare la quantità di moneta e non soltanto i tassi di interesse. Per quanto riguarda la scuola di
Chicago invece, essa oltre a reintrodurre il valore della stabilità dei prezzi, spinse la sua critica a tutte le
forme di interventismo nell’economia. Prevalsero le idee di Friedman, sostenuta dal presidente della
Federal Reserve Volker, le quali portarono durante il governo Reagan ad un lungo periodo di espansione.
Reaganomics fu un miscuglio di principi monetaristi e keynesiani: severo controllo base monetaria che
spense l’inflazione, accompagnato da una politica fiscale espansiva, che sostenne la crescita del PIL.
Capitolo 2
Le metodologie di analisi

1) LA SCUOLA DI HARVARD: metodologia associata ai nomi di MASON e BAIN ha un carattere fortemente empirico.
Tale metodo si basa su un approfondimento sistematico della market failure determinata dal potere monopolistico e
si articola nel PARADIGMA STRUTTURA-CONDOTTA-PERFORMANCE: la struttura dell’offerta (numerosità e
dimensione delle imprese, barriere all’entrata, grado di differenziazione dei prodotti, integrazione verticale)
determina le condotte delle imprese (politiche di prezzo, investimenti per produttività e innovazione, spesa
pubblicitaria) da cui derivano le performance (risultati) dell’industria, misurabili in termini di efficienza e competitività.
Le verifiche empiriche svolte su questa relazione causale dimostrano che alcune caratteristiche osservabili nelle
condotte e nelle performance hanno effettivamente un forte legame con la struttura dell’offerta. Queste correlazioni
e nessi causali NON COSTITUISCONO una teoria in senso proprio.
Il modello di Harvard descrive il raggruppamento delle variabili caratterizzanti una particolare industria in quattro
tipologie definite secondo un criterio di relativa omogeneità:

1. CONDIZIONI DI BASE: distinte fra quelle che riguardano la domanda (funzioni di domanda: elasticità, tasso di
crescita, tecnologia, sostituibilità, modalità di acquisto) e quelle dell’offerta (funzioni dei costi: materie
prime, beni durevoli e non, economie di scala). In condizioni ottimali questi elementi si presentano come
esogeni per l’industria, almeno nel medio periodo, dato che l’imprese presenti nel settore non possono
esercitare su di loro alcuna azione modificativa nel breve-medio periodo.
2. STRUTTURA DELL’OFFERTA: concentrazione imprese, barriere all’entrata, differenziazione prodotti,
integrazione verticale e diversificazione. Elementi che non costituiscono tipicamente oggetto delle strategie
delle imprese.
3. COMPORTAMENTI DELLE IMPRESE: politica dei prezzi, spesa pubblicitaria, qualità del prodotto, sviluppo
delle quote di mercato e di nuovi prodotti, comportamenti cooperativi o indipendenti.
4. RISULTATI ECONOMICI: tasso di profitto, competitività dei prezzi, efficienza allocativa, saldo della bilancia
commerciale, livello delle retribuzioni e dell’occupazione e stabilità\rischiosità del settore.

Questi elementi della dinamica di una particolare industria o dell’intero complesso possono essere influenzati da
POLITICHE PUBBLICHE attuate dal governo: regolamentazione, barriere commerciali, antitrust, imposte e sussidi,
incentivi.
Inoltre la relazione causale tra i blocchi di variabili non è necessariamente univoca seppur sia prevalente quella
discendente.

In sintesi, il modello della scuola di Harvard è fondamentalmente basato sulla osservazione di elementi fatturali
derivanti dalla osservazione empirica, stilizzati in categorie omogenee e in relazioni causali. È evidente quindi in
questo caso la forte influenza della scuola storica, in cui elemento prevalente della ricerca è l’osservazione e la
descrizione dei dati di fatto e non nell’elaborazione di teorie generali.
Nonostante la scuola di Harvard consista in un metodo descrittivo-positivo, è comunque facile rilevare alcuni
presupposti teorici rilevanti che consistono nel ritenere che alcune caratteristiche di base di una particolare industria
possono provocare delle distorsioni della struttura dell’industria, che ne allontanano le effettive caratteristiche da
quelle ideali della concorrenza perfetta. Per questo motivo l’economia industriale che si ispira alla scuola di Harvard
può anche essere definita “economia dei mercati imperfetti”. Le imprese hanno la possibilità di sfruttare tali
imperfezioni a proprio vantaggio, oppure possono contribuire a renderle ancora più profonde. In questa ottica
l’intervento della Autorità pubblica è giustificato dalla finalità di correggere il funzionamento dei mercati e fare sì che
le performance che ne conseguono sia il più possibile vicine all’interesse generale e a quello dei consumatori.

2) LA SCUOLA DI CHICAGO: deriva dai tradizionali principi dell’economia classica e neoclassica, ai quali fu
impressa una dose maggiore di realismo. L’iniziatore fu A. DIRECTOR, fondatore del filone “law and economics”,
che si proponeva di approfondire le connessioni fra processi economici e istituti della legislazione, ma l’esponente
più significativo fu sicuramente George STIGLER, Nobel per l’economia nell’82.
Come la scuola di Harvard essa si basa sulla realtà empirica ma se ne differenzia per l’importanza attribuita alla
teorizzazione, cioè alla costruzione di modelli che possano ricondurre i fatti osservati a teorie generali sulle ipotesi
di comportamento dei soggetti economici. Stigler afferma che quasi sempre gli interventi della mano pubblica
producono effetti sui mercati diversi da quelli desiderati, e che conducono a risultati peggiori di quelli che avrebbero
potuto determinare le forze spontanee del mercato; secondo Stigler infatti la prassi che dirige l’intervento pubblico si
basa su valutazioni errate, non prendendo spunto da un contesto teorico coerente e approfondito.
Risultato diretto del riconoscimento della validità della impostazione della scuola di Chicago sono politiche di
deregolamentazione e apertura dei mercati; a differenza della scuola di Harvard, si poneva al centro dell’analisi il
potere esplicativo dei fenomeni effettivamente osservati tramite il modello di concorrenza perfetta. In questa ottica
quindi le performance dipendono essenzialmente dalla capacità di innovazione e di visione strategica dei manager:
sono le migliori performance a formare le posizioni dominanti e non viceversa. In questo senso la scuola di Chicago
integra l’impostazione tradizionale ponendo l’accento sulle relazioni causali ascendenti fra i gruppi di variabili.
Quando in una industria viene assicurata la libertà di entrata di nuovi concorrenti le distorsioni che si possono
osservare nella struttura, in termini ad esempio di concentrazione, rappresentano solamente una fase del processo
concorrenziale, destinata comunque ad evolvere sotto la spinta delle forze del libero mercato e della concorrenza. Un
intervento dell’autorità di governo, volto a ridurre ad esempio la concentrazione nell’industria, non andrebbe affatto
incontro all’interesse generale, perché avrebbe l’effetto di favorire i potenziali concorrenti, al prezzo di costi più
elevati e\o di minore innovazione (focus sulle relazioni causali ascendenti fra gruppi di variabili). Se la scuola di
Harvard quindi giustifica e sollecita qualche forma di intervento pubblico, quella di Chicago sostiene fermamente che
restrizioni, protezioni e aiuti possono solamente allontanare le condizioni di mercato da quelle della concorrenza,
risolvendosi in un beneficio per pochi ed in un onere per molti. Per la scuola di Chicago quindi il potere di mercato e le
posizioni monopolistiche non sono necessariamente fattori negativi, a patto che siano garantite le condizioni di libertà
di entrata oppure la contendibilità.

”LA NUOVA ECONOMIA INDUSTRIALE” (CORNOUT e BERTRAND) : nuovo indirizzo di carattere teorico ed astratto
rappresentato dalla teoria dei giochi, che segna un ritorno alla metodologia deduttivistica della tradizione classica e
neoclassica, studiando il funzionamento dei mercati ed i comportamenti interattivi fra le imprese.
Un gioco è un modello formalizzato che descrive una situazione di comportamenti interdipendenti nel quadro di
regole date, dove il risultato di ciascun agente dipende sì dalle sue scelte, ma anche dalle azioni compiute dagli altri
giocatori. In questi casi il comportamento ottimale di una impresa dipende non solamente dai propri costi di
produzione, dal proprio volume della produzione, ma anche da ciò che l’impresa in questione ipotizza circa il
comportamento delle altre imprese. La struttura del mercato e le condotte delle imprese non devono essere assunti
come dati ma come il risultato del comportamento delle imprese alla ricerca dei migliori risultati possibili che
dipendono quindi non solo dalla capacità di innovazione e di visione strategica dei manager ma soprattutto
dall’interazione di forze concorrenti nella produzione di valore in condizioni di informazione imperfetta.
Capitolo 3
Settori e
mercati.
La teoria dell’equilibrio economico particolare di Marshall.
Il mercato rilevante. I distretti industriali. Le classificazioni statistiche

INDUSTRIA o SETTORE INDUSTRIALE= si riferisce ai venditori identificabile sulla base di fattori di offerta

MERCATO= è riferito agli acquirenti, quindi identificabile sulla base di fattori di domanda.

In riferimento a elementi dell’offerta, distinguiamo un’industria in base:

- Similarità tecnologica: P.W.S.ANDREWS definisce “industria” come l’insieme di imprese che utilizzano
tecnologie di processo simili e possiedono esperienze e conoscenze comuni che rendono possibile
produrre, qualora risulti conveniente, un particolare prodotto. Alla stregua di questa definizione,
vengono raggruppati processi produttivi simili in quanto abbiano uno stesso background di esperienze e
conoscenze, presentino stessa organizzazione tecnica oppure impieghino la stessa materia prima.
Criteri di suddivisione legati alla tecnologia e alle materie prime sono adatti a settori tecnologicamente
maturi ma non risulta adatto a seguire cambiamenti tecnologici che caratterizzano il dinamismo
capitalistico;
- Reti e sistemi di distribuzione delle imprese: faranno parte di uno stesso settore tutti i beni ed i servizi
che la rete controllata da una impresa o da un gruppo di imprese può distribuire o raggiungere. Si tratta
di un criterio innovativo, utilizzato dalle imprese impegnate nella competizione in mercati dinamici e
dalle autorità antitrust che regolano i settori delle public utilities.

Le definizioni basate sul criterio tecnologico presentano il limite di non tenere conto del mercato e dei
consumatori, mentre quelle basate sul mercato e su elementi della domanda tengono conto dei gusti e delle
preferenze dei consumatori, dei bisogni e delle funzioni di prodotto.
I processi produttivi che soddisfano uno specifico bisogno con beni e servizi costituiscono una industria. È
ovviamente possibile specificare ulteriormente il bisogno; l’analisi di John BAIN possiede molti elementi di
una analisi di mercato, facendo riferimento al concetto di sostituibilità tra prodotti dal punto di vista dei
consumatori. Per misurare tale condizione Bain utilizza il concetto di elasticità incrociata tra beni sostituibili:

- Elasticità incrociata dal lato della domanda= rapporto tra la variazione percentuale della quantità
domandata del bene y rispetto alla variazione percentuale del prezzo del bene x

- Elasticità incrociata dal lato dell’offerta= rapporto tra la variazione percentuale della quantità offerta del
bene y rispetto alla variazione percentuale del prezzo del bene x

Per le imprese la definizione dei mercati è un’operazione molto importante ai fini della scelta delle strategie aziendali:
l’interesse delle imprese è più quello di segmentare il mercato in particolare al fine di discriminare i prezzi piuttosto
che stabilirne i confini. L’innovazione tecnologica e strategica delle imprese si accompagna alla ridefinizione dei confini
dei mercati in conseguenza della scoperta di nuovi bisogni dei consumatori, della creazione di nuovi prodotti o di
nuove funzioni o usi per i prodotti esistenti, dell’impiego di diverse modalità di commercializzazione.

AMBITO COMPETITIVO E EQUILIBRIO PARZIALE


Gli spetti della domanda e dell’offerta sono legati a quelli di settore industriale tramite il concetto di AMBITO
COMPETITIVO (relevant market) = l’insieme delle porzioni della domanda e dell’offerta che presentano una elevata
elasticità incrociata dell’offerta e di consumi caratterizzati da una significativa elasticità incrociata della domanda. Tale
definizione coincide con quella di EQUILIBRIO ECONOMICO PARZIALE di MARSHALL e con il suo concetto di industry.
Dagli scritti di Marshall si deduce una definizione di mercato come spazio economico in cui buyers e sellers sono
talmente indipendenti che i prezzi degli stessi beni tendono alla uguaglianza in maniera rapida e semplice. La teoria
dell’equilibrio economico parziale considera l’equilibrio quale si realizza in una sola parte dell’economia, in un
determinato mercato, supponendo che non varino le condizioni esistenti negli altri mercati, sulla base della ipotesi
della massimizzazione dell’utilità quale fondamento dell’agire degli individui nel mercato.

MERCATO RILEVANTE
L’applicazione della normativa Antitrust pone l’esigenza di definire l’ambito specifico in cui si esercita la concorrenza
fra le imprese, cioè il MERCATO RILEVANTE = “il più piccolo contesto nel cui ambito è possibile la creazione di un
potere di mercato”. In maniera più generica è possibile definire mercato rilevante il più piccolo insieme di prodotti in
una area geografica in cui è possibile per le imprese porre in atto fattispecie proibite dalla legislazione antitrust. La
definizione non fa riferimento quindi a caratteristiche intrinseche dei beni, ma all’insieme dei prodotti e delle aree
geografiche che esercitano un vincolo competitivo reciproco. Spesso la definizione del mercato rilevante decide l’esito
dei casi Antitrust.

In base alle linee guida sulla definizione di mercato rilevante recentemente pubblicate dalla Commissione europea,
per individuare i concorrenti effettivi delle imprese interessate in grado di condizionare il comportamento di
quest’ultime e di impedire il loro operare in modo indipendente da effettive pressioni concorrenziali, bisogna definire
il mercato rilevante sotto 2 PROFILI:

Il mercato rilevante sotto il profilo del prodotto: comprende tutti i prodotti ed i servizi considerati
intercambiabili o sostituibili dal consumatore, in ragione delle caratteristiche dei prodotti, dei loro prezzi e
dell’uso al quale sono destinati. Il calcolo della elasticità incrociata della domanda permette di misurare il
grado di sostituibilità dei prodotti, calcolando quindi la misura in cui l’impresa è soggetta al potere di scelta
dei clienti che ne limita specialmente la capacità di fissare un prezzo elevato. Occorre però considerare anche
l’elasticità di sostituzione dell’offerta nel caso in cui questa possa influenzare la sostituibilità dal lato della
domanda, cioè sia tale da permettere ai fornitori di modificare il loro processo produttivo in modo da
fabbricare i prodotti ed immetterli sul mercato in tempi brevi senza dover sostenere costi aggiuntivi o
affrontare rischi eccessivi. Un esempio di sostituibilità dal lato dell’offerta è rappresentato dai prodotti
differenziati in base alla qualità. In questi casi il mercato rilevante del prodotto comprende tutti i prodotti
sostituibili sotto il profilo della domanda e dell’offerta e le vendite correnti di questi prodotti vengono
sommate per calcolare il volume totale del mercato.
Il mercato rilevante sotto il profilo geografico: definito come l’area nella quale le condizioni di concorrenza
sono sufficientemente omogenee e che può essere distinta da zone geografiche contigue dove le condizioni
di concorrenza sono differenti. il limite geografico di un mercato è determinato analizzando l’effetto di un
aumento dei prezzi di una località in un’altra. Nel caso in cui un aumento del prezzo in una località influisca in
modo sostanziale sul prezzo di un’altra località, allora entrambe le località appartengono al medesimo
mercato geografico. Per individuazione del mercato geografico, occorre raccogliere maggiori informazioni
relative a:
-entità dei costi di trasporto, in relazione al valore aggiunto per unità di prodotto;
-disponibilità degli acquirenti del prodotto a spostarsi;
-eventuale presenza di barriere di natura tariffaria o non tariffaria agli scambi internazionali.

L’attività istruttoria della Agcm e della commissione antitrust europea forniscono numerosi esempi nell’individuare un
mercato rilevante:

- Settore calcestruzzo: l’Acgm nel 2004 ha sanzionato un’intesa restrittive nel settore del calcestruzzo
volta alla ripartizione di forniture con fissazione di prezzi e condizioni contrattuali. L’istruttoria ha fatto
emergere importanti relazioni tecnico-industriali e profili di integrazione verticale tra calcestruzzo e
cemento individuando il mercato rilevante di entrambi i settori. Entrambi i beni sono prodotti omogenei
e hanno dimensione tipicamente locale per l’elevatezza dei costi di trasporto.
- Settore tv a pagamento: questo caso riguarda la fusione tra Newscorp e Telepiù, chiuso dalla
Commissione europea nel 2003. Nella definizione di mercato rilevante del prodotto, Newscorp sosteneva
l’esistenza di un unico mercato tra televisione a pagamento e televisione in chiaro mentre la
Commissione identificava 2 mercati rilevanti differenti. La decisione della Commissione si è però basata
su una valutazione dei mercati che non ha preso in considerazione la sostituibilità della domanda e
dell’offerta e le forme di concorrenza potenziale. Se invece la scelta dei consumatori fosse stata valutata
in relazione a variabili scarse come il tempo libero, le due attività sarebbero state tra loro sostitute.
Settore bevande: questo caso riguarda l’avvio di una serie di acquisizioni nel mercato della distribuzione di
bevande da parte di società come Partesa la quale svolge funzioni di holding di controllo di una rete di società
operanti nel medesimo settore. Esso mostra come la modifica strutturale dei mercati può influire sulla
determinazione dei mercati rilevanti nel tempo (abbandono del mercato della distribuzione di birra). Partesa
in questo caso ha una dimensione nazionale per l’omogeneità dei gusti e la presenza di marchi affermati sul
territorio nazionale e la bassa incidenza dei costi di trasporto.

DISTRETTO INDUSTRIALE

La prima definizione di distretto deriva da MARSHALL = concentrazione di imprese di piccole e medie dimensioni
specializzate nella lavorazione del cotone o della lana o dei metalli. La logica economica dei distretti sta, per Marshall,
nella azione delle economie di scala esterne, ossia nei vantaggi di costo associati alla concentrazione di una industria
in una particolare area geografica. Questo concetto è stato arricchito da BECATTINI che ne ha fatto il nuovo oggetto di
indagine dell’economia industriale impiegandolo come categoria interpretativa dello sviluppo industriale italiano del
secondo dopoguerra; osservando i numerosi casi di concentrazione di piccole e medie imprese in Italia (Prato, Carpi,
Fermo) trovò una conferma sulla validità teorica del concetto di distretto industriale. Nella sua formulazione i distretti
possono essere definiti come un “esteso numero di piccole imprese, legate da relazioni verticali di cooperazione e da
relazioni orizzontali di concorrenza, specializzate in una o più industrie complementari in una area delimitata
naturalmente e storicamente”. Becattini enfatizza però anche l’interazione tra vita economica e vita sociale che si
realizza nei distretti definendoli entità socio-economica caratterizzati dalla compresenza di una comunità di persone e
di una popolazione di imprese in una area delimitata naturalmente e storicamente. Il criterio di individuazione del
distretto non è quindi solo la similarità tecnologica ma soprattutto il senso di appartenenza ad una comunità di vita e
di lavoro.
il concetto di distretto ha avuto molta popolarità anche all’estero dove però si fa maggiormente riferimento al termine
cluster introdotto da Porter, il quale li definisce come una “concentrazione di imprese, in un ambito territoriale
definito, interconnesse fra loro, che si trovano in taluni casi in competizione e in altri a cooperare”.

Le classificazione industriali e le fonti statistiche: al fine di condurre analisi settoriali e indagini compatibili con
l’ambito di competenza disciplinare della materia, occorre riferirsi ai sistemi di classificazione delle attività
economiche adottate dagli istituti di statistica nazionali e internazionali. Obiettivo di uniformità perseguito a partire
dalla nuova classificazione definita nell’ambito delle Nazioni Unite. In Italia l’Istat si è adeguata predisponendo una
nuova classificazione, fortemente modificata, delle attività economiche, l’Ateco 2007. In essa ciascuna attività
economica viene codificata generalmente con un numero di cinque cifre. Le varie attività economiche sono
classificate, dal generale al particolare, in: sezioni, divisioni, gruppi, classi e categorie. Nonostante i continui
adattamenti l’attuale classificazione non risponde completamente alle esigenze di studio dell’economia industriale
poiché la disaggregazione in classi corrisponde al mercato rilevante ma spesso si richiede una classificazione più fine:
le classificazioni statistiche infatti non riescono a cogliere la differenziazione verticale cioè la differenziazione dei
prodotti in funzione del livello dei redditi dei clienti e le relazioni tra le attività.
Capitolo 4
La teoria dell’impresa

Un altro grande cambiamento relativo all’economia di mercato riguarda la natura dei soggetti ai quali è conferita la
proprietà del capitale, e quindi il potere decisionale. Il ruolo degli individui si è ridotto e la figura dell’imprenditore e
del capitalista si sono fuse in quella di IMPRESA e SOCIETA’, tanto che oggi si parla di coporate o managerial
capitalism.

La natura dell’impresa è stata oggetto a lungo di una semplificazione eccessiva da parte degli economisti, i quali
consideravano l’impresa come una parte della teoria del prezzo, assumendo così la massimizzazione del profitto per
l’impresa come principale ed unico criterio decisionale dell’imprenditore. Tuttavia a partire dal contributo di COASE
l’impresa iniziò ad essere descritta in maniera più analitica, come una forma di associazione dotata di una personalità
distinta da quella degli azionisti che, grazie al suo capitale, ha la possibilità di acquisire risorse trasformabili in prodotti
o servizi da vendere sul mercato, ottenendo un profitto con il quale remunerare il capitale e quindi gli azionisti. Invece
che essere una mera componente della teoria del valore viene presentata come una organizzazione che sostituisce il
meccanismo dei prezzi e degli scambi nello svolgimento dei processi economici, se e quando il principio gerarchico
risulti più efficiente del ricorso al mercato.
Per quanto riguarda i meccanismi decisionali, nel caso in cui l’impresa sia individuale, il parametro più realistico resta
sicuramente il criterio dell’utilità individuale, e la massimizzazione dell’utilità stessa coincide con la massimizzazione
del valore del capitale dell’impresa. Tale criterio non coincide però con quello della massimizzazione del profitto. La
massimizzazione del valore del capitale può essere conseguita agendo su redditività, crescita e rischio V = D / (k – g)

con V=valore corrente, D=risultato distribuito agli azionisti, k=tasso di capitalizzazione, n=tasso di crescita attesa

CAPITALISMI A CONFRONTO

Occorre necessariamente indicare quelle che sono le profonde differenze fra il sistema capitalistico anglo-americano e
quello continentale. Queste riflettono in parte diversità culturali e psicologiche ed in parte derivano da differenze
proprie dei sistemi economici:

 Contendibilità del controllo societario: possibilità per un gruppo esterno all’effettivo azionariato dell’imprese
di assumerne il controllo. Le corporations americane e inglese risultano generalmente contendibili perché i
sindacati azionari di controllo più grandi mediamente non superano il 5-10% del capitale azionario. Nel
continente invece i sindacati di controllo (blocchi azionari di voto) vanno da un massimo del 53-56 % ad un
minimo del 20 %, e ciò rende molto più problematica la contendibilità del controllo azionario e quindi la
sostituzione dei gestori.
 Sistema di formazione del risparmio (sistema pensionistico): nei paesi anglosassoni tale sistema è a
capitalizzazione, registra cioè forti avanzi finanziari i quali, riversandosi sui mercati di borsa, ne costituiscono
il principale strumento di finanziamento esterno delle imprese. Nei paesi continentali invece il sistema
pensionistico è a ripartizione, non produce cioè avanzi finanziari, e quindi sarà il sistema bancario ad
alimentare prevalentemente il finanziamento delle imprese.

1) CAPITALISMO ANGLOSASSONE
La caratteristica principale è la distinzione fra la proprietà che compete all’insieme degli azionisti (mandanti)
ed il controllo che è esercitato dagli amministratori/manager (agenti). La principale conseguenza derivante
dalla separazione fra proprietà e controllo sta nel fatto che gli obiettivi delle due categorie possono non
essere coincidenti, nel senso che il i manager potrebbe non condividere la massimizzazione del profitto per gli
azionisti. Tale problema era già identificato al tempo di Smith.
Per questo motivo teoricamente il comportamento dei manager è sottoposto ad una serie di vincoli, i quali
tendono a farlo coincidere con quanto richiesto dagli azionisti:
- Vincoli interni all’impresa: dipendono dalla circostanza che i manager sono assunti con un contratto che
li induce a comportarsi in maniera conforme agli interessi degli azionisti. Tuttavia quando l’azionariato è
molto frazionato (public company), la capacità degli azionisti di controllare il comportamento del
management è più debole, dato che i costi per sorvegliare ed eventualmente sostituire il management
sono di norma più alti dei benefici che essi otterrebbero da una migliore amministrazione dell’impresa.
Per il medesimo motivo si verifica un’asimmetria informativa, cioè una differenza nelle informazioni a
disposizione di azionisti e management, che rende difficile per i primi valutare esattamente il costo di
agenzia, cioè la differenza del valore dell’azienda con o senza quel particolare management.
Anche l’utilizzo di forme retributive ad incentivo (premi o stock options) non risolve del tutto il
problema poiché la congruità dei premi e delle opzioni è stabilita da comitati composti da altri manager e
da membri del cda che dipendono dai vertici dell’impresa e che sono monitorati da consulenti scelti e
pagati dagli stessi beneficiari.

- Vincoli derivanti dal mercato del lavoro: risultati poco brillanti della gestione producono una cattiva
reputazione per i manager che ne sono responsabili; essendo nelle public companies molto frequente la
rotazione del management, l’incentivo ad ottenere una buona reputazione può essere per i manager una
motivazione coerente con quella degli azionisti.
- Vincoli derivanti dalla competizione fra imprese: una impresa poco competitiva è destinata a scomparire,
e quindi la sopravvivenza dell’impresa genera nel management una motivazione allineata a quella degli
azionisti.
- Vincoli derivanti dal mercato dei capitali: nel caso in cui una impresa finanziaria non sia gestita in modo
tale da massimizzare il suo valore di borsa, il basso prezzo delle azioni costituisce una opportunità per gli
investitori che con una scalata ostile alla maggioranza delle azioni possono lucrare la differenza fra valore
corrente delle azioni e valore che si determinerebbe se società fosse affidata a gestori più abili o motivati
agli interessi degli azionisti.

Questo insieme di vincoli permette il raggiungimento di un compromesso fra interessi del mercato e comportamento
effettivo degli agenti e ciò rende il capitalismo manageriale non così diverso dal prototipo classico descritto da Smith.
Tuttavia le critiche al capitalismo anglosassone riguardano proprio il cuore della costruzione smithiana cioè il nesso fra
comportamento razionale ed etica:

-La superiorità del capitalismo è stata affermata da Smith per effetto della fusione tra razionalità individuale e valori
etici. Il comportamento dei manager è influenzato da considerazioni di breve termine per cui l’interesse per i risultati
immediati (short termism) rende ancora più ampia ed indispensabile l’azione di correzione che lo Stato deve compiere
sui meccanismi spontanei dell’economia. Ma la potenzialità di svolgere ruoli correttivi resi necessari dal capitalismo è
limitata, se non esclusa, dal successo che l’economia di mercato ha avuto (globalizzazione).
-Occorre effettuare anche una seconda osservazione, relativa alla comparsa di sintomi che fanno pensare a gravi
disfunzioni, le quali potrebbero condurre all’esaurirsi dei requisiti etici su cui si fonda la superiorità del sistema
dell’economia di mercato. Non si parla solamente di scandali dovuti alla manipolazione dell’informazione (Enron o
Parmalat), ma anche al profondo mutamento di valori della società occidentale. Con il crescere quindi delle
dimensioni delle imprese e con l’ampiamento dello spazio occupato da queste nel sistema, accade che troppa
ricchezza finisce con l’essere sottratta ai meccanismi impersonali, ugualitari ed etici del mercato. Inoltre, il grande
numero dei manager super ricchi è in grado di formare coalizioni che controllano i mezzi di comunicazione, con
conseguenti riflessi di condizionamento al sistema politico; a conferma di tutto ciò vi è l’enorme crescita della
disuguaglianza fra salario medio e remunerazione dei manager più pagati. La crescita delle dimensioni delle imprese, e
della ricchezza e del potere dei loro rappresentati, è anche all’origine della crescita dell’influenza delle lobbies sul
potere politico, il che provoca distorsioni che stravolgano lo spirito originario dell’economia di mercato.

2) CAPITALISMO RENANO
La principale differenza rispetto al capitalismo anglosassone consiste nella Corporate Governance: il controllo
azionario della maggior parte delle grandi imprese è riconducibile ad un numero limitato di soggetti, e non ha
la natura pubblica. Da questa differenza deriva una conseguenza fondamentale di carattere culturale: la
massimizzazione del valore per gli azionisti cioè il profitto risulta un traguardo assai meno accettato,
riguardando un fatto privato dei proprietari. Gli azionisti sono minoritari anche sotto il profilo finanziario,
rispetto alle banche, cioè al pubblico dei risparmiatori. Ciò genera una frattura fra la pratica del management
e attese degli altri soggetti, e fa sì che la cultura renana diffidi della massimizzazione del profitto. Da questa
frattura è sorta una variante di compromesso, cioè una dottrina che stabilisce come obiettivo degli
amministratori la massimizzazione del valore non per i soli azionisti (shareholders) ma anche per un ambito
più vasto di portatori di interessi esterni, appunto gli stakeholders. Se è possibile facilmente che si presentino
casi in cui una valutazione più generale porta a negare che il profitto rappresenti sempre e comunque un
valore di utilità generale, il contrasto fra visione orientata a interesse degli shareholders e quella espressa
dagli stakeholders poco si presta ad ampie generalizzazioni. Preferibile ricorrere ad esempi:
1) Autunno 2002, la direzione della Fiat auto comunica la sua intenzione di chiudere l’impianto siciliano di
Termini Imerese. Evidente è il fatto che ciò fosse in contrasto con gli interessi della comunità dei cittadini di
Termini Imerese, mentre risulta meno agevole valutare l’interesse generale in rapporto a quello di azionisti
e comunità locale. La prosecuzione dell’attività svolta in modo non economico, alternativa alla chiusura,
sarebbe andata a gravare su:
 Azionisti: per un generico azionista della Fiat, una riduzione del valore delle sua azioni per sostenere
l’occupazione in un piccolo stabilimento siciliano non è accettabile.
 Contribuenti: nel caso in cui per mantenere l’attività produttiva la Fiat avesse richiesto ed ottenuto aiuti
statali. Tutto ciò senza considerare il divieto posto dai trattati dell’UE. Anche nell’ipotesi in cui i contribuenti
fossero consenzienti a sostenere un onere per una motivazione di solidarietà, non è detto che il loro
interesse si realizzi.
 Consumatori: gli acquirenti di automobili non vogliono acquistare vetture più care o di qualità inferiore
rispetto a quelle dei concorrenti. Potrebbero essere costretti a fare ciò nel caso di divieti di importare altre
marche (quote all’importazione) o di dazi sulle vetture importate; tuttavia il protezionismo, non solo
addossa ai consumatori un costo non necessario riducendone il benessere, ma ha anche il difetto di
mantenere in vita imprese inefficienti.

Il caso di Termini Imerese è un caso circoscritto, alla fine fu possibile trovare una soluzione trasferendo flussi
compensativi di produzione, senza compromettere in maniera sensibile gli interessi in gioco.

2) 2000, caso Fiat Auto – GM, originato dal fatto che la prima aveva perduto una rilevante quota di mercato nei
confronti dei concorrenti, dato lo scadimento del rapporto qualità-prezzo dei propri prodotti ed anche perché
la riqualificazione della linea dei prodotti avrebbe comportato investimenti per miliardi di euro. Non
disponendo di tali cifre il gruppo Fiat, non essendo possibile ricorrere al sistema bancario, e non potendo il
gruppo Ifi-Ifil (socio di maggioranza) apportare un tale aumento di capitale, la Fiat aveva la facoltà di vendere
(put option) alla GM la sua partecipazione nella Fiat Auto, liberandosi così della necessità di finanziarne il
rilancio ed anche dei rischi. Considerando questa come scelta più favorevole dal punto di vista del valore per
gli azionisti, la prospettiva dell’utilità per gli azionisti avrebbe coinciso con quella della comunità nazionale? La
risposta è negativa. La decisione che infine fu presa dagli azionisti di maggioranza del gruppo cioè la
sottoscrizione di un cospicuo aumento di capitale affiancato dall’emissione di un prestito convertibile è stata
una decisione chiaramente ispirata da motivazioni etiche e contraria all’interesse personale dei singoli
azionisti.

Si può dunque concludere che il principale difetto di un sistema basato sull’individualismo consiste nel fatto che gli
interessi del tempo presente trovano una rappresentazione più forte di quella del tempo futuro. L’economia di
mercato, come la democrazia, consente di rappresentare solo gli interessi di chi già esiste, e non anche quelli delle
generazioni future.

EFFETTI DELLA GLOBALIZAZIONE


L’Interazione fra liberalizzazione del commercio internazionale e rivoluzione del sistema delle comunicazioni ha
determinato un profondo cambiamento dei modelli di attività delle grandi imprese globali. Si tratta di un fenomeno
ampiamente acquisito nella cultura dei manager e degli imprenditori, divenuto attualmente al centro dell’attenzione a
causa del persistere dei livelli elevati di disoccupazione, associati al fenomeno della “deindustrializzazione”
(progressiva riduzione della quota delle attività manifatturiere sul PIL). Rapida crescita del commercio internazionale
e l’ingresso della Cina e dell’India nei sistemi dell’economia durante gli ’80 hanno evidenziato dei fattori di novità per
ciò che riguarda i modi tradizionali con cui si produce valore per l’economia e risultati per gli azionisti.
In una impresa, la produzione del valore nelle attività avviene in una sequenza rappresentabile come una catena
formata da tre anelli:
a) Concezione e progetto industriale di un prodotto o servizio
b) Produzione manifatturiera
c) Attività di marketing e distribuzione

I modelli tradizionali di management si concentravano particolarmente sull’anello sub b), dato che l’attività
manifatturiera era considerata l’area strategicamente più rilevante per la competitività delle imprese.
Henry Ford rappresenta l’esempio più classico di successo nell’epoca che ha preceduto la globalizzazione della
produzione e degli scambi; i suoi metodi permettevano di produrre più rapidamente e con minori costi,
rappresentando così il modello di riferimento per la conduzione delle grandi imprese durante quasi l’intero XX secolo.
Con le trasformazioni della globalizzazione e della rivoluzione ICT, la rilevanza strategica dei singoli anelli è
radicalmente cambiata, perché l’anello sub b) è diventato quello che più risente della concorrenza low cost da parte
dei paesi emergenti, e quindi nei paesi più evoluti proprio questo elemento tende a diventare il punto debole della
competitività.
Le imprese americane ed europee osservando il comprimersi dei margini di profitto sulle operazioni manifatturiere,
hanno reagito trasferendo tali fasi nei mercati emergenti (outsourcing o delocalizzazione). Questo processo ha avuto
origine con le imprese della grande distribuzione, come Wall Mart, che ha iniziato a spostare i propri acquisti dal
mercato domestico verso paesi dai quali era possibile ottenere prodotti di qualità equivalente, ma a prezzi inferiori.
Questo modello di management risulta utilizzabile anche da parte di grandi imprese manifatturiere che si
riorganizzano attraverso la delocalizzazione trasformandosi da multinazionali – imprese che vendono su numerosi
mercati ciò che producono in varie parti del mondo - come la Ford in ciò che possono essere definite imprese
transnazionali (platform companies), imprese come IKEA, Nokia e Apple, che vendono ovunque ciò che
apparentemente non producono in nessun luogo. il modello di management delle Tnc consiste nel non considerare
strategico l’anello centrale della catena della produzione del valore; l’eliminazione o la riduzione del peso
dell’attività manifatturiera determina un duplice vantaggio:

 Effetto ben evidente che deriva dalla riduzione dei costi di produzione diretti per il minor costo del lavoro
 La delocalizzazione comprime l’entità del capitale investito nei processi produttivi che fanno capo
direttamente alle Tnc, migliorandone in proporzione il ROE (rendimento percentuale sul capitale investito).

Le imprese Tnc si trovano quindi a realizzare profitti molto consistenti dovuti alla competitività dal lato dei costi di
produzione, potendo anche restringere ai minimi termini l’impiego di capitale.
Delocalizzando gli investimenti e limitandosi alla progettazione dei prodotti acquistabili a costi molto bassi dalle
fabbriche collocate nei paesi in via di sviluppo o di nuova industrializzazione, le imprese Tnc mantengono comunque il
controllo dei marchi e delle reti di distribuzione sia nei mercati rilevanti sia in quelli del Bric, nei quali vanno a formarsi
nel tempo mercati di consumatori ad alto reddito.
Le implicazioni di questo modello hanno portato al fenomeno della deindustrializzazione= progressiva riduzione della
quota determinata dalle attività manifatturiere sul PIL. Questo fenomeno però non è del tutto nuovo; nel corso degli
anni ’60 infatti in Gran Bretagna, l’economista Kaldor, seguendo il lavoro di Solow, sviluppò una analisi delle cause e
degli effetti del progresso tecnologico lanciando un allarme sul processo di deindustrializzazione. Secondo la sua
teoria, la diminuzione del valore aggiunto nell’industria manifatturiera che si stava verificando in Gran Bretagna
avrebbe provocato gravi danni dal momento che l’industria manifatturiera incorporava fattori di progresso
tecnologico. Nel 1966 Kaldor convinse il leader Callaghan a introdurre una imposta differenziata sui salari che
prevedeva una aliquota maggiore per il settore dei servizi, con l’obiettivo di incentivare lo sviluppo dell’occupazione
nelle attività manifatturiere. I risultati furono deludenti, al punto che nel 1973 l’imposta fu revocata.
Gli effetti che derivano dalla affermazione del modello di imprese Tnc hanno ricevuto attenzione anche negli studi di
macroeconomia:

 La principale implicazione consiste nel fatto che l’outsourcing ha concorso a mantenere bassa l’inflazione,
dato che non solo i prodotti fabbricati in Cina o nell’est europeo sono meno costosi, ma anche perché in
questo modo è stato spezzato il potere contrattuale dei sindacati, aumentando la concorrenza all’interno dei
sistemi economici.
 Inoltre è stato fortemente ridotto il significato delle statistiche del commercio internazionale: con il crescere
delle imprese Tnc la parte statisticamente visibile della catena del valore, cioè la produzione manifatturiera, si
traduce in un elemento del passivo della bilancia commerciale per i paesi che hanno guidato la rivoluzione
manageriale. La parte meno visibile della catena del valore risulta difficilmente percepibile nella contabilità
macroeconomica perché facilmente manipolabile nei contratti di fornitura con finalità finanziarie o fiscali.
 Implicazioni relative al modello delle Tnc, che avrebbero potuto offrire alla stabilità economica. Prima della
crisi
2007-2009, si riteneva che la globalizzazione potesse rappresentare l’ingrediente più importante nella
diminuzione della “volatilità” dei risultati economici.
Capitolo 5
La teoria della domanda

LA DOMANDA MARSHALLIANA

La prima e più completa formalizzazione della teoria della domanda è attribuita a MARSHALL che nella sua opera
“Principles of Economics” la definisce come la relazione funzionale fra quantità domandata da un consumatore e il
prezzo di una specifica merce. La curva di domanda quindi di un singolo consumatore, per un dato prodotto,
riassume la relazione fra quantità massima del prodotto acquistata nell’unità di tempo ed ogni possibile prezzo; la
curva quindi rappresenta sempre la quantità domandata dal consumatore come funzione del prezzo, ed i suoi punti
sono possibilità alternative q = f(p).

Caratteri della curva di domanda:


La curva è inclinata negativamente dato il principio della utilità marginale decrescente, per il quale tanto più alto è il
prezzo tanto minore è la quantità domandata a parità delle altre condizioni. A questa regola fanno eccezione due casi
particolari:

 Quando il consumatore valuta la qualità di un prodotto dal suo prezzo


 Quando il consumatore è spinto ad acquistarlo proprio per il suo elevato prezzo

Il livello del prezzo è riportato sull’asse delle ordinate, la quantità (variabile dipendente) sulle ascisse, in contrasto con
la comune prassi matematica. La curva si riferisce inoltre ad un preciso momento quindi tutte le possibili combinazioni
prezzo – quantità sono ipotetiche, ad eccezione di una. La posizione e la forma di una curva di domanda marshalliana
individuale dipendono da:

 Gusti e preferenze consumatore


 Reddito monetario del consumatore
 Prezzo di ogni altro prodotto, tenuti costanti

Al variare di uno di questi tre parametri si ottiene uno spostamento in parallelo della curva. Al variare del prezzo
invece si ha un movimento lungo la curva stessa. È evidente quindi che mentre il reddito monetario è costante per
ogni punto sulla stessa curva di domanda, il reddito reale muta invece continuamente passando da un punto all’altro.
L’informazione essenziale che si ottiene dalla curva di domanda è il grado di reattività della quantità domandata di
un prodotto ad ogni variazione del suo prezzo. Tale rapporto prende il nome di elasticità della domanda al prezzo,
espresso in termini percentuale= rapporto tra la variazione proporzionale della quantità domandata di X e la
variazione proporzionale del prezzo di X
Δ𝑄 𝑃
𝜖=− ∗
Δ𝑃 𝑄

Due caratteri particolari di tale espressione:

1. Elasticità viene presa per convenzione come positiva, il che spiega la presenza del segno meno davanti alla
frazione, posto per rendere non negativo il numero che esprime l’elasticità.
2. Elasticità della domanda al prezzo è espressa in termini di variazioni relative, non assolute, nella quantità
domandata e nel prezzo, data la difficoltà di avere utili indicazioni dalle ultime.
- se una curva ha elasticità > 1 è elastica ed una diminuzione del prezzo aumenterà la spesa del consumatore;
- se una curva ha elasticità < 1 è inelastica un aumento del prezzo accrescerà la spesa del consumatore per
quel bene;
- se una curva ha elasticità = 1, eventuali variazioni del prezzo non alterano la somma che il consumatore
spende.

L’elasticità della domanda di un bene al suo prezzo dipende da:

 Durata del periodo cui si riferisce la curva di domanda: ogni curva di domanda è definita per un dato
intervallo temporale, per cui la domanda è solitamente più elastica per lunghi periodi, dato che più è lungo
l’intervallo di tempo considerato più agevole risulta per i consumatori sostituire un bene con un altro.
 Numero di beni sostituibili a disposizione: se un prodotto ha molti sostituti stretti la sua domanda sarà
elastica al prezzo.
 Incidenza di un prodotto sul bilancio del consumatore: all’aumentare dell’incidenza di un bene sul bilancio del
consumatore l’elasticità della sua domanda tenderà a crescere.
 I possibili usi alternativi cui un bene si presta: più un prodotto è adatto a svariate applicazioni più è elastica la
sua domanda.

Il concetto di elasticità può essere riferito anche ad un’altra variabile diversa dal prezzo, cioè il livello del reddito
monetario di un consumatore. Nell’unità di tempo e con prezzi costanti di tutti gli altri prodotti, la relazione tra livello
del reddito monetario di un singolo consumatore e la quantità domandata di un bene è illustrata dalla curva di Engel.
La variazione della quantità domandata al variare del reddito monetario del consumatore può essere misurata per
ogni punto della curva di Engel per mezzo della elasticità della domanda al reddito:
Δ𝑄 𝑌
𝜖=− ∗
Δ𝑌 𝑄

 elasticità al reddito > 0 : incrementi del reddito monetario del consumatore comportano aumenti della
quantità domandata di un bene, come ad esempio generi elementari
- elasticità al reddito > 1 : un incremento di un punto percentuale nel reddito monetario comporta un
aumento percentuale maggiore di uno nella quantità domandata
- elasticità al reddito < 1 : un aumento di un punto percentuale del reddito monetario determina
un incremento percentuale minore di uno della domanda
 elasticità al reddito < 0 : incrementi del reddito monetario del consumatore comportano riduzioni
nel consumo di una merce, come ad esempio beni inferiori.

In ogni caso, l’elasticità della domanda di un prodotto al reddito muta a seconda del livello stesso del reddito
monetario individuale: a certe fasce di reddito corrisponderà un’elasticità positiva, mentre a partire da altre potrà
essere negativa

Una variazione nel prezzo del bene X influenza il comportamento del consumatore in un duplice modo:

1. Da un lato, se il prezzo di X diminuisce, l’acquisto di tale prodotto diventa, a parità del prezzo di tutte le altre
merci, relativamente più conveniente ed il nostro consumatore sarà spinto sempre ad aumentare la
domanda del bene X (Teorema di Slutsky), in sostituzione dei prodotti divenuti relativamente più costosi
EFFETTO SOSTITUZIONE
2. La riduzione del prezzo di X comporta anche un miglioramento del reddito reale del consumatore, che può
fare aumentare gli acquisti di tutti i prodotti, compreso il bene X, a meno che questo sia un bene inferiore, la
cui domanda diminuisce quando il reddito reale aumenta EFFETTO REDDITO

DOMANDA DI MERCATO = somma domande individuali

𝑄 = ∑ 𝑞 = 𝑓(𝑝)
𝑖=1

Il modello della domanda marshalliana è un eccellente formalizzazione della relazione quantità/prezzo ma risulta
ragionevole solo nel breve periodo, mentre non è realistica se il riferimento temporale diviene più ampio. Ne
consegue che la quantità domandata di un particolare prodotto può variare anche per motivi che non dipendono
soltanto dal prezzo e dal potere di acquisto che il consumatore può spendere per un dato prodotto, cioè dal suo
reddito. Oggetto della revisione della teoria neoclassica sono gli stessi postulati su cui si fonda la stessa teoria
neoclassica, cioè:

1. Costanza del sistema di preferenze del consumatore


2. Relazione reversibile e differenziabile fra i tre parametri del modello di equilibrio statico paretiano: quantità
domandata, prezzo e reddito del consumatore.
3. Realismo dell’ipotesi di massimizzazione dell’utilità soggettiva nel comportamento del consumatore,
4. Razionalità ed autonomia del comportamento del consumatore nei confronti dei fattori e delle variabili
esogene.

Questi assiomi caratterizzanti il modello di comportamento del consumatore nell’economia neoclassica, sono stati
posti in discussione e grazie a indagini empiriche si è potuta dimostrare:

- L’inattendibilità dell’assioma della stabilità del sistema di preferenze individuali (1) le funzioni di
utilità dei consumatori, cioè dei loro gusti e preferenze, variano anche in base a variazioni di prezzo e\o
di reddito attese dal consumatore, passate esperienze di consumo, frequenti comportamenti imitativi,
attività di promozione delle vendite.
- L’elasticità della domanda al prezzo muta in relazione all’ampiezza della variazione del prezzo e si sono
quindi avanzati fondati dubbi sulla esistenza di curve di domanda isoelastiche all’andamento del prezzo.
Duesenberry, nel 1949 approfondirà questo fenomeno, definendolo “irreversibilità della funzione della
domanda”.
- Non è realistico nemmeno l’assioma relativo alla indipendenza del sistema di preferenze del singolo
consumatore da ogni condizionamento esterno. La teoria neoclassica ipotizza un comportamento
razionale del consumatore assolutamente autonomo; la funzione di utilità dipende solo dai gusti e dal
reddito del consumatore nonché dai prezzi, mentre è insensibile alla domanda degli altri consumatori.
Una tale impostazione non può reggere il riscontro della verifica empirica. Ne consegue l’assoluta
improbabilità di una funzione di domanda collettiva, come somma delle singole funzioni di domanda
individuali.
- Inoltre, negare la presenza del fattore tempo significa escludere la presenza di qualsiasi elemento
dinamico, di qualsiasi processo di cambiamento, ma anche giustificare la esistenza stessa dei tre assiomi
appena discussi.

LA TEORIA MARRISIANA

L’ipotesi base del modello dovuto a Robin MARRIS (1964) è riconducibile all’assunto secondo cui i consumatori,
superato il livello dei bisogni di sussistenza, sono portatori di un sistema di preferenze tutt’altro che stabile ed
indipendente. Al contrario, i bisogni dei consumatori sono oggetto di una incessante trasformazione in funzione del
continuo flusso di stimoli e di informazioni che alterano il sistema di giudizi e di valori. Un altro elemento
fondamentale del comportamento del consumatore è costituito dalle esperienze di consumo acquisite:
memorizzando le esperienze di consumo, il consumatore formula un quadro di riferimento, continuamente
aggiornato, in base al quale prende le proprie decisioni di acquisto presenti e future. È provato che la maggior parte
dei casi, un prodotto viene comprato se è già stato oggetto di consumo precedente. In tal modo trova giustificazione
l’affermazione che è l’esperienza a creare i bisogni. Nel consumatore si possono comunque risvegliare bisogni latenti
tramite lo stimolo del messaggio pubblicitario o i giudizi di altri consumatori su un determinato prodotto. Marris
privilegia questo secondo canale di “attivazione del consumo”. Il ricorso all’esperienza altrui appare fondamentale
nello spiegare la diffusione dei consumi nella moderna società industriale in cui, essendo particolarmente elevato il
saggio di introduzione di nuovi prodotti, è impensabile che ogni individuo possa sperimentare da solo ogni nuovo
bene.
Date tali premesse, è possibile prendere in esame il meccanismo con cui un nuovo prodotto si introduce in fasce via
via più vaste di consumo.
Marris suddivide i consumatori in pionieri e pecore: i pionieri, a differenza delle pecore, sono caratterizzati una
maggiore sensibilità nell’esplicitare i propri bisogni latenti, maggiore vulnerabilità al richiamo pubblicitario e in
generale maggiore coraggio riguardo alle incertezze delle novità. Essi decidono nuovi acquisti senza fruire di stimoli da
parte di altri consumatori. Il numero complessivo di consumatori pionieri di un prodotto appena lanciato dipende dal
prezzo, dalla qualità del prodotto, dalla spesa pubblicitaria e da alcune caratteristiche socio – economiche, come il
livello e la distribuzione del reddito. La domanda dei consumatori pionieri risulta quasi sempre anelastica, mentre la
curva del consumatore pecora è caratterizzata da una buona elasticità alle variazioni di prezzo. È opportuno
comunque tenere distinta la funzione che determina il numero dei pionieri da quella che definisce il comportamento
del singolo pioniere.
Il pioniere incorpora il nuovo prodotto nel proprio schema di preferenze, creando la propria curva di domanda fino ad
allora inesistente, con un processo irreversibile. Parimenti irreversibile è il cambiamento che subisce il consumatore
pecora tutte le volte che, in seguito ad attivazione, è stimolato ad acquistare un dato prodotto.
L’insieme di tutti i consumatori (o perché attivati o perché pionieri) che sono disposti a consumare quantità positive di
un prodotto ad un dato prezzo, è definito popolazione del mercato, la cui dimensione è funzione sia del prezzo e
delle qualità del prodotto, sia delle caratteristiche della popolazione stessa.
Quando un nuovo prodotto viene lanciato sul mercato, i compratori sono pochi, ma superata la prima comprensibile
diffidenza e sollecitata da una insistente pubblicità, gli acquisti di questi aumentano. Se i pionieri raggiungono un
determinato numero critico ed esprimono favorevoli apprezzamenti sul prodotto, le persone con cui entrano in
contatto possono essere stimolate da un comportamento imitativo: le pecore attivate potranno così influenzare nuovi
consumatori, innescando così una reazione a catena di vaste proporzioni.
Si sono ora richiamati due concetti nuovi:

 Criticità: particolare condizione della domanda, cioè il passaggio della domanda di un prodotto dalla fase di
gestione a quella di esplosione, in cui sussiste criticità se la probabilità che si innesti una reazione a catena, è
vicina all’unità, e quindi quasi certa.
 Contatto socio-economico: quando una persona è in grado di stimolare un’altra all’acquisto di un nuovo bene
ciò è possibile se fra i due vi è affinità di gusti, valori etici sociali ed economici (appartenenza alla stessa
classe sociale). Non tutti i contatti sociali sono socio – economici. Da questa tipologia di contatti con un
consumatore deriva uno stimolo; il numero degli stimoli ricevuti, sarà funzione non soltanto del numero
dei singoli consumatori già esistenti con cui si stabilisce un contatto, ma anche del numero medio di
contatti avuti con ciascuno di essi durante un certo periodo.

E’ possibile quindi riassumere questa prima parte della analisi marrisiana così: la domanda complessiva del mercato è
data dalla somma delle singole schede di domanda individuali, che differiscono fra loro a seconda che si tratti di
consumatori pionieri o pecore.
La funzione che esprime la domanda di un pioniere sarà:

𝑞𝑖𝑗= 𝜙 ( 𝑋𝑖 𝑋𝑗)𝜇𝑖𝑗

Mentre quella che esprime la domanda delle pecore sarà:

𝑞𝑖𝑗= 𝜙 ( 𝑋𝑖 𝑋𝑗)𝑣𝑖𝑗

La domanda aggregata è dunque uguale a: Qj = Np Φp + Na Φs

E’ possibile distinguere 3 fasi caratteristiche della domanda:

1. Fase di gestazione
2. Fase di saturazione
3. Fase esplosione: fase instabile, intermedia fra le due precedenti.

Premesso che i pionieri sono distribuiti casualmente in una popolazione data, la popolazione del mercato può essere
composta da un grande numero di gruppi primari, contraddistinti dal fatto che ogni membro è in contatto socio-
economico con ogni altro. In questi gruppi si posso osservare vaste reazioni a catena, rese più intense da diffusi
fenomeni di emulazione e conformismo, strettamente dipendenti dalla struttura del sistema di gruppi e legami.
La catena dei contatti non è né regolare né ininterrotta, per cui i contatti effettivi saranno certamente minori di quelli
potenzialmente possibili. I contatti mancati sono quasi sempre riconducibili alla presenza degli “sbarramenti sociali
che sono causa della forma irregolare della dimensione dei gruppi primari e delle ampie interruzioni nelle catene di
gruppi connessi; le interruzioni, casuali e non, derivanti da tali ostacoli frazionano ogni popolazione di mercato in un
certo numero di insiemi connessi distinti, definiti gruppi secondari, caratterizzati dal fatto che alcuni soltanto dei loro
membri appartengono contemporaneamente a due o più gruppi.
Relativamente al grado di stratificazione si intende il minimo numero di gruppi secondari, legati al gruppo primario
da un certo grado di connessione, in cui può essere divisa una popolazione razionalizzata. Teoricamente, una
popolazione omogenea, per quanto stratificata, può essere sempre completamente attivata da un produttore capace
di innescare una reazione a catena in ogni suo gruppo secondario. Al contrario invece, saturati gruppi secondari di una
popolazione primaria, il processo di attivazione non può essere trasferito semplicemente su un’altra popolazione
omogenea, tranne nel caso in cui quest’ultima abbia un reddito tale da appartenere alla popolazione del mercato di
quel prodotto.
Il numero di gruppi secondari in cui popolazione viene suddivisa è funzione sia delle cause di interruzione vere e
proprie sia del grado di stratificazione, il quale viene determinato dalla seguente relazione:

𝜆 = 𝑛√𝑆

Dove S rappresenta il numero dei gruppi secondari. In linea di massima Marris rileva che quanto minore è il valore di
lambda tanto più facilmente un nuovo bene sarà in grado di saturare una data popolazione di mercato.

Occorre considerare, oltre ai beni finali di consumo, anche i beni di produzione, cioè quei prodotti intermedi oggetto
di transazioni tra le imprese. Marris dimostra la validità della propria teoria anche per questi beni. Nel caso limite in
cui non vi fosse progresso tecnologico, la domanda di prodotti strumentali, essendo regolata solo dall’andamento
degli altri beni, aumenterebbe solamente con esplosioni delle vendite dei prodotti di consumo. In realtà però la
tecnologia compie continui progressi.
Vi sono settori produttivi che rispondono più prontamente allo stimolo di una innovazione tecnica e altri invece, che
Marris ricollega alle produzioni di bene già saturati, nei quali l’inerzia raggiunge punte massime. Molto spesso un
macchinario, pur non essendo fisicamente logoro, viene ugualmente sostituito con uno nuovo per potere usufruire
delle innovazioni tecnologiche in esso incorporate. È probabile che certi dirigenti, per prendere tale decisione, abbiano
bisogno di uno stimolo come le pecore, il quale può derivare da due fonti:

1. Dal contratto personale con altri dirigenti che hanno già introdotto l’innovazione: processo di stimolo,
attivazione e propagazione del tutto analogo a quello illustrato nel caso dei consumatori. Ogni dirigente potrà
subire uno stimolo ad innovare venendo a contatto con altri manager che abbiano già introdotto quel
miglioramento e che operino nel medesimo settore produttivo. Anche in questo caso avremo un contatto
socio – economico, dal momento che le due persone appartengono al medesimo ceto sociale e sono
accomunate dagli stessi interessi ed aspirazioni professionali.
2. Dagli effetti delle rinnovazioni introdotte da altre imprese concorrenti: anche qui, come per il consumatore,
avremo una rete interconnessa di contatti, interrotta da barriere e sbarramenti vari, che si estende su tutto il
settore industriale. Se un’impresa opera ad esempio in un mercato oligopolistico ed alcuni concorrenti
adottano una innovazione che fa sentire il suo effetto negativo sulle vendite di un’altra impresa, quest’ultima
molto probabilmente sarà stimolata ad imitarli, cioè ad introdurre quel miglioramento.

Osservazioni conclusive sulla teoria di Marris:

 Nell’analisi delle condizioni di criticità si è stabilito che, a parità di altre condizioni, una popolazione di
mercato di vaste dimensioni è più facile da saturare di una piccola, poiché il numero critico necessario di
pionieri aumenta molto meno che proporzionalmente all’incremento di dimensione del mercato da
penetrare.
 Marris trascura una delle componenti che più influiscono sulla domanda: la durata del prodotto, variabile
essenziale per analizzare andamento della cd “domanda per sostituzione”.

DOMANDA DI BENI DI CONSUMO DUREVOLE


Ulteriori motivi di insoddisfazione circa la capacità esplicativa del modello neoclassico di comportamento del
consumatore derivano dalla necessità di considerare le difformità che si presentano nel caso in cui l’oggetto della
decisione di acquisto sia costituito da beni di consumo immediato, beni di consumo durevole e beni strumentali. In
questa sede si analizzano solo i modelli di previsione ed analisi della domanda generale di beni omogeni riguardante
un intero settore produttivo.

- La domanda di beni di consumo immediato (alimentari) è funzione della capacità di acquisto del
consumatore, cioè del prezzo e del reddito; inoltre questi beni sono di solito perfettamente divisibili ed il
loro consumo viene ripetuto frequentemente.
- Nel caso dei beni di consumo durevole (elettrodomestici e automobili) l’acquisto è relativamente
saltuario e comporta una spesa non trascurabile in rapporto al reddito del consumatore. Essi sono
inoltre indivisibili ed offrono un servizio prolungato nel tempo. Ne deriva che l’analisi teorica neoclassica
che ha sempre privilegiato come oggetti di studio i beni di consumo immediato non può trovare
applicazione riguardo ai beni di consumo durevole, la cui domanda è influenzata da un maggior numero
di variabili e relazioni.
La domanda di beni di consumo durevole è stata indubbiamente uno degli elementi portanti dello
sviluppo industriale italiano del dopoguerra.

Per analizzare le leggi alle quali risponde l’andamento della domanda di tale categoria di merci occorre
verificare l’applicabilità a tali beni del principio di accelerazione al consumo di questi beni. Secondo questo
principio la domanda di beni strumentali dipende dalla variazione della domanda finale dei prodotti ottenuti
con l’uso di quel particolare strumento produttivo.

Per quanto riguarda la domanda di beni di consumo durevole, l’applicabilità del principio risulterebbe
legittima qualora si assumesse che la diffusione dell’uso di un determinato bene di consumo durevole fosse
legata al reddito disponibile dei consumatori. Supposizione logicamente fondata ma difficilmente applicabile.
La domanda di beni di consumo durevole dipende dalle variazioni del reddito dei consumatori e non
dall’entità del reddito dei consumatori:

Domanda di beni intermedi e di investimento:


Beni intermedi= materie prime, semilavorati I modelli empirici che maggiormente si addicono ad una
previsione della domanda aggregata sono quelli di interdipendenza input – output e quelli che si riferiscono
alla politica di immagazzinamento perseguita dalle imprese.
Con riguardo alle materie prime, la previsione della domanda presenta notevoli difficoltà causate dalle
particolari caratteristiche di tali beni. Questi sono molto eterogenei, sia tecnologicamente che riguardo agli
utilizzatori finali. La loro domanda è funzione della domanda delle imprese industriali che direttamente ne
fanno uso nei loro processi produttivi, ma anche della domanda dei beni finali ottenuti con i prodotti
intermedi. Ne consegue che la domanda di beni intermedi dipende non solo dalle variabili proprie della
funzione di domanda di beni finali ma anche dai cambiamenti tecnologici, variabile particolarmente
significativa nelle moderne economie industriali. L’azione di questa variabile fa sì che una particolare materia
prima venga richiesta non solamente in funzione del livello assoluto del prezzo, ma anche del rapporto fra
tale prezzo e quello di altri materiali succedanei.
un secondo elemento perturbante deriva dal fatto che, nella maggior parte dei casi, i beni intermedi possono
essere immagazzinati in grandi quantità senza gravi pericoli di deterioramento; la loro domanda quindi
risulta influenzata anche dal livello degli stock costituiti presso le imprese utilizzatrici, nonché dalle
aspettative economico-congiunturali e tecnologiche di quest’ultime.

I beni finali di produzione o beni di investimento presentano alcune rilevanti analogie con i beni di consumo durevole.
La previsione della domanda per incremento netto del parco (stock) è condizionata dalle variabili che definiscono la
domanda di consumo finale, ed in particolare dalla macrovariabile “reddito nazionale”. Anche in questo caso quindi
opera il principio di accelerazione, analiticamente definito da:

𝐼 = 𝑓(∆𝑌)

Per previsioni di lungo periodo, le ricerche empiriche attinenti a particolari beni di produzione ricorrono direttamente
alla macrovariabile “investimenti nazionali netti”. La macrovariabile “investimenti nazionali” e la sua dinamica
possono essere analizzate con riferimento al lungo ed al medio-breve periodo:
- Per quanto riguarda l’analisi di lungo periodo si ricorre a modelli macroeconomici del tipo di quello Harrod-Domar, il
quale si fonda sulla previsione dell’andamento delle due variabili “propensione al risparmio” e “coefficienti marginali
capitale-prodotto”, ignorando del tutto le oscillazioni di carattere congiunturale.

- In relazione invece all’analisi di medio – breve periodo si utilizzano modelli che mettono in risalto anche gli elementi
congiunturali e ciclici. Ad essi ricorrono sia l’operatore pubblico, per ottenere informazioni sulle varie fasi della
congiuntura indispensabili per il governo dell’economia, sia le singole grandi imprese industriali che, operando nel
settore dei beni di produzione, possono trarre dalla conoscenza del presumibile andamento degli investimenti
industriali lordi, nel breve e medio periodo, indicazioni preziose circa la possibile evoluzione futura delle loro vendite.
Tali modelli sono riconducibili a due principali categorie:

1. Modelli basati sul principio di accelerazione, che fanno dipendere gli investimenti dalla variazione della
domanda
2. Modelli del tipo “profitti-investimenti” in cui gli investimenti sono fatti dipendere dai profitti o comunque
dai fondi propri disponibili delle imprese.

Esposizione dei due fra i più significativi modelli elaborati:

1. Modello del gruppo di studio di Ancona: investimenti industriali fissi lordi dipendono dalla variazione del
valore aggiunto dell’industria (cioè dalle variazioni della domanda di beni industriali), rettificato per mezzo di
coefficiente che quantifica i vincoli incontrati dalle industrie nell’attuare gli investimenti programmati. Tali
vincoli derivano sia da elementi di ordine tecnico (raccolta info, elaborazione scelte alternative) sia da
elementi di ordine economico. Nel primo caso le predizioni ricavabili dal principio di accelerazione sono
ridimensionate dai vincoli che derivano dall’insufficienza dell’autofinanziamento accumulato nelle fasi
precedenti. In fase recessiva invece i suddetti fattori di ordine economico impediscono al flusso degli
investimenti di cadere al di sotto del livello corrispondente al mancato ammortamento degli impianti e al loro
rinnovo. In questo modo le imprese affrontano il nuovo periodo di ripresa economica con un eccesso di
capacità produttiva, il quale giustificherà un effetto accelerativo smorzato nell’andamento della nuova fase
degli investimenti. Gli investimenti industriali fissi lordi dipendono quindi: direttamente secondo il principio
dell’accelerazione, dal saggio di variazione del valore aggiunto dell’industria e dai profitti realizzati
dall’impresa negli anni trascorsi, e inversamente dal costo del capitale e dalla capacità produttiva
inutilizzata.
2. Modello di Sylos Labini: si ricollega ad una logica di tipo “profitti – investimenti”. Punto di partenza è
distinzione fra funzione degli investimenti industriali per le grandi imprese e quella per le medie e le
piccole imprese: il saggio di variazione degli investimenti delle prime dipende direttamente dalla quota di
profitto corrente, dal saggio di variazione di tale quota e dal grado di capacità produttiva inutilizzata. Per le
medie – piccole imprese invece gli investimenti sono funzione dei profitti correnti, del loro saggio di
variazione e della liquidità totale.

Confronto di tali modelli macroeconomici con quelli utilizzati dalle singole imprese industriali per prevedere la
domanda di beni di produzione nel medio – breve periodo. I modelli a livello di singola unità produttiva si fondano
sui seguenti parametri:

1. Costo del denaro, rappresentato dal saggio di interesse corrente. La disponibilità di linee di credito
2. Profitti correnti delle imprese e\o i profitti attesi
3. Grado di utilizzazione della capacità produttiva, misurabile con il ricorso o a determinati coefficienti empirici
oppure al rapporto fra produzione effettiva e produzione temporale massima
4. Tempo di aggiustamento, lasso di tempo necessario perché il parco effettivo di beni strumentali si adegui,
tramite mutamenti indotti della domanda, alle variazioni teoriche del prezzo.

Per quanto riguarda la domanda di sostituzione, si possono trovare numerosi punti in comune con le considerazioni
svolte a proposito della dinamica della domanda di beni di consumo durevole. Occorre tuttavia sottolineare 2
importanti differenze:
- la domanda di sostituzione per i beni di produzione è influenzata dal livello dei profitti delle imprese utilizzatrici e
non dal livello del reddito;
- i modelli operativi aziendali danno notevole rilievo alla innovazione tecnologica; la vita media degli impianti
produttivi viene quindi considerata assai più breve di quanto sarebbe lecito supporre in base ai dati tecnici.

La domanda residuale:
E’ quella parte della domanda di mercato che si rivolge ad una singola impresa offerente, costituita semplicemente
dalla differenza fra domanda complessiva del mercato e quota assorbita dalle altre imprese costituiscono l’offerta.

Nella forma marshalliana va sempre tenuta da conto l’ipotesi “other things the same”. L’andamento parallelo alla
domanda del mercato della curva di domanda residuale introduce però una ulteriore ipotesi, che la quantità della
domanda che viene soddisfatta dalle altre imprese permanga costante ad ogni livello di prezzo. Si tratta di una
ipotesi coerente con la natura della funzione di domanda marshalliana che si limita a descrivere tutte le combinazioni
possibili di quantità e prezzo alternative a quella data corrente sul mercato, per cui la quota di domanda assorbita
dalle altre imprese può essere coerentemente considerata costante.
Capitolo 6
Struttura e regime di variazione dei costi di produzione

Aspetto più importante tra le condizioni di base dell’offerta nel paradigma SCP. Necessario avere conoscenza di
nozioni su costi delle imprese e sulle problematiche ad essi connesse, dal momento che numerose previsioni
formulate dalla teoria economica si basano sul concetto di costo marginale. Inoltre i governi spesso regolamentano le
industrie in cui l’entrata è collegata al sostenimento di costi particolarmente elevati.

Struttura dei costi di produzione:


Essa si riferisce al breve periodo (intervallo di tempo tanto breve da non consentire all’impresa di variare la quantità
impiegata di fattori), definibile come intervallo di tempo compreso tra quello in cui tutti i fattori sono fissi e quello in
cui tutti i fattori sono variabili. Al crescere del periodo di tempo considerato, la quantità di un numero sempre
maggiore di fattori diventa variabile. Nel lungo periodo infatti tutti i fattori produttivi sono variabili e la loro quantità è
lasciata alla discrezione dell’imprenditore. Estensione temporale del breve periodo cambia a seconda di ogni industria:
in quelle in cui la quantità dei fattori fissi non è rilevante il breve periodo può riferirsi ad un breve intervallo di tempo;
per altre industrie invece il breve periodo può essere misurato in anni (es. industrie dell’acciaio, lungo arco di tempo
per espansione della capacità produttiva di base).

Relativamente al breve periodo ed alla struttura dei costi di produzione occorre distinguere tre concetti di costo
totale:

 Costo totale fisso: passività totali che l’impresa deve sostenere nell’unità di tempo per fattori fissi. Poiché la
quantità di tali fattori è per definizione costante, il costo totale fisso sarà il medesimo indipendentemente
dalla quantità prodotta. Alcune voci che concorrono a costituirlo sono ad esempio il deprezzamento dei
fabbricati e delle attrezzature e le imposte sul patrimonio.
 Costo totale variabile: sono i costi totali che l’impresa deve sostenere per acquistare i fattori variabili.
Aumentano all’aumentare della produzione, dato che livelli produttivi più elevati richiedono fattori variabili in
quantità maggiore, il che si traduce in costi variabili più elevati. Per bassi livelli produttivi, gli incrementi
nell’utilizzo di fattori variabili possono dar luogo ad incrementi della loro produttività. Di conseguenza i costi
totali variabili aumentano con la quantità prodotta ma ad un tasso decrescente. Tuttavia, superato un certo
punto, i rendimenti marginali del fattore variabile diventano decrescenti e i costi variabili aumentano ad un
tasso via via maggiore. Proprietà dei costi totali variabili deriva dalla legge dei rendimenti marginali
decrescenti.
 Costo totale: somma dei costi totali fissi e dei costi totali variabili. Funzioni di notevole importanza.

Possibile analizzare più a fondo il comportamento del costo integrandolo con quello dei costi medi e marginali. Ci sono
infatti tre funzioni di costo medio, che corrispondono alle tre funzioni del costo totale:

 Costo medio fisso: dato dal rapporto fra costo totale fisso e quantità prodotta. Diminuisce al crescere della
quantità prodotta. Andamento descritto graficamente da iperbole equilatera, infatti in ogni suo punto il
prodotto fra ascissa (Q) e ordinata (CMF) è uguale ad una costante, il costo totale fisso.
 Costo medio variabile: dato dal rapporto tra costo totale variabile e quantità prodotta.
 Costo medio totale: rapporto tra costo totale e quantità prodotta. È pari alla somma del costo medio fisso e
costo medio variabile. Per i livelli produttivi in corrispondenza dei quali le curve del costo medio fisso e
variabile hanno entrambe andamento decrescente, il costo medio totale è necessariamente decrescente.
Esso tuttavia raggiunge il livello minimo dopo il costo medio variabile, perché in un certo intervallo gli
incrementi di quest’ultimo sono più che compensati dalle diminuzioni del costo medio fisso.

Il costo marginale invece è l’incremento del costo totale conseguente ad un incremento unitario nella quantità
prodotta. Se
C (Q) è il costo totale relativo ad una produzione di Q unità, il costo marginale nell’intervallo compreso fra Q e (Q – 1)
unità prodotte sarà C(Q) – C(Q – 1). Per bassi livelli produttivi, il costo marginale può assumere un andamento
decrescente al crescere della quantità prodotta, per raggiungere un minimo e poi crescere all’aumentare della
produzione. Le ragioni di ciò possono essere collegate alla legge dei rendimenti marginali decrescenti.
Se in seguito ad una variazione ΔQ, ΔCTV e ΔCTF rappresentano rispettivamente il conseguente incremento del costo
totale fisso e totale variabile, il costo marginale sarà pari a:
𝛥𝐶𝑇𝑉 + 𝛥𝐶𝑇𝐹
𝛥𝑄
Ma essendo i costi fissi costanti, la variazione dei costi totali fissi è nulla. Inoltre, se il prezzo del fattore variabile è un
dato per l’impresa, ΔCTV = ΔI, dove quest’ultimo rappresenta la variazione nella quantità impiegata del fattore
variabile conseguente ad un incremento pari a delta Q nella produzione. Così il costo marginale è pari a:

𝑑𝐼 𝐼
𝑀𝐶 = 𝑃 =𝑃
𝑑𝑄 𝑃𝑀𝑎

Dove PMa rappresenta il prodotto marginale del fattore variabile.


Dato che al crescere della quantità prodotta PMa il costo marginale ha generalmente andamento crescente, questo
normalmente diminuisce, raggiunge un minimo per poi aumentare. Esiste dunque un nesso tra la forma della
funzione del costo marginale e la legge dei rendimenti marginali decrescenti. Tutto ciò si spiega facilmente se si
pensa che il costo marginale medio non è altro che il costo dell’ultima unità prodotta, per cui se esso è più basso del
costo medio tende ad abbassare la media. Se ciò si aggiunge un valore inferiore alla media, la media si abbassa. Ne
consegue che l’unico punto in cui il costo medio è uguale al costo marginale è quello corrispondente al punto di
minimo della curva dei costi medi.
I costi medi, ed il loro andamento, sono meglio descritti dalla funzione dei costi formulata da Sylos Labini C = vq + k,
dove v sono i costi variabili, q la quantità prodotta e k i costi fissi. Fino al pieno utilizzo della capacità produttiva il
costo medio di produzione è decrescente, mentre il costo marginale è costante ed uguale al costo variabile v.

Analisi del Break Even Point


La variabilità dei costi di produzione nel breve periodo, con la capacità produttiva data, dipende in definitiva dal peso
relativo dei costi variabili e dei costi fissi. Se tutti i costi sono variabili, cioè proporzionali alla quantità prodotta, la
variabilità del costo in relazione ai diversi gradi di utilizzo della capacità produttiva è nulla; se invece tutti i costi
sono fissi, la variabilità del costo medio di produzione alle variazioni della quantità prodotta sarà molto grande. Ciò
determina forti conseguenze nella struttura del settore, che possono essere esaminate tramite il grafico dei ricavi e
dei costi di un’impresa.
Questo è basato sostanzialmente sulla struttura dei costi di produzione, ossia sul rapporto tra costi fissi e costi
variabili. Presupponendo una elasticità unitaria della domanda, possiamo dire che esiste una relazione unitaria tra
prezzo e quantità che determina una inclinazione di 45° rispetto all’asse delle ascisse della retta dei ricavi. I costi di
produzione sono rappresentati da una retta orizzontale, non variano al variare della quantità prodotta, e da una retta
inclinata dei costi variabili, che crescono al crescere della produzione; da queste due rette dei costi si ricava la retta dei
costi totali che è parallela a quella dei costi variabili, ma parte dalla quota in cui i costi fissi intercettano l’asse delle
ordinate.
La posizione di break even si raggiunge quando la retta dei costi totali interseca quella dei ricavi, nel punto q*. In
caso di una diversa struttura dei costi per una impresa, le variazioni dei prezzi hanno effetti molto diversi; se il valore
dei costi fissi k fosse elevato e il valore dei costi variabili fosse basso la diminuzione delle quantità prodotte avrebbe
conseguenze molto gravi provocando ingenti perdite. Gli incrementi delle quantità prodotte oltre il break even
producono invece effetti opposti. Si tratta di una analisi piuttosto semplice ma largamente utilizzata. Una impresa può
servirsene per determinare ad esempio l’effetto sui profitti di una riduzione attesa delle vendite. Anche le difficoltà
congiunturali di alcune industrie possono essere spiegate con riferimento alla loro struttura dei costi. Benché
generalmente i grafici dei ricavi e dei costi presuppongono una funzione dei costi totali lineari, è possibile modificare
questa ipotesi e introdurre una funzione dei costi totali curvilinea.

Altri concetti di costo


Il concetto di costo opportunità, nonostante sia preso in considerazione in modo esplicito molto raramente, fa parte
del modo di pensare e di agire di ogni agente razionale. Il costo opportunità di usare una qualunque risorsa per un
determinato scopo è il beneficio che si sarebbe potuto trarre dall’impiego di quella risorsa nel miglior uso possibile
alternativo. A questo proposito a volte si parla anche di costo imputato. Questi costi indicano la convenienza o meno
a proseguire una determinata attività.
Altro concetto importante in economia industriale è quello di sunk cost. Un costo irrecuperabile è un investimento in
un bene capitale che non ha usi alternativi. In altre parole, è un costo sostenuto per acquisire un fattore produttivo
che avrà costo opportunità nullo. I costi, inclusi quelli fissi, che non si devono pagare in caso di interruzione di una
attività sono definiti costi evitabili.

Il regime dei costi di produzione (lungo periodo)


Nel lungo periodo l’impresa può installare gli impianti delle dimensioni e del tipo voluto. Tutti i fattori sono variabili,
non ci sono funzioni del costo fisso di lungo periodo perché non esistono fattori fissi. Utile guardare al lungo periodo
come orizzonte di programmazione.
La decisione principale da prendere in relazione ai costi è quella relativa alla dimensione dell’impianto di produzione.
Tale scelta dipende dalla quantità che l’impresa intende produrre nel lungo periodo, supponendo che vorrà produrla
in modo da minimizzare il costo medio.
La funzione del costo medio di lungo periodo mostra il costo unitario minimo corrispondente ad ogni livello produttivo
nel caso che sia possibili costruire l’impianto delle dimensioni desiderate. Il costo unitario minimo corrispondente a
ciascun livello produttivo è dato dalla funzione del costo medio di lungo periodo; tale funzione è tangente a ciascuna
delle curve del costo medio di breve periodo nel punto in cui gli impianti ai quali esse si riferiscono sono a livelli di
produzione ottimale.
Per quanto riguarda le combinazioni tra i fattori che assicurano il minor costo, la funzione del costo medio di lungo
periodo può essere interpretata così: in corrispondenza di ogni livello produttivo, il costo totale e medio di lungo
periodo è minimo quando tutti i fattori sono combinati in modo che il prodotto marginale di ogni euro investito in
un fattore sia pari a quello di ogni euro investito negli altri. Solo nel caso che l’impresa usi la combinazione tra i
fattori che assicura il miglior costo, è possibile raggiungere la funzione del costo medio di lungo periodo.
Nella maggioranza delle produzioni industriali la funzione dei costi medi di lungo periodo ha caratteristica forma ad L
invece di quella tradizionalmente supposta ad U; ciò significa che la funzione è decrescente per un lungo intervallo
per poi rimanere costante per un tratto di lunghezza variabile fino al comparire delle diseconomie di scala. Dalla
curva si possono ricavare le differenze di efficienza e di competitività che si determinano fra imprese differenti; la
pendenza della curva esprime il vantaggio che si acquisisce in termini di costo medio unitario di produzione avendo
una dimensione più elevata. Se la pendenza è molto accentuata nella fase iniziale, le imprese più grandi saranno più
efficienti delle piccole; se invece la pendenza non fosse accentuata o non vi fosse, non ci sarebbe alcun vantaggio a
passare da una piccola quantità prodotta ad una grande quantità.
Il punto in cui la curva smette di decrescere identifica la dimensione ottima minima dell’industria presa in
considerazione. Se la produzione è realizzata su scale più piccole, il livello dei costi di produzione sarebbe più elevato,
se invece la produzione è realizzata su scale più elevate della DOM, non ci sarebbe alcun guadagno in riduzione dei
costi e la scelta avverrebbe in condizioni di indifferenza. Da una particolare funzione dei costi di lungo periodo deriva
una delle caratteristiche della struttura dell’offerta, cioè la tendenziale concentrazione del settore; inserendo la curva
di domanda nel grafico della funzione del costo medio di lungo periodo si può ricavare il numero di imprese che
possono coesistere in condizioni di efficienza sul mercato. Informazione sulla DOM consente anche di rilevare le
barriere all’entrata.
Dato il costo medio di lungo periodo relativamente ad un certo livello produttivo, per calcolare il costo totale di lungo
periodo basta moltiplicare il costo medio di lungo periodo per la quantità prodotta. Partendo dalla funzione del costo
totale di lungo periodo è facile calcolare la funzione del costo marginale di lungo periodo, che mostra quantità
prodotta ed il costo risultante dalla produzione dell’ultima unità addizionale nel caso che l’impresa abbia modo di
attuare le variazioni della quantità impiegata di tutti i fattori che le consentono di raggiungere la combinazione
ottimale.

Le economie di scala
L’analisi dei costi fino a qui condotta consente di introdurre più agevolmente il concetto di economie di scala, che
indicano vantaggi di costo che si ottengono all’aumentare della dimensione della capacità produttiva e della
produzione. Una impresa realizza economie di scala quando il costo medio unitario di produzione diminuisce
all’aumentare della produttività dei suoi impianti.
La presenza di economie di scala rilevanti in un settore influenza il suo grado di concentrazione. Esse si associano alla
presenza di rendimenti di scala crescenti, anche se possono derivare da numerosi altri fattori. Occorre chiarire che tali
economie vanno distinte sia dai rendimenti di scala crescenti sia dalle economie di saturazione degli impianti; se
infatti i rendimenti di scala si riferiscono alla relazione fra variazione degli input e variazione degli output, per le
28
economie di scala la relazione presa in esame è quella fra dimensione dell’impianto e costo medio unitario di
produzione. Inoltre, le economie di saturazione sono dovute al fatto che il costo medio unitario diminuisce
all’aumentare della quantità prodotta, in quanto i costi fissi si ripartiscono su un numero maggiore di unità di
prodotto. L’esistenza di economie di scala segna invece che una maggiore dimensione dell’impianto consente un uso
più efficiente delle risorse coinvolte nel processo produttivo. I due concetti sono comunque correlati: in presenza di
economie di scala, il sussistere di diseconomie da mancata saturazione esprime la incapacità da parte dell’impresa di
sfruttare economie di scala potenziali. I settori caratterizzati da più elevate economie di scala sono le industrie di
processo come la siderurgia, il cemento e la chimica e le industrie di elettrodomestici, autoveicoli e motori.

Le determinanti delle economie di scala


Queste possono derivare dalla presenza di rendimenti di scala crescenti, da tutti i fattori che possono determinarne la
presenza, e da fattori connessi con il grado di controllo del mercato e correlati con la scala di produzione (“economie
monetarie”).
Una delle prime determinanti delle economie di scala fu individuata da Smith (Ricchezza delle Nazioni), il quale poneva
in evidenza i vantaggi della divisione del lavoro manifatturiera, sia in senso statico che dinamico. Grandi volumi di
produzione permettono una maggiore divisione del lavoro che aumenta la produttività delle risorse umane impiegate
e delle macchine, per mezzo della specializzazione delle mansioni e dei processi. L’indivisibilità dei fattori produttivi
dà luogo al “principio dei multipli”, per il quale, se una impresa utilizza diversi macchinari indivisibili, deve scegliere
come livello di produzione minimo il minimo comune multiplo della produzione dei vari macchinari. Quando un
processo è realizzato con più fattori produttivi che non sono divisibili all’infinito, l’aumento della dimensione
determina una riduzione dei costi di produzione. A questo proposito è utile introdurre una distinzione fra:

 Economie di scala a livello di prodotto: la lavorazione di componenti in metalli può richiedere lo stesso tipo di
operazioni meccaniche ma un diverso assetto del layout degli impianti per poter produrre il prodotto nella
varietà di forme e dimensioni richieste. Se il tempo di riassetto del layout è lungo, rischia di essere superiore
a quello di produzione. Quante più unità di ciascun articolo si producono, tanto più i tempi influiscono in
misura minore sul costo totale di lavorazione del singolo prodotto. In generale l’introduzione di macchine
automatiche permette lotti di produzione più ampi. Quando si fabbricano grandi quantità di singoli prodotti,
cresce la necessità di dedicare più attenzione alla individuazione di difetti nei relativi processi produttivi. Le
economie di scala specifiche hanno anche una importante dimensione dinamica dato che nell’esecuzione di
operazioni complicate l’abilità degli operai cresce con l’esperienza, per cui imparano facendo il lavoro
materialmente.
 Economie a livello di impianto: a questo livello le economie di scala più importanti derivano dall’aumento
delle dimensioni delle singole unità di produzione; questo è particolarmente evidente nelle industri di
processo (raffinazione petrolio, industria siderurgica o chimica). Entro certi limiti, la produzione di un
impianto tende ad essere all’incirca proporzionale al suo volume, mentre la quantità di materiali e l’attività di
fabbricazione necessaria per costruire l’unità addizionale in questione saranno proporzionali alla superficie
occupata dalle camere di reazione, dei serbatoi e dei tubi di collegamento dell’unità. In questi casi viene
applicata dai tecnici la regola empirica dei due terzi, per la quale se l’area di una superficie varia con un
rapporto di 2/3 rispetto alla variazione del suo volume, anche il costo di costruzione di una unità produttiva
nelle industrie di processo aumenterà di 2/3 rispetto alla crescita della propria capacità produttiva. Tutto ciò
equivale a dire che l’elasticità dei costi rispetto al volume prodotto sarà di circa 0,6.
Un altro vantaggio del maggiore dimensionamento degli impianti è quello delle economie delle riserve di
capacità; in un impianto le cui dimensioni consentono di utilizzare solo una macchina specializzata deve
esistere una macchina di riserva per evitare interruzioni per guasti accidentali. Nel caso di un impianto più
grande, è necessaria una sola macchina in più per porre al riparo l’impresa, ad un costo che inciderà in misura
minore sui costi totali di produzione.
Economie multimpianto e a livello di impresa: economie derivanti da specializzazione e da riserve di capacità
possono valere anche nel caso della gestione di numerosi stabilimenti da parte di una singola impresa in
quanto le diverse unità produttive specializzate possono beneficiare di una maggiore scala, mentre in caso di
interruzione della produzione di uno stabilimento è possibile contare sulla disponibilità di un altro. Allo stesso
modo, in caso di impreviste fluttuazione della domanda servita da uno stabilimento, può farvi fronte
l’impianto con capacità in eccesso. In molte circostanze è più conveniente disporre di più impianti
disseminati sul territorio piuttosto che di un unico impianto centralizzato. Questo avviene quando i costi di
trasporto sono elevati rispetto al valore del prodotto trasportato.
Inoltre, la concentrazione di ingenti quantità di capacità produttiva in singole aree può provocare la difficoltà
di reperimento della forza lavoro necessaria presso la manodopera locale e quindi aumenti del osto di tale
fattore. In generale, gli impianti con linee produttive più delimitate sono più facili da gestire e permettono di
sfruttare appieno le economie specifiche di ciascun prodotto. Le economie multimpianto includono:
- vantaggi nell’approvvigionamento di materie prime: anche di fonti finanziarie, a breve e lungo termine. In
generale le grandi imprese sono ritenute meno soggette a rischi congiunturali, per la capacità che hanno di
bilanciare gli effetti negativi.
- vantaggi nella promozione delle vendite: sono soprattutto collegati alla facilità di rafforzare la fedeltà al
prodotto del consumatore o di assicurare a nuovi prodotti una larga diffusione più rapidamente.
- vantaggi nella raccolta del capitale;
- vantaggi nella dotazione di risorse e competenze di tipo organizzativo – manageriale. Si può pensare ai
vantaggi della centralizzazione di funzioni organizzative come la ricerca e lo sviluppo. In generale i costi fissi di
produzione non variano al variare del livello di output, e quindi gravano soprattutto sulle imprese più piccole,
ma soprattutto imprese più grandi possono permettersi risorse manageriali più specializzate e competenti.
Attraverso la centralizzazione degli acquisti su larga scala una impresa con molti impianti che produce un
bene omogeneo può spuntare prezzi minori per le materie prime ed altri mezzi di produzione rispetto ai
piccoli acquirenti. Questi vantaggi derivano da tre motivi principali:
1) effettivi risparmi nell’ordinazione, nella programmazione della produzione, nella amministrazione, nei
costi di spedizione;
2) possibilità di stipulare contratti più favorevoli quando si acquistano grandi quantità;
3) maggiore potere contrattuale e di ritorsione nei confronti dei fornitori in quanto grandi imprese possono
minacciare più credibilmente azioni di integrazione verticale.

Economie di ampiezza o di gamma


La maggior parte delle imprese offre una gamma di prodotti diversi tra loro collegati. Quando la produzione congiunta
di due prodotti è più conveniente rispetto alla produzione separata di ciascuno dei due si parla di economie di
ampiezza o di gamma. In termini più analitici, siamo in presenza di economie di ampiezza quando il costo di produrre
congiuntamente q1 unità del bene 1 e q2 unità del bene 2 è più basso del costo di produrle separatamente. Vale
quindi formalmente la seguente disuguaglianza: C (q1, q2) < C(q1, 0) + C(0, q2) condizione di sub-additività dei costi
di produzione.
Tali economie si accompagnano a molti casi di integrazione verticale e di diversificazione, mentre le economie di
scala rappresentano il presupposto dei processi di concentrazione. Sebbene la presenza di economie di ampiezza
renda efficiente la produzione congiunta anche quando questa non avvenga all’interno di una singola impresa, la
presenza di costi di transazione e di rischi di comportamenti opportunistici giustificano la produzione da parte di
una singola impresa.
Le economie di ampiezza sono determinate dalla condivisione di:

1. Fattori o componenti del sistema produttivo (impianti, attrezzature, linee di produzione);


2. Attività materiali della struttura commerciale (canali distributivi, reti): si prestano per la commercializzazione
di più prodotti invece che di uno solo.
3. Risorse immateriali in dotazione all’impresa (immagine, reputazione, know-how, managerialità): ricorrente
è il caso di sfruttamento dell’immagine di un marchio, creata grazie alla attività promozionale su un mercato
delle informazioni commerciali relative al mercato di un prodotto per la commercializzazione di un secondo
prodotto connesso al primo.

L’utilizzo di fattori di produzione comuni coincide anche con quei casi ad esempio, della produzione congiunta di
latte e yogurt in una industria alimentari. Questi processi realizzano prodotti congiuntamente secondo rapporti
relativamente fissi, utilizzando in maniera completa risorse materiali che rimarrebbero sottoutilizzate
altrimenti.

Diseconomie di scala
Possono elencarsi numerosi fattori che tendono a far crescere dopo un certo livello la curva dei costi supposta ad
L. Tra questi rilevano in particolare i fattori legati ai costi dei processi di coordinamento e di informazione che
aumentano con la dimensione dell’impresa. Oltre una certa scala, il costo del fattore organizzativo e
imprenditoriale può crescere più che proporzionalmente o la sua efficacia diminuire. Nelle grandi imprese i
vantaggi prima elencati della grande scala possono così essere compensati da inefficienze amministrative e
organizzative (rischi di burocratizzazione).
Con la crescita della scala dimensionale, aumenta anche il numero di mercati servii dalla stessa impresa con
diverse SBU. Il coordinamento di tali unità di business tende ad aumentare costi di trasporto e difficoltà
logistiche.
Mentre le diseconomie di scala sono legate solamente a fattori organizzativi ed operativi, le economie di scala
includono anche fattori di natura tecnologica e transattiva. Occorre poi notare che un aumento nella dimensione
di impresa può risultare contemporaneamente in economie e diseconomie di scala. Un’ampia letteratura mostra
che entrambe le forme di impresa possono avere una loro razionalità economica – efficienza ed efficacia – a
seconda dei contesti competitivi e tecnologici e dei settori di appartenenza. Molti dei vantaggi di scala sono legati
a imperfezioni dei mercati che non funzionano secondo criteri di efficienza allocativa o a fattori legati al controllo
del mercato che reagiscono alla scala di produzione.

Economie di scala interne


Possono essere contrapposti ai vantaggi della produzione su larga scala quei vantaggi derivanti dalla
“localizzazione dell’attività produttiva”, ossia della concentrazione di più imprese di piccola e media
dimensione specializzate nella produzione di un singolo bene o di più beni tra loro correlati in uno spazio
delimitato territorialmente. Le piccole imprese, pertanto, se non possono beneficiare delle economie dipendenti
dalle loro risorse interne, possono profittare delle economie dipendenti dallo sviluppo generale dell’industria,
ossia delle “economie esterne” di produzione. Marshall definisce le economie esterne come i “risparmi di costo
che dipendono dallo sviluppo di una industria e che si producono grazie alla concentrazione in piccoli spazi di
piccole e medie imprese, grazie alla localizzazione di una industria”.
I vantaggi per le piccole imprese della localizzazione dell’attività produttiva derivano dai processi che si sviluppano
a livello locale soprattutto tramite:

1. Sviluppo di industrie ausiliarie;


2. Diffusione delle conoscenze tecniche e educazione alle abilità e al gusto necessari all’attività produttiva;
3. Circolazione delle idee riguardanti i prodotti, le tecniche produttive, i mercati, ecc.;
4. Facile reperimento di manodopera specializzata e facilità con cui i lavoratori specializzati trovano
impiego.

Questi processi determinano una serie di vantaggi sul lato dell’offerta che costituiscono la nota triade marshalliana
delle economie esterne:

 Economie di specializzazione degli input produttivi


 Economie di specializzazione a livello di beni e servizi intermedi
 Trasferimenti di informazioni e competenze tecnologiche

Si aggiungono inoltre i vantaggi sul lato della domanda della localizzazione dell’attività produttiva, che fanno
riferimento soprattutto alle economie di approvvigionamento. Incorre in costi più bassi l’acquirente che si reca in
un’unica località per visionare prodotti e contrattarne il prezzo, piuttosto che nel caso occorra visitare fornitori
localizzati in punti dello spazio diversi e tra loro distanti.

Economie di apprendimento
A volte si parla di economie di scala dinamiche, per indicare le cosiddette economie di apprendimento, cioè le
riduzioni dei costi medi unitari generate dall’esperienza. L’esistenza di processi di apprendimento fu evidenziata per
la prima volta nell’industria aeronautica negli anni ’30, divenendo poi una legge generale industriale. Si osservava che
via via che veniva prodotto un maggior numero di singoli velivoli, il costo di produzione di ciascun velivolo diminuiva;
con il passare del tempo quindi la produttività degli operai, delle maestranze e delle macchine cresceva, la
progettazione ed il layout degli impianti diventava più razionale grazie all’esperienza accumulata. Tale fenomeno può
essere rappresentato da una cura in cui sull’asse orizzontale è posto il costo di produzione, mentre su quello verticale
una variabile che approssima l’esperienza accumulata, che può essere misurata con la produzione.
Così come le economie di scala, le economie di esperienza possono riguardare sia la produzione che le altre attività
dell’impresa. Le curve di esperienza hanno lo stesso effetto delle economie di scala, ma i due fenomeni vanno tenuti
rigorosamente distinti. Il termine apprendimento viene in genere utilizzato per abbracciare tutti i tipi di
miglioramento del

know how e delle procedure


organizzative che avvengono
passivamente, per il semplice
accumulo di esperienza nel
fare qualcosa. La curva di
apprendimento fornisce una
ulteriore giustificazione
della persistenza della
dominanza o anche del
rafforzamento della
dominanza di una impresa
leader di mercato: vendendo
di più, l’impresa dominante
riduce i suoi costi più
velocemente, il che la rende
ancora più competitiva, facendone aumentare le vendite. Dalla presenza di curve di apprendimento deriva una legge
generale dell’economie industriale; se nel mercato esistono situazioni di concorrenza,

i prezzi dei prodotti industriali devono diminuire nel tempo in termini reali, proprio per effetto delle curve di
apprendimento. Guadagno di produttività ottenuto grazie all’accumulo dell’esperienza viene trasferito al mercato
tramite la riduzione dei prezzi per effetto del processo di competizione tra le imprese. Per loro natura, i processi di
apprendimento possono essere inesauribili ma rimangono sistematicamente associati ad una traiettoria tecnologica;
costituiscono uno dei principali fattori che rendono poco plausibili i modelli di efficienza industria – impresa basati sul
ciclo di vita del prodotto.
L’esistenza di marcati processi di apprendimento conferisce una forte dinamicità alle dinamiche concorrenziali dei
mercati e contribuisce a spiegare perché talvolta le posizioni di dominanza siano difficilmente superabili, es. degli
aeroplani ’70.

Misurazione andamento dei costi


Analisi empirica dell’andamento dei costi, misurazione economie di scala, ampiezza o apprendimento sono rilevanti
per tutte le decisioni delle imprese che riguardino la crescita interna o le operazioni di fusione ed acquisizione, entrata
in un mercato ecc. ma hanno anche rilevanza per le autorità pubbliche.
I metodi e gli approcci di misurazione dei costi possono essere suddivisi in tre categorie:

a) Analisi del rendimento del capitale investito dalle imprese che appartengono a diverse categorie
dimensionali, tramite l’analisi dei bilanci. Si associa la dimensione dell’impresa con il ROI; in questo modo se
vi è tra queste due variabili una correlazione positiva si può sospettare la presenza di economie di scala, e
cioè di una funzione dei costi decrescente al crescere della produzione. Essendo il ROI influenzato dalla
differenza fra ricavi e costi, è possibile che diversi livelli di ROI siano determinati non da livelli diversi dei costi
di produzione, ma da diversi livelli dei ricavi. La tecnica di misurazione basata sul ROI può essere applicata
solamente a livello di impresa, perché utilizza i bilanci delle imprese. Se invece occorre misurare la
presenza di economie di scala a livello di impianto, si ricorre alla analisi del fabbisogno di investimento per
unità di produzione rispetto a diverse alternative dimensionali.
b) Approccio sviluppato da Stigler: partendo dalla osservazione per la quale, se una particolare dimensione di
stabilimento è efficiente, con il trascorrere del tempo, tutte le imprese appartenenti all’industria
tenderanno ad avvicinarsi a quella dimensione. Di conseguenza, qualsiasi dimensione di stabilimento o di
impresa che sopravvive nel tempo è efficiente. Nel caso in cui tutte le imprese operanti in una industria
sostengano costi simili, lo studio basato sulla sopravvivenza delle impese individua la singola dimensione
efficiente; se invece le imprese sostengono costi diversi o fabbricano prodotti differenti, la loro scala
ottimale varierà, e tale tipo di studio potrà individuare solo la gamma delle dimensioni efficienti delle
imprese. Tale metodologia è appropriata solo quando le variazioni nella curva dei costi dipendano solo
dall’aumento dei costi e non da altri fattori.
c) Analisi statistica o econometrica dei costi: metodo più diretto ed adatto per gli impianti. Per determinare la
pendenza della curva dei costi di lungo periodo di un impianto, si pongono in relazione costi medi di
produzione registrati per un campione abbastanza ampio di impianti con statistiche che riflettono il
prodotto di questi ultimi, considerando anche altre variabili. I modelli econometrici più utilizzati per stime
della presenza di economie di scala sono funzioni di costo o funzioni di produzione translogaritmiche. La
difficoltà di questo metodo risiede principalmente nel reperimento di dati, che quasi mai sono pubblici. Le
imprese inoltre sono molto restie a fornire informazioni sui propri costi.

Il fenomeno delle esternalità


Rappresentato dalla presenza di circostanze che influenzano il livello della produttività o dei costi di produzione
malgrado non vengano prese in considerazione dall’imprenditore nelle proprie valutazioni decisionali. Le esternalità
possono essere positive e negative, a seconda che abbiano o meno l’effetto di aumentare la produttività o ridurre i
costi.
Tipico esempio della presenza di esternalità positive è rappresentato da due proprietà contigue destinate una alla
coltivazione di alberi da frutto e l’altra all’allevamento delle api. Ciascun imprenditore considera esclusivamente i
possibili effetti diretti della propria decisione. Nei distretti industriali, la presenza di esternalità positive è alla base
dello sviluppo e della competitività di tale forma di organizzazione del lavoro tra imprese. Esempi di esternalità
negative possono essere riferiti all’inquinamento ambientale
Capitolo 7
La concentrazione dell’offerta. Misurazione.
Cause ed effetti.

Punto di partenza delle analisi empiriche dell’economia industriale è la definizione del grado di concentrazione che
caratterizza e determina la struttura di una industria. Per “industria” si intende l’aggregato di unità produttive
individuate sulla base di un comune denominatore, che può essere ad esempio: un prodotto o una gamma di prodotti
omogenei in funzione dei materiali utilizzate nel processo produttivo, o in funzione dell’uso finale. Sulla base di tale
definizione, si intende far riferimento ad un tipo di concentrazione orizzontale, distinta dai fenomeni di integrazione
verticale e di concentrazione globale.
La concentrazione misura la distribuzione delle imprese in una industria per dimensione. Una industria è
concentrata se il numero n delle imprese in essa operanti è piccolo; a parità di n il grado di concentrazione cresce
all’aumentare della variabilità delle dimensione e in particolare quando “una larga porzione di un qualche aggregato è
detenuta da parte di una piccola porzione di unità produttive e decisionali, la quale domina l’aggregato”.
La concentrazione gioca un ruolo fondamentale nell’approccio strutturalista; il paradigma SCP è stato da molti
economisti identificato nell’ipotesi che gli oligopoli più concentrati beneficino di profitti maggiori di quelli meno
concentrati. Quindi il grado di concentrazione di una industria riflette il comportamento potenziale delle imprese in
essa operanti, e in particolare, il potere da esse esercitato nel determinare un prezzo di mercato superiore al costo
marginale. Occorre però sottolineare che la concentrazione è una determinante importante della struttura di una
industria ma non è di per se stessa una misura del monopolio o del potere di mercato, essendo quest’ultimo l’effetto
di numerosi fattori strutturali e della loro interazione.

Misure statistiche della concentrazione


Un efficace indice di concentrazione deve essere: a) facile da calcolare ed interpretare; b) indipendente dalla
dimensione dell’aggregato di base; c) deve variare tra 0 ed 1.
La sua definizione pone numerosi problemi di natura empirica e statistica:

1. La scelta della variabile da porre a misura delle dimensione: le analisi empiriche propongono tali alternative:
a) vendite o quantità prodotte (output): tale scelta dà rilevanza alla domanda senza però tenere conto della
integrazione verticale; sarebbe quindi a tale fine più opportuno utilizzare il valore aggiunto.
b) numero degli occupati e capitale investito: variabili inidonee in quanto riflettono più propriamente
caratteristiche del processo produttivo non univocamente ricollegabili al grado di concentrazione.
c) immobilizzi: variabile che pone problemi di valutazione (valori correnti o storici) e comunque non idonea
a riflettere univocamente il grado di concentrazione di una industria.
2. Definizione dell’aggregato di riferimento: valutazione che richiede l’individuazione del criterio economico più
adeguato e la definizione geografica.
3. Scelta dei metodi di misura più efficaci: duplice dimensione della concentrazione – numero imprese e
distribuzione per dimensione – pone non pochi problemi nella costruzione di un indice sintetico; sotto questo
aspetto si distinguono indici di concentrazione assoluti, legati ad entrambe le dimensioni, ed indici di
concentrazione relativi (o di disuguaglianza), che misurano solamente la dispersione delle quote di mercato.

I due fattori dimensionali che caratterizzano la concentrazione sono rappresentati attraverso la curva di
concentrazione, definita dalla percentuale cumulata dell’output (asse y) e dal numero cumulato delle imprese
ordinate a partire dalla più grande (asse x). Le curve rappresentate sono tutte concave verso il basso, o al limite
sono delle rette nel caso di imprese di eguale dimensione. Ipotizzando che ciascuna delle curve disegnate
rappresenta una industria, è possibile effettuare dei confronti tra le stesse: mentre si può univocamente affermare
che l’industria A è più concentrata delle altre due, non altrettanto immediato è il confronto fra B e C. La presenza di
un punto di intersezione implica una valutazione specifica dei diversi tratti delle curve in questione. Hannah e Kay
(1977) suggeriscono alcuni criteri utili di lettura delle curve di concentrazione:

1. Criteri di classificazione: una industria è più concentrata di un’altra se la sua curva di concentrazione giace,
per ogni suo punto, al di sopra della curva dell’altra.
2. Principio del trasferimento delle vendite: il trasferimento da una piccola ad una grande impresa causa
un aumento della concentrazione, che si traduce in un rigonfiamento della curva.
3. Condizioni di entrata: entrata di una piccola impresa, ferme restando le quote delle altre imprese, porta ad
una diminuzione della concentrazione.
4. Condizioni di fusione: una fusione porta d un aumento della concentrazione, potendo essere scomposta in un
trasferimento di vendite da una piccola ad una grande impresa combinato con l’uscita di un’impresa dal
mercato.

Fare grafico pag 135

Indici di concentrazione assoluta


Categoria caratterizzata sia dal numero delle imprese che dalle rispettive quote di mercato.

Output dell’industria:
𝑛

𝑋=∑𝑥
𝑖=1

Quota relativa dell’impresa i-esima:


𝑥
𝑠𝑖=
𝑋
In termini generali, un indice di concentrazione assoluto C è definito considerando gli elementi contenuti nella
formulazione:
𝑛

𝐶 = ∑ ℎ𝑠𝑖 𝑠𝑖
𝑖=1

Dove il termine successivo alla sommatoria (h) è la ponderazione attribuita alla quote di mercato delle imprese.
-) reciproco del numero delle imprese: questo semplice indice, pari a 1/n soddisfa tutte le condizioni esposte tranne
quelle del trasferimento delle vendite. La sua scarsa utilizzazione è dovuta proprio alla non considerazione della
dimensione relativa delle imprese, 𝑠 𝑖 , a cui nell’indice è attribuito un peso pari a zero.
-) rapporto di concentrazione: misura la proporzione dell’output delle r imprese più grande, con r scelto
arbitrariamente: 𝐶𝑟 = ∑𝑟𝑖=1 𝑠𝑖

dove la ponderazione è pari ad 1. L’indice dà rilevanza, nella scelta di r, solamente ad un tratto della curva di
concentrazione dell’industria; il rispetto delle condizioni dettate da Hannah e Kay dipende dalla significatività del
tratto prescelto e dalla possibilità di evidenziare in esso le informazioni più significative della curva di
concentrazione e le trasformazioni che la caratterizzano nel tempo. L’indice C4 misura il grado di concentrazione
delle quattro maggiori imprese dell’industria considerata e di solito viene utilizzato con riferimento a fattori
fortemente monopolistici.
-) Indice di Hirschman – Herfindahl: particolarmente usato negli studi sulla concorrenza oligopolistica. La sua
peculiarità è quella di proporre una ponderazione della quota di mercato detenuta della singola impresa. L’indice
soddisfa tutte le condizioni di Hannah e Kay prendendo esso in esame tutti i punti sulla linea di concentrazione:
𝑛

𝐻𝐻 = ∑ 𝑠𝑖2
𝑖=1
Dove ℎ𝑠𝑖 = 𝑠𝑖
La scelta di tale tipo di ponderazione consente di attribuire un peso maggiore alle imprese che detengono una quota
di mercato maggiore; per converso, il valore dell’indice non risente molto della presenza di imprese di piccolissime
dimensioni. Nel caso di monopolio l’indice HH avrà il valore massimo pari ad 1, in quanto c = 0 (disuguaglianza quote
di mercato) per n = 1; nel caso di molte imprese di uguali dimensioni esso sarà pari ad 1/n, e tenderà a 0 in presenza di
un numero infinito di imprese.
-) entropia: indice che mira a rappresentare l’elemento, mutuato dalla fisica, dell’incertezza caratterizzante una data
industria. Esso è utilizzato come una misura inversa della concentrazione, in quanto ad un minor numero di imprese
presenti sul mercato e\o alla presenza di poche grandi imprese (elevata concentrazione) dovrebbe corrispondere un
minor grado di incertezza.
𝑛
1
𝐸 = ∑ 𝑠𝑖 ln( )
𝑖=1
𝑠𝑖

Dove il logaritmo naturale rappresenta il peso dato alle quote di mercato. Tanto maggiore è il coefficiente di entropia
tanto più incerto diviene il controllo della quota di mercato per la singola impresa. Nel caso del monopolio, l’entropia
è minima e l’indice è uguale a zero, dato che s = 1 e ln(1) = 0. Nel caso di molte piccole imprese di uguale dimensione
l’entropia aumenta sia all’aumentare dell’omogeneità delle quote di mercato sia all’aumentare delle imprese.

Indici di concentrazione relativa


Tali misure non tengono conto del numero, in valore assoluto, delle imprese e trovano la loro rappresentazione
sintetica nella curva di Lorenz. Essa è definita dalla percentuale cumulata dell’output dell’industria (asse y) e dalla
percentuale cumulata delle imprese disposte in ordine crescente (asse x). La linea OT rappresenta l’ipotesi in cui le
imprese dell’industria considerata abbiano tutte uguale dimensione. È importante notare che il numero delle imprese
non influisce sull’andamento della curva di Lorenz, che potrebbe essere lo stesso per un’industria con due imprese di
uguali dimensioni e per un’industria con 1000 imprese di uguale dimensione.

-)

Coefficiente di Gini: indice dato dal rapporto fra l’area tratteggiata, sottostante la retta di equidistribuzione, e l’area
OTS: maggiore è la disuguaglianza dell’industria, maggiore è l’area tratteggiata e dunque il valore del coefficiente di
Gini all’interno dell’intervallo [ 0 , 1 ]. Valori bassi del coefficiente indicano una distribuzione abbastanza omogenea,
con il valore 0 che corrisponde alla pura equidistribuzione, ad esempio la situazione in cui tutti percepiscono
esattamente lo stesso reddito; valori alti del coefficiente indicano una distribuzione più diseguale, con il valore 1 che
corrisponde alla massima concentrazione, ovvero la situazione dove una persona percepisca tutto il reddito del paese
mentre tutti gli altri hanno un reddito nullo.

-) Coefficiente di variazione: misura della disuguaglianza di una industria è stata introdotta nella formulazione
dell’indice HH. Il coefficiente c è dato dal rapporto fra la deviazione standard della dimensione di ciascuna impresa e la
dimensione media:
𝑐= 𝜎
𝑥̅
L’indice rileva la dispersione delle dimensioni relative delle imprese dal valore medio delle stesse.

-) Varianza dei logaritmi della dimensione d’impresa: indice particolarmente utile quando l’analisi verte sulla crescita
relativa delle imprese. La sua formulazione si basa sulla rappresentazione logaritmica delle quote relative dell’impresa
e sul concetto di media geometrica:
𝑛
1 𝑥𝑖
𝑣2 = ∑ log ( ) 𝑎𝑙𝑙𝑎 𝑠𝑒𝑐𝑜𝑛𝑑𝑎
𝑛 𝑥̅̅𝑔̅
𝑖=1

Dove il denominatore della seconda frazione indica la media geometrica delle dimensioni delle imprese operanti
nell’industria esaminata. L’uso di questo indice porta a classificazioni non ambigue della disuguaglianza nelle
dimensioni d’impresa quando si può affermare che la distribuzione dei logaritmi della prescelta variabile sia di tipo
lognormale. In una distribuzione lognormale i logaritmi della dimensione delle imprese si collocano in modo uniforme
e simmetrico intorno al valore del logaritmo della media geometrica della dimensione stessa. Nella realtà è più
frequente che la distribuzione assuma forma asimmetrica. Ciò spiega l’utilizzo di tale indice in lavori teorici di
economia industriale.

Fare grafico p 144

Gli indici di concentrazione relativa, nel non considerare il numero delle imprese cui rapportare la distribuzione delle
quote, possono dare ambigue indicazioni sui particolari fenomeni che interessano l’evoluzione di un mercato. Si
pensi ad una fusione: essa può far diminuire il numero delle imprese dell’industria, ma può dar luogo ad una impresa
di dimensioni analoghe a quelle già presenti sul mercato e quindi portare ad una diminuzione del valore dell’indice di
concentrazione relativa. Se però si considera come dato il numero delle imprese presenti, l’andamento degli indici in
questione può dare utili informazioni sulla struttura competitiva dell’industria considerata.

I processi deterministici
La letteratura relativa al fenomeno della concentrazione ha avuto come primo obiettivo quello di individuarne le
origini. Se l’approccio deterministico sottolinea il carattere originario del fenomeno per cui in un dato momento e in
un dato mercato le condizioni di costo e di domanda saranno tali da spingere le imprese a muoversi con azioni
deliberate verso un livello di concentrazione d’equilibrio, l’approccio stocastico si basa su una interpretazione
“casuale” dei fenomeni di crescita delle singole imprese presenti in un dato mercato, e questi fenomeni sono il
risultato di eventi incerti che, correlati al comportamento delle singole imprese, determinano la performance delle
stesse e l’evoluzione della struttura dell’industria.
Il livello di concentrazione d’equilibrio, verso il quale tendono le imprese, varia al variare delle condizioni
tecnologiche o di costo e delle condizioni di domanda. Il fattore che occupa un ruolo centrale nel determinare livelli
crescenti di concentrazione è quello delle economie di scala.

Fare grafico p 146

Nel grafico è ipotizzata una situazione di partenza caratterizzata dalla curva di costi medi di lungo periodo (LAC) e
dalla retta di domanda (D): nel lungo periodo, l’equilibrio di concorrenza sarà per ciascuna impresa definito dalla
DOM e dal prezzo (x1 e p1). In tali ipotesi avendo ogni impresa la dimensione ottimale x1, il livello di concentrazione
sarà determinato dal numero delle imprese in esso presenti e dal rapporto x1/D1.
Ipotizzando un cambiamento tecnologico che provochi un abbassamento della curva dei costi fino a LAC2, l’effetto
di questo farebbe aumentare la DOM, diminuire il prezzo di equilibrio concorrenziale e aumentare la quantità
domandata fino a D2. L’effetto del livello della concentrazione dipenderà dalle mutate condizioni di dimensione
ottima minima e di domanda; è facilmente intuibile infatti che se la crescita nella dimensione del mercato (aumento
della quantità domandata) è minore dell’aumento del livello della scala di produzione ottimale, la concentrazione
dell’industria aumenterà. I limiti che la teoria presenta derivano da due semplificazioni:

1. Una relativa all’andamento della curva dei costi, per i quali viene ipotizzata una forma ad U; mentre in curve
di costo ad L le economie di scala interessano un tratto rilevante della funzione di costo dopo il punto di
DOM. E’ evidente che in queste condizioni, le economie di scala determinano, in un equilibrio
concorrenziale, solamente il livello minimo di concentrazione dell’industria.
2. Una relativa all’ipotesi del raggiungimento di un equilibrio di concorrenza individuato da p = mc; se il prezzo
del mercato è p, è evidente che anche imprese con scala inferiore a quella ottimale potrebbero operare nel
mercato, e che il livelo minimo di concentrazione del mercato in questo caso è dato da x2/D2.

I processi stocastici:
Gli eventi casuali che producono effetti sulla dimensione dell’impresa possono essere rappresentati dalla distribuzione
normale di Gauss – Laplace; essendo la probabilità di detti cambiamenti uguale per ciascuna impresa e soprattutto
indipendente dalla sua dimensione iniziale, le imprese piccole dovrebbero gradualmente raggiungere le dimensioni di
quelle più grandi, cosicché il gruppo tenderebbe a divenire più omogeneo. Nella realtà, come detto, si osserva una
distribuzione dimensionale asimmetrica. La spiegazione di ciò è nella particolare ipotesi di crescita nota come legge
dell’effetto proporzionato. Sulla base di questo modello, formulato da Gibrat, tutte le imprese a prescindere dalla
loro dimensione hanno la stessa probabilità di una data crescita percentuale: eventi casuali dunque influenzeranno la
dimensione della singola impresa con la stessa probabilità ma con diversi tassi di crescita reali. Non esiste un
vantaggio delle imprese più grandi in tale processo di crescita, essendo l’aumento dimensionale legato ad una serie di
eventi che influenzano tutte le imprese dell’industria considerata con la stessa probabilità. La presenza di economie di
scala che dovrebbe favorire la crescita dell’imprese più grandi offre un impulso aggiuntivo ma non determinante
all’aumento della concentrazione.

Potere di mercato, concentrazione ed elasticità della domanda


Il teorema fondamentale del paradigma SCP può trovare conferma sotto il profilo delle relazioni teoriche. Assumendo
che le performance di un settore siano misurate dal suo tasso di profitto 𝜋 si può dimostrare analiticamente che
questo dipende da tre fattori:

1. Elasticità della domanda


2. Concentrazione dell’offerta
3. Condotte collusive

Si definisce potere di mercato il rapporto che c’è fra il margine di profitto (p – MC) ed il prezzo. Tale rapporto viene
convenzionalmente indicato dall’indice di Lerner L = p – MC / p.
Per l’insieme delle imprese che costituiscono l’offerta, assumendo che le funzioni di costo non siano omogenee,
l’indice di Lerner diventa:
𝑛
𝑝 − 𝑀𝐶𝑖
𝐿=∑𝑠 𝑖
𝑖=1
𝑝

Dove s con i costituisce la quota di mercato dell’i-esima impresa. L’indice può essere quindi definito come la media
ponderata dei margini di profitto delle imprese in un settore. È ovvio che se la funzione dei costi è uguale per tutte le
imprese, l’indice L può essere espresso nella formula base sopra indicata. La caratteristica rilevante di tale indice è che
per una industria nel suo complesso esso è uguale all’inverso dell’elasticità della domanda:
𝑝 − 𝑀𝐶 1
𝐿= =
𝑝 𝜖

Considerando le singole imprese, la funzione di domanda (p = f(Q)) di ciascuna di esse diventa p= f (q1 + q2 + … + qn)
dove la sommatoria di qi per da i ad n è uguale a Q; il profitto per ciascuna impresa quindi sarà dato da 𝜋 = 𝑝𝑞𝑖 −
𝑐𝑖𝑞𝑖 .
In questo caso, le variazioni del margine di profitto per ciascuna impresa sono date non solamente dalla differenza fra
prezzo e costo di produzione, ma anche dalla variazione della quota di mercato, cioè dalla reazione che le altre
imprese potrebbero mettere in atto in conseguenza della decisione assunta dalla impresa i-esima. Sotto questo profilo
fondamentale si possono immaginare due situazioni tipiche:

a) Le imprese non tengono in considerazione le reazioni delle imprese rivali, il che può essere verosimile in tre
circostanze:
- mercato si trova in posizione di equilibrio di Nash, dove nessuno ha interesse a modificare le proprie
posizioni;
- specifica impresa considera date le decisioni dei competitors, come nella tipica formulazione dell’equilibrio
di Cournot;
- le imprese sono legate da un cartello, e non vi è quindi incertezza circa il comportamento delle concorrenti.
In questa ipotesi l’indicatore del potere di mercato L diviene uguale al rapporto fra indice HH e elasticità della
domanda. Ciò significa che l’indice HH di un settore diviso per il valore assoluto dell’elasticità della domanda
esprime il valore tendenziale della media ponderata dei margini di profitto delle imprese.
b) Le imprese sono consapevoli della possibilità che le loro azioni possono provocare una variazione della
condotta delle altre imprese, e debbono perciò formulare congetture circa la natura delle reazioni delle altre
imprese. In questo secondo caso l’indicatore del potere di mercato diviene:
𝐿 = 𝑝 − 𝑀𝐶 = 1 + 𝜆
𝑝 𝑛𝜖
Dove n rappresenta il numero delle imprese presenti sul mercato, e lambda è rappresentata dalla congettura
che l’impresa i-esima formula sulla reazione che la sua variazione di quantità provocherà sulla quantità
offerta dalle altre imprese.

In entrambi i casi, oltre alla condizione di base rappresentata dalla elasticità della domanda, la variabili strutturale
concentrazione risulta avere un peso rilevante nella determinazione della performance tendenziale di una industria,
sia che essa si esprima sotto forma di indice HH sia che si esprima più semplicemente sotto la forma della numerosità
delle imprese che costituiscono l’offerta. Le numerosissime ricerche empiriche svolte a partire da Bain e Stigler
mostrano in effetti una significativa correlazione fra la concentrazione ed i margini di profitto. Stigler sosteneva che
“in generale i dati suggeriscono che non sussiste correlazione fra profittabilità e concentrazione se il valore di HH è
inferiore a 0,250 o la quota di mercato delle prime quattro imprese (C4) è al di sotto dell’80%”.
Capitolo 8

Le barriere all’entrata

Si segue l’impostazione di Bain, che lega le barriere all’entrata alla capacità di alzare il prezzo ad un livello superiore
al costo medio da parte degli incumbents, le imprese già presenti nel settore. Ciò consente di interpretare le barriere
all’entrata come uno dei principali elementi della struttura del mercato all’interno del paradigma SCP. Se la
concentrazione riflette il numero dei rivali effettivi esistenti nel mercato, le condizioni che determinano l’entrata
indicano i potenziali concorrenti.
Aiuta ad avere altre prospettive di studio la distinzione tra:

 Barriere all’entrata come vincoli costituiti da fattori di natura istituzionale: derivano sia da vincoli di natura
regolamentativa (che legano lo svolgimento di una data attività produttiva all’ottenimento di autorizzazioni,
licenze, permessi) sia da vincoli d natura istituzionale (legati all’insieme di norme che regolano i sistemi fiscali,
finanziari, assicurativi, tariffari e di appalto e per lavori pubblici). Si tratta di vincoli tanto meno rilevanti
tanto più il mercato si apre al libero scambio di beni, servizi e persone. Nonostante tale intento dell’UE,
persistono, per alcuni settori, barriere all’ingresso di imprese non nazionali o forme camuffate di aiuto alle
imprese nazionali sempre meno compatibili con la normativa europea in materia di aiuti e concorrenza.
 Barriere più propriamente economiche, derivanti da fattori della struttura o della condotta dei mercati, che
esistono anche in assenza di restrizioni regolamentative.

Ulteriori definizioni:

a) Secondo alcuni autori, come Demsetz, le barriere all’entrata si limitano a questi vincoli istituzionali e
coincidono con le sole restrizioni delle autorità di governo o di regolazione (es. tariffa o dazio doganale).
L’autore fa anche l’esempio del settore dei taxi. Secondo Demsetz tuttavia anche se le autorizzazioni non
fossero contingentate costituirebbero sempre una barriera all’entrata, in quanto provocano un aumento dei
costi operativi andando a restringere artificialmente l’entrata. Nella visione di Demsetz l’operare
concorrenziale porterebbe alla eliminazione dei profitti monopolistici nel lungo periodo non comportando la
creazione di barriere all’entrata. Visione che identifica le barriere con le restrizione governative della libertà
d’entrata.
b) Una seconda definizione, suggerita da Stigler, concentra l’attenzione sulle asimmetrie nelle condizioni di
costo e di domanda fra imprese già attive e potenziali nuovi concorrenti. Stigler, nello specifico, definisce
una barriera all’entrata come “costo di produzione che deve essere sostenuto da una impresa che cerca di
entrare in una industria, e che non deve essere sostenuto dalle imprese già attive nell’industria”. Visione che
tende ad enfatizzare la presenza di condizioni di mercato asimmetriche.
Secondo queste definizioni, ogni vantaggio delle imprese già attive sulle potenziali viene usato come una
barriera all’entrata e come fonte di profitti di lungo periodo. Stigler affermò però che non esistono barriere
all’entrata quando le imprese già attive ed i potenziali concorrenti hanno le stesse condizioni di costo e di
domanda.
c) Una terza definizione, quella più spesso usata, è attribuibile a Bain, per il quale le barriere all’entrata
misurano di “quanto, nel lungo periodo, le imprese già sul mercato possono aumentare i loro prezzi di
vendita al di sopra dei costi medi minimi di produzione e distribuzione senza indurre l’entrata di imprese
potenziali concorrenti”. Il prezzo massimo che impedisce l’entrata è il prezzo più alto che le imprese attive
possono stabilire senza attirare l’entrata (prezzo di esclusione). Uno dei postulati della concorrenza perfetta
e di quella monopolistica è costituito dalla libertà di entrata ed uscita delle imprese dal mercato. La realtà, al
contrario, ci insegna che le imprese affermate possono disporre di vantaggi competitivi di vario genere
rispetto ai potenziali competitori, cosicché la decisione di entrare in un determinato mercato comporta
l’assunzione di un rischio, che può essere rappresentato dalla possibilità di sostenere perdite e dall’entità di
queste.
Per Bain quindi, l’effetto potenziale delle barriere all’entrata – persistenza dei prezzi al di sopra dei costi
unitari minimi di lungo periodo – definisce la loro natura. La definizione di Bain è più ampia di quella di
Stigler, dal momento che tiene conto del ruolo delle economie di scala come causa di barriere, potendo
queste condurre a prezzi maggiori dei costi unitari minimi. La definizione di Bain è anche diversa da quella di
Demsetz, dato che questo avrebbe classificato come barriere anche le concessioni per taxi, anche se queste
fossero state liberalmente disponibili, a prezzi concorrenziali; Bain non accetterebbe questa definizione,
poiché nessuno in questa situazione realizza sovrapprofitti.
La definizione di Bain è la più complessa fra le tre, aprendo la strada a sviluppi che prendono in
considerazione i comportamenti delle imprese e la loro interdipendenza con la struttura del mercato.
Sulla base di prezzo massimo che impedisce l’entrata, Bain definì la condizione di entrata come il mark – up
o il margine percentuale realizzabile al di sopra del costo medio minimo delle imprese incumbents. La
condizione d’entrata misura l’altezza delle barriere in un particolare mercato; secondo questa definizione, si
tratta di un concetto di lungo periodo.

Determinanti delle barriere all’entrata


Bain fornisce la definizione di barriere all’entrata nell’ambito di uno studio che individua tre classi di determinanti che
possono influenzare la condizione d’entrata in un mercato; tali determinanti sono riferite a condizioni oggettive di
mercato e configurano barriere di tipo assoluto, indipendenti dalle aspettative delle imprese entranti e delle reazioni
degli incumbents:

1. Economie di scala: rappresentano una determinante rilevante della condizione di entrata quando la DOM di
produzione è elevata rispetto alla dimensione del mercato. In questo caso un potenziale entrante potrebbe
aggiungere all’offerta già esistente un notevole volume di produzione e generare quindi una significativa
diminuzione nel livello generale dei prezzi e quindi dei profitti conseguibili. I potenziali entranti possono
anche essere indotti a fare ingresso sul mercato con una scala produttiva ridota rispetto a quella ottimale,
per non aumentare eccessivamente l’offerta. Comportando però l’entrata con una scala sub-ottimale costi
più elevati per la nuova impresa, i prezzi di lungo periodo applicati dagli incumbents possono essere più
elevati rispetto al costo medio minimo, senza indurre nuovi ingressi: in questo senso le economie di scala
costituiscono un deterrente all’entrata.
Il grafico mostra la curva dei costi medi unitari di lungo periodo di un’impresa, nuova o già attiva, con la
consueta forma ad L in cui i costi inizialmente diminuiscono per poi rimanere costanti per un intervallo molto
ampio di valori di produzione. Data tale configurazione, è possibile operare in maniera efficiente solamente
producendo almeno la quantità OB. Se il mercato totale è di ampiezza pari ad OM, potranno operare sul
mercato un numero massimo di tre imprese, che produrranno ciascuna la quantità OB che assicura il
conseguimento della DOM.
Anche se l’impresa entrante potesse entrare alla DOM, deve strappare alle imprese già attive una grossa fetta
del loro mercato, eliminarne cioè una. Per ottenere ciò, in un primo momento dovrebbe sopportare gravi
perdite. Se però confida che il mercato si espanderà, potrà strategicamente sopportare perdite iniziali da
recuperare una volta che il mercato si sarà ampliato (barriere dinamiche).
Il caso illustrato evidenzia due fattori ulteriori che influenzano l’entrata e precisamente
- inclinazione della curva dei costi di produzione;
- tasso di espansione della domanda.
Se la curva è molto inclinata e la domanda è stagnante, l’entrata con impianti sottodimensionati sarà
ostacolata in quanto il divario in termini di costo tra impresa dominante e rivale potenziale sarà notevole.
Viceversa, quando la curva è poco inclinata con domanda crescente, l’entrata con impianti sottodimensionati
può non essere penalizzante come nel caso precedente, poiché le maggiorazioni di costo non sono rilevanti.

2. Vantaggi assoluti in termini di costo: barriera legata alla presenza, per il potenziale entrante, di costi di
produzione unitari superiori a quelli delle impese gi
à attive sul mercato, qualunque sia la scala produttiva adottata. Ciò significa che i rivali potenziali hanno una
curva dei costi medi di lungo periodo che giace sempre e comunque al di sopra di quella che caratterizza le
altre imprese. Rispetto al caso precedente, qui la nuova impresa sopporta uno svantaggio in termini di costo
di produzione a qualsiasi livello di produzione essa scelga di produrre. I vantaggi assoluti di costo di cui
godono le imprese incombenti derivano da una molteplicità di fattori. Per prima cosa, l’impresa dominante
può disporre di tecniche produttive superiori, può avere accesso ai fattori produttivi a prezzi e\o condizioni
più favorevoli oppure può disporre di risorse naturali meno costose o qualitativamente superiori, esempio
perfetto quello relativo alle industrie minerarie. Infine, le imprese incombenti potranno disporre di maggiori
disponibilità liquide; a causa delle imperfezioni del mercato di capitali, i settori che richiedono un forte
apporto di capitali iniziali sono protetti contro i potenziali entranti. Questa osservazione è coerente con la
formulazione di Stigler, in quanto evidenzia imperfezioni nel mercato dei fattori che generano barriere
all’entrata. Qualunque ne sia la causa, tali costi maggiori a carico dei potenziali rivali sussistono nonostante
essi operino ad una scala produttiva ottimale.
3. Differenziazione del prodotto: si manifesta in una preferenza, momentanea o definitiva, dimostrata dai
consumatori nei confronti dei prodotti già esistenti sul mercato rispetto a quelli potenziali nuove imprese.
Impresa avviata può godere di reputazione positiva presso la clientela, in genere associata ad un marchio, che
le consente di applicare prezzi superiori ai costi unitari di produzione, senza attrarre nuovi entranti. La nuova
impresa quindi per riuscire a collocare la propria produzione è costretta ad applicare prezzi decisamente
inferiori a quelli dei produttori già esistenti, vedendo così ridurre i propri ricavi, oppure sostenere elevati
costi di produzione, vendita e distribuzione aumentando i propri costi per unità di prodotto. La lunghezza del
periodo di promozione e avviamento ed i costi ad esso relativi costituiscono una barriera in quanto, più è
ampio tale arco temporale più l’entrata sarà scoraggiata.

Barriere all’entrata aggregate


Le industrie studiate da Bain – 20 settori industriali negli USA – furono classificate in tre categorie, secondo la
condizione aggregata di entrata:

1. “molto alta”: per cui le imprese già attive potevano aumentare il prezzo del 10% rispetto ai costi medi minimi,
senza attirare l’entrata
2. “sostanziale”: corrisponde alla possibilità di aumenti del 5 – 9%
3. “moderata”: relativa ad un mark – up potenziale sui costi medi minimi compreso tra l’1 ed il 4%.

Le determinanti delle barriere all’entrata rivestivano maggiore o minore importanza a seconda del settore analizzato.

Barriere tecnologiche
Aspetto dei vantaggi riconducibili ad una superiorità tecnologica protetta da brevetti o altri diritti su opere
dell’ingegno e di know-how legato alla ricerca e sviluppo già avviata. I brevetti forniscono all’inventore diritti
esclusivi su prodotto, processo, sostanza o design nuovo ed utile. La protezione legale accordata invece ai lavori
artistici è quella dei diritti d’autore.
La finalità di brevetti e diritti d’autore è quella di fornire un incentivo alla innovazione, assicurando una protezione
che consenta di remunerare le risorse impiegate per lo sviluppo della stessa innovazione, come i costi di ricerca e
sviluppo. La protezione legale conferisce un potere di monopolio all’inventore; un innovatore, ex post, diventa un
monopolista. Tale situazione comporta un costo sociale in termini di efficienza, misurata all’inefficienza allocativa
associata ai prezzi di monopolio. Si configura quindi un trade-off tra inefficienza ed incentivo all’innovazione. Questo
può essere in parte risolto combinando in maniera ottimale gli elementi della protezione come l’ampiezza e la durata.
Quanto più lunga è la durata di un brevetto o di un diritto d’autore, tanto più velocemente la collettività si appropria
del valore di quell’innovazione e viceversa.

Barriere all’uscita. Prezzo di eliminazione


Si tratta di fattori economici, strategici ed emotivi che trattengono l’impresa nel mercato anche se la redditività è
bassa o negativa. Se ad esempio una impresa impiega in un dato settore un’attrezzatura altamente specialistica,
quindi difficilmente rivendibile o trasferibile, si tratterà di un sunk cost, un costo difficile da recuperare che rende
l’uscita dall’industria poco probabile. Un analogo effetto di deterrenza dall’uscita hanno altri fattori, come ad esempio
l’esistenza di contratti di lavoro di lungo termine, obblighi statutari per la stipula di contratti di fornitura di b\s già in
essere, interdipendenze con altre attività della stessa impresa, ostacoli politici o fattori affettivi e personali.
L’esistenza di fattori economici che rendono costosa l’uscita costituisce oggetto di considerazione in fase di entrata.
Praticamente quindi uno degli aspetti che influenza l’entrata di una impresa in un’industria è la capacità dell’impresa
di uscirne; se quindi è costoso uscire da un settore industriale, gli incentivi ad entrarvi sono ridotti. I costi di uscita
servono a impedire l’entrata proprio come quelli sostenuti per entrare in una industria.
Le barriere all’uscita rivestono un ruolo fondamentale nella teoria dei mercati contendibili di Baumol, Panzar e Willig.
In questi mercati non esistono barriere all’entrata e all’uscita. I nuovi concorrenti entrano e lasciano senza dover
sostenere costi netti; nessun concorrente è scoraggiato all’entrata dal fatto che, in caso di uscita dal mercato,
perderebbe il denaro investito. Ogni investimento è recuperabile all’uscita, al netto dei deprezzamenti.
Avendo già definito il concetto di prezzo di esclusione come quel prezzo che impedisce l’entrata di nuovi concorrenti e
che definisce l’elevatezza delle barriere all’entrata, è possibile ora dare una definizione di “prezzo di eliminazione”,
ossia quel prezzo in corrispondenza del quale uno o più concorrenti presenti in una industria sono indotti a
sospendere la produzione e ad uscire dal mercato. La decisione di uscire dal mercato verrà presa qualora i prezzi
correnti non consentano di coprire il costo variabile, e quindi la posizione più vantaggiosa per l’impresa che si trova in
tali circostanze è quella di interrompere la produzione. A volte può essere preferibile una decisione di vendita
dell’azienda, perché il valore realizzabile da una cessione potrebbe essere maggiore di quello che si potrebbe ottenere
recuperando parte dei costi fissi con una decisione di prezzo, elevandolo ad un livello maggiore dei costi variabili.
A scoraggiare l’entrata o a favorire l’uscita possono però anche essere le strategie adottate dagli incumbents, e non
solamente le barriere strutturali. A questo fine si individuano le strategie di deterrenza all’entrata, le quali fanno
perno sul prezzo o su altre variabili. Tra le strategie non di prezzo si ricordano: espansione della capacità produttiva,
proliferazione dei prodotti e contratti di lungo periodo. Esistono poi strategie che un monopolista può mettere in atto
per costringere alla ritirata le imprese che sono appena entrate nel mercato, in particolare la strategia dei prezzi
predatori. Un’impresa adotta una politica predatoria dei prezzi quando, in una prima fase, riduce il proprio prezzo ad
un livello molto basso per spingere i concorrenti ad uscire dall’attività e per scoraggiare l’ingresso da parte di
potenziali imprese; in una seconda fase, quando i rivali sono usciti dal mercato, aumenta il prezzo. In altre parole,
l’impresa incorre in perdite di breve periodo per ottenere profitti di lungo periodo.
Quando gli incumbents pongono in essere strategie di deterrenza all’entrata si dice che l’entrata è impedita; se gli
incumbents pongono in essere strategie che rendono l’entrata poco profittevole (es. strategia del prezzo limite),
l’entrata è bloccata. Quando gli incumbents invece non fanno nulla per ostacolare l’ingresso di nuovi entranti e ciò è
profittevole, l’entrata è accomodata.
Con riferimento alla misura di costo, Areeda e Turner (1975) sostengono che da un punto di vista teorico la migliore
misura è quella del costo marginale. Tuttavia suggeriscono di utilizzare nella pratica il costo medio variabile, definito
come la somma di tutti i costi variabili, divisa per l’output, data anche la difficoltà di misurare il costo marginale di
un’impresa. Quindi un prezzo di eliminazione, secondo Areeda e Turner, è quello ragionevolmente inferiore al costo
variabile dei potenziali entranti.

Il modello BSM. Prezzo limite ed effetti della concorrenza potenziale


Fino a questo momento le barriere all’entrata sono state analizzate in un contesto statico, senza considerare le
aspettative delle imprese entranti e le reazioni delle imprese incumbents.
Un primo gruppo di modelli, proposti da autori come Bain, Modigliani e Sylos Labini, analizza il comportamento di
entrata in un mercato oligopolistico assumendo l’ipotesi che le imprese concorrenti effettuino la loro decisione
d’entrata supponendo che gli incumbents reagiscono all’entrata non variando i livelli di produzione, in maniera non
dissimile dall’ipotesi del modello di Cournot. Con l’ipotesi appena descritta (postulato di Sylos Labini), i potenziali
concorrenti possono calcolare la riduzione di prezzo del bene dell’industria dovuta alla loro entrata e quindi la
convenienza dell’entrata stessa. Inoltre, le imprese già attive possono calcolare quale prezzo scegliere in modo da
scoraggiare l’entrata, date le aspettative dei potenziali concorrenti.
Portando avanti un’analisi del modello BSM in una prospettiva di statica comparata, possiamo sostenere che tale
modello è costruito sulle seguenti assunzioni:

 Si prendono in considerazione solamente due periodi, quello che precede l’entrata (t=0) e quello successivo
all’entrata del nuovo competitor (t=1).
 L’offerta del tempo t=0 è costituita da una sola impresa o da un cartello di imprese (incumbents).
 Non vi è differenziazione fra il prodotto delle imprese già stabilite e quello del nuovo entrante.
 La domanda del mercato è costante nel tempo.
 Il potenziale entrante si comporta secondo l’ipotesi di Cournot, ossia ritiene che la quantità prodotta dalle
imprese incombenti resterà invariata anche dopo l’eventuale entrata del nuovo concorrente.

Con queste assunzioni il prezzo limite è dato dalla differenza fra i costi di produzione medi\marginali delle imprese
incombenti e di quelli delle imprese entranti, ed inoltre dal sovrapprezzo che può essere praticato senza provocare
l’entrata dei nuovi concorrenti. Nell’ipotesi del modello BSM (invarianza della produzione delle imprese incombenti), il
prezzo limite è una funzione diretta della scala minima di entrata dei nuovi concorrenti ed inversa dell’elasticità della
domanda, nel senso che tanto più piccoli sono i valori dell’elasticità della domanda tanto maggiore risulta la differenza
fra il prezzo praticato dalle imprese incombenti e quello che risulterebbe in condizioni di concorrenza. Mentre la
concorrenza potenziale impedisce all’impresa incombente di formulare un prezzo di monopolio, il prezzo che
impedisce l’entrata corrisponde al costo medio marginale per i concorrenti potenziali. Più in generale si può osservare
che l’effetto di una concorrenza potenziale è dato dalla differenza fra prezzo limite praticato dalle incumbents e
prezzo monopolistico che queste fisserebbero in assenza di concorrenti potenziali. Se l’entrata potesse avvenire
solamente oltre una soglia minima, ad esempio per la presenza di economie di scala, l’effetto dell’entrata sul prezzo
ex post per i nuovi entranti sarebbe ancora maggiore, e quindi più elevato risulterebbe il prezzo limite praticabile dalle
imprese incombenti.

Le barriere all’entrata in un contesto di concorrenza dinamica


Abbandonando la formula della statica comparata e considerando il BSM in un contesto dinamico, l’ipotesi della
invarianza della domanda dovrebbe essere rimossa, ma occorrerebbe soprattutto introdurre il concetto di tempo di
reazione (R), che misura l’intervallo minimo che intercorre fra il tempo Tq e Tr.
La casistica empirica mostra che il caso in cui i prezzi più alti del livello concorrenziale provocano l’immediata
attivazione della concorrenza potenziale sono piuttosto infrequenti, dato che la produzione da parte dei nuovi
entranti presuppone l’esistenza di una capacità produttiva disponibile e non utilizzata. Nella generalità dei casi
l’entrata presuppone invece l’allestimento di una nuova capacità produttiva, un processo che difficilmente può essere
istantaneo, ma può richiedere un tempo più o meno lungo, definito appunto tempo di reazione, corrispondente al
tempo tecnico necessario per allestire una capacità produttiva incrementale da parte dei nuovi concorrenti.
Definendo g come tasso medio annuale della crescita attesa della domanda del mercato, è possibile formulare
l’equazione:

Ponendosi nella prospettiva della impresa incombente, le alternative del comportamento possono essere
rappresentate dalle seguenti tipologie, ricavabili da una matrice che mette in relazione investimenti\prezzi :

 Mantenere i profitti al più alto livello possibile non curandosi dell’entrata (the fat cat);
 Contenere i profitti ad un livello più basso del prezzo limite per ritardare il più possibile l’entrata (lean and
angry);
 Investire in capacità produttiva o nella differenziazione del prodotto per ritardare il più possibile la
condizione di entrata (top dog);
 Contenere gli investimenti per massimizzare il cash-flow e quindi presentarsi alternativamente come
potenzialmente aggressivo o accomodante nei confronti dei nuovi concorrenti.

Le quattro combinazioni possibili delle condotte definiscono altrettante tipiche strategie della gestione del vantaggio
competitivo:

a) Strategia puppy dog: appare accomodante verso la concorrenza potenziale, mantenendo prezzi alti e
investimenti bassi, che fanno presupporre una disponibilità dell’impresa incombente ad accogliere altre
imprese nel proprio mercato.
b) Strategia thrift (lean and hungry): ostile agli entranti per la deterrenza determinata dai prezzi più bassi.
c) Strategia fat cat: sfrutta in pieno il vantaggio competitivo, cercando di ritardare l’entrata con elevati
investimenti di capacità e di differenziazione.
d) Strategia top dog: è la più deterrente verso i potenziali concorrenti, scoraggiandone l’entrata sia con prezzi
relativamente inferiori, sia con il volume elevato degli investimenti.

Fare grafico politica ottimale del prezzo p. 173


Capitolo 9

La differenziazione. Effetti spesa pubblicitaria


La qualità e le innovazioni di prodotto
La “non price competition”

La differenziazione del prodotto è un elemento che attiene tanto alle condizioni strutturali del mercato quanto agli
elementi che caratterizzano la condotta degli operatori in esso presenti.
Il concetto di differenziazione implica che i prodotti in concorrenza nel mercato abbiano caratteristiche differenti o
siano considerati tali dagli acquirenti. I venditori percepiscono:

 Condizione strutturale: la non perfetta sostituibilità dei propri prodotti rispetto a quelli dei concorrenti.
 Condizione di condotta: l’opportunità di indurre e utilizzare elementi di differenziazione nella domanda dei
propri prodotti. Ciò incide in modo sostanziale sulle strategie delle imprese.

Nel caso in cui i prodotti siano percepiti come non perfetti sostituti da parte degli acquirenti, ciascuna impresa definirà
una propria curva di domanda residuale. Nel caso in cui invece i prodotti siano perfettamente omogenei, tutte le
imprese concorrenti devono applicare lo stesso prezzo se vogliono continuare a vendere il proprio prodotto.
Il prezzo del bene dunque è determinato sulla classica curva di domanda inclinata negativamente dalle quantità totali
offerte sul mercato. In tali ipotesi, le imprese possono essere considerate price taker:

𝑝𝑡 = 𝑝 = 𝑎 − 𝑏(𝑄) = 𝑎 − 𝑏(𝑞1 + 𝑞2)

Se l’acquirente considera il prodotto dell’impresa 1 non perfettamente sostituibile con quello dell’impresa 2, la curva
di domanda del prodotto dell’impresa 1 non può essere rappresentata nella formulazione sopra mostrata ma sarà :

𝑝𝑡 = 𝑎 − 𝑏1𝑞1 − 𝑏2𝑞2

In questa equazione la curva di domanda di ciascuna impresa dipende non dalle quantità totali del mercato ma dalle
quantità offerte dall’altra impresa e dal grado di differenziazione di ciascun prodotto espresso nel coefficiente b.
Tanto più il prodotto dell’impresa 1 è differenziato tanto più il suo prezzo è indipendente dalla condotta dell’impresa
2.

La differenziazione dei prodotti: modelli teorici


Un prodotto si differenzia dai prodotti in concorrenza quando presenta una caratteristica che cattura, a parità di altre
qualità, la preferenza di tutti i consumatori (differenziazione verticale). Vi sono però casi più frequenti in cui i
consumatori valutano in modo differente le caratteristiche qualitative dei prodotti in concorrenza (differenziazione
orizzontale).
L’approccio utilizzato nel definire il concetto teorico di differenziazione fa leva sull’ipotesi che la domanda dei
consumatori non sia orientata tanto al prodotto quanto alle caratteristiche o attributi del prodotto e dei prodotti
concorrenti. Ciascun prodotto è individuato attraverso la definizione delle caratteristiche che meglio rappresentano la
funzione di utilità dell’acquirente i-esimo per ciascun prodotto k. Se fosse possibile produrre tutte le possibili
combinazioni di attributi sarebbe possibile soddisfare le preferenze di ciascun consumatore. La presenza di costi fissi e
di economie di scala nella produzione di ciascuna combinazione fa sì che ciascun consumatore non troverà il prodotto
che risponde perfettamente alla sua combinazione ottimale, ma la sua scelta sarà determinata dai prezzi relativi delle
combinazioni offerte.
L’aggregazione delle preferenze espresse dai singoli consumatori determina per ciascun prodotto e per ciascun
venditore una curva di domanda negativamente inclinata.

Un secondo approccio teorica nasce dalla letteratura sulle informazioni dei consumatori e sui costi di transazione.
Ciascun consumatore, nel prendere le proprie decisioni di acquisto, investe nell’acquisizione di diverse tipologie di
informazione fino al punto in cui i benefici attesi da una scelta più oculata tra i brand offerti sul mercato eguaglia il
costo marginale dell’informazione (Porter).
Ciascun consumatore ha a disposizione quindi un set di informazioni incompleto e diverso da quello degli altri
acquirenti. Ne consegue che, anche se le preferenze di tutti i consumatori sulle caratteristiche rilevanti del prodotto
fossero identiche, essi esprimerebbero per ciascun livello di prezzo dei prodotti in concorrenza una preferenza diversa
in quanto diverso è il set di informazioni a loro disposizione. Per alcuni costi i consumatori sostengono un costo
specifico nel passare ad un prodotto concorrente (switching cost): eventuali variazioni di prezzo che incidono sulla
funzione di preferenza inducono alcuni ma non tutti gli acquirenti ad un cambiamento di prodotto. La presenza di
costi transattivi può divenire un elemento di differenziazione contribuendo essa a determinare le condizioni strutturali
che definiscono la curva di domanda di un prodotto differenziato.

-)Qualità dell’informazione e incertezza: il modello di Akerlof


Importanza della qualità dell’informazione nel determinare in situazioni di incertezza le scelte dei consumatori ed il
funzionamento dei meccanismi di mercato sono state analizzate per la prima volta da Akerlof nel 1970. Il mercato
delle auto usate (market for lemons) è utilizzato dall’autore per dimostrare che, nel caso in cui si ipotizzi una
situazione in cui gli acquirenti si affidano a valutazioni statistico-probabilistiche per superare l’incertezza delle
informazioni sulle caratteristiche qualitative del prodotto, i venditori avranno un incentivo ad offrire prodotti di bassa
qualità. In tale situazione, il beneficio connesso alla vendita di prodotti di buona qualità avvantaggia principalmente
tutto il gruppo dei venditori anziché il singolo venditore: l’effetto è una progressiva riduzione della qualità media dei
prodotti offerta e della dimensione stessa del mercato.
Il mercato delle auto è caratterizzato da auto nuove e auto usate, le quali possono essere entrambe buone o cattive
(lemons). L’acquirente di un’auto nuova non sa se il prodotto che ha acquistato è buono e cattivo: è verosimile quindi
che questi consideri, inizialmente, ogni possibile auto di qualità media, associando cioè una probabilità q
all’eventualità che l’auto acquistata sia buona, ed una probabilità (1 – q) che essa risulti cattiva. Le misure delle
probabilità così definite derivano dalla quantità di auto buone e bidoni presenti sul mercato.
Dopo aver posseduto l’auto per un po’ di tempo però il proprietario (venditore nel mercato dell’usato), che ha
comprato a propria auto nuova, conosce la qualità della propria auto meglio del compratore. Il proprietario è dunque
nelle condizioni di poter fare una stima molto più accurata e assegnerà una nuova probabilità all’eventualità che la sua
macchina sia un bidone. Il prezzo a cui il proprietario vorrà vendere la sua auto sarà maggiore di quello che il
compratore sarà disposto a riconoscergli sulla base delle informazioni a sua disposizione: il prezzo di un’auto buona e
di una cattiva è per il compratore identico e coincide con il prezzo medio.
Il venditore, che non potrà ricevere il valore effettivo della sua auto, uscirà dal mercato e quindi il numero dei bidoni
sul mercato aumenterà con il conseguente peggioramento della qualità percepita dal compratore. La domanda
dipende dal prezzo delle auto p e dalla qualità media delle auto usate offerte dal mercato; l’offerta di auto usate e la
qualità p dipendono dal prezzo p, dalla qualità e dall’offerta S(p). In equilibrio, la quantità offerta è uguale a quella
domandata per un dato livello di qualità. Se la qualità diminuisce, i compratori saranno disposti via via a pagare un
prezzo minore il quale a sua volta determinerà un peggioramento della qualità. Estrema conseguenza di tale processo
è la distruzione dello stesso mercato se prevarrà la presenza di venditori che, offrendo beni di qualità inferiori,
portano fuori dal mercato quelli di qualità superiore. Rimedio più ovvio per il compratore che voglia assicurarsi un
livello normale di qualità attesa è la garanzia. Altro efficace rimedio all’incertezza è la reputazione del brand, nella
misura in cui il compratore possa rivalersi evitando acquisti futuri di prodotti del brand.

Analisi empiriche
Il concetto di non perfetta sostituibilità dei prodotti in concorrenza introduce dal punto di vista teorico la misura più
appropriata del grado di differenziazione.
L’approccio teorico basato sulle caratteristiche del prodotto introduce semplificazioni e soluzioni metodologiche
percorribili. Questo approccio consiste nel definire un prodotto attraverso le sue caratteristiche più rilevanti. Gli
attributi sono accomunati dal fatto di essere misurabili. Il problema più rilevante nell’impostare analisi empiriche sugli
effetti della differenziazione resta quello di stimare la valutazione del consumatore ed il peso che ciascuna delle
caratteristiche che identificano il prodotto hanno nel definire il mix ottimale. È necessario individuare gli strumenti
econometrici che consentono di derivare dette stime dai dati disponibili su ciascun prodotto o tipologia di prodotto.

Effetti della spesa pubblicitaria


Approccio basato sulla teoria dell’informazione e dei costi transattivi individua nella spesa pubblicitaria un potenziale
fattore di differenziazione dei prodotti. Essa contribuisce infatti a definire il set di informazioni a disposizione degli
acquirenti e le loro preferenze. Inoltre, la spesa pubblicitaria rappresenta per i consumatori una fonte di informazione
relativamente economica. È evidente che il contenuto informativo della pubblicità dipende dal fatto che i consumatori
possano o meno determinare la qualità del prodotto prima di acquistarlo.
Si definiscono prodotti con qualità individuabili quelle che possono essere valutati prima dell’acquisto, ed in relazioni
ad esse si parla pubblicità informativa. Si parla di prodotti con qualità da sperimentare quando questi devono essere
prima acquistati e poi provati, in questo caso si parla di pubblicità persuasiva.
Sulla base di questa distinzione, Nelson suggerisce che l’intensità della pubblicità sarà maggiore per i beni con qualità
da sperimentare, sottolineando la funzione più persuasiva che informativa della stessa.
Visione riduttiva del ruolo della pubblicità non considera che anche questi ultimi beni sono soggetti alla valutazione
del consumatore, che non può essere ingannato dal lungo periodo. È evidente che l’acquirente cercherà il riscontro
delle qualità evidenziate nella pubblicità e che anche una pubblicità persuasiva deve tener conto dell’effettiva abilità
del consumatore di giudicare la qualità del prodotto dopo l’acquisto.
Per entrambe le tipologie di beni è fondamentale la considerazione per la quale l’intensità della pubblicità e la sua
persistenza nel tempo può essere di per se stessa segnale di qualità ed avere una valenza informativa. Porter fa
riferimento alle abitudini di acquisto dei consumatori distinguendo fra:

 Beni di convenienza: basso prezzo di acquisto e elevata frequenza di acquisto, il consumatore spende meno
tempo nell’acquisto di tali beni che sono dunque più suscettibili all’effetto della pubblicità.
 Beni di spesa: prezzo unitario maggiore e sono acquistati meno frequentemente, consumatore
potrebbe essere influenzato più dalla assistenza commerciale che dalla pubblicità.

Un basso investimento in pubblicità può essere ipotizzato nel caso di prodotti segnati da un elevato turnover degli
acquirenti; i beni ad alto contenuto di moda richiedono massicci investimenti in pubblicità al fine di crearne e
mantenerne l’immagine. Gli esempi analizzati individuano nelle diverse caratteristiche della domanda dei beni la
motivazione della diversa intensità di pubblicità che caratterizza le strategie delle imprese venditrici nei diversi
mercati.

-) La legge di ottimizzazione del marketing mix


Nel modello Dorfman – Steiner, le variabili strategiche che definiscono la politica del marketing di un’impresa sono:
prezzo, qualità e pubblicità; un’impresa monopolistica utilizza queste variabili e sceglie il livello ottimale di pubblicità
con l’obiettivo di massimizzare i profitti. Ipotizziamo una funzione inversa di domanda:

𝑄 = 𝑓 (𝑝, 𝑠, 𝑧)

Dove la quantità è definita dalle variabili prezzo p, pubblicità s, qualità z. La pubblicità viene eseguita attraverso un
unico canale di informazione ed è acquistata ad un prezzo costante unitario per messaggio pubblicitario T; il fattore
qualità viene considerato costante. Il profitto dell’impresa monopolistica è definita nella nota equazione:

𝜋 = 𝑝𝑄 (𝑝, 𝑠, 𝑧) − 𝐶[𝑄 (𝑝, 𝑠, 𝑧)] − 𝑠𝑇

La condizione di primo ordine per la massimizzazione del profitto è definita, rispetto la variabile p, dato un livello
costante di pubblicità:
𝛿𝜋 𝛿𝑄 𝛿𝐶 𝛿𝑄
𝛿𝑝 = 𝑄 + 𝑝 − =0
𝛿𝑝 𝛿𝑄 𝛿𝑝
𝛿𝐶 𝛿𝑄
Dove = 𝑀𝐶
𝛿𝑄 𝛿𝑝

Il risultato del modello di Dorfman – Steiner è che, in un’impresa monopolistica, il livello ottimale della spesa
pubblicitaria, dato dal rapporto tra spesa pubblicitaria e fatturato (sT/pQ), risulta essere uguale al rapporto tra
l’elasticità della domanda alla spesa pubblicitaria ed elasticità della domanda al prezzo. Ovviamente l’intensità di
pubblicità sarà maggiore quanto maggiore è l’elasticità della domanda alla pubblicità e quanto minore è l’elasticità
della domanda al prezzo. Questo è il caso dei prodotti legati all’immagine, per i quali la domanda è meno sensibile al
prezzo che alla pubblicità e l’intensità di pubblicità è maggiore rispetto al livello medio registrato in altri settori.
Un rapporto pubblicità/vendite costante presuppone che il rapporto tra le relative elasticità rimanga costante.
Il risultato del modello D-S derivato per una impresa monopolistica può essere generalizzato al fine di considerare la
concorrenza tra diverse imprese oligopolistiche. Ciò implica che la funzione di domanda rappresentata
precedentemente dipenda dal prezzo e dalle politiche pubblicitarie e di prodotto dell’impresa considerata e delle altre
imprese rivali.

Gli effetti delle politiche di qualità e della innovazione di prodotto


Il requisito minimo affinché si possa parlare di innovazione è che il prodotto, processo, metodo organizzativo o di
marketing siano nuovi, o significativamente migliorati, con riguardo all’impresa in questione. Ciò significa che
l’innovazione potrebbe anche essere stata sviluppata precedentemente da altre imprese ed organizzazioni ma essere
sconosciuta all’impresa in questione fino al momento della sua adozione.
La definizione riportata nella terza edizione dell’Oslo Manual fa riferimento ad un concetto ampio di innovazione che
include ben quattro categorie fondamentali:

1. Innovazione di prodotto: quando vengono introdotti nuovi beni/servizi, o sviluppate nuove modalità di
utilizzo di prodotti preesistenti, apportati significativi miglioramenti alle caratteristiche funzionali, o di
utilizzo/fruizione di b/s preesistenti per migliorarne performance e qualità. Il design gioca un ruolo
fondamentali: si traducono in una innovazione di prodotto solo quei cambiamenti di design che comportano
un mutamento significativo nelle caratteristiche funzionali e di utilizzo di un certo prodotto (negli altri casi
innovazione di marketing).
2. Innovazione di processo: introduzione di nuovi o significativamente migliorati metodi di produzione o
distribuzione (vari aspetti logistici dell’impresa). Generalmente si associa ad una riduzione dei costi medi
unitari di produzione/distribuzione, oppure può comportare un aumento qualitativo dell’output finale, o
anche essere il prerequisito necessario per la produzione o distribuzione di nuovi, o significativamente
migliorati beni o servizi.
3. Innovazione organizzativa: introduzione di un nuovo, o significativamente migliorato metodo per
l’organizzazione delle pratiche, routine e procedure che caratterizzano lo svolgimento dell’attività di impresa,
oppure può riguardare l’organizzazione interna con riferimento alle modalità di suddivisione del lavoro,
oppure riguardare anche le modalità di gestione delle relazione esterne con altri agenti economici ed
istituzioni pubbliche. Generalmente sono finalizzate all’aumento della performance di impresa, tramite
riduzione dei costi amministrativi e transattivi, aumento soddisfazione sull’ambiente di lavoro e quindi
della produttività dei lavoratori.
4. Innovazione di marketing: finalizzata alla implementazione di un nuovo metodo di marketing, o nuove
strategie, nuovi concetti e strumenti che non siano stati utilizzati precedentemente dall’impressa. Obiettivo
finale è aumento delle vendite, aumentando attrattività del prodotto, estendendo target o modificando le
modalità di collocamento. Oggetto della nuova strategia può essere sia un nuovo prodotto o un prodotto già
esistente.

Mentre vengono esclusi da tale definizione i cambiamenti minori e non significativi, sono positivamente valutate
anche le innovazioni che sono state implementate da altre imprese o mercati, e che successivamente sono state
adottate dall’impresa.
Il processo di diffusione è fondamentale importanza dal momento che l’impianto economico delle innovazioni
dipende proprio dalla loro diffusione.
Un prodotto, processo, metodo organizzativo o di marketing si dicono nuovi per il mercato quando l’impresa
introduce per prima l’innovazione nel suo mercato, laddove il mercato è costituito dall’impresa e dai suoi
competitors e può includere una linea di prodotto oppure un’area geografica. Il concetto di “nuovo per il mercato”
rileva quando l’innovazione viene introdotta da un’impresa per la prima volta, rispetto a tutti i mercati ed a tutte le
industrie, sia nazionali che internazionali.
L’accento sul grado di novità ha fatto emergere nella letteratura la contrapposizione fra:

 Innovazione radicale: relativamente alla dimensione interna queste richiedono la riconfigurazione strutturale
del bagaglio di risorse e competenze posseduto dall’impresa, per cui possono essere definite competence-
destroying. Presentano un notevole cambiamento tecnologico ed hanno un significativo impatto sul mercato
rendendo obsoleti i prodotti preesistenti. Determina una discontinuità tecnologica. Aspetto rilevante è il
potenziale di miglioramento. Nell’arco di un certo intervallo temporale le tecnologie preesistenti saranno
spiazzate dalle nuove, in grado di offrire performance significativamente superiori.
 Innovazione incrementale: relativamente alla dimensione interna queste poggiano su un preesistente sistema
di risorse e conoscenza e pertanto possono essere definite competence-enhancing. Relativamente alla
dimensione esterna, queste innovazioni si caratterizzano per un modesto avanzamento tecnologico e
pertanto non rendono obsoleti e non competitivi i prodotti esistenti sul mercato. Avvantaggia le imprese
preesistenti ma le rende particolarmente vulnerabili nei confronti dell’innovazione radicale, che può aprire
una traiettoria tecnologica facilmente percorribile dalle imprese entranti.
Nei nuovi scenari apertisi con l’avvento delle ICT, nei quali l’impatto economico delle due tipologie di innovazione è
risultato molto diverso da quello sopra descritto. Alcune imprese operanti sul mercato persero la loro leadership in
favore di nuovi entranti anche a seguito di innovazioni incrementali, o viceversa altre imprese riuscirono a difendere la
loro leadership anche a seguito dell’introduzione di innovazioni radicali (es. IBM). Il superamento della
contrapposizione tradizionale ha aperto la strada ad una classificazione più ampia e completa:

 Henderson e Clark propongono una classificazione delle varie tipologie di innovazione sulla base dell’impatto
di quest’ultima sulle competenze coinvolte nella realizzazione di un certo prodotto. In particolare, vengono
individuati due tipi fondamentali di competenze richieste per sviluppare ed introdurre innovazioni:
conoscenze alla base dei componenti e conoscenze alla base dei legami tra componenti. Sulla base di queste
due conoscenze è possibile individuare quattro tipologie fondamentali di innovazione:
1) innovazioni incrementali: hanno scarso impatto sia sulle conoscenze dei componenti di un prodotto sia su
quelle architetturali.
2) innovazioni modulari: comportano cambiamenti significativi delle conoscenze alla base dei componenti,
mantenendo sostanzialmente inalterate le conoscenze architetturali.
3) innovazioni architetturali: esercitano il loro impatto sulle conoscenze relative ai legami dei componenti, ma
non coinvolgono le conoscenze alla base dei componenti.
4) innovazioni radicali: poggiano su un nuovo set di conoscenze, sia alla base dei componenti che
architetturali.
 Abernathy e Clark propongono invece una classificazione che si basa sull’impatto dell’innovazione su due
tipologie di competenze, ritenute fondamentali per il successo di una innovazione:
1) competenze tecniche: indispensabili per lo sviluppo e l’implementazione di una certa innovazione, ma
affinché si possa proporre al meglio la novità sul mercato e beneficiare economicamente delle innovazioni
introdotte è necessario avere anche competenze commerciali.
2) competenze commerciali: potrebbero spiegare, se elevate, il mantenimento della leadership anche a
seguito dell’introduzione, nello stesso mercato, di una innovazione radicale.
Sulla base di tali considerazioni i due studiosi distinguono 4 fondamentali tipologie di innovazioni: innovazioni
creatrici di nicchia (preservano le conoscenze tecnologiche e rendono obsolete quelle di mercato),
innovazioni rivoluzionarie (rendono obsolete le conoscenze tecniche e preservano quelle di mercato);
innovazioni regolari (preservano entrambe le conoscenze); innovazioni architetturali (rendono obsolete
entrambe le tipologie di competenze).
 Christensen introduce invece il concetto di disruptive technologies, innovazioni che risultano essere la causa
principale della perdita della leadership di alcune imprese operanti nel mercato. Tale criterio di
classificazione non si basa né sulla complessità tecnologica né sulle competenze richieste, ma fa riferimento
alla domanda dei consumatori: questo tipo di tecnologie presenta dei livelli di performance inferiori rispetto
alle funzionalità richieste dai consumatori tradizionali, ma superiori con riferimento a dimensioni secondarie
valutate da nicchie di consumatori correnti, o futuri potenziali.
Inoltre i prodotti che incorporano le tecnologie disruptive generalmente costano meno. È possibile
individuare tecnologie:
1) disruptive low-end: indirizzate ai segmenti bassi del mercato e a quei consumatori che prestano molta
attenzone al prezzo accontentandosi di livelli medi di prestazioni;
2) disruptive new-market: finalizzate all’apertura di un nuovo mercato.
Dato che tali tecnologie non sono volte a soddisfare le esigenze della quota maggioritaria dei consumatori
correnti, vengono spesso sottovalutate dalle incumbents che preferiscono investire in tecnologie volte a
migliorare prodotti preesistenti e a soddisfare le esigenze dei consumatori tradizionali. La situazione diventa
pericolosa per l’incumbent quando la nuova tecnologia presenta un rapido tasso di miglioramento delle
performance considerate rilevanti dai consumatori principali. In questo caso, quando la nuova tecnologia
supera la performance della tecnologia consolidata, le imprese operanti vedono minata la loro sopravvivenza
sul mercato.

L’attività di innovazione rappresenta un’efficace strategia competitiva per le imprese produttrici ed è solitamente
associata ad un incremento nel benessere dei consumatori. Bisogna però considerare che l’innovazione si sostanzia in
un processo economico che presenta alcune criticità, per quanto indubbiamente desiderabile. Infatti esso, in una
prima fase, richiede una fase iniziale in cui principi o idee di prodotto vengono sviluppate in prototipi (fase
dell’invenzione), la quale richiede investimenti in attività di ricerca rischiosi in quanto sono incerti gli esiti della stessa.
La fase successiva dell’innovazione richiede un’ulteriore attività di sviluppo che, insieme ad iniziative di marketing, può
decretare il successo del lancio commerciale del nuovo prodotto. Se l’innovazione è significativa e ha successo, essa si
diffonde con effetti positivi sul benessere dei consumatori e sulla crescita del sistema economico. In questa terza fase
del processo di progresso tecnologico, diffusione, sono soprattutto i competitors a giocare un ruolo fondamentale. Il
prodotto dell’attività di invenzione e di innovazione infatti presenta alcune delle proprietà che definiscono un bene
pubblico: una volta disponibile, può essere riprodotto ad un costo molto basso e non è facile impedire alle imprese
concorrenti di beneficiarne (inappropriabilità e indivisibilità). Queste due caratteristiche e i costi elevati associati
all’attività di ricerca giustificano comportamenti di free-riding e di opportunismo che possono costituire un
disincentivo all’attività di innovazione. L’introduzione di brevetti e licenze d’uso mira a risolvere questo problema
attraverso il riconoscimento del diritto legale di proprietà sui benefici economici riconducibili a detti prodotti.
L’esigenza di creare le condizioni più favorevoli al progresso tecnologico e agli investimenti è al centro del dibattito
sulla definizione di politiche industriali volte a garantire la crescita di sistemi economici avanzati.

Struttura di mercato e innovazione di prodotto


Il problema cruciale nello studio dei processi di innovazione è quello di valutare l’influenza che strutture di mercato
monopolistiche o concorrenziali hanno sull’attività di innovazione: obiettivo è quindi quello di definire quale contesto
competitivo offra gli incentivi maggiori alla attività di innovazione.
L’analisi classica sulla teoria dell’innovazione – Arrow 1962 – individua nella concorrenza la forma di mercato in cui gli
incentivi all’innovazione sono più forti. Se infatti l’impresa opera inizialmente in un contesto competitivo avrà un
incentivo maggiore ad introdurre una innovazione di processo che consente una riduzione dei costi rispetto ad una
impresa monopolistica.
Demsetz critica le conclusioni di Arrow. Ipotizzando un inventore esterno che applica una royalty per unità di prodotto
sia alle imprese in concorrenza che a quella in monopolio, il maggior incentivo riscontrabile nella prima forma di
mercato è determinato dalla restrizione dell’output tipica del monopolio. La differenza fra concorrenza e monopolio
scompare se si assumono imprese di uguali dimensioni, ovvero nell’ipotesi che l’impresa in concorrenza produca lo
stesso output di quella in monopolio. L’incentivo all’innovazione offerto dal monopolio è maggiore se si ipotizza che
l’inventore non è vincolato ad applicare la stessa royalty per unità di prodotto nelle due industrie.
La contrapposizione fra concorrenza e monopolio è ricomposta nella visione schumpeteriana della distruzione
creativa. Nelle tesi di Schumpeter infatti prevale l’argomentazione che la grande dimensione offre di per se stessa
incentivi maggiori all’innovazione tecnologica: le grandi imprese hanno risorse maggiori da destinare all’attività di
ricerca, una piccola impresa ha bisogno di finanziamenti per intraprendere il progetto di sviluppo, risorse difficili da
reperire se il mercato dei capitali non funziona perfettamente. L’analisi di Schumpeter non conduce al classico trade-
off concorrenza-monopolio. Essa piuttosto implica una visione dinamica che lascia spazio nel breve periodo a forme di
potere monopolistico: l’effetto benefico della concorrenza deriva non dalla concorrenza di imprese esistenti ma,
piuttosto, dalla concorrenza potenziale che nuovi prodotti o nuovi processi possono portare nel mercato distruggendo
la posizione acquisita dal monopolista.

Differenziazione e il potere di mercato


Nell’analizzare i diversi fattori che possono determinare la differenziazione di prodotti sono state evidenziate le
implicazioni in termini di poteri di mercato e concorrenza. Detta relazione è esemplificata attraverso la
formalizzazione di un modello di differenziazione orizzontale nel quale i prodotti, pur essendo perfetti sostituti dal
punto di vista qualitativo, si differenziano per l’elemento spaziale e la localizzazione geografica dell’offerta rispetto
al luogo di domanda e consumo.
La situazione rappresentata può essere generalizzata a tutte quelle in cui venditori e compratori sono fisicamente
separati e un costo di trasporto deve essere pagato dall’acquirente per comprare da uno specifico venditore. Nello
stesso modo può essere esteso ad includere i casi frequenti in cui due prodotti si differenziano per alcune
caratteristiche valutate in modo differente da ciascun consumatore.
Il modello di Hotelling (1929) offre una soluzione al problema sopra definito. I venditori cercheranno, in una sorta di
gioco ripetuto, di posizionarsi l’uno alla destra dell’atro al fine di sottrarre al concorrente un numero maggiore di
consumatori. Questo gioco raggiunge un punto di equilibrio quando entrambi si collocano esattamente nel punto
centrale della spiaggia. Il problema decisionale dei due venditori può essere formulato anche come la scelta della
politica di prezzo ipotizzando che la localizzazione sia esogenamente fissata.
Capitolo 10
La diversificazione

Con il termine diversificazione si intende il processo per cui un’impresa caratterizzata da un particolare tipo di
attività produttiva avvia attività economiche diverse da quelle tradizionali, pur mantenendo la propria presenza
nell’ambito originale. Il punto di arrivo è un’impresa diversificata, e se ciò comprende numerose attività il termine
con il quale viene definita l’impresa con tali caratteristiche è impresa conglomerata o conglomerale.
Lo strumento di tale processo può essere costituito da:
- acquisitions: acquisizioni di altre imprese;
- puro e semplice sviluppo di nuove attività;
- mergers: fusioni.
Il processo di diversificazione può essere orizzontale (relativo a mercati contigui al mercato originario dell’impresa),
verticale (se avviene in settori che si trovano a valle o a monte del settore originario) oppure conglomerale (se
riguarda attività non connesse fra loro).
L’applicazione del concetto di diversificazione dipende naturalmente in larga misura da come viene definita la
diversità. Il concetto di mercato rilevante nei fatti è relativamente flessibile, non esistendo una misura rigidamente
stabilita entro la quale i valori delle elasticità incrociate dell’offerta e della domanda definiscono un singolo mercato
rilevante.
La misurazione della diversificazione si fonda sui concetti di attività prevalente, e di grado diversificazione. La formula
più semplice consiste nell’assumere come criterio l’entità del fatturato.
Il grado della diversificazione può essere misurato secondo due tipologie:

 La prima utilizzata dal Census of Manifactures degli USA, rapporta le attività secondarie all’attività totale.
Questa misura ripropone gli stessi pregi e gli stessi difetti dell’indice di concentrazione C.
 Indice HH, costituito dalla somma di valori elevati al quadrato delle attività dell’impresa stessa in luogo delle
quote di mercato delle varie imprese. L’indice HH assume il valore i 1 quando l’impresa non è diversificata,
e il valore di 1/n in caso in cui le n attività siano tutte della stessa dimensione.

Le cause che possono spiegare i processi di diversificazione sono teoricamente distinguibili in quattro principali
categorie come segue:

a) Vantaggi nei costi di produzione: una delle giustificazioni che viene più frequentemente proposta per le
operazioni di fusione e di diversificazioni è basata sui risparmi di costi che si possono ottenere per mezzo
della ripartizione di costi indivisibili su una più ampia gamma di prodotti. La diversificazione motivata dalla
presenza di fattori indivisibili non va ovviamente confusa con il fenomeno delle economie di scala, cioè della
diminuzione dei costi unitari di produzione all’aumentare del volume del prodotto. Il fattore indivisibile può
anche essere rappresentato da un bene immateriale come la “marca”.
b) Vantaggi nei prezzi di vendita: questione circa l’effettiva possibilità di ottenere vantaggi nei prezzi di vendita
mediante la diversificazione è un argomento da una parte simmetrico alle osservazioni svolte nel caso delle
differenziazione dei prodotti, e consiste nel fatto che mediante la diversificazione/differenziazione sia
possibile segmentare la domanda del mercato, e quindi sfruttare le differenti elasticità dei segmenti della
curva con prezzi differenziati. Per altro verso i vantaggi che deriverebbero dalla diversificazione dei prodotti
dipendono dall’utilizzo di due tecniche di vendita:
-) trying sales (full line forcing): quando un venditore, verosimilmente monopolista, condiziona la vendita di
quel prodotto all’acquisto contemporaneo di un altro prodotto. Tale pratica è vietata dalla legislazione
antitrust (trattato di Nizza), anche se si possono avanzare dubbi sul fatto che tali pratiche determino
semplicemente un trasferimento di profitti all’interno del gruppo diversificato. Ad esserne danneggiati sono i
concorrenti minori, che si vedono sottrarre una parte della domanda potenziale non potendo contrapporre
una offerta differenziata.
-) bundling sales: tecnica che consiste nell’offrire un certo numero di prodotti diversi ad un unico prezzo.
Mira a trasferire una parte della rendita che si formerebbe per i consumatori.
La diversificazione, sotto il profilo delle condotte di prezzo può consentire i sussidi intergruppo, ovvero
l’estensione di una posizione dominante da un settore all’altro.
c) Strategie di sviluppo dell’impresa: uno dei più tipici motivi che spingono l’impresa ad avviare processi di
diversificazione quando la generazione di risorse prodotte dall’attività tradizionale supera le esigenze
dell’impresa stessa per mantenere la propria competitività nel settore di origine.
Assumendo che la domanda del mercato attraversi cicli, e che quindi si susseguano le fasi di introduzione,
crescita, maturità e declino, ed inoltre assumendo che la quota di mercato sia indice di potere di mercato e
quindi di profittabilità, si può costruire una matrice, definita matrice BCG, nella quale l’asse delle ascisse
corrisponde alle quote di mercato detenute da una specifica impresa per un dato prodotto, mentre quello
delle ordinate è relativo al tasso di crescita delle vendite di quel dato prodotto. La matrice può essere
scomposta in quattro quadranti, corrispondenti a quattro diverse combinazioni potere di mercato/crescita:
1) cash cows: prodotti che hanno buona profittabilità e bassi tassi di crescita. Generazione di risorse di questi
prodotti dovrebbe superare le esigenze di crescita e quindi liberare delle disponibilità per il management;
2) stars: prodotti a maggiore redditività e crescita;
3) question marks: prodotti su cui puntare per lo sviluppo;
4) dogs: prodotti da eliminare.
Questo semplice schema riassume alcuni criteri delle strategie delle imprese, soprattutto quello secondo cui
un’impresa, sia pure di successo, che non investe in nuove produzioni e mercati è destinata al declino e
all’eliminazione. La strategia delle imprese che porta alla diversificazione consiste in un continuo processo di
selezione fra il mix dei prodotti esistenti e lo sviluppo di nuovi prodotti. Occorre sempre ricordare che il
confine fra differenziazione e diversificazione nel campo dello sviluppo delle imprese non è certo, ed inoltre
spesso ciò che all’esterno appare una diversificazione all’interno può essere considerato una differenziazione
dei prodotti volta a segmentare il mercato.
d) Aspetti finanziari: sotto questo profilo la diversificazione di una impresa o di un gruppo solleva rilevanti
questioni riguardanti:
-) valore del capitale economico (capitalizzazione), espresso dalle quotazioni delle aziende nel medio lungo
periodo;
-) costo del capitale di rischio, 𝑘𝑒, cioè il rendimento richiesto dal mercato per le azioni di una particolare
impresa;
-) crescita, stabilità del gruppo e adeguatezza delle risorse finanziarie.
I primi due aspetti possono essere considerati simultaneamente, dato che il valore delle azioni è dato
semplicemente dal rapporto fra risultato atteso e saggio di rendimento richiesto dal mercato, che coincide
con il costo del capitale proprio per una impresa.
Per risultato atteso si intende l’istante dei risultati che verosimilmente possono determinarsi, ciascuno dei
quali ha una data probabilità la cui somma è uguale ad 1. Per comodità di trattamento si assume che la
distribuzione probabilistica dei risultati sia di tipo normale o gaussiana. Ciascuna distribuzione probabilistica è
caratterizzata quindi da due tipici parametri:
1) media ( 𝑹̅ ): dato il tipo di distribuzione, è ance il parametro più probabile

𝑅̅ = ∑ 𝑅𝑖 𝑝𝑖
1
dove R con i rappresenta i risultati possibili e p con i le relative probabilità.
2) deviazione standard che misura la dispersione dei risultati possibili attorno al risultato medio:

𝜎 = √∑(𝑅𝑖 − 𝑅̅) 2 ∗ 𝑝𝑖
1

Dove sigma rappresenta la misura del rischio connesso ad una specifica impresa.
La teoria finanziaria assume che il mercato sia in prevalenza costituito da operatori avversi al rischio: a parità
di rendimento atteso, essi assegnano all’attività più rischiosa un valore inferiore e quindi il costo del capitale
per le imprese caratterizzate da un più elevato valore di sigma risulterà più alto. Un obiettivo del processo di
diversificazione può consistere nel compensare il fattore di rischio di una industria con quello di un’altra
industria, così da ottenere una covarianza inferiore alla varianza delle singole attività industriali. In questo
caso, risultando diminuito il rischio complessivo di un’impresa, dovrebbe simmetricamente diminuire il costo
del capitale, e aumentare il valore delle azioni e dunque dell’impresa nel suo complesso.
In realtà i mercati azionari dimostrano di non apprezzare quasi mai il fatto che una impresa ne sostituisca le
funzioni per la diversificazione del rischio. È ovvio che ogni singolo investitore può selezionare i propri
investimenti fra attività con diverse combinazioni di redditività\rischio per ottenere un portafoglio più
congeniali alle proprie preferenze, di quanto potrebbe comunque fare una impresa tramite un processo di
diversificazione condotto al proprio interno.
La diversificazione può concorrere all’obiettivo della stabilità dell’impresa, tramite il fenomeno della
covarianza, ma ciò normalmente avviene ad un costo che è rappresentato dal maggior rendimento
richiesto dal mercato. Se i mezzi sono limitati all’eccesso di risorse proprie rispetto alle necessità di impiego,
valgono le considerazioni svolte in precedenza.
Capitolo 11
L’integrazione verticale

Integrazione verticale può essere definita secondo due diverse prospettive:

 SCP: il termine integrazione verticale è uno degli elementi della struttura industriale e indica la misura in cui
una singola impresa realizza al suo interno fasi successive di produzione e distribuzione di un prodotto.
 Strategica: il termine si riferisce alla strategia di una impresa che decide di muoversi verso un’altra fase
del processo produttivo o distributivo, sia tramite una fusione o acquisizione, sia avviando nuove attività.
Quando le fasi internalizzate riguardano la produzione o la prima produzione o la trasformazione delle
materie prime o di altri input, si realizza una integrazione a monte; quando invece lo stesso processo
riguarda fasi della produzione finale o della distribuzione, si realizza una integrazione a valle.

Tutti i processi produttivi possono essere scomposti in un numero finito di fasi distinte ed elementari. Tra i numerosi
esempi, si possono portare i casi dell’impresa di trasporto aereo o le aziende di raffinazione del petrolio.
L’integrazione verticale può essere anche considerata un caso specifico di diversificazione che avviene in un unico
processo produttivo.
Per comprendere l’ampiezza dell’integrazione verticale, osservata secondo la prospettiva strutturale, è utile
contrapporla alla specializzazione; una impresa è specializzata quando svolge una singola fase del processo
produttivo. La specializzazione pure è comunque un concetto relativo, poiché quasi tutte le imprese svolgono più
attività che potrebbero, almeno in teoria, essere svolte da singole imprese specializzate (es. funzioni separate come
contabilità e finanza). In quest’ottica, ben poche imprese sono completamente specializzate.
L’integrazione verticale ha dunque una dimensione quantitativa e può riguardare tutte o alcune fasi di una filiera
produttiva, che include l’insieme delle fasi che vanno dalla produzione e lavorazione della materia prima alla
commercializzazione del prodotto, configurandosi casi di completa o di parziale integrazione che possono essere
misurati da opportuni indici; a tal proposito Adelman ha suggerito il rapporto fra sommatoria del valore aggiunto
(VA) e sommatoria delle vendite (S):

∑𝑛𝑖=1 𝑉𝐴
𝐶𝑣𝑖 = ⁄ 𝑛
∑𝑖=1 𝑆

Quanto più un’impresa è integrata, tanto più alto è il valore dell’indiche che, nel caso limite di completa integrazione,
quando numeratore e denominatore sono uguali, assume il valore 1. Al contrario l’indice assume valori tanto più
piccoli quanto meno sono integrate le attività e più numerose sono le transazioni fra le imprese. Questa misura
presenta alcune limitazioni, dato che l’indice fornisce differenti risultati a seconda dello stadio in corrispondenza del
quale viene misurata l’integrazione. Esso è più un indicatore dello stadio di produzione o distribuzione che della
concentrazione, e non può essere utilizzato per confrontare l’integrazione fra le imprese in differenti stadi di
produzione.
Un’altra famiglia di indici è quella che utilizza le tavole input-output, dalle quali si può desumere quanto un settore
dipende dal mercato, ossia da altri settori produttori degli input e dei beni e servizi intermedi attraverso degli indici
che misurano l’incidenza dei settori di origine sui settori di destinazione. I limiti di queste misure discendono tutti dal
grado di aggregazione geografica e settoriale delle matrici intersettoriali. Se gli indici sono espressi in termini
monetari, i prezzi di trasferimento tra i vari stadi del processo produttivo possono divergere dai prezzi di mercato
generando alcune incertezze.

Cause ed obiettivi dei processi di verticalizzazione


L’integrazione verticale si verifica per le stesse cause per le quali esistono le imprese. Se in una prospettiva dinamica si
distinguono due filoni (il primo considera le scelte delle imprese in materia di integrazione verticale come una
modalità per acquisire potere di mercato, il secondo di natura evolutiva che pone sugli aspetti dinamici
dell’integrazione verticale), in una prospettiva statica, opposta alla precedente, che non considera il cambiamento
economico, tecnologico e istituzionale, si individuano almeno tre determinanti principali dell’integrazione verticale:

a. Fattori tecnologici: alcuni processi produttivi sono caratterizzati da forti interdipendenze tecnologiche. Un
esempio tipico riportato è quello dell’industria dell’acciaio e del ferro. I costi di trattamento e fusione sono
ridotti se i processi sono condotti in continuo. Non solo l’integrazione permette di evitare la ripetizione di una
operazione, ma consente anche il risparmio su una serie di materiali ausiliari per la conservazione ed il
trasporto del bene intermedio. Economie di tipo tecnologico spiegano perché la produzione del ferro e
dell’acciaio venga tipicamente realizzata in un sono impianto, portando così all’integrazione in una sola
impresa. Ci sono molti altri esempi di integrazione verticale dei processi produttivi dovute a
complementarietà tecnologica, come ad esempio le economie di tipo termico. Oltre al caso
dell’interdipendenza dei processi produttivi, rientrano nell’alveo delle spiegazioni tecnologiche anche quelle
che interpretano l’integrazione verticale come un tentativo di sfruttamento economico delle tecnologie
derivate nei settori a valle. Ad esempio, la Polaroid, decise di integrarsi a valle nel settore delle macchine
fotografiche per sfruttare la sua tecnologia proprietaria nel campo delle lenti di precisione. Il patrimonio
tecnologico dell’impresa si presta ad essere applicato a campi diversi da quelli in cui si è originariamente
sviluppato. Le complementarità tecnologiche possono avere una natura statica o dinamica. Nel caso di settori
caratterizzati da conoscenza stabile, con un tasso di innovazione sostenuto e apprendimento lento, le
conoscenze sono spesso codificate in brevetti proprietari che possono essere utilmente sfruttati nelle fasi di
distribuzione o di produzione. Nel caso invece di settori caratterizzati da forte dinamismo tecnologico,
rapidità dei cambiamenti e natura tacita delle conoscenze incorporate nelle routine organizzative
dell’impresa o nelle sue maestranze, rende difficili da coordinare sul mercato le diverse conoscenze richieste,
spingendo quindi alla integrazione verticale.
b. Economie di transazione: in questo campo, così come nelle altre teorie istituzionali che si pongono il
problema dei confini dell’impresa, occupa un posto preminente l’aspetto della organizzazione
imprenditoriale.
Nella sua analisi classica dell’impresa Ronald Coase operò una distinzione fra coordinamento del mercato e
coordinamento imprenditoriale dell’attività economica. Entrambe le forme di coordinamento delle
transazioni si associano a costi:
- nel primo caso di transazione: costi sostenuti per acquisire e trattare l’informazione sulla qualità degli input,
sui prezzi, sulla reputazione del fornitore.
- secondo caso di organizzazione: generati da rendimenti decrescenti della funzione organizzativa e la
crescente possibilità di errori nella gestione se più attività vengono intraprese.
La struttura organizzativa o l’istituzione impresa nasce per economizzare sui costi di transazione quando:
1) utilizzo del meccanismo dei prezzi risulta troppo oneroso ed è conveniente internalizzare le transazioni che
in precedenza erano svolte sul mercato (caso di fallimento del mercato).
2) il ricorso ad una molteplicità di contratti completi comporta costi di negoziazione più elevati di quelli
connessi ad un unico contratto incompleto.
In base alla formulazione di Coase, l’impresa intraprenderà direttamente delle nuove attività fino al punto in
cui i costi di coordinamento interno dell’ultima attività da internalizzare uguagliano i costi del coordinamento
del mercato. Il mercaot evidenzierà un grado di equilibrio dell’integrazione verticale, in condizioni
concorrenziali, che darà luogo alla più efficiente organizzazione della produzione e della distribuzione.
L’approccio di Coase è stato poi ripreso e sviluppato da Williamson che considerò in dettaglio i fattori che
influenzano i costi di transazione e spiegano quindi l’integrazione verticale. In contrasto con le assunzioni
economiche standard, Williamson fa l’ipotesi che gli attori economici agiscano in condizioni di razionalità
limitata e opportunisticamente, traendo cioè profitto dalle opportunità vantaggiose che si presentano.
Queste ipotesi comportamentali vengono nel suo schema combinate con le dimensioni di incertezza, di
frequenza delle relazioni e di relazioni di scambio tra un numero limitato di soggetti, per determinare in quali
casi è conveniente sostituire il coordinamento del mercato con l’organizzazione interna all’impresa e quindi
ricorrere all’integrazione verticale.
In generale, le conclusioni di Williamson sono che, l’organizzazione interna consente di economizzare sui costi
connessi alla razionalità umana in tutti quei casi in cui il sistema dei prezzi non offre una informazione
sufficiente e l’incertezza è sostanziale. Alla stessa stregua, l’organizzazione interna consente di economizzare
sui costi determinati dall’opportunismo dei contraenti e dal fatto che via via un contratto viene rinnovato,
diminuisce il numero delle parti che effettivamente vi partecipano. La teoria di Williamson si discosta
dall’approccio SCP in quanto studia l’organizzazione interna dell’impresa e descrive l’ambienta in cui opera in
termini di distribuzione dei costi di transazione anziché in termini di struttura di mercato.
Scendendo nel dettaglio, le situazioni che inducono alla integrazione verticale possono essere esemplificate
in quattro fattispecie:
1) specificità dei beni capitali: un bene capitale specifico (es. macchinario) vene realizzato su misura per uno o
alcuni acquirenti particolari e non potrebbe essere utilizzato per servire il ciclo produttivo di un altro
acquirente. In questo caso il fornitore dipende completamente dal suo acquirente e in caso di contrasti su
condizioni contrattuali o di difficoltà economico-finanziaria, potrebbe rischiare di uscire anch’egli dal
mercato. Per alcune fasce di fornitura del settore automobilistico si sono verificati molti di questi casi. In
questi casi è conveniente ricorrere all’integrazione verticale, oppure alla sola integrazione verticale parziale.
La specificità può riguardare però anche il capitale umano e può spiegare la maggiore preferenza per
contratti di lavoro piuttosto che di consulenza. La specificità di una risorsa va valutata anche con riferimento
alla frequenza delle transazioni. La frequenza è riferita al numero di scambi in cui viene effettuata la
transazione. Si può distinguere fra transazioni con frequenza occasionale o ricorrente. Sulla combinazione
degli aspetti di frequenza e specificità, è possibile osservare in generale che all’aumentare delle risorse
materiali ed umane richieste da un certo investimento, aumentano i costi di transizione, mentre tendono a
diminuire con l’aumentare della frequenza delle transizioni. Si farà ricorso all’integrazione verticale in caso
di elevata specificità delle risorse e di transazioni ricorrenti.
2) incertezza: il ricorso al mercato è contraddistinto da numerosi fattori di incertezza e di rischio che possono
riguardare ritardi o interruzioni nelle consegne agli stabilimenti, o nelle consegne ai mercati di sbocco,
mancato rispetto dei termini di consegna. L’incertezza è anche uno dei più rilevanti casi di imperfezione del
mercato.
Per premunirsi contro i rischi sopra indicati, le imprese aumentano il livello delle scorte, ma ciò può portare
ad un incremento delle immobilizzazioni non compatibile o capace di pregiudicare l’equilibrio finanziario
dell’impresa. L’integrazione con i propri produttori di materie prime permette di contenere il livello delle
scorte. Nel caso di una impresa che si occupa delle varie fasi di produzione, il livello di scorte permanenti o di
sicurezza sarà senz’altro minore, perché minore è il rischio di ritardi o interruzioni di fornitura quindi minori
sono i costi di produzione. Gli esempi di questi casi sono molto frequenti soprattutto nei settori che operano
nel mercato delle materie prime scambiate sui mercati internazionali soggette a rilevanti fluttuazioni nei
prezzi e nelle quantità immesse (es. gas e petrolio). I prodotti finiti o i semilavorati possono contenere
percentuali di prodotti difettosi superiori alle soglie di tolleranza o essere mediamente di qualità inferiore a
quella richiesta, rischiando di danneggiare il processo produttivo del produttore o di pregiudicare la sua
reputazione. Una impresa integrata può facilmente controllare che le forniture corrispondano alle
specifiche tecniche e agli standard qualitativi richiesti.
3) compressione o blocco informativo: può essere difficile stipulare il contratto che dà all’impresa fornitrice gli
incentivi adeguati per raccogliere le informazioni. Possono pertanto sorgere controversie sui pagamenti
difficili da risolvere.
4) coordinamento estensivo: integrazione facilita un coordinamento ampio, come accade nelle industrie
dotate di reti (compagnie aeree e ferrovie). Una ferrovia ad esempio ha una domanda di traffico sulle linee
principali che molto dipende dallo sviluppo del traffico sulle linee secondarie. Anche se potrebbe essere
possibile elaborare un sistema di prezzi per ogni collegamento della rete ferroviaria, tale sistema potrebbe
essere molto complicato. Quindi le società ferroviarie hanno un incentivo a fondersi per risolvere in modo
semplice questi problemi di coordinamento.
c. Imperfezioni di mercato: comprendono tutti quei casi in cui i beni vengono venduti a prezzi non competitivi o
non vengono prodotti affatto. Per molti prodotti di recente introduzione il mercato a monte dei componenti,
i macchinari e le attrezzature per produrli, non sono abbastanza sviluppati e possono portare a prezzi molto
elevati. La minaccia di sostituirsi al fornitore o al distributore può essere un mezzo efficace per costringerli ad
offrire condizioni migliori. Situazioni di prezzi non competitivi si possono sviluppare anche in conseguenza di
fluttuazioni dei prezzi. Tra le spiegazioni che chiamano in causa le imperfezioni di mercato, l’incertezza è uno
dei fattori maggiormente citati. Diversi autori hanno ipotizzato l’esistenza di incertezza nei mercati
concorrenziali e in altre forme di mercato che possono essere ugualmente considerate ai fini dell’analisi
dell’integrazione verticale.
Il caso delle imperfezioni di mercato e dell’incertezza come causa dell’integrazione verticale è già ricompreso
nella teoria dei costi di transazione. Si fa qui cenno a quei modelli che permettono di trarre ulteriori
implicazioni.
Arrow discute il caso di asimmetrie di informazione tra i produttori a monte e a valle che generano un
incentivo all’integrazione verticale. Nell’analisi di Arrow, le imprese a valle hanno informazioni limitate sul
prezzo delle materie prime e questo limita la capacità di prendere decisioni efficienti.
Uno dei motivi comuni che porta all’integrazione verticale è quello di garantirsi la fornitura di fattori di
produzione importanti.
Carlton presenta un modello valido per quei mercati in cui il prezzo non è il solo strumento utilizzato per
allocare i beni e sono possibili fenomeni di razionamento della domanda. Quando il razionamento è
possibile, si crea un incentivo all’integrazione verticale per aumentare la probabilità di ottenere per tempo il
prodotto. L’impresa potrebbe produrre i propri input per soddisfare il livello prevedibile di domanda e far
affidamento sui fornitori per la domanda meno stabile. In questa situazione però i fornitori reagiranno in
maniera opportunistica, aumentando i prezzi quando l’impresa ordina gli input a causa di un aumento non
previsto di domanda da parte del suo mercato di sbocco. Di qui l’incentivo ad integrarsi.

In una prospettiva dinamica si distinguono due filoni, che presentano una connotazione deterministica:

a. Motivazioni strategiche e restrizioni della concorrenza: gli incentivi monopolistici alla integrazione verticale
hanno rappresentato una area di recente attività di ricerca. Già Bain segnalava che l’integrazione verticale è
interpretabile, quando non spiegata da economie legate a complementarità tecnologiche, in termini di
barriera all’entrata. Infatti, l’integrazione a monte o a valle ottiene il risultato immediato di eliminare uno o
più concorrenti potenziali per i mercati nei quali già si operi e aumenta i requisiti di fabbisogno di capitale
iniziale per i potenziali entranti. L’interpretazione è affine a quella che vede l’integrazione come una forma di
comportamento strategico, con il fine ultimo di escludere dal mercato gli avversari non integrati, elevandone
i costi.
A volte l’integrazione verticale viene realizzata anche per aggirare normative di regolamentazione e antitrust
o per evitare controlli su prezzi e tasse.
Occorre aggiungere inoltre che i diversi modelli che rientrano nella categoria delle spiegazioni monopolistiche
o comunque riconducibili alla difesa o alla conquista di potere di mercato si affiancano e vanno considerati
congiuntamente a quelli sulle restrizioni verticali. Quest’ultime sono oggetto di attenzione da parte
dell’autorità antitrust nei mercati in cui esiste potere di mercato. In alcune circostanze esse possono portare
all’aumento del potere di mercato delle imprese che vi ricorrono. Possono essere usate come strumento di
collusione o per escludere i rivali dal mercato le restrizioni verticali come il prezzo imposto o la clausola di
esclusiva.
Le restrizioni verticali più diffuse sono:
-) franchising: produttore vende i diritti di esclusiva, normalmente coperti da un marchio, al distributore
dietro il pagamento di un canone di concessione. Oggetto del contratto sono in genere una o più licenze di
diritti di proprietà intellettuale, assistenza tecnica e commerciale. Tali accordi permettono al proprietario di
ali diritti di sfruttare e difendere la propria reputazione.
-) prezzo imposto: pratica in base alla quale il produttore impone un prezzo minimo ai rivenditori. Questi
accordi creano un incentivo ai venditori al dettaglio a concentrare l’attenzione su variabili diverse dal prezzo.
Se il prezzo imposto lascia un margine al distributore, questa differenza può essere utilizzata per impedire la
competizione a valle quando questa distruggerebbe l’incentivo dei rivenditori a investire per fornire servizi di
vendita e investimenti promozionali che aumentano la domanda. Normalmente è considerato illegale,
mentre sono ammessi i prezzi consigliati.
-) accordi per le vendite in esclusiva: nascono dall’esigenza dei produttori di evitare che dai propri
investimenti traggano beneficio i rivenditori, se questi vendono anche prodotti dai concorrenti. Le clausole di
esclusiva risolvono queste esternalità tra produttori. Tuttavia queste possono anche causare l’uscita dei
concorrenti dal mercato e per tale ragione sono perseguite dalle autorità antitrust.
-) pratica delle vendite abbinate: copre diverse tipologie di vendita in cui due o più beni sono venduti
congiuntamente e non si riferisce necessariamente a prodotti collocati in fasi consecutive di uno stesso
processo o filiera produttiva. Alcuni casi di tying e bundling sono stati già esaminati.
b. Modelli dinamici: il grado di integrazione verticale di una industria può variare nel tempo in funzione della
fase del ciclo di vita che lo stesso settore si trova ad attraversare. È questo l’approccio di Stigler, che
formula un modello in termini dinamici sulla base del teorema smithiano per il quale “la divisione del lavoro
è limitata dall’ampiezza del mercato”. In una prima fase di crescita del settore le imprese tendono a svolgere
internamente tutte le attività intermedie e complementari connesse con la produzione dell’output finale, in
quanto il mercato dei prodotti intermedi è limitato dallo sviluppo ancora modesto dell’industria di sbocco.
Nonostante vi siano rendimenti crescenti, a un’impresa non conviene specializzarsi in quanto incorrerebbe in
rilevanti costi fissi che non potrebbero distribuirsi su un output elevato. Dato un mercato sufficientemente
ampio, le attività con tali diverse relazioni costo-scala possono essere esternalizzate a produttori specializzati.
Nei primi e negli ultimi stadi dello sviluppo di una industria, secondo Stigler, il mercato può essere troppo
piccolo per supportare i produttori indipendenti, ed in questo caso l’integrazione diviene una scelta obbligata
alle imprese dell’industria.
Quando l’industria si espande, le imprese tenderanno a disintegrarsi verticalmente specializzandosi nella loro
attività core e a rivolgere a uno sviluppato mercato dei prodotti intermedi. A mano a mano che una industria
si sviluppa e raggiunge la fase di maturità, si sviluppano nuovi prodotti che riducono gran parte della
domanda del prodotto originale, perciò il settore si riduce, di conseguenza le imprese si integrano di nuovo
verticalmente.
A conclusioni simili a quelle di Stigler, con premesse e finalità diverse, arriva anche il modello della
concorrenza dinamica di Steindl; il modello di Stigler è stato criticato da diversi autori, da Adelman a
Williamson , che osservava che tale modello prende in considerazione solo i costi di produzione trascurando
quelli di transazione.
Capitolo 12

I casi della concorrenza. I mercati contendibili.


I casi del monopolio. Il
Monopsonio La concorrenza
monopolistica

Le determinanti della struttura di una industria sono classificate qui in diverse ipotesi di forme di mercato. Obiettivo è
valutare, in maniera coerente al paradigma SCP, le condotte degli operatori e gli effetti in termini di performance ad
esse conseguenti.
La concorrenza perfetta e il monopolio rappresentano due modelli di riferimento nell’analisi dei mercati reali.

I casi della concorrenza. Equilibrio di breve e lungo periodo


Il modello della concorrenza perfetta si basa su cinque ipotesi principali:

1. Struttura del mercato atomistica: imprese sono numerosissime e ciascuna ricopre una quota di mercato così
piccola che la sua condotta non ha alcun impatto significativo sulle altre e sul mercato.
2. Omogeneità del prodotto: prodotti offerti sono perfetti sostituti e quindi ciascun consumatore è indifferente
ad acquistare da una impresa piuttosto che da un’altra, a parità di prezzo.
3. Informazione perfetta: conoscenza perfetta circa prezzi, qualità e caratteristiche tecnologiche del prodotto.
4. Libertà di accesso e di uscita dal mercato e completa mobilità dei fattori di produzione: le imprese possono
entrare e uscire senza incorrere in costi rilevanti; i fattori produttivi possono spostarsi senza costo da un
mercato ad un altro e le materie prime e le altre risorse di produzione non sono controllate da pochi
operatori.
5. Price taking: ciascuna impresa considera come dato il prezzo di mercato, dato che fissando un prezzo
maggiore a quello applicato dalle altre perde l’intera quota di mercato. Se invece fissa un prezzo inferiore,
acquista l’intera domanda di mercato a fronte di una capacità produttiva considerata costante nel periodo di
mercato. L’impresa quindi individua il livello di produzione ottimale considerando una curva di domanda
individuale perfettamente orizzontale. Lungo questa curva, il prezzo eguaglia il costo marginale ( p = MR).
Considerato che l’impresa sceglie il suo livello di produzione ottimale nel punto in cui MR=MC, si deriva la
regola ottimale sulla base della quale in concorrenza il prezzo eguaglia il costo marginale.

Tali ipotesi richiedono a loro volta alcune condizioni corollario, le più importanti delle quali sono:

 Perfetta divisibilità della produzione: condizione legata alla tecnologia di produzione, ed implica che la singola
impresa possa produrre e il singolo consumatore possa acquistare una singola unità o una frazione
sufficientemente piccola di produzione.
 Assenza di esternalità: garantisce che ogni impresa sostenga tutti i costi associati alla sua attività di
produzione e non abbia la possibilità di passare parte di essi su altri operatori del mercato.
 Perfetta trasparenza del mercato: implica che le imprese e consumatori non sostengano costi particolari per
operare nel mercato ed acquisire su di esso le informazioni rilevanti.

Nel definire il processo di aggiustamento che porta imprese price taker ad individuare il proprio livello ottimale di
produzione dato il prezzo di mercato, è stato introdotto il concetto di periodo di mercato (spot market), durante il
quale la quantità offerta dalle imprese può essere considerata costante. Il prezzo di mercato sarà determinato dalla
classica curva di domanda negativamente inclinata e da una funzione di offerta rappresentata da un retta
parallelamente verticale.
Quando si passa ad analizzare la posizione delle imprese nel breve periodo, la curva di offerta rispecchierà per ogni
impresa la soluzione ottimale individuata nella relazione p = MC: ciascuna impresa price taker, dato il prezzo di
mercato, individua il livello produttivo in corrispondenza del quale questo eguaglia i costi marginali. L’equilibrio di
breve periodo, in corrispondenza dell’intersezione tra domanda e offerta, può determinare una situazione di profitto
per le imprese in quanto il prezzo è superiore al costo medio dell’impresa. Questa è una situazione è temporanea
perché i profitti registrati nel mercato attireranno l’ingresso di nuovi operatori; grazie al meccanismo dell’uscita, è
temporanea anche la situazione di perdita eventualmente determinata dall’equilibrio del mercato.
Nel lungo periodo, la presenza di profitti nel settore indurrà l’ingresso di un numero considerevole di imprese che
produrranno allo stesso livello di costo delle imprese già operanti nel mercato. L’equilibrio per la singola impresa è
definito dal punto in cui il prezzo p* è uguale al livello minimo dei costi medi totali e in corrispondenza della quantità
q*. Il livello p* è definito dal punto di intersezione tra la domanda D e la curva di offerta di lungo periodo del
mercato.

Equilibrio di concorrenza e funzioni di produzione


Nel definire equilibrio di breve e lungo periodo, le curve di offerta del mercato sono state rappresentate come la
somma orizzontale delle curve di offerta individuali delle imprese. Importante ipotesi che rende valida la
formulazione è che le curve di offerta dei fattori produttivi siano perfettamente elastiche: se si verifica un aumento o
una diminuzione della produzione di tutte le imprese del settore considerato, il prezzo dei fattori rimanga invariato. Se
invece l’espansione della produzione di un intero settore fa salire i prezzi di alcuni fattori, le curve dei costi delle
singole imprese si spostano verso l’alto e quella di offerta di breve periodo diventa meno elastica. Nel lungo periodo,
se l’aumento della produzione determina un aumento dei prezzi dei fattori, la curva di offerta tende a crescere e
diventa inclinata positivamente.
Un secondo importante fattore attiene alla funzione di produzione. L’analisi dell’equilibrio di breve e di lungo periodo
riportata presuppone l’impostazione classica basata su una funzione di produzione caratterizzata da rendimenti di
scala costanti. Questa ipotesi contribuisce a determinare la situazione nella quale in corrispondenza della quantità di
equilibrio, Q*, tutte le imprese n* sono in grado di operare al livello minimo dei costi medi AC. In ipotesi di prezzi dei
fattori produttivi costanti, la presenza di rendimenti di scala costanti garantisce che tutte le imprese, dopo aver
raggiunto la DOM, non avranno un incentivo ad aumentare la propria scala produttiva o a diminuirla per incorrere in
diseconomie.
L’ipotesi di rendimenti di scala costanti è fondamentale nel determinare la stabilità delle soluzioni di equilibrio.

Stabilizzazione dei mercati concorrenziali. “Futures” e “floor prices”


Appare realistico ipotizzare che mutamenti nelle abitudini di consumo possano determinare spostamenti nella curva
di domanda. Questi fattori introducono elementi di instabilità nei prezzi e nelle quantità prodotte e rendono più
problematico il processo di convergenza verso l’equilibrio di lungo periodo. È utile a prevedere gli effetti di variazioni
nella produzione e nei prezzi il modello dinamico noto come “teorema a ragnatela”. Nei settori dove tali effetti sono
potenzialmente rilevanti e rendono fortemente instabili i mercati dei prodotti, il rischio è che le variazioni di prezzo
siano tali da compromettere la sopravvivenza stessa del settore. In tali ipotesi gli interventi di sostegno da parte del
governo fissano un prezzo di intervento (floor price) per evitare che il prezzo di mercato scenda al di sotto del livello
soglia mettendo in crisi il settore.
Una soluzione alla evidenziata instabilità dei mercati concorrenziali e alla incertezza che ne deriva per gli operatori è
rappresentata, per molti importanti settori dell’economia moderna, dai futures. Il contratto future attribuisce al
sottoscrittore il diritto e l’obbligo di acquistare o vendere un determinato bene o strumento finanziario (commodity o
financial futures) ad una scadenza prefissata (settlement\expiration day); si tratta di un contratto standardizzato
negoziato in mercati amministrati per effetto del quale alla scadenza le quantità vendute\acquistate sono
acquisite\consegnate dall’operatore del mercato al prezzo prefissato. È frequente che il contratto venga negoziato
prima della scadenza o annullato mediante l’acquisto di un contratto che riconosce una posizione opposta a quella del
contratto originario. In questo caso, i futures offrono agli operatori una copertura assicurativa da indesiderate
variazioni di prezzo.

I mercati contendibili
Difficile riscontrare nel mercato la maggioranza delle ipotesi su cui si basa il modello di concorrenza perfetta.
Pensando ad esempio a settori produttivi caratterizzati da economie di scala e limitate quantità di output domandate:
tali ipotesi sono compatibili di una o poche imprese che possano efficientemente operare nel mercato.
Tuttavia il meccanismo dell’entrata e dell’uscita è determinante nel garantire che la concorrenza funzioni e produca i
risultati analizzati. Il meccanismo funziona in assenza di costi di ingresso o di uscita (sunk cost) e nell’ipotesi che tutti
gli operatori possano avere libero ed agevole accesso al mercato delle materie prima: in questo caso si parla di
mercati perfettamente contendibili (Baumol, Panzar e Willig). In un mercato così descritto l’equilibrio di concorrenza
perfetta è sostenibile se nessun potenziale entrante ha la possibilità di ottenere dei profitti.
Se il mercato presenta opportunità di profitto, un potenziale concorrente potrebbe entrare e realizzare un guadagna
prima che i prezzi cambino, e quindi uscire senza costo se le prospettive future non sembrano favorevoli: in questo
caso il mercato è vulnerabile ad una concorrenza del tipo hit and run. Il meccanismo dell’entrata descritto garantisce
che anche industrie con RDS crescenti riportino comportamenti perfettamente competitivi.
I monopoli
Modello si basa sull’ipotesi che in un mercato caratterizzato da un prodotto per il quale non sia possibile individuare
prodotti sostituti, operi una sola impresa. Il vantaggio acquisito dal monopolisti può anche essere protetto, in
particolari casi, da specifici interventi dello Stato.
La motivazione più significativa al monopolio resta quella cosiddetta del monopolio naturale. Una impresa vi si trova
se può produrre la quantità Q di mercato ad un costo inferiore a quello che caratterizzerebbe la produzione di un
numero k di imprese che si dividono in parti uguali la quantità Q.
La presenza di costi medi decrescenti e di costi marginali costanti o decrescenti in corrispondenza della quantità di
mercato Q determina la condizione di subadditività della funzione di costo: tali proprietà e le economie di scala
quindi possono determinare la presenza di monopoli naturali. I settori dell’elettricità, gas, telecomunicazione, e
comunque in generale quelli caratterizzati dall’utilizzo di network trasmissione\trasporto sono stati a lungo etichettati
come monopoli naturali per gli elevati costi fissi e per costi marginali decrescenti o costanti.

Equilibrio monopolistico
Il monopolista stabilisce il livello di prezzo e di output in funzione della massimizzazione del proprio profitto. La curva
di domanda di mercato, D = p(Q), coincide con la curva di domanda del monopolista: quest’ultimo sceglierà la quantità
che desidera vendere determinando in modo automatico sulla curva di domanda il prezzo a cui gli acquirenti sono
disposti ad acquistarla, oppure fisserà il prezzo e quindi la quantità individuabile ad esso corrispondente.
Se il monopolista vuole scegliere Q al fine di massimizzare il profitto, considerata la curva di domanda negativamente
inclinata p = a – bQ e la funzione di costo C(Q), la condizione di primo ordina determina tali relazioni:
max 𝜋(𝑄) = (𝑎 − 𝑏𝑄)𝑄 − 𝐶(𝑄)
𝑑𝜋
𝑑𝐶
𝑑𝑄 = (𝑎 − 2𝑏𝑄) − = 𝑀𝑅 − 𝑀𝐶 = 𝑂
𝑑
𝑄
L’equilibrio del monopolio è individuato nel punto in cui il ricavo marginale eguagli i costi marginali.
Se l’elasticità della domanda al prezzo è molto alta (curva molto elastica) una piccola variazione di prezzo determina
una rilevante diminuzione delle quantità. L’effetto sulla quantità domandata diviene meno rilevante in presenza di
una curva di domanda più rigida. Se la domanda fosse completamente anelastica, non sarebbe possibile soddisfare la
condizione di massimizzazione del profitto. Questa conclusione è valida per un semplice modello statico, che non
tiene conto del fatto che la domanda dei consumatori, pur essendo molto rigida nel breve periodo, può subire
mutamenti nel tempo. In tale ottica, il monopolista potrebbe non sfruttare i vantaggi di operari nel tratto anelastico
della curva di domanda di breve periodo.

Costi e benefici del monopolio


La possibilità di restringere l’output e di incrementare i prezzi determina due effetti sul benessere sociale (social
welfare: somma del surplus del produttore e del surplus del consumatore) rispetto ad un equilibrio di concorrenza:

1. Primo effetto del passaggio ad una situazione di monopolio è redistributivo e si sostanzia in un trasferimento
di surplus dal consumatore al produttore pari al profitto che questi è in grado ottenere.
2. Perdita secca per il consumatore, non trasferita al produttore, che deve rinunciare all’acquisto del bene.

La perdita secca di benessere fino a qui è stata definita sulla base della formulazione di Harberger (1954), che utilizza
stime dei parametri della curva di domanda marshalliana dei singoli settori per derivare una approssimazione lineare
di tale area nella formulazione:
1
𝑏𝑐𝑒 = (𝑝𝑚 − 𝑝𝑐)(𝑞𝑚 − 𝑞𝑐)
2
L’elasticità della domanda al prezzo quindi è il parametro determinante nella definizione della perdita secca. Si osserva
però che l’effetto dell’elasticità della domanda sulla misura della perdita secca non è sempre univocamente
determinabile. In particolare un aumento del mark-up non necessariamente si traduce in un aumento della perdita
secca.
Situazioni di monopolio caratterizzate da elevati mark up coincidono con quelle caratterizzate da una bassa elasticità
della domanda al prezzo: ciò implica che aumenti anche significativi del prezzo non hanno un impatto rilevante in
termini di quantità domandate, e quindi di perdita secca di benessere, ma si traducono in ingenti trasferimenti
monetari dal consumatore al produttore, che non sembrano avere nessun effetto sulla misura della perdita secca
proposta da Harberger. Il metodo da quest’ultimo proposto si basa sullo strumento della curva di domanda
marshalliana, l’approccio utilizzato è quello dell’equilibrio economico particolare.
Lungo una curva di domanda marshalliana l’utilità del consumatore non è costante. La definizione di una curva di
domanda hicksiana, che attraverso variazioni compensative mantiene costante l’utilità del consumatore,
consentirebbe di incorporare nel confronto anche l’effetto dell’elasticità al reddito della domanda del bene
considerato.
La dimensione di equilibrio economico particolare non consente di includere nel calcolo della perdita secca l’effetto
che ha il trasferimento del reddito monetario al monopolista sia sulla quantità domandata di altri prodotti e quindi
sugli output di equilibrio in altri settori sia sul livello di utilizzo dei fattori produttivi.
In una prospettiva più ampia di equilibrio economico generale, il valore della perdita secca indotta dalla
monopolizzazione dipende non solo dalla elasticità della domanda del bene considerato al prezzo, ma anche dalle
elasticità al reddito e dalle elasticità incrociate delle domande di tutti i beni. Inoltre, come evidenziato nell’analisi
critica di Bergson, il passaggio al monopolio di uno o più settori compromette il pieno utilizzo dei fattori produttivi se
si considera il reddito reale dei consumatori. Una valutazione effettuata in un contesto di equilibrio economico
generale sarebbe preferibile al fine di non sottostimare la perdita effettiva di benessere sociale associata ad una
situazione di monopolio. È innegabile che la formulazione analitica di tale problema richiede semplificazioni che
risultano altrettanto restrittive di quelle necessarie a giustificare l’approccio dell’equilibrio economico particolare.
Dal punto di vista applicativo quindi il metodo proposto da Harberger è quello che consente, nonostante i suoi
limiti, una valutazione empirica del valore della perdita secca di benessere. Tale analisi si sviluppa dal lato della
domanda ipotizzando che l’impresa in monopolio e quella in concorrenza abbiano la stessa curva di costi marginali.
Tullock e Posner sostengono che la stima della perdita di benessere è sottostimata se non si considerano i costi
necessari all’ottenimento ed al mantenimento del potere monopolistico: questi costi assumono la forma di un eccesso
di capacità produttiva o di eccessivi investimenti in pubblicità e differenziazione del prodotto.
Un’alta fonte dei maggiori costi del monopolio è quella relativa alle inefficienze intrinseche al processo produttivo
che caratterizza tale forma di mercato.

Il monopsonio
Sotto un profilo teorico, il monopsonio (un compratore e pluralità di venditori) rappresenta un caso perfettamente
speculare di quello monopolistico.
Il monopsonista limita i propri acquisti alla quantità che fa coincidere il costo marginale del fattore acquistato con la
sua produttività marginale. La restrizione della quantità domandata rispetto a quella che sarebbe offerta in condizioni
di mercato concorrenziale ha l’effetto di ridurre il prezzo, non di aumentarlo come avviene in monopolio. Di
conseguenza, l’area del sovrapprofitto del monopsonista è maggiore di zero. Fra i casi classici che dovrebbero ricadere
nella forma di mercato monopsonistica, oltre al mercato del lavoro, e delle commesse pubbliche, vi sono in generale i
settori che si trovano a monte di industrie fortemente concentrate.
E’ altamente inverosimile che il monopsonista si limiti a restringere i propri consumi per ottenere un sovrapprofitto.
Per questo motivo i prezzi offerti sono normalmente considerati sulla base di un mark-up positivo. Ciò può dare luogo
ad una fonte di notevoli inefficienze che derivano dalla mancata spinta concorrenziale nel settore. Il monopsonista
quindi tende ad intervenire sulla struttura dei propri fornitori, in modo da determinare oltre alle condizioni di prezzo
che ne garantiscono la sopravvivenza, anche prezzi di fornitura più contenuti.

La concorrenza monopolistica
La teoria della curva di domanda di Chamberlain propone della concorrenza monopolistica come una valida
alternativa al modello di concorrenza perfetta quando si abbandona la ipotesi di perfetta omogeneità dei prodotti
rivali. La concorrenza monopolistica conserva tutte le caratteristiche esaminate nel caso della concorrenza perfetta
ad eccezione del fattore strutturale e strategico individuato nella differenziazione del prodotto.
Le ipotesi del modello di Chamberlain sono:

 Nel mercato ci sono molti produttori e il prodotto di ciascuno di essi, per quanto differenziato, sia un
sostituto sufficientemente buono di quello degli altri
 Numero delle imprese sia sufficientemente elevato da generare in ciascuna impresa l’aspettativa che le
proprie azioni sfuggano ai concorrenti, che non hanno la possibilità di adottare misure ritorsive contro di essa
 La curva di domanda e le funzioni di costo siano le stesse per ciascuna impresa del gruppo.
Si ritiene che il settore del commercio al minuto abbia molte delle caratteristiche della concorrenza monopolistica. Il
prodotto può essere caratterizzato da fattori di differenziazione spaziale. Vi sono esempi altrettanto significativi di
prodotti che si differenziano per caratteristiche intrinseche: esempio ristorante di cucina cinese e di cucina italiana; la
diminuzione del prezzo da parte di una impresa non necessariamente produce, come in concorrenza perfetta, l’effetto
di sottrarre quote di mercato ai concorrenti. Per aumentare le sue vendite, l’impresa dispone di tre leve: può agire
sulla variazioni di prezzo, sulle caratteristiche del prodotto, sulla spesa pubblicitaria e promozionale.

L’equilibrio nella concorrenza monopolistica


La singola impresa è in qualche misura price maker e adotta le proprie decisioni di prezzo e quantità lungo una curva
di domanda residuale negativamente inclinata, che mostra le quantità che l’impresa potrà vendere se pone un prezzo
diverso da quello attuale e mentre le altre imprese mantengono i prezzi esistenti.

Osservazioni critiche al modello di Chamberlain


Concorrenza monopolistica offre un modello di analisi delle forme di mercato intermedie fra concorrenza perfetta e
monopolio. Le sue ipotesi tuttavia sono state oggetto di critiche che hanno rimarcato la distanza del modello dal
funzionamento dei mercati reali. Stigler critica il concetto di gruppo di imprese, osservando che la sua definizione è
ambigua e in contraddizione con l’ipotesi di differenziazione del prodotto. Se si sostiene la sostanziale analogia delle
curve di domanda e di costo delle imprese che compongono il gruppo, il gruppo deve necessariamente essere definito
in modo da comprendere solo imprese che vendono prodotti omogenei.
Harrod sottolinea che il processo che porta alla definizione dell’equilibrio di lungo periodo si basa su un procedimento
che utilizza una curva dei costi marginali di lungo periodo ed una curva di ricavo marginale di breve periodo. Ciò
determina la fissazione di un prezzo sufficientemente alto da indurre ingresso di nuove e imprese e il successivo
spostamento verso il basso della nuova curva di ricavo marginale. Analisi di Harrod cerca di dimostrare che il margine
di capacità utilizzata è minore di quello riportato nella formulazione originaria.
Capitolo 13
Le politiche di prezzo.
Tecniche e strategie delle imprese “price maker”

Rappresentano una variabile comportamentale delle imprese che si riflettono nelle performance. Sotto il profilo della
formazione dei prezzi sono fondamentali delle distinzioni relative alle caratteristiche di:

 Prodotto e mercato: possono essere classificati in due grandi categorie: > commodities: merci scarsamente o
non differenziate. Si tratta principalmente di prodotti naturali, ma anche di molti prodotti della
trasformazione industriale. L’equilibro in questo caso è assicurato dalle variazioni dei prezzi, i quali
aggiustano le quantità offerte e domandate assicurandone l’uguaglianza. In questo caso le imprese non
hanno alcuna discrezionalità nella formazione dei prezzi.
> products (o customs): prodotti per i quali la differenziazione ha un ruolo rilevante nel determinare le scelte
dei consumatori. In questo caso si deve distinguere fra imprese che hanno discrezionalità nella formazione
(price maker) e quelle che possono solo subire passivamente le decisioni altrui (price taker). Per le seconde le
decisioni riguardano solo la quantità da produrre in funzione del prezzo corrente sul mercato, per le prime si
pone il problema di come formare il prezzo di vendita.

Per quanto riguarda la formazione del prezzo di vendita, tale problema va scomposto in due profili:

 Tecniche di formazione, ovvero i criteri con i quali le imprese price maker procedono: secondo una celebre
indagine, condotta da due economisti di Oxford, gli imprenditori ed i dirigenti d azienda hanno scarsa o
nessuna familiarità con i concetti che caratterizzano la teoria del prezzo.
 Strategie, cioè le finalità che si propongono di raggiungere attraverso le politiche di prezzo.

Il metodo più frequentemente usato è quello del full cost pricing, che consiste nel rilevare i costi di produzione
direttamente imputabili al prodotto, e ad aggiungere a questi un ricarico (mark-up) sufficiente a coprire i costi non
direttamente attribuibili al prodotto e a far conseguire un margine di profitto normale (circa 10% del valore della
produzione). Tale tecnica può essere applicata con una serie di variazioni:

1. Gross margin: riscontrato nel commercio, si applica il mark up ad un solo costo di produzione.
2. ROI margin: obiettivo è costituito da un dato rendimento sul capitale investito invece che da un dato argine di
profitto sul valore della produzione.
3. Flexible mark-up: il margine di ricarico può essere considerato alla stregue di una indicazione, in base
alla quale si procede poi alla definizione del prezzo tenendo conto delle reazioni di mercato e
concorrenti.
4. Direct costing: metodo più funzionale per le imprese multiprodotto. Con tale variazione ci si limita a calcolare
il costo diretto di una produzione, affidando alla funzione del marketing la scelta della combinazione ottimale
di prezzo-qualità-pubblicità.

Nonostante l’apparente tra prassi (effettive modalità di fissazione dei prezzi) e teoria (principi generali
microeconomici), in realtà i due aspetti risultano molto meno distanti. Si consideri che secondo la formula del full cost
pricing il prezzo è determinato da p = v + k, dove v sono i costi variabili diretti e k è la quota di imputazione dei
costi indiretti fissi e del margine di profitto considerato. Si consideri inoltre che k = K/q, dove K rappresenta il totale
dei costi da ripartire.
Essendo q = f(p), occorre di necessità avere introdotto qualche relazione fra quantità e prezzo, introducendo i concetti
di elasticità e ricavo marginale.
Applicando il concetto di margine normale, si anticipano le reazioni del mercato e dei propri concorrenti
incorporandole nelle proprie decisioni di prezzo. Nella prassi la formazione del prezzo rappresenta il punto
terminale di un procedimento che si svolge per tentativi o successive approssimazioni.

Gli obiettivi delle politiche di prezzo


Obiettivo è la massimizzazione del profitto dell’impresa, che corrisponde alla combinazione prezzo/quantità dove il
ricavo marginale è uguale al costo marginale. Gli imprenditori però paiono piuttosto orientati a formare i prezzi con
l’obiettivo di conseguire un profitto “normale”. Questa contraddizione può essere spiegata dai differenti orizzonti
temporali presi in considerazione dalla teoria del prezzo e dagli imprenditori reali. Se nel primo caso l’orizzonte è
istantaneo, nel secondo ciò che si tende a massimizzare è il valore dell’impresa, che risulta dal flusso attualizzato dei
profitti che verranno conseguiti. Se l’orizzonte è prolungato ad un tempo sufficientemente ampio la fissazione del
prezzo da parte di una impresa deve necessariamente tenere conto della sostituibilità dei prodotti nel breve e nel
lungo periodo e delle reazioni delle altre imprese incombenti.

Obiettivi di specifiche politiche di prezzo

a. Vintage pricing: consiste nel praticare prezzi che consentano di recuperare nel più breve tempo possibile il
capitale impiegato per lo sviluppo del prodotto. Il periodo di recupero dell’investimento iniziale è detto
payback period:
𝑃𝐵𝑃 = 𝐼
(𝑝 − 𝑐 )𝑞
La logica che sostiene questa politica è quella di cautelarsi contro il rischio che nuovi competitori possano
entrare nel mercato, con la conseguente flessione dei prezzi, prima che l’intero importo dell’investimento
iniziale dell’impresa incombente sia stato recuperato.
b. Prezzi di penetrazione: logica opposta, risultano inferiori al prezzo di equilibrio allo scopo di facilitare la
diffusione del consumo di un particolare prodotto salvo poi rialzare i prezzi per ritornare ad un livello
ottimale, quando i consumi si stabilizzano. Politica utilizzata quando il prodotto è destinato a scalzarne un
altro la cui abitudine al consumo è già radicata, e anche quando è molto elevata la proporzione dei costi fissi
sui costi totali e quando vi sono rilevanti economie di scala. Un prezzo di penetrazione dovrebbe collocarsi fra
i costi marginali ed i costi medi, al disotto dei quali si trova la politica dei prezzi predatori.
c. Prezzi predatori: ha come obiettivo la restrizione del numero dei concorrenti e consiste nel praticare prezzi
tali da eliminare o escludere i concorrenti, salvo sfruttare la posizione dominante che si sarebbe raggiunta.
La ratio consiste nel ritenere che la rendita monopolistica che conseguirebbe all’eliminazione delle imprese
predate sia superiore alle perdite sostenute nella fase di predazione per mantenere i prezzi al disotto dei
costi di produzione. Secondo la regola di Areeda e Turner, la prova di politiche predatorie consisterebbe
nell’osservare prezzi che si mantengono al disotto dei costi marginali variabili di produzione in maniera
stabile.
d. Prezzi limite: consistono nel fissare un prezzo e una quantità di produzione corrispondente in modo che la
domanda residuale per le imprese sia uguale a zero. Ciò può verificarsi sia per i vantaggi assoluti di costo sia
per effetto del postulato di Sylos.
e. Prezzi discriminatori: pratica che si fonda sulla esistenza di diversi valori di elasticità nelle curve di domanda
individuali o di gruppi di consumatori la cui somma costituisce la domanda del mercato. La discriminazione
può essere temporale quando i prezzi praticati tendono a sottrarre la maggiore quota possibile della rendita
del consumatore, praticando prezzi via via decrescenti al crescere del mercato, oppure spaziale e per
categoria di clienti.

Vendite connesse (bundling) e vendite trainate (tying)


Spesso accade che una impresa subordini la vendita di una bene alla condizione per la quale un cliente acquisti
contemporaneamente anche un altro prodotto o servizio, eventualmente complementare al primo (bundling puro:
esempio è la pratica degli editori di abbinare alla vendita dei quotidiani una rivista collegata), in altri casi il venditore
offre una alternativa tra acquistare separatamente singoli beni ed acquistarli insieme ad un prezzo scontato
(bundling misto: esempio giornale più dvd, cliente può scegliere).
I casi di vendite connesse sono spesso considerati una necessità di mercato piuttosto che una opzione di marketing. In
tutti i casi di bundling i beni abbinati sono offerti in proporzioni fisse. Una tipologia differente è la pratica delle vendite
trainate; acquistando il prodotto primario (trainante) il cliente si impegna ad acquistare dallo stesso venditore un
secondo bene (trainato). L’impegno può avere natura contrattuale o tecnologica. Nelle vendite trainate la
proporzione tra beni abbinati è generalmente variabile, in quanto legata alla scelta di consumo del cliente (esempio
tipico è quello delle macchine fotocopiatrici).
Le scelte di bundling e tying (proporzioni fisse e variabili) possono essere realizzate attraverso vincoli contrattuali,
oppure mediante l’integrazione tecnologica dei beni abbinati. Questa seconda soluzione costituisce una forma di
connessione più forte, dato che vincola non solo le scelte dell’acquirente ma anche quelle del venditore.

-) le motivazioni legate all’efficienza: in alcune circostanze l’offerta di beni o servizi in abbinamento è motivata dal
contenimento dei costi o dal miglioramento della qualità offerta. Bundling e tying sales, secondo la letteratura
economica, possono generare effetti socialmente desiderabili, anche significativi. Il risparmio di costo può riguardare
anche il produttore o il venditore, quando le pratiche di bundling o tying permettono lo sfruttamento di economie di
ampiezza di gamma nella fase di produzione o distribuzione. Studi empirici dimostrano che i risparmi possono essere
sostanziali e i vantaggi sono direttamente trasferiti al consumatore, in termini di prezzi più bassi.
Il venditore inoltre potrebbe anche avere un’altra ragione per imporre o incentivare l’acquisto di beni in blocco:
preservare la reputazione dei propri prodotti.
Le pratiche di bundling e tying possono costituire un efficace strumento di discriminazione ed avere effetti ambigui sia
sull’efficienza che sul benessere aggregato.

-) Bundling e discriminazione del mercato: offerto da Stigler (articolo del 1963) un importante contributo all’analisi
delle vendite connesse come meccanismo di discriminazione del mercato. L’economista americano osservava che
anche in assenza dei vantaggi di costo o di complementarità nel consumo, il bundling può separare i consumatori in
gruppi omogenei, consentendo al venditore di estrarre una maggior porzione della loro rendita. La condizione
necessaria affinché la discriminazione tra diverse tipologie di clientela sia efficace e profittevole è che le preferenze
relative siano inverse fra differenti gruppi di clientela. È necessario cioè che le rispettive domande siano correlate
negativamente e dunque che i consumatori con maggiore disponibilità all’acquisto di un prodotto siano meno
disponibili all’acquisto di altri prodotti correlabili. La vendita in blocco consente al venditore di forzare ciascuna
tipologia di clientela ad acquistare, insieme a quello preferito, anche i beni meno desiderati.

-) Effetti e convenienza del bundling come pratica discriminatoria. Il modello di Adams e Yellen: analisi di Stigler
appare incompleta su tre fronti:

a. Assume pochi gruppi di consumatori ben identificati nelle loro preferenze


b. Trascura i costi di produzione
c. Non include il bundling misto nel set di possibili strategie commerciali del venditore.

Adams e Yellen (1976) nel loro modello confermano le ipotesi che il venditore offra due soli beni e che ciascun
acquirente attribuisca al consumo contemporaneo di entrambi un valore pari alla somma dei singoli valori soggettivi.
La loro analisi dimostra che:

 Il bundling puro è preferibile alla vendita separata quando il beneficio di una maggiore estrazione della
rendita dei consumatori attivati sopravanza l’effetto negativo delle minori vendite effettuabili nei singoli
mercati e quello di indurre di indurre alcuni clienti ad acquistare beni valutati meno del loro costo
(problemi dell’inclusione e dell’elusione). Ciò si verifica tanto più le valutazioni individuali per i singoli beni
sono negativamente correlate e quanto minori sono i costi marginali di produzione e vendita degli stessi.
 Il bundling misto è preferibile a quello puro quando i costi di produzione sono elevati e\o quando le domande
sono correlate negativamente in modo imperfetto. Il vantaggio è quello di consentire una alternativa,
operando quale meccanismo di discriminazione indiretta tra diverse categorie di clienti.

-) Le vendite tying come meccanismo di misurazione e discriminazione: le caratteristiche operative delle vendite
trainate permettono di misurare implicitamente la intensità d’uso individuale del bene trainante e quindi di praticare
prezzi complessivi differenziati in funzione del suo grado di utilizzo. Le pratiche tying di fatto replicano il meccanismo
operativo delle tariffe a due stadi: modulando adeguatamente la componente fissa e la componente variabile è
possibile discriminare tra consumatori in funzione della diversa intensità d’uso.
L’effetto complessivo delle pratiche di tying sul benessere aggregato è positivo quando consentono di accrescere la
domanda, stimolando l’acquisto di quanti altrimenti si sarebbero astenuti. Il bene trainante può essere venduto infatti
ad un prezzo più basso, proprio allo scopo di invogliare l’acquisto dei clienti che ne fanno un uso meno frequente.

-) Bundling e tying come strumenti di estensione delle posizioni dominanti. Il Smpt della scuola di Chicago: proprio a
causa del possibile utilizzo come strategie di monopolizzazione, tali pratiche hanno spesso sollecitato l’interesse delle
autorità antitrust internazionali, interessate a prevenire possibili esiti di indebolimento della concorrenza. Sul piano
dell’evoluzione storica, la diffidenza verso tali pratiche ha radici nella “teoria della leva”, popolari agli inizi del secolo
scorso. La logica è relativamente semplice: tramite bundling o tying una impresa dominante in un mercato può
estendere la dominanza ad altri mercati utilizzando come leva il potere di mercato già detenuto. La teoria della leva si
risolve in una valutazione contraria verso qualsiasi forma di bundling o tying sales praticata da imprese dominanti. In
realtà, tale teoria poggia su due condizioni essenziali, non sempre verificate nella prassi:

a. Impresa che propone tali pratiche deve essere dominante e condizionare la vendita del bene per il quale è
dominante a quella di un altro prodotto trainato; condizione tautologica, l’effetto leva presuppone di per sé
una posizione dominante su cui far leva per realizzare finalità di esclusione.
b. Quest’ultimo bene trainato non deve avere usi alternativi, se non marginali, a quello in combinazione con il
prodotto trainante.

A partire dai ’70 teoria della leva fortemente criticata dalla scuola di Chicago, nell’ambito di un processo di revisione
della teoria del monopolio; tale critica è nota come “teorema del profitto monopolistico unico” (Smpt, single
monopoly profit theorem). Secondo tale impostazione le pratiche di bundling e tying da parte di imprese in posizione
dominante non si risolverebbero in alcuna duplicazione di profitti monopolistici, potendo anzi risultare come non
profittevoli per le imprese che le adottano.
Le conclusioni Smpt sono profondamente innovative. Se l’estensione del monopolio non determina profitti aggiuntivi,
la scelta del bundling da parte del venditore sarebbe priva di logica, se la pratica non fosse tesa a realizzare i vantaggi
di efficienza descritti in precedenza. La valutazione complessiva risulta pertanto ribaltata: vietare il bundling si
risolverebbe in una riduzione di benessere, in contrasto con le finalità stesse della politica della concorrenza.
Estendere la posizione dominante ad ambiti complementari tramite il bundling non consente di duplicare lo
sfruttamento economico del potere di mercato. il venditore non troverebbe alcuna convenienza nell’estensione del
monopolio.

-) I contributi più recenti della teoria economica: la critica di Chicago ha fortemente influenzato l’elaborazione teorica
successiva e la prassi antitrust degli ultimi anni. Alcuni contributi più recenti della teoria economica hanno messo in
parziale discussioni le conclusioni del Smpt, tentando di dimostrare formalmente che una spiegazione di bundling e
tying sales basata sugli effetti di esclusione non è necessariamente irrazionale, e dipende piuttosto dalle circostanze
concrete. Nella posizione della scuola di Chicago è determinante l’ipotesi di perfetta concorrenza, con l’assenza di
barriere all’ingresso nel mercato trainato o connesso. Contributi tecnici recenti però hanno individuato circostanze
puntuali nelle quali il bundling ed il tying possono determinare realmente effetti anticoncorrenziali, innalzando
artificiali barriere all’ingresso.
Una prima spiegazione dei possibili effetti anticoncorrenziali è offerta da Whinston; quest’ultimo si concentra
sull’effetto di deterrenza all’ingresso nel caso di beni con domanda indipendente: la vendita in bundling consente di
scoraggiare l’ingresso di potenziali rivali in quanto implicitamente comporta che il monopolista del bene principale
adotti politiche aggressive nel mercato connesso, potenzialmente concorrenziale. Il bundling sarebbe irrazionale se
non avesse finalità di deterrenza e non mirasse a ridurre i prezzi e i profitti attesi dei potenziali concorrenti nel
mercato connesso al di sotto del livello necessario all’entrata. Affinché il meccanismo di deterrenza funzioni è però
necessario che l’impegno alla vendita congiunta sia credibile (quando il bundling è realizzato tramite l’integrazione
fisica o tecnologica de beni connessi) e non reversibile. In caso contrario il bundling sarebbe privo di valore strategico.
Analisi di Whinston estesa da contributi successivi. Nalebuff ha dimostrato che in alcuni casi il bundling può
funzionare quale meccanismo di deterrenza all’ingresso indipendentemente dalla credibilità dell’impegno del
venditore, e dalla irreversibilità della decisione stessa di vendita in blocco. In particolare, questo può capitare quando
l’impresa fronteggi il rischio di ingresso non solo nel mercato connesso ma anche in quello principale. L’offerta in
pacchetto fa sì che in ciascun mercato la domanda residuale sia ridotta ai soli consumatori con una più stretta
preferenza per versioni concorrenti Dei due mercati.
Questi due contributi descrivono le condizioni specifiche entro le quali la vendita in abbinamento consente di
escludere concorrenti in mercati contigui a quello del bene principale, caratterizzati da una domanda indipendente.
Diversa è l’ipotesi in cui i beni abbinati siano legati da una relazione di complementarità, nel qual caso le condizioni
per l’esclusione sono più circoscritte.
Choi e Stefanidis considerano un contesto dinamico nel quale l’ingresso di nuovi concorrenti è legato al successo delle
iniziative di ricerca e sviluppo dei potenziali concorrenti. La strategia di bundling puro, secondo tale analisi, riduce
l’incentivo ad investire, rendendo meno probabile lo sviluppo di soluzioni innovative, proteggendo il potere di mercato
dell’impresa che la adotta.
Carlton e Wladman descrivono un meccanismo simile, nel quale l’abbinamento agisce come strumento di deterrenza
all’ingresso nel mercato complementare, assicurando la protezione del monopolio nel mercato principale: una
strategia che si potrebbe definire di “difesa perimetrale”: un’impresa che entri nel mercato complementare con un
prodotto di qualità superiore può decidere successivamente di entrare anche nel mercato principale. Legando però la
vendita dei due beni, l’incumbent accresce i costi di ingresso nel mercato principale ed in quello complementare,
preservando la configurazione monopolistica del primo con modalità analoghe all’ultimo modello analizzato. I due
modelli infatti rendono l’ingresso nel mercato principale strettamente dipendente dal contemporaneo ingresso in
un mercato complementare e dunque assai più improbabile.

-) Bundling e tying: la disciplina antitrust negli USA ed in Europa: le vendite trainate o connesse possono avere esiti
anticompetitivi in pochi casi ben circoscritti agendo come meccanismo di esclusione di concorrenti potenziali o
effettivi. Nella maggioranza dei casi queste tecniche perseguono vantaggi di efficienza (miglioramento qualità
dell’offerta o riduzione dei costi). In altri casi le tecniche finalizzate a discriminare il mercato possono avere esiti
positivi sul benessere aggregato, perché consentono l’accesso al mercato di consumatori che altrimenti esclusi.
Tali pratiche sono tradizionalmente state oggetti di sospetto e ostilità da parte dell’antitrust. Solo recentemente,
grazie alla revisione della scuola di Chicago, è stato avviato un processo di parziale riallineamento tra diritto antitrust e
teoria economica.
Negli Stati Uniti le due tecniche sono oggetto della Section 1 dello Sherman Act e della Section 3 del Clatyton Act. La
giurisprudenza federale ha conosciuto una significativa evoluzione nel tempo, passando da rigide regole di condanna
all’adesione di una rule of reason limitata ai soli mercati ad alto contenuto tecnologico. Tuttavia lo standard legale di
riferimento (Jefferson Pairish 1984) da un lato aderisce al principio di illegalità per se della giurisprudenza più datata,
dall’altro lo integra richiedendo che la illegalità venga dimostrata. Questa evoluzione riflette l’elaborazione teorica più
recente ed il superamento della accettazione della teoria della leva. In particolare negli USA per poter dichiarare
l’illegalità delle pratiche è necessario provare che:

a. I beni legati siano realmente distinti, presentino cioè un’autonoma domanda di mercato
b. Venditore possegga un apprezzabile potere di mercato
c. Connessione risulti imposta all’acquirente
d. Le condotte comportino una sostanziale restrizione degli scambi

Nella giurisprudenza Jefferson Pairish non si richiede alcuna valutazione dei reali effetti anticompetitivi della condotta,
più recentemente invece è stata riconosciuta l’importanza di considerare gli effetti efficientistici, adottando uno
standard di rule of reason. Tale standard consente di indagare l’impatto effettivo sul benessere aggregato, valutando
i possibili effetti anticompetitivi e bilanciando quest’ultimi con i benefici associati pro-concorrenziali o di efficienza.
L’impostazione rule of reason rimane nei fatti ancora una ipotesi eccezionale, circoscritta.
In Europa l’atteggiamento della Commissione e delle Corti si caratterizza per un maggior grado di ostilità, dovuto
all’influenza dominante delle teorie più datate. Lo dimostra la scarsità di casi nei quali le condotte esaminate sono
state ritenute legittime e non condannate. Le vendite connesse o trainate sono analizzate quali condotte unilaterali,
trattate in particolare come tipiche forme di abuso. Nonostante ciò, in decisioni più recenti la Corte ha manifestato un
atteggiamento di maggiore apertura, stabilendo anch’essa quattro condizioni per valutare una infrazione all’art- 82 del
Trattato:

a. Beni combinati realmente distinti


b. Impresa detiene una posizione dominante
c. Non è consentita alcuna alternativa all’acquisto abbinato
d. La condotta esaminata restringe la concorrenza

-) Price rebates, sconti – fedeltà: riduzioni di prezzo accordate a fronte dell’impegno del cliente di approvvigionarsi
esclusivamente o quasi presso un’impresa in posizione dominante. Sul piano sostanziale permettono di realizzare gli
stessi effetti di un accordo di esclusiva. Gli sconti fidelizzanti impediscono che i clienti si riforniscano anche da
produttori concorrenti (finalità di esclusione analoghe al tying).
Anch’esse sono pratiche contrastate dall’antitrust. Se nel breve periodo il cliente ottiene un vantaggio dalla riduzione
dei prezzi, nel medio lungo è possibile un effetto di indebolimento del processo concorrenziale, conseguente alla
monopolizzazione del mercato.
Nel maggio 2009 la commissione europea ha sanzionato Intel con una multa di oltre un miliardo di euro per l’adozione
di pratiche commerciali anticompetitive finalizzate alla monopolizzazione del mercato. Sconti con i clienti produttori
non scritti, ma basati su una sorta di tacita intesa. Intento palese di restringere la concorrenza, essendo finalizzata ad
ostacolare l’accesso al mercato di altri produttori risultando priva di una giustificazione razionale alternativa.
Capitolo 14
Teoria dell’oligopolio
I comportamenti collusivi

Sotto il termine oligopoli si raccolgono forme competitive assai differenziate, tanto da richiedere lo svolgimento di
analisi separate per i vari casi di oligopolio. Se si prendono in considerazione gli aspetti del comportamento delle
imprese che appaiono in oligopolio, si può tentare di dare una definizione di tale forma di mercato che sottolinei gli
aspetti comuni ai diversi segmenti in cui si articola la casistica.
Le caratteristiche fondamentali e comuni delle forme di mercato oligopolistiche sono:

1. Scarsa numerosità delle imprese che operano in un particolare ambito concorrenziale: tale condizione non
esclude che il numero assoluto delle imprese operanti possa essere elevato. Tale condizione va intesa nel
senso che debbono essere poche le imprese che detengono un potere di mercato nell’ambito di settore,
disponendo di un certo margine di discrezionalità nella formulazione delle proprie politiche. Un ambito
concorrenziale si definisce oligopolistico se solo poche imprese si configurano quali leader, mentre la
maggioranza delle unità aziendali opera in condizioni subordinate, subendo in maniera passiva le decisioni
delle imprese leader in materia di prezzi e delle altre variabili discrezionali. Da tale caratteristica deriva che il
prezzo dei prodotti non risulta più una risultante automatica dell’equilibrio fra produzione e consumo. I
prezzi dei settori oligopolistici sono frutto di decisioni autonome delle singole imprese, ma tali decisioni non
sono totalmente arbitrarie: le condizioni di domanda e delle altre variabili influenzano o determinano le
decisioni delle singole imprese. I meccanismi impersonali del mercato sono sostituiti da singoli centri
decisionali, perfettamente identificabili.
2. Decisioni delle singole imprese non possono limitarsi alla conoscenza della domanda del mercato: le singole
imprese, in oligopolio, devono tenere conto delle reazioni delle imprese rivali. La curva di domanda di ogni
impresa dovrà tenere conto della elasticità di sottrazione, l’effetto cioè che una qualsiasi azione di prezzo o
promozionale può avere come conseguenza di variazioni di quote di mercato. La curva di domanda delle
singole imprese dipende quindi da ipotesi relative al comportamento delle altre imprese (curva di domanda
immaginata). Il comportamento delle singole imprese oligopolistiche dipende non soltanto da elementi
oggettivi ma anche dalle ipotesi da formulare circa l’elasticità di sottrazione e circa il comportamento delle
altre imprese partecipanti al processo competitivo.
3. Forme di mercato sono caratterizzate da un elevato grado di incertezza: non esistono posizioni spontanee di
equilibrio competitivo.

Tali caratteristiche sollevano tre gruppi di problematiche, che si concentrano in altrettanti filoni di ricerca ed analisi
teorica:

a. Primo, teorico, riguarda i problemi della formazione e del mantenimento dell’equilibrio oligopolistico.
b. Secondo si apre nell’esplorazione della modalità e delle forme di comportamento collusivo fra gli oligopolisti.
c. Terzo concerne il comportamento delle imprese oligopolistiche di fronte a variazioni dei costi e della
domanda.

Equilibrio negli oligopoli. Formulazioni teoriche


Le costruzioni teoriche possono essere ricondotte a due ipotesi fondamentali che descrivono il comportamento degli
oligopolisti:

a. Ipotesi di Cournot: definisce un comportamento indipendente degli oligopolisti. Posto in condizioni di


incertezza circa le reazioni dei rivali, ciascun oligopolista tenderà a semplificare il problema assumendo che
da parte dei rivali non vi sarà alcuna reazione in occasione di variazioni di prezzo decise dal singolo
competitore. Ciascuna impresa tende a massimizzare il proprio profitto in modo indipendente dagli altri
competitori.
Il saggio di profitto derivante da tale comportamento, esprimibile come rapporto fra prezzo praticato ed il
costo unitario di lungo periodo (PM = ( P – MC)/P), è diretta funzione del numero delle imprese rivali. Il
saggio di profitto del settore diminuisce al crescere di n, variando da un massimo (profitto monopolistico) ad
un minimo (quando le imprese sono molte numerose, settore che opera in condizioni di concorrenza).
Una variante all’ipotesi di Cournot è costituita dal “postulato di Sylos”. Secondo quest’ultimo i competitori si
comportano come se si attendessero dai rivali la reazione più sfavorevole, consistente nel propendere a
mantenere inalterata la propria quota di mercato nel caso di aumento della quantità offerta. In questo
modo è possibile trovare un limite superiore ai prezzi praticabili dagli oligopolisti, ed un limite inferiore alla
produzione complessiva offerta al mercato.
b. Ipotesi di Chamberlain: comportamento opposto a quello previsto da Cournot. Le imprese che operano in un
settore in numero limitato non possono non rendersi conto che le rispettive performance sono
interdipendenti. Ne segue che le imprese fisseranno un prezzo monopolistico che massimizzi i profitti del
settore, ripartendo poi fra loro le quote di mercato secondo tattiche collusive.

Modalità e forme della collusione oligopolistica


Comportamenti intesi a eliminare la caratteristica incertezza che contraddistingue tale forma di mercato e a impedire
che la concorrenza tra le imprese faccia scendere prezzi e saggi di profitto monopolistico del settore, o peggio,
produrre perdite per le imprese medesimo. Obiettivo delle tattiche collusive è il mantenimento del saggio di profitto
al di sopra del livello “normale”. Sono varie le modalità con cui può in concreto verificarsi una tattica collusiva:

a. Accordi formali ed informali: stipulazione di intese volte a limitare o impedire la competizione fra le imprese
che sottoscrivono l’accordo. Accordi possono essere ad esempio relativi a formulazione di una politica
comune di prezzi oppure alla suddivisione del mercato fra i competitori.
Gli accordi sui prezzi rappresentano la forma più blanda di collusione, dato che la definizione di un prezzo
comune di vendita non esclude che imprese possano competere fra loro, differenziando il prodotto oppure
aumentando le proprie capacità produttive. Tali accordi possono o meno essere noti al pubblico. Le difficoltà
obiettive che si incontrano nel mettere in atto politiche collusive relative alla fissazione del prezzo risiedono
sia negli aspetti tecnici degli accordi sia in un problema economico di fondo.
L’accordo sui prezzi porta a formulare infatti un prezzo monopolistico, o comunque un ricavo unitario
superiore al costo unitario di produzione. Non appena avviene ciò però le singole imprese sono stimolate ad
espandere la produzione per massimizzare i profitti, compromettendo la possibilità di mantenere il prezzo
concordato. Può quindi essere necessario sottoporre a controllo anche altre variabili delle politiche
aziendali, estendendo la regolamentazione ai volumi di produzione di ciascuna impresa e del settore nel
suo complesso. Ciò può essere effettuato ricorrendo allo strumento del cartello, che può configurarsi come:
1) cartello obbligatorio: accordo inteso a limitare la produzione delle singole imprese, assegnando a ciascuna
di esse una quota massima di produzione. Può essere più o meno integrato da un consorzio centralizzato di
vendita, che monopolizza la distribuzione del settore. Es. sindacati di vendita formati nel settore dei
fertilizzanti (Seifa in Italia).
2) cartello di offerta: si applica nei settori che producono su commessa, e consiste nell’interporre un
organismo fra i committenti e le imprese, che provvede a raccogliere le ordinazioni e a distribuirle in
proporzione alle quote di mercato storicamente detenute dalle varie aziende facenti parte del settore.
L’obiettivo consiste nel bloccare le singole quote del mercato eliminando ogni incentivo alla riduzione dei
prezzi. Si fa frequente ricorso a questi cartelli quando la produzione del settore sia interamente assorbita da
un monopsonista. L’intento è quello di contrapporre una struttura unitaria al potere contrattuale del
compratore.
3) cartello di razionalizzazione: forma più rigida, consiste nel coordinare i piani di produzione e le politiche di
vendita delle diverse imprese del settore in modo integrato, come se si trattasse di un’unica azienda. Tale
forma penalizza pesantemente le imprese meno efficienti, e richiede un forte grado di controllo delle imprese
più dinamiche sulle altre.
b. Price leadership: si verifica quando il gruppo d’imprese che costituisce l’offerta del settore attribuisce ad una
singola impresa la funzione di stabilire i prezzi di vendita. Vi è una o più imprese che si comportano da price
maker, le altre seguono le sue decisioni passivamente. Esistenza di una price leadership può dipendere
alternativamente da:
-) struttura del settore: in questo caso si parla di price leadership “con impresa dominante”; il settore è
caratterizzato dalla esistenza di una impresa di vaste dimensioni e da un elevato numero di piccole imprese.
Queste non hanno la possibilità di influenzare in alcuno modo il prezzo di mercato; l’impresa leader invece
deve tenere conto non solo della domanda generale, ma anche delle quantità che le imprese minori
offriranno complessivamente al mercato come funzione del prezzo stabilito dall’impresa leader. Tale
situazione oligopolistica conduce ad una posizione di equilibrio determinata. In settori così strutturati il
comportamento collusivo della price leadership è verosimile ed efficace. Maggiori problemi relativi all’uso
che l’impresa dominante fa del proprio potere di mercato (sfruttare rendita proveniente dalla posizione
oppure abusare del potere di mercato).
-) particolare storia del settore: si parla di price leadership “barometrica”; la struttura del settore si presenta
meno definita, non essendo riscontrabili elementi che spieghino in maniera convincente il comportamento
delle imprese, e in particolare la ragione per cui una impresa particolare assume la leadership nella
formazione dei prezzi. Di regola, la spiegazione è da ricercarsi nella storia del settore. L’impresa leader può
essere in passato stata dominante. Tale collusione dà luogo ad un sistema assai meno stabile del
precedente. È sempre possibile che a seguito di un mutamento delle tecnologie o di un cambiamento
nell’andamento della domanda, qualche impresa decida di rifiutare la leadership consolidata; se si verifica ciò
in un settore che ha sperimentato la leadership barometrica, alla rottura segue l’instaurazione di una nuova
leadership.
c. Regole empiriche di decisione – d) punti focali: ultime due forme di collusione hanno origine nella
applicazione generalizzata di schemi decisionali empirici uniformi. Nel caso di determinazione dei prezzi
sulla base dei costi, il comportamento è sostanzialmente collusivo. È classico il caso delle gare d’appalto, in
cui le offerte dei competitori mostrano prezzi equivalenti. Un simile fenomeno può non sottendere
l’esistenza di un cartello di offerta, ma derivare dal fatto che tutte le imprese adottano la medesima
metodologia.

Ostacoli ai comportamenti collusivi


Collusione ha obiettivo di mantenere il saggio di profitto del settore su livelli monopolistici. In concreto numero
ostacoli si frappongono alla collusione, i quali possono derivare dalla legge o dalle caratteristiche dell’economia delle
imprese che operano nel settore. In Europa, la disciplina antitrust è stabilita dalle norme degli artt. 85 (incompatibilità
con il mercato comune degli accordi fra imprese suscettibili di limitare il commercio fra gli Stati membri) e 86 (abuso di
posizioni dominanti) del trattato istitutivo del MEC. La disciplina della CEE pare più orientata al comportamento che
non alla struttura del mercato. Per quanto riguarda il tipo di centralizzazione sanzionata, le rilevazioni CEE mostrano
che la collusione più frequente riguarda gli accordi sui prezzi o sulle condizioni di vendita.
In linea di massima la politica antitrust ha esclusivo riguardo a casi che presentino simultaneamente tali
caratteristiche:

a. Collusione ha manifestazione in un accordo o comportamento delle imprese


b. Politiche restrittive devono interferire con il commercio fra stati membri
c. Gli accordi devono avere effetti negativi sulla concorrenza

Ne deriva che dagli interventi della CEE sono esclusi sia i comportamenti collusivi che hanno effetti limitati ad un
unico ambito nazionale sia le collusioni che hanno come obiettivo il miglioramento delle tecniche produttive e\e
della distribuzione, senza comportare indebolimento della concorrenza del settore.
Le restrizioni legali alle politiche collusive sono piuttosto circoscritte nell’Europa continentale. Tuttavia le possibilità di
colludere possono incontrare forti limitazioni che hanno origine nelle caratteristiche economiche del settore.
Tipicamente gli ostacoli alla collusione oligopolistica sogliono essere messi in relazione ai seguenti fenomeni:

a. Differenziabilità dei prodotti, ovvero esistenza di asimmetrie nelle curve di domanda particolari di ciascuna
impresa: è chiaro che se il prodotto non è rigidamente standardizzabile, un accordo sui prezzi non è
sufficiente per bloccare la competizione fra le imprese. Se i prodotti sono fortemente differenziati, può
essere impossibile stabilire un accordo sui prezzi.
b. Asimmetria nei costi di produzione delle varie imprese: se i costi di produzione sostenuti dalle varie imprese
non sono al medesimo livello, i prezzi preferiti dalle singole imprese differiscono fra di loro. L’accordo sul
prezzo è frutto di un compromesso fra interessi divergenti, e le singole imprese possono decidere di seguire
una linea di azione autonoma, impedendo la collusione.
c. Struttura dei costi di produzione caratterizzata da una elevata quota di costi fissi : tanto maggiore è la quota
dei costi fissi sul totale di costo di produzione, tanto meno è probabile l’affermarsi di un comportamento
collusivo. L’esperienza sembra smentire tutto ciò: fenomeni collusivi sono assai frequenti nei settori di base
dove i costi fissi sono estremamente elevati (siderurgia, minerali). In generale, gli accordi sui prezzi appaiono
solidi quando la domanda assorbe una quota elevata delle capacità disponibili.
Capitolo 15
Le condotte non collusive.
Teoria della curva di domanda ad angolo

Ai fini dell’analisi del comportamento di imprese facenti parte di un oligopolio, la teoria della curva di domanda
spezzata offre un modello assai preziose. Il modello non costituisce una teoria generale dell’oligopolio, né può avere
la pretesa di esaurire la vastissima gamma di politiche attuabili dalle imprese oligopolistiche, ma piuttosto costituisce
uno stimolante strumento concettuale.
La teoria fu sviluppata nell’ambito della critica ai modelli di equilibrio parziale e generale dagli interventi di Staffa e
Robinson. Obiettivo era la dimostrazione della testi che, in riferimento ad un sistema economico monopolizzato da
grandi imprese, il movimento dei prezzi non riveste più il ruolo fondamentale teorizzato da Marshall e Walras
(determinare equilibrio di breve periodo fra quantità domandate ed offerte e coordinare l’allocazione dei fattori fra i
diversi settori produttori). L’equilibrio, al contrario, sarebbe assicurato dalle variazioni delle quantità di merci offerte
dalle grandi imprese.
Risulta evidente l’appartenenza della teoria della curva di domanda spezzata al tema più ampio relativo all’analisi del
fenomeno dei prezzi amministrati. Tale tema era dedicato alla analisi delle leggi di formazione dei prezzi nei settori in
cui la grande depressione produsse moderate o trascurabili variazioni dei prezzi, contrariamente alle predizioni della
teoria economica. In numerosi settori industriali i prezzi non risultavano determinati dalla interazione fra compratori e
venditori, ma venivano fissati “amministrativamente” dai venditori, in funzione del potere discrezionale detenuto
dalle poche imprese operanti sul mercato.
L’interesse del modello sviluppato originariamente da Sweezy va oltre la polemica del prezzo. La teoria in parola
anticipa in buona misura la sequenza SCP, fornendo un modello predittivo ed esplicativo delle performance delle
imprese in condizioni di variabilità della domanda e dei costi di produzione. L’ambito di applicazione della teoria della
curva di domanda spezzata non può che fare riferimento ad un contesto di oligopolio omogeneo in cui le dimensioni
delle singole imprese sono equidistribuite.
Supponiamo di esaminare un settore costituito da un numero limitato di imprese aventi dimensioni circa uguali, che
producono un bene omogeneo e non possono stabilire fra loro un accordo sistematico volto alla delimitazione delle
QdM oppure alla formazione collettiva del prezzo (ipotesi di oligopolio omogeneo non collusivo). In queste condizioni
il comportamento delle imprese in merito alla formazione dei prezzi è condizionato. Una componente fondamentale
della curva di domanda che le singole imprese immaginano di avere di fronte a sé è costituita dalle diverse ipotesi
circa il comportamento delle rivali, in occasione di una azione di aumento o diminuzione del prezzo.
Le singole imprese, secondo tale teoria, sono portate ad immaginare di vere di fronte due curve di domanda, aventi
differenti elasticità. La prima avrà elasticità più elevata, e rappresenta la curva di domanda del prodotto della singola
impresa nel caso in cui intenda aumentare il prezzo, la seconda rappresenta il caso in cui l’impresa prospetti una
diminuzione del prezzo.
Nel primo caso (azione di aumento di prezzo) la singola impresa può ritenere che le altre imprese siano indotte a non
modificare i rispettivi prezzi, e quindi all’aumentare del prezzo consegue una robusta diminuzione delle quote di
mercato. Nel secondo caso invece (riduzione del prezzo) la singola impresa può ritenere che le altre imprese
adeguerebbero rispettivamente i prezzi al nuovo livello. L’incremento della quota di mercato dell’impresa che ha
assunto l’iniziativa di riduzione del prezzo sarebbe quindi molto modesto o addirittura nullo.
Nei mercati oligopolistici i prezzi tenderanno ad essere piuttosto rigidi in presenza di variazioni della domanda, il che
equivale a dire che le imprese oligopolistiche tenderanno ad amministrare l’offerta, facendo variare le quantità offerte
proporzionalmente alle quantità domandate, con il risultato di mantenere stabiliti i prezzi.
Il modello della curva di domanda spezzata può anche osservare gli effetti delle variazioni dei costi di produzione sui
prezzi. Se le variazioni dei costi sono contenute nell’ambito della discontinuità della curva dei costi marginali, il prezzo
al quale l’impresa massimizza il profitto rimane inalterato. Se gli aumenti dei costi di produzione fossero così rilevanti,
allora l’impresa sarebbe indotta a modificare il prezzo per ristabilire l’eguaglianza fra costo e ricavo marginale.
Le variazioni dei costi di produzione non comportano immediate variazioni dei prezzi; ciò equivale a dire che un
aumento dei costi di produzione diretti ha l’effetto almeno nel breve periodo di ridurre il profitto delle imprese che
non possono stabilire comportamenti collusivi fra loro. A tali conclusioni Sweezy pervenne con una metodologia
deduttiva.
A conclusioni simili giunsero gli economisti di Oxford Hall ed Hitch; procedendo con il metodo delle interviste,
osservarono che la formazione del prezzo da parte delle aziende industriali ha come principale riferimento la
copertura del costo medio. In questa ottica, le variazioni della domanda che si verificano successivamente alla
fissazione del prezzo non influiscono sui prezzi medesimi, e che quindi i prezzi tendono ad essere rigidi rispetto alle
variazioni della domanda. Gli autori riconobbero però due importanti eccezioni al principio della rigidità dei prezzi:

1. Quando la caduta della domanda è di notevole entità e durata


2. Quando i costi di produzione di tutte le imprese si modificano simultaneamente in uguale proporzione.

Critiche alla teoria della domanda ad angolo. Sua effettiva applicabilità


Teoria fu in un primo tempo considerata alla stregua di una teoria generale dell’oligopolio, grazie alla sua attitudine
predittiva ed esplicativa circa il fenomeno della rigidità dei prezzi nei settori oligopolistici. Successivamente però la
teoria in parola fu sottoposta ad una serie di ripensamenti critici.
Tali critiche appaiono piuttosto frutto di una parziale incomprensione delle ipotesi sottese alla formulazione del
modello.
Un ampio esame critico della teoria della curva di domanda fu condotto da Stigler, con l’obiettivo di verificarne la
consistenza teorica e la rispondenza alle dinamiche effettivamente registrate dai prezzi nei settori oligopolistici.
Sotto il primo profilo Stigler decise di esaminare analiticamente i vari fattori da cui dovrebbe dipendere l’ampiezza
della discontinuità della curva dei ricavi marginali, e quindi l’effettiva staticità dei prezzi praticati dalle singole
imprese di fronte a variazioni della domanda e\o dei costi di produzione.
Innanzi tutto bisognerebbe definirsi il grado di concentrazione assoluta del settore al quale potrebbe corrispondere un
comportamento interdipendente del tipo di quello ipotizzato da Sweezy, Hall ed Hitch. Tale livello di concentrazione
fu identificato in un numero di imprese compreso fra 5 e 10. Se il numero fosse minore, vi sarebbe una elevata
probabilità che le imprese instaurino un comportamento collusivo, in questo caso nella curva di domanda immaginata
dalla singola impresa non comparirebbe l’angolo ipotizzato da Sweezy, o comunque la variazione di elasticità sarebbe
di scarso rilievo. Se invece il numero delle imprese fosse maggiore di dieci, la variazione del prezzo effettuata da una
singola impresa potrebbe non essere avvertita dalle altre, e quindi non dare luogo ad azioni di ritorsione.
Il comportamento interdipendente quindi è il presupposto della forma di mercato oligopolistica e se tale presupposto
non si verifica, non appare corretto definire oligopolistica la particolare forma competitiva; se inoltre le imprese hanno
modo di colludere fra di loro, viene a mancare una delle condizioni base implicite alla teoria della curva di domanda
spezzata. Più in generale, la forma di mercato di “oligopolio omogeneo non collusivo” non si presta ad una
definizione esclusivamente numerica. Tale forma può essere definita solamente in termini qualitativi: sussiste quando
nel settore si riscontrano i caratteristici comportamenti fondati su interdipendenza ed incertezza.
Un secondo ordine di osservazioni riguarda la concentrazione relativa del settore, ovvero la distribuzione
dimensionale delle singole imprese. Se le dimensioni delle singole imprese non fossero omogenee, sarebbe verosimile
che una fra queste assuma la funzione di price leader, ed in questo caso non vi sarà incertezza nel settore circa il
comportamento delle singole imprese. Tuttavia la curva di domanda spezzata può trovare applicazione anche in
settori che hanno una distribuzione non omogenea delle quote di mercato delle singole imprese, e conservare una
notevole validità teorica ed operativa.
Stigler inoltre puntualizzò che l’esistenza e l’entità dell’angolo dipendono da:

1. Grado di omogeneità del prodotto


2. Impossibilità di colludere

Sotto il profilo della verifica della rispondenza delle predisposizioni teoriche alle dinamiche effettivamente registrate
dei prezzi nei settori oligopolistici, Stigler trovò che in sette settori dell’industria americana gli aumenti di prezzo
effettuati da una impresa sono generalmente seguiti da analoghi aumenti da parte delle altre imprese, mentre nel
caso di diminuzioni del prezzo il comportamento delle imprese è assai meno unanime. L’autore ne conclude che il
comportamento previsto da Sweezy non era da giudicarsi realistico. Le considerazioni di Stigler non appaiono del tutto
accettabili, perché tratte da contesti caratterizzati da condizioni diverse da quelle assunte dalle ipotesi base del
modello; nello specifico, tutti i settori esaminati mostravano fenomeni di collusione, dovuta all’esistenza di una
impresa leader, oppure collegabile alla simultaneità delle variazioni dei costi di produzione. Analisi di Stigler NON
INVALIDA la teoria della curva di domanda spezzata, ma dimostra che laddove le variazioni dei costi sono simultanee
per tutte le imprese del settore oligopolistico ne segue un comportamento collusivo. Se tale conclusione viene
accettata, ne deriva che se tutte le imprese di un determinato settore operano sui medesimi mercati di acquisizione
dei fattori, e non esistono significative differenze nelle strutture delle imprese, il comportamento delle imprese in
parola tenderà ad assumere forme collusive.
Altre critiche sono state formulate. Un primo problema, di carattere formale, è stato sollevato osservando che, se
l’impresa si comporta in funzione della massimizzazione del profitto, essa tenderà a praticare il margine massimo di
ricarico e quindi la curva dei costi marginali deve assumere la posizione che si colloca nella parte inferiore
dell’intervallo di discontinuità della curva dei ricavi marginali. In tale ottica quindi, una diminuzione dei costi
dovrebbe comportare una immediata diminuzione del prezzo; dal punto di vista logico-formale l’osservazione è
fondata, ma non regge se vagliati alla luce dei criteri effettivi di formazione dei prezzi.
Ulteriori critiche vengono mosse da coloro che osservano che la teoria della curva di domanda spezzata non spiega
sufficientemente come un determinato prezzo si sia formato. Il modello non si prefiggeva di fornire lumi sui criteri di
formazione dei prezzi nell’oligopolio omogeneo, essendo il prezzo di un dato istante il risultato di un processo
competitivo che può avere assunto le forme più varie, ma ha piuttosto l’obiettivo di esplorare le leggi di variazione dei
prezzi.
Le riserve avanzate quindi derivano dall’aver preteso l’applicabilità della teoria della curva di domanda spezzata a
fenomeni estranei alle ipotesi base.

Estensione al caso dei settori costituiti da imprese di diverse dimensioni


La disponibilità di strumenti di calcolo in grado di simulare gli effetti delle variazioni di un numero elevato di variabili
ha permesso la rimozione di alcune ipotesi semplificatrici che caratterizzano il modello di Sweezy, e di estendere
quindi l’analisi del comportamento interdipendente degli oligopolisti a settori aventi vari gradi di concentrazione
relativa. Versione aggiornata ed elaborata della teoria della curva di domanda ad angolo, desunta dal particolare
modello di simulazione della domanda “particolare” delle imprese oligopolistiche dovuto a Momigliano. Esso
prescinde da congetture a priori circa le reazioni degli avversari, facendo esclusivo riferimento ad elementi
quantitativi: il comportamento delle imprese risulta deducibile non da ipotesi ma da elementi oggettivi che
caratterizzano la struttura del mercato.
Il modello di Momigliano è inteso a simulare gli effetti di una variazione di prezzo da parte di uno o più competitori,
e quindi a determinare la curva di domanda particolare che ciascuna impresa può desumere da quella generale del
mercato, tenuto conto di un elevato numero di possibili mosse effettuabili da parte delle aziende di competizione fra
loro. Una applicazione semplificata del modello, riferita al caso di duopolio, prodotto omogeneo e nessuna
sostituibilità con altri prodotti, consente di derivare, noti i coefficienti di elasticità, una serie di curve di domanda
particolare. La curva di domanda particolare dell’impresa che fa la mossa di prezzo è costituita da una curva che
presenta sistematicamente un angolo con concavità verso il basso se la quota di mercato iniziale è superiore al 50%,
e con concavità verso l’alto se la quota di mercato iniziale è inferiore al 50%.
Da tale constatazione se ne possono derivare le seguenti conclusioni:

1. L’effetto della riduzione del prezzo di vendita da parte di un competitore sarà tanto maggiore sul piano
dell’incremento della sua quota di mercato quanto minore è la dimensione relativa dell’impresa.
2. Nel caso di settori oligopolistici costituiti da imprese diverse dimensioni, quelle più grandi avranno una
preferenza sistematica per la stabilità del prezzo di vendita. Al contrario, le imprese minori tenderanno a
mettere in atto comportamenti aggressivi sul piano delle politiche commerciali, potendo beneficiare di una
elevata elasticità di sottrazione.
3. Se non esistono differenze nei costi di produzione delle singole imprese, la distribuzione disomogenea delle
dimensioni aziendali in termine di quote relative di mercato può condurre ad una forma di mercato
altamente instabile. La situazione tenderà ad evolversi verso una forma di mercato in cui le imprese hanno
una dimensione equivalente.

L’interesse del modello è particolarmente notevole sotto il profilo della relazione dinamica fra costi di produzione e
prezzi. Nel tentativo di trarre deduzioni circa il comportamento delle imprese per ciò che attiene alla variabile prezzo,
oltre alle considerazioni relative all’elasticità di sottrazione occorre tenere presente anche la variabile fondamentale
rappresentata dai costi di produzione. Il comportamento previsto dalla teoria della curva di domanda spezzata appare
realistico qualora le variazioni dei costi di produzione non siano simultanee per tutte le imprese e qualora le
dimensioni delle singole imprese siano all’incirca equivalenti.
L’esistenza di una impresa leader è sovente associata ad un’asimmetria dei costi di produzione delle diverse imprese.
Se tale asimmetria non sussistesse, ci si troverebbe indubbiamente di fronte ad una struttura instabile.
Se però esiste una impresa leader, e la sua posizione nei confronti delle rivali è stabile nel tempo, ciò significa che
l’impresa deve potere fruire di qualche vantaggio competitivo sulle altre imprese. In questo caso il prezzo preferito
dalla impresa minore è superiore al prezzo praticato dalla imprsa leader. Le imprese minori pertanto sono più
propense ad aumenti del prezzo che non ad azioni di allargamento della propria quota di mercato. In questa
situazione dunque prevale la linea delle imprese leader, il cui comportamento è condizionato da una curva di
domanda immaginata ad angolo, con concavità rivolta verso il basso.
Se l’esistenza di una impresa leader è dovuta a ragioni tecnologiche che si riflettono in differenze assolute dei costi di
produzione, le variazioni dei prezzi nel settore tenderanno ad avere luogo secondo la dinamica prevista dalla teoria
della curva di domanda spezzata. Nel caso in cui non esistano differenze nei costi di produzione e si abbia una price
leadership di carattere barometrico, possono verificarsi guerre di prezzi, come previsto dal modello di Momigliano e
verificato largamente dall’esperienza di molti settori industriali (caso dell’industria del tabacco americana).

Realismo della curva di domanda ad angolo


L’azione delle variabili che agiscono sulla politica dei prezzi delle imprese industriali e sulle loro performance, avviene
in modo congiunto, così da rendere impossibile il tentativo di isolare il movimento dei costi, della domanda e della
capacità produttiva, correlandone gli andamenti con le variazioni dei prezzi. Non si può non rilevare però come le
analisi attualmente disponibili sembrino concordare con le predizioni della teoria della curva di domanda spezzata.
Grazie ai lavori di Sylos Labini ed altri studiosi, si può dare per acquisito che la dinamica dei prezzi industriali tende ad
assumere tali caratteristiche:

a. In relazione al breve periodo si nota una scarsa elasticità dei prezzi rispetto alle variazioni dei costi diretti.
Tale elasticità ha un valore nettamente inferiore all’unità sia in Italia che in USA. Il mark-up non è quindi mai
costante, e diminuisce temporaneamente nelle fasi di aumento dei costi di produzione diretti.
b. Nel lungo periodo l’elasticità dei prezzi rispetto alle variazioni dei costi tende ad essere sistematicamente
uguale all’unità. I prezzi cioè risulterebbero determinati dai costi diretti più il mark-up costante, idoneo a
coprire i costi generali e ad assicurare un profitto soddisfacente.
c. In riferimento alla relazione prezzi-domanda, le variazioni della domanda non influenzano i prezzi e le
diminuzioni di questa danno luogo ad una uguale diminuzione dell’offerta, cosicché i prezzi rimangono
costanti.

Tali caratteristiche forniscono indicazioni di carattere generale circa le performance aziendali relativamente alle
variazioni di talune quantità base.
Capitolo 18
La domanda aggregata come fattore della produttività

Sin dagli albori della scienza economica moderna era presente il fenomeno rappresentato dalla connessione fra
domanda del mercato e produttività di una industria. Nel breve periodo, nel caso in cui vi siano capacità produttive
non pienamente utilizzate, la crescita della produzione dà luogo ad una diminuzione dell’incidenza dei costi fissi per
unità di prodotto che eventualmente si somma alla crescita della produttività. Nel lungo periodo ciò si verifica quando
siano presenti fenomeni come economie di scala, curve di apprendimento, innovazioni tecniche dei processi produttivi
che aumentano la produttività del capitale e\o del lavoro, ovvero diminuire l’incidenza del loro costo per unità di
prodotto.
Una formalizzazione statistica della relazione prodotto-produttività del lavoro è esposta nel modello conosciuto come
“legge di Kaldor-Verdoorn”.
Sulla base di tale legge è possibile ricavare prescrizioni sulla verosimiglianza dei parametri assunti nei processi di
pianificazione, ma è soprattutto possibile indurre l’esistenza di relazioni dirette di lungo periodo fra la crescita della
domanda e la crescita della produttività, relazioni che rappresentano uno fra i più importanti fattori del meccanismo
dello sviluppo. La legge può essere rappresentata dall’equazione:

𝜆 = 𝑎 + 𝜂𝜆 𝑞̇

Dove lambda è il saggio di variazione della produttività del lavoro, q la crescita dell’output e eta definisce il valore di
elasticità, oppure coefficiente di Verdoorn. Esaminando serie storiche di lungo periodo si è trovata l’evidenza di una
relazione abbastanza costante fra le variazioni della produttività del lavoro e del volume della produzione industriale,
osservando in particolare che il valore medio del coefficiente di Verdoorn si trova in un intervallo tra 0,3 e 0,6 con un
valore medio di 0,45: nel lungo periodo un aumento della produzione di circa il 10% corrisponde a un aumento della
produttività del lavoro poco meno del 5%.
Modello circolare basato sulla relazione di causalità diretta fra crescita e produttività, semplice schema teorico che
permette di focalizzare immediatamente il circolo vizioso da un incremento o da una caduta della domanda. La
formulazione originaria della legge è stata poi ampliata, rendendo lo schema più flessibile e più utile ai fini delle
decisioni di politica economica e di pianificazione delle imprese. Kaldor ha infatti fornito una spiegazione del
fenomeno osservato, mettendolo in relazione con: presenza di economie di scala e curve di apprendimento; rilevanza
della specializzazione delle imprese e dell’interazione fra queste; presenza di progresso tecnico endogeno e
incorporato nel capitale. Kaldor inoltre osservava che la relazione dinamica fra produttività e crescita riguarda
prevalentemente il settore dell’industria manifatturiera, principale propulsore dello sviluppo economico, la cui
capacità di crescita si riflette con effetti moltiplicativi sugli altri settori dell’economia. A questo punto si potrebbe
obiettare che la struttura dei sistemi economici occidentale risulti sensibilmente variata rispetto a quella esaminata a
suo tempo da Kaldor, per via del crescente peso del terziario, e che quindi la terziarizzazione rappresenta un
elemento endogeno dello sviluppo. Se è vero che il minor peso dell’industria manifatturiera può in qualche modo
diminuire la portata degli effetti del circolo virtuoso, si può sottolineare che questo atteggiamento di Verdoorn risulta
accettabile sulla base delle verifiche empiriche e della ragionevole previsione che la relazione si mantenga stabile per
lunghi intervalli di tempo. Ciò che è rilevante per il sistema nel suo complesso è il valore rappresentato dall’elasticità
media del rapporto fra produttività e prodotto; meno lo è il valore dei singoli addendi da cui questa media in
definitiva dipende.
Nei sistemi aperti alla concorrenza internazionale un elemento della massima importanza per conferire realismo al
modello è rappresentato dalla competitività della produzione di un particolare paese rispetto a quella dei suoi
concorrenti, e delle sue variazioni relative.
Le numerose verifiche empiriche della legge di Kaldor-Verdoorn mostrano l’esistenza di una relazione prodotto –
produttività abbastanza costante, anche se in misura differente da paese a paese; tale risultato è prevedibile, perché il
circolo virtuoso “domanda – produttività” non costituisce per certo l’unico meccanismo di sviluppo. Ai fini dello
sviluppo assumono importanza decisiva in particolare il tasso di accumulazione ed il contesto istituzionale; il primo
perché incorpora le innovazioni che influenzano la produttività del lavoro, il secondo in quanto riflette gran parte delle
esternalità che condizionano che condizionano i processi produttivi. È evidente quindi che nel lungo periodo possono
emergere discordanze anche notevoli fra i tassi di sviluppo del reddito e dell’occupazione nei diversi paesi,
determinando differenze che non risultano spiegabili in base alle condizioni generali.
Produttività, competitività e margini di profitto
Lo schema esaminato ha un limite che è costituito dal considerare solo indirettamente i prezzi, considerando
sostanzialmente sinonimi i termini produttività e competitività, i quali in un sistema aperto alla concorrenza
internazionale non sono necessariamente coincidenti. Infatti pur registrando andamenti positivi della produttività
fisica, un settore potrebbe perdere competitività in seguito ad una dinamica di costi unitari più accentuata di quanto
accade ai propri concorrenti, oppure alla comparsa di concorrenti che sostengono costi di produzione meno elevati o
che possono praticare prezzi più vantaggiosi per il mercato. Il circolo virtuoso domanda – produttività – domanda che
può essere indotto dal modello di Kaldor-Verdoorn potrebbe interrompersi a causa della sottrazione di quote
crescenti del mercato da parte di nuovi competitori, i quali fruiscano di costi unitari del lavoro inferiori o comunque di
elementi che ne stimolano maggiormente l’incremento della competitività.

Il modello dovrebbe perciò considerare in modo esplicito non solo le variazioni della quantità, ma anche il livello dei
prezzi e dei costi di produzione -- > pq = wL + cq + MOL
Capitolo 19
Politica industriale in
Italia.
L’intervento pubblico. Scorcio storico (1945-1980)

Sono ben conosciute le caratteristiche del processo di sviluppo italiano: fattori originari, come ritardato avvio del
processo di industrializzazione e protezionismo doganale, e caratteristiche dello sviluppo (estensione area pubblica e
dualismo fra Nord e Mezzogiorno).
Struttura italiana caratterizzata da una particolare forma di dualismo: accanto ad un numero ristretto di grandi
imprese convive una moltitudine di imprese di piccole dimensioni con caratteristiche ed esigenze in contrasto con le
prime.
La storia dello sviluppo industriale italiano è la storia di uno sviluppo incompiuto, nel senso che il fenomeno
dell’industrializzazione ha riguardato una parte soltanto della società e del territorio.
I rapporti fra governo e industria dal dopoguerra si sono versi nel quadro di una progressiva abolizione della
protezione doganale, e di qui un ulteriore esigenza di sostenere l’offerta con trasferimenti ed altri sostegni di
carattere finanziario. La debole struttura dell’industria italiana non era in grado di provvedere in via autonoma,
sostituendo alle protezioni tariffarie protezioni oligopolistiche, che consolidassero la presenza italiana in determinate
aree di mercato. Il filo conduttore della politica industriale italiana è costituito dalla continua oscillazione fra la
necessità di fare riferimento ai tradizionali punti di forza dell’industria del nostro paese e decisione di avviare un
nuovo modello di sviluppo. In questa alternanza le vicende congiunturali anno fatto quasi sempre prevalere la prima
fra le istanze citate. L’Italia non ha mai vissuto le intense esperienze di pianificazione industriale sperimentate
nell’ultima fase del conflitto mondiale da Germania ed Inghilterra, né la rigida programmazione inaugurata in Francia
ed Olanda nel periodo post bellico.

Dopoguerra e i primi studi sulla programmazione (1945-1947)


Primi interventi sull’industria rispondono alla necessità di rifornimento di materie indispensabili per la ripresa
dell’attività industriale, oltre a riferimenti alimentari. Il primo documento di cui si ha notizia è il “Piano di primo
aiuto” del 1945, redatto dal Cir e dalla commissione alleata di controllo, modificato in seguito al recupero dei territori
occupati. Esame delle potenzialità produttive dell’industria italiana e un quadro relativamente dettagliato dei
fabbisogni di importazioni e di merci. L’obiettivo di tali studi non era quello del mutamento strutturale del sistema, ma
quello di eliminare possibili strozzature allo sviluppo dell’industria. Tentativo che merita menzione è lo studio
effettuato per conto del Consiglio economico nazionale della Democrazia cristiana da Saraceno. In esso si propone la
pubblica amministrazione come elemento centrale della programmazione e della politica industriale (esplicita
richiesta di creare una solida base di domanda interna per lo sviluppo industriale). La strada che verrà poi
effettivamente imboccata sarà l’opposto: rapporto fra pubblica amministrazione ed industria verterà sui
trasferimenti alle imprese, destinati a divenire col tempo sempre più generalizzati e massicci.

Amministrazione centrista di De Gasperi (1948 – 1953)


Periodo che si inaugura con la stesura di un nuovo piano del Comitato interministeriale per la ricostruzione (Cir), reso
necessario per l’utilizzazione dei fondi messi a disposizione dal piano Marshall. Obiettivo dominante è il riequilibrio
dei conti con l’estero, e lo strumento principale è un meccanismo che consenta di attivare i settori esportatori
(Fondo Imi-Erp, concessione di finanziamenti per consentire ad aziende industriali italiane l’acquisto di materie prime,
macchinari, attrezzature, beni e servizi occorrenti alla ricostruzione e allo sviluppo dell’esportazione italiana). Chiara
era quindi la scelta originaria della politica industriale italiana: da un lato, spinta verso economia aperta mediante
sviluppo dei settori esportatori, dall’altro attivazione di meccanismi di trasferimento in modo da guidare lo sviluppo
dei settori secondo gli obiettivi politico-economici prestabiliti.
La politica settoriale che ispirava l’utilizzazione del Fondo emerge dal comportamento del Cir, che fissava alcuni criteri
di priorità riguardanti determinati settori chiave dell’economia industriale italiana, e precisamente la siderurgia, fonti
di energia, industria meccanica e chimica.
In questo triennio fu condotto anche il primo tentativo di mettere a punto moderni strumenti di analisi per il governo
dell’industria, con la costruzione della matrice Chenery e Clark; l’andamento effettivo dell’industria fu più brillante
delle previsioni.
A tale impostazione facevano contrasto le richieste della sinistra che chiedeva che il motore dello sviluppo non fosse
costituito dalla domanda estera ma dai lavori pubblici. Su questa linea muoveva il “Piano del lavoro” proposto dalla
CGIL nel 1949; tale programma anticipava alcuni temi tuttora al centro del dibattito politico-economico.
Un ultimo tratto di politica industriale da rilevare in questo periodo è l’atteggiamento nei confronti della mobilità,
cioè degli interventi a sostegno delle imprese in crisi. Numerose imprese dell’area privata furono indotte alla
chiusura dalla interruzione del flusso delle commesse e dall’incapacità di ricollocarsi nel campo delle produzioni civili.
Diverso fu il caso dell’industria cantieristica; data le obiettive difficoltà di ricollocare la mano d’opera esuberante in
altri settori, ci si trovò di fronte alla necessità di condurre un intervento di sostegno nel settore, in grave crisi per
mancanza di commesse. A questo scopo venne istituito il Fondo industria meccanica, che doveva somministrare
credito alle imprese impossibilitate a utilizzare le vie ordinarie; il Fondo poteva tuttavia anche intervenire acquistando
partecipazioni, e per questa via si determinò rapidamente un allargamento dell’area pubblica nell’industria. Tale
intervento inaugura un altro tratto caratteristico della politica pubblica per l’industria: sostegno di imprese in crisi
mediante trasferimenti da parte dello Stato, nonostante nelle fasi iniziali tali trasferimenti furono modesti (sostegno
alla meccanica in crisi e ai cantieri da parte di Iri e Efim parti a 20\25 miliardi di lire annui tra il 1946 ed il 1955.

La politica industriale nello “schema Vanoni”


Con il 1953 si può dire concluso il periodo della ricostruzione, e la politica industriale inizia ad essere influenzata
dal radicale cambiamento degli obiettivi generali di politica economica. Si passa infatti al prevalere dell’obiettivo
della piena occupazione, e dell’attenuazione degli squilibri territoriali fra Nord e Mezzogiorno.
Le linee guida della politica economica risultano chiaramente definite nello “schema di sviluppo dell’occupazione e del
reddito in Italia nel decennio 1955-1964”, meglio noto come Schema Vanoni. Tale documento identificava come
obiettivi:

 Uno sviluppo annuo del reddito nazionale del 5%


 Creazione di 4 milioni di posti di lavoro aggiuntivi
 Riduzione degli squilibri territoriali fra Nord e Sud

Tenendo conto di una previsione di incremento della produttività del 3% annuo ed un tasso medio annuale di
risparmio del 18% ne derivava che la compatibilità fra la creazione di 3,2 milioni di posti di lavoro e le formazioni
previste di capitale si realizzava con un fabbisogno di capitale per addetto di 1,5 milioni di lire.
Lo schema appariva particolarmente debole sotto il profilo della strumentazione. A questo scopo fu costituito un
“comitato per lo sviluppo dell’occupazione e del reddito” presieduto da Saraceno, che produsse sei memorie, due
delle quali avevano diretto rilievo per la politica industriale. Il primo fra gli studi citati riguarda l’energia elettrica, con
l’obiettivo di determinare le occorrenze di carattere finanziario connesse allo sviluppo del settore. Un effettivo
contributo dello Schema Vanoni sul piano della politica industriale si ebbe nel campo della siderurgia: Sviluppo del
settore siderurgico, primo piano di settore predisposto in Italia.
Il piano siderurgico si articola in una valutazione della domanda di acciaio proiettata al 1962, nella stima
dell’andamento dell’offerta, distinguendo offerta proveniente dalla trasformazione di minerale da quella proveniente
dal rottame, in una analisi dell’opportunità della costruzione di un grane stabilimento a ciclo integrale. La conclusione
del programma settoriale è favorevole alla costruzione del nuovo centro e alla sua localizzazione nel Mezzogiorno. Il
piano dette luogo al centro siderurgico di Taranto, primo ed unico esempio di realizzazione diretta di programmazione
settoriale nel quadro dello Schema Vanoni. In realtà però non è agevole stabilire se la realizzazione del centro
siderurgico di Taranto fosse il risultato di una azione programmatoria del governa oppure il governo; cioè se il
programma siderurgico non sia stato altro che la sanzione formale di un programma aziendale già sviluppato in
dettaglio da parte dell’Iri, a cui il programma settoriale aggiunse solamente il crisma dell’ufficialità. L’Iri infatti aveva
già svolto in modo autonomo un impegnativo programma di riconversione; inoltre, alla ripresa dell’attività di
programmazione, gli organi dello Stato furono accusati di svolgere un ruolo esclusivamente notarile nei confronti
della volontà delle imprese, e di concedere quindi i pareri di conformità del Cipe solo sulla base delle richieste
avanzate dalle imprese senza tentare di determinarne gli indirizzi. Di fatto quindi la programmazione industriale si
trasferisce definitivamente in questo periodo all’interno delle imprese stesse. Ciò deriva in parte dalla oggettiva
debolezza della programmazione nazionale, in parte dal fatto che il brillante andamento dell’industria, trascorsa la
depressione del 1957-58, superava largamente i traguardi stabiliti dalla programmazione, per cui si faceva strada il
principio della non ingerenza in meccanismi la cui efficienza superava le aspettative. Inoltre i personaggi più
rappresentativi della politica industriale italiana ritenevano inapplicabili al nostro paese gli schemi di programmazione
messi in atto all’estero.
Le politiche di settore prendono dunque forma all’interno dei maggiori gruppi. La politica pubblica di governo
dell’industria si vale piuttosto di strumenti orizzontali, come incentivi per industrializzazione del Mezzogiorno e
trasferimenti a favore di particolari categorie di imprese. Fra tali trasferimenti lo strumento di maggiore rilievo
attivato nel periodo è la legge 623/1959, per il credito agevolato alle piccole e medie imprese, congiuntamente
all’istituzione del Mediocredito Centrale.
Tale legge nasce sulla scorta delle preoccupazioni suscitate dalla recessione del ’58, ma giunge in ritardo quando
l’economia è ormai entrata nella fase di ripresa. La legge coglierà l’obiettivo di favorire l’allargamento della base
industriale delle aree di industrializzazione tradizionale (Lombardia-Piemonte-Liguria) e nuove aree del Centro Nord, il
cui sviluppo si fonda appunto sulle imprese di piccole e medie dimensioni.
Ha inizio la tendenza alla moltiplicazione dei centri di governo dell’industria.
Un giudizio negativo invece viene espresso in riferimento alla legge 1470/1961; tale legge apre la strada ad interventi
assistenziali totalmente in contrasto delle regole della concorrenza che avevano ispirato la politica industriale,
inducendo nel sistema elementi di rigidità che troveranno applicazione sempre più frequente negli anni successivi.

La fine della rapida crescita. Il prevalere degli strumenti di breve periodo (1963-1968)
Periodo di transazione dallo “Schema Vanoni” al “Programma economico nazionale, 1965-1969” conobbe un brusco
mutamento del quadro economico e politico. Si riscontrò infatti una impennata inflazionistica dell’economia ed un
netto peggioramento dei conti con l’estero, dovuti al forte aumento del costo del lavoro ed ai timori diffusi fra la
borghesia imprenditoriale dalla nazionalizzazione dell’energia elettrica. La situazione determinò il doppio effetto della
flessione dei margini di profitto e della comparsa di un consistente deficit nella bilancia commerciale. In questa
prospettiva si producono rapidamente alcuni avvenimenti che segneranno in modo duraturo le linee di sviluppo
dell’industria italiana negli anni successivi.
La prima considerazione riguarda la contrapposizione di interessi che viene apparentemente a formarsi nell’ambito
del sistema industriale. Nella lunga fase di sviluppo che precede la crisi del 1963-64 i fattori trainanti la crescita
industriale sono sicuramente la domanda estera e la domanda di beni strumentali. In tale fase non esiste alcuna
contraddizione fra settori ad alta intensità di lavoro e orientati all’esportazione e settori pesanti, ad alta intensità di
capitale, meno competitivi all’estero ma con una base sufficiente per lo sviluppo interno. Il rialzo del costo del lavoro
e l’avvio di un processo di inflazione interna sospinto dai costi determina una perdita di competitività all’estero che
propone ai due emisferi dell’industria italiana strategie diverse.
Per l’industria ad alta intensità di lavoro il problema centrale è il recupero della competitività, che apparentemente
può essere raggiunto tramite una manovra restrittiva che elimini il fattore originario di squilibrio. Per l’industria
pesante l’inflazione interna non rappresenta un pericolo immediato, ed anzi, nelle opinioni correnti favorirebbe un
processo di alleggerimento dell’indebitamento finanziario.
La seconda considerazione riguarda la strumentazione con la quale il governo si trovava nella fase in parola. Dal lato
degli strumenti di medio periodo non vi era nulla. Gli unici strumetni erano dunque costituiti dalla politica monetaria
e creditizia e dalla politica dei trasferimenti mediante le leggi di agevolazione finanziaria.
Per quanto riguarda l’uso di strumenti strutturali, quale il sistema delle partecipazioni statali, si manifestano numerosi
contrasti fra chi vorrebbe vedere le imprese pubbliche quale strumento in grado di supplire le deficienze dell’iniziativa
privata e chi ad esse preferirebbe assegnare un ruolo autonomo, da definirsi all’interno dei gruppi medesimi.
Nei fatti le imprese a partecipazione statale sono ancora largamente autosufficienti sotto il profilo finanziario, e
dunque meno condizionabili dal potere politico di quanto in seguito accadrà. In tale periodo di transizione si
intensificano le pressioni sul sistema delle partecipazioni statali per gli interventi di salvataggio delle imprese in crisi.
Sugli orientamenti da assumere nell’uso degli strumenti congiunturali le autorità monetarie sembrarono oscillare per
un breve periodo. Di fronte alle resistenze che le autorità monetarie internazionali avrebbero dimostrato all’ipotesi di
una eventuale svalutazione della lira, non restava altra via praticabile se non quelle della politica deflativa, che ha
inizio con la restrizione creditizia della seconda metà del 1963. È evidente che la manovra di stabilizzazione colpisce
più violentemente i settori a più alta intensità di lavoro.
Dall’esperienza maturata attorno alla crisi del ’63-’64 e alla successiva stabilizzazione hanno origine due ordini di
riflessioni che accompagneranno la politica industriale italiana, e si manifesteranno in specifiche scelte al
ripresentarsi di fenomeni di crisi (1971):

a. La prima riflessione riguarda gli effetti direzionali della politica monetaria dell’industria. Si fa strada la tesi
secondo cui gli effetti della politica monetaria sarebbero assai più avvertiti dalle imprese di dimensioni
minori, in virtù della maggiore autonomia finanziaria di quelle maggiori. Sarebbe possibile utilizzare la politica
monetaria in funzione di politica industriale, attuando una politica selettiva volta a favorire i settori più forti
a danno delle imprese industriali destinate al declino. La strumentazione della strategia industriale si
volgeva dunque al breve periodo, proprio nella fase in cui per la prima volta vigeva un programma economico
nazionale.
b. La seconda riflessione riguarda la necessità di una ristrutturazione settoriale dell’industria italiana, per
modificarne la composizione a beneficio di settori a più elevato contenuto tecnologico; anche come
conseguenza della più spinta competizione internazionale seguita all’entrata in vigore del Trattato di Roma
del 1960. Nell’industria italiana la differenziazione era relativa all’interno dei settori, in relazione a dimensioni
delle imprese, livello delle tecnologie e qualità del management.

Nasce quindi, come riflesso di taluni temi dominanti la cultura economica di allora e dei problemi posti
dall’utilizzazione dei fondi messi a disposizione delle società ex elettriche dagli indennizzi, la bandiera della
concentrazione. Essa si traduce, sul piano legislativo, nella legge 170\1965, che concedeva cospicue agevolazioni
fiscali alle fusioni fra imprese, e sul piano della struttura industriale si traduce nella nascita di colossi nel campo di
telecomunicazione e chimica (Sip, fusione tra Montecatini ed Edison).
Appare evidente quindi, in relazione alle vicende di quel periodo, che la nazionalizzazione dell’energia elettrica e la
riconversione dei gruppi ex elettrici rappresentarono la grande sfida perduta della strategia industriale italiana. Nel
complesso, il PUBBLICO FECE MOLTO MEGLIO DEL PRIVATO: l’Iri tramite la Sip costruì una moderna rete di
telecomunicazioni utilizzando gli indennizzi.
Il tema della ricerca fu trascurato, e solo nel 1968 fu varato un provvedimento per la ricerca applicata, comunque non
sufficiente a colmare il ritardo tecnologico dell’industria italiana, dovuto anche alle carenze della ricerca di base. Esso
giungeva comunque troppo tardi, quando ormai si stava delineando una seconda e più grave crisi dell’industria
italiana.
Sul piano istituzionale, si registra nel periodo in esame una azione di riorganizzazione degli organi della
programmazione economica. Il Cipe (Comitato interministeriale per la programmazione economica) sostituisce il
vecchio Cir come organo di coordinamento dell’azione pubblica nell’economia. Al Cipe si affianca l’Ispe (Istituto studi
per la programmazione economica) con il compito di procedere a indagini, ricerche e rilevazioni inerenti alla
programmazione economica ai fini della preparazione dei documenti programmatici.

La crisi dell’ ”autunno caldo (1969-1970) ed il fallimento della programmazione


Come l’avvio del programma 1965-69 fu spiazzato dalla crisi recessiva, così l’avvio del nuovo ciclo di programma
avvenne nelle condizioni peggiori. Si potrebbe sostenere che la strategia industriale italiana ha sempre fatto
riferimento a “tre punti di forza”:

a. Un costo del lavoro relativamente inferiore al livello medio degli altri paesi industrializzati
b. Favorevole ragione di scambio fra manufatti industriali e materie prime, e fra materie prime e materie
energetiche in particolare
c. Andamento espansivo della domanda internazionale

Tali punti di forza vengono a cadere e le preoccupazioni contingenti finiscono per prevalere sulle azioni di più ampio
respiro.
Sia il Rapporto preliminare al Programma economico nazionale 1971-1975, noto come “Progetto ‘80”, che i successivi
documenti prodotti dal Ministero del Bilancio e dall’Ispe, mostravano una chiara coscienza della precarietà dei fattori
di successo dell’industria italiana e identificavano un complesso di azioni orizzontali (riguardanti i fattori produttivi)
e verticali (riguardanti specifici settori) da condursi nel quadro del programma, definite “Programma di
promozione”: fra questi solamente uno vedrà la luce, il “Programma di promozione per l’industria chimica”.
Alla fine del 1969 si avvia un ciclo analogo a quello del ’62-’64. Il costo del lavoro per unità di prodotto subisce un
fortissimo aumento, e la manovra sui prezzi è bloccata dalla stabilità dei prezzi internazionali. Dunque, nuovamente, si
determinano una caduta verticale dei profitti e l’allargamento del deficit commerciale. A differenza del ciclo
precedente però la situazione sociale è più tesa, il che esclude la possibilità di una ristabilizzazione fondata su una
indiscriminata manovra restrittiva; gli effetti della dinamica salariale nel ciclo 1970-72 influenzano in modo
differenziato le performance dei settori.
Di fronte alla nuova crisi la reazione istituzionale consiste nel varo di una nuova legge di sostegno al settore in
maggiore difficoltà (“legge tessile” – 1101\1971 - ristrutturazione e riconversione imprese tessili) e nel tentativo di
evitare una indiscriminata politica di salvataggi e di permanente allargamento della area pubblica nell’economia
mediante l’istituzione della Gepi.
Il maggiore limite della “Legge tessile” consisteva nella totale assenza di un riferimento strategico, cioè di criteri guida
che dessero un contenuto operativo ai termini ristrutturazione e riconversione. L’intervento dunque si risolse in una
somma di trasferimenti dal settore pubblico alle imprese, trasferimenti forse opportuni per il sostegno di talune
aziende, ma comunque difficilmente riconducibili alla logica della programmazione. La crisi peraltro non riguardava
solamente l’industria tessile, ma si dimostrava acuta anche nei settori della chimica e della metallurgia. Le
preoccupazioni dovute al persistere della crisi indussero il governo a proporre, ed il Parlamento ad emanare, una
nuova legge di crisi, 464\1972, che estendeva le previdenze disposte dalla legge tessile agli altri settori industriali; le
vicende singolari di tale legge forniscono una anticipazione delle difficoltà di conciliare una politica istituzionalizzata di
trasferimenti all’industria con un rigoroso controllo sull’utilizzazione dei fondi, difficoltà contro le quali si scontrerà più
tardi la più ponderata legge per il coordinamento della politica industriale del 1977.
La legge 464\1972:

 Mira innanzitutto ad estendere i termini massimi di applicabilità della “cassa integrazione guadagni”, con
l’evidente intento di alleggerire i conti economici delle imprese dal carico della mano d’opera in eccesso,
aggirando anche il problema della mobilità, che a seguito della recessione costituiva il problema per
eccellenza nei rapporti fra governo e industria.
 Prevedeva inoltre facilitazioni creditizie, sotto forma di contributi in conto interessi, e tributarie alle
imprese che dessero corso a programmi di ristrutturazione e conversione dell’attività produttiva.

Inizialmente lo stanziamento fu modesto, ma venne più volte rifinanziata fino a 813 miliardi complessivi. Tuttavia le
procedure per l’istruzione, l’accoglimento delle domande e l’erogazione dei contributi furono rese così complesse che
la legge decadde.
L’esperienza della legge tessile insegna che i trasferimenti dello Stato alle imprese sotto forma di agevolazioni
finanziarie rischiano di aggravare i problemi dei settori industriali, se la loro concessione ha luogo in assenza di un
quadro di riferimento o di una strategia volta a pilotare la riorganizzazione del settore.
Il grande sforzo di attuare una programmazione industriale concentrata, nell’ambito del Programma economico
nazionale, fu condotto in riferimento all’industria chimica.
Si diede la priorità all’industria chimica sia per la strategicità del settore sia proprio per la struttura del settore stesso:

 Elevatissima intensità di capitale rendeva efficace la principale arma della programmazione industriale: il
parere di conformità del Cipe necessario per ottenere le agevolazioni finanziarie.
 Forte concentrazione del settore avrebbe reso più agevole la concertazione fra industria e governo.

Il cosiddetto piano chimico si articola su due documenti.

a. Dopo la delibera del Cipe, venne affidato all’Ispe il compito di svolgere gli studi necessari alla preparazione di
un piano. Il “Rapporto preparatorio del programma di promozione per l’industria chimica”, redatto e
sottoposto all’esame di autorità amministrative, sindacati e imprenditori nel 1971, sviluppava una analisi
dell’industria chimica italiana ed esponeva alcune ipotesi e proposte per lo sviluppo della chimica primaria.
Tale rapporto prevedeva una crescita tendenziale della produzione chimica nell’ordine del 10-11%. Il flusso di
investimenti necessario era identificato in 4.500 miliardi di lire nel decennio, e l’effetto occupazionale in un
saldo netto di 190.000 posti di lavoro aggiuntivi nel decennio.
b. In base al rapporto preparatorio ed alle osservazioni raccolte, il Cipe predispose il “Progetto di promozione
per l’industria chimica di base prima sezione”, a cui avrebbero dovuto seguire altre sezioni.

Il piano chimico si risolse dunque in un piano che limitò il campo di indagine ai prodotti steam cracking della virgin
naptha. Il progetto indicava i criteri strategici per la riorganizzazione e lo sviluppo del settore, la previsione di
espansione delle capacità produttive ed i criteri per la valutazione dei programmi di investimenti. Il piano chimico si
tradusse in un grave insuccesso. Per quanto il piano avvertisse chiaramente circa il rischio della creazione di una
capacità produttiva eccedentaria, esso non riuscì a frenare la corsa delle imprese chimiche verso l’acquisizione di
pareri di conformità, in un processo competitivo fondamentalmente basato sull’accrescimento della capacità
produttiva. Il piano contribuiva ben poco a risolvere i problemi della chimica italiana: debolezza chimica secondaria,
insufficiente efficienza nelle funzioni della commercializzazione, scarsità di ricerca e di innovazione. Ma la crisi della
chimica italiana fu piuttosto dovuta al ritardo con cui si diede avvio ai programmi di espansione delle aziende del
settore; ritardo che fece si che queste ultime fossero colte dalla recessione e dalla inflazione mentre erano in corso
programmi di investimento che si sarebbero alla fine rivelati troppo costosi e non strettamente indispensabili. Il
fallimento della programmazione non risiede nel fallimento dell’ironia, ma piuttosto nella debolezza delle strutture
amministrative, che nel periodo considerato non riuscirono a produrre sul terreno operativo altro se non lo
sfortunato troncone di piano dedicato all’etilene.

La prima crisi petrolifera (1973 – 1976)


Alla lunga crisi attraversata dall’industria italiana aveva fatto riscontro una impasse dal lato governativo. La flessione
dei margini di profitto prodotta dall’aumento del costo unitario del lavoro e della rigidità dei prezzi non aveva
trovato risposta né in una manovra deflativa né in una inflativa. L’unico apparente effetto era stato una forte
accelerazione dei processi di investimento labour saving da parte dell’industria, che dovevano essere finanziati con un
massiccio ricorso all’indebolimento, vista la flessione dei margini di profitto.
La crisi politica del 1972 aveva condotto alla fine dei governi di centro-sinistra; insieme alle delusioni prodotte dai
tentativi di programmazione economica, ciò condusse al definitivo abbandono della politica di piano, all’inizio del
1973. L’azione di governo dell’industria volge quindi nuovamente agli strumenti di breve periodo, mentre si avvicina
la crisi internazionale che seguirà al rialzo dei prezzi petroliferi e delle altre materie prime.

 Potenziale inflazionistico accumulatosi tra il 1970-71


 Seconda metà ’72 forti tensioni provenienti dal rialzo dei prezzi delle materie prime internazionali
 Entrata in vigore dell’Iva nel gennaio ’73 fornì occasione per un forte rialzo dei prezzi interni, che aumentò di
oltre il 15%.

Di fronte a tali fenomeni l’autorità monetaria decide di imboccare la via inflativa. Il 9 febbraio 1973 viene annunciata
l’uscita della lira dal serpente monetario, il che di fatto si tradurrà in una svalutazione della nostra moneta di oltre il
14% fra gennaio e luglio.
Dal punto di vista industriale la manovra viene accolta con evidente favore dai settori a più alta intensità di capitale,
che nell’inflazione vedono il mezzo per ricondurre l’indebitamento a livelli fisiologici. Ma tutto ciò si rivelò un errore di
valutazione: la necessità di controllare la svalutazione della lira indurrà le autorità monetarie a determinare un forte
rialzo dei tassi di interesse. L’esplosione inflazionistica fa sorgere diffuse preoccupazioni, a cui si tenta di dare una
risposta con provvedimenti di controllo dei prezzi. Il filo che connette i provvedimenti di svalutazione della lira con il
controllo dei prezzi interni sembrerebbe quello di permettere alle imprese un recupero dei margini sulle vendite
all’esportazioni, mantenendo bloccati i margini interni. Dopo aver prodotto risultati deludenti, il controllo dei prezzi
viene abbandonato nel luglio 1974.
L’aumento del prezzo delle materie prime iniziato nel 1972 faceva venir meno il secondo punto, tradizionale
riferimento della strategia industriale italiana: la favorevole ragione di scambio fra le nostre esportazioni di
manufatti e le importazioni. Tuttavia i tratti caratteristici della crisi non appaiono immediatamente in modo chiaro; il
rialzo dei prezzi internazionali dà l’avvio ad un ciclo di scorte per cui le imprese possono migliorare nettamente i loro
margini, i quali raddoppiano nel corso del 1973. Nel ’74 rimangono costanti, mentre il volume delle vendite registra un
aumento record del 44%, in massima misura imputabile ai prezzi. Di contro però gli oneri finanziari raddoppiano nel
corso dell’anno, comportando una flessione dei margini netti, e mettendo in evidenza gli effetti del perverso
meccanismo inflazione-tassi di interesse.
Puntualmente, nel 1975 si registra anche la flessione della domanda, ultimo elemento mancante per toccare la crisi.
La manovra di controllo dell’economia nel breve periodo che tenta di reagire alla recessione mediante una politica
monetaria permissiva si traduce in un grave insuccesso. All’inizio del 1976 la lira subisce una nuova forte svalutazione
e i tassi di interesse sono ricondotti a livelli altissimi, mentre i margini lordi dell’industria cadono al di sotto del 2% del
fatturato. La spirale inflazione-svalutazione del cambio ha colpito di più i settori ad alta intensità di capitale rispetto ai
settori ad alta intensità di lavoro. La svalutazione del cambio ha nel complesso consentito di recuperare i differenziali
del costo e del lavoro italiano rispetto all’andamento degli analoghi costi all’estero, mentre l’enorme aumento degli
oneri finanziari non poteva essere recuperato con aumenti dei prezzi, la cui entità avrebbe posto fuori mercato le
imprese che operano in concorrenza internazionale. Gli effetti della crisi tendono a scaricarsi in modo più sensibile
sulle imprese di più grandi dimensioni, che risultano assai più indebitate.
Alle considerazioni interne vanno aggiunti elementi derivanti dal mutato quadro di competizione internazionale, che
indebolisce la competitività italiana in alcuni settori di base e di altri settori tradizionali.
La flessione dei margini colpisce soprattutto i settori della chimica, gomma, carta, alimentare e tessile. Analogamente
vi è un ridimensionamento dei medesimi settori, a cui si aggiungerà poi la crisi della siderurgia. La crisi del 1975
mostra tre elementi di sintesi che focalizzano l’attenzione delle autorità di governo dell’economia:

1. Crisi finanziaria delle imprese, che si manifesta nell’aumento del peso degli oneri finanziari sul fatturato:
aspetto all’origine di una proposta del governatore Carli, mirante, nella forma, ad una grandiosa operazione
di consolidamento dei debiti a breve accumulati dall’industria, nella sostanza, ad un radicale mutamento
della struttura dell’industria italiana, che ne avrebbe avvicinato il modello organizzativo a quello tedesco. La
proposta mirava ad un coordinamento nelle politiche delle imprese grazie ad un maggior coinvolgimento del
sistema bancario, come dimostrava appunto l’esperienza tedesca; la formulazione della proposta però
apparve troppo radicale, suscitando una forte resistenza.
2. Caduta degli investimenti; 3. Problemi connessi alla mobilità del lavoro: due aspetti all’origine di una
proposta governativa dedicata al “coordinamento della politica industriale e la ristrutturazione del settore”.
La proposta prevedeva istituzione di un Fondo per la ristrutturazione, la riconversione e lo sviluppo
industriale, dotato di 2.500 miliardi di lire, la cui amministrazione sarebbe spettata ad un organo
interministeriale di nuova costituzione: il Cipi; a tale organo, comitato interministeriale per la politica
industriale, si demandava il compito di mettere a punto i lineamenti di una strategia industriale, nel quadro di
un piano a medio termine. La proposta inoltre delineava alcuni interventi per favorire la mobilità del lavoro
nelle imprese.

La reazione dei partiti non governativi fu negativa, al punto che il progetto “Moro- La Malfa” dell’agosto 1975 fu una
delle non trascurabili fonti della crisi del governo bipartito e della fine anticipata della legislatura. Gli ultimi atti della
legislatura sul piano industriale sono costituiti dal varo della legge 183\1976, “Disciplina dell’intervento straordinario
nel Mezzogiorno per il quinquennio 76-80. Questa si poneva come obiettivo quello di riordinare il credito agevolato
all’industria, misura necessaria e urgente il cui compimento avverrà nella legislatura successiva. Da ultimo il governo
predispose uno strumento inteso ad assicurare un maggior coordinamento dello sviluppo industriale, subordinando
all’autorizzazione del Cipe l’effettuazione di investimenti agevolati per importi superiori a 500 milioni di lire, e di
qualsiasi investimento di importo superiore a 10 miliardi di lire.

La politica dei piani di settore


La gestione dell’economia di breve periodo non aveva risolto i problemi di fondo dell’industria, che invece risultavano
aggravati. Strategia volta a recuperare la competitività industriale per mezzo della svalutazione del cambio aveva
accelerato la dinamica della crisi finanziaria dell’industria pesante. Inoltre si era resa necessaria una moltiplicazione
degli interventi di sostegno mediante trasferimenti dallo Stato alle imprese. I trasferimenti avevano l’effetto di
attenuare la capacità dell’area di mercato di resistere alla imposizione dei vincoli e alle richieste volte a portare il
sistema al livello delle aspirazioni.
La caotica disciplina che regolava i trasferimenti dava luogo a distorsioni che sono state al centro di una polemica
pubblicistica non da poco. Inoltre, la copertura attuata dallo Stato ad una serie di oneri impropri che a vario titolo
gravavano sulle imprese aveva in parte concorso a rendere ingovernabile la spesa pubblica ed a falsare i meccanismi di
funzionamento del mercato del credito.
Il riordino dei meccanismi del credito agevolato ha inizio con il d.P.R 902\1976, istitutivo di un fondo nazionale per il
credito agevolato al settore industriale, recante disposizioni volte ad armonizzare i criteri per la corresponsione delle
agevolazioni.
Per quanto il provvedimento fosse necessario, esso si prestava in modo indiretto alla formulazione di indirizzi di
sviluppo industriale. Piuttosto il provvedimento era in grado di bloccare talune iniziative, ma non di promuovere altre
giudicate coerenti agli obiettivi dell’azione di governo dell’industria. La successiva delibera Cipe di attuazione infatti
sospendeva la concessione di contributi ad investimenti espansivi attuati in settori nei quali si giudicava
eccedentaria la capacità produttiva. La diffusa preoccupazione che il fondo fosse utilizzato per interventi di
salvataggio di grandi gruppi in crisi dettò una norma che non escludeva alle agevolazioni le imprese di grandi
dimensioni.
L’intento si scontra con alcuni problemi posti dalla concreta attuazione della programmazione industriale. Il dialogo
diretto fra governo e industria per determinare comportamenti imprenditoriali coerenti alle scelte della PA in materia
industriale, ha prevalentemente riferimento alle grandi imprese. L’esclusione di queste dalle agevolazioni privava la
parte governativa del tradizionale strumento di pressione sulle imprese maggiori. Il dilemma relativo alla valutazione
comparata dei rischi e dei benefici associati alla ammissibilità delle grandi imprese alle agevolazioni finanziaria e alla
loro esclusione, si è risolto con un provvedimento che riammette le imprese maggiori agli incentivi finanziari.
La seconda tappa del processo di adeguamento della istituzione di riassetto dell’industria ebbe inizio con la
presentazione di un nuovo progetto di legge, che in parte riprendeva i contenuti del progetto Moro-La Malfa),
nell’ottobre 1976. Tale progetto prevedeva:

a. Istituzione del Cipi (Comitato interministeriale per il coordinamento della politica industriale), al quale
spettavano: elaborazione di direttive per organizzazione e sviluppo del sistema industriale e individuazione
dei settori per i quali si ritiene necessario uno specifico quadro programmatico di interventi.
b. Stanziamento di cospicui fondi di finanziamento per investimenti di ristrutturazione e riconversione in
coerenza con gli indirizzi strategici elaborati dal Cipi.
c. Rifinanziamento del fondo di ricerca Imi.
d. Criteri per favorire la mobilità della mano d’opera.
e. Definizione delle aree alle quali limitare gli interventi di salvataggio della Gepi.

Il disegno di legge, più volte modificato, diede luogo alla legge 675/1977, intitolata “Provvedimenti per il
coordinamento della politica industriale, la ristrutturazione, la riconversione e lo sviluppo del settore”. La successiva
delibera del Cipi identificò le aree di intervento in sette grandi settori ed in tre linee orizzontali, per le quali il Ministero
dell’Industria avrebbe dovuto predisporre “programmi finalizzati”. Fu rapida la elaborazione di quest’ultimi, ma non
altrettanto rapide furono le discussioni fra le parti sociali. Nei fatti tale legge risulta in più parti ambigua circa la
definizione di indirizzi e metodologie. Essa rappresenta:

 In parte una legge di riordino del credito agevolato che colma le lacune della legge 183\1976
 In parte una legge di riforma che introduce nuovamente i metodi della programmazione nel governo
dell’industria. Questi tuttavia non sono chiaramente definiti.

L’esigenza di salvaguardare la legge da utilizzazioni improprie avevano portato innanzitutto ad introdurre una norma
(emendamento Andreatta-Grassini) relativa ad un massimale di indebitamento, oltre il quale le imprese non
avrebbero potuto fare ricorso alle agevolazioni, e, in secondo luogo, a stabilire la finanziabilità esclusivamente per
nuovi investimenti. La legge 675\1977 ha certamente deluso chi si aspettava un intervento taumaturgico capace di
risolvere i problemi dell’industria. L’incredibile ritardo intercorso fra formulazione originaria e operatività del progetto
ha anche impedito il raggiungimento degli obiettivi contingenti alla base della proposta, relegando la legge alla
cronaca dei molti tentativi incompiuti di programmazione, nonostante la metodologia originale, ricca di rimandi
microeconomici, offre strumenti utili.

Piani di settore e strategia industriale


Il tratto più originale della legge per il coordinamento della politica industriale nei confronti dei precedenti interventi
sull’industria era costituito dal passaggio del regime degli incentivi finanziari dal principio della automaticità al
principio della discrezionalità. Mentre nella legislazione industriale precedente si prevedeva una sorta di
automatismo, per il quale un’impresa che si trovasse in date circostanze maturava una sorta di diritto a ricevere
l’agevolazione prevista dalla legge, nel caso della legge 675\1977 si prevedeva che la validità dell’iniziativa da
agevolare fosse vagliata dal Cipi, alla luce degli indirizzi delineati dai programmi finalizzati di settore.
Veniva quindi introdotta una formalizzazione dei rapporti fra governo e industria già sperimentata in Francia e GB.
I programmi settoriali predisposti dal Ministero dell’Industria coprivano una aliquota rilevante del settore industriale,
con oltre 3 milioni di addetti, e riflettevano la presenza di caratteri strutturali e problematici dei settori sottostanti
affatto eterogenei. Il contenuto dei programmi può essere scisso in due momenti principali, che recepiscono le
direttive formulate del Cipi:

1. Fase analitico-conoscitiva: volta ad identificare le caratteristiche strutturali dei settori, le uniformità di


comportamento ed i fattori esplicativi di questi ultimi; i fattori che influenzano la performance dei settori e le
aree problematiche comuni di ciascun settore. Sotto questo profilo i piani di settore forniscono elementi di
indubbia utilità non solo per scelte di carattere settoriale, ma anche per offrire all’esecutivo e al Parlamento
indispensabili basi di conoscenza dei meccanismi di funzionamento e delle problematiche dell’industria. I
piani dunque servono a colmare il gap informativo fra governo ed industria.
2. Fase politico-propositiva: volta alla soluzione di specifici problemi dell’industria, a fornire quindi criteri
operativi per le decisioni del Cipi.
Scorrendo tali piani il profilo dell’industria italiana si fa più nitido. È possibile dunque distinguere nelle aree di crisi che
hanno origine di crisi di sbocchi, e che quindi richiedono di un migliore coordinamento dello sviluppo dell’offerta da
realizzarsi a livello nazionale e comunitario.
Nel complesso, l’immagine dell’industria italiana che emergeva da tale anili è quella di un sistema industriale che ha
avuto uno sviluppo diffusivo, fondato prevalentemente sull’allargamento delle gamme qualitative dei prodotti
offerti, e assai meno sulla specializzazione in produzioni qualificate. L’ulteriore sviluppo dell’industria italiana quindi
deve avvenire superando la tradizionale debolezza tecnologica, ma anche mediante un miglioramento dei metodi di
commercializzazione.
Se è vero però che l’elevato frazionamento della struttura dell’offerta industriale costituisce un serio limite
all’adozione di tecniche di commercializzazione che caratterizzano gli oligopoli differenziati, non è meno vero che
l’elasticità e la flessibilità proprie delle unità aziendali di minori dimensioni hanno rappresentato uno dei più notevoli
punti di forza dell’industria italiana nella competizione internazionale. Per questo motivo i programmi di settore
accordavano una netta preferenza a sperimentazioni di carattere associativo, sulla cui efficienza si può avanzare
qualche dubbio.
Sotto i profilo delle prospettive occupazionali l’industria italiana ha raggiunto la fase della maturità. Dal punto di vista
delle prospettive di riequilibrio della distribuzione territoriale dell’apparato produttivo, i programmi di settore
evidenziano quanto poco ci si possa attendere in questo campo di carattere settoriale.
I programmi di settore hanno anche suscitato qualche atteggiamento ostile che ha indotto alcune parti a reclamare
la liquidazione dell’esperimento e il passaggio ad altre forme di programmazione. Tale atteggiamento, giustificato sì
dai limiti metodologi della programmazione, è però molto rischioso. Invece che inseguire permanentemente lo
strumento ottimale di definizione dei rapporti fra governo e industria, sarebbe convenuto fermarsi su uno strumento
ed introdurre progressivamente le modifiche e gli aggiustamenti suggeriti da esperienza e esigenze funzionali.
L’esperienza quindi condotta nel nostro paese in questa fase mette in evidenza gravi limiti che si incontrano nella
messa a punto di programmi di settore riferiti ad una parte soltanto del sistema industriale. La performance di un
settore si spiega solo parzialmente con fattori interni al settore stesso, e l’analisi quindi in questo modo esclude
buona parte dei problemi rilevanti.
Vi è quindi l’esigenza di estendere l’analisi all’intero sistema industriale, per cogliere le economie esterne di
conoscenza che si possono ricavare da un complesso di studi che non trascuri importanti segmenti della realtà e della
problematica industriale. D’altra parte però i programmi di settore forniscono il quadro di riferimento per le decisioni
strategiche potendone costituire uno strumento di attuazione. I programmi di settore, superato lo stadio conoscitivo
inziale, debbono fondarsi sulla collaborazione fra governo, imprenditori e sindacati, mediante periodiche discussioni e
revisioni dei programmi. Il coinvolgimento delle tre parti non si limita agli aspetti conoscitivi, ma si dovrebbe
estendere anche all’aspetto decisionale, in modo che le parti in causa siano pienamente informate dei differenti profili
di problemi, rendendosi responsabili degli atti da compiere e delle decisioni prese. Inoltre, i programmi non possono
prescindere dall’esistenza di un quadro di interventi a livello nazionale che definisca le linee di riferimento, e che
stabilisca una politica dei fattori produttivi.
Uno dei maggiori problemi con i quali i programmi di settore hanno dovuto confrontarsi è quello della crisi dei grandi
gruppi; in relazione a tale problema si stanno mettendo a punto ulteriori strumenti di intervento: la legge per il
risanamento finanziario delle imprese, che permette l’intervento diretto del sistema bancario, filtrato dai consorzi
nelle imprese industriali, ed il provvedimento di riforma delle procedure concorsuali per i grandi gruppi.
La brusca fine della legislatura impedì il completamento del disegno di riforma di intervento sull’industria. Durante
questo periodo la fisionomia dell’industria italiana ha mostrato importanti cambiamenti: consolidamento di nuove
aree di industrializzazione e rafforzamento del ruolo delle imprese di media dimensione. Rivitalizzazione
dell’industria prodottasi mentre la faticosa opera di riforma conduceva ad una virtuale paralisi dei tradizionali
strumenti di intervento dello Stato, conferma l’ipotesi di chi ritiene non applicabili al contesto italiano le esperienze
di programmazione vissute in altri paesi europei. La riscoperta del mercato e dei comportamenti che lo Stato deve
seguire per assicurarne il funzionamento ha esercitato una notevole influenza nella estensione dell’ultimo documento
da richiamare: il testo del “Piano triennale 1979-81” definiva i problemi della politica industriale italiana in due
categorie fondamentali di problemi: il risanamento delle aree di perdita e lo sviluppo della base produttiva. In
entrambi i casi la filosofia del piano appariva più orientata al mercato di quanto non fosse stato dato rilevare in alcuni
dei documenti succedutisi dallo Schema Vanoni in poi.

Le svalutazioni competitive negli anni della transizione verso la regolazione dei mercati e la privatizzazione (1979-
1990)
Gli anni ’80 hanno segnato l’inizio della fine delle politiche di piano, con i correlati interventi a pioggia di incentivi e
benefici finanziari, pur mantenendosi qualche forma di interventi agevolativi per la nascita e il consolidamento delle
piccole-medie imprese, per le regioni sottosviluppate e quelle che necessitano di processi di riconversione. Le cause di
questa svolta si riconoscono in tre categorie principali:

1. Constatazione della inadeguatezza dei risultati conseguiti rispetto a quelli attesi. Decennio fece registrare crisi
di alcune industrie sulle quali lo sviluppo pianificato faceva affidamento, e la contemporanea affermazione di
industrie costituite da piccole e medie imprese, come la moda e l’arredamento, trascurate dalla
programmazione.
2. Crisi delle grandi imprese, soprattutto pubbliche, faceva venire meno lo stimolo a coordinare piani strategici
di queste ultime con i piani di carattere nazionale, come avveniva in passato.
3. A livello teorico, la rivoluzione della scuola di Chicago ed il relativo indirizzo free trade dei governi Reagan e
Thatcher, la rivoluzione dei trasporti e della telecomunicazione, e gli accordi Gatt, resero del tutto obsolete le
idee alla base della programmazione.

A ciò fece da corona il “Libro Bianco (1985)”, promossa dall’allora presidente della commissione europea che decretò
l’aprirsi di una nuova fase della politica industriale, nella quale le dottrine e la prassi concernenti proprietà
pubblica, protezioni e incentivi vennero sostituite dalla filosofia del mercato e delle regole.
Nonostante l’abolizione del Cipi e del Cip e della moltitudine di Comitati interministeriali tarderà fino al 1993, essi
furono strumenti del tutto desueti per tutto il corso degli anni ’80. Mentre si faceva strada la visione delle funzioni
regolatrici, non interventiste, del governo nei confronti dei mercati, lo stesso Cipe sopravvisse trasformandosi in un
organismo decorativo, dopo l’incorporazione del Ministero del Bilancio in quello del Tesoro.
Negli anni della transizione fra i tentativi frustrati del dirigismo e gli anni’90 l’illusorio tentativo di mantenere e di
recuperare competitività all’industria italiana fu nella sostanza affidato alla sottovalutazione del cambio della lira
rispetto alle altre principali valute del nostro interscambio commerciale. Si veniva così a creare un effetto
protezionistico generalizzato perché la sottovalutazione favoriva le esportazioni e sfavoriva le importazioni. Gli
elevatissimi tassi di interesse, elevati per non lasciare spazio a inflazione e svalutazione, rendevano proibitivi gli
investimenti di rinnovo delle capacità produttive, creando le condizioni per le catastrofiche vicende monetarie
dell’inizio degli anni’90, quando la lira svaluto di oltre il 50% e nel settembre 92 l’Italia si trovò sulla soglia del
default finanziario.
Capitolo 20

La crisi della produttività e della crescita (1995-2010)

Italia e i suoi risultati economici hanno sempre rappresentato un caso enigmatico per gli economisti; purtroppo negli
anni recenti l’Italia non ha rappresentato, come in passato, un caso di economia in rapida crescita, ma bensì un caso di
un’economia a crescita zero:

 Invecchiamento della popolazione: gravi problemi in termini di produttività e welfare. Età media più alta
d’Europa, numero della popolazione diminuirebbe se non vi fosse l’immigrazione.
 Elevato indebitamento del settore pubblico

Esistono tendenzialmente tre scuole principali di pensiero economico contemporaneo:

a. Scuola che focalizza l’incertezza, la domanda effettiva, la domanda aggregata ed il meccanismo del
moltiplicatore-acceleratore (J.M.Keynes, Cambridge).
b. La scuola neomonetarista che si concentra sull’operatività dei mercati (von Hayek, London School of
Economics; Friedman, scuola di Chicago).
c. “Supply side economics” che dà il maggiore rilievo alla qualità dell’offerta (Mundell, Laffer).

Produttività e ristagno
La crisi italiana esiste a prescindere dalla crisi più generale che ha investito il sistema globale a seguito dell’esplosione
della bolla della finanza creativa. Il PIL, principale indicatore dei risultati economici, segnala una anomalia che dura già
da tempo: economia italiana è stata stagnante per diversi anni, con una crescita del PIL nell’ultimo quinquennio prima
della crisi che era inferiore alla metà della media. Gli andamenti negli anni della crisi del 2008 sostanzialmente
confermano queste caratteristiche, dato che la flessione italiana è stata sempre superiore alla media europea, la
quale è stata superiore a quella degli USA e oltre il doppio di quella mondiale.
Questo dato si è tradotto in una rilevante flessione del reddito pro capite nei confronti degli USA e nei confronti delle
altre potenze industriali europee. Il reddito pro capite italiano, facendo pari a 100 il dato dell’UE a 27, risulta pari a
102, ed è in diminuzione, essendo superato da Regno Unito e dalla Spagna. In questa circostanza il traino esercitato
dai consumi (“C”) sulla crescita della domanda (Consumi, Investimenti, Spesa pubblica e Esportazioni costituiscono la
domanda aggregata keynesiana) sulla produttività, nel nostro sistema, è risultato decisamente inferiore rispetto alla
dinamica dei principali concorrenti per effetto della crescita rallentata del reddito e dei consumi.
La produttività (misurata come Clup, Costo del lavoro per unità di prodotto) va ancora peggio, dato che all’effetto
della produttività stagnante si è sommata una dinamica dei costi del lavoro più accentuata rispetto a quella dei paesi
concorrenti. Nel periodo 1996-2007 il Clup italiano è cresciuto in ragione dell’1,5% medio annuo: mentre per i nostri
concorrenti più diretti, Francia e Germania, il Clup è diminuito dell’1& annuo.
Con una perdita di competitività pari al 31% dal lato dei costi in confronto ai due nostri principali concorrenti sul
mercato globale, la sopravvivenza sul mercato è diventata molto difficile.
I dati più recenti del 2008-2009 riflettono la pesante flessione della produzione dovuta alla crisi che ha portato ad un
aumento del Clup ben superiore al 4%: quel che è certo è che non hanno portato ad un miglioramento di
competitività.
Sono lontani ormai i tempi, 1999, in cui i rapporti dell’Ocse indicavano per l’Italia un vantaggio competitivo in termini
di Clup pari a quello degli USA e superiore del 60% alla Francia e alla Germania: tale vantaggio si è ridotto di oltre due
terzi.
Per tutto il periodo che va dal secondo dopoguerra in poi le esportazioni “X” hanno trainato la crescita dell’economia
italiana. Attualmente esse rappresentano circa il 25% del PIL, che controbilancia le importazioni di materie prime e di
prodotti energetici. Tuttavia però la “quota di mercato” delle esportazioni italiane sul commercio mondiale in termini
di quantità è stata progressivamente erosa dalla competizione dei paesi emergenti, mentre l’incremento dei prezzi
unitari non è stato in grado di compensare le variazioni negative dei quantitativi esportati. Le esportazioni del nostro
paese sono scese dal 4,6% del ’96 al 3,6% del 2006. L’anno di crisi del 2009 ha registrato una caduta delle esportazioni
italiane pari al 21,5% rispetto al 2008.
Non si può non menzionare il fatto che l’Italia è scesa all’ultimo posto nella classifica della produttività pubblicata
dall’Ocse. La tendenza della produttività italiana a ristagnare e a perdere terreno non solo nei confronti delle
economie in rapida crescita ma anche dei competitori tradizionali rappresenta ormai un fenomeno duraturo. Tuttavia
la “maglia nera” della classifica Ocse costituisce un fatto anche psicologicamente traumatico.
Le analisi post keynesiane
Le relazioni sussistenti fra andamento della produttività e sviluppo rappresentano il principale oggetto di studio di
tutte le scuole dell’economia contemporanea. La prima fra queste, che ha origine dall’opera prima di Keynes (The
General Theory of Employment, Interest and Money, 1936), considera che la domanda privata o pubblica, coperta o
meno da entrate corrispondenti, traina l’offerta attraverso il meccanismo del moltiplicatore-acceleratore, e
stabilisce quindi una chiara relazione di segno positivo fra domanda, produttività e sviluppo.
Il modello post-keynesiano Kaldor-Verdoorn delle relazioni circolari fra domanda aggregata (sistema economico nel
suo insieme), domanda effettiva (domanda che si rivolge alle singole industrie) e produttività può farci capire tale
meccanismo. Il termine “circolare” sta a significare che una variabile, la produttività, influenza l’altra, la domanda, e
viceversa, mentre il progresso tecnologico è paragonabile ed è una variabile esogena.
La sintesi di queste relazioni può essere così espressa: “un incremento della domanda determina un incremento della
produttività e\o dei salari e\o dell’occupazione, che determinano un incremento della domanda e viceversa, soggetta
ad un vincolo di competitività o di profitto, al netto delle variazioni determinate dall’innovazione”. Il senso delle
relazioni è che, assumendo che le altre variabili non cambino, gli incrementi di produttività si traducono in incrementi
del PIL, per effetti di incrementi della domanda interna (via salari, occupazioni e\o investimenti) o estera, per effetto
del miglioramento della competitività, aumenti che a loro volta determinano incrementi di produttività. I fenomeni
economici sono ciclici e non lineari: né i circoli virtuosi (variabili sono in aumento) né i circoli viziosi (variabili in
diminuzione) possono durare all’infinito.
Il “Sistema Italia” offre un caso perfetto per illustrare tale teoria.
Fra il 1995 ed il 2000, l’economia italiana cresceva ad un tasso normale (media annuale del 3% annuo). All’alba del
nuovo secolo ogni cosa è cambiata, il circolo ha smesso di essere virtuoso ed è diventato vizioso, ed i risultati sono
quelli descritti.
La situazione italiana quindi è coerente al modello post keynesiano, ma il constatare che il circolo vizioso ha
improvvisamente preso il posto di quello virtuoso non permette di capire perché ciò è avvenuto.
Secondo il “principio della domanda effettiva” della teoria keynesiana questi fatti potrebbero riflettere una scarsa
fiducia nel futuro da parte degli imprenditori a partire dal 1995. Tuttavia la domanda rimane la stessa di quella relativa
al fenomeno della flessione delle nascite. Tutto ciò non può essere accaduto in conseguenza di cause generali, come la
recessione o l’attacco terroristico alle Torri Gemelle oppure la recente “bolla immobiliare”, perché le ripercussioni di
questi eventi hanno riguardato tutta l’economia mondiale e non soltanto un paese, e soprattutto un fenomeno di
tale rilevanza non può essere spiegato da variazione dei salari, disoccupazione o profitti.
Non ha particolari responsabilità neanche l’introduzione dell’Euro (2002); è stata una buona moneta che ha sostituito
una moneta cattiva, che conteneva ormai un virus inflazionistico. Le abitudini inflazionistiche che si erano radicate con
l’uso della vecchia lira hanno continuato ancora un po’ anche con l’euro e l’inflazione italiana è stata superiore ai livelli
degli altri paesi dell’euro nelle prime fasi dell’adozione.

-) Il ruolo del “capitale umano”. Nuovi sviluppi sul modello post keynesiano di Solow: profilo riguardante il ruolo
dell’innovazione e del capitale umano come determinante dello sviluppo economico. Robert Solow è conosciuto più
che altro per il modello di crescita economica che porta il suo nome, paradigma della sintesi post keynesiana. Il
modello permette di separare le determinanti della crescita dell’output in variazioni incrementali di input, mentre
l’incremento del prodotto che non risulta spiegato dall’incremento dei due input (K ed L) viene attribuito al
progresso tecnologico. Con tale modello Solow arrivò alla conclusione per la quale 4\5 della crescita marginale del
prodotto era da attribuirsi al progresso tecnologico. A partire dalla pubblicazione del modello, 1950, si sono evoluti
modelli sempre più sofisticati di cui il più importante è rappresentato dal contributo di Mankiw, Romer e Weil. I tre
economisti americano dimostrarono che, se si include il capitale umano nel concetto di capitale, allora la capacità
esplicativa del modello di Solow risulta enormemente potenziata. Da questa osservazione deriva la conclusione che
l’elemento rappresentato dalla formazione del personale (capitale umano) nel determinare la crescita della
produttività riveste un ruolo paragonabile se non persino superiore a quello dell’innovazione tout court, o di quella di
processo e di prodotto. Il rovescio della medaglia della celebrata struttura flessibile dell’industria italiana basata sulle
piccole-medio imprese, consiste proprio nella esiguità delle risorse che tali sistemi di imprese possono destinare alla
qualificazione del fattore costituito dal capitale umano e alla ricerca, che rappresentano pur sempre in gran parte una
esternalità per l’economia delle imprese.

-) La visione neomonetarista della scuola di Chicago: prende in considerazione la competitività dei mercati; in tale
prospettiva ciò che determina buoni risultati economici è la concorrenzialità. Ogni ostacolo alla concorrenza
(monopoli, aiuti, regolamentazioni) determina effetti diversi da quelli dichiarati e risultati peggiori di quelli che si
avrebbero avuto in loro assenza. Secondo Friedman il governo e la spesa pubblica dovrebbero essere neutrali
rispetto alla concorrenza fra i soggetti economici, limitandosi a garantire la stabilità, finanziando o producendo i beni
pubblici che il mercato non può produrre da sé, come l’educazione, giustizia e infrastrutture. Il neomonetarismo
deriva i suoi studi dalla teoria quantitativa della moneta di Fisher. Nonostante le raccomandazioni di politica
economica non siano opposte alle idee di derivazione keynesiana, il bersaglio dei neomonetaristi è costituito piuttosto
dalla economia bastarda, creata dalla commistione fra pubblico e privata che ostacola la concorrenzialità dei mercati.
Prevalere della scuola neomonetarista ha condotto alla deregolamentazione alle privatizzazione degli anni ’80. Grande
prominenza al ruolo delle forza spontanee del mercato, imprese e management su tutte, dato che il loro successo
svolge un ruolo darwiniano nella allocazione dei fattori produttivi, creando spazio per nuove imprese più efficienti con
l’eliminazione dei soggetti che non usano bene le risorse (morte dell’elettronica di consumo negli USA e nascita della
Silicon Valley, esempio dei grandi successi ottenuti dall’applicazione di questi modelli).
La disciplina dei mercati e della concorrenza fa parte delle competenze dell’UE, e costituisce, assieme alle politiche
che attuano tale disciplina, la giustificazione ed il fondamento dell’allargamento dei mercati (globalizzazione,
delocalizzazione); tale allargamento ha determinato il ciclo di crescita eccezionalmente lungo che ha preceduto la
crisi che ha avuto inizio nel 2007-2008. L’allargamento del mercato spiega i consolidati successi di Cina e Germania,
ma non spiega il declino di produttività e crescita in Italia: per un grande paese esportatore, la rimozione degli ostacoli
al commercio internazionale dovrebbe dare vantaggi ben superiori agli svantaggi determinati dalla maggiore
concorrenza sul mercato interno dal lato delle importazioni. Il venire meno del sostegno offerto dalle svalutazioni
competitive alle industrie esportatrici e a quelle che subiscono la concorrenza delle importazioni può aver ridotto la
profittabilità delle attività esposte alla concorrenza, e reso relativamente più attrattive quelle protette.

-) Supply side economics: aspetto relativo alla “dimensione” della presenza pubblica in economia (si parla di Small o di
Big government). La moderna “economia dell’offerta” ha rappresentato la reazione agli anni bui della stagflazione,
dovuta al dilagare della spesa pubblica, e si fonda sulla assunzione per la quale la spesa pubblica produce risultati
decrescenti, cioè esattamente l’opposto di quanto accade nel settore privato dove i rendimenti sono crescenti (“The
State is the problem, not the solution”). Questa visione ha avuto successo in America ed in misura minore Europa.
Anche nella patria di Lady Thatcher, la spesa pubblica ha continuato ad aumentare e non è mai diminuita. Per questo
motivo il differenziale di crescita fra America ed Europa può essere spiegato dalla dimensione della spesa pubblica, il
quale però non può spiegare il differenziale fra Italia ed il resto d’Europa, nonostante la spesa pubblica italiana avesse
sostanzialmente analoga composizione e dimensione, forse diversa efficienza, rispetto agli altri paesi europei.
Concludendo, per spiegare la crisi della produttività e della crescita in Italia, gli strumenti dell’analisi economica
consentono di formulare solamente ipotesi.

Infrastrutture e Sviluppo economico


Rileggendo gli scritti di Marshall, padre fondatore della supply side economics, possiamo avvicinarci alla soluzione di
una parte di questo enigma. Per spiegare il fenomeno delle “economie esterne”, l’autore inglese sosteneva che il
fattore dominante dell’epoca (principles of economics, 1890) non fosse lo sviluppo dell’industria manifatturiera, ma di
quella dei trasporti. Aggiungendo a questa constatazione la sigla Ict, si renderebbe immediatamente chiaro quanto la
spesa pubblica per le infrastrutture sia determinante per la produttività e lo sviluppo. Inoltre in Europa, con
l’affermarsi del modello di economia sociale di mercato, il settore pubblico dell’economia è cresciuto
considerevolmente anche nella spesa sociale e la quantità della spesa pubblica fa della qualità della spesa stessa un
problema prioritario dell’economia.
La malattia italiana ha origine dalla flessione della produttività reale a partire dal 1996, e rappresenta l’esplodere
conclamato di un male i cui sintomi sono rimasti in incubazione per un lungo periodo di tempo.
Diminuzione del tasso di crescita della produttività reale ricorda l’improvvisa perdita di pressione nella cabina di un
aereo in volo. Considerando che già si stava volando basso, dato che da tempo ormai la crescita della produttività
aveva rallentato, la nostra quota di volo è ulteriormente scesa alla metà di quella europea, che a sua volta è la metà di
quella mondiale.

La palude legislativa e il macigno sulle spalle


Spiegazione potrebbe essere trovata in tre dati impressionanti: massa enorme delle leggi in vigore che continua a
crescere, debito pubblico e pressione fiscale.
Studio della Banca d’Italia del 2007, leggi vigenti in Italia erano più di 21mila, contro le quasi 10mila in Francia e le
circa 4mila in Germania. Tale diluvio legislativo si trasforma in un pantano che appesantisce i movimenti, la cui massa
invece di consolidarsi continua ad espandersi per ragioni che sono difficili da spiegare. Forse si tratta di un difetto di
modernità nel paese che è stato la culla del diritto, ma tutto ciò ha creato un brodo di coltura perfetto per la
burocrazia, la legislatura ed i Tar.
Il debito pubblico è il macigno che grava sulle spalle del paziente italiano. Si è appesantito a dismisura come
conseguenza della crisi sociale degli anni ’70 e dei suoi strascichi. Il debito italiano è il più alto d’Europa dopo quello
greco, e l’Italia è sorvegliata speciale da parte dei mercati finanziari, pronti a sanzionare gli anelli deboli della catena
dei paesi euro (Pigs). Nonostante la discesa dei tassi di interesse internazionali, l’Italia non ha potuto approfittare della
corsa generale apertasi nel dare sostegni pubblici alle economie, perché è consapevole di avere l’attenzione dei
mercati finanziari puntata addosso e non può permettersi di allargare ulteriormente lo spread dei tassi di interesse sul
debito pubblico.
Il differenziale dei tassi di interesse sui titoli decennali del Tesoro in raffronto a quelli tedeschi risultava aumentato,
all’acme della crisi finanziaria del gennaio 2009, da 45 a 150 basis points, per poi scendere a 80 nel febbraio 2010,
visto il comportamento più virtuoso della politica fiscale italiana rispetto a quelle degli altri Pigs, per poi risalire a 150
dopo la crisi della Grecia (maggio 2010).
I vincoli del mercato hanno imposto di fare “di meno e dopo” di quanto fatto dai nostri concorrenti. Sono trascorsi
quindici anni da quando la produttività reale italiana ha cominciato a perdere quota, e nello stesso periodo la paralisi
delle infrastrutture ha condotto al caos. Gli investimenti in infrastrutture sono stati cancellati o sono proseguiti al
rallentatore, generando così costi aggiuntivi per rispondere alla sensibilità ambientale cresciuta in tutto il mondo
sviluppato. Considerati come fattori ostacolanti la costruzione di nuove grandi autostrade l’orografia italiana e le
preoccupazioni per la difesa ambientale, la modernizzazione delle interconnessioni dei trasporti su rotaia ha la
massima importanza. Quanto alle altre infrastrutture da cui dipende lo sviluppo ed il benessere (educazione, ricerca,
salute e giustizia), il fatto che in Italia esistano oltre 120 sedi universitaria, e che neppure una figuri fra le prime cento
nelle classifiche internazionali getta un’ombra inquietante sul futuro del nostro paese.

Il peso fiscale
L’elevata pressione fiscale è l’ovvia conseguenza della vastità della spesa pubblica e dell’elevatezza del debito. Il
sovrappeso del debito pubblico italiano è un problema che risale agli anni ’80. Dopo la firma del trattato di Maastricht
e per tutto il decennio successivo l’Italia si è trovata in compagnia del Belgio a condividere il primato europeo nella
speciale classifica dei paesi relativamente più indebitati. Entrambi i paesi hanno dovuto subire le imposizioni del
“patto di stabilità”, aumentando fortemente la pressione fiscale. Se nel caso del Belgio la manovra di correzione ha
avuto successo, perché l’aumento fiscale è stato accompagnato da una risoluta azione di freno alla crescita della
spesa, nel caso dell’Italia l’inasprimento fiscale non è stato accompagnato da una contestuale azione di
contenimento della crescita della spesa, e ciò ha avuto l’effetto ridurre soltanto marginalmente il peso
dell’indebitamento pubblico sul Pil. Il succedersi di dodici formazioni governative nel periodo 1992-2009 è un indice
significativo dell’instabilità politica che si è tradotto in un compromesso molto pericoloso se protratto nel tempo:
accentuare pressione fiscale senza domare la crescita della spesa. La pressione fiscale in Italia ha superato anche
quella della Francia e del Belgio, divenendo la più elevata fra i paesi censiti dall’Ocse. Con il sopravvenire della crisi
del 2008 le cose sono andate ancor più peggiorando, perché volendo mantenere la spesa in disavanzo sotto controllo,
la pressione fiscale tenda ad aumentare inerzialmente in presenza di flessioni del reddito.
La struttura del prelievo inoltre è fortemente concentrata sui redditi del lavoro dipendente e delle imprese con un
prelievo di fiscalità complessiva che supera il 75% degli utili lordi. Qui si intravedono chiaramente i criteri di una supply
side economics applicati al rovescio, dove la crescita della spesa pubblica avviene a spese degli investimenti e dei
consumi privati, penalizzando i settori a più elevata produttività.

Dalle riforme degli anni ’90 al quindicennio perduto. La nuova terapia


La malattia dell’Italia si è resa conclamata e più acuta per conseguenza della grande recessione, a partire dalla seconda
metà del 2008, accentuando il twin deficit nei conti dell’estero e nel disavanzo. Essa ha origine da cause molto
complesse ed eterogenee. Non esistono soluzioni semplici per problemi complessi, ma innanzitutto non ci si deve
nascondere che la recessione colpisca l’Italia più gravemente di quanto accada per i nostri alleati-competitors. L’Italia
è entrata in condizioni relativamente peggiori rispetto agli altri grandi paesi sviluppati perché il sistema risultava già
in forte decelerazione e cogliendo il sistema delle imprese nel bel mezzo di una fase di ristrutturazione, necessaria
per recuperare le perdite di competitività.
Nelle prime fasi della crisi le condizioni della nostra finanza pubblica hanno fatto sì che la preoccupazione di non
compromettere lo standing creditizio del paese sul mercato internazionale avesse il sopravvento sulla necessità di
condurre politiche fiscali anticicliche di sostegno alla domanda e alla competitività. Prima fase, esclusivamente
difensiva, ha rappresentato una scelta obbligata ed ha avuto successo grazie al concorso di tre ordini di circostanze:

1. Altri paesi si sono trovati nella posizione di costituire gli anelli più deboli della catena dell’euro.
2. Il sistema bancario italiano è risultato meno compromesso nelle attività di speculazione immobiliare e di
intermediazione.
3. Grazie alle politiche monetarie espansive della Fed e della Bce il livello dei tassi di internazionali è sceso.

Quando i tassi però ricominceranno a salire per effetto della ripresa internazionale, o dell’inflazione, il disavanzo
pubblico italiano diverrà esplosivo. Occorre quindi utilizzare questo breve intervallo per introdurre le riforme e le
correzioni strutturali che attendono da così lungo tempo. Può essere istruttivo il confronto con il precedente della crisi
1974-1975. I gravi errori di politica economica che si compirono allora in Italia, costituiti dall’adozione di un sistema di
indicizzazione dei salari, dall’impegno dell’Istituto di emissioni di sottoscrivere in maniera illimitata e incondizionata i
titoli del Tesoro, prolungavano l’instabilità oltre il decennio. Oggi gli errori non potrebbero essere ripetuti; il campo
degli strumenti della politica economica si è molto ristretto, specificatamente a:

1. Spesa pubblica ed infrastrutture: richiede che la severa cura a cui la stabilizzazione della moneta ha
sottoposto il settore privato sia ora estesa al settore della spesa pubblica. Pensioni, sanità, PA contengono
ampi margini di arretratezza e inefficienza la cui riduzione potrebbe tradursi in rilevanti alleggerimenti della
pressione fiscale.
2. Debito e patrimonio pubblico: politica delle privatizzazioni, dopo un avvio promettente, è poi proseguita
stancamente.
3. Concorrenzialità dei mercati: malgrado le norme e gli istituti introdotti e malgrado il generoso impegno di
coloro che vi hanno dedicato attività, forniscono una parte della spiegazione del più singolare fra i paradossi
della sindrome del “paziente italiano”: mentre i costi unitari del lavoro sono aumentati di più di quanto sia
avvenuto per i nostri principali concorrenti, il potere d’acquisto per le nostre famiglie risulta
comparativamente diminuito.
4. Il “che fare” di fronte all’allungamento della durata della vita media: crescita del numero dei pensionati
rispetto ai lavoratori attivi. Il fenomeno per cui la crescita dei salari si traduce in una corrispondente crescita
della domanda effettiva perde la sua efficacia a livello aggregato se la quota dei lavoratori attivi sul totale
della popolazione attiva diminuisce. Senza una profonda revisione del sistema pensionistico il prolungarsi
della vita media degli individui si trasforma da principale indicatore del benessere in un fattore che pregiudica
la base stessa da cui ha origine il benessere.
Capitolo 21
Le nuove tendenze delle politiche
industriali. La regolazione dei mercati e le
autorithies.

Linea ispiratrice delle nuove politiche industriali può essere espressa dal principio della promozione e della tutela di
condizioni di concorrenzialità dei mercati, che si realizza eliminando le posizioni monopolistiche e prevenendo
comportamenti restrittivi della concorrenza praticati dalle imprese incombenti. Il fondamento di tale principio risiede
nella constatazione secondo cui la concorrenza è il migliore sistema possibile non solo nella prospettiva dei
consumatori ma anche in quella di efficienza, competitività e innovazione. Si è quindi determinato un capovolgimento
delle politiche che si ispiravano alla protezione dei produttori.

La tutela della concorrenza


Azione delle Autorità preposte alla tutela della concorrenza trova la giustificazione economica principale nella
inefficienza allocativa del monopolio. In regime di monopolio infatti l’output fissato dal monopolista è inferiore a
quello ottimale, e di conseguenza anche il prezzo è più elevato del livello ottimale. Si può quindi parlare di costo
sociale del monopolio. Condizioni di inefficienza allocativa si caratterizzano anche in caso di oligopolio, che costituisce
una forma di mercato più diffusa, nonostante però non esista una misura precisa di quanto e quando un oligopolio
molto concentrato è effettivamente dannoso per la concorrenza del mercato.
Accanto al costo sociale del monopolio, secondo alcuni recenti sviluppi, appare rilevante includere anche i costi
relativi alla creazione e al mantenimento di posizioni monopolistiche; tra questi rilevano:

a. Comportamenti dei monopolisti rivolti a scoraggiare entrata di nuove imprese: Esistenza di extraprofitti
richiama l’entrata di nuove imprese. Il monopolista potrà adottare diverse strategie di deterrenza
dell’entrata, come l’applicazione di prezzi più bassi di quelli che portano alla massimizzazione dei profitti di
breve periodo. Queste strategie da un lato comportano una riduzione dei costi sociali del monopolio,
dall’altro però hanno effetti negativi il cui risultato netto va valutato nel lungo periodo, relativamente alla
durata del monopolio.
b. Comportamenti dei monopolisti nei settori delle public utilities volti a estendere abusivamente la propria
posizione dominante in segmenti di mercato contigui liberalizzati
c. Costo opportunità legato agli investimenti che altri operatori farebbero senza monopolio: tendenzialmente si
ritiene che i nuovi entranti investano molto di più di un monopolista se il mercato viene aperto alla
concorrenza.
d. Minore progresso tecnologico del monopolio: gli incentivi ad innovare sono più forti nelle industrie
concorrenziali, mentre il monopolio ritarda il progresso e causa perdite di benessere. Alle innovazioni infatti
sono associati generalmente diminuzioni di costi e aumento dei profitti, importanti per una impresa
concorrenziale, non per un monopolista che già gode di extraprofitti.

Le normative per la tutela della concorrenza sono diffuse in quasi tutti i paesi industrializzati e sono caratterizzate da
una struttura comune, nonostante alcune difficoltà legate al contesto economico:

a. Norme in materia di posizione dominante o di monopolio


b. Norme in materia di intese e forme di comportamento coordinato
c. Norme in materia di concentrazione

A queste si associa la creazione di un organismo tecnico di applicazione della politica della concorrenza.
Generalmente tali norme si applicano a tutti i settori della economia, ma ciascuno Stato può individuare settori nei
quali la normativa non viene del tutto applicata o trovare alcune limitazioni. Allo stesso modo possono essere previste
esenzioni relative ai comportamenti vietati che vengono autorizzati in ragione degli effetti positivi che ne possono
derivare in termini di benessere collettivi.

-) La normativa antitrust negli Stati Uniti.


USA hanno preceduto tutti gli stati industrializzati nell’emanare lo Sherman Act nel 1890. La prima sezione vieta i
cartelli espliciti, mentre la seconda sezione stabilisce che “ogni persona che monopolizzerà” verrà ritenuta colpevole
di un reato grave. Nonostante la seconda sezione formuli esplicitamente un divieto di monopolio generale, nella prassi
le Autorità ne hanno fornito una interpretazione diversa, che ha portato a sanzionare solo alcuni comportamenti
monopolistici capaci di generare inefficienza. Per porre rimedio all’ambiguità della formulazione e risolvere dubbi
interpretativi, furono approvate successivamente due ulteriori normative:

 Clayton Act, che mira principalmente a combattere quattro prassi specifiche (discriminazione dei prezzi,
utilizzo di vendite abbinate di beni, monopoli locali che determinano riduzione della concorrenza e fusioni
che limitano la concorrenza). In materia di fusioni, l’ultima revisione delle linee guida governative prescrive
l’utilizzo dell’indice HH per valutare se sono restrittive della concorrenza. Calcolati i valori dell’indice
(moltiplicato per mille) nel mercato rilevante e la sua variazione a seguito dell’operazione di concentrazione.
Crea il Department of Justice.
 Federal Trade Commision Act, ha creato una nuova agenzia Governativa, la Ftc, che oltre a svolgere attività
non connesse all’antitrust, vigila sull’applicazione delle leggi antitrust e giudica le controversie. Rientra tra le
responsabilità della Ftc la protezione del consumatore e la prevenzione della pubblicità ingannevole.

Ftc e Department of Justice sono gli organismi responsabili della applicazione delle leggi antitrust. Un provvedimento
della Ftc può portare a un provvedimento che impone l’abbandono di certe pratiche; un provvedimento del DoJ può
concludersi con un provvedimento con finalità analoghe. Il DoJ può anche intentare una causa penale.
Il modello statunitense vede dunque coinvolti organi amministrativi e giudiziari nell’attività antitrust. I giudici
interpretano e fanno rispettare la legge, mentre il DoJ e l’Ftc vigilano perché non si determinino comportamenti
anticompetitivi, insieme con i privati cittadini.

-) La normativa antitrust in Europa.


Il trattato dell’UE, artt. 81 a 89, fornisce il quadro normativo della politica europea di concorrenza. Ulteriori norme
sono contenute in Regolamenti del Consiglio e della Commissione. Politica europea comprende cinque ambiti
principali:

a. Divieto di accordi restrittivi della concorrenza: art. 81 si applica alle imprese che possono pregiudicare il
commercio tra Stati membri e che impediscono o falsano la concorrenza. Vi rientrano gli accordi orizzontali,
che prevedono fissazione congiunta dei prezzi di vendita o rivendita, la spartizione dei mercati e la limitazione
della produzione. Sono vietate anche le limitazioni alla concessione di sconti, fissazione di margini per la
rivendita ecc. intese di questo tipo finiscono per produrre prezzi più elevati e quantità inferiori a quelle
desiderate dai consumatori. Possono risultare restrittivi della concorrenza anche gli accordi verticali, come
ad esempio accordi di esclusiva tra produttore e distributore di un bene. Divieto non si applica nel caso in cui
gli accordi restrittivi contribuiscano a incoraggiare la concorrenza, e cioè: migliorano la produzione o
distribuzione oppure promuovono il progresso, fanno beneficiare i consumatori di una congrua parte, sono
necessarie per conseguire i benefici. Per i casi ricorrenti in cui tali condizioni possono essere sempre
dimostrate, la Commissione ha adottato i cd regolamenti di esenzione per categoria, che fissano le condizioni
da rispettare per determinate categorie di accordi. Tali regolamenti accordano alle imprese una più ampia
libertà di scelta quanto all’organizzazione della propria attività economica e allo stesso tempo individuano
con chiarezza alcune pratiche apertamente restrittive della concorrenza, pertanto vietate.
b. Divieto di abusi di posizione dominante: art. 82; gli abusi possono consistere in:
- imposizione diretta o indiretta di prezzi di acquisto o di vendita o di altre condizioni contrattuali
particolarmente gravose;
- limitazione della produzione, dei mercati e dello sviluppo tecnologico, con pregiudizio per i consumatori
(rifiuto a produrre un bene finale o intermedio);
- applicazione nei rapporti commerciali con altri contraenti di condizioni contrattuali oggettivamente diverse
per prestazioni equivalenti;
- subordinazione della conclusione dei contratti all’accettazione dei contraenti di prestazioni supplementari
che non abbiano alcuna connessione con l’oggetto dei contratti stessi.
Le concentrazioni sono disciplinate da un apposito Regolamento, che ha introdotto a livello comunitario una
disciplina sul controllo preventivo di tutte le operazioni di concentrazione nelle quali il fatturato delle imprese
interessate superi determinate soglie. In questi casi, prima di effettuare l’operazione, occorre che le imprese
na diano informazione alla Commissione, che può vietare l’operazione se la concentrazione ostacoli
significativamente una concorrenza effettiva nel mercato comune o in una parte essenziale di esso. Al di
sotto delle soglie comunitarie, le concentrazioni vengono esaminate dalle Autorità nazionali garanti della
concorrenza degli Stati membri.
c. Divieto delle concentrazioni che creano e rafforzano una posizione dominante (Regolamento sulle
concentrazioni)
d. La liberalizzazione dei settori in regime di monopolio (art. 86): divieto rivolto agli stati membri di introdurre o
mantenere in vigore in vigore misure contrarie alla concorrenza, che può essere rimossi se si dimostri che
l’applicazione delle norme concorrenziali è di ostacolo alla specifica missione loro affidata, sia in termini
giuridici che di fatto.
e. Divieto degli aiuti di Stato (art. 87 e 88): specifiche clausole contenute nella normativa europea dirette a
disciplinare l’azione dello stato in campo economico tramite l’uso di risorse pubbliche per promuovere
determinate attività economiche o proteggere le industrie nazionali, pubbliche o private che siano. La
concessione di denaro pubblico costituisce un aiuto di Stato. Gli aiuti possono falsare la concorrenza leale ed
effettiva tra imprese e danneggiare l’economia, e per questo la loro elargizione è controllata dalla
Commissione. Sono consentiti quelli conformi all’interesse comune dell’UE (favorire sviluppo delle regioni
svantaggiate, promozione PMI, ricerca e sviluppo, protezione ambiente ecc.).

Queste norme tracciano i limiti delle politiche industriali tradizionali, che corrispondono in gran parte a misure di
sostegno ai produttori, subordinandone l’ammissibilità alla verifica delle condizioni di compatibilità con le finalità
sottostanti alla creazione dell’UE e con la politica della concorrenza. Commissione europea è l’istituto al quale è
affidata l’attuazione della normativa a tutela della concorrenza a livello comunitario.

-) La normativa antitrust in Italia e l’Agcm.


Disciplina antitrust in Italia approvata con la legge 287\1990, che ha istituito l’Autorità garante per la concorrenza ed il
mercato. Normativa che ricalca quella europea.
Articolo 2 vieta le intese che hanno obiettivo o effetto di restringere la concorrenza e che comportano quindi una
consistente restrizione della concorrenza all’interno del mercato o in una sua parte rilevante. Sono considerate intese
non solo gli accordi formali tra operatori economici, ma tutte le attività economiche in cui è possibile individuare il
concorso volontario di più operatori.
Articolo 4 disciplina le deroghe al divieto di intesa, casistica corrispondente a quella europea delle condizioni
cumulative da soddisfare. La legge italiana non vieta la posizione dominante, ma pone dei vincoli ai possibili
comportamenti di un’impresa che si trova in questa situazione.
Per quanto riguarda invece le operazioni di concentrazione, la legge richiede che tutte quelle il cui fatturato realizzato
nel territorio italiano superi determinate soglie, siano comunicate all’Autorità, mentre sono esentate le fusioni e
acquisizioni che riguardano imprese con fatturati di modesta entità.
Nel caso dei monopoli legali e delle imprese pubbliche, la legge fa propri i principi comunitari, prevedendo che la
disciplina antitrust possa trovare delle limitazioni, ma solo per tutto quanto strettamente connesso all’adempimento
degli specifici compiti affidati alle imprese che erogano servizi di interesse economico generale o che operano in
regimi di monopolio legale.
L’Agcm ha potere investigativo e decisionale sui casi di violazione della concorrenza legati a intese e cartelli tra
imprese, abusi di posizione dominante, operazioni di concentrazione. Recentemente ha acquisito anche competenze in
materia di pubblicità ingannevole e comparativa e di conflitti di interesse. Inoltre, l’Autorità effettua pareri e
segnalazioni circa leggi vigenti o in via di formazione che possano introdurre restrizioni alla concorrenza. In base a tale
poteri, svolge anche un ruolo di promozione della concorrenza, fornendo suggerimenti e indicazioni su come leggi e
regolazioni settoriali possano essere orientate in un senso pro concorrenziale. Autorità, che pubblica le proprie
decisioni sul proprio Bollettino settimanale, è un organo collegiale. Un presidente, quattro Componenti, nominati da
Camera e Senato. Sono presenti in Italia altre istituzioni che hanno analogo ruolo in settori specifici, come la Banca di
Italia e l’Isvap.

-) Obiettivi delle politiche per la concorrenza.


Obiettivo generale è promozione dell’efficienza, quale quella che si realizza in concorrenza perfetta. Non essendo
questa però facilmente realizzabile, l’azione antitrust si attesta su obiettivi di second best, quali diffusione del potere
di mercato (intesa come libertà di accesso al mercato) e difesa della libertà economica dei partecipanti al mercato
(difesa del funzionamento del meccanismo concorrenziale). Mirando tali politiche all’efficienza allocativa, non
possono esservi gruppi o categoria sociali in partenza favorite, se non i consumatori. D’altra parte la difesa delle
piccole imprese dallo strapotere dei grandi gruppi è all’origine dello Sherman Act, e numero decisioni americane sono
state influenzate dalla finalità di garantire alle piccole imprese più efficienti di utilizzare appieno i vantaggi derivanti
dalle loro superiori capacità produttive ed organizzative. Stesso atteggiamento, attenuato, si ritrova nelle politiche
europee.
In generale, tutte le normative evolvono in funzione dell’ambiente economico e istituzionale di riferimento; quella
antitrust ad esempio risente della struttura dell’industria cui si applica, al suo grado di concentrazione, integrazione e
struttura proprietaria. Lo sviluppo della normativa antitrust è stato anche connotato da un sempre maggior peso della
teoria economica; “cicli interpretativi” delle normative legati al susseguirsi di paradigmi teorici tra loro alternativi.

-) Differenza fra normativa statunitense ed europea.


Maggiori difformità si sono evidenziate in passato nell’ambito del controllo sulle operazioni di fusione e acquisizione.
Tra gli anni ’30 e ’70 il paradigma SCP ebbe una forte influenza sulla normativa antitrust americana. L’atteggiamento
degli organi e l’applicazione dei tribunali era legata agli effetti dei comportamenti d’impresa sulla struttura di mercato
e sulle condizioni di accesso ad esso. A partire dagli anni ’70 invece si afferma il pensiero della scuola di Chicago, più
attento all’efficienza. Più attenzione agli aspetti organizzativi del mercato e comportamenti dell’impresa considerati in
relazione agli effetti che essi producono.

La regolazione economica
Fondamento economico della regolazione trova giustificazione nell’esistenza dei fallimenti di mercato, tra cui si
ricomprende il monopolio naturale. Le fonti e le forme che possono assumere i fallimenti di mercato sono molteplici.
Nell’ambito della regolazione economica possono essere considerate solo alcune forme:

a. Monopolio naturale: (vedi cap. 7 e 12) si realizza quando la domanda del mercato di un bene può essere
soddisfatta da parte di una singola impresa ad un costo più basso di quello che si avrebbe se a produrre il
bene fossero due imprese o qualsiasi altra combinazione di esse. Poiché il monopolio genera vari tipi di
inefficienza statica e dinamica, deve essere regolato. Ciò può avvenire adottando diversi modelli di fissazione
del prezzo (cap. 22).
b. Esternalità: presenza di situazioni in cui gli operatori sul mercato, nel prendere le proprie decisioni, sono
indotti a trascurare le ricadute degli effetti negativi o positivi di tali decisioni su terzi (esempi classici di
esternalità positive: prevenzione di fenomeni di inquinamento ambientale, stabilità dei mercati finanziari).
Interdipendenza che altera il funzionamento del mercato, impedendo al prezzo del bene di sintetizzare tutte
le informazioni rilevanti per la conclusione dello scambio. In presenza di esternalità negative, il prezzo non
riflette il costo sociale del comportamento di domanda ed offerta, e quindi si avrà, rispettivamente, un
consumo ed una produzione superiore all’ottimo; in caso di esternalità positive, si avrà consumo o
produzione inferiore all’ottimo. La regolazione interviene per rendere espliciti i costi sociali di tali decisioni
penalizzando\incentivando le attività che generano esternalità negative\positive.
c. Asimmetrie informative: l’informazione sui prodotti o servizi lungi dall’essere perfetta, potendo essere
insufficiente o incompleta perché costosa, falsa o complessa. Quando la reciproca esperienza si rivela
insufficiente a eliminare tali asimmetrie, l’intervento pubblico può essere orientato ad imporre standard
qualitativi minimi o a subordinare l’esercizio di una attività produttiva a controlli e autorizzazioni. In alcune
circostanze il mercato può non garantire la fornitura di un servizio secondo le modalità ritenute socialmente
desiderabili; ciò si verifica nei servizi di pubblica utilità (poste, telecomunicazioni e ferrovie), caratterizzati da
una domanda non uniformemente distribuita sul territorio e di tipo stagionale o ciclica. Obblighi di servizio
imposti anche a servizi non essenziali, come le farmacie, i taxi e le edicole, dove si traducono nell’imposizione
di regole relative agli orari di erogazione o ai turni.
d. Universalità del servizio: da un punto di vista economico, i servizi essenziali rientrano nella categoria dei beni
di merito, il cui consumo è ritenuto un bene, sulla base di considerazioni sociali o politiche, ma comunque
extraeconomiche.

Oggetto della regolazione è riconducibile a tecniche di fissazione dei livelli dei prezzi e dei loro meccanismi di
adeguamento, e della fissazione dei livelli di qualità.

-) Il problema della fissazione dei livelli di prezzo (optimal pricing).


Problema si pone nei termini di definire una remunerazione equa per l’impresa che garantisca la massimizzazione
del benessere collettivo. Per illustrare come avviene la fissazione ottimale delle tariffe nel caso di un monopolio
naturale in base a criteri marginalisti e nell’ipotesi di informazione perfetto è opportuno ricorrere ad un grafico. Se il
monopolista viene sovvenzionato utilizzando il gettito fiscale raccolto in maniera efficiente, la collettività gode di un
maggior benessere se il prezzo è pari al costo marginale ed in presenza di un sussidio. Efficienza data dal porre prezzo
uguale al costo marginale e dal sovvenzionare il monopolista. Tale modello però si basa su ipotesi poco realistiche:
- i regolatori non conoscono i costi medi del settore
- i governi riescono raramente ad effettuare il prelievo in maniera efficiente
- le imposte più comunemente usate creano un divario fra prezzo e costo marginale.
I sussidi quindi di solito comportano un costo in termini di risorse reali. Inoltre, la necessità di trasferimenti dal
regolatore all’impresa regolata può portare al fenomeno della cattura del regolatore, per il quale le imprese
investono risorse per influenzare le decisioni del regolatore in modo da massimizzare i sussidi da ricevere. Di solito
quindi sono più comuni regolazioni second best, che pongono il prezzo pari al prezzo medio e non al prezzo marginale.
Altre soluzioni proposte per evitare gli inconveniente legati al prezzo politico e a quello pubblico, e per minimizzare le
perdite di efficienza, sono riconducibili a due modelli di fissazione dei prezzi nel caso di imprese monopolistiche mono-
prodotto e
multi- prodotto.

 In caso di impresa mono-prodotto, si descrivono i modelli di discriminazione dei prezzi: consente la


fissazione di prezzi diversi in funzione della diversa elasticità al prezzo di ciascun consumatore o gruppo di
consumatori. Ciò è possibile se il monopolista è capace di identificare tali elasticità e di separare i
consumatori. La produzione del monopolista in questo modo può avvenire in maniera efficiente senza
necessità di erogare servizi. Soluzione che però danneggia i consumatori che si vedono estratta tutta la loro
rendita. Compatibili con le normative antitrust sono ad esempio quelle basate non sulla elasticità di prezzo
per prestazioni equivalenti, ma che differenziano i prezzi in funzione dei livelli e dei periodi di consumo.
 In caso di impresa multi-prodotto, si descrivono i modelli à la Ramsey (tariffe non lineari e tariffe di picco): in
questo caso si pone anche il problema dell’imputazione dei costi comuni, rendendo l’analisi della
regolamentazione molto più complessa. I prezzi vengono differenziati in base alla teoria di Ramsey, secondo
la quale un’impresa in monopolio dovrebbe aumentare i prezzi al di sopra dei costi marginali in modo
inversamente proporzionale all’elasticità della domanda rispetto ai prezzi. In caso di applicazione di tal
regola, i prezzi sono più alti nei mercati a domanda meno elastica e viceversa, realizzandosi quindi una
discriminazione. I prezzi ottimali quindi sono quelli di monopolio ridotti proporzionalmente in modo tale che i
ricavi totali siano esattamente uguali ai costi totali. Il caso più noto di prezzo non lineare è quello delle tariffe
binomie, utilizzate nei settori della telefonia e del gas. Tariffa binomia caratterizzata da una quota fissa, e da
un prezzo unitario, pari al costo marginale, per ogni unità acquistate. Tramite la quota fissa tutti i
consumatori partecipano in parti uguali alla copertura dei costi fissi, garantendo in questo modo l’equilibrio
finanziario dell’impresa. In caso però di non identità dei consumatori, si generano problemi di equità.
Se invece la domanda è soggetta a rilevanti fluttuazioni periodiche, giornaliere o annuali, è possibili fissare
prezzi per i diversi periodi (peak o off peak), più alti per la fornitura dei servizi nei periodi di picco e più bassi
nei periodi fuori picco. Necessario perché i beni non sono immagazzinabili e le imprese devono mantenere
una capacità produttiva dimensionata per le fasi di picco, anche se nei periodi fuori picco rimane inutilizzata.

Nella pratica della regolazione, entrano spesso considerazioni sociali e distributive, oltre che economiche, che portano
alla definizione di un sistema di sussidi incrociati fra servizi forniti dall’impresa a diversi gruppi di consumatori. Se ci
sono sussidi incrociati, alcuni utenti pagan un prezzo inferiore al costo marginale, e la differenza viene pagata da altri
che pagheranno un prezzo superiore.
La teoria classica di regolamentazione si basa sull’ipotesi cruciale di informazione perfetta: regolatore è in grado di
osservare la funzione di costo del monopolista privato. La moderna teoria ha posto invece sempre più in evidenza
casi in cui il regolatore, in condizioni di informazione asimmetrica, sia costretto a ricorrere a formule che mimano il
comportamento dei mercai. Le decisioni del regolatore avvengono inoltre in condizioni di incertezza, mentre la teoria
classica non considera gli aspetti dinamici delle strategie di prezzo.

-) Il controllo della dinamica dei prezzi e i sistemi di incentivazione.


Dopo aver determinato il livello ottimale delle tariffe, bisogna calcolare che l’intervento del regolatore influenza le
strategie di variazione dei prezzi delle imprese. Essendo l’amministrazione dei prezzi finalizzata a mitigare potere di
mercato ed a ridurre i fallimenti del mercato, l’evoluzione dinamica delle economie e delle imprese potrebbe
riproporre gli stessi presupposti di intervento regolatorio in forme diverse. Ci si propone di proporre modelli di
regolazione ottimale che tengano conto in modo esplicito dell’esistenza delle asimmetrie informative. In questo modo
si definiscono meccanismi incentivanti per indurre l’impresa a raggiungere gli obiettivi che il regolatore stesso si
propone. Gli schemi di regolazione incentivante più diffusi, associati ad esperienze internazionali, sono:

 Il metodo di regolazione del saggio di rendimento del capitale (ROR): esperienza di regolazione statunitense.
Consiste nella fissazione del regolatore di un tasso di rendimento massimo sul capitale investito che
l’impresa dovrà rispettare. Tale vincolo è così definibile:

𝑝𝑟𝑜𝑓𝑖𝑡𝑡𝑜
𝑟= ≤ 𝑋%
𝑐𝑎𝑝𝑖𝑡𝑎𝑙𝑒 𝑖𝑛𝑣𝑒𝑠𝑡𝑖𝑡𝑜

Il vincolo deve spingere l’impresa a fissare tariffe che rispettino quel vincolo sui profitti, consentendo
remunerazione equa del capitale, in linea con i rendimenti che altre imprese simili ottengono nei mercati. Se
il saggio eccede questo valore, il regolatore impone una riduzione delle tariffe. Il tasso di rendimento
massimo ed i prezzi sono tenuti fissi per tutto il periodo regolatorio, che va dai 3 ai 7 anni. Tale meccanismo
ha alcuni effetti distorcenti (Averch e Johnson), dovuti all’esistenza di asimmetrie informative a sfavore del
regolatore. Nel caso di un’impresa operante in monopolio che produce un solo servizio, la fissazione di un
dato vincolo, porterà l’impresa ad aumentare il capitale investito, realizzando investimenti non necessari, per
poter ottenere un maggior volume di affari senza che il regolatore le imponga una riduzione tariffaria. In
questo modo l’impresa sceglie una combinazione produttiva non efficiente per il livello di produzione
individuato. Gli effetti dell’intervento regolatorio quindi sono analoghi a quelli di un cambiamento del
rapporto fra i prezzi relativi dei fattori. Si ha una inefficienza produttiva, dato che l’impresa impiega una
quantità eccessiva di capitale, ed una inefficienza allocativa, dato che la produzione avviene a costi più
elevati. Se l’impresa abbassa i costi, il prezzo fissato ex post dal regolatore sarà più basso, in modo da lasciare
all’impresa lo stesso tasso di rendimento.
 Il metodo del vincolo alle variazioni annuali dei prezzi (Price cap ): esperienza europea e italiana. Applicazione
di un tetto alla crescita dei prezzi dei servizi prodotti da un’impresa, vincolandola nel tempo alla variazione
di un indice dei prezzi di un paniere di beni e di una grandezza X che riflette l’efficienza produttiva ΔP =
RPI – X, dove RPI è l’indice dei prezzi al consumo. Questo corrisponde in genere al tasso di inflazione negativo
registrato al tempo t zero, oppure al tasso di inflazione programmato. La X può assumere diversi valori
percentuali a seconda delle valutazioni del regolatore. Il price cap può essere applicato tramite vari modelli
operativi, con alcune caratteristiche in comune. Innanzitutto il vincolo induce l’impresa a comportarsi in
maniera più efficiente, riducendo i costi, ed il problema della asimmetria è meno stringente rispetto a quanto
accade nel ROR. Il valore X infatti è fissato in base a valutazioni prospettiche sulla capacità dell’impresa di
conseguire efficienze nella produzione. Rispetto al ROR, il price cap ha maggiori vantaggi per i consumatori.
Con il riadeguamento degli indici, i consumatori possono beneficiare delle riduzioni di costo conseguite
dall’impresa. Metodo associato ad una relativa semplicità applicativa, nei bassi costi amministrativi e nelle
sue capacità di incentivare l’efficienza e di migliorare il benessere sociale.

La regolazione dei prezzi riguarda anche i prezzi intermedi; questi sono rilevanti in tutti i servizi nei quali esista una
infrastruttura a rete il cui utilizzo da parte di operatori terzi avviene sulla base di tariffe o prezzi regolati (es. gasdotti,
linee ferroviarie, aeroporti). A tal proposito si parla di essential facility, definibile come una infrastruttura che:

a. Costituisce un asset
b. Non duplicabile
c. Nell disponibilità di un’impresa in posizione dominante
d. Non presenta ragioni tecniche per negare l’accesso ad esso (condivisibilità).

In presenza di una essential facility occorre regolamentarne l’accesso per favorire la concorrenza nelle altri fasi della
produzione, stabilendo regole e prezzi equi, non discriminatori e con riguardo solamente ai prezzi efficienti. Chi
possiede una essential facility gode di una posizione dominante. Il regolatore riduce lo spazio di discrezionalità delle
imprese, imponendo ex ante precise e vincolanti regole di accesso alla infrastrutture essenziali. Se le imprese non
rispettano i criteri sopra indicati, si configura un abuso di posizione dominante.

-) La regolazione della qualità: aspetti qualitativi assumono sempre più importanza nella dinamica competitiva ed
hanno implicazioni di benessere sociale. L’utente è l’elemento più debole in quanto meno informato rispetto agli altri
agenti e privo di alternative economiche. Proprio per questo sono state introdotte le Autorities, che devono
regolamentare il settore e trasferire ai consumatori almeno parte dei guadagni di produttività che può produrre un
sistema liberalizzato. Si distinguono standard qualitativi vincolanti per le imprese regolate in standard di qualità
generali e specifici. Per vincolare le imprese, possono essere introdotti diversi strumenti incentivanti e penalizzanti.
Alcuni di questi ad esempio possono prevedere indennizzi automatici di rimborso agli utenti, altri una modifica del
meccanismo di regolazione dei prezzi. Ad esempio, la tecnica del price cap può essere modificata per introdurre una
regolazione degli aspetti qualitativi del servizio offerto, simultanea del prezzo e della quantità.

I costi della regolazione e la teoria della cattura


Costi relativi all’attività di regolazione valutabili secondo una duplice prospettiva:

 Considerare costi di funzionamento che una struttura di regolazione richiede ed i costi amministrativi che
l’attività impone alle imprese regolate (costi di transizione).
 Tener conto della possibile inefficacia e distorsività che lo stesso intervento regolatorio può introdurre (costi
di regolazione).

Con riguardo ai costi di funzionamento, l’attività di regolazione e monitoraggio ha un costo. Le imprese che devono
conformarsi alle nuove regole sosterranno costi. Tali costi hanno comunque una dimensione inferiore ai costi di
regolazione, i quali hanno una natura sia statica che dinamica. Il caso più rilevante di regulation failure è quello
trattato nella cd “teoria della cattura”, in base alla quale il regolatore tende a condividere e tutelare nel tempo gli
interessi delle imprese regolate e ad esserne catturato. In caso di cattura, il regolatore può sovrastimare i costi del
servizio, fissando un prezzo troppo alto che riduce il benessere dei consumatori e aumenta i sovraprofitti delle
imprese. Possono esservi errori che portano a fissare prezzi troppo bassi, che infliggono perdite alle imprese regolate,
danneggiando i livelli qualitativi o la continuità del servizio. In entrambi i casi crescerà la reazione dell’opinione
pubblica che contrasterà gli eccessivi profitti o il deterioramento del profitto, con conseguente perdita di reputazione
del regolatore.

La concorrenza per il mercato


Soluzione alternativa è quella volta a far emergere attraverso un meccanismo d’asta la concorrenza per il mercato.
Idea proposta da Demsetz, che vedeva nel meccanismo d’asta una modalità per far prevalere in quei mercati dove
non è possibile raggiungere la concorrenza – come i monopoli naturali – l’operatore più efficiente. Ciò richiede
esistenza di un numero di concorrenti adeguato tra i quali non sussistano asimmetrie informative e tale da
impedire comportamenti collusivi. Concorrenza per il mercato NON RISOLVE i problemi della regolazione, ma può
essere uno strumento complementare all’attività di regolazione, non alternativo. L’asta può essere il primo
momento
dell’attività di regolazione, in cui si assegna ad un privato la concessione ad operare su un certo mercato.

La “qualità” del regolatore


Grande attenzione al disegno istituzionale delle Autorità che presiedono alla regolazione economica. Secondo Baldwin
e Cave le principali caratteristiche “desiderabili” di un regolatore sono:

1. Competenza: regolatore deve considerare opzioni alternative e prendere decisioni che compongono gli
interessi di più parti, sulla base di informazioni spesso incomplete.
2. Efficacia: attività deve corrispondere a quella specificata nel mandato assegnatoli nel mandato legislativo.
Non sconfinare dai compiti e predisporre strumenti adeguati a conseguire gli obiettivi assegnati.
3. Efficienza: impiegare risorse in maniera efficiente.
4. Indipendenza: dagli interessi dell’industria regolata e da quelli dell’impresa regolata, dai suoi clienti,
concorrenti e fornitori; indipendenza relativa dai poteri dello Stato.
Requisito suggerisce una sua collocazione al di fuori di strutture ministeriali, per soddisfare il requisito di
efficacia ed efficienza. L’attività di regolazione non è del tutto assimilabile ad una attività di applicazione di
norme e procedure prestabilite, ma richiede la fissazione di nuove regole e procedure a situazioni in continua
evoluzione. Si tratta di promuovere la concorrenza nei settori caratterizzati da condizioni di monopolio
naturale.
Vi sono altri tre motivi che concorrono a ritenere preferibile la soluzione istituzionale che colloca il regolatore
al di fuori dell’amministrazione ministeriale:
a) un regolatore politico deve infatti essere rieletto, e ciò lo porta ad assegnare un peso elevato all’obiettivo
del mantenimento dei livelli occupazionali, e di fissare prezzi bassi per gli utenti rappresentati dai gruppi di
pressione più influenti. Inoltre il regolatore politico può essere sensibile a tematiche che esulano
dall’economia del settore, come la volontà di contenere il tasso di inflazione.
b) i servii pubblici richiedono cicli di investimento estremamente lunghi e periodi di pianificazione
corrispondenti; l’orizzonte temporale di un controllo politico è assai più breve, coincidendo con la lunghezza
del mandato elettorale. Se la funzione di regolazione fosse affidata al potere esecutivo il regolatore
definirebbe il meccanismo regolatorio riferendosi ad un orizzonte temporale molto più breve di quello
dell’agente.
c) se le imprese sono private, la creazione di un’Autorità indipendente è più adatta a minimizzare i rischi di
comportamenti di tipo politico legati al ciclo elettorale.
5. Accountability: attività deve godere indirettamente di una forma di legittimazione democratica e deve essere
sindacabile e controllabile da qualche altro potere dello Stato.
Uno strumento tipico di dialogo con altre istituzioni è la presentazione alle Camere di una Relazione annuale
sull’attività svolta e sullo stato dei servizi. Altre forme sono le audizioni conoscitive; accanto a questi
strumenti le procedure e le tecniche di regolazione permettono di dare una soluzione al problema della
legittimazione democratica. Sotto il profilo della sindacabilità, gli atti delle Autorità devono essere sottoposti
a un giudizio esterno nelle fasi di formazione, applicazione ed effetto. Nelle fasi ex ante di formazione, sono
previste forme di consultazione pubblica. Tra le forme ex post si può citare il controllo da parte di organi
amministrativi di controllo interni ed esterni, Collegio dei revisori e Corte dei Conto, e la sindacabilità
giurisdizionale presso la giustizia amministrativa, Tar e Consiglio di Stato.
6. Trasparenza, equità ed accessibilità delle procedure adottate: decisioni devono essere frutto di una pari
considerazione di tutti gli interessi in gioco. Criterio che trova limiti nei requisiti di indipendenza e
competenza, ma che fornisce una base per la sua accountability.

Le autorità di regolazione nell’ordinamento italiano


Principi dell’attività di regolazione disciplinati nella legge 481\1995, che istituisce l’Autorità per l’energia elettrica ed il
gas e l’Autorità per le garanzie nelle telecomunicazioni. La legge nasce in un contesto di ripensamento del ruolo
dell’operatore pubblico nell’economia italiana; prendendo atto dell’inefficacia di interventi fondati sul ricorso alla
gestione diretta da parte dello stato, si attribuì ad Autorità indipendenti dal potere politico i compiti della regolazione,
le cui finalità sono:

a. Garantire promozione concorrenza ed efficacia nel settore


b. Garantire adeguati livelli di qualità nei servizi
c. Assicurare fruibilità e diffusione dei servizi in modo omogeneo sul territorio
d. Definire sistema tariffario certo, trasparente e basato su criteri predefiniti
e. Promuovere la tutela degli interessi di utenti e consumatori.

Le Autorità operano in piena autonomia e con indipendenza di giudizio, e godono anche di autonomia organizzativa,
definendo i propri regolamenti. Per entrambe, i componenti sono scelti fra persone dotate di alta e riconosciuta
professionalità e competenza nel settore.

Autorità di garanzia e di regolazione


Esistono differenze nelle giustificazioni economiche, negli strumenti e negli obiettivi delle politiche della
concorrenza e della regolazione. Le autorità di garanzia o tutela sono preposte alla tutela di funzioni di diritti
costituzionalmente rilevanti, come libera concorrenza e funzionamento corretto del mercato, e svolgono funzioni
prevalentemente giudiziarie, che si sostanziano nell’applicazione delle regole in base a criteri di imparzialità. Sul piano
strettamente economico, all’Agcm compete il compito di vigilare sul rispetto delle regole, mentre le Autorità di
regolazione intervengono solo laddove vi siano fallimenti di mercato, svolgendo un’attività normativa che definisce ex
ante ed ex post regole. L’Agcm, oltre a svolgere attività di segnalazione e formulazione di pareri, ultimamente si è vista
assegnare poteri di intervento, per prevenire la formazione e\o il mantenimento di posizioni dominanti nel settore
delle comunicazioni, dell’energia elettrice e della televisione a pagamento.
Le autorità di regolazione invece accentuano sempre più la loro funzione di monitoraggio sull’andamento del settore e
sul rispetto dei vincoli di regolazione.
Capitolo 22

La proprietà pubblica e privata delle imprese.

Le privatizzazioni.

Nell’epoca seguita alla prima rivoluzione industriale nei paesi dell’Europa occidentale venne usata la proprietà statale
come soluzione al problema costituito dalla presenza di monopoli naturali. Così si definiscono i settori di attività
economica, cioè quei settori per i quali vale la condizione di sub-additività, ovvero una funzione dei costi di
produzione che presenta un minimo in corrispondenza dell’esistenza di una sola impresa. Negli Stati Uniti, al
contrario, si preferì la regolamentazione e la concessione a privati per lo sviluppo delle grandi industrie di servizi.

In seguito alla grande depressione, che provocò una crisi di sfiducia nei meccanismi dell’economia di mercato, la
proprietà statale delle imprese non fu più considerata uno strumento per correggere le market failures nei casi di
monopolio naturale ma assunse anche un carattere valoriale che vedeva nella nazionalizzazione dell’industria uno
strumento per sostenere l’occupazione e per correggere le disuguaglianze distributive causate dal capitalismo. L’idea
che le nazionalizzazioni fossero uno strumento per una maggiore equità distributiva si rafforzò dopo la seconda guerra
mondiale e la proprietà pubblica si estese nei settori dell’industria pesante e del sistema bancario.

Privatizzazioni in Italia

Nonostante nel corso degli anni ’70 l’Italia era il paese occidentale con maggiore estensione della mano pubblica sulla
proprietà delle imprese, il processo attraverso cui il fenomeno si era realizzato non aveva mai avuto un carattere
ideologico o politico.

La statalizzazione dell’economia italiana non derivava dai principi del socialismo ma aveva origine in caratteristiche
storiche e culturali che caratterizzarono la prima fase dell’industrializzazione italiana. Per le prime Claudio Napoleoni e
Sylos Labini individuarono il ritardo con cui l’industrializzazione si avviò in Italia, nel fatto che le tecnologie
richiedevano capitali ingentissimi difficilmente reperibili solo con il ricorso a privati cittadini. Tra le seconde vi è
l’antica diffidenza del carattere nazionale degli italiani verso il libero mercato e l’impiego dei capitali in investimenti a
rischio. Scarsità di capitale di rischio, dipendenza dalle banche e dalle sovvenzioni statali furono le caratteristiche
originali del processo di industrializzazione italiano. La soluzione fu trovata nel sistema della banca universale, la quale
raccoglie depositi dai risparmiatori e li converte in investimenti a lungo termine nelle attività produttive.

L’intreccio tra banche e controllo delle imprese fece si che, dopo la grande depressione, l’insolvenza delle imprese
minacciò il tracollo dell’intero sistema bancario. Il governo intervenne con la costituzione dell’IRI e finì con il ritrovarsi
proprietario non solo delle banche nazionali “salvate” ma anche di gran parte delle imprese italiane di cui le banche
costituivano i principali azionisti.

Queste vicende conferirono alla dirigenza delle imprese pubbliche una forte autonomia dando vita ad una esperienza
di corporate management. La formula delle partecipazioni statali infatti realizzava la separazione tra proprietà e
controllo, non per l’assenteismo della proprietà ma per il fatto che il principale azionista ( lo stato) si asteneva
dall’interferire con il management. Il successo delle partecipazioni statali in Italia si fondava su due aspetti:

• professionalità del management: in origine il management non proveniva dalla burocrazia ma dal settore privato e
questo carattere veniva preservato con il meccanismo della cooptazione, escludendo interferenze politiche nella
scelta dei dirigenti;

• autonomia finanziaria: l’equilibrio finanziario si basava su discreti margini di profitto, tassi d’interesse bassi e
raccolta d’ingenti capitali con lo strumento obbligazionario e l’intermediazione dei grandi istituti mobiliari del tempo.

Questo equilibrio si danneggiò tra gli anni ’60-’70 per l’erosione dei margini di profitto (determinata da una
redistribuzione del reddito più favorevole ai salari) e per il rialzo dei tassi d’interesse.

La situazione non migliorò fino alla nomina di Guido Carli come ministro del tesoro. Diventato poi governatore della
Banca D’Italia fu un fautore della stabilità monetaria, secondo cui l’inflazione, oltre ad essere un danno per l’economia
nel suo complesso, costituisce un’imposta regressiva che colpisce le categorie più deboli. È proprio con Carli che
prende avvio il progetto di privatizzazioni italiano nel 1990; egli infatti istituì una commissione con l’incarico di
predisporre un piano per avviare l’azione politica economica delle privatizzazioni.

Idea giuda del piano: superare l’ostacolo più facile per ottenere consenso e, anche in forza di quello, procedere per
affrontare quelli più difficili. Quindi fu indicato come strumento preliminare la trasformazione in SPA delle imprese
pubbliche che avevano già caratteristiche adatte al collocamento di azioni al pubblico. Per le altre imprese in cui vi era
un’eccessiva diversificazione delle partecipazioni (come IRI) era preferibile la formula dello spin-off, cioè la vendita
separata delle capogruppo settoriali, indirizzo seguito dal successivo governo Amato.

Oltre ad identificare lo strumento, il piano di privatizzazioni indicava sei obbiettivi:

1. Risanamento del bilancio e del debito pubblico mediante proventi delle vendite di azioni
2. Allargare il mercato azionario nazionale
3. Favorire l’afflusso di capitali dall’estero
4. Introdurre maggiore concorrenza nell’economia di mercato
5. Eliminare l’influenza dell’azionista occulto, cioè del sistema dei partiti sulla gestione delle imprese
6. Creare consenso politico

I primi quattro obiettivi sono stati conseguiti in misura non trascurabile cosa che non è avvenuta per gli ultimi due.

Una parte rilevante di ciò che furono l’IRI e l’EFIM si trova ancora sotto il controllo pubblico, così come l’Eni e l’Enel.

Nelle privatizzazioni del settore bancario pubblico un ruolo rilevante è stato svolto dalle fondazioni derivanti dagli
scorpori dettati dalla legge Amato. Tuttavia la governace delle fondazioni è in parte controllata indirettamente da
partiti politici.

Per quanto riguarda le aziende municipalizzate le pochissime cessioni realizzate avendo riguardato quote di minoranza
non sono classificabili come privatizzazioni.

Poiché questa prima fase non è stata completamente realizzata, risultava impossibile raggiungere gli obiettivi della
seconda fase, cioè estendere le privatizzazioni agli altri servizi pubblici.
Capitolo 23

Il protezionismo.

Con il termine di protezionismo economico intendiamo qualunque forma di intervento statale, come i dazi e il
contingentamento delle importazioni, le sovvenzioni alle imprese e così via, che hanno l’effetto di determinare un
sistema di prezzi nel mercato interno diverso da quello che si formerebbe in loro assenza in un regime concorrenziale,
e il cui obbiettivo consisterebbe nel favorire produttori nazionali rispetto a quelli esteri, migliorando la bilancia
commerciale e il livello di occupazione.

RAGIONI A SOSTEGNO DELLE POLITICHE PROTEZIONISTICHE:

- Il protezionismo preserva l’occupazione nell’industria nazionale


- Il protezionismo impedisce che un’intera industria nazionale venga eliminata: in caso contrario si
creerebbe una dipendenza dai fornitori esteri
- Il protezionismo costituisce un contrappeso alle politiche di aiuti più o meno occulte di cui beneficiano i
concorrenti stranieri: tariffe doganali, quote alle importazioni e aiuti alle imprese rappresentano
strumenti insostituibili nei negoziati del commercio internazionale

Il protezionismo sarebbe necessario nelle fasi iniziali (infant industries) dello sviluppo di un settore esposto alla
concorrenza internazionale.

RAGIONI CONTRO IL PROTEZIONISMO:

Tra le ragioni per cui i sistemi basati sull’economia di mercato producono risultati migliori di ogni altro sistema, Smith
indicava in particolare il legame fra specializzazione, produttività del lavoro e estensione del mercato. Ne consegue
che ogni restrizione artificiale degli scambi opera a danno della specializzazione e quindi della produttività del lavoro.
Le misure protezionistiche conferiscono vantaggi ai produttori nazionali a spese dei consumatori.

L’analisi di Smith verrà ripresa da Ricardo con la “teoria dei vantaggi economici comparati”, in cui si ipotizza un
rapporto bilaterale tra due paesi che producono due sole merci: anche se la produttività di un paese fosse stata
superiore a quella del secondo paese per entrambi i prodotti, la soluzione ottimale sarebbe stata quella di produrre
solo la merce per cui la sua produttività risultasse più elevata. Si tratta di una tesi anti-intuitiva e spesso mal
compresa. Ma semplici calcoli matematici permettono di dimostrare che la soluzione della specializzazione ricardiana
porta ad un volume di produzione più elevato, il quale potrebbe essere poi ripartito attraverso lo scambio.

L’ultimo grande economista della tradizione inglese, Keynes, affrontò il problema del mercantilismo sotto il profilo del
legame tra protezionismo e livelli occupazionali nella sua opera “teoria generale dell’occupazione, dell’interesse e
della moneta”: vi è una correlazione inversa tar surplus della bilancia commerciale e livello dei tassi di interesse, che
può sussistere solo in un regime monetario basato sulla convertibilità della moneta in metalli preziosi.

politiche predatorie

Le politiche protezionistiche costano al soggetto che le pratica assai più di quanto rendano alla comunità nel suo
complesso. L’effetto reale del protezionismo consiste invece nell’avvantaggiare un gruppo d’interesse, ponendone il
costo a carico della collettività. Tuttavia l’utilizzo degli strumenti protezionistici rappresentano il male minore quando
esso costituisce una ritorsione a comportamenti protezionistici messi in atto da altri paesi, oppure alla palese
violazione delle regole della fair competition. Ci si riferisce alle politiche predatorie che consistono tipicamente nel
praticare prezzi inferiori al costo variabile (marginale) alo scopo di eliminare uno o più competitori, salvo poi, una
volta conseguita una posizione dominante, sfruttarla con l’imposizione di prezzi monopolistici.