Sei sulla pagina 1di 76

1

Università del Sannio


DEMM

Emiliano Brancaccio

APPUNTI DI
POLITICA ECONOMICA

SECONDA VERSIONE

Febbraio 2018
2

Indice

1. OBIETTIVI E STRUMENTI DELLA POLITICA ECONOMICA

1.1 Una definizione di politica economica


1.2 Controversie sulla politica economica: alcuni esempi
1.3 Politica e politica economica
1.4 Obiettivi e strumenti
1.5 Obiettivi flessibili e funzioni di perdita: l’indice di malessere di Okun
1.6 La critica di Lucas
1.7 Quali obiettivi? Il problema della redistribuzione

2. POLITICHE STRUTTURALI

2.1 Concorrenza perfetta contro monopolio


2.2 Oligopolio
2.3 Impresa pubblica e privatizzazioni
2.4 Mercato versus pianificazione pubblica

3. POLITICHE TRIBUTARIE E DEL LAVORO

3.1 Alcuni dati sulle forze lavoro


3.2 La curva di Beveridge
3.3 Sussidio di disoccupazione e salario minimo
3.4 Una nota su immigrazione, disoccupazione e salari
3.5 Progressività del sistema fiscale, flat tax e curva di Laffer

4. INTERPRETI DELLA POLITICA ECONOMICA

4.1 Tobin
4.2 Tarantelli
4.3 Graziani
4.4 Modigliani I
4.5 Modigliani II
4.6 Dornbusch
4.7 Debreu
4.8 Galbraith
4.9 Friedman
4.10 Spaventa
4.11 Kollontaj
4.12 De Cecco
3

Tali Appunti vanno studiati assieme al testo “Anti-Blanchard” (terza edizione, Franco
Angeli, Milano 2017).

Alcune parti di questi Appunti rappresentano elaborazioni di studenti tratte da


sbobinamenti di lezioni. E’ possibile dunque che essi contengano alcuni refusi e
imprecisioni.
4

OBIETTIVI E STRUMENTI DELLA


POLITICA ECONOMICA

1.1. Una definizione di “politica economica”

L’economista neoclassico Lionel Robbins definì la politica economica come “il corpo
dei principi dell’azione o dell’inazione del governo rispetto all’attività economica”
(Robbins 1935). Tra gli esponenti delle scuole di pensiero critico, Federicò Caffè ha
proposto la seguente definizione di politica economica: “la disciplina che cerca le regole
di condotta tendenti a influire sui fenomeni economici in vista di orientarli in un senso
desiderato” (1978). Si tratta di definizioni molto generali, che in astratto possono valere
per diversi tipi di sistemi economici, siano essi capitalistici oppure anche pianificati.

Ma quali sono le differenze tra economia politica e politica economica? La moderna


disciplina dell’economia politica, come è noto, sorge alla fine del Diciottesimo secolo
con le riflessioni di Adam Smith sull’avvento del capitalismo concorrenziale. In questo
senso, l’economia politica esamina in primo luogo il funzionamento “impersonale” del
sistema capitalistico quando è lasciato alle forze del mercato e non è sottoposto a
interventi delle autorità di governo. La politica economica, invece, può esser concepita
come disciplina autonoma nel senso che essa indaga principalmente sulle cause e sui
possibili effetti dell’intervento delle autorità di governo sul funzionamento stesso del
sistema. Naturalmente questa è una partizione semplificata: a ben guardare, fin dalle sue
origini l’economia politica non ha mai potuto fare a meno di occuparsi anche
dell’azione del governo, così come la politica economica non può mai prescindere dallo
studio dei meccanismi di mercato. Economia politica e politica economica sono quindi
discipline strettamente intrecciate: le differenze tra di esse sono sfumate e rappresentano
più che altro delle convenzioni. Un possibile criterio di distinzione, in tal senso, può
consistere nel dichiarare che l’economia politica elabora soprattutto analisi di tipo
positivo (o descrittivo), nel senso che suggerisce una o più interpretazioni del modo in
cui il sistema economico funziona. La politica economica, invece, è orientata
principalmente in senso normativo (o prescrittivo), dal momento che aiuta a
individuare gli strumenti necessari a modificare il funzionamento del sistema per
orientarlo verso obiettivi determinati.

1.2 Controversie sulla politica economica: alcuni esempi

Al pari dell’economia politica, anche la politica economica è oggetto di studio di


diverse scuole di pensiero, le quali suggeriscono diverse interpretazioni del
5

funzionamento dei sistemi economici e degli effetti su di essi delle politiche attuate
dalle autorità di governo. In questa sede, prendendo spunto dal volume “Anti-
Blanchard”, adotteremo un approccio comparato tra quelle che semplificando al
massimo possono esser considerate due diverse visioni della politica economica: la
corrente principale di ispirazione neoclassica, detta mainstream, di cui Olivier
Blanchard è uno dei massimi esponenti contemporanei, e una visione alternativa che
trae origine dai contributi di vari studiosi appartenenti a diverse epoche, tra cui Marx,
Keynes, Sraffa, Leontief, Minsky, Simon e altri.

Queste diverse visioni danno luogo a un’ampia serie di dibattiti e di controversie sul
ruolo da attribuire alla politica economica. L’esistenza di dispute teoriche, del resto, non
è una prerogativa esclusiva delle scienze economiche. In tutti i campi del sapere, dalla
fisica alla biologia, specialmente in alcune fasi evolutive della ricerca si assiste ad
accesi confronti fra i ricercatori in merito alla scelta della teoria maggiormente in grado
di descrivere la realtà oggetto di studio. In questi ambiti della scienza l’orientamento
della ricerca viene solitamente guidato dalla capacità o meno delle diverse teorie di
superare il banco di prova della verifica empirica, ossia della loro rispondenza o
meno di ciascuna teoria ai dati esistenti. Lo stesso dovrebbe valere per gli studi
economici: se una teoria stabilisce che la spesa pubblica non ha alcun effetto
sull’andamento della produzione e dell’occupazione, mentre un’altra teoria ritiene che
l’effetto esista e sia rilevante, toccherà in primo luogo alle verifiche empiriche stabilire
quale delle due impostazioni debba ritenersi più robusta alla prova dei dati. Ovviamente,
quello del rapporto fra teoria e dati è un argomento delicato, complesso e controverso,
che è alla base dell’epistemologia, una disciplina che si occupa di metodo scientifico.
Tale complessità investe tutte le scienze, non solo l’economia. In genere si afferma che
nel campo dell’economia politica, e ancor più della politica economica, il rapporto fra la
teoria e la prova dei dati è reso ancor più controverso per due motivi, uno tecnico e
l’altro ideologico: in primo luogo, la maggior parte dei fenomeni non è replicabile in
laboratorio; in secondo luogo, i temi affrontati investono enormi interessi economici e
sociali che possono condizionare l’avanzamento della ricerca. Ma a ben guardare questi
due problemi toccano in misura più o meno significativa quasi tutti i campi della ricerca
scientifica. L’esistenza di tali difficoltà rende l’attività di ricerca epistemologicamente
più difficile, ma non dovrebbe mai pregiudicarla. Un aggiornato metodo scientifico
dovrebbe dunque restare il banco di prova delle teorie in tutti i campi del sapere, inclusa
la politica economica.

Tra i numerosi esempi di disputa tra gli economisti, vi è quello relativo alla validità
della teoria quantitativa della moneta e delle sue varianti moderne. Come è noto, la
teoria quantitativa venne ideata da Irving Fisher nel 1911 e le conclusioni sono oggi
sostanzialmente riproposte nelle versioni standard del modello mainstream di domanda
e offerta aggregata. Questa teoria prevede che, nel lungo periodo, ogni eventuale
variazione della quantità di moneta emessa dalla banca centrale implichi solo una
variazione proporzionale del livello generale dei prezzi, e non abbia invece ripercussioni
durature sulla produzione e sull’occupazione. Più in generale, la teoria mira a stabilire
che la politica della banca centrale può controllare l’andamento di lungo periodo
dell’inflazione. L’effetto di lungo periodo della politica monetaria, dunque, riguarda
solo variabili monetarie come il livello dei prezzi, mentre non tocca le variabili reali
6

come la produzione. Si parla in tal senso di “neutralità della moneta” sugli


andamenti di lungo periodo delle variabili reali.

Definendo con M la quantità di moneta emessa dalla banca centrale, con V la velocità di
circolazione di ciascuna unità di moneta emessa, con P il livello generale dei prezzi e
con Y il livello del PIL, la teoria quantitativa corrisponde alla seguente relazione:

PY = MV

Questa può esser considerata una identità contabile piuttosto ovvia, nel senso che a date
condizioni si può ritenere che il valore delle merci prodotte e scambiate in un anno
corrisponda necessariamente al valore della contropartita in moneta scambiata nello
stesso anno per effettuare gli acquisti di quelle merci. La mera relazione contabile
diventa però una teoria economica se si fanno le seguenti ipotesi sull’andamento delle
variabili in gioco. Supponendo che V sia un parametro determinato dalle abitudini di
pagamento della popolazione e che la produzione Y sia in “equilibrio naturale”,
possiamo affermare che per ogni dato livello di M deciso dalla banca centrale esisterà
un solo livello di P di equilibrio. Ogni variazione di M dovrebbe quindi influire solo
su P:

P = MV/Y

La stessa relazione può essere poi espressa non in termini di livelli ma in termini di tassi
di variazione. Consideriamo le variabili in questione in due anni consecutivi, indicati
rispettivamente con i pedici zero e uno. Possiamo riscrivere l’equazione della teoria
quantitativa in questi termini:

𝑀1 𝑉1 𝑀1 𝑉1
𝑃1 𝑌 𝑃1 𝑀0 𝑉0
= 1 da cui =
𝑃0 𝑀0 𝑉0 𝑃0 𝑌1
𝑌0 𝑌0

Ora, se prendiamo una qualsiasi variabile generica X e definiamo con x = (X1 – X0)/X0
il suo tasso di variazione percentuale nel tempo, è facile dimostrare che (X1/X0) = 1 + x.
Applicando questo risultato a P, M, V, Y, tramite semplici passaggi l’equazione della
teoria quantitativa può essere riformulata nei seguenti termini:

(1 + 𝑚)(1 + 𝑣)
1+𝑝 =
(1 + 𝑦)

Dove p è il tasso d’inflazione, y è il tasso di crescita del PIL, m è la crescita della massa
monetaria e v indica le eventuali variazioni nella velocità di circolazione della moneta.
Da ciò, moltiplicando e riarrangiando otteniamo:

𝑝 = (1 + 𝑚 + 𝑣 + 𝑚𝑣 − 1 − 𝑦)/(1 + 𝑦)
7

Se ammettiamo che i tassi annui di variazione delle variabili esaminate siano


solitamente molto piccoli, possiamo ritenere in via di approssimazione che mv ≈ 0 e che
1 + y ≈ 1, da cui:

(1) 𝑝 ≈ 𝑚 + 𝑣 − 𝑦

Se per ipotesi si assume che Y sia costante al suo “equilibrio naturale” e che pure V sia
costante, allora y = 0 e v = 0, per cui p ≈ m. In altre parole, ogni variazione della
quantità di moneta determina solo una variazione proporzionale dell’inflazione. Più in
generale, per ogni dato tasso di variazione v della velocità di circolazione della moneta,
e per ogni dato tasso di crescita y della produzione “naturale”, si può affermare che se la
banca centrale controlla la variazione m della crescita monetaria allora dovrebbe
controllare anche il tasso d’inflazione p.

Nei primi anni della sua esistenza la Banca Centrale Europea (BCE) ha sostenuto di
voler controllare l’inflazione basandosi proprio sulla teoria quantitativa della
moneta. Come è noto, il Trattato dell’Unione europea attribuisce alla BCE il compito di
tenere il tasso d’inflazione stabile ed entro il limite massimo del 2% annuo. In questo
senso, ritenendo che il tasso di crescita “naturale” del PIL dell’eurozona fosse del 2,5%
(y = 0,025) e stimando che a causa di varie innovazioni finanziarie la velocità di
circolazione della moneta diminuisse di circa lo 0,5% all’anno (v = 0,005), la BCE ha
stabilito come obiettivo d’inflazione un tasso d’inflazione annuo dell’1,5% (p = 0,015),
e dall’equazione (1) ha determinato un tasso di crescita della moneta del 4,5%
necessario per perseguire quell’obiettivo:

0,015 ≈ 𝑚 − 0,005 − 0,025 da cui 𝑚 ≈ 0,045

In realtà, come si evince dal grafico di Fig. 1 riferito ai primi quindici anni di vita
dell’Eurozona, il legame tra la crescita monetaria e l’inflazione non è così forte né
così stabile come la teoria quantitativa indurrebbe a credere. Prendendo come
riferimento l’aggregato monetario M3 costituito da monete metalliche, banconote,
depositi a vista e titoli liquidi di scadenza inferiore a un anno, si può notare che gli
andamenti della crescita monetaria m e dell’inflazione p risultano piuttosto diversi: tra il
1999 e il 2007 si registrano significativi mutamenti di m ai quali però non
corrispondono analoghe variazioni di p, mentre tra il 2010 e il 2011 si registrano
addirittura andamenti divergenti tra le due grandezze.
8

Crescita della moneta e inflazione nell’Eurozona, anni 1999-2014

Fonte: Benassy-Queré et al., Politica economica, Il Mulino 2014

La divergenza tra crescita della moneta e inflazione è risultata ancor più accentuata
negli ultimi anni, quando la BCE ha avviato una intensa politica di espansione
monetaria durante la quale, però, l’inflazione ha continuato a diminuire fino a diventare
addirittura negativa.

Per egli esponenti della visione alternativa di politica economica queste evidenze stanno
a indicare che la teoria quantitativa è errata, e che più in generale le azioni della
banca centrale sulla quantità di moneta, così come sui tassi d’interesse, non sono in
grado di controllare l’inflazione. Anche tra gli esponenti del mainstream sorgono oggi
vari dubbi circa l’idea che l’andamento dei prezzi possa esser governato dalla sola
politica monetaria. Nell’ambito dell’approccio dominante, tuttavia, sono tuttora molti i
seguaci della teoria quantitativa o di sue varianti più recenti, le quali insistono sull’idea
che la banca centrale possa tenere sotto controllo il tasso d’inflazione.

Per approfondimenti, si rinvia al volume “Anti-Blanchard”, in particolare ai paragrafi


sul confronto algebrico tra i modelli e sulle regole alternative di politica monetaria. Si
veda anche l’articolo riportato nel prossimo box.

Econopoly - Il Sole 24 Ore, 16 maggio 2016


La BCE può controllare le insolvenze, non l’inflazione
di Emiliano Brancaccio e Thomas Fazi

Le politiche monetarie “non convenzionali” non stanno dando i risultati sperati. Il quantitative easing, così
come le manovre tese a portare i tassi d’interesse nominali verso lo zero o addirittura a livelli negativi, non
9

appaiono in grado di sospingere l’inflazione e la crescita del PIL verso il loro sentiero “normale”, né
sembrano capaci di allontanare le principali economie avanzate dal precipizio della deflazione. L’Unione
monetaria europea è in questo senso un caso esemplare. La BCE ha abbattuto il costo del denaro e ha
accresciuto la liquidità in circolazione in una misura impensabile prima dell’inizio della crisi. Ciò nonostante,
l’inflazione dell’eurozona è addirittura tornata in territorio negativo e non vi è certezza sulla possibilità che
arrivi almeno ad azzerarsi alla fine dell’anno.

In questo scenario, da più parti hanno iniziato a diffondersi dubbi sul modo convenzionale in cui viene
interpretato il ruolo dei banchieri centrali. Alcuni commentatori sostengono che dopo la “grande recessione”
iniziata nel 2008 le autorità monetarie dovrebbero ampliare ulteriormente gli strumenti d’intervento e
soprattutto dovrebbero smetterla di perseguire di obiettivi rigidi d’inflazione per puntare invece verso target
più flessibili, come ad esempio una data crescita del reddito nominale.

Fuori e dentro le istituzioni, i segnali di interesse verso tali proposte non mancano. A ben guardare, tuttavia,
questo modo di affrontare il problema della inefficacia delle politiche monetarie presenta un grave limite. Sia
che si adottino i vecchi obiettivi d’inflazione sia che si scelgano target più flessibili, le ricette suggerite
continuano a basarsi sul vecchio assunto monetarista secondo cui le banche centrali sarebbero in grado, in un
modo o nell’altro, di controllare la spesa aggregata. Non viene neanche presa in considerazione la possibilità
che gli strumenti delle banche centrali, più o meno convenzionali, non siano in grado di controllare la spesa
aggregata e quindi, in generale, non consentano di perseguire nessuno degli obiettivi che si prefiggono, che si
tratti di inflazione o anche di reddito nominale.
Un articolo di prossima pubblicazione sul Journal of Post-Keynesian Economics fornisce nuovi elementi a
sostegno della tesi secondo cui le banche centrali, in generale, non sono in grado di governare la spesa
aggregata (Brancaccio, Fontana, Lopreite, Realfonzo 2015; cfr. anche Brancaccio, Califano, Lopreite, Moneta
2018). Utilizzando un modello VAR con dati trimestrali per l’area euro tra il 1999 e il 2013, gli autori hanno
indagato sull’esistenza o meno di relazioni statistiche tra l’andamento del tasso d’interesse di mercato o dei
tassi di rifinanziamento della BCE da un lato, e la dinamica del reddito nominale intorno al suo trend di lungo
periodo dall’altro.
L’analisi empirica ha mostrato che gli scostamenti del reddito nominale dal trend non sono
influenzati dai movimenti dei tassi di interesse: in particolare, la riduzione del costo del denaro non sembra in
alcun modo favorire un recupero del reddito nominale verso il suo andamento tendenziale di lungo periodo.
A quanto pare, dunque, governando i tassi d’interesse il banchiere centrale non è in grado di controllare la
spesa aggregata e quindi non può incidere efficacemente sull’andamento della produzione, dell’occupazione,
del reddito nominale, e tantomeno dell’inflazione. L’evidenza, in effetti, contrasta con tutte le interpretazioni
convenzionali dell’operato delle banche centrali, dalla famigerata “regola di Taylor” alle più recenti regole
fondate su un “target di reddito nominale”.
L’analisi empirica ha evidenziato pure che gli scostamenti del reddito nominale effettivo dal suo
trend di lungo periodo influenzano l’andamento del tasso d’interesse: per esempio, a una crescita del reddito
più blanda rispetto al trend corrisponde una riduzione dei tassi d’interesse, e viceversa. Questo risultato
sembra supportare un’interpretazione del ruolo della banca centrale le cui origini risalgono al celebre Lombard
Street di Walter Bagehot, e che è stata poi ripresa e sviluppata da vari studiosi di orientamento critico. Questo
filone di ricerca alternativo suggerisce che il ruolo effettivo del banchiere centrale è più complesso di quello
che gli viene solitamente attribuito: esso consiste nel regolare la solvibilità delle unità economiche e più in
generale la stabilità finanziaria del sistema. L’autorità monetaria, cioè, muoverebbe i tassi d’interesse nella
stessa direzione del reddito nominale non certo per tentare di governare quest’ultimo, che è fuori dalla sua
portata, ma allo scopo non meno rilevante di controllare la differenza tra reddito e onere del debito, in modo
da tenere a bada la dinamica dei fallimenti, delle bancarotte e delle liquidazioni del capitale.
Secondo questa visione, il banchiere centrale agisce come “regolatore” di un conflitto tra capitali
solvibili, capaci di accumulare profitti superiori al servizio del debito, e capitali in perdita e dunque
potenzialmente insolventi. Tale conflitto è inoltre tanto più violento quanto più restrittiva sia la politica fiscale
del governo, che riduce i redditi nominali medi e colloca quindi un numero maggiore di unità economiche
sotto la linea dell’insolvenza. Dati gli orientamenti delle politiche di bilancio, dunque, il modo in cui la banca
centrale manovra il tasso d’interesse rispetto al reddito nominale medio influisce sul ritmo delle insolvenze e
sulla connessa “centralizzazione” dei capitali: vale a dire, sulle liquidazioni dei capitali più deboli e sul loro
progressivo assorbimento ad opera dei capitali più forti (Brancaccio e Fontana 2015).
Questa diversa interpretazione della politica monetaria consente di guardare sotto un’altra luce anche
l’attuale scenario dell’eurozona. Con politiche di bilancio pubblico votate all’austerity, in vari paesi la crescita
nominale del reddito resta troppo bassa, situandosi spesso al di sotto dei tassi d’interesse di mercato. Ciò
significa che l’attuale politica monetaria della BCE non è in grado di frenare la tendenza europea alla
10

centralizzazione, ossia alle liquidazioni dei capitali situati nelle aree periferiche e alla loro eventuale
acquisizione da parte di capitali presenti in Germania e nelle zone caratterizzate da migliori andamenti
macroeconomici. Questa tendenza è ben documentata dalla drammatica divaricazione tra i tassi di insolvenza
delle imprese europee (Creditreform 2016). Tra il 2007 ed il 2015 la Germania ha segnato una riduzione delle
insolvenze delle imprese a un ritmo medio del 3 percento all’anno. Al contrario, nello stesso periodo Spagna,
Portogallo e Italia hanno fatto registrare una violenta crescita delle insolvenze, con incrementi medi
rispettivamente del 37, del 21 e del 16 percento all’anno. Negli ultimi tempi in Spagna si è assistito a un calo
dei fallimenti, che tuttavia non consente nemmeno di avvicinarsi alla situazione ante-crisi. In Italia il quadro
non migliora, mentre in Portogallo nell’ultimo anno si registra addirittura un ulteriore aggravamento delle
bancarotte. Si tratta di una forbice senza precedenti, che oltretutto si ripercuote sugli andamenti dei bilanci
delle banche dei diversi paesi dell’Unione, creando i presupposti per nuove, asimmetriche crisi bancarie.
E’ dunque illusorio pensare che la BCE, da sola, sia in grado di contrastare la deflazione. La sua
politica monetaria, piuttosto, influisce sulle insolvenze e sulle liquidazioni dei capitali, che tuttora colpiscono
in modo asimmetrico i paesi membri dell’Unione. Anziché attardarsi su target d’inflazione impossibili, è su
quest’ultimo problema che il dibattito di politica monetaria dovrebbe maggiormente concentrarsi.

Bibliografia

Brancaccio, E., Fontana, G. (2015). ‘Solvency rule’ and capital centralisation in a monetary union, Cambridge Journal of Economics,
advance access online, 29 October.
Brancaccio, E., Fontana, G., Lopreite, M., Realfonzo, R. (2015). Monetary Policy Rules and Directions of Causality: A test for the Euro
Area, Journal of Post Keynesian Economics, 38 (4).
Brancaccio, E., Califano, A., Lopreite, M., Moneta, A. (2018). Nonperforming Loans and Alternative Rules of Monetary Policy: a Data-
Driven Investigation (submitted).
Creditreform (2016), Unternehmensinsolvenzen in Europa, Jahr 15/16.

Fin qui abbiamo discusso di controversie. Tra gli esponenti delle diverse scuole di
pensiero economico, tuttavia, possono anche verificarsi episodi di convergenza nella
interpretazione di determinati fenomeni. Nel caso della crisi dell’Eurozona e
dell’Unione europea, iniziata nel 2010 e ancora non superata, la “Lettera degli
economisti” pubblicata il 10 giugno 2010 sul Sole 24 Ore e il successivo “Monito degli
economisti” pubblicato il 23 settembre 2013 sul Financial Times, rappresentano esempi
interessanti. Questi documenti, infatti, sono stati sottoscritti da studiosi che, sebbene
appartenenti a diversi filoni di ricerca, hanno scelto di condividere una particolare
interpretazione critica delle politiche economiche che le autorità europee e i governi dei
paesi membri dell’Unione hanno adottato per fronteggiare la crisi.
11

Il “monito degli economisti” pubblicato nel 2013 sul Financial Times

Financial Times, 23 settembre 2013 - “The economists’ warning”

testo in italiano su www.theeconomistswarning.com

1.3 Politica e politica economica

Nel “monito degli economisti”, le politiche economiche di austerity adottate in Europa


negli ultimi anni vengono fortemente criticate. Si sostiene, tra l’altro, che a causa di tali
politiche i governi europei rischiano di ripetere alcuni gravi errori del passato. Il
riferimento è al trattato di pace che venne sottoscritto a Versailles alla fine della prima
guerra mondiale, e che impose alla Germania sconfitta il pagamento di pesanti
riparazioni e debiti di guerra:

Nel 1919 John Maynard Keynes contestò il Trattato di Versailles con parole lungimiranti: «Se
diamo per scontata la convinzione che la Germania debba esser tenuta in miseria, i suoi figli
rimanere nella fame e nell’indigenza […], se miriamo deliberatamente alla umiliazione
dell’Europa centrale, oso farmi profeta, la vendetta non tarderà». Sia pure a parti invertite, con i
paesi periferici al tracollo e la Germania in posizione di relativo vantaggio, la crisi attuale
presenta più di una analogia con quella tremenda fase storica, che creò i presupposti per l’ascesa
del nazismo e la seconda guerra mondiale. Ma la memoria di quegli anni sembra persa: le
autorità tedesche e gli altri governi europei stanno ripetendo errori speculari a quelli commessi
allora. Questa miopia, in ultima istanza, è la causa principale delle ondate di irrazionalismo che
stanno investendo l’Europa, dalle ingenue apologie del cambio flessibile quale panacea di ogni
male fino ai più inquietanti sussulti di propagandismo ultranazionalista e xenofobo (The
economists’ warning, FT).

La tesi del “monito degli economisti”, dunque, è che l’austerity imposta dal trattato di
Versailles, e la crisi e la disoccupazione che ne conseguirono, crearono i presupposti per
l’ascesa del nazismo in Germania e per la seconda guerra mondiale. Questa idea trova
oggi alcune conferme statistiche. Una recente ricerca pubblicata dal National Bureau of
Economic Research evidenzia che tra il 1930 e il 1932 ogni restrizione di bilancio
pubblico – ad esempio una riduzione della spesa pubblica – di un punto risulta associata
a aumento dei voti al partito nazista di due punti e mezzo.1

Quello descritto è uno dei tanti esempi dell’influenza che la politica economica e i
connessi fenomeni economici possono avere sugli sviluppi più generali della politica.
Ma la relazione tra la politica economica e le dinamiche più generali della politica può
essere notata anche in altri modi, ad esempio esaminando i programmi elettorali dei
1
Galofré-Vilà et al. (2017), Austerity and the rise of the nazi party, NBER working paper 24106.
12

partiti. Una parte consistente di tali programmi, per non dire prevalente, risulta
composta da proposte di politica economica. Un tragico esempio è rappresentato proprio
dal programma politico del partito nazista del 1920, che tra i suoi primissimi obiettivi
poneva proprio il rigetto del trattato di Versailles e dei connessi debiti da pagare ai
vincitori del primo conflitto mondiale, oltre a propositi di stampo dichiaratamente
razzista e guerrafondaio. Un altro celebre esempio storico di programma politico
generale che avanzi pure specifiche proposte di politica economica può essere
rintracciato nel “Manifesto del partito comunista” di Karl Marx e Friedrich Engels del
1848.

Estratto dal Manifesto del partito comunista, di K. Marx e F. Engels (1848)

[…] la prima tappa della rivoluzione operaia consiste nel fatto che il proletariato si elevi a classe dominante, ossia nel
raggiungere vittoriosamente la democrazia. Il proletariato si servirà del suo dominio politico per togliere via via alla
borghesia tutto il capitale, per concentrare nelle mani dello stato tutti gli strumenti della produzione, ossia nelle mani
del proletariato organizzato come classe dominante, e per aumentare con la massima velocità possibile le forze
produttive. Naturalmente tutto ciò non può accadere se non attraverso misure dispotiche contro il diritto di proprietà e
violazioni dei rapporti borghesi di produzione, ossia con misure che appariranno economicamente insufficienti e
insostenibili, che nel corso del movimento supereranno se stesse verso nuove misure, ma che nel frattempo sono i
mezzi indispensabili per rivoluzionare l’intero modo di produzione. Com’è ovvio, tali misure saranno diverse da
paese a paese. Ma per i paesi più progrediti, potranno essere generalmente applicate le misure che qui di seguito
indichiamo:

1. Espropriazione della proprietà fondiaria e impiego della rendita fondiaria per le spese dello stato.
2. Imposta fortemente progressiva.
3. Abolizione del diritto di eredità.
4. Confisca dei beni degli emigrati e dei ribelli.
5. Accentramento del credito nelle mani dello stato attraverso una banca nazionale con capitale di Stato e con
monopolio esclusivo.
6. Accentramento dei mezzi di trasporto nelle mani dello stato.
7. Aumento delle fabbriche nazionali e degli strumenti di produzione, dissodamento e miglioramento dei terreni
secondo un piano generale.
8. Uguale obbligo di lavoro per tutti, organizzazione di eserciti industriali specialmente per l’agricoltura.
9. Unificazione dell’esercizio dell’agricoltura e dell’industria e misure atte a preparare la progressiva eliminazione
della differenza fra città e campagna.
10. Educazione pubblica e gratuita di tutti i fanciulli. Abolizione del lavoro dei fanciulli nelle fabbriche nella sua
forma attuale. Combinazione dell’educazione con la produzione materiale.

Quando nel corso degli eventi le differenze di classe saranno sparite e tutti i mezzi di produzione saranno concentrati
nelle mani degli individui associati, il potere pubblico avrà naturalmente perso ogni carattere politico. Il potere
politico, nel senso vero e proprio della parola, non è se non il potere organizzato di una classe per l’oppressione di
un’altra. Ora, se il proletariato nella lotta contro la borghesia è spinto a costituirsi in classe, e se attraverso la
rivoluzione diventa classe dominante, distruggendo violentemente gli antichi rapporti di produzione, in questo modo
esso, abolendo tali rapporti, abolisce le condizioni di esistenza dell’antagonismo di classe, e cioè abolisce le classi in
generale e il suo proprio dominio di classe. Al posto della società borghese, con le sue classi ed i suoi antagonismi di
classe, subentrerà un’associazione nella quale il libero sviluppo di ciascuno sarà la condizione del libero sviluppo di
tutti. […]

Ma esistono anche esempi più recenti dell’enorme peso dei temi di politica economica
sulle dinamiche generali della politica. Un caso molto noto è rappresentato dalla
campagna statunitense per le elezioni presidenziali del 1992. Il presidente allora in
carica, il repubblicano George Bush padre, aveva impostato la sua campagna per la
rielezione sulla vittoria militare appena conseguita dagli USA e dalle forze alleate
13

contro l’Iraq di Saddam Hussein. In questo modo Bush sperava di guadagnare


nuovamente il consenso degli elettori nonostante la recessione che colpiva in quei mesi
l’economia americana. Il candidato democratico, Bill Clinton, focalizzò allora la sua
propaganda su uno slogan che sarebbe diventato celebre: “it’s the economy, stupid!”, a
indicare che il suo avversario non sarebbe riuscito a distogliere l’attenzione degli
elettori dal problema fondamentale di un’economia stagnante e di una disoccupazione in
crescita. Così in effetti fu: durante la campagna elettorale Bush perse terreno e Clinton
fu eletto presidente, nell’auspicio di una svolta negli indirizzi di politica economica per
cercare di fronteggiare la crisi. Un caso ancor più recente è il referendum del 2016 sulla
cosiddetta Brexit, la scelta della Gran Bretagna di restare o uscire dall’Unione europea.
La vittoria dei sostenitori dell’opzione di uscita è il risultato inatteso di una campagna in
gran parte centrata su temi di politica economica, tra cui le difficoltà occupazionali nelle
ex regioni industriali e il deficit commerciale britannico.

1.4 I modelli della politica economica

Come l’economia politica, la politica economica si fonda sulla costruzione di modelli


teorici, vale a dire schemi matematici tesi a rappresentare le caratteristiche essenziali
della realtà oggetto d’indagine. Un modello solitamente corrisponde a un’equazione o a
un sistema di equazioni. I legami tra variabili descritti da tali equazioni possono
esprimere relazioni contabili, funzioni tecnico-produttive, funzioni di
comportamento oppure condizioni di equilibrio. In ciascuna equazione i termini
considerati relativamente più stabili nel tempo vengono solitamente definiti parametri,
mentre le grandezze soggette a cambiamenti più frequenti sono dette variabili. Tra di
esse ci sono anche le variabili di politica economica, ossia quelle che sono frutto di
decisione delle autorità di governo. Le variabili possono essere esogene, ossia
considerate date dall’esterno dell’analisi, oppure possono essere endogene, ossia le
incognite da determinare all’interno del modello.

Compito dell’economista è definire le caratteristiche delle relazioni del modello,


scegliere le esogene e le endogene e poi sottoporre il modello teorico a verifica
empirica, tramite una stima dei parametri e un confronto tra i risultati della teoria e i
dati statistici disponibili. A seconda della qualità dei risultati dell’indagine empirica, il
modello potrà essere almeno temporaneamente accettato, oppure potrà essere emendato,
oppure ancora rigettato.

Un modello può essere espresso in forma strutturale se esso descrive esplicitamente le


relazioni che intercorrono tra tutte le variabili esaminate. Oppure il modello può essere
risolto matematicamente ed espresso in forma ridotta, che consiste nel rappresentare le
variabili endogene solo in funzione delle variabili esogene e dei parametri dati.

Per esempio, se prendiamo una versione semplice del modello keynesiano di


determinazione della produzione di equilibrio, la sua forma strutturale può esser data
da:

1) 𝐶 = 𝐶0 + 𝑐1 (𝑌 − 𝑇)
14

2) 𝐼 = 𝐼0
3) 𝐺 = 𝐺0
4) 𝑇 = 𝑇0 + 𝑡𝑌
5) 𝑌 = 𝐶 + 𝐼 + 𝐺

Le equazioni (1) e (2) sono equazioni di comportamento aggregato degli operatori


privati, relative alle scelte di consumo delle famiglie e di investimento delle imprese. Le
equazioni (3) e (4) descrivono il comportamento delle autorità di governo, in merito alla
spesa pubblica e alla tassazione. La (5) è una condizione di equilibrio macroeconomico
tra la produzione e la domanda aggregata, quest’ultima costituita dalla somma di
consumi, investimenti e spesa pubblica. Il termine c1 è un parametro, le variabili C0, I0
sono esogene determinate dal comportamento di famiglie e imprese, le variabili G0, t, T0
sono esogene determinate dalle decisioni delle autorità, le variabili C, Y, sono
endogene. Rispetto al modello standard del manuale di macroeconomia di Blanchard,
l’unica differenza risiede nel fatto che qui la funzione delle imposte è resa più realistica,
visto che contiene non solo la solita componente esogena ma anche una componente
dipendente dal reddito.

La forma strutturale del modello è utile per comprendere la concezione che esso
suggerisce in merito al funzionamento del sistema economico. Tuttavia, per calcolare le
endogene è utile passare alla forma ridotta. A tale scopo possiamo esprimere le
endogene Y, C in funzione delle sole esogene. Sostituendo e riarrangiando, otteniamo il
seguente sistema (1’) di due equazioni in due incognite Y e C:

1
𝑌= (𝑐 + 𝐼0 + 𝐺0 − 𝑐1 𝑇0 )
1 − 𝑐1 (1 − 𝑡) 0
(1′ )
𝑐1 (1 − 𝑡)(𝑐0 + 𝐼0 + 𝐺0 − 𝑐1 𝑇0 )
𝐶 = 𝑐0 − 𝑐1 𝑇0 +
1 − 𝑐1 (1 − 𝑡)

La forma ridotta, come si può notare, per l’appunto “riduce” il numero di equazioni al
numero delle endogene esistenti nel modello, e consente di determinare subito tali
variabili endogene dal momento che le esprime solo in funzione delle esogene e dei
parametri, ossia di termini considerati già noti.

ESEMPIO: assumendo che il parametro del sistema economico sia c1 = 0,8, che le
variabili esogene di comportamento degli agenti privati siano c0 = 50, I0 = 150, e che le
variabili esogene di politica economica siano G0 = 120, , t = 0,1, T0 = 100, verifica che
le due variabili endogene corrispondono a Y = 857,14 e C = 587,14.

In generale, per ogni generico modello di politica economica costituito da k equazioni,


esisterà un vettore y di m variabili endogene e un vettore x di n variabili esogene.
Trasformando il modello in forma ridotta, si potranno ottenere m equazioni ciascuna
corrispondente alle endogene da calcolare, tutte espresse in funzione delle sole esogene:
15

𝑦1 = 𝑓1 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )
𝑦2 = 𝑓2 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )
… … .. … … … . .
𝑦𝑚 = 𝑓𝑚 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )

Ovviamente, il modello potrà essere più agevolmente analizzato se le equazioni in


forma ridotta sono lineari. Per questo, anche quando le equazioni non sono lineari, si
tende talvolta a considerare delle procedure di approssimazione lineare (un esempio è
la regola di Taylor per l’approssimazione di primo ordine). Lo scopo è di pervenire a
forme funzionali di questo tipo:

𝑦1 = 𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯ + 𝑎1𝑛 𝑥𝑛


…. ……. ………. ….
𝑦𝑚 = 𝑎𝑚1 𝑥1 + 𝑎𝑚2 𝑥2 + ⋯ + 𝑎𝑚𝑛 𝑥𝑛

dove i termini aij rappresentano i parametri del modello. Questo tipo di sistemi potrà
essere espresso anche in forma di algebra matriciale, con y vettore (m x 1) delle
endogene, x vettore (n x 1) delle esogene e A matrice (m x n) dei coefficienti:

y = Ax

1.4 Obiettivi e strumenti

Tra le variabili di un modello di politica economica esistono anche quelle che assolvono
al ruolo di obiettivi politici e quelle che fungono da strumenti per il perseguimento
degli obiettivi.

Gli obiettivi di politica economica si dicono fissi se consistono nel raggiungimento di


un valore puntuale della variabile esaminata, e si dicono flessibili se richiedono che
anziché raggiungere un valore specifico la variabile in questione si trovi al di sotto o al
di sopra di una data soglia, oppure sia massimizzata o minimizzata rispetto a un dato
vincolo. Ad esempio, l’obiettivo di raggiungere il pareggio di bilancia commerciale
(NX = 0) è fisso, mentre l’obiettivo di situare l’inflazione entro la soglia del 2% (p ≤
0,02) è flessibile.

Gli strumenti indicano quelle variabili che vengono usate dai policymakers come leve
per raggiungere un dato obiettivo di politica economica. Ovviamente uno strumento è
tale se risulta effettivamente controllabile dall’autorità di governo. Consideriamo ad
esempio il caso di una banca centrale che intenda controllare il tasso d’interesse interno
per perseguire determinati obiettivi di occupazione e sostenibilità del debito. In una
situazione di perfetta mobilità internazionale dei capitali i possessori di capitali
cercano di spostare le loro ricchezze in quei paesi che garantiscono i maggiori vantaggi,
e in particolare assicurano tassi d’interesse più elevati rispetto agli altri. Pertanto, i
16

movimenti di capitale si arrestano solo nel momento in cui i titoli dei vari paesi offrono
il medesimo rendimento, al netto delle variazioni attese del tasso di cambio. La
condizione sotto la quale gli spostamenti di capitale si interrompono, e che mette
dunque in equilibrio i mercati, è detta condizione di arbitraggio o condizione di parità
scoperta dei tassi d’interesse. Nel manuale di macroeconomia di Blanchard tale
condizione è data da:

Et
1  it  (1  it* )
Ete1

dove la parte sinistra indica il rendimento i che si ottiene acquistando titoli nazionali,
mentre la parte destra indica il rendimento i* derivante dall’acquisto di titoli esteri.
Questo secondo rendimento, si badi, è calcolato includendo le eventuali variazioni
attese del tasso di cambio nominale E. Finché la parte sinistra risulta inferiore alla parte
destra dell’equazione, allora conviene spostare i capitali all’estero per acquistare titoli
stranieri, che rendono di più. Viceversa, nel caso in cui la parte sinistra sia maggiore,
conviene tenere i capitali in patria. Si comprende pertanto che se la banca centrale vuole
evitare fughe di capitali all’estero, dovrà fissare un tasso d’interesse interno in grado di
rispettare la condizione di parità scoperta, dati il tasso prevalente all’estero e il tasso di
cambio atteso. Il risultato è che il tasso d’interesse nazionale i non si trova sotto il
pieno controllo della banca centrale, e quindi difficilmente potrà esser considerato
uno strumento di politica economica. Una sezione del volume “Anti-Blanchard” è
dedicata ai criteri tramite i quali si può nuovamente rendere il tasso d’interesse uno
strumento controllabile dalla banca centrale, tramite ad esempio tassazioni o controlli
amministrativi sui movimenti internazionali di capitale.

Una variabile, per esser considerata uno strumento, deve anche avere un impatto sulle
variabili obiettivo del modello. Riprendiamo ad esempio il modello keynesiano (1’) di
determinazione della produzione di equilibrio. Se l’obiettivo è quello di conseguire un
certo livello di produzione Y, la spesa pubblica G potrà esser considerata un valido
strumento di policy solo se la derivata della produzione rispetto alla spesa pubblica
dY/dG è maggiore di zero. Ossia:

𝑑𝑌 1
(6) = >0
𝑑𝐺 1 − 𝑐1 (1 − 𝑡)

una condizione che è confermata se c1(1 – t) < 1, il che è abbastanza plausibile


considerato che la propensione al consumo e l’aliquota di tassazione sono in genere
entrambe inferiori a uno. Questo risultato, tipicamente keynesiano, viene solitamente
associato alla determinazione del livello di equilibrio della produzione nel “breve
periodo”. Esistono tuttavia modelli che attribuiscono alla spesa pubblica il ruolo di
valido strumento per determinare la produzione anche nel “lungo periodo”: basti
pensare al modello alternativo descritto nel volume “Anti-Blanchard”. Invece, nel
medesimo volume, il modello mainstream di domanda e offerta aggregata propone una
equazione di determinazione della produzione di equilibrio di “lungo periodo” che
esclude completamente la spesa pubblica. Possiamo dunque affermare che, ai fini della
determinazione del livello di equilibrio di lungo periodo della produzione, la spesa
17

pubblica viene considerata un valido strumento di policy dai sostenitori dell’approccio


alternativo ma non dagli esponenti dell’approccio mainstream.

ESERCIZIO: Lo studente è invitato a sincerarsi di questa differenza analizzando le


versioni algebriche dei modelli descritti nel paragrafo 4.1 dell’Anti-Blanchard e
calcolando le rispettive derivate dY/dG.

Infine, riprendiamo il modello in forma ridotta descritto alla fine del paragrafo
precedente. Possiamo affermare che quando il modello viene esaminato da un punto di
vista puramente positivo, allora gli obiettivi y sono considerati endogene da determinare
mentre gli strumenti x sono valutati come esogene date, proprio come rappresentato nel
modello del paragrafo precedente. Se però si vuole analizzare il modello da un punto di
vista normativo, allora è preferibile ribaltare l’analisi considerando gli obiettivi y come
variabili esogene predeterminate dall’autorità politica, e gli strumenti x come variabili
endogene da determinare in funzione degli obiettivi fissati. In pratica, se prima avevamo
equazioni del tipo y = f(x), ora bisogna calcolare le rispettive funzioni inverse e ottenere
x = f-1(y). Si ottiene così la forma ridotta inversa del modello:

𝑥1 = 𝛾1 (𝑦1 , 𝑦2 , … , 𝑦𝑚 )
𝑥2 = 𝛾2 (𝑦1 , 𝑦, … , 𝑦𝑚 )
… … .. … … … . .
𝑥𝑛 = 𝛾𝑚 (𝑦1 , 𝑦2 , … , 𝑦𝑚 )

Abbiamo così n strumenti e altrettante equazioni in funzione di m variabili obiettivo.


Assumendo che il sistema sia lineare o linearizzato, possiamo domandarci in quali casi
esso sia risolvibile matematicamente. Se il sistema è risolvibile si dice che il modello di
politica economica è controllabile. Da questo punto di vista, date alcune condizioni
matematiche, possiamo distinguere tre casi:

1) Se m = n il sistema è esattamente determinato. Dati m obiettivi fissi di politica


economica, esisterà un’unica soluzione per i valori che le n variabili strumento
dovranno assumere al fine di conseguire quegli obiettivi.

2) Se m < n il sistema è sottodeterminato. Questa circostanza è particolarmente


favorevole per il policymaker. Infatti gli strumenti eccedono gli obiettivi, e quindi
esisteranno infinite soluzioni possibili per conseguire questi ultimi. Il motivo è
semplice: per esempio, se consideriamo un modello di 1 obiettivo e 2 strumenti, è
possibile fissare arbitrariamente il valore di uno dei due strumenti e determinare poi
endogenamente l’altro, il che dimostra che le combinazioni possibili per ottenere il dato
obiettivo sono infinite. Si dice in questi casi che il modello è caratterizzato da n – m
gradi di libertà.

3) Se m > n il sistema è sovradeterminato. In tal caso gli obiettivi eccedono gli


strumenti, con la conseguenza che non esiste nessuna soluzione in grado di soddisfare
il conseguimento di tutti gli obiettivi. Il modello di politica economica in tal caso non è
controllabile, nel senso che gli obiettivi fissi stabiliti non sono tutti raggiungibili:
bisognerà abbandonarne alcuni o bisognerà eventualmente riformularli in termini più
flessibili.
18

Possiamo sintetizzare questi risultati nella cosiddetta “regola aurea della politica
economica” suggerita dal premio Nobel Jan Timbergen: condizione necessaria
affinché un modello di politica economica a obiettivi fissi sia controllabile, è che il
numero degli strumenti sia almeno pari al numero degli obiettivi.

Per approfondire la “regola aurea”, riprendiamo il semplice modello keynesiano di


determinazione della produzione di equilibrio. Nella formulazione (1-5) il modello è in
forma strutturale. In precedenza avevamo trasformato il modello nella versione (1’) in
forma ridotta, con gli obiettivi che fungevano da variabili endogene e i vari strumenti
considerati come variabili esogene. Per applicare la regola di Timbergen può essere
preferibile esprimere il modello con gli obiettivi esogeni e gli strumenti endogeni.
Possiamo dunque ritenere che gli obiettivi Y e C siano stabiliti dalle autorità di governo
e assumano il ruolo di variabili esogene. Pertanto, m = 2. Riguardo agli strumenti di
politica economica, ne abbiamo tre: la spesa pubblica G0, la componente di tassazione
T0 indipendente dal reddito e l’aliquota t di prelievo fiscale sul reddito. Dunque, n = 3.
Applicando la “regola aurea” possiamo affermare che il sistema è controllabile: esso
infatti è sottodeterminato e ammette infinite soluzioni. Possiamo allora attribuire un
valore arbitrario a uno degli strumenti, ad esempio t. I due strumenti G0, T0 diventano
quindi le variabili endogene da determinare. A questo punto possiamo partire dal
modello (1’) e scriverlo in forma ridotta inversa, oppure possiamo partire dal modello in
forma strutturale (1-5) e scriverlo in modo da esplicitare le equazioni nei termini dei due
strumenti G0, T0. In entrambi i modi, tramite semplici passaggi giungiamo al seguente
modello, che presenta gli obiettivi come esogeni e gli strumenti come endogeni:

𝐺0 = 𝑌 − 𝐶 − 𝐼0
(1”)
𝑐0 − 𝐶
𝑇0 = + (1 − 𝑡)𝑌
𝑐1

Dati i parametri e gli obiettivi esogeni di politica economica, le autorità potranno


determinare i valori degli strumenti che consentono di raggiungere gli obiettivi dati.

ESEMPIO: assumendo che il parametro del sistema economico sia c1 = 0,8, che le
variabili esogene di comportamento di famiglie e imprese private siano C0 = 50, I0 =
150, che l’aliquota d’imposta sia t = 0,1 e che gli obiettivi di politica economica siano
variabili esogene fissate a Y = 857,14 e C = 587,14, utilizza il sistema in forma ridotta
inversa (1”) per verificare che tali obiettivi esogeni possono essere conseguiti solo se gli
strumenti di politica economica corrispondono a G0 = 120 e T0 = 100.

1.5 Obiettivi flessibili e funzioni di perdita: l’indice di malessere di Okun


19

Abbiamo detto che quando gli obiettivi fissi eccedono gli strumenti il sistema è
sovradeterminato e il modello di politica economica non ammette soluzioni. Un modo
per ovviare al problema può consistere nel ridurre il numero degli obiettivi e nel renderli
flessibili. Per esempio, supponiamo che gli obiettivi di politica economica siano due,
l’inflazione e la disoccupazione, e che l’unico strumento di policy disponibile sia
soltanto la spesa pubblica. In tal caso, per rendere il modello controllabile le autorità
possono ridurre i due obiettivi a uno solo, convogliando l’inflazione e la disoccupazione
in un’unica funzione, detta “funzione di perdita” (loss function) del policymaker. Un
esempio di funzione di perdita può essere questo:

𝐿 = 𝛾1 (𝜋 − 𝜋 ∗ )2 + 𝛾2 (𝑢 − 𝑢∗ )2

dove π e u indicano i livelli effettivi di inflazione e disoccupazione, π* e u*


rappresentano i livelli delle due variabili che le autorità reputano ottimali, γ1 e γ2
rappresentano i “pesi politici” che le autorità attribuiscono alle deviazioni di ciascuna
delle due variabili rispetto ai loro livelli ottimali, e L indica la funzione di perdita delle
autorità. Il sistema a questo punto è determinato, dal momento che l’unico strumento
della spesa pubblica deve puntare all’unico obiettivo di minimizzare la funzione di
perdita. Si noti che in tal caso l’obiettivo non è più fisso ma flessibile: non bisogna
raggiungere un valore puntuale di L ma bisogna minimizzare il suo livello.

Un celebre esempio di funzione di perdita è l’indice di malessere ideato da Arthur


Okun negli anni ’70 del secolo scorso (OMI: Okun Misery Index). Tale indice si
distingue dalla funzione di perdita L poiché esso pone a uno i pesi politici di inflazione
e disoccupazione, pone a zero i livelli ottimali di queste due variabili e non eleva al
quadrato i termini tra parentesi. Abbiamo dunque:

𝑂𝑀𝐼 = 𝜋 + 𝑢

che si può anche riscrivere:

𝜋 = 𝑂𝑀𝐼 − 𝑢

Ovviamente, la minimizzazione dell’OMI è sottoposta ai vincoli del funzionamento


dell’economia, e in particolare alle relazioni esistenti tra le variabili in gioco. Per
esempio, se il sistema economico è caratterizzato dall’esistenza di una “curva di
Phillips”, ciò significa che esiste un legame stabile tale per cui all’aumentare della
domanda aggregata la disoccupazione si riduce e si assiste pure a una crescita dei salari
e dell’inflazione. Nella sua versione più elementare, l’equazione di Phillips può essere
rappresentata da una funzione lineare del tipo:

𝜋 = 𝛼 − 𝛽𝑢.

dove i termini α e β sono parametri esogeni. L’equazione può essere spiegata in vari
modi: uno dei più semplici consiste nel supporre che al ridursi della disoccupazione il
potere rivendicativo dei lavoratori aumenta, per cui la crescita salariale si accentua e, se
le imprese scaricano l’aumento dei salari sui prezzi, si registra anche un aumento
20

dell’inflazione. Il termine β, in questo senso, può essere considerato un indice della


reattività delle rivendicazioni salariali dei lavoratori al variare della disoccupazione.

Il problema del policymaker può dunque essere descritto come un problema di scelta di
quell’ammontare di spesa pubblica G che determina un livello di domanda aggregata
tale da minimizzare la funzione OMI sotto il vincolo della equazione di Phillips.
Nell’esempio descritto dal grafico di Fig. 2, la linea continua rappresenta il vincolo
dell’equazione di Phillips, mentre le linee tratteggiate rappresentano degli isoquanti
ciascuno dei quali corrispondente a un diverso livello dell’indice di malessere di Okun.
Sapendo che l’inclinazione dell’equazione di Phillips è data da β mentre l’inclinazione
dell’isoquanto di Okun è data da 1, L’equazione di Phillips viene qui tracciata più ripida
dell’isoquanto di Okun poiché assumiamo che β>1. Ovviamente, isoquanti più alti
indicano combinazioni peggiori di inflazione e disoccupazione e quindi corrispondono a
un malessere maggiore, per cui l’ideale è situarsi sull’isoquanto più basso possibile. La
combinazione di inflazione e disoccupazione descritta dal punto E si situa lungo
l’isoquanto più basso che può essere raggiunto, dato il vincolo esistente. Le autorità
saranno quindi indotte a scegliere un livello di spesa che colloca il sistema sul punto E.

Un problema di minimizzazione dell’indice di malessere di Okun

Il punto E è una tipica “soluzione d’angolo”: le autorità decidono di portare a zero


l’inflazione e di accettare un certo livello di disoccupazione. Questo risultato dipende
proprio dal fatto che nell’esempio descritto β>1, ossia l’inclinazione β della equazione
21

di Phillips è maggiore rispetto all’inclinazione unitaria dell’isoquanto di malessere di


Okun.

Tale risultato, evidentemente, può modificarsi per varie ragioni. Per esempio, se le
richieste salariali dei lavoratori risultassero meno sensibili alle variazioni della
disoccupazione, allora β si ridurrebbe in valore assoluto e quindi la retta dell’equazione
di Phillips diventerebbe meno ripida e più piatta. In particolare, sotto l’ipotesi che β<1
avremmo una soluzione d’angolo situata sull’asse delle ordinate, con disoccupazione
pari a zero e inflazione positiva. Il risultato mostrato sul grafico precedente dipende
anche dal fatto che l’indice di Okun che stiamo considerando attribuisce un peso
unitario sia all’inflazione che alla disoccupazione. Questa, tuttavia, può esser
considerata una scelta di tipo politico, e quindi può essere ritenuta opinabile. Alcuni
studiosi, per esempio, hanno criticato l’indice di Okun fornendo evidenze empiriche a
sostegno della tesi che i cittadini europei e statunitensi attribuiscono un peso maggiore
al malessere causato dalla disoccupazione rispetto al disagio provocato dall’inflazione.2
In tal caso, l’inclinazione delle rette dell’isoquanto di malessere di Okun risulta più
ripida. Se dunque si accetta la possibilità che le rivendicazioni dei lavoratori siano meno
sensibili alle variazioni della disoccupazione, e che la popolazione dia più peso al
problema della disoccupazione che a quello dell’inflazione, allora si potrà giungere a
una soluzione d’angolo diversa, caratterizzata dal fatto che le autorità puntano ad
azzerare la disoccupazione e a tollerare un certo livello positivo d’inflazione.

ESERCIZIO: supponi che l’equazione di Phillips corrisponda a π = (1/10) – u e che le


autorità si basino su un indice di Okun che attribuisce un peso per la disoccupazione
maggiore del peso riguardante l’inflazione: ad esempio OMI = π + 2u. Sapendo che in
questi casi la soluzione è d’angolo, determina la combinazione di inflazione e
disoccupazione che minimizza l’OMI e traccia il grafico corrispondente.

ESERCIZIO: assumendo che l’equazione di Phillips corrisponda sempre a


π = (1/10) – u, ipotizza che ora le autorità si basino su una funzione dell’indice di Okun
non più lineare ma concava, del tipo: OMI = π2 + 2u2. In questo caso non siamo
dinanzi a una soluzione d’angolo. Per trovare la soluzione bisogna risolvere un
problema di minimizzazione del malessere sotto il vincolo della curva di Phillips.
Risolvi il problema graficamente e algebricamente e individua i valori ottimali di
disoccupazione e inflazione.

1.6 La critica di Lucas

Fino a questo momento abbiamo ipotizzato che un modello del tipo y = Ax ponesse
semplicemente il problema di verificare se, dato il numero di obiettivi e di strumenti, la
2
Di Tella, Rafael; MacCulloch, Robert J. and Oswald, Andrew (2001). "Preferences over Inflation and
Unemployment: Evidence from Surveys of Happiness". American Economic Review. 91 (1).
22

regola aurea di Timbergen fosse rispettata. In questo senso, abbiamo ipotizzato che i
parametri contenuti nella matrice A fossero già determinati e sufficientemente stabili
nel tempo anche al variare di x e y. Nel caso del semplice modello keynesiano di
determinazione della produzione, ciò significa assumere, per esempio, che il parametro
c1 sia stato già determinato tramite indagine statistica e sia risultato stabile anche a
seguito di variazioni nei valori assunti da obiettivi come Y e da strumenti come G0.
Sulla base di questa impostazione, gli economisti utilizzano versioni più sofisticate del
modello keynesiano, ma concettualmente molto simili ad esso, per elaborare modelli
econometrici tesi a fare diversi tipi di previsioni: per esempio riguardo all’effetto delle
variazioni della spesa pubblica sugli andamenti della produzione, e così via.

L’economista e premio Nobel Robert Lucas ha avanzato nel 1976 una celebre critica ai
modelli econometrici tradizionali basati sull’idea di costanza dei parametri. Egli ha
sostenuto che al mutare degli orientamenti di politica economica delle autorità di
governo si verificano anche reazioni nei comportamenti degli agenti privati, le
quali corrispondono a a mutamenti nei parametri dei modelli econometrici di
previsione. Secondo Lucas, dunque, se le autorità di governo pretendono di prevedere
gli effetti delle loro politiche assumendo parametri comportamentali dati, esse
commettono un errore che finirà per inficiare le loro aspettative, rendendo impossibile
un esercizio razionale dell’azione di policy.

Semplificando al massimo, possiamo descrivere la critica di Lucas utilizzando ancora


una volta il modello keynesiano. Tale modello, come sappiamo, prevede che
all’aumentare della spesa pubblica si verifichi un aumento della produzione. Tuttavia, se
assumiamo che le autorità di governo abbiano deciso di aumentare la spesa pubblica
senza accrescere corrispondentemente l’imposizione fiscale, la conseguenza è che si
verificherà pure un aumento del deficit pubblico. Se le famiglie prevedono che tale
aumento del deficit pubblico dovrà essere coperto da futuri aumenti della tassazione,
esse potrebbero prepararsi all’eventualità di maggiori esborsi fiscali futuri aumentando
la propensione al risparmio e riducendo la propensione al consumo: la conseguenza, in
tal caso, è che il parametro c1 non può essere più considerato costante poiché
diminuisce proprio a seguito dell’aumento della spesa pubblica. In tal caso, l’effetto
finale sulla domanda aggregata e sulla produzione sarà minore rispetto a quanto si
potrebbe prevedere assumendo che le famiglie non reagiscano al cambiamento di
politica economica. Se dunque non tiene conto della possibilità che i parametri
subiscano mutamenti, il modello di politica economica non sarà in grado di prevedere
l’effetto sulle variabili obiettivo di qualsiasi variazione delle variabili strumento.

Dalla critica di Lucas alcuni studiosi hanno tratto l’implicazione, tipicamente liberista,
secondo cui gli effetti dell’azione delle autorità di politica economica sono troppo
difficili da prevedere, e quindi sarebbe bene che le autorità si limitassero a
determinare i livelli delle variabili di politica economica in base a “regole fisse” ed
evitassero di modificarli ogni volta su “basi discrezionali”. Altri ricercatori hanno
invece sostenuto che, per ovviare alla critica di Lucas, occorre dare fondamento
microeconomico ai parametri strutturali dei modelli macroeconometrici: ogni
parametro, cioè, deve essere determinato in base a dei modelli che tengano conto delle
possibili interazioni tra le decisioni delle autorità di governo e i comportamenti delle
famiglie e delle imprese private.
23

In ogni caso, anche riguardo ai modi di affrontare la critica di Lucas si presenta un


problema teorico di fondo: le tesi in merito alle possibili reazioni degli agenti privati al
variare delle politiche dei governi saranno diverse a seconda degli approcci teorici
adottati. Una differenza, a tale riguardo, può riguardare le ipotesi sul carattere più o
meno razionale dei comportamenti degli agenti privati. Si può accettare in tal senso
l’idea tipicamente neoclassica di comportamento razionale e massimizzante oppure,
seguendo gli studi del premio Nobel Herbert Simon e di altri, si possono ritenere più
plausibili forme di razionalità limitata degli agenti privati. Chiaramente, a seconda di
tali diverse ipotesi di comportamento, cambierà il modo di prevedere le eventuali
reazioni degli agenti privati ai mutamenti di policy. Inoltre, prendendo spunto
dall’”Anti-Blanchard”, possiamo distinguere tra modelli fondati sull’idea di
“equilibrio naturale” e modelli che rifiutano tale concetto. Noi sappiamo che mentre
la visione mainstream esclude che la spesa pubblica abbia ripercussioni sul livello di
“equilibrio naturale” della produzione e sul reddito, l’approccio alternativo può invece
ammettere che un aumento della spesa pubblica determini aumenti dei livelli di lungo
periodo della produzione e dei redditi. Questa differenza si colloca in un certo senso al
di sopra del problema posto da Lucas, dal momento che da un lato essa prescinde dalla
reattività degli agenti privati, e dall’altro finisce per condizionarla. Si può infatti
ragionevolmente presumere che se la spesa pubblica aumenta i redditi futuri, gli agenti
privati avranno meno ragioni di ridurre la propensione al consumo per prepararsi a
eventuali esborsi fiscali futuri. Anche ammettendo che gli agenti economici reagiscano
alle politiche e che quindi i parametri dei modelli non siano fissi, non è affatto detto che
le reazioni e i connessi mutamenti parametrici coincidano con quelli previsti da Lucas e
dagli esponenti della teoria dominante.

1.7 Quali obiettivi? Il problema della redistribuzione

Commentando l’indice di malessere di Okun, abbiamo osservato che potrebbero


sussistere diverse valutazioni politiche in merito ai pesi da attribuire ai danni sociali
provocati dall’inflazione e dalla disoccupazione. I parametri contenuti nell’indice di
malessere potrebbero cambiare in base alle preferenze della popolazione, e al limite
potrebbe anche modificarsi la sua forma funzionale. Abbiamo così potuto notare che la
scelta degli obiettivi, siano essi fissi o flessibili, costituisce un problema
eminentemente politico. La questione che si pone, al riguardo, è la seguente: in quali
modi le autorità di governo affrontano il problema politico della scelta degli obiettivi? E
gli economisti possono in tal senso fornire dei criteri guida in merito alla preferenza di
alcuni obiettivi rispetto ad altri?

La questione della definizione degli obiettivi risulta ancor più delicata se riguarda la
scelta della miglior distribuzione del reddito e della ricchezza tra i membri della
popolazione. A tal proposito, nell’ambito della scuola di pensiero neoclassica è andato
sviluppandosi un dibattito sulla cosiddetta “economia del benessere”, tra economisti
favorevoli ed economisti contrari a misure di redistribuzione tra i diversi membri della
popolazione.
24

I partecipanti a questo dibattito partono da alcune proprietà che la teoria neoclassica


attribuisce al libero funzionamento di un mercato di concorrenza perfetta. Come
sappiamo, il mercato di concorrenza perfetta è quello in cui nessun agente economico
abbia un potere di mercato e non ci siano vincoli di nessun tipo alla libertà degli scambi.
Gli economisti neoclassici attribuiscono alla libertà degli scambi che si realizza in
questo mercato una serie di importanti caratteristiche. In particolare, la teoria
neoclassica stabilisce che il libero gioco del mercato condurrà a un equilibrio in cui
non si potranno effettuare nuovamente scambi mutuamente vantaggiosi per tutti,
ossia nessun agente potrà migliorare ulteriormente la propria posizione senza
peggiorare quella degli altri. Detto in altre parole, una volta raggiunto questo
equilibrio, ogni spostamento da esso potrà comportare miglioramenti per alcuni soggetti
che tuttavia coincideranno con peggioramenti per altri. Questo tipo di equilibrio è
definito “Pareto-efficiente”, dal nome di Vilfredo Pareto, l’economista italiano che per
primo lo ha enunciato. La tesi secondo cui la libertà degli scambi su un mercato
concorrenziale determina un equilibrio Pareto-efficiente rappresenta il cosiddetto
“primo teorema dell’economia del benessere”.

Per descrivere le caratteristiche di questo teorema possiamo avvalerci qui di una


situazione molto semplificata. Immaginiamo di trovarci di fronte a una economia di
puro scambio, in cui cioè esistono solo dei consumatori e non esistono imprese. Ogni
consumatore dispone di una dotazione di beni e può scegliere se effettuare o meno
scambi con altri consumatori. Per semplificare ulteriormente, immaginiamo che esistano
sul mercato solo due consumatori, Anna e Paolo, nessuno dei quali tuttavia ha un potere
di mercato. E assumiamo pure che i consumatori abbiano a disposizione solo due tipi di
beni: cibo e vestiario. Possiamo così rappresentare le mappe di curve di indifferenza dei
due consumatori avvalendoci della cosiddetta scatola di Edgeworth:
25

La “scatola” è costruita come due mappe di indifferenza sovrapposte: quella di Anna


nella posizione consueta e quella di Paolo rovesciata. Ovviamente, più i due
consumatori si allontanano dalle loro rispettive origini degli assi (i due punti O della
“scatola”), più cresce rispettivamente la loro utilità: ciò significa che l’utilità di Anna
aumenta man mano che ella si sposta su punti più in alto e più a destra sul grafico,
mentre l’utilità di Paolo cresce man mano che si muove verso punti situati in basso e a
sinistra.

Supponiamo ora che le dotazioni iniziali di cibo e di vestiario di Anna e Paolo siano
rappresentate dal punto A sul grafico. Ebbene, si può notare che entrambi i consumatori
potrebbero trarre mutuo vantaggio da una serie di scambi. Per esempio, se Paolo
cedesse un po’ del suo cibo e Anna cedesse in cambio un po’ del suo vestiario, i due
potrebbero posizionarsi su un nuovo punto, ad esempio C, dove entrambi si
troverebbero su una curva di indifferenza caratterizzata da una utilità più alta. Più in
generale, possiamo affermare che se i due consumatori partono da dotazioni di cibo e
vestiario rappresentate dal punto A, allora si potrà determinare un miglioramento
dell’utilità di entrambi o almeno di uno dei due consumatori effettuando liberamente
scambi che consentano uno spostamento su uno qualsiasi dei punti situati sulla linea B,
C, D. Questi sono punti di equilibrio perché sono punti di tangenza tra le curve di
indifferenza dei due consumatori: ciò significa che, giunti su uno di quei punti, non sarà
più possibile effettuare scambi mutuamente vantaggiosi per entrambi, cioè non si potrà
migliorare ulteriormente la situazione di un consumatore senza peggiorare quella
dell’altro (lo studente noti che, per esempio, una volta giunti su un punto come C
qualsiasi movimento comporterà o un peggioramento della situazione di Paolo o un
peggioramento della situazione di Anna, e quindi è chiaro che da quel punto non ci sarà
più mutuo interesse a effettuare scambi e a spostarsi). Dunque, una volta che si giunga
su un punto di tangenza, gli scambi si fermeranno e l’equilibrio Pareto-efficiente sarà
raggiunto.

Nel nostro grafico la curva che va dall’origine O di Anna all’origine O di Paolo è


l’insieme di tutti i punti di tangenza tra le curve di indifferenza dei due consumatori ed è
definito “curva dei contratti”. Tale curva rappresenta l’insieme di tutti i punti Pareto-
efficienti che si possono raggiungere tramite libertà degli scambi. Quale che sia il punto
da cui si parte, la libertà degli scambi tra Anna e Paolo condurrà necessariamente su un
punto Pareto-efficiente della curva dei contratti. Il primo teorema dell’economia del
benessere è così dimostrato.

Ovviamente, non è difficile notare che il punto di posizionamento sulla curva dei
contratti dipenderà in misura significativa dalle dotazioni iniziali. Se si parte da un
punto come A allora gli scambi potranno condurre a uno dei punti lungo il segmento B-
D. Se però si parte da un punto come G, allora il gioco degli scambi di mercato potrà
condurre a un punto situato lungo il segmento E-H. In tutti i casi si tratta di equilibri
Pareto-efficienti, nel senso che una volta giunti in essi non ci saranno altri scambi
mutuamente vantaggiosi da realizzare e quindi non ci sarà più incentivo a effettuarli. Ma
è ovvio che per Anna e Paolo si tratta di situazioni molto diverse tra loro. E’ chiaro cioè
che lungo la curva dei contratti esisteranno equilibri Pareto-efficienti preferiti da Anna
(ad esempio F), altri preferiti da Paolo (ad esempio H), altri ancora che appaiono
26

maggiormente “equi” (per esempio C). Il fatto che si raggiunga l’uno o l’altro di questi
equilibri dipende dalla situazione da cui si parte, cioè da quante dotazioni di beni
dispone ciascuno dei due soggetti. Se si parte da una situazione come il punto G, in cui
Paolo è chiaramente “ricco” di dotazioni mentre Anna è chiaramente “povera”, gli
scambi potranno portarli su un punto come E che determinerà mutui vantaggi per
entrambi. Ma è evidente che dal punto di vista della equità tra i due soggetti le cose non
cambieranno granché.

Abbiamo dunque compreso che la libertà degli scambi in un mercato di concorrenza


perfetta può condurre a una situazione di efficienza nel senso di Pareto, ma non può
risolvere problemi di equità distributiva. I problemi di equità, dicono i neoclassici,
potranno al limite essere risolti politicamente modificando le dotazioni iniziali dei
soggetti: per esempio intervenendo con tasse e sussidi per modificare le dotazioni di
partenza da un punto come G a un punto come A. L’importante, dicono i neoclassici, è
che gli interventi politici per fini di equità non ostacolino poi la libertà degli scambi sul
mercato necessaria per raggiungere anche l’efficienza.

E’ possibile in questo senso enunciare anche il secondo teorema dell’economia del


benessere: un’economia concorrenziale di libero mercato può raggiungere
spontaneamente una specifica allocazione Pareto-efficiente sulla curva dei contratti, a
condizione che prima siano redistribuite appropriatamente le dotazioni iniziali.

Pareto tuttavia non era persuaso dall’idea di consentire redistribuzioni di risorse tra i
vari agenti economici. Egli si dichiarava contrario agli interventi politici per fini di
equità. A suo avviso, i livelli di utilità di due consumatori sono del tutto soggettivi e
quindi non sono confrontabili. Se prendiamo ad esempio un punto come G, è evidente
che in esso Paolo dispone di una dotazione iniziale di cibo e vestiario molto maggiore
rispetto ad Anna. Paolo, insomma, è oggettivamente più ricco. Per Pareto, tuttavia, ciò
non consente di affermare che Paolo abbia un’utilità superiore a quella di Anna. In altre
parole, le curve di indifferenza di Paolo possono essere ordinate tra di loro, partendo da
quella che fornisce l’utilità più bassa e arrivando a quella che fornisce l’utilità più alta.
Ma quelle curve non possono in alcun modo essere messe a confronto con le curve
d’indifferenza e i rispettivi livelli di utilità di Anna. Si dice in questo senso che Pareto
elabora un criterio ordinalista che consenta di indicare l’ordine delle situazioni
preferite da un singolo soggetto, ma nega validità scientifica a qualsiasi criterio
cardinalista che pretenda di assegnare specifici numeri a ciascuna situazione in modo
da poter poi comparare le situazioni di soggetti diversi tra loro.

In base a questa concezione dell’utilità, Pareto arrivava a contestare qualsiasi


intervento redistributivo sulle risorse iniziali. In quest’ottica, quindi, un intervento
politico per spostare il punto di partenza da G ad A sarebbe inammissibile e
bisognerebbe invece lasciar fare alle forze spontanee del mercato, che porteranno il
sistema dal punto G iniziale a un punto di equilibrio compreso tra E e H.

L’ordinalismo di Pareto genera dunque una posizione liberista estrema, che suggerisce
di affidarsi solo al mercato e contesta qualsiasi intervento pubblico votato all’equità
distributiva. In altre parole, data l’ipotesi di non confrontabilità delle utilità dei diversi
27

membri di una collettività, qualsiasi politica redistributiva sarebbe un atto arbitrario,


privo di basi scientifiche per esser giustificata.

La visione di Pareto risulta tuttora prevalente tra gli economisti neoclassici. Essa
tuttavia è stata criticata per due ordini di ragioni. In primo luogo, il premio Nobel
Kenneth Arrow ha dimostrato il cosiddetto teorema di impossibilità: se si assume il
principio paretiano e si aggiungono altre ipotesi standard neoclassiche, tra cui la
completezza delle preferenze, la transitività e la non-dittatorialità delle preferenze di un
individuo sugli altri, allora non sarà possibile trarre una funzione di benessere sociale in
grado di ordinare tutte le situazioni possibili. In altre parole, il criterio di Pareto non
aiuta a individuare un criterio che possa essere condiviso da una collettività di liberi
cittadini per stabilire quali situazioni siano preferibili ad altre. Curiosamente, il
principio di Pareto, che avrebbe dovuto salvaguardare la collettività da scelte politiche
arbitrarie, risulta essere incompatibile con un regime non dittatoriale. A questo risultato
si aggiunge la critica di Amartya Sen, un altro premio Nobel, il quale ha delineato il
cosiddetto paradosso de “L’amante di Lady Chatterley”. Alla luce di questo
paradosso, Sen afferma che il principio di Pareto in un certo senso è “illiberale” essendo
incompatibile con il cosiddetto “liberalismo di minima”, consistente nel fatto che per
ogni individuo deve esistere almeno un’alternativa sulla quale la preferenza personale
implica la stessa preferenza sociale.

Esempio tratto da R. Cellini, Politica Economica, Mc-Graw-Hill

Ad ogni modo, la visione di Pareto non è da tutti condivisa. Alcuni studiosi, pur
neoclassici, hanno accettato una impostazione cardinalista, secondo la quale le utilità
dei singoli individui possono essere sommate e si può quindi giungere alla
determinazione di una funzione di benessere sociale riferita all’intera collettività.
Esistono in tal senso vari esempi di funzioni di benessere sociale. C’è la funzione
“Benthamiana”, che è data semplicemente dalla somma delle utilità individuali di
ciascun membro della popolazione. Ad esempio, nel caso di una collettività di due soli
28

membri, si ha: U = U1+U2. Questa funzione, si noti, non giunge necessariamente a


obiettivi di redistribuzione: si può infatti ottenere lo stesso livello di utilità sociale U
con utilità dei singoli individui pressoché uguali oppure con una molto maggiore
dell’altra. C’è poi la funzione “Pigouviana”, che si basa sull’ipotesi di utilità marginale
decrescente della ricchezza: U = U1U2. Questa funzione favorisce la redistribuzione,
poiché fa corrispondere livelli di utilità maggiori a situazioni in cui le utilità dei singoli
sono più vicine tra loro. Esiste poi la funzione “Rawlsiana”, che descrive idealmente la
scelta alla quale perverrebbe una collettività nel caso puramente ipotetico in cui fosse
costretta a decidere la distribuzione delle risorse sotto un “velo di ignoranza”, ossia
prima di conoscere la posizione sociale che ciascuno dei suoi membri assumerà: U =
min [U1, U2]. L’idea è che, se i membri della collettività non conoscono la posizione
sociale che assumeranno, essi tenderanno a scegliere una funzione di benessere che
tuteli in primo luogo il soggetto più povero, che abbia l’utilità più bassa di tutti. Per
quanto diverse tra loro, tutte queste funzioni si basano sul presupposto della
confrontabilità e sommabilità delle utilità di ciascun membro di una data popolazione, il
quale offre un criterio analitico che in alcuni casi può giustificare il perseguimento da
parte delle autorità di eventuali obiettivi di redistribuzione delle risorse.

La disputa tra cardinalisti e cardinalisti, comunque, tende a svilupparsi comunque


all’interno della visione neoclassica. Non a caso, gli uni e gli altri tendono solitamente a
condividere l’idea neoclassica che i meccanismi del libero mercato concorrenziale
debbano eser lasciati operare, e che se proprio si deve effettuare una redistribuzione è
preferibile che questa avvenga sulle dotazioni iniziali di risorse, prima che gli scambi
avvengano. In genere questa impostazione non è condivisa dagli esponenti delle
cosiddette scuole di pensiero critico. Ispirati da un’idea della società divisa in classi
contrapposte tipica degli economisti classici e di Marx, gli economisti critici nutrono
alcuni dubbi sulla possibilità di immaginare una funzione di benessere sociale in grado
di definire gli obiettivi generali delle autorità di governo. Stando alla loro visione,
infatti, ogni scelta di politica economica tende ad esser portatrice di un interesse
prevalente all’interno della società, e di conseguenza susciterà sempre un conflitto tra
favorevoli e contrari ad essa. Ma soprattutto, gli economisti critici contestano l’idea che
il libero gioco del mercato non debba esser disturbato, e che quindi la redistribuzione
debba esser confinata alla sola fase iniziale dell’assegnazione delle dotazioni iniziali. A
loro avviso, il meccanismo di mercato è tutt’altro che efficiente, e quindi vi sono ragioni
per ammettere interventi di politica economica, anche redistributivi, che incidano anche
direttamente su di esso.
29

II
POLITICHE STRUTTURALI

Per politiche strutturali si intendono quei provvedimenti che modificano il quadro


istituzionale di fondo nel quale le imprese operano. Sono politiche strutturali quelle
misure che incidono sulla competizione tra le imprese, orientando il sistema economico
verso uno dei due estremi tipici della concorrenza e del monopolio. Inoltre, più in
generale, possono rientrare nel novero delle politiche “di struttura” quelle che muovono
il sistema nella direzione del libero mercato o della pianificazione pubblica dei processi
produttivi.

2.1 Concorrenza perfetta contro monopolio

Esaminiamo in primo luogo il problema classico del confronto tra regimi di concorrenza
e regimi di monopolio. A tale scopo, utilizzeremo gli strumenti standard della teoria
neoclassica. Sul grafico seguente, sono rappresentati l’equilibrio di un mercato di
monopolio ed anche l’equilibrio di un mercato di concorrenza perfetta.

p,
CM,
CMG
H
CMG

B CM
c
p*
p C
F
A
E
D
RMG

O Q* Q

Supponiamo che sia il monopolista, sia le imprese in concorrenza perfetta, abbiano le


stesse funzioni di costo e la stessa funzione di domanda del mercato. Il punto di ottimo
E rappresenta l’equilibrio ottimo del monopolista. Esso è determinato dall'intersezione
del costo marginale CMG e del ricavo marginale RMG e individua la quantità prodotta
ed offerta che consente di massimizzare il profitto dell’impresa in monopolio. Il
30

massimo profitto coincide con l'area rettangolare p*BFA che è la differenza tra i ricavi
totali p*BQ*O e i costi totali AFQ*O. È da notare che il surplus del consumatore è
HBp*.

Se il mercato fosse di concorrenza perfetta, invece, l’equilibrio corrisponderebbe al


punto C, dato dall’intersezione tra la domanda e il costo marginale CMG, che in regime
di concorrenza coincide con l’offerta di beni. In concorrenza i consumatori
pagherebbero un prezzo pc pari al CMG di produzione in cambio di una quantità Q*
corrispondente all'ascissa del punto C. Il surplus dei consumatori in tal caso è l’area del
triangolo CpcH.

Determiniamo i due equilibri anche in termini algebrici. Supponiamo che la funzione di


costo totale delle imprese – siano esse in monopolio o in concorrenza perfetta – sia pari
a CT = 10 + (3/2)Q2, per cui il costo marginale sarà CMG = dCT/dQ = 3Q.
Supponiamo inoltre che la funzione di domanda di mercato del bene esaminato sia pari
a Q = 100 – 2P, da cui P = 50 – (1/2)Q.

Il ricavo totale del monopolista è dunque pari a RT = PQ = [50 – (1/2)Q]Q = 50Q –


(1/2)Q2, da cui traiamo pure il ricavo marginale: RMG = dRT/dQ = 50 – Q. Imponiamo
la condizione del primo ordine per l’individuazione della quantità che massimizza il
profitto del monopolista: RMG = CMG, ossia 50 – Q = 3Q, da cui Q = 12,5. Il prezzo a
cui il monopolista potrà vendere tale quantità ottima sarà quindi P = 50 – (1/2)(12,5) =
43,75. Nel caso del monopolio, dunque, il profitto totale sarà dato da π = RT – CT =
(43,75)(12,5) – [10 + (3/2)(12,5)2] = 546,875 – 244,375 = 302,5. Infine, l’area del
surplus dei consumatori sarà data da [(50 – 43,75) x 12,5]/2 = 39,06.

L’equilibrio di mercato del totale delle imprese in concorrenza perfetta corrisponde


invece a P = CMG. In questo caso, però, non stiamo esaminando l’equilibrio della
singola impresa concorrenziale e quindi il prezzo non è esogeno ma va determinato in
funzione della domanda di mercato. Inoltre, il costo marginale non si riferisce alla
singola impresa ma al complesso delle imprese sul mercato, per cui esso corrisponde
all’offerta di mercato. Eguagliando dunque prezzo e costo marginale otteniamo la
quantità ottima che eguaglia domanda di mercato e offerta di mercato in corrispondenza
del massimo profitto delle imprese che operano in esso: 50 – (1/2)Q = 3Q, da cui 7/2Q
= 50 e dunque Q = 14,285. Il prezzo di mercato al quale tale quantità potrà essere
venduta sarà quindi P = 50 – (1/2)(14,285) = 42,85. Nel caso della concorrenza
perfetta, dunque, il profitto totale di tutte le imprese sarà π = RT – CT = (42,85)(14,285)
– [10 + (3/2)(14,285)2] = 612,112 – 316,091 = 296,021. Infine, l’area del surplus dei
consumatori sarà data da: [(50 – 42,85) x 14,285]/2 = 51,06.

Confrontiamo il punto E di monopolio e il punto C di concorrenza perfetta,


paragonando anche i rispettivi valori di equilibrio ottenuti dall’esercizio algebrico.
Rispetto al caso di un mercato di concorrenza perfetta vediamo che il monopolista
1) produce meno, 2) vende ad un prezzo più alto, 3) gode di un profitto superiore,
4) riduce il surplus dei consumatori.
31

Per tutti questi motivi alcuni neoclassici ritengono che il monopolio danneggi
l'economia e che vada quindi contrastato con leggi anti-trust o politiche di
liberalizzazione che facilitino l’accesso al mercato di eventuali concorrenti. Altri
studiosi di orientamento marxista sostengono invece che la liberalizzazione dei mercati
può favorire la concorrenza solo nel breve termine, ma nel lungo periodo proprio
l’intensificazione della competizione tende a far prevalere i più forti, il che favorisce
nuovi fenomeni di monopolizzazione dei mercati e di centralizzazione dei capitali. Altri
ancora, ispirati dalle analisi di Joseph Schumpeter, ritengono che la stessa idea di
inefficienza del monopolio vada contestata: a loro avviso, infatti, proprio la capacità di
guadagnare profitti extra consente all’impresa monopolista di favorire l’innovazione
tecnologica grazie a massicci investimenti nelle attività di ricerca e sviluppo, che per la
loro rischiosità e onerosità sono preclusi alle imprese in concorrenza perfetta.

2.2 Oligopolio

L'impresa in concorrenza perfetta e l'impresa monopolistica presentano una


caratteristica comune: non si pongono problemi di strategia, cioè problemi nei quali le
azioni di ognuno dipendono anche da ciò che si prevede che facciano gli altri. Il
problema della strategia e del connesso rapporto tra azioni e reazioni dei vari soggetti in
campo diventa invece fondamentale in un caso tipico del capitalismo contemporaneo:
quello in cui il mercato sia caratterizzato da una situazione di oligopolio, cioè di poche
grandi imprese.

Numerosi sono i modelli che consentono di analizzare il comportamento delle imprese


oligopoliste. Analizziamo innanzitutto il modello di Cournot (1838). Questo modello
descrive un’industria oligopolistica caratterizzata dalla presenza di poche imprese che
producono un bene omogeneo. Il problema “strategico” consiste nel fatto che per
massimizzare il proprio profitto ciascuna impresa deve decidere la quantità del bene da
produrre e da offrire tenendo conto della quantità prodotta dalle altre imprese sul
mercato.

Un esempio può aiutare a chiarire i termini della questione. Supponiamo di trovarci in


una situazione di duopolio, vale a dire il caso più semplice di industria oligopolistica in
cui operano solo due imprese, i e j, che producono lo stesso bene x. Supponiamo che la
domanda complessiva di questo bene sul mercato sia data dalla funzione:

p = 6 – (xi + xj)

Supponiamo pure che la funzione del costo totale di produzione del bene, identica per
ciascuna delle due imprese, sia:

ci = 1 + xi

cj = 1 + xj
32

Il profitto di ciascuna impresa è dunque dato dalla differenza tra ricavo totale e costo
totale, ossia:

πi = (6 – xi – xj)xi – 1 – xi

πj = (6 – xi – xj)xj – 1 – xj

La condizione del primo ordine per l’individuazione del massimo profitto richiede,
come sappiamo, che si ponga uguale a zero la derivata del profitto rispetto alla quantità.
Effettuiamo questo passaggio per entrambe le imprese:

𝜕𝜋𝑖
= 6 − 𝑥𝑖 − 𝑥𝑗 − 𝑥𝑖 − 1 = 0
𝑥𝑖

𝜕𝜋𝑗
= 6 − 𝑥𝑖 − 𝑥𝑗 − 𝑥𝑗 − 1 = 0
𝑥𝑗

Da cui, con semplici passaggi, si ottiene:

xi = (5 – xj)/2

xj = (5 – xi)/2

Queste sono le funzioni di risposta ottima di ciascuna impresa, data la scelta


produttiva dell’altra impresa. Sostituendo la seconda espressione nella prima,
otteniamo:

xi = [5 – (5 – xi)/2]/2

Con pochi passaggi da questa espressione si ricava la quantità ottima per l’impresa i,
corrispondente a: xi = 5/3. Sostituendo questo valore nella funzione di risposta ottima
dell’impresa j si ottiene la quantità ottima di quest’ultima, che pure corrisponde a xj =
5/3 (l’uguaglianza è ovvia, dato che per ipotesi le due imprese hanno la stessa
tecnologia e quindi anche la stessa funzione di costo). Le quantità ottime, così ottenute,
corrispondono al cosiddetto equilibrio di Cournot.

Una volta note le quantità ottime si può calcolare il prezzo di equilibrio del mercato,
corrispondente a p = 6 – (5/3 + 5/3) = 8/3. Inoltre, note le quantità ottime si può anche
determinare il valore del profitto ottimo dell’impresa i, che sarà dato da: πi = (6 – 5/3 –
5/3)5/3 – 1 – 5/3 = 16/9. Lo stesso profitto, ovviamente, sarà guadagnato anche
dall’impresa j.

Si può dimostrare che l’equilibrio di Cournot, così determinato, genera un profitto


inferiore a quello che le due imprese otterrebbero se si accordassero sulle quantità da
produrre. In altre parole, i due oligopolisti potrebbero realizzare una “collusione”, detta
anche “cartello”. Tramite l’accordo collusivo esse potrebbero agire come un’unica
impresa monopolista, che produce complessivamente di meno e vende a un prezzo più
alto. Il profitto complessivo sarebbe dunque maggiore, e le due imprese potrebbero poi
33

spartirselo ottenendo un risultato migliore rispetto al caso dell’oligopolio non collusivo


rappresentato dall’equilibrio di Cournot. Per provare questo risultato basta risolvere il
problema di massimo profitto come se sul mercato ci fosse un unico monopolista. In tal
caso la domanda è data da p = 6 – x e il costo totale dell’impresa è sempre c = 1 + x.

Il ricavo totale è quindi dato da

px = (6 – x)x = 6x – x2

e il profitto totale, dato dalla differenza tra ricavo totale e costo totale, è:

π = 6x – x2 – 1 – x = 5x – x2 – 1

Imponendo la condizione del primo ordine per l’individuazione del massimo profitto
dπ/dx = 0 otteniamo:

5 – 2x = 0

da cui si trae la quantità ottima totale x = 5/2. Il prezzo di equilibrio sarà quindi dato da
p = 6 – 5/2 = 7/2. Ora sostituiamo la quantità ottima nella equazione del profitto: π =
5x – x2 – 1, da cui otteniamo il profitto ottimo totale π = 21/4.

A questo punto, supponiamo che le imprese colluse dividano in parti uguali quantità e
profitti. Quindi, dividendo per due la quantità ottima totale possiamo calcolare la
quantità ottima di ciascuna impresa: xi = xj = (5/2)/2 = 5/4. Infine, dividendo per due il
profitto totale ottimo possiamo determinare il profitto ottimo per ciascuna impresa: πi =
πj = (21/4)/2 = 21/8.

Rispetto all’equilibrio non collusivo di Cournot, il cartello tra le due imprese consente
dunque di produrre una quantità totale inferiore a un prezzo superiore, e assicura dunque
un profitto più elevato a ciascuna impresa. Questo è uno dei motivi per cui si ritiene
che i “cartelli” debbano essere vietati dalla legge.

Un esempio di cartello: KPMG e le altre società di consulenza

E' raro vedere l'Autorità Antitrust staccare una multa da 23 milioni di euro, ma è questo il conto presentato alle
principali società di revisione contabile e consulenza: nel mondo sono noti come i "big four", un cerchio magico
composto da Deloitte, KPMG, Ernst&Young e PWC. A loro l'Autorità ha imputato la creazione di un cartello per
spartirsi la gara bandita dalla Consip per il supporto alla Pubblica amministrazione nelle funzioni di sorveglianza e
audit dei programmi cofinanziati dall'Unione Europea. Si tratta di una gara indetta nel marzo del 2015 e aggiudicata
nel maggio 2016. Sul piatto, per la prima volta in maniera centralizzata, l'acquirente unico ha messo la attività di
controllo dei programmi sviluppati in Italia attraverso i fondi strutturali provenienti da Bruxelles: alle società di
consulenza si chiedeva personale specializzato per verificare i presidi delle Pa che gestiscono i soldi pubblici ed
effettuare dei controlli random sulle operazioni di rendicontazione delle spese, passaggio fondamentale per accedere
ai fondi stessi e che vede l'Italia perennemente in ritardo. Un bando da circa 66 milioni di euro, aggiudicato per
complessivi 42 milioni. L'Autorità si è mossa sull'esito di quella gara a seguito di una segnalazione della stessa
Centrale degli acquisti pubblici. L'Authority spiega oggi che "la collusione si è realizzata attraverso la partecipazione
'a scacchiera' ai lotti di gara; infatti, ogni network ha presentato sconti più elevati nei lotti ad esso 'assegnati' sulla
base del disegno spartitorio, senza sovrapporsi sui lotti di interesse degli altri network ovvero presentando offerte di
appoggio del tutto inidonee a vincere il lotto". Nei fatti, si legge nelle carte dell'istruttoria, mentre la parte tecnica
delle società coinvolte era simile in tutti i lotti per i quali si presentavano, l'offerta economica era notevolmente
34

differenziata, "secondo uno schema del tutto simmetrico", nei vari lotti di partecipazione. In alcuni offrivano uno
sconto sostenuto (tra il 30 e il 35%), in altri contenuto (tra il 10 e il 15%). Ma le offerte con i maggiori ribassi
presentate dalle società multate non si sono mai sovrapposte. Gli altri partecipanti alle gare, quelli esterni al cartello,
non hanno mai differenziato significativamente i loro ribassi da un lotto all'altro. Sintetizza l'Antitrust: "In tal modo le
imprese hanno annullato, di fatto, il reciproco confronto concorrenziale nello svolgimento della gara per spartirsi i
lotti e neutralizzare la concorrenza esterna al cartello". E nell'istruttoria riporta numerose mail tra i partner delle big
four nei quali si organizzano incontri proprio per preparare la gara Consip. L'intesa sulla quale l'autorità ha voluto
vederci chiaro "rientra tra le più gravi violazioni del diritto della concorrenza". Secondo le risultanze dell'indagine
questo accordo è stato "pienamente" attuato e ha "inevitabilmente influenzato gli esiti della procedura con riguardo a
tutti i lotti messi a gara. Se, infatti, le strategie partecipative di tutti i soggetti coinvolti nell'intesa fossero state assunte
autonomamente e, dunque, guidate da logiche di confronto competitivo, si sarebbe assistito a risultati maggiormente
favorevoli per la stazione appaltante sia da un punto di vista economico, sia con riferimento al servizio tecnico
oggetto della gara".

da “L'Antitrust multa il cartello della consulenza”, Repubblica, 7 novembre 2017

Un altro modo per analizzare l’oligopolio è quello che si basa su una metodologia
particolare detta teoria dei giochi, alla cui realizzazione hanno contribuito vari
economisti, tra cui il premio Nobel John Nash. La teoria dei giochi si propone di
analizzare tutte le situazioni in cui sussistono problemi di strategia: non solo nel campo
dell’economia con il caso delle imprese oligopoliste, ma anche altri settori, dai semplici
giochi come gli scacchi fino alle strategie militari o diplomatiche.

Applichiamo qui la teoria dei giochi al caso di due imprese: Apple e Samsung, con
riferimento alla produzione e alla vendita di smartphones. Il problema per Apple e
Samsung è di scegliere se adottare una strategia conflittuale oppure cooperativa. La
strategia conflittuale consiste in:

1) ingenti spese per introdurre innovazioni tecniche che attirino il pubblico


2) prezzi di vendita bassi per attirare i consumatori
3) fare lobbying per ottenere legislazioni favorevoli a sé e dannose per l'avversario
(per esempio, accordi internazionali favorevoli al commercio con imprese
statunitensi e sfavorevoli per le società asiatiche).

La strategia conflittuale è molto costosa, ma se coglie impreparato l'avversario può dare


notevoli vantaggi. La strategia cooperativa invece consiste nell'accordarsi son il
“nemico” (che diventa “partner”) per spartirsi il mercato senza conflitti. Come vedremo,
la strategia cooperativa costa poco ma espone al rischio di un attacco da parte del
“partner”.

Supponiamo che Apple e Samsung si trovino ad esempio nella situazione descritta dalla
seguente tabella. I valori, detti pay-off, indicano i profitti attesi dalle due aziende a
seconda delle situazioni:
35

Samsung
conflitto cooperazione
conflitto 2, 2 10, 0
Apple
cooperazione 0, 10 6, 6

La matrice dei pay-off indica i profitti attesi dalle due aziende a seconda delle strategie
adottate. Ad esempio: se Apple coopera e Samsung confligge, allora Apple ottiene
profitti pari a zero e Samsung 10 miliardi. E così via. Si può dimostrare che il conflitto,
sotto date condizioni, è la strategia dominante, cioè quella che sarà preferita da
ciascuno indipendentemente dalle scelte dell'altro. Infatti dal punto di vista di Apple:

se Samsung confligge → alla Apple conviene confliggere


se Samsung coopera → alla Apple conviene confliggere

E lo stesso discorso vale per Samsung. Risultato: entrambe le imprese sceglieranno il


conflitto. L’equilibrio corrisponderà dunque alla combinazione (2, 2). Questo è detto
equilibrio non cooperativo di Nash.

È interessante notare che si perviene a questo equilibrio nonostante che esso generi per
entrambe le imprese un risultato peggiore rispetto al caso della cooperazione. In certi
casi tuttavia il risultato non-cooperativo è inevitabile, poiché la tentazione di defezione
da un accordo o anche solo la paura della defezione dell'altro giocatore spinge entrambi
al conflitto. Se tuttavia il gioco è “ripetuto” le cose possono cambiare: la cooperazione
può diventare più probabile.

2.3 Impresa pubblica e privatizzazioni

A partire dagli anni Ottanta del secolo scorso è stata avviata, in molti paesi, una vasta
campagna di privatizzazione delle imprese pubbliche, di proprietà statale o a
partecipazione statale. In numerosi settori dell’economia, dall’industria, alle
telecomunicazioni, ai trasporti, e in alcuni casi persino negli ambiti della sanità e
dell’istruzione, si sono realizzate vendite ai privati di attività produttive o di servizio
precedentemente affidate all’operatore pubblico. Tra il 1990 e il 2000 l’Italia è stata
capofila a livello mondiale della politica di privatizzazioni:
36

Questa politica è stata solitamente giustificata in vari modi. Alcuni fautori della vendita
delle aziende ai privati hanno sostenuto che gli incassi derivanti dalle privatizzazioni
avrebbero contribuito all’obiettivo di migliorare i conti statali e ridurre il debito
pubblico. Altri sostenitori delle privatizzazioni hanno invece avanzato la tesi secondo
cui le imprese pubbliche presentano una organizzazione interna di tipo burocratico,
priva di stimoli concorrenziali e quindi generatrice di inefficienze e costi di produzione
più alti. Le privatizzazioni, si diceva, avrebbero accresciuto l’efficienza, ridotto i
costi e quindi avrebbero contribuito a diminuire i prezzi, con beneficio per i
consumatori e per la collettività.

Col senno di poi, non si può dire che tutti gli auspicati effetti delle privatizzazioni si
siano realizzati. A coloro che prevedevano un miglioramento dei conti pubblici è stato
fatto notare che la privatizzazione implica pure che lo Stato perde i profitti che
derivavano dalle imprese pubbliche: il calcolo dei vantaggi e degli svantaggi è dunque
più complicato di quanto si potrebbe a priva vista immaginare. Riguardo poi ai
sostenitori dei benefici per i consumatori, da un lato è stato fatto notare che la riduzione
dei costi nelle imprese privatizzate non sempre avveniva, oppure in alcuni casi si
realizzava a seguito di una riduzione dei salari e di un deterioramento della qualità dei
servizi, più che in conseguenza di un incremento dell’efficienza produttiva. Dall’altro, si
è rilevato che anche quando si registrava una riduzione dei costi, non sempre si notava
una diminuzione proporzionale dei prezzi. Anzi, a volte capitava addirittura che dopo le
privatizzazioni i prezzi risultassero invariati o addirittura crescenti.
37

Uno dei casi per cui le privatizzazioni possono dar luogo a un aumento anziché a
una riduzione dei prezzi è quello in cui l’azienda pubblica venduta ai privati opera in
regime di monopolio. Per semplicità, immaginiamo una situazione in cui i costi
marginali dell’impresa siano costanti e quindi possano essere rappresentati da una retta
orizzontale. Consideriamo in tal senso il grafico seguente:

Supponiamo di partire da una situazione in cui un’azienda statale eroga un certo


servizio ad un costo marginale rappresentato dalla retta CMGstato. Possiamo supporre
che l’impresa, in quanto pubblica, non ha interesse a generare extraprofitti per cui, pur
operando in una situazione di monopolio, fissa quantità e prezzi di vendita in
corrispondenza dell’equilibrio di perfetta concorrenza che è dato, come sappiamo, dalla
intersezione tra costo marginale e domanda. In tal caso, quindi, il punto di equilibrio
corrisponderà a Es e la combinazione di prezzo e quantità di equilibrio sarà data da Ps e
Qs. Supponiamo ora che l’azienda venga privatizzata e che il passaggio di proprietà
determini una riduzione del costo marginale da CMGstato a CMGprivato. Possiamo esser
certi che tale riduzione determinerà pure una diminuzione dei prezzi? La risposta è
negativa. Infatti, se l’impresa privatizzata operasse come se fosse in concorrenza, allora
il suo equilibrio corrisponderebbe all’intersezione tra domanda e costo marginale
rappresentata dal punto Ep, con conseguente riduzione del prezzo di equilibrio a Pp e
aumento della quantità prodotta e venduta a Qp. Ma è ragionevole prevedere che in una
situazione del genere, avendone l’opportunità, l’azienda privata deciderebbe di agire da
monopolista, fissando l’equilibrio in corrispondenza della intersezione tra ricavo
marginale e costo marginale rappresentata dal punto E’p, col risultato finale di
determinare un aumento del prezzo a P’p e una diminuzione della quantità a Q’p
rispetto al precedente equilibrio dell’azienda pubblica. In questa circostanza, come è
facile verificare, la privatizzazione comporta una riduzione dei costi ma al tempo stesso
determina un aumento dell’extraprofitto dell’impresa e una diminuzione del
surplus dei consumatori.
38

2.4 Mercato versus pianificazione pubblica

L’espressione «piano» viene solitamente associata all’esperienza storica dell’Unione


sovietica e dei paesi del cosiddetto “blocco socialista”, racchiusa nell’arco di tempo che
va dalla rivoluzione bolscevica del 1917 al caduta del Muro di Berlino del 1989. Il
termine “piano”, tuttavia, può in realtà significare molte cose. Durante la prima crisi
petrolifera, furono addirittura gli Stati Uniti ad essere investiti da un grande dibattito
sulla pianificazione, a seguito delle proposte avanzate al Congresso americano dal
Comitato per la Pianificazione Nazionale costituito da numerosi esponenti politici,
dell’industria, dei sindacati dei lavoratori e guidato dal premio Nobel per l’economia
Wassily Leontief. Naturalmente, non di pianificazione “sovietica” si discuteva. Il
discorso sulla proprietà e sul controllo dei mezzi di produzione, in particolare, rima-
neva per più di un verso contraddittorio. Tuttavia, in ogni snodo di quella discussione
pareva sussistere un punto fermo, largamente condiviso tra i partecipanti, che verteva
sul convincimento comune della insufficienza delle sole manovre monetarie e fiscali
anti-cicliche di tipo “keynesiano” per uscire dalla crisi. Leontief si spese in quella
occasione su un tema cruciale: egli chiamava tutti a prendere atto dell’esistenza di
fallimenti nel sistema dei prezzi di mercato almeno tanto gravi quanto quelli caratte-
rizzanti l’attività statuale, e invitava per questo motivo a interrogarsi sulla possibilità di
ridefinire ed eventualmente ampliare lo spazio della decisione politica in merito a
quanto, come e cosa produrre.

Da lì a qualche anno il corso degli eventi avrebbe preso una piega ben diversa da quella
auspicata da Leontief. Potremmo dire, in un certo senso, che proprio dalle difficoltà di
attecchimento del discorso sulla pianificazione scaturì e si fece largo quella opposta idea
di accumulazione del capitale fondata sul libero mercato e sulla finanza privata, la cui
forma politica venne rappresentata dalla Reaganomics e che avrebbe dominato la scena
mondiale per i successivi trent’anni. Oggi, dopo la cosiddetta “grande recessione” del
2008, c’è chi rileva varie inefficienze e instabilità nel regime di accumulazione
capitalistica detto di “libero mercato” e trainato dalla finanza privata, e dunque
suggerisce di tornare al sentiero alternativo suggerito da Leontief per provare a
valutarne la potenziale attualità.

L’idea di recupero del “piano” nel senso di Leontief verte sulla rilevazione di alcuni
limiti nell’attuale meccanismo di riproduzione sociale, in cui le autorità politiche, stato e
banca centrale, sono relegate in una funzione puramente ancillare rispetto ai mercati fi-
nanziari: quella di “regolare” le condizioni di solvibilità del sistema, che di fatto
significa agire da meri prestatori di ultima istanza per il capitale privato. La definizione
di un meccanismo di riproduzione sociale alternativo richiederebbe dunque in primo
luogo l’attribuzione alle autorità politiche di una funzione logicamente contrapposta a
quella corrente: lo stato e la banca centrale dovrebbero cioè ripristinare e ampliare
quella che Reinhart e Rogoff hanno definito una «repressione dei mercati finanziari» e
un «pesante uso dei controlli dei capitali», che caratterizzarono l’economia mondiale del
secondo dopoguerra e che per circa un trentennio favorirono una stabilità
macroeconomica mondiale senza precedenti. Ma soprattutto, la repressione finanziaria
39

determinerebbe le condizioni logiche necessarie per inaugurare un nuovo regime, in cui


l’autorità pubblica assuma il controllo della circolazione monetaria al fine di agire quale
creatrice di prima istanza di nuova occupazione. Di prima istanza, ossia non per fini di
mera assistenza, ma soprattutto per la produzione di quei “beni collettivi” che sfuggono
alla logica dell’impresa capitalistica privata.

I critici del piano insistono sull’idea che esso si baserebbe eccessivamente sulla
burocrazia statale, e segnalano come questa dia luogo a tutta una serie di “fallimenti
dello Stato”. I fautori di un recupero in chiave aggiornata del tema della pianificazione
battono invece sulla tesi secondo cui i “fallimenti del mercato” sono più gravi e più
pervasivi di quelli che possono essere imputati all’autorità statale. C’è poi una questione
ulteriore, di ordine civile e politico. I critici della pianificazione sono anche convinti che
le libertà individuali siano tutelate solo da un regime di libero mercato, mentre i fautori
di un recupero della logica di piano ritengono che a date condizioni questa possa
favorire un’espansione dei diritti sociali e per questa via crei pure le condizioni per un
maggior sviluppo delle libertà civili. Il dibattito resta aperto.
La proposta del premio Nobel Leontief e di altri per una pianificazione nazionale negli USA:

Leontief, W. et al. The case for Government Planning (New York Times, 16 March 1975)
40

III
POLITICHE TRIBUTARIE E DEL LAVORO

3.1 Alcuni dati sulle forze lavoro

In ciascun paese gli istituti di statistica raccolgono ed elaborano dati inerenti al lavoro.
In Italia l’ISTAT pubblica periodicamente la Indagine sulle forze di lavoro. Lo studio
fornisce varie serie di dati, tra cui quelli relativi all’occupazione e alla disoccupazione.

La maggior parte dei dati viene raccolta tramite interviste a campioni di popolazione.
Riportiamo alcune definizioni adottate dall’ISTAT e dagli altri istituti di statistica nelle
loro indagini campionarie. In primo luogo, le forze di lavoro sono rappresentate dalle
persone tra i 15 e i 64 anni di età occupate oppure in cerca di occupazione.

Le persone occupate sono coloro che hanno svolto almeno 1 ora di lavoro nella
settimana precedente con corrispettivo monetario (oppure anche senza corrispettivo se
lavorano abitualmente in una azienda familiare), oppure sono temporaneamente assenti
dal lavoro (per ferie o per malattia). Qui di seguito è riportato uno schema che indica il
modo in cui i questionari dell’ISTAT distinguono tra persone occupate e non.
41

Le persone in cerca di occupazione sono quelle non occupate che si dichiarano


disponibili a lavorare (o ad avviare un’attività autonoma) entro le due settimane
successive, e che abbiano compiuto almeno un’azione di ricerca di lavoro nelle quattro
settimane precedenti l’intervista (requisito non necessario per chi abbia trovato un
lavoro che inizierà entro tre mesi).

Le indagini campionarie consentono inoltre di distinguere tra le diverse tipologie di


lavoratori e di contratti. Si riesce così a calcolare il numero di lavoratori dipendenti e il
numero dei lavoratori indipendenti, cioè lavoratori autonomi a partita IVA,
professionisti, ecc. Tra i lavoratori dipendenti, si può distinguere tra coloro che hanno
stipulato un contratto di lavoro permanente oppure a termine, e tra coloro che
lavorano a tempo pieno o a tempo parziale, ecc. Tra coloro che cercano lavoro, si può
distinguere tra quelli che hanno già esperienze e quelli che non hanno precedenti
esperienze lavorative. Tra gli inattivi si può inoltre distinguere tra coloro che proprio
non sono disponibili a lavorare, e coloro che invece non cercano attivamente un
lavoro ma che sarebbero disponibili a lavorare se trovassero un impiego (talvolta,
riguardo a questi soggetti, si parla di lavoratori scoraggiati).

Il seguente cartogramma riporta i dati relativi alla ripartizione delle forze lavoro in Italia
nel 2012, un anno relativo a un periodo di crisi particolarmente intensa.
42
43

Si noti che le percentuali riportate nei riquadri sono calcolate in rapporto al totale della
popolazione residente. E’ possibile tuttavia calcolare anche altre percentuali. Per
esempio, sapendo che i lavoratori dipendenti con contratto a termine sono 1.617.000 a
tempo pieno e 615.000 a tempo parziale, e che il totale dei lavoratori dipendenti è
17.087.000, allora si può verificare che i lavoratori dipendenti con contratto a
termine rappresentano il 13,06% del totale dei lavoratori dipendenti
(1.617.000+615.000=2.232.000/17.087.000=0,1306). Naturalmente, questa percentuale
non tiene conto del fatto che spesso tra i lavoratori definiti indipendenti in realtà si
nascondono molte situazioni di lavoro dipendenti sostanzialmente a termine: è il caso
per esempio degli agenti di commercio. Inoltre, se guardiamo non al totale dei contratti
ma solo alle nuove assunzioni, il numero dei rapporti di lavoro a termine aumenta
considerevolmente: l’ISTAT segnala che tra il 2005 e il 2010 i contratti a termine
stipulati dalle grandi imprese sono stati il 71,5% del totale delle assunzioni.

Dai dati riportati nel cartogramma è inoltre possibile ricavare altri indicatori. Si
consideri per esempio la forza lavoro, data dalla somma delle persone occupate e delle
persone in cerca di occupazione. Nel 2012, la forza lavoro era pari a
22.793.000+2.801.000 = 25.594.000 unità. E’ inoltre possibile calcolare il tasso di
disoccupazione, dato dal rapporto fra persone in cerca di occupazione e la forza lavoro:
nel 2012 era pari a 2.801.000/25.594.000 = 0,109, ossia il 10,9%. C’è poi il tasso di
occupazione, dato dal rapporto fra gli occupati e la corrispondente popolazione di
riferimento (solitamente si calcola sulla popolazione in età lavorativa, tra 15 e 64 anni):
nel 2012 esso era pari a 22.793.000/40.033.000 = 0,569, ossia 56,9%. E’ inoltre
possibile calcolare il tasso di attività, dato dal rapporto fra le persone appartenenti alle
forze di lavoro e la corrispondente popolazione di riferimento, solitamente quella in età
lavorativa; e il tasso di inattività, dato dal rapporto fra gli inattivi e la corrispondente
popolazione di riferimento, solitamente quella in età lavorativa. La somma dei tassi di
attività e inattività deve dare 1.

Il tasso di disoccupazione è forse l’indicatore più comune tra tutti quelli citati, ma non è
sufficiente per valutare la situazione occupazionale di un paese. Esso ha infatti vari
limiti: per esempio, dato che non contempla i lavoratori scoraggiati, rischia di condurre
a risultati fuorvianti. Pensiamo a una situazione in cui, a causa del protrarsi della crisi
economica, alcune persone smettono di cercare attivamente un lavoro. Guardando al
cartogramma precedente, possiamo supporre per esempio che 200.000 persone passino
dallo stato di persone in cerca di occupazione allo stato di persone inattive in età
lavorativa. Ebbene, in questa circostanza sia le persone in cerca di lavoro che la forza
lavoro si riducono di 200.000 unità, e il tasso di disoccupazione diminuisce:
2.601.000/25.394.000 = 0,102, ossia il 10,2%. In apparenza dunque la disoccupazione si
è ridotta, ma ciò dipende solo dal fatto che molte persone, a causa della crisi, si sono
rassegnate e hanno smesso di cercare lavoro. Si noti però che anche il tasso di
occupazione presenta un limite: nel caso dei 200.000 scoraggiati in più esso non
reagisce minimamente, cioè non è in grado di rilevare il fenomeno. Invece, i tassi di
attività e di inattività riflettono correttamente il fenomeno degli scoraggiati, ed è quindi
ad essi che occorre guardare per valutarne l’entità. Una corretta valutazione della
situazione occupazionale di un paese dovrebbe dunque basarsi su più indicatori.
44

Di grande rilevanza sono anche i dati sul lavoro suddivisi per genere, che consentono
di esaminare la posizione delle donne sul mercato del lavoro nei diversi paesi. Nel
2012, in Italia, il tasso di attività femminile era del 53,7%, inferiore di circa 11 punti
percentuali alla media dei tassi di attività delle donne nella Ue a 27 paesi. E’ da notare
che il tasso di attività femminile è aumentato in misura significativa a seguito della crisi
economica esplosa nel 2008: mentre il tasso di attività medio tra il 2008 e il 2012
aumentava di 0,8 punti, il tasso di attività femminile è cresciuto di due punti percentuali.
La crisi sembra cioè avere spinto un numero maggiore di donne a entrare nel mercato
del lavoro:

Ciò nonostante, i tassi di attività e di occupazione femminili restano ancora, in Italia, tra
i più bassi d’Europa. Il tasso di occupazione femminile, in particolare, nel 2012 era al
47,5%, contro una media Ue a 27 del 58,8%:

Tra uomini e donne sussiste anche un divario nelle retribuzioni a favore dei primi: la
Banca d’Italia ha calcolato che nel periodo 1995-2008 esso era pari al 6% in media;
inoltre, esaminando lavoratori e lavoratrici con qualifiche comparabili in termini di
istruzione, esperienza, ecc. e con tipi di lavoro equivalenti in termini di qualifica, orario,
ecc., il divario superava il 13% nel 2008. E’ da notare tuttavia che tale divario, secondo
l’Istat, è inferiore a quello che si registra negli USA e in Gran Bretagna (intorno al 25%)
45

e nei paesi del Nord Europa (15% circa). Il risultato si spiegherebbe con il fatto che in
Italia si registra una minore partecipazione al mercato del lavoro delle donne meno
istruite.

Altrettanto importanti sono poi gli indicatori che si soffermano sulla situazione
occupazionale dei più giovani, con particolare riguardo alla fascia tra i 15 e i 24 anni.

I giovani si ritrovano oggi con dei salari d’ingresso molto più bassi rispetto al livello
dei salari di ingresso che si registravano nei decenni passati. Una ricerca della Banca
d’Italia del 2007 ha evidenziato che il differenziale tra salari dei lavoratori anziani e
salari dei più giovani è prima diminuito e poi è aumentato: nel 2004 i lavoratori giovani
guadagnavano il 35% in meno dei lavoratori anziani; alla fine degli anni ’70 il
differenziale tra i salari dei più anziani e quelli dei più giovani era del 25%, mentre nel
1989 era del 20%.

Riguardo agli andamenti occupazionali, l’ISTAT segnala che a fine 2012 i giovani in
cerca di lavoro in Italia sono stati 641.000. Il tasso di disoccupazione giovanile,
calcolato sulla fascia dei 15-24enni, è stato pari al 37,1%. Stando ai dati EROSTAT,
questo risultato fa sì che l’Italia si ritrovi con il quarto più elevato tasso di
disoccupazione giovanile nella Ue a 27, dopo Grecia, Spagna e Portogallo. La media Ue
è pari al 22,8%:
46

Un errore sul calcolo della disoccupazione giovanile

Quando si affronta il problema del calcolo della disoccupazione è facile commettere degli errori. Prendiamo ad
esempio il seguente comunicato dell’ISTAT, nel quale si legge:

«A seguito di quanto pubblicato da alcune testate online in merito ai dati mensili su occupati e disoccupati diffusi
questa mattina, l’Istat torna a precisare che non è corretto affermare “più di un giovane su tre è disoccupato”.
Infatti, in base agli standard internazionali, il tasso di disoccupazione è definito come il rapporto tra i disoccupati e
le forze di lavoro (ovvero gli “attivi”, i quali comprendono gli occupati e i disoccupati). Se, dunque, un giovane è
studente e non cerca attivamente un lavoro non è considerato tra le forze di lavoro, ma tra gli “inattivi”. Per quanto
riguarda il dato sulla disoccupazione giovanile diffuso oggi e relativo al mese di novembre 2012, va ricordato che i
“disoccupati” di età compresa tra i 15 e i 24 anni sono 641 mila, il che corrisponde al 37,1% delle forze di lavoro di
quell’età e al 10,6% della popolazione complessiva della stessa età, nella quale rientrano studenti e altre persone
considerate inattive. Quindi sarebbe corretto riportare che “più di 1 giovane su 10 è disoccupato” oppure che “più
di uno su tre dei giovani attivi è disoccupato”».

Con questo tipo di comunicati l’ISTAT segnala che talvolta i media interpretano in modo errato i dati ufficiali. Il che
è senz’altro vero. Tuttavia, bisognerebbe sempre ricordare che spesso tra i soggetti “inattivi” che restano fuori dalle
“forze di lavoro” rientrano anche gli scoraggiati. Contemplando questi ultimi nelle “forze di lavoro” il tasso di
disoccupazione giovanile – e non solo quello – risulterebbe più elevato di quello indicato dall’ISTAT.

In Italia negli ultimi anni si è sviluppato un intenso dibattito sulla disponibilità o meno
dei giovani a cercare lavoro. Alcuni economisti, nel ruolo di ministri della Repubblica,
hanno varie volte rimarcato la scarsa disponibilità degli italiani, specialmente dei più
giovani, ad entrare nel mercato del lavoro. Il ministro dell’Economia Tommaso Padoa
Schioppa parlò in questo senso di “bamboccioni”. La ministra del Lavoro Elsa Fornero,
più di recente, ha utilizzato l’appellativo di “choosy”, che in inglese sta per
“schizzinosi”. I due ministri, in termini più o meno espliciti, suggerivano in sostanza
che l’elevata disoccupazione che si registra in Italia sia in misura significativa da
imputare a una scarsa disponibilità ad accettare un lavoro, soprattutto da parte dei più
giovani. Ora, che alcuni individui siano scarsamente propensi ad accettare un lavoro è
facile da ammettere. Il problema, tuttavia, è capire se tali valutazioni riescano a cogliere
un comportamento quantitativamente rilevante. In effetti, come si rileva dal box posto
qui in basso, i dati sembrano sollevare dei dubbi sul grado di generalità delle valutazioni
dei due ministri.

I giovani italiani sono “choosy”? Una verifica basata sul tasso di posti vacanti

Consideriamo il tasso di posti di lavoro vacanti, calcolato periodicamente dall’ISTAT con riferimento alle imprese
industriali e di servizi con almeno 10 dipendenti. Questo tasso indica il numero di posti di lavoro disponibili diviso
per il totale dei posti di lavoro, sia disponibili che già occupati. Alla fine del 2012, per esempio, il tasso di posti
vacanti era pari allo 0,5% (ISTAT, Posti vacanti nell’industria e nei servizi 2012). Sapendo che il numero totale di
posti esistenti nelle imprese considerate è pari a circa 7,5 milioni di unità, si può calcolare il numero di posti vacanti
disponibili: (0,5%)x7.500.000 = 37.500 posti vacanti disponibili nelle imprese dell’industria e dei servizi con più di
dieci dipendenti. Per provare a trarre un dato più generale, facciamo ora l’ipotesi semplificatrice che il tasso di posti
vacanti nelle imprese industriali e di servizi con almeno 10 dipendenti possa valere a grandi linee per l’intera
economia. Considerato che il numero dei posti totali esistenti si aggira intorno a 23 milioni di unità, possiamo
effettuare una semplice proporzione (7.500.000:37.500=23.000.000:x) e ottenere quindi una stima dei posti vacanti
totali in Italia nel 2012: circa 115.000. Consideriamo adesso il totale dei disoccupati italiani: alla fine del 2012 erano
2 milioni 875 mila. Tra questi, i giovani disoccupati nella fascia di età tra 15 e 24 anni erano 606.000. Possiamo
quindi affermare che alla fine del 2012 il numero di posti di lavoro vacanti, in Italia, non doveva esser molto più del
4% del totale dei disoccupati e del 19% del totale dei giovani disoccupati. Dunque, anche ammettendo che i
disoccupati avessero le qualifiche necessarie per svolgere le mansioni richieste, è evidente che i posti disponibili
47

erano di gran lunga inferiori al numero di persone in cerca di lavoro. I dati evidenziano insomma che il problema
della disoccupazione è in primo luogo un problema di pochi posti disponibili. Imputarlo a una scarsa disponibilità a
lavorare da parte degli italiani, in particolare dei più giovani, è quantomeno riduttivo. Del resto, l’idea che i giovani
italiani siano “choosy” entra in contrasto anche con altre evidenze. La Banca d’Italia, per esempio, ha recentemente
rilevato che i giovani laureati italiani tra 24 e 35 anni che hanno accettato lavori a bassa qualifica rispetto ai titoli di
studio conseguiti, sono il 40% del totale, contro appena il 18% in Germania.

3.2 La curva di Beveridge

Nei dibattiti di politica del lavoro si fa spesso riferimento alla cosiddetta curva di
Beveridge. La curva descrive una regolarità empirica segnalata per la prima volta nel
1942 dall’economista britannico William Beveridge, e in seguito riscontrata da molti
altri economisti. Il nesso statistico è tra il tasso di disoccupazione e il tasso di posti
vacanti, dove quest’ultimo indica il numero di casi in cui le imprese cercano lavoratori
ma non li trovano. Definendo il numero di lavoratori disoccupati con U, il numero di
posti di lavoro vacanti con V, il numero di lavoratori occupati con N e la forza lavoro
disponibile con L = U + N, è possibile definire il tasso di disoccupazione con u = U/L e
il tasso di posti vacanti con v = V/L. Assumendo che γ sia un parametro esogeno
maggiore di zero, la relazione statistica può essere descritta dalla seguente equazione:
γ = uv, da cui:

𝑣 = 𝛾/𝑢

Dato il parametro γ, possiamo dunque tracciare una relazione inversa tra le due variabili.
La relazione descrive innanzitutto gli effetti del ciclo economico sul mercato del
lavoro. In fasi di recessione, la domanda di lavoro da parte delle imprese è bassa, per
cui il tasso di disoccupazione è elevato mentre il tasso di posti vacanti è basso. In fasi di
espansione, invece, le imprese aumentano la richiesta di lavoratori e quindi il tasso di
disoccupazione si riduce mentre il tasso di posti vacanti tende ad aumentare. Il ciclo di
recessioni ed espansioni può quindi essere descritto da movimenti lungo la curva di
Beveridge: per esempio, osservando il grafico, la combinazione v0, u0 corrisponde a una
fase di espansione, mentre la combinazione v1, u1 corrisponde a una recessione.

u0

u1

v0 v1 v1’ v
48

La curva di Beveridge, tuttavia, può anche spostarsi. Per esempio, se il parametro


aumenta da γ a γ’>γ, allora la curva trasla verso destra. Ciò significa che per ogni dato
tasso di disoccupazione, ad esempio u1, il tasso di posti vacanti aumenta da v1 a v1’. Uno
spostamento del genere è stato in genere interpretato come un indice di inefficienza
delle istituzioni del mercato del lavoro, e in particolare dei meccanismi istituzionali che
dovrebbero favorire il “matching”, ossia l’incontro, tra domanda e offerta di lavoro. Un
parametro γ più elevato indicherebbe che i meccanismi di “matching” non stanno
funzionando, e che quindi l’economia si ritrova nel paradosso di un numero maggiore di
posti vacanti in rapporto ai disoccupati. Tra gli economisti mainstream questo fenomeno
viene spiegato in vari modi: mancato funzionamento delle agenzie del lavoro che
rende l’informazione scarsa o asimmetrica, oppure anche un livello troppo alto di
sussidi di disoccupazione, che induce i disoccupati ad essere troppo “choosy”, cioè
selettivi, nella fase di ricerca di un lavoro.

Uno spostamento della curva di Beveridge verso destra si è verificato, ad esempio,


durante la grande recessione che ha colpito gli Stati Uniti e gran parte del mondo nel
2009. In quel periodo abbiamo infatti assistito a un forte incremento dei disoccupati, ma
anche a un moderato aumento dei posti vacanti. Alcuni esponenti politici hanno
interpretato questo fenomeno come un sintomo del fatto che i problemi non derivavano
tanto dalla recessione, quanto piuttosto da un livello troppo alto dei sussidi esistenti. In
realtà questa interpretazione è forzata. In quel periodo, negli Stati Uniti, l’aumento dei
disoccupati fu molto maggiore dell’aumento dei posti vacanti, il che sta ad indicare che
la recessione fu molto pesante, e che lo spostamento lungo la curva spiega i mutamenti
delle variabili più dello spostamento della curva. In secondo luogo, gli aumenti del
parametro γ e i relativi spostamenti della curva di Beveridge potrebbero essere spiegati
anche da fattori diversi rispetto al livello dei sussidi o al cattivo funzionamento delle
agenzie del lavoro. Per esempio, soprattutto quando si attraversano pesanti recessioni, si
assiste pure a un cambiamento nella struttura produttiva di un paese. Molte imprese
falliscono e interi settori tendono a ridimensionarsi, ma qualche altro settore potrebbe
trovarsi con l’esigenza di nuove assunzioni, magari con competenze specifiche (per
descrivere queste trasformazioni strutturali - che spesso si verificano nelle fasi di crisi
economica - l’economista Joseph Schumpeter parlava di “distruzione creatrice”). Per
esempio, il settore della finanza e delle assicurazioni può perdere molti posti di lavoro,
mentre il settore della carpenteria specializzata potrebbe al tempo stesso trovarsi con
una esigenza di operai qualificati. In questi casi si presenta un problema di competenze.
Pertanto può essere difficile la ricollocazione immediata dei disoccupati, e quindi si può
anche registrare un piccolo aumento di posti vacanti in concomitanza di un forte
aumento della disoccupazione.

3.3 Sussidio di disoccupazione e salario minimo

I modelli neoclassici e i modelli mainstream del mercato del lavoro tendono a valutare
negativamente i sussidi di disoccupazione, vigenti sotto varie forme in molti paesi. Nel
49

modello di Blanchard, il sussidio di disoccupazione accresce il parametro di


conflittualità z e determina quindi una traslazione in alto della curva del salario reale
richiesto. Il risultato, in equilibrio, è che il salario reale non muta ma la disoccupazione
naturale aumenta, e l’occupazione e la produzione naturale si riducono. Anche nel
modello di isteresi l’esistenza di un sussidio dovrebbe tradursi in una maggiore
tendenza rivendicativa dei lavoratori, e quindi in un aumento del salario monetario e dei
prezzi; a parità di moneta, ciò dovrebbe comportare una maggiore disoccupazione,
almeno temporanea.

In genere i modelli mainstream esprimono anche una valutazione critica nei confronti
delle leggi che vietano la stipula di contratti di lavoro al di sotto della soglia di un
salario minimo. Norme di questo tipo vigono attualmente in Francia e in alcuni altri
paesi. Le analisi differiscono a seconda che si tratti di un livello minimo del salario
monetario oppure reale. Nel modello neoclassico, l’esistenza di un salario reale minimo
provoca un effetto simile alla presenza del sindacato, nel senso che può bloccare il
sistema economico in un punto di squilibrio caratterizzato da disoccupazione
involontaria. Nel modello mainstream di Blanchard, un salario monetario minimo può
impedire che il sistema economico, dopo una crisi, converga spontaneamente verso
l’equilibrio naturale tramite una deflazione. Nel medesimo modello, l’imposizione di un
salario reale minimo può generare un conflitto permanente tra salario imposto per legge
e salario offerto dalle imprese, con una conseguente tendenza alla crescita
dell’inflazione.

Stando invece alle analisi delle scuole di pensiero critico, quali possono essere gli effetti
dei sussidi di disoccupazione e delle leggi sul salario minimo? Una risposta preliminare,
che tiene conto delle semplificazioni di un testo didattico, è che l’approccio critico
avanza delle obiezioni al legame stringente tra dinamica dei salari e livelli di
occupazione che solitamente caratterizza le analisi neoclassiche e mainstream. Per gli
economisti critici, dunque, il salario minimo e il sussidio di disoccupazione possono
determinare degli effetti sui redditi dei lavoratori, e più in generale sui rapporti di forza
tra la classe lavoratrice e la classe dei capitalisti proprietari. Ma è difficile dire se e in
che modo tali effetti possano avere ripercussioni sulla produzione e sull’occupazione. In
altri termini, mentre i neoclassici e gli studiosi del mainstream ritengono che gli effetti
su queste variabili siano in genere negativi, gli economisti critici ammettono varie
possibilità, inclusa quella di un aumento dell’occupazione. E’ il caso, questo, in cui il
salario minimo e il sussidio di disoccupazione rafforzano la posizione contrattuale dei
lavoratori, accrescono la dinamica dei salari reali e, per questa via, contribuiscono ad
aumentare la propensione al consumo, il moltiplicatore e quindi la domanda di merci, la
produzione e le relative assunzioni. Alcuni economisti di orientamento critico, inoltre,
sostengono che i sussidi e il salario minimo possono aiutare a fronteggiare meglio
una crisi economica. I sussidi consentono di ridurre le fluttuazioni della domanda di
consumi da parte dei lavoratori, il che riduce l’effetto moltiplicativo della crisi. E il
salario minimo, ostacolando la deflazione, consente di contrastare quei fenomeni di
deflazione da debiti che, come viene descritto nell’Anti-Blanchard, possono determinare
una AD crescente e aggravare ulteriormente la crisi.
50

3.4 Una nota su immigrazione, disoccupazione e salari

L’afflusso di lavoratori immigrati può dare luogo a un aumento della disoccupazione


dei lavoratori nativi? Da anni questo interrogativo è fonte di accesi dibattiti politici. In
realtà, dal punto di vista scientifico il fenomeno è estremamente complesso e i risultati
delle analisi teoriche ed empiriche sono controversi. Proviamo innanzitutto ad
approcciare al fenomeno utilizzando gli strumenti didattici a nostra disposizione, ossia il
modello AS-AD della tradizione mainstream e il modello alternativo descritti nel
paragrafo dell’Anti-Blanchard intitolato “Modelli a confronto: una rappresentazione
algebrica”.

A tale scopo, ricordiamo innanzitutto che il totale dei disoccupati è espresso con il
termine U, il totale degli occupati con N e che la somma degli occupati e dei disoccupati
è indicata con il termine “forza lavoro” rappresentata da L = U + N, da cui ovviamente
ricaviamo che U = L – N. Quindi, assumiamo che i lavoratori immigrati o siano
occupati oppure siano sempre attivi nella ricerca di un lavoro, e che rientrino
quindi necessariamente nella forza lavoro L costituita dalla somma degli occupati e
dei disoccupati. Pertanto, possiamo ipotizzare che un aumento dei lavoratori immigrati
corrisponda a un aumento della forza lavoro L. Ricordiamo inoltre che il tasso di
disoccupazione u è dato dal rapporto tra il totale dei disoccupati U e il totale della forza
lavoro L. Sostituendo, possiamo quindi scrivere:

u = U/L = (L – N)/L

Ossia:

u = 1 – (N/L)

Ricordiamo pure che la funzione di produzione è data da Y=AN, da cui N=Y/A.


Possiamo allora riscrivere la formula del tasso di disoccupazione nel seguente modo:

𝑌
𝑢 =1−
𝐴𝐿

A questo punto, stando al paragrafo dell’Anti-Blanchard sui “modelli a confronto”,


dobbiamo ricordare che il modello tradizionale e il modello alternativo giungono a
risultati molto diversi in merito ai livelli di equilibrio della produzione, della
disoccupazione e dei salari. Nel caso del modello AS-AD tradizionale, il livello di
equilibrio “naturale” della produzione corrisponde a:

𝐴𝐿 𝐴
Y= [( ) + 𝛼 − 1 − 𝑧]
𝛼 1+𝜇

Sostituendo questo risultato nella equazione del tasso di disoccupazione, otteniamo:


51

1 𝐴
𝑢 =1− [( ) + 𝛼 − 1 − 𝑧]
𝛼 1+𝜇

Invece, per il modello alternativo la produzione di equilibrio corrisponde a:

𝑌 = 𝛽𝐸

Per cui, in questo modello il tasso di disoccupazione corrisponde a:

𝐸
𝑢 = 1−𝛽( )
𝐴𝐿

Assumiamo ora che si verifichi un aumento dei lavoratori immigrati, che corrisponde a
un aumento della forza lavoro L. Verifichiamo l’effetto confrontando le equazioni del
tasso di disoccupazione corrispondenti ai due diversi modelli considerati. I risultati
differiscono in modo sostanziale.

Stando al modello mainstream, la forza lavoro non rientra tra le determinanti del tasso
di disoccupazione di equilibrio “naturale” e quindi l’aumento di L non ha alcun impatto
su u. La ragione è che in questo modello µ e z sono entrambi esogeni e assieme ad A e α
determinano l’unico tasso di disoccupazione che garantisce l’equilibrio “naturale” sul
mercato del lavoro, ossia che mette d’accordo imprese e lavoratori ed evita le rincorse al
ribasso o al rialzo tra salari e prezzi. Pertanto, per ogni dato A esisterà un solo rapporto
Y/AL e quindi un solo tasso di disoccupazione u = 1 – Y/AL che assicura tale equilibrio.
Qualsiasi deviazione da tale equilibrio è dunque destinata ad essere riassorbita. Per
esempio, se L aumenta a causa di un aumento dell’immigrazione, allora si verificherà un
temporaneo aumento del tasso di disoccupazione che comporterà un temporaneo calo
dei salari e dei prezzi e quindi un corrispondente incremento di domanda e di
produzione Y, fino a quado il rapporto Y/AL non sarà tale da rideterminare l’unico tasso
di disoccupazione “naturale” che mette d’accordo imprese e lavoratori e quindi
stabilizza salari e prezzi. Viceversa nel caso di un deflusso migratorio che faccia
diminuire L. In definitiva, stando al tradizionale modello manistream AS-AD,
l’impatto dell’immigrazione sul totale della forza lavoro L può avere effetti solo
temporanei sulla disoccupazione e sulla produzione, ma non può modificare i loro
livelli di equilibrio “naturale”. Ma al di là dei cambiamenti di L, cosa accade nel caso
in cui gli immigrati accettano salari più bassi dei lavoratori nativi e quindi
complessivamente contribuiscono a ridurre il parametro z di conflittualità dei lavoratori?
In tale circostanza, stando al modello prevalente, dovrebbero registrarsi effetti benefici
sul sistema economico, analoghi a quelli tipici della moderazione salariale. Infatti, come
si evince dalle formule dell’equilibrio AS-AD, al ridursi di z si registra una riduzione di
u e un aumento di Y. Per il modello mainstream, dunque, l’eventualità che gli
immigrati accettino salari più bassi e quindi riducano il parametro z, è la sola per
cui essi potrebbero avere un impatto sull’equilibrio “naturale” del sistema
economico: un impatto positivo, consistente in una riduzione del tasso di
disoccupazione naturale e un aumento del livello di produzione naturale, il tutto a parità
di salario reale di equilibrio.
52

Diversa è l’interpretazione dell’immigrazione suggerita dal modello alternativo. In


questo modello, come è noto, µ e z non sono entrambi esogeni e non esiste un unico
equilibrio “naturale” che garantisca la stabilità dei salari e dei prezzi. Stando a questo
diverso modello, i livelli di equilibrio della disoccupazione e della produzione
dipendono dalla domanda aggregata di beni e servizi, la quale a sua volta non
necessariamente aumenta al diminuire di salari e prezzi. Pertanto, come si evince dalle
formule del modello alternativo, per ogni dato livello di domanda e di produzione Y un
aumento dell’immigrazione corrispondente a un incremento di L determinerà un
aumento della disoccupazione di equilibrio. Inoltre, se gli immigrati contribuiscono a
ridurre il parametro z di conflittualità, si registrerà una riduzione del salario reale di
equilibrio senza che si abbiano benefici dal lato della disoccupazione e della
produzione. Dunque, nell’ottica del modello alternativo, l’immigrazione può avere
effetti negativi sia sulla disoccupazione che sui salari. Per contrastare questi effetti
bisognerebbe da un lato far crescere la domanda di merci e la produzione di pari passo
con l’aumento della forza lavoro, e dall’altro incardinare tutti i lavoratori, nativi e
immigrati, in un processo di sindacalizzazione comune e di contrattazione salariale
collettiva.

Naturalmente, i modelli descritti hanno valenza puramente didattica. I loro limiti sono
tali da renderli insufficienti per l’analisi degli effetti reali dell’immigrazione. Uno dei
limiti più gravi verte sul fatto che entrambi i modelli assumono che la forza lavoro L sia
esogena, e quindi sia insensibile ai mutamenti della domanda effettiva e della
produzione. In realtà, diversi studi evidenziano che le variazioni della domanda e
della produzione possono influenzare i flussi migratori e i connessi mutamenti nella
forza lavoro di un paese: in altre parole, la crescita economica di un paese traina
l’immigrazione, per cui L dovrebbe almeno in parte esser considerata non esogena ma
endogena, diversamente da quel che si ipotizza in entrambi i modelli considerati.

Per affrontare gli effetti di un fenomeno complesso come l’immigrazione


occorrerebbero dunque strumenti di analisi più sofisticati. E’ comunque interessante che
pure su questo tema i modelli didattici diano risultati contrastanti tra loro. Ancora una
volta, dunque, per iniziare a capire come stiano effettivamente le cose bisognerebbe
almeno guardare le evidenze empiriche disponibili in materia. Il problema è che
l’analisi dei dati in questo caso non offre evidenze univoche: pure la letteratura empirica
dedicata agli effetti dell’immigrazione sull’andamento della disoccupazione e dei salari
giunge a risultati contrastanti e in larga misura incerti. Se proprio si vuol giungere a una
sintesi, si può affermare che la maggior parte delle ricerche empiriche indica che le
relazioni statistiche tra immigrazione da un lato e disoccupazione e salari dall’altro
sono di segno incerto e scarsamente significative, soprattutto se si considerano archi
di tempo relativamente lunghi.

3.5 Progressività del sistema fiscale, flat tax e curva di Laffer

L’articolo 53 della Costituzione della Repubblica Italiana stabilisce che: “Tutti sono
tenuti a concorrere alle spese pubbliche in ragione della loro capacità contributiva. Il
sistema tributario è informato a criteri di progressività”. Il sistema fiscale italiano deve
53

dunque essere progressivo, nel senso che l’aliquota di prelievo fiscale deve crescere al
crescere del reddito del contribuente (il sistema si definirebbe invece proporzionale se
esistesse un’unica aliquota di prelievo fiscale per ogni livello del reddito).

La progressività dell’imposizione fiscale è giustificata in base a criteri di equità, nel


senso che chi percepisce redditi più alti deve pagare una percentuale più elevata di
tributi. Tuttavia, sia in Italia che in altri paesi, la progressività è stata via via
ridimensionata nel tempo. Basti notare che in Italia negli anni ’70 del secolo scorso
esistevano ben 22 aliquote di prelievo fiscale sul reddito delle persone fisiche, con la più
bassa al 10% e la più alta che arrivava al 72%. Nel 1983 venne poi varata una prima
riforma che riduceva la progressività: le aliquote diventarono 9, con la più bassa al 18%
e la più elevata al 65%. In seguito sono state introdotti ulteriori cambiamenti, in
generale tesi a ridurre il grado di progressività del prelievo. Attualmente le aliquote
sono 5, con la più bassa al 23% e la più alta situata al 43%. Tra le varie ragioni di questa
tendenza, vi è il processo di liberalizzazione dei movimenti internazionali di
capitale, che ha consentito ai percettori di redditi più elevati di situare la propria
residenza fiscale lì dove preferiscono e ha quindi spinto i singoli paesi a farsi
concorrenza al ribasso sulle aliquote per indurre i soggetti più ricchi a restare sul
territorio nazionale.

La tendenza alla riduzione della progressività fiscale è tuttora in atto. Alcune forze
politiche, in Italia e all’estero, propongono addirittura di adottare la cosiddetta “flat
tax” o “tassa piatta”, vale a dire un’aliquota fiscale unica e piuttosto bassa per tutti i
percettori di redditi, siano essi poveri oppure ricchi. Le obiezioni nei confronti della
“flat tax” sono numerose: dagli evidenti problemi di iniquità della misura ai rischi di
crollo del gettito fiscale e di conseguente dissesto del bilancio statale.

I sostenitori di un abbattimento delle aliquote fiscali, soprattutto di quelle a favore dei


soggetti più ricchi, affermano che tale politica potrebbe addirittura accrescere le entrate
fiscali dello Stato anziché ridurle. In questo senso essi si ispirano a un’intuizione
dell’economista Arthur Laffer, che nel 1981 ideò quella che oggi è nota come “curva di
Laffer”. Tale curva viene costruita in base alle seguenti ipotesi: il gettito fiscale totale è
pari a zero quando l’aliquota di prelievo è zero; quindi il gettito tende ad aumentare al
crescere dell’aliquota fino a raggiungere un livello massimo; dopo quel livello, per
aliquote di prelievo più elevate i contribuenti saranno indotti a ridurre la loro attività e a
ridurre i redditi, per cui di conseguenza si ridurrà pure il gettito dello Stato; infine,
esisterà un’aliquota talmente alta da scoraggiare qualsiasi creazione di reddito e tale
dunque da dare luogo a un gettito fiscale nuovamente pari a zero. Dunque, esisterebbe
un’aliquota ottima tale da garantire le massime entrate da parte dello Stato. Se ci si trova
al di là di quella aliquota ottima, allora sarà possibile ridurla e ottenere
contemporaneamente non una riduzione ma un aumento delle entrate fiscali. Per Laffer
e per i fautori di un abbattimento delle aliquote, la maggior parte dei paesi si trova al di
là dell’aliquota ottima, per cui converrebbe ridurla e ottenere al tempo stesso un
aumento del gettito.

ESEMPIO. Consideriamo una relazione tra entrate fiscali E e aliquota di prelievo


fiscale t sui redditi rappresentata dalla seguente curva di Laffer: E = - 100t2 + 50t.
Calcoliamo innanzitutto i valori di t corrispondenti a entrate fiscali pari a zero, vale a
54

dire: -100t2 + 50t = 0. Siamo evidentemente dinanzi a una equazione di secondo grado
del tipo ax2 + bx + c = 0, che può risolversi applicando la formula generale x = [-b ±
√(b2 – 4ac)+]/2a. Otteniamo così che E = 0 per t = 0 oppure per t = ½, ossia il 50%.
Quindi, sapendo che le condizioni per l’individuazione del massimo di una generica
funzione corrispondono a df/dx = 0 e d2f/dx2 < 0 calcoliamo l’aliquota t ottima che
consente di massimizzare le entrate E per lo Stato. La condizione del primo ordine è
dunque: dE/dt = - 200t + 50 = 0, da cui l’aliquota ottima è t* = ¼, ossia il 25%. La
condizione del secondo ordine è d2E/dt2 = - 200, che è negativa e quindi conferma che
l’aliquota ottima corrisponde a un punto di massimo della funzione delle entrate fiscali.
Dunque, stando a questo esempio, se ci si trova con un’aliquota di prelievo fiscale
superiore al 25%, ogni sue eventuale riduzione comporterà non una caduta ma
addirittura un aumento delle entrate fiscali E.

La curva di Laffer: un esempio


55

Stando alle evidenze empiriche disponibili, le tesi di Laffer non trovano adeguato
riscontro nei dati. Nella stragrande maggioranza dei casi considerati, la riduzione delle
aliquote fiscali risulta correlata non con aumenti ma con riduzioni dei gettiti
fiscali. Dunque, contrariamente alle opinioni di Laffer e dei fautori di un abbattimento
delle aliquote, sembrerebbe che i sistemi fiscali contemporanei siano situati, in media,
lungo il lato crescente della curva di Laffer.
56

IV
INTERPRETI DELLA POLITICA ECONOMICA

4.1 Tobin, un economista d’altri tempi

«Un intellettuale non incline al protagonismo e tuttavia pervasivamente influente». Con


queste parole, alcuni anni fa, Federico Caffè valutava la figura di James Tobin,
sottolineando il suggestivo contrasto tra il carattere schivo e gentile dell’economista
americano e la straordinaria capacità dello stesso di incidere sul sentiero di sviluppo
della ricerca economica. Un contrasto che si era grandemente accentuato negli ultimi
tempi, in seguito all’ascesa della Tobin tax sulla ribalta della politica internazionale. Da
essa il suo ideatore ha ricavato una notorietà sulla quale, con garbo e senso della misura,
ha sempre teso a ironizzare. Un’autoironia graziosa che lo rendeva, nell’era del
narcisismo debordante, un uomo d’altri tempi, e che non fu mai spinta al punto da
pregiudicarne la passione civile e l’impegno politico.
Tobin è morto l’11 marzo 2002 nel Connecticut, all’età di 84 anni. Il suo lascito
scientifico è immenso, come testimoniato dal documento con cui l’Accademia delle
scienze svedese gli conferì, nel 1981, il premio Nobel per l’economia: «Si può dire che
pochi economisti contemporanei abbiano avuto, come lui, un’analoga influenza
ispiratrice nella ricerca economica». Del resto, la sua teoria sulle scelte di portafoglio,
benché ormai vecchia di mezzo secolo, rappresenta tuttora un punto di riferimento per
buona parte dell’analisi macroeconomica e finanziaria. Una possibile chiave di lettura
dell’immensa produzione scientifica di Tobin può individuarsi nel convincimento,
mutuato da Keynes, che la politica può e dovrebbe esercitare una grande influenza sulla
dinamica dei sistemi economici. Nella versione base della teoria di Tobin, le autorità di
politica economica disporrebbero di ampi poteri, tali da influenzare significativamente i
livelli e la struttura dei rendimenti delle attività finanziarie e dei beni capitali esistenti in
un dato paese. Attraverso opportune manovre espansive, le autorità non solo sarebbero
in grado di ridurre i tassi d’interesse e il connesso onere del debito pubblico, ma
potrebbero anche stimolare gli investimenti delle imprese private, e con essi
l’occupazione, la produzione e la distribuzione dei redditi, sia nel breve che nel lungo
periodo (il che la dice lunga sui tentativi di volgarizzazione di Tobin quale mero fautore
della politica di "stabilizzazione").
I notevoli poteri che la teoria macroeconomica di Tobin attribuiva alle autorità
politiche rendono il pensiero di questo autore di grande attualità. Tobin, in tal senso, ha
sempre vivacemente contestato l’ideologia delle "mani legate", in base alla quale
l’intervento politico in economia è sempre inutile, se non addirittura dannoso. Negli
anni della controrivoluzione monetarista e delle sue infelici applicazioni da parte di
Ronald Reagan e di Margaret Thatcher, Tobin polemizzò con lucidità e pacatezza nei
confronti della teoria su cui quegli esperimenti politici pretendevano di fondarsi. Il
bersaglio privilegiato di Tobin era una clausola epistemologica di cui Friedman si fece
portatore, in base alla quale i "costruttori di modelli economici" verrebbero autorizzati a
ritenere che le famiglie, le imprese e gli altri operatori economici agiscono nel sistema
come se stessero risolvendo complicatissimi problemi di ottimizzazione. Questa
57

concezione della "massaia che fa matematica", che sopravvive tuttora in molte


autorevoli sedi della cittadella accademica, venne sempre considerata da Tobin un
discutibile paravento per giustificare politiche reazionarie, sperequative, indifferenti nei
confronti della disoccupazione e della povertà.
Naturalmente, le convinzioni di Tobin sulle potenzialità dell’intervento politico
nell’economia non gli impedirono mai di riconoscere i vincoli cui quell’intervento
poteva esser sottoposto. Il suo modello originario, elaborato tra gli anni ’50 e ’60,
rappresentava del resto il funzionamento di un paese isolato dal resto del mondo. Con
l’espansione delle transazioni internazionali, commerciali e soprattutto finanziarie,
Tobin riconobbe la necessità di numerosi adattamenti per la sua teoria, dai quali
emersero ostacoli crescenti alle possibilità di intervento pubblico. In particolare, la
libera circolazione dei capitali rendeva spesso le autorità politiche incapaci di
modificare i livelli e la struttura dei tassi di rendimento delle attività, dal momento che
in un paese aperto agli scambi internazionali quei tassi vengono determinati a livello
mondiale. L’idea della Tobin tax per l’appunto nasce e si sviluppa in questo contesto.
Con essa, l’inventore si proponeva due obiettivi fondamentali, uno per così dire
moderato, l’altro decisamente più ambizioso: stabilizzare il mercato dei cambi,
riducendo la probabilità di fughe di capitale irrazionali e perverse; ma soprattutto,
ripristinare un certo grado di autonomia nell’azione di politica economica dei singoli
paesi. Il primo risultato verrebbe conseguito in base all’idea che l’imposta rende costose
le conversioni in valuta e quindi induce gli operatori a ridurre il volume degli scambi
speculativi internazionali. Il secondo risultato emerge dal fatto che, scoraggiando i
passaggi da una valuta all’altra, l’imposta costituirebbe una sorta di cuscinetto fiscale
tra i paesi, consentendo alle autorità politiche di differenziare, almeno in parte, i
rendimenti delle attività scambiate all’interno rispetto a quelli prevalenti sui mercati
mondiali. La politica, grazie alla tassa, tornerebbe dunque a respirare: le possibilità di
manovra crescerebbero, e la spada di Damocle della fuga dei capitali all’estero si
allontanerebbe.
Negli ultimi mesi, influenti editorialisti nostrani hanno sostenuto che Tobin
avrebbe rinnegato la sua proposta di tassazione degli scambi valutari, considerandola
ormai un inutile retaggio del passato. Persino l’autorevole Sole 24 Ore si è di recente
pronunciato in tal senso. Ebbene, pur con tutti gli sforzi, non siamo riusciti a trovare una
sola citazione di Tobin in grado di confermare la "notizia". Al contrario, abbiamo potuto
notare come, appena pochi mesi fa, egli sia tornato a sostenere l’assoluta validità teorica
e la fattibilità pratica della sua proposta. Che si sia trattato di un innocente disguido o di
una vicenda degna dei migliori “pugilatori a pagamento”, questo lo lasciamo decidere al
lettore (14 marzo 2002).

4.2 Il vincolo di Tarantelli

All’interno delle sue analisi, e in particolare nella sua opera principale, Ezio Tarantelli
fece riferimento ad un «limite al di sotto del quale i sindacati e i lavoratori non possono
spingere il saggio di profitto nel regolare la matrice salariale». Il limite in questione
verteva sull’idea secondo cui, dato un certo volume degli investimenti, il saggio di
profitto non può scendere al di sotto del livello necessario a generare un ammontare
equivalente di risparmi e a garantire in tal modo il rispetto della condizione di equilibrio
58

macroeconomico (Economia politica del lavoro, cap. XIV, par. 5). Per lungo tempo
questa idea è stata piuttosto in voga tra alcuni economisti della Cambridge britannica.
E’ interessante notare che essa stabilisce un vincolo alle rivendicazioni salariali che
almeno a prima vista si presenta come una anonima “condizione di equilibrio”, ossia
come una giustificazione puramente tecnica alla moderazione salariale che viene
depurata da qualsiasi riferimento alla configurazione capitalistica del sistema
economico e al carattere irriducibilmente antagonistico di essa. Sulla base di questo
costrutto teorico, il «limite» salariale al quale pure Tarantelli faceva riferimento si
presenta come un vincolo di compatibilità politicamente neutrale e quindi
apparentemente inesorabile.
Il richiamo a quel presunto vincolo, si badi, di fatto predetermina l’intera
soluzione del sistema. Pensiamo ad esempio all’idea di Tarantelli, riportata nell’articolo
citato, secondo cui il salario potrebbe comunque esser considerato una variabile
indipendente, purché tuttavia lo si veda non come costo del lavoro erogato dall’impresa
ma, più in generale, come reddito disponibile al netto delle imposte e al lordo dei
trasferimenti e dei consumi e investimenti pubblici. Il problema di questa affermazione
è che, se si considera il saggio di profitto dato dal suddetto vincolo delle “condizioni di
equilibrio”, allora risulta determinata anche la quota di prodotto che può essere assorbita
dalla spesa sociale dello stato. Inoltre, considerato che il suddetto saggio di profitto “di
equilibrio” costituisce necessariamente un netto, nemmeno la tassazione potrebbe
fungere da strumento redistributivo tra le classi. La conseguenza è che il riferimento di
Tarantelli al salario quale variabile indipendente, se messo nell’angusto spazio teorico
da egli stesso creato, si riduce ad una sconfortante esortazione a finanziare la spesa
pubblica destinata ai lavoratori con quote di prodotto prelevate dagli stessi lavoratori.
E’ bene ricordare che il vincolo al quale Tarantelli e altri sottoponevano il salario è in
realtà basato su condizioni alquanto discutibili, come ad esempio l’idea che il grado di
utilizzo delle attrezzature produttive non presenti deviazioni significative da un ipotetico
livello “normale” o che il rapporto tra spesa autonoma e reddito rimanga invariato nel
tempo. Ciò sta ad indicare che proprio sul versante del conflitto distributivo la – per altri
versi illuminante - analisi di Tarantelli era fondata su presupposti logico-politici
restrittivi e ampiamente contestabili. Il che, guarda caso, potrebbe dirsi anche della
politica dei redditi, che in tutti i modi si sta tentando, oggi come ieri, di far digerire ai
lavoratori (27 maggio 2005).

4.3 Graziani, teoria economica e classi sociali

L’Università degli studi del Sannio di Benevento sarà sede di un convegno


internazionale in onore di Augusto Graziani intitolato “La teoria monetaria della
produzione: tradizioni e prospettive” (gli atti del convegno sono stati pubblicati nel
volume a cura di G. Fontana e R. Realfonzo, The Monetary Theory of Production.
Tradition and Perspectives, Palgrave Macmillan 2005).
Nato a Napoli nel 1933, economista, già senatore e membro dell’Accademia
nazionale dei Lincei, Graziani ha acquisito una posizione di rilievo all’interno della
comunità scientifica internazionale per l’originalità e la vastità delle sue ricerche, dagli
studi dei primi anni ‘60 dedicati ai problemi del Mezzogiorno e del relativo sviluppo
dualistico italiano, alle interpretazioni definite “conflittualiste” della crisi e della
59

ristrutturazione degli anni ’60 e ’70, fino a giungere ai più recenti contributi degli anni
’80 e ’90 volti alla costruzione di uno schema di teoria monetaria della produzione
dichiaratamente alternativo all’impostazione neoclassica dominante (si veda in
proposito il suo recente The monetary theory of production, Cambridge University
Press 2003). Tale schema risulta epistemologicamente fondato su una suddivisione della
collettività in gruppi sociali ben definiti, distinguibili essenzialmente in base alla
possibilità o meno di accedere al credito bancario. In tal senso appaiono evidenti i
legami tra l’elaborazione di questo schema e il convincimento, più volte espresso da
Graziani, secondo cui «se l’edificio neoclassico va respinto, esso va discusso nei suoi
assunti iniziali, e cioè proprio nel momento in cui immagina che il capitalismo sia una
società senza classi», piuttosto che esser giudicato nei soli termini della sua coerenza
interna. Una impostazione, questa, che a un’attenta disamina potrebbe forse rivelare
molte più affinità che divergenze con l’altro grande filone di critica della teoria
neoclassica dominante: quello del surplus, o quantomeno con le interpretazioni dello
stesso risalenti al famoso saggio Sull’ideologia di Maurice Dobb.
Il terreno della ricerca non è tuttavia l’unico sul quale Graziani si è cimentato.
Ad esso si affianca quello, non meno congeniale, della didattica. Graziani, infatti, è
autore di due ben noti manuali di teoria economica, espressamente strutturati in modo
da sollecitare il lettore a un continuo, serrato raffronto critico tra la teoria neoclassica e
le teorie ad essa concorrenti. Tali manuali vengono oggi riconosciuti da vaste schiere di
studenti e di ricercatori quali straordinari esempi di chiarezza espositiva e di rigore
analitico, e soprattutto quali preziosi antidoti al processo di omologazione culturale che
nell’ultimo ventennio sembra aver guidato gli sviluppi della teoria economica e delle
sue applicazioni in campo politico.
Il grande pubblico, tuttavia, tenderà probabilmente ad associare il nome di
Graziani alla sua intensa attività di commentatore delle più scottanti e intricate vicende
della politica economica nazionale. Emblematiche ed attualissime risultano, al riguardo,
le pungenti critiche che egli rivolse alla pretesa dei governi degli anni ‘80 di spingere
l’industria italiana al potenziamento tecnologico attraverso una spregiudicata politica
del cambio forte. Come Graziani ebbe ad osservare, tale politica doveva per forza di
cose basarsi sul presupposto di lasciar correre l’inflazione interna a tassi superiori a
quelli europei. Se così non fosse stato, infatti, il cambio forte non avrebbe rappresentato
una frusta per gli imprenditori italiani, e non li avrebbe quindi indotti a ristrutturare e ad
adottare il pugno di ferro con i sindacati. La lira forte e il lassismo nei confronti
dell’inflazione interna contribuivano d’altro canto ad alimentare il deficit commerciale
italiano, e spingevano quindi i governi a cercare un rimedio nell’incremento dei tassi
d’interesse e nella conseguente importazione di capitali dall’estero. Una politica che più
volte Graziani considerò fallimentare: una sorta di “gioco di Ponzi” che induceva le
autorità italiane a ripagare i debiti con altri debiti, e che ben presto si sarebbe rivelato
disastroso.
La crisi valutaria del 1992 rappresentò l’esito finale della crescente esposizione
debitoria verso l’estero. Quella crisi, come è noto, ricadde praticamente tutta sulle spalle
dei lavoratori. Graziani fece notare, in proposito, come la Banca d’Italia avesse saputo
rispettare «l’ordine di scendere in trincea e di sacrificare le riserve fino all’ultima
goccia» in difesa della lira, accettando di assecondare la svalutazione solo dopo che il
governo ebbe ottenuto dai sindacati il ben noto, durissimo accordo sul costo del lavoro.
L’obiettivo era chiaro: prima di far cadere la lira sotto i colpi della speculazione le
autorità vollero essere ben sicure «che quel tanto di inflazione che seguirà alla
60

svalutazione trovi i sindacati totalmente inermi e privi di possibilità di reazione». Un


esempio tra i tanti, questo, della esigenza di favorire nuovamente lo sviluppo di una
teoria del capitalismo che non tenga più nell’ombra, ma al contrario espliciti con
chiarezza, le prerogative e i vincoli delle diverse classi sociali (4 dicembre 2003).

4.4 Modigliani, lettere e scritti inediti

«Caro Franco… sono in procinto di rilanciare la proposta di pre-determinazione


dell’inflazione. Come puoi comprendere sto ricevendo varie e forti pressioni per una
modifica anche parziale di questa impostazione… ma non ho alcuna intenzione di
cambiare linea. Costi quel che costi ai miei rapporti col sindacato e fuori. In questo
spero che riconoscerai qualcuno dei tuoi insegnamenti». Così scriveva Ezio Tarantelli in
una lettera al suo maestro Franco Modigliani, datata luglio 1983. Poche righe accorate,
e in un certo senso premonitrici di una delle più tragiche e feroci pagine della storia
repubblicana: appena venti mesi dopo, infatti, Tarantelli sarebbe stato assassinato dalle
Brigate Rosse.
Il passo citato è tratto dal bel libro a cura di Pier Francesco Asso: Franco
Modigliani. L’impegno civile di un economista, una raccolta di lettere private e di scritti
in buona parte inediti appena pubblicata in edizione limitata dalla Fondazione Monte dei
Paschi di Siena (e tra poco anche in libreria per i tipi di Protagon Editori). Il volume,
focalizzato sull’attività di Modigliani quale influente commentatore degli avvenimenti
politico-economici italiani, consente di esaminare le alterne fortune e vicissitudini
nazionali sotto una lente per molti aspetti inconsueta. Le riflessioni dell’economista
italo-americano, scomparso nel 2003, emergono infatti non soltanto dai numerosi
editoriali sulla situazione economica dell’Italia, ma anche da una serie di intensi e
talvolta persino intimi scambi epistolari con alcuni tra i più autorevoli protagonisti della
scena pubblica: Salvemini, Baffi, Andreatta, Fazio, Padoa-Schioppa e molti altri. Le
lettere rivelano spesso le inquietudini di personaggi i cui vissuti privati arriveranno più
volte a intrecciarsi, talvolta in modo drammatico, con i fatti della storia. Emblematica in
questo senso appare la partecipazione intellettuale ed emotiva di Modigliani al travaglio
di Paolo Baffi durante l’aggressione giudiziaria ai vertici di Bankitalia, così come le
riflessioni di Modigliani sulla opportunità di rinviare i suoi consueti viaggi in Italia nelle
fasi più acute del terrorismo. Va ricordato infatti che fin dai tempi della sua critica
all’accordo del 1975 sul punto unico di contingenza e prima ancora del suo allievo
Tarantelli, egli stesso era stato individuato come un possibile bersaglio dei gruppi
eversivi. Altrettanto significativo appare poi quello che il curatore del volume definisce
nel suo saggio introduttivo «il lungo silenzio» di Modigliani: una fase in cui i massimi
riconoscimenti internazionali derivanti dalla conquista del Nobel nel 1985 si
verificheranno in concomitanza con una sofferta riduzione degli impegni e delle
collaborazioni in Italia, probabilmente indotta dall’intensificarsi degli attentati.
Ma è soprattutto sul piano dell’analisi politica che la lettura del volume risulta di
estremo interesse, sia per chi abbia nel corso degli anni condiviso la visione e le relative
proposte di Modigliani, sia e forse soprattutto per chi le abbia criticate e osteggiate. Le
ragioni di questo interesse vertono essenzialmente sul carattere ambivalente del pensiero
di Modigliani, sempre a metà strada tra un anti-conflittualismo a tratti persino arcigno e
un riformismo di stampo keynesiano che toccava, in alcune circostanze, punte di
61

sorprendente radicalità. Questa doppia matrice politico-culturale ha del resto sempre


trovato un raffinato sostegno nell’analisi teorica di Modigliani, quella “sintesi
neoclassica” tesa all’assorbimento dell’eresia keynesiana nell’alveo del pensiero
ortodosso. In particolare, grande importanza in questa cornice teorica veniva assegnata
al rapporto tra quantità di moneta e livello del salario monetario. Quest’ultimo, per
Modigliani, determinava in modo sostanzialmente univoco il livello generale dei prezzi,
data l’ipotesi di un mark-up (ossia un margine) fisso sul costo del lavoro o addirittura
crescente al crescere della produzione. Il rapporto tra moneta e salario indicava perciò la
quantità di moneta espressa in termini di potere d’acquisto, una grandezza che per
l’economista del MIT andava sempre collocata a livelli tali da garantire un andamento
soddisfacente della domanda effettiva, e quindi anche della produzione e
dell’occupazione. Ecco dunque spiegata la fortissima avversione di Modigliani nei
confronti prima della Bundesbank e poi della nascitura Banca centrale europea,
colpevoli a suo avviso di praticare una politica monetaria eccessivamente restrittiva e di
impedire per questa via la riduzione degli elevati tassi di disoccupazione continentali.
Ma ecco spiegata anche l’ostilità di Modigliani nei confronti del conflitto e delle
rivendicazioni sociali. Il giusto compito dei sindacati e dei partiti della sinistra doveva
essere, al contrario, quello di assicurare che il salario non superasse un livello
compatibile con la massa monetaria esistente, ed inoltre che non generasse mai una
crescita dei prezzi tale da pregiudicare la competitività delle merci nazionali e il relativo
equilibrio dei conti con l’estero. Questa peculiare visione del ruolo della sinistra, che
tanti dubbi e polemiche suscitò da più parti, venne apertamente sostenuta da Modigliani
fin dagli anni ‘70: ne è testimonianza un rapporto riservato sulla crisi economica italiana
commissionatogli nel gennaio 1976 dal Dipartimento di Stato americano e pubblicato
per la prima volta nel volume a cura di Asso. Nel documento Modigliani sostenne
apertamente l’ipotesi di ingresso del Partito comunista nelle compagini di governo. Si
trattava di una posizione controcorrente rispetto a quelle prevalenti
nell’Amministrazione statunitense. Tuttavia secondo l’autore essa era giustificata dalla
certezza che soltanto il PCI e la CGIL fossero in grado di convincere la classe
lavoratrice ad accettare la compressione del costo unitario del lavoro che egli reputava
indispensabile per riequilibrare i conti esteri e ridare fiato ai profitti. Questa opzione,
come è noto, si sarebbe ben presto rivelata impraticabile, per l’uccisione di Moro e più
in generale per le ramificate ostilità verso la politica di “solidarietà nazionale”. Ma
Modigliani non cambiò mai idea e diversi lustri dopo, pur in uno scenario internazionale
completamente mutato, le sue proposte giunsero a conquistare il centro della scena
politica italiana: dopo la crisi del ’92 egli si ritrovò infatti ad assumere il ruolo di
massimo ispiratore della stagione della “concertazione”, una linea di indirizzo fondata
sulla partecipazione della sinistra politico-sindacale al governo del paese e sul rigido
controllo della dinamica salariale.
Il successo delle tesi di Modigliani è stato dunque eccezionale, sia sul piano
accademico che politico. Non sono tuttavia mancate critiche autorevoli e talvolta
durissime nei confronti dell’impianto teorico dal quale egli faceva scaturire le sue
proposte. In particolare, verso la fine degli anni ’70 alcuni economisti di ispirazione
marxista e keynesiana, dichiaratamente scettici nei confronti della sua “sintesi
neoclassica”, puntarono il dito sull’ipotesi di un livello fisso o addirittura crescente del
mark-up rispetto al costo del lavoro. Una tale assunzione, si badi, dà luogo a delle
importanti implicazioni politiche: essa infatti stabilisce che di norma, traducendosi
interamente in aumenti proporzionali dei prezzi, le rivendicazioni salariali siano
62

esclusivamente foriere di inflazione e di declino della produzione, e siano quindi da


ritenere inutili dal punto di vista distributivo e dannose sul piano occupazionale.
Secondo i critici, tuttavia, l’ipotesi di Modigliani non trovava alcun valido riscontro
empirico, data l’estrema variabilità dei differenziali tra prezzi e salari. Sul piano teorico,
poi, l’ipotesi appariva come un vano tentativo di riabilitare il vecchio legame funzionale
neoclassico secondo cui l’occupazione può crescere solo a seguito di una riduzione del
salario reale; un legame che era stato radicalmente messo in discussione dalla critica di
Sraffa alla teoria neoclassica del capitale. Nella interpretazione dei critici, insomma, il
mark-up dato o crescente costituiva un postulato privo di valide giustificazioni, se non
quella di voler riaffermare il primato della dottrina delle compatibilità capitalistiche
sulla logica alternativa che vedeva nel conflitto sociale una prassi razionale e addirittura
potenzialmente virtuosa.
Il flame degli anni ’70 tuttavia durò poco. Le critiche marxiste e keynesiane alla
“sintesi”, per quanto logicamente fondate, non riuscirono ad imporsi nel dibattito
teorico-politico e vennero ben presto messe ai margini. Basti notare, a questo riguardo,
che l’ipotesi di un mark-up dato trova ancora oggi largo seguito tra gli economisti del
mainstream neoclassico, e si pone addirittura alla base del manuale di macroeconomia
di Olivier Blanchard, uno dei più venduti al mondo. Si può con ciò ritenere che nel
corso del tempo il pensiero di Modigliani abbia acquisito un tale consenso da costituire
oggi una indiscussa ortodossia? La risposta è negativa. E questo non tanto per le mai
sopite critiche di parte marxista, quanto piuttosto per una certa distanza che sembra
essersi pian piano formata all’interno stesso del mainstream, tra l’impianto concettuale
del maestro e le linee di indirizzo teorico-politico dei successori, inclusi alcuni dei suoi
ex allievi e seguaci. Questi ultimi sembrano infatti aver compiuto una sorta di
scrematura del pensiero dell’economista del MIT, aderendo in pieno al suo intransigente
anti-conflittualismo salariale, ma scartando la sua visione keynesiana del bilancio
pubblico. Un esempio in tal senso è offerto ancora una volta da uno scambio epistolare:
quello del 1993 tra Modigliani e Padoa Schioppa, pubblicato anch’esso nel volume a
cura di Asso e avente per oggetto la situazione del bilancio pubblico italiano.
Modigliani e Padoa Schioppa si trovarono in disaccordo in merito alle tremende strette
di bilancio di quegli anni, considerate letteralmente «assurde» dal primo e necessarie dal
secondo. Ma soprattutto essi si divisero in merito alle determinanti degli elevati tassi
d’interesse dell’epoca. Per Modigliani, i tassi elevati dipendevano essenzialmente dalla
marcata inflazione interna, dal deficit dei conti esteri e dal conseguente rischio di
cambio; per Padoa Schioppa, invece, il problema verteva sul paventato pericolo di una
crisi fiscale dello Stato. Ebbene, per quanto le analisi teoriche e gli stessi test statistici
sulla sensibilità dei tassi d’interesse ai conti esteri e ai conti pubblici abbiano
solitamente dato ragione a Modigliani, bisogna ammettere che oggi la vulgata in materia
risulta pressoché dominata da una visione alla Padoa Schioppa. Con la conseguenza che
oggi in Italia quasi tutti, anche a sinistra, tengono gli occhi fissi sui livelli del deficit e
del debito pubblico, preoccupati magari di verificare che essi rientrino nei famigerati
limiti di Maastricht (dei quali Modigliani non smise mai di denunciare la totale
inconsistenza analitica). Si tratta di un atteggiamento infausto, del modo migliore per
lasciarsi sorprendere dagli eventi: infatti, se proprio una crisi dovesse sopraggiungere,
con buona probabilità essa ci piomberebbe addosso a causa non tanto del debito
pubblico quanto soprattutto del deficit estero. A differenza di molti suoi successori, di
questo Modigliani era ben consapevole. Restano invece forti dubbi sulla reale efficacia
della compressione salariale, che egli considerò sempre lo strumento decisivo per
63

mettere sotto controllo l’inflazione e i conti esteri. I lavoratori italiani hanno infatti
lungamente seguito la via dei sacrifici indicata dal padre nobile della moderazione
salariale. Ma oggi, pur con retribuzioni tra le più basse d’Europa, la tendenza del paese
al deficit estero rimane strutturale.
Sia nella versione del maestro che in quella dei seguaci, dunque, alla prova dei
fatti il mainstream ha rivelato le sue crepe. Eppure, come per inerzia, l’indirizzo
strategico del paese è rimasto quello di sempre, con alla base lo schiacciamento dei
salari, magari attraverso lo sfaldamento del contratto nazionale e la ulteriore
precarizzazione del lavoro. C’è modo di uscire da un tale, angoscioso deja vu?
Tecnicamente è possibile. Ma la tecnica, da sola, non basta mai (9 dicembre 2007).

4.5 Modigliani, l’irrazionalità dello sciopero

Franco Modigliani, classe 1918, premio Nobel per l'economia nel 1985 per le sue
analisi pionieristiche sul risparmio e sui mercati finanziari, è morto ieri in
Massachusetts, dove da anni viveva e insegnava. La produzione scientifica e divulgativa
di Modigliani è vastissima, e ricopre gran parte del dibattito di teoria e politica
economica del Novecento. Modigliani divenne noto alla cittadella accademica per i suoi
fondamentali contributi alla formulazione della cosiddetta “sintesi neoclassica”, una
versione ortodossa e moderata del contributo di Keynes. Dall'economista inglese egli
trasse un fermo convincimento anti-liberista, quello secondo cui «il mercato non può
mai esser lasciato a se stesso», e la politica economica è lo strumento indispensabile per
il conseguimento dell'obiettivo prioritario della piena occupazione. Per questo motivo,
egli ha spesso e volentieri attaccato la Banca centrale europea e la sua politica
restrittiva, giungendo addirittura a considerarla «il vero nemico dell'euro e degli
europei», e invocando sempre una radicale riforma in senso keynesiano del Trattato
dell'Unione.
Il pubblico italiano tuttavia ricorderà Modigliani soprattutto per i numerosi
interventi nel campo della politica economica nazionale, a partire da quelli degli anni
`60 e '70 scritti in collaborazione con Giorgio La Malfa, Ezio Tarantelli e Tommaso
Padoa Schioppa. Benché nato in Italia e legatissimo al suo paese d'origine, nei confronti
della vita politica e sindacale nostrana Modigliani rivelava l'insofferenza tipica degli
economisti allevati nelle torri d'avorio americane. Egli curiosamente definiva gli
scioperi «irrazionali», e spesso dichiarò che le battaglie dei rappresentanti dei lavoratori
fossero controproducenti e autolesionistiche. Le contestazioni da parte degli esponenti
del pensiero critico furono numerose e accurate, ma egli non si scostò mai da tali
controverse posizioni. Al conflitto Modigliani non smise di preferire nettamente la pax
sociale ottenuta tramite la politica dei redditi, e operò sempre a sostegno dei governi che
in Italia e nel mondo decidevano di adottarla. Inoltre, dal punto di vista della disciplina
del mercato del lavoro Modigliani fu un convinto fautore della flessibilità,
distanziandosi in ciò dal tradizionale insegnamento keynesiano. Negli anni `90 egli
difese il pacchetto Treu, ed in seguito giunse persino a condividere il tentativo, ad opera
del governo di centro-destra, di introdurre deroghe all'articolo 18 dello Statuto dei
lavoratori. Nonostante la sua fede nelle virtù della flessibilità del lavoro, Modigliani non
è tuttavia mai riuscito a digerire l'attuale governo italiano. Persino nell'ultima intervista,
pubblicata ieri su Repubblica nel giorno stesso della morte, Modigliani non ha
64

risparmiato critiche feroci nei confronti di Silvio Berlusconi. Di origine ebraica,


costretto ad emigrare nel 1939 negli Stati Uniti proprio a causa delle persecuzioni
fasciste, Modigliani non ha mai tollerato le “aperture” di Berlusconi su Mussolini e sul
Ventennio. Lapidario, in proposito, il suo ultimo intervento: «con i suoi show questo
premier sta disonorando il paese» (26 settembre 2003).

4.6 Dornbusch, l’illusione della razionalità dei mercati

«Liberati del burocrate e confida nel mercato», questo era il motto che Rudi
Dornbusch amava spesso ripetere. Nato in Germania ma cresciuto a Chicago e in
seguito adottato dal MIT di Boston, Dornbusch è morto a Washington lo scorso 25
luglio, all’età di 60 anni. Il suo orientamento politico può esser collocato a metà strada
tra l’antistatalismo viscerale di Milton Friedman e il liberismo temperato e solidale di
Modigliani. Un simile retroterra culturale e una certa propensione alla battuta velenosa
lo spinsero in numerose occasioni a polemizzare con le organizzazioni sindacali, gli
ambientalisti e i manifestanti di Seattle, ai quali egli imputava di voler nascondere le
mire neo-protezionistiche dietro lo slogan a suo dire improbabile della “globalizzazione
dei diritti”. D’altro canto, benché i sindacati e i movimenti costituissero il suo bersaglio
privilegiato, Dornbusch non risparmiò critiche nei confronti di un certo
convenzionalismo ortodosso, che riteneva diffuso soprattutto in Europa: nella Bce, in
particolare, ossessionata a suo dire da un’insensata lotta all’inflazione che non c’è e
dalla strenua, masochistica difesa dei vincoli di Maastricht; ma anche tra gli apologeti
del presunto miracolo americano degli anni ’90, ai quali l’economista del Mit ricordò
che quel “miracolo” stava avvenendo a tassi di crescita della produttività del lavoro
inferiori a quelli europei, e che l’Europa risultava più dinamica proprio a causa della
tanto vituperata maggiore “rigidità” del suo mercato del lavoro.
Le concessioni eterodosse di Dornbusch sono tuttavia sempre rimaste confinate
nell’ambito della sua attività di divulgatore. Sul piano analitico, infatti, il contributo
dell’economista del Mit rientra nel lungo processo di restaurazione con il quale gli
esponenti del pensiero neoclassico intesero neutralizzare la potenziale rivoluzione
teorica contenuta nella General Theory di Keynes. L’opera contro-rivoluzionaria era già
iniziata nel 1937, quando Hicks propose di incardinare le intuizioni keynesiane nel suo
modello IS-LM. Questo modello tuttavia trascurava le relazioni dirette tra domanda di
merci e prezzi, e ammetteva pertanto la possibilità che il sistema economico, lasciato a
sé stesso, rimanesse incagliato in uno stato di disoccupazione permanente. La soluzione
del problema venne fornita da Patinkin, il quale diede sostegno teorico all’idea che una
prolungata caduta dei salari e dei prezzi potesse determinare, almeno in linea di
principio, l’aumento di domanda necessario ad assorbire i disoccupati. Le conclusioni di
Patinkin permisero dunque di ricacciare la disoccupazione keynesiana nel novero dei
fenomeni transitori, e al limite trascurabili. A Dornbusch e al suo collega Stanley
Fischer spettò il compito di diffondere il verbo della restaurazione tra gli studenti e le
giovani leve di economisti attraverso il modello AS-AD, attorno al quale essi
costruirono il loro notissimo manuale di macroeconomia.
E’ comunque nel campo degli scambi internazionali e delle politiche valutarie
che Dornbusch ha fornito il contributo teorico di maggiore rilievo. Nel 1976 egli
elaborò il cosiddetto modello di “overshooting”, secondo cui la forte volatilità dei cambi
65

dipenderebbe dalla risposta razionale degli agenti economici a decisioni di politica


monetaria effettuate in un contesto di rigidità dei prezzi e dei salari. Questa idea venne
accolta con un certo favore dalla comunità finanziaria. Un’interpretazione estrema del
modello di overshooting consentiva infatti di imputare i crescenti fenomeni di instabilità
valutaria ai politici, rei di manovrare con troppo zelo sulla moneta anziché di intervenire
a favore della flessibilità del mercato del lavoro. La stessa interpretazione scagionava
inoltre gli operatori finanziari, poiché per essa questi si limitavano ad agire
razionalmente nel contesto politico dato.
Il successo internazionale di questa interpretazione avrebbe in seguito legittimato
decisioni molto gravi, come l’agganciamento permanente del peso argentino al dollaro
americano. Quando infatti il dollaro prese a trascinare il peso in una corsa al rialzo che
erodeva la competitività argentina, vi fu chi arrivò a sostenere che il problema non
risiedeva affatto in un mercato valutario impazzito, ma nella riluttanza dei sindacati
argentini a favorire l’adeguamento dei salari e dei prezzi alla dinamica dei cambi.
Secondo quest’ottica, occorreva cioè che i sindacati accettassero di sottomettere
totalmente la contrattazione salariale ai capricci del mercato valutario, per evitare la
crisi di competitività dell’industria argentina. La logica sottostante al modello di
Dornbusch, insomma, aveva finito per avallare l’assurdo: “la coda deve governare il
cane”, ossia spetta al mercato valutario guidare le dinamiche dei mercati dei beni e
soprattutto del lavoro. Il caos nel quale attualmente versa l’economia argentina è anche
il prodotto di questa discutibile ricetta (28 luglio 2002).

4.7 Debreu, l’equilibrista del capitale

Gerard Debreu, francese, professore di economia matematica a Berkeley in California,


premio Nobel nel 1983, e’ morto ieri a Parigi all’età di 83 anni. Il nome di Debreu è
indissolubilmente legato al compimento di un gigantesco sforzo collettivo, che negli
anni ‘40 e ’50 vide i massimi esponenti del pensiero neoclassico impegnati nella
costruzione di un modello di equilibrio generale, vale a dire un tentativo di
rappresentazione “totale” del funzionamento di una economia concorrenziale. Debreu
ha sempre mostrato una forte ritrosia nei confronti dei tentativi di attribuire alla sua
opera una capacità di descrizione della realtà economica, così come si è opposto alla
possibilità di trarre dal suo edificio concettuale delle dirette implicazioni politiche.
Come si evince dalla sua biografia e da una intervista del 1996 raccolta da Piero Bini e
Luigino Bruni, Debreu ha sempre cercato di mantenere le distanze dagli impieghi per
così dire “ideologici” della sua teoria. Egli non a caso amava ricordare di aver
sistematicamente disertato le riunioni del proprio dipartimento alla Cowles
Commission, dove Friedman e la sua Scuola di Chicago andavano sviluppando le linee
guida del “monetarismo”, il credo su cui si è lungamente fondata la politica restrittiva di
numerose banche centrali.
Nonostante il voto di neutralità compiuto da Debreu, è innegabile che la sua
Theory of Value del 1959 rappresenti tuttora il punto di riferimento essenziale per la
maggior parte degli studi tesi alla “dimostrazione borghese” per eccellenza: l’efficienza
di un ordine sociale esclusivamente basato sulla libera interazione di individui
autonomi, egoisti e razionali. In altre parole, l’efficienza del capitalismo, o meglio, della
rappresentazione che i suoi apologeti amano dare di esso. Per quanto infatti le ricerche
66

di Debreu e degli altri teorici neoclassici non siano mai state in grado di elaborare una
dimostrazione generale dell’unicità e della stabilità dell’equilibrio economico generale,
è oggi prevalente il convincimento che il loro contributo sia stato decisivo per definire
le condizioni necessarie affinché il medesimo equilibrio possa sussistere e quindi,
implicitamente, anche le azioni politiche che occorrerebbe intraprendere qualora quelle
condizioni non fossero soddisfatte. In quest’ottica, l’economista del MIT Olivier
Blanchard si è spinto addirittura al punto di attribuire proprio a Debreu il merito di aver
chiarito in termini rigorosamente scientifici i presupposti per il corretto funzionamento
della “mano invisibile” di Adam Smith, vale a dire di quel principio secondo cui la
proprietà fondamentale del capitalismo consisterebbe nel generare benessere diffuso
grazie esclusivamente al libero operare dell’egoismo dei singoli. Questo
significherebbe, ad esempio, che l’efficienza capitalistica è assicurata solo nel caso in
cui i prezzi, secondo l’impostazione di Debreu, siano perfettamente in grado di riflettere
la scarsità relativa delle risorse che essi rappresentano. Se per esempio il lavoro fosse
relativamente abbondante rispetto alle altre risorse allora il suo prezzo, ossia il salario,
dovrebbe risultare relativamente basso. Se ciò non avviene, magari a causa dell’azione
dei sindacati, vorrà dire che è solo a questi ultimi che si dovrà imputare l’inefficienza
dell’equilibrio capitalistico. Originariamente destinato agli studi d’ingegneria e capitato
tra le spine della scienza economica solo a causa della guerra, Debreu sarebbe
probabilmente sobbalzato di fronte al carattere rudemente politico di una simile
conclusione. Ciò non toglie, tuttavia, che essa rappresenta la pressoché indiscussa
conseguenza logica di tutti i modelli ispirati alla sua opera.
E’ un peccato che non si possa chiedere direttamente ad Adam Smith una
valutazione epistemologica sul temerario accostamento tra la novella della mano
invisibile e la teoria di Debreu. Ma soprattutto, appaiono a dir poco fuorvianti le
concezioni secondo cui la realtà capitalistica funzionerebbe in modo non efficiente
(generando ad esempio crisi e disoccupazione) solo perché i sistemi economici effettivi
non rispettano i requisiti del modello di equilibrio generale di Debreu. Quei requisiti
rappresentano infatti soltanto delle condizioni di equilibrio di un particolare schema di
rappresentazione del capitalismo, il modello neoclassico. E non vi è nessuna ragione
scientifica per cui si debba reputare quello schema l’unica possibile “metafora” del
funzionamento effettivo del sistema economico. Qui si pone il problema di fondo per
chi desideri accostarsi criticamente al pensiero di Debreu e degli altri giganti
dell’ortodossia neoclassica. E’ il problema della costruzione di una potente
rappresentazione alternativa del sistema capitalistico, quale fondamento necessario per
una efficace critica della teoria economica dominante e della ideologia ad essa sottesa.
Le critiche “interna” ed “esterna” all’equilibrio generale neoclassico, elaborate da alcuni
esponenti italiani delle cosiddette scuole di pensiero critico, rappresentano a parere di
chi scrive una base di sostegno promettente per la costruzione di una teoria alternativa.
Queste impostazioni, infatti, presentano già il merito di non attribuire alla
determinazione capitalistica del salario e delle altre variabili distributive alcuna
proprietà generale di efficienza, ma anzi fanno risalire le origini della stessa a questioni
di “potere”, come quello tipico della classe capitalista di accedere in modo privilegiato
alle fonti di finanziamento. Un limite che tuttavia può rintracciarsi in queste analisi - e
che almeno negli esiti sembra accomunarle all’opera di Debreu - consiste nella estrema
difficoltà di introiettare o anche solo di rapportarsi con il processo storico e con i suoi
continui stravolgimenti. Debreu, con l’ipotesi eroica dei mercati futuri completi per tutte
le merci aveva deciso di liquidare il problema facendo implodere l’intero sviluppo
67

storico in un unico punto, il cosiddetto “tempo zero”, in cui verrebbero


inverosimilmente intraprese tutte le decisioni per il futuro. Riguardo invece alle teorie
critiche, queste sulla storia appaiono ancora pressoché mute. Il che le pone, almeno per
il momento, a grande distanza dal pieno compimento delle ambizioni di Marx, loro
grande ispiratore (7 gennaio 2005).

4.8 Galbraith, il mercato come sopraffazione

«L’Antitrust è uno strumento assolutamente innocuo, del tutto inoffensivo». Un


giudizio che farebbe gelare il sangue ai molti esponenti della sinistra che in Italia ed
altrove sono stati sedotti dalla dottrina del mercato regolamentato. Eppure questo era il
convincimento del “gigante” John Kenneth Galbraith, morto all’età di 97 anni a
Cambridge, Massachusetts. Esponente di punta dell’istituzionalismo americano,
politicamente un liberal alle soglie del socialismo, Galbraith non è mai stato tenero con i
pasdaran del liberismo temperato dalle regolamentazioni. Ben pochi tra i sostenitori
delle cosiddette “autorità di garanzia” della concorrenza sarebbero dunque scampati alla
sua critica, sempre elegantissima e spietata. E la ragione è che in fondo Galbraith
proprio non credeva nel mercato, essenzialmente per due ordini di motivi: la profonda,
strutturale irrazionalità dello stesso, e la tendenza a privilegiare sistematicamente i
soggetti in posizione di dominio. Si potrebbe obiettare che se un sistema tutela i più
forti non si può dire che almeno dal loro punto di vista non sia razionale. Ma la
questione è proprio questa. La critica di Galbraith era infatti rivolta alla versione
apologetica del concetto di razionalità, quella secondo cui l’azione della concorrenza sul
libero mercato avrebbe condotto il sistema economico lungo un sentiero di sviluppo
equilibrato e diffuso, in grado di assicurare il massimo benessere per tutti e non solo per
pochi. Un’idea, questa, alla quale i suoi colleghi di Harvard e di Princeton dedicavano
l’intera loro carriera accademica, e che Galbraith si divertiva invece a smontare pezzo
per pezzo, con l’aiuto del realismo storico molto più che della logica formale.
In tema di irrazionalità del mercato, una delle più efficaci massime di Galbraith
è contenuta non in un saggio ma in un suo breve, godibilissimo romanzo: Il professore
di Harvard (A Tenured Professor, 1990), dove si legge che «l’irrazionale è reale». Su
questa indovinata parafrasi hegeliana l’economista di origine canadese aveva del resto
già lungamente meditato, come dimostra una delle sue opere più significative: Il grande
crollo (The Great Crash, 1955), dedicato alla crisi degli anni ’30. In esso Galbraith
svelò con dovizia di particolari la meccanica profonda del mercato borsistico, la
presenza sistematica e squilibrante, all’interno dello stesso, di “pastori” che fanno i
prezzi e di “greggi” che li subiscono, ma soprattutto i rischi di crisi cumulativa impliciti
nel meccanismo della leva finanziaria, guarda caso adoperato oggi ben più di allora. Il
libro è oltretutto ricco di aneddoti istruttivi, come quello dedicato a Charles Ponzi, un
affarista di origine italiana inventore della famosa “catena” omonima. Questa consiste
nell’attirare masse di incauti risparmiatori promettendo loro remunerazioni
stratosferiche, che verranno poi effettivamente erogate adoperando i risparmi
provenienti dalle successive ondate di investitori. Il sistema si regge quindi su un ciclo
monetario del tutto virtuale, senza alcun bisogno di finanziare investimenti realmente
produttivi. Basti pensare che Ponzi attirava la sua clientela sostenendo di vendere titoli
immobiliari di una città della Florida definita “in piena espansione”, ma che in realtà
68

non era altro che un paludoso acquitrino. Un simile meccanismo ovviamente tiene
finché l’afflusso di risparmiatori attirati dalle facili promesse del Ponzi di turno eccede
il numero dei vecchi clienti i cui titoli sono venuti in scadenza, e che vanno quindi
ripagati. L’abilità del mazziere sta quindi nel prenotare un volo per le Isole Vergini
prima che il suo castello di carta gli crolli addosso. Ponzi evidentemente dovette avere
un attimo di esitazione visto che finì i suoi giorni in galera. Ma la procedura da allora si
è fortemente affinata, e di catene del genere si scoprono versioni sempre più sofisticate
e inquietanti.
Il mercato è dunque innanzitutto un luogo di esercizio del potere: quello di
sopraffare il prossimo attraverso un migliore controllo dell’informazione, delle relazioni
sociali, persino della psiche degli individui. Operando nel solco della migliore
tradizione istituzionalista, Galbraith si è in tal senso lungamente dedicato ai meccanismi
di manipolazione delle preferenze individuali da parte delle grandi corporazioni, al fine
di dimostrare l’assoluto irrealismo del concetto di “libertà” del singolo, sia esso
consumatore, risparmiatore oppure lavoratore. Il sistema, lasciato all’azione dei “poteri
forti” che operano al suo interno, tende a generare effetti perversi, che sembrano di fatto
operare in direzione esattamente opposta alle più elementari aspirazioni umane. In
questo senso, mostrando una spiccata sensibilità ante-litteram nei confronti
dell’ambiente e di quelli che oggi chiameremmo beni comuni, nel suo bestseller La
società opulenta (The Affluent Society, 1958) Galbraith sostenne che senza opportuni
contrappesi il capitalismo avrebbe fatto sprofondare l’umanità in una infelice esistenza,
dominata dall’opulenza privata e dallo squallore pubblico.
Per evitare un simile destino la strada, per Galbraith, é sempre stata una soltanto.
Occorre costituire dei “contropoteri” in grado di bilanciare la forza soverchiante delle
grandi imprese, dei grandi investitori, dei cartelli e dei monopoli (American Capitalism,
1961). In parole povere, bisognerebbe favorire il pieno sviluppo dei sindacati dei
lavoratori, delle associazioni dei consumatori e dell’apparato pubblico, sostenendo a
questo scopo anche misure espressamente definite “socialiste”, come l’amministrazione
dei prezzi e le nazionalizzazioni. Opinioni, queste, che negli Stati Uniti non hanno mai
goduto di largo seguito, nonostante l’estrema notorietà di Galbraith ed i ruoli
significativi da lui assunti presso le Amministrazioni democratiche degli anni ’50 e ’60.
Ed è certamente indicativo che oggi simili proposte incontrino fortissime resistenze
anche nel vecchio continente, in quella Europa che Galbraith aveva spesso indicato
come un invidiabile punto di riferimento sociale e culturale.
I contropoteri, insomma, hanno bilanciato molto meno di quanto Galbraith
sperasse, e negli ultimi decenni sono stati costretti persino ad arretrare. In una intervista
di alcuni anni fa, il nostro cercò di avanzare una possibile spiegazione per questo
drammatico regresso: i contropoteri non si sono sviluppati quanto avrebbero dovuto, nel
senso che non sono mai stati in grado di coinvolgere gli strati marginali della società,
non sono cioè mai riusciti a farsi portatori delle istanze dei giovani dei ghetti, dei poveri
delle aree rurali, dei lavoratori situati nei settori residuali e nelle zone periferiche. I
gruppi marginali hanno pertanto finito per tramutarsi in un micidiale strumento nelle
mani della Reazione. Il loro disagio è infatti divenuto un implicito atto d’accusa nei
confronti dei lavoratori sindacalizzati, di quella sinistra pensante e garantita che pure
negli Usa ha avuto nei decenni passati un decisivo ruolo di indirizzo e di mobilitazione.
Una lettura, questa, forse tautologica e troppo politicista, che espone probabilmente il
fianco alle più classiche tra le critiche marxiste. Prima ancora di puntare l’indice sulle
manchevolezze dei sindacati organizzati bisognerebbe infatti indagare sulle condizioni
69

strutturali che solo in certi ambiti ne hanno permesso la costituzione e il rafforzamento.


Ciò nonostante, sembra difficile non ammettere che Galbraith su questo punto abbia
intuito qualcosa di significativo. In un’epoca in cui la sinistra non appare più in grado di
parlare al popolo, in cui larghissimi strati sociali sono lasciati in balia del mercato da un
lato e delle peggiori pulsioni plebiscitarie dall’altro, il monito del grande economista
risulta quanto mai attuale (7 maggio 2006).

4.9 E’ morto Friedman, gigante del monetarismo

«Alla base delle dichiarazioni contro la libertà di mercato c’è quasi sempre un’ostilità di
fondo nei confronti della libertà in quanto tale». Era questo uno degli aforismi con i
quali Milton Friedman amava presentarsi al grande pubblico, nella veste di nemico
giurato dei comunisti e più in generale di tutti i sostenitori, più o meno accaniti,
dell’intervento pubblico nell’economia.
Friedman è morto a San Francisco, all’età di 94 anni. Indiscusso gigante del
monetarismo e premio Nobel per l’economia nel 1976, Friedman potrà forse essere
ricordato come il massimo rappresentante della contraddizione insita nel concetto di
libertà in regime capitalistico. Egli fu infatti strenuo difensore non solo delle classiche
libertà d’impresa ma anche dei diritti civili. Basti pensare che non ebbe mai alcuna
remora nel difendere, anche di fronte all’America più bigotta e reazionaria, la
legalizzazione delle droghe leggere e pesanti e al limite «il pieno diritto di uccidersi»
attraverso di esse. Ma al tempo stesso Friedman fu pure il demiurgo economico della
sanguinaria dittatura del Cile di Pinochet. Nel 1975, due anni dopo il feroce colpo di
Stato che destituì Alliende e che avrebbe aperto una delle pagine più oscure della Storia
del Novecento, Friedman accettò di incontrare il dittatore. In quel colloquio vennero
gettate le basi per un gemellaggio tra l’Università di Chicago, già allora tempio del
monetarismo, e l’Università Cattolica di Santiago del Cile. Obiettivo dell’intesa:
formare una nuova generazione di economisti e di politici cileni, di comprovata fedeltà
sia al liberismo che al regime. Giovani e arrembanti, dopo il preliminare
indottrinamento friedmanita i cosiddetti “Chicago boys” avrebbero assunto importanti
cariche nel governo Pinochet, al fine di sottoporre l’economia cilena ad una delle più
terribili purghe liberiste che si ricordino: abolizione dei minimi salariali e dei diritti
sindacali, rigido controllo dell’offerta di moneta, deregolamentazioni, privatizzazioni e
svendite di capitale pubblico nazionale a favore di imprese statunitensi, il tutto
conseguito con una rapidità senza precedenti grazie alla paralisi del popolo cileno,
totalmente soggiogato da una terrificante dittatura.
Friedman arrivò a definire il feroce esperimento cileno come «un vero e proprio
miracolo». Fu la goccia, e anche i colleghi a lui culturalmente più vicini cercarono di
tenersi a distanza da quella sconcertante presa di posizione. L’onta dell’episodio tuttavia
non lo perseguitò troppo a lungo. Appena pochi anni dopo il governatore della Federal
Reserve, Alan Greenspan, non ebbe alcuna esitazione nel definire pubblicamente
Friedman «il mito» indiscusso della scienza economica contemporanea. Un tributo che,
provenendo dal più importante banchiere centrale del mondo, è stato da molti
interpretato come un implicito ringraziamento. Dopotutto il monetarismo di Friedman
ha posto le banche centrali in una posizione invidiabile. E’ pur vero infatti che proprio
alla irrazionale decisione dei banchieri centrali di ridurre la massa monetaria reale egli
attribuì la colpa gravissima della Grande Crisi. Ma è altrettanto vero che con
70

l’ancoraggio dei suoi modelli al cosiddetto equilibrio “naturale”, Friedman ha liberato


l’autorità monetaria dalla responsabilità di perseguire gli obiettivi politici della piena
occupazione e di una più equa distribuzione dei redditi. L’idea dell’economista di
Chicago è che nel lungo periodo il sistema di mercato tende spontaneamente verso i
livelli “naturali” della disoccupazione e della distribuzione: questi livelli sono
determinati dalle libere scelte dei singoli individui, per cui le autorità di politica
economica non possono illudersi di modificarli semplicemente stampando banconote.
Anzi, una volta preso atto dell’equilibrio “naturale”, sarebbe bene che l’autorità
monetaria si impegnasse a fare l’unica cosa che la dottrina di Friedman le chiede:
provvedere al ferreo controllo dell’inflazione, attraverso una crescita della liquidità in
linea con la crescita “naturale” della produzione.
L’interpretazione friedmanita della politica monetaria ha in effetti sollevato
molti dubbi, anche nell’ambito del mainstream. Essa tuttavia è stata contestata
soprattutto dagli esponenti della teoria critica, i quali hanno invece sempre concepito il
banchiere centrale come un vero e proprio “gendarme” del conflitto sociale. Per gli
economisti critici non vi è infatti nulla che possa definirsi un equilibrio “naturale”. Il
capitalismo si muove piuttosto in base alle spinte e alle controspinte di gruppi sociali in
conflitto tra loro, e la banca centrale spesso e volentieri si ritrova a fungere da ago della
bilancia della contesa. Essa potrà ad esempio cedere alle pressioni sociali, dando luogo
a quello che Guido Carli spregiativamente definiva un regime di «labour standard» sulla
moneta; oppure invece potrà agire con pugno di ferro, generando disoccupazione al fine
di disciplinare una irrequieta classe lavoratrice. Sotto la lente della teoria critica,
dunque, i consueti comunicati del banchiere centrale perdono la loro classica aura di
neutralità tecnica, e sembrano piuttosto rivelare il carattere di veri e propri messaggi
cifrati di guerra. Lo smaliziato Friedman probabilmente era del medesimo avviso, ma se
ne è andato guardandosi bene dall’ammetterlo (17 novembre 2006).

4.10 Moventi e destini dell’euro: una nota su Luigi Spaventa

L’economista Luigi Spaventa è morto domenica, a Roma, all’età di 78 anni. Docente di


economia politica alla Sapienza, fu deputato della sinistra indipendente negli anni
Settanta, poi ministro del Bilancio del governo Ciampi, quindi presidente della Consob.
Alle elezioni del 1994 gli toccò la sfida impossibile di fronteggiare Berlusconi nel
collegio di Roma. La sconfitta, secca, rappresentò in un certo senso una prova generale
per l’avvio di una nuova era della comunicazione politica: con Spaventa che provava a
dire la sua sulla crisi del Sistema monetario europeo mentre Berlusconi gli rinfacciava
di non aver mai vinto la coppa dei Campioni.
Di diverso rango furono le dispute alle quali Spaventa partecipò nel corso della
sua vita di studioso. Durante gli anni Sessanta prese parte alla controversia sulle
incoerenze della teoria neoclassica collocandosi sul fronte eretico degli sraffiani. Con
essi condivise l’attacco alla tesi neoclassica secondo cui la distribuzione del reddito tra
salari e profitti sarebbe il frutto di un equilibrio “naturale” del mercato, determinato
essenzialmente dalle libere scelte di consumo, risparmio e lavoro degli individui e dalla
scarsità delle risorse produttive esistenti. Per gli sraffiani quella tesi era basata su una
misura contraddittoria del capitale e risultava quindi logicamente insostenibile. Per
questo andava sostituita da una teoria alternativa di ispirazione classica e marxiana, che
71

vedeva la distribuzione del reddito come una risultante del quadro istituzionale e
politico, e in ultima istanza dei rapporti di forza tra le classi sociali. Spaventa
condivideva i termini di questa obiezione, ma la mera critica della teoria dominante non
lo seduceva. A suo avviso, per dare un solido futuro al programma di ricerca di Sraffa
bisognava concentrare gli sforzi sulla sua parte costruttiva, senza troppe pregiudiziali
verso la vecchia teoria. Per esempio, Spaventa riteneva che si potesse integrare l’analisi
sraffiana con gli spezzoni a suo dire salvabili della visione ortodossa, come ad esempio
la teoria delle aspettative. Questo programma spurio tuttavia non convinse. Tra gli
sraffiani prevaleva l’idea che far dipendere una teoria economica da una ipotesi sulle
aspettative era un po’ come tenerla su per i lacci delle scarpe. Spaventa prese atto, e
anche per questo iniziò a distanziarsi.
L’allontanamento dagli antichi sodali fu ancor più accentuato nel campo della
politica economica. Nel 1981, con Mario Monti ed altri, Spaventa caldeggiò la proposta
di “desensibilizzazione” dei salari. L’idea consisteva nell’indicizzare le retribuzioni ai
soli aumenti dei prezzi di origine nazionale: in caso di inflazione proveniente
dall’estero, i salari non dovevano più essere protetti. In tal modo il potenziale
inflazionistico della scala mobile sarebbe stato attenuato. Le obiezioni furono numerose:
perché mai adottare un meccanismo che avrebbe salvaguardato i profitti e avrebbe
scaricato sui soli lavoratori il peso degli aumenti del prezzo del petrolio? Per Monti ed
altri veniva istintivo cercare di difendersi da questa critica arrampicandosi al vecchio
albero neoclassico, e da lì replicare che i salari andavano frenati poiché avevano
oltrepassato l’equilibrio “naturale”. Ma per Spaventa, che negli anni precedenti aveva
contribuito a segare il tronco di quella pianta, si apriva una contraddizione fra le sue
origini teoriche e le proposte politiche che intendeva sostenere.
Forse anche per risolvere tali incongruenze, negli anni Ottanta Spaventa
approfondì sempre di più il solco che lo divideva dagli eretici, fino ad attribuire ad essi
il poco lusinghiero appellativo di “riserva indiana”. In effetti fu tempestivo nel rilevare
che il fronte della guerra delle idee economiche si era spostato altrove: con le sconfitte
sindacali in Italia e in Europa, la Reaganomics negli Stati Uniti e la crisi sovietica, il
tema delle determinanti di classe della distribuzione del reddito appariva ormai
superato, dal corso degli eventi storici prima ancora che dalla evoluzione del dibattito
teorico. A suo avviso, l’analisi delle aspettative restava invece attualissima. Per
Spaventa, il problema principale posto dalla nuova epoca consisteva nell’individuare
meccanismi istituzionali capaci di rendere stabili le aspettative degli investitori, in modo
da garantire uno sviluppo ordinato dei mercati. Fu alla luce di questo convincimento che
egli modificò le sue opinioni sul Sistema monetario europeo. Nel 1979, quando lo Sme
fu istituito, Spaventa si collocava tra le file degli scettici: il regime dei cambi fissi
avrebbe impedito all’Italia di svalutare, e in definitiva l’avrebbe danneggiata. In seguito,
però, egli divenne un tenace sostenitore di quel vincolo. Anzi, a suo avviso bisognava
rafforzarlo attraverso un accordo più stringente, che eliminasse ogni incertezza sulla
irrevocabilità futura dei rapporti di cambio tra le valute. In altre parole, per stabilizzare
le aspettative degli investitori bisognava chiarire che non si poteva più tornare indietro:
bisognava andare oltre lo Sme e istituire una vera e propria moneta unica. La creazione
dell’euro, eliminando qualsiasi rischio di future svalutazioni, avrebbe favorito gli
afflussi di capitale estero verso l’Italia e gli altri paesi periferici dell’Unione. Grazie alla
regolare crescita degli afflussi finanziari, queste economie avrebbero potuto investire e
aumentare la produttività e sarebbero quindi state in grado di rimborsare i prestiti.
72

Spaventa non fu certo il solo a propugnare questa tesi: la narrazione di un euro


capace in sé di risolvere anziché accentuare le contraddizioni europee è stata per anni
prevalente. E’ pur vero che, prima della crisi, tra gli esponenti della teoria dominante
qualche voce dissenziente si era levata, ma è soprattutto dalla “riserva indiana” degli
eretici che sono scaturite le obiezioni principali. Una in particolare merita di essere
ricordata: pensare di governare le divaricazioni strutturali e i relativi conflitti tra capitali
europei tramite un mero un gioco di aspettative è stato, nella migliore delle ipotesi,
illusorio. Col sopraggiungere della crisi, infatti, il tabù dell’inesorabilità dell’euro viene
meno e i flussi finanziari dall’estero invertono la loro rotta. Le economie periferiche
vengono così costrette a immolarsi sull’altare dell’austerity e della svendita del capitale
nazionale, nel vano tentativo di ripagare i debiti. In quest’ottica alternativa l’euro si
presenta dunque sotto una ben diversa luce, quale strumento egemonico dei forti contro
i deboli nella feroce contesa tra capitali europei. L’importanza delle aspettative risulta
quindi nuovamente ridimensionata. Mentre l’analisi dei rapporti di forza, in particolare
dei rapporti di forza tra capitali nazionali, torna alla ribalta.
Nel 2011, prima che la malattia lo bloccasse, Spaventa onorò qualcuno dei
“dieci piccoli indiani” fuoriusciti dalla “riserva” di un dialogo serrato sulla questione.
Riconobbe che la verifica dei fatti dava sostegno all’interpretazione alternativa.
Convenne che se la moneta unica è a rischio, lo è anche il mercato unico europeo (8
gennaio 2013).

4.11 Kollontaj: rivoluzioni nell’economia e nelle relazioni tra i generi

La Rivoluzione d’Ottobre non si limitò a aprire la strada a un gigantesco stravolgimento


nei rapporti di proprietà, di lavoro e di potere, in Russia e nel mondo, ma offrì anche
alla gioventù sovietica una occasione storica per sperimentare nuove concezioni della
sessualità e degli affetti. La ripubblicazione di un “incendiario” libretto dell’epoca,
Largo all’Eros alato di Alexandra Kollontaj (il melangolo, 77 pp., 9 euro), consente di
rivivere quei momenti eccezionali e offre pure qualche utile spunto di riflessione per
l’oggi, sugli attuali conflitti familiari e tra i generi. Prima donna entrata a far parte del
governo dei Soviet, prima ambasciatrice, Kollontaj pubblicò questo suo pamphlet nel
1923 e lo dedicò alla gioventù proletaria della neonata repubblica socialista. Il suo
obiettivo, dichiaratamente marxista, era quello di mostrare ai lettori che anche l’amore
ha una sua ineluttabile dinamica, una sua storicità. Al mutare dei rapporti di produzione,
infatti, vengono stravolte anche le espressioni socialmente ammissibili delle pulsioni e
dei sentimenti. «L’umanità, in tutte le tappe del suo sviluppo storico, ha dettato le
norme per determinare come e quando l’amore doveva considerarsi legittimo e quando
invece doveva considerarsi colpevole, criminale - cioè in conflitto con gli obiettivi posti
dalla società».
La distinzione tra l’amore legittimo e quello illecito si determina, secondo
Kollontaj, in virtù degli interessi sociali prevalenti. Nelle antiche tribù, per esempio, era
estremamente importante trovare legami morali per unire saldamente i componenti
maschi di una collettività sociale ancora debole. Il sentimento da glorificare era quindi
l’amore-amicizia, come quella tra Castore e Polluce. Non certo l’amore tra i sessi ma la
fedeltà all’amico fino alla morte garantiva infatti la forza e quindi la riproduzione del
gruppo. In epoca feudale, invece, trovò piena legittimazione l’amore platonico del
73

cavaliere per una dama inaccessibile, al limite per la sposa del principe. Questa passione
sublimata, rendendo il cavaliere capace di imprese belliche durissime, veniva
considerata fondamentale per la salvaguardia del feudo e risultava dunque oggetto di
culto e di celebrazione. Con l’avvento poi della società capitalistica dimensione carnale
e spirituale arrivarono finalmente a riunirsi, ma esclusivamente sotto l’identificazione
dell’amore con il matrimonio. Il nuovo ideale amoroso diventò quello della coppia
sposata, chiusa in sé stessa e coesa contro il mondo esterno, che si faceva custode del
capitale accumulato e che in tal modo si poneva in sintonia con l’individualismo e la
concorrenza connaturati al sistema di vita borghese. Un posto importante, in questa
nuova logica delle relazioni, l’avrebbero oltretutto conquistato anche i sottomondi
dell’adulterio e della prostituzione. Pubblicamente combattuti ma sotterraneamente
tollerati, essi avrebbero rappresentato il lato oscuro, contraddittorio e in un certo senso
necessario, della famiglia borghese. Con l'avvento della rivoluzione bolscevica, infine,
vennero posti nuovi interrogativi: quale sarebbe dovuta essere la concezione dell'amore
tipica della società socialista? Stupefacente fu la risposta di Kollontaj: occorreva un
amore “da compagni”, liberato dai vincoli del matrimonio borghese, un amore non più
esclusivo che proprio per il suo carattere diffuso e multiforme avrebbe contribuito al
rafforzamento dei sentimenti di solidarietà collettiva e di coesione sociale: «l’amore-
solidarietà - scrive Kollontaj - avrà un ruolo motore analogo a quello della concorrenza
e dell’amor proprio nella società borghese».
In effetti, all’indomani della rivoluzione le nuove norme sul divorzio, sulle
unioni di fatto, sulla parificazione dei figli nati fuori dal matrimonio, sulla soppressione
della potestà maritale e sull’aborto suscitarono grandi speranze di emancipazione
sociale, di liberazione femminile e di trasformazione delle relazioni affettive. Ben presto
tuttavia ci si rese conto che le cose non sarebbero andate come Kollontaj aveva
preannunciato. In pochi anni, infatti, la repubblica sovietica tornò sui propri passi,
arrivando sotto Stalin a ripristinare gli antichi precetti: dal divieto di aborto, alla
criminalizzazione della libertà dei costumi, alla centralità della famiglia tradizionale.
Come spiegare un simile regresso? Luigi Cavallaro, nella sua bella nota introduttiva al
libro, ribalta i nessi causali e offre una prima traccia per provare a rispondere. La sua
idea è che, ieri come oggi, l’estensione dei diritti civili e le relative attese di
emancipazione dei costumi non possono concretizzarsi se non vengono affiancate da un
contemporaneo accrescimento dei diritti sociali, e soprattutto da una politica di
socializzazione del lavoro di riproduzione e di cura, dei bambini e degli anziani. I
bolscevichi non riuscirono a tenere assieme i due processi di trasformazione, civile e
sociale. Così la donna venne ben presto ricacciata nel focolare domestico, e la
rivoluzione sessuale e degli affetti invocata da Kollontaj fu relegata al rango di
improponibile utopia.
Debordante nello stile, iperbolico nei propositi politici, non sempre convincente
sul piano analitico, il libretto di Kollontaj può essere tuttavia annoverato tra le più
interessanti versioni divulgative della celebre lezione materialista contenuta nella
Origine della famiglia di Friedrich Engels. Si tratta come è noto di un filone del
marxismo teorico che ha goduto di alterne fortune, essendo passato più volte nel corso
del Novecento dal pieno successo al più completo oblio. Oggi in effetti assistiamo a un
rinnovato interesse verso l’analisi strutturale della famiglia, in gran parte dettato dalla
sua crisi e dalle sue profonde trasformazioni. Persino un influente tecnocrate del calibro
di Jacques Attali ha dedicato al futuro dell’organizzazione familiare e delle relazioni
affettive numerose riflessioni, intrecciate a suggestive premonizioni di ordine
74

economico e sociale. Attali annuncia la fine della famiglia tradizionale e la nascita di


nuovi e ben più complessi sistemi di relazioni, e i dati sui divorzi e sulla complicazione
dei rapporti interni alle cosiddette “nuove” famiglie sembrano dargli qualche ragione.
Egli tuttavia commette l’errore di trascurare il fatto che i mutamenti nell’organizzazione
familiare risentono dei processi di riproduzione materiale delle esistenze. E’ probabile
allora una tematica così complessa possa essere correttamente affrontata solo grazie al
recupero della traccia materialista lasciata da Engels, e in seguito sviluppata da
Kollontaj ed altri. Del resto, proprio dalla rinnovata attenzione verso tali contributi
sembra potersi trarre una delle più promettenti declinazioni del materialismo storico,
legata a Louis Althusser e guarda caso proprio alla estensione logica del concetto di
riproduzione sociale. Dal recupero dei medesimi contributi, infine, si potrebbe anche
ricavare un monito politico per i nostri tempi. Questa è infatti un’epoca in cui tornano a
commettersi errori antichi, che si credevano completamente superati. Per esempio, le
rivendicazioni per i diritti civili appaiono oggi nuovamente velleitarie, essendo state
incomprensibilmente sganciate da quelle per i diritti sociali. Per chi allora soprattutto a
sinistra ha in questi anni coltivato la pretesa di abbandonare il terreno delle battaglie
sociali per sostituirle con delle vaghe istanze liberali di emancipazione civile, vale la
lezione materialista di Kollontaj: soltanto un buon numero di riforme radicali nella sfera
dei rapporti sociali – riforme che trasferirebbero taluni doveri dalla famiglia alla società
e allo stato – potrebbe creare un nuovo assetto delle relazioni tra i generi, e quindi anche
della sessualità e degli affetti (27 agosto 2008).

4.12 Marcello De Cecco: la lucida eresia di un “protezionismo moderato”

L’economista Marcello De Cecco è morto lo scorso 3 marzo, a Roma. Nato nel 1939 a
Lanciano, laureatosi in legge a Parma e in economia a Cambridge, ha insegnato in
numerosi atenei italiani ed esteri, tra cui Norwich, Siena, la Normale di Pisa e la Luiss
di Roma. Dotato di simpatia innata, colto e raffinato interprete della storia della moneta
e della finanza, De Cecco conquistò uno spazio nella ricerca accademica internazionale
per i suoi contributi alla comprensione del “gold standard”, il sistema aureo vigente fino
alla prima guerra mondiale. Il suo Money and Empire, pubblicato nel 1974 da Basil
Blackwell, è considerato un autorevole esempio di analisi storico-critica delle relazioni
monetarie internazionali. Il libro, basato su una accurata disamina delle fonti
documentali, rivela il radicato scetticismo dell’autore verso ogni tentativo di esaminare
le relazioni economiche tra paesi in base a teoremi astratti e decontestualizzati [1].
Alla luce di questa metodologia di ricerca, De Cecco ha avanzato spesso
obiezioni verso la tradizione di pensiero economico sostenitrice dei “meccanismi di
aggiustamento automatico”, secondo i quali le forze spontanee del mercato dovrebbero
essere in grado di garantire l’equilibrio degli scambi commerciali e finanziari tra i
diversi paesi. Per gli esponenti di questa visione, il funzionamento del gold standard era
assicurato dal meccanismo spontaneo secondo cui, per esempio, l’eventuale eccesso di
importazioni di un paese avrebbe dato luogo a un deflusso d’oro verso l’estero tale da
generare un calo di domanda interna e quindi dei prezzi nazionali, con un conseguente
aumento della competitività e un riequilibrio tra import ed export. Sia pure rivisto e
aggiornato, questo tipo di meccanismo rappresenta ancora oggi un ineludibile punto di
riferimento per la maggioranza degli economisti accademici e viene talvolta citato nei
75

rapporti ufficiali delle principali istituzioni monetarie per giustificare politiche di


laissez-faire negli scambi internazionali. Per De Cecco, tuttavia, simili aggiustamenti
spontanei in realtà non hanno mai avuto rilevanza concreta. A suo avviso, piuttosto, le
relazioni economiche tra paesi sono strutturate su basi imperialistiche, intrinsecamente
votate allo squilibrio, condizionate dalle scelte politiche e finanziarie dei governi e
dipendenti in ultima istanza dai rapporti di forza tra capitalismi nazionali. In questo
senso, nei suoi lavori De Cecco ha suggerito che il gold standard prebellico poté
sopravvivere solo fino a quando l’Impero britannico fu in grado di imporre quello che
potremmo definire un regime di governo coloniale dei flussi finanziari internazionali, in
base al quale l’India era tenuta ad assorbire i titoli del debito che la Gran Bretagna
emetteva per coprire il proprio disavanzo estero.

Più di recente, la teoria dei meccanismi automatici di aggiustamento è stata


anche alla base dell’entusiasmo con cui molti economisti accolsero la nascita della
moneta unica europea. L’idea che gli squilibri commerciali e finanziari tra i paesi
dell’Unione monetaria potessero esser facilmente risolti tramite movimenti spontanei
dei prezzi o magari attraverso migrazioni di lavoratori, era piuttosto diffusa vent’anni fa
tra gli studiosi. Questa visione semplicistica, potremmo dire “idraulica”, del
funzionamento dell’Unione monetaria europea, è sempre stata criticata da De Cecco, il
quale anche al caso dell’euro ha applicato i suoi complessi schemi di lettura storica dei
rapporti economici internazionali. In particolare, egli ha più volte segnalato che la
tendenza della Germania ad accumulare surplus commerciali verso l’estero genera il
paradosso di un paese egemone che, anziché svolgere il ruolo tradizionale di creatore e
diffusore della moneta all’interno del sistema che esso domina, tende piuttosto a
risucchiarla presso di sé sottraendola agli altri paesi membri. Tale contraddizione,
secondo De Cecco, non ha precedenti nella storia dei regimi monetari e chiaramente
pregiudica la sostenibilità del processo di unificazione europea [2].
I dubbi sull’efficacia dei meccanismi di aggiustamento automatico interni
all’Unione monetaria non hanno tuttavia mai indotto De Cecco a contestare il progetto
europeo. Membro del consiglio degli esperti economici dei governi Prodi e D’Alema
negli anni Novanta, tra i fondatori del Partito Democratico nel 2007, De Cecco ha
condiviso fino in fondo il percorso politico che ha improvvidamente legato i destini
della sinistra di governo italiana alle speranze di successo dell’integrazione europea.
Anche quando nel 2010 fu tra i firmatari di una lettera di trecento economisti che
evocava la possibilità di una rottura dell’eurozona [3], in privato De Cecco contestò ai
suoi promotori, tra cui il sottoscritto, una frase finale del documento che esplicitamente
contemplava una opzione politica di uscita di uno o più paesi dalla moneta unica. La sua
sfiducia verso un’eventualità del genere era fondata sul timore che l’abbandono
dell’euro sfociasse in un mero deprezzamento del cambio, magari lasciato alle forze
erratiche del mercato: una soluzione che a suo avviso avrebbe solo favorito quegli
spezzoni di piccolo capitalismo, arretrato e talvolta parassitario, che in passato già
avevano fatto tanti danni e sui quali non riteneva possibile fondare alcuna reale speranza
di sviluppo economico ed emancipazione civile del paese.
Il fatto che rigettasse la mera ipotesi di un ritorno alle valute nazionali, non
consente tuttavia di collocare l’economista di origine abruzzese tra i rassegnati alle
lacrime e al sangue dell’attuale processo di integrazione europea. Sia pure con
discrezione e senza clamori, Marcello De Cecco ha sempre portato avanti, in accademia
e in campo divulgativo, una tesi assolutamente eretica e controcorrente: vale a dire
76

l’idea di avviare una riflessione critica sugli effetti della indiscriminata apertura ai
movimenti internazionali di capitali e di merci, e di immaginare delle ipotesi di
ripristino di forme coordinate di controllo degli scambi tra paesi. In un articolo
pubblicato nell’aprile 2010 sulla Rivista italiana degli economisti, De Cecco passò in
rassegna le posizioni degli economisti italiani del Novecento in tema di
liberoscambismo: esaminando gli scritti di un giovanissimo Franco Modigliani, di
Marco Fanno, di Giorgio Fuà e vari altri, egli mostrò che le critiche all’apertura
incontrollata alle transazioni con l’estero risultavano prevalenti [4]. Nel 2013, nella
introduzione al suo ultimo libro, De Cecco fu poi ancor più esplicito: egli scrisse che
l’aver screditato e messo da parte per più di un cinquantennio soluzioni come il
protezionismo e la regolamentazione degli scambi «come se si trattasse di pulsioni
peccaminose e indegne di una nuova e superiore organizzazione internazionale, è stato
colpevole e persino stupido, perché in forma blanda esse dovevano rimanere in voga»
mentre oggi ci si ritrova a ripristinarle «velocemente e in dosi assai maggiori, senza
usufruire dei vantaggi che sarebbero derivati da dosi moderate, e correndo in pieno il
pericolo di precipitare il mondo intero in un nuovo disordine internazionale» [5].
Anche in sede politica De Cecco provò di tanto in tanto ad avanzare tesi simili.
Nel mezzo della crisi degli spread, in una riunione presso la sede del PD con l’allora
segretario Bersani e il responsabile economico del partito Fassina, con la sua
proverbiale flemma De Cecco dichiarò che l’ipotesi di un moderato protezionismo verso
la Germania in fondo non andava scartata a priori, a condizione che l’Italia potesse
delinearla in accordo con la Francia, un paese caratterizzato da strutture produttive per
più di un verso complementari alle nostre. Ricordo che Bersani restò attonito. I tempi
evidentemente non erano maturi.
Negli ultimi anni della sua vita Marcello De Cecco considerava sempre più
tangibile il rischio di un rapido riflusso verso forme di ultranazionalismo e di razzismo,
ma lo interpretava come una tremenda eterogenesi dei fini del globalismo
indiscriminato e dell’europeismo acritico che negli anni precedenti avevano
imperversato tra le forze politiche, specie a sinistra. Questo nesso di causa ed effetto
suggerisce un’interpretazione non banale della storia recente delle relazioni
internazionali. Su di esso sarebbe utile provare a riflettere (4 marzo 2016).

[1] Marcello De Cecco, Money and Empire: the International Gold Standard 1890-1914 (Oxford: Basil
Blackwell 1974). Cfr. anche la precedente versione italiana del volume: Economia e finanza
internazionale dal 1890 al 1914 (Bari: Laterza 1971), in seguito riproposta in versione ampliata sotto il
titolo Moneta e impero: il sistema finanziario internazionale dal 1890 al 1914 (Torino: Einaudi 1979).
[2] Cfr. per esempio Marcello De Cecco e Fabrizio Maronta, “Il dollaro non teme rivali” (Limes. Rivista
italiana di geopolitica, 2/2015).
[3] AA.VV., “Lettera degli economisti” (Il Sole 24 Ore, 14 giugno 2010; www.letteradeglieconomisti.it).
[4] Marcello De Cecco, “Gli economisti italiani e l’economia internazionale nel Novecento” (Rivista
italiana degli economisti, 2010/1).
[5] Marcello De Cecco, Ma cos'è questa crisi (Roma: Donzelli Editore, 2013).

Potrebbero piacerti anche