Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Emiliano Brancaccio
APPUNTI DI
POLITICA ECONOMICA
SECONDA VERSIONE
Febbraio 2018
2
Indice
2. POLITICHE STRUTTURALI
4.1 Tobin
4.2 Tarantelli
4.3 Graziani
4.4 Modigliani I
4.5 Modigliani II
4.6 Dornbusch
4.7 Debreu
4.8 Galbraith
4.9 Friedman
4.10 Spaventa
4.11 Kollontaj
4.12 De Cecco
3
Tali Appunti vanno studiati assieme al testo “Anti-Blanchard” (terza edizione, Franco
Angeli, Milano 2017).
L’economista neoclassico Lionel Robbins definì la politica economica come “il corpo
dei principi dell’azione o dell’inazione del governo rispetto all’attività economica”
(Robbins 1935). Tra gli esponenti delle scuole di pensiero critico, Federicò Caffè ha
proposto la seguente definizione di politica economica: “la disciplina che cerca le regole
di condotta tendenti a influire sui fenomeni economici in vista di orientarli in un senso
desiderato” (1978). Si tratta di definizioni molto generali, che in astratto possono valere
per diversi tipi di sistemi economici, siano essi capitalistici oppure anche pianificati.
funzionamento dei sistemi economici e degli effetti su di essi delle politiche attuate
dalle autorità di governo. In questa sede, prendendo spunto dal volume “Anti-
Blanchard”, adotteremo un approccio comparato tra quelle che semplificando al
massimo possono esser considerate due diverse visioni della politica economica: la
corrente principale di ispirazione neoclassica, detta mainstream, di cui Olivier
Blanchard è uno dei massimi esponenti contemporanei, e una visione alternativa che
trae origine dai contributi di vari studiosi appartenenti a diverse epoche, tra cui Marx,
Keynes, Sraffa, Leontief, Minsky, Simon e altri.
Queste diverse visioni danno luogo a un’ampia serie di dibattiti e di controversie sul
ruolo da attribuire alla politica economica. L’esistenza di dispute teoriche, del resto, non
è una prerogativa esclusiva delle scienze economiche. In tutti i campi del sapere, dalla
fisica alla biologia, specialmente in alcune fasi evolutive della ricerca si assiste ad
accesi confronti fra i ricercatori in merito alla scelta della teoria maggiormente in grado
di descrivere la realtà oggetto di studio. In questi ambiti della scienza l’orientamento
della ricerca viene solitamente guidato dalla capacità o meno delle diverse teorie di
superare il banco di prova della verifica empirica, ossia della loro rispondenza o
meno di ciascuna teoria ai dati esistenti. Lo stesso dovrebbe valere per gli studi
economici: se una teoria stabilisce che la spesa pubblica non ha alcun effetto
sull’andamento della produzione e dell’occupazione, mentre un’altra teoria ritiene che
l’effetto esista e sia rilevante, toccherà in primo luogo alle verifiche empiriche stabilire
quale delle due impostazioni debba ritenersi più robusta alla prova dei dati. Ovviamente,
quello del rapporto fra teoria e dati è un argomento delicato, complesso e controverso,
che è alla base dell’epistemologia, una disciplina che si occupa di metodo scientifico.
Tale complessità investe tutte le scienze, non solo l’economia. In genere si afferma che
nel campo dell’economia politica, e ancor più della politica economica, il rapporto fra la
teoria e la prova dei dati è reso ancor più controverso per due motivi, uno tecnico e
l’altro ideologico: in primo luogo, la maggior parte dei fenomeni non è replicabile in
laboratorio; in secondo luogo, i temi affrontati investono enormi interessi economici e
sociali che possono condizionare l’avanzamento della ricerca. Ma a ben guardare questi
due problemi toccano in misura più o meno significativa quasi tutti i campi della ricerca
scientifica. L’esistenza di tali difficoltà rende l’attività di ricerca epistemologicamente
più difficile, ma non dovrebbe mai pregiudicarla. Un aggiornato metodo scientifico
dovrebbe dunque restare il banco di prova delle teorie in tutti i campi del sapere, inclusa
la politica economica.
Tra i numerosi esempi di disputa tra gli economisti, vi è quello relativo alla validità
della teoria quantitativa della moneta e delle sue varianti moderne. Come è noto, la
teoria quantitativa venne ideata da Irving Fisher nel 1911 e le conclusioni sono oggi
sostanzialmente riproposte nelle versioni standard del modello mainstream di domanda
e offerta aggregata. Questa teoria prevede che, nel lungo periodo, ogni eventuale
variazione della quantità di moneta emessa dalla banca centrale implichi solo una
variazione proporzionale del livello generale dei prezzi, e non abbia invece ripercussioni
durature sulla produzione e sull’occupazione. Più in generale, la teoria mira a stabilire
che la politica della banca centrale può controllare l’andamento di lungo periodo
dell’inflazione. L’effetto di lungo periodo della politica monetaria, dunque, riguarda
solo variabili monetarie come il livello dei prezzi, mentre non tocca le variabili reali
6
Definendo con M la quantità di moneta emessa dalla banca centrale, con V la velocità di
circolazione di ciascuna unità di moneta emessa, con P il livello generale dei prezzi e
con Y il livello del PIL, la teoria quantitativa corrisponde alla seguente relazione:
PY = MV
Questa può esser considerata una identità contabile piuttosto ovvia, nel senso che a date
condizioni si può ritenere che il valore delle merci prodotte e scambiate in un anno
corrisponda necessariamente al valore della contropartita in moneta scambiata nello
stesso anno per effettuare gli acquisti di quelle merci. La mera relazione contabile
diventa però una teoria economica se si fanno le seguenti ipotesi sull’andamento delle
variabili in gioco. Supponendo che V sia un parametro determinato dalle abitudini di
pagamento della popolazione e che la produzione Y sia in “equilibrio naturale”,
possiamo affermare che per ogni dato livello di M deciso dalla banca centrale esisterà
un solo livello di P di equilibrio. Ogni variazione di M dovrebbe quindi influire solo
su P:
P = MV/Y
La stessa relazione può essere poi espressa non in termini di livelli ma in termini di tassi
di variazione. Consideriamo le variabili in questione in due anni consecutivi, indicati
rispettivamente con i pedici zero e uno. Possiamo riscrivere l’equazione della teoria
quantitativa in questi termini:
𝑀1 𝑉1 𝑀1 𝑉1
𝑃1 𝑌 𝑃1 𝑀0 𝑉0
= 1 da cui =
𝑃0 𝑀0 𝑉0 𝑃0 𝑌1
𝑌0 𝑌0
Ora, se prendiamo una qualsiasi variabile generica X e definiamo con x = (X1 – X0)/X0
il suo tasso di variazione percentuale nel tempo, è facile dimostrare che (X1/X0) = 1 + x.
Applicando questo risultato a P, M, V, Y, tramite semplici passaggi l’equazione della
teoria quantitativa può essere riformulata nei seguenti termini:
(1 + 𝑚)(1 + 𝑣)
1+𝑝 =
(1 + 𝑦)
Dove p è il tasso d’inflazione, y è il tasso di crescita del PIL, m è la crescita della massa
monetaria e v indica le eventuali variazioni nella velocità di circolazione della moneta.
Da ciò, moltiplicando e riarrangiando otteniamo:
𝑝 = (1 + 𝑚 + 𝑣 + 𝑚𝑣 − 1 − 𝑦)/(1 + 𝑦)
7
(1) 𝑝 ≈ 𝑚 + 𝑣 − 𝑦
Se per ipotesi si assume che Y sia costante al suo “equilibrio naturale” e che pure V sia
costante, allora y = 0 e v = 0, per cui p ≈ m. In altre parole, ogni variazione della
quantità di moneta determina solo una variazione proporzionale dell’inflazione. Più in
generale, per ogni dato tasso di variazione v della velocità di circolazione della moneta,
e per ogni dato tasso di crescita y della produzione “naturale”, si può affermare che se la
banca centrale controlla la variazione m della crescita monetaria allora dovrebbe
controllare anche il tasso d’inflazione p.
Nei primi anni della sua esistenza la Banca Centrale Europea (BCE) ha sostenuto di
voler controllare l’inflazione basandosi proprio sulla teoria quantitativa della
moneta. Come è noto, il Trattato dell’Unione europea attribuisce alla BCE il compito di
tenere il tasso d’inflazione stabile ed entro il limite massimo del 2% annuo. In questo
senso, ritenendo che il tasso di crescita “naturale” del PIL dell’eurozona fosse del 2,5%
(y = 0,025) e stimando che a causa di varie innovazioni finanziarie la velocità di
circolazione della moneta diminuisse di circa lo 0,5% all’anno (v = 0,005), la BCE ha
stabilito come obiettivo d’inflazione un tasso d’inflazione annuo dell’1,5% (p = 0,015),
e dall’equazione (1) ha determinato un tasso di crescita della moneta del 4,5%
necessario per perseguire quell’obiettivo:
In realtà, come si evince dal grafico di Fig. 1 riferito ai primi quindici anni di vita
dell’Eurozona, il legame tra la crescita monetaria e l’inflazione non è così forte né
così stabile come la teoria quantitativa indurrebbe a credere. Prendendo come
riferimento l’aggregato monetario M3 costituito da monete metalliche, banconote,
depositi a vista e titoli liquidi di scadenza inferiore a un anno, si può notare che gli
andamenti della crescita monetaria m e dell’inflazione p risultano piuttosto diversi: tra il
1999 e il 2007 si registrano significativi mutamenti di m ai quali però non
corrispondono analoghe variazioni di p, mentre tra il 2010 e il 2011 si registrano
addirittura andamenti divergenti tra le due grandezze.
8
La divergenza tra crescita della moneta e inflazione è risultata ancor più accentuata
negli ultimi anni, quando la BCE ha avviato una intensa politica di espansione
monetaria durante la quale, però, l’inflazione ha continuato a diminuire fino a diventare
addirittura negativa.
Per egli esponenti della visione alternativa di politica economica queste evidenze stanno
a indicare che la teoria quantitativa è errata, e che più in generale le azioni della
banca centrale sulla quantità di moneta, così come sui tassi d’interesse, non sono in
grado di controllare l’inflazione. Anche tra gli esponenti del mainstream sorgono oggi
vari dubbi circa l’idea che l’andamento dei prezzi possa esser governato dalla sola
politica monetaria. Nell’ambito dell’approccio dominante, tuttavia, sono tuttora molti i
seguaci della teoria quantitativa o di sue varianti più recenti, le quali insistono sull’idea
che la banca centrale possa tenere sotto controllo il tasso d’inflazione.
Le politiche monetarie “non convenzionali” non stanno dando i risultati sperati. Il quantitative easing, così
come le manovre tese a portare i tassi d’interesse nominali verso lo zero o addirittura a livelli negativi, non
9
appaiono in grado di sospingere l’inflazione e la crescita del PIL verso il loro sentiero “normale”, né
sembrano capaci di allontanare le principali economie avanzate dal precipizio della deflazione. L’Unione
monetaria europea è in questo senso un caso esemplare. La BCE ha abbattuto il costo del denaro e ha
accresciuto la liquidità in circolazione in una misura impensabile prima dell’inizio della crisi. Ciò nonostante,
l’inflazione dell’eurozona è addirittura tornata in territorio negativo e non vi è certezza sulla possibilità che
arrivi almeno ad azzerarsi alla fine dell’anno.
In questo scenario, da più parti hanno iniziato a diffondersi dubbi sul modo convenzionale in cui viene
interpretato il ruolo dei banchieri centrali. Alcuni commentatori sostengono che dopo la “grande recessione”
iniziata nel 2008 le autorità monetarie dovrebbero ampliare ulteriormente gli strumenti d’intervento e
soprattutto dovrebbero smetterla di perseguire di obiettivi rigidi d’inflazione per puntare invece verso target
più flessibili, come ad esempio una data crescita del reddito nominale.
Fuori e dentro le istituzioni, i segnali di interesse verso tali proposte non mancano. A ben guardare, tuttavia,
questo modo di affrontare il problema della inefficacia delle politiche monetarie presenta un grave limite. Sia
che si adottino i vecchi obiettivi d’inflazione sia che si scelgano target più flessibili, le ricette suggerite
continuano a basarsi sul vecchio assunto monetarista secondo cui le banche centrali sarebbero in grado, in un
modo o nell’altro, di controllare la spesa aggregata. Non viene neanche presa in considerazione la possibilità
che gli strumenti delle banche centrali, più o meno convenzionali, non siano in grado di controllare la spesa
aggregata e quindi, in generale, non consentano di perseguire nessuno degli obiettivi che si prefiggono, che si
tratti di inflazione o anche di reddito nominale.
Un articolo di prossima pubblicazione sul Journal of Post-Keynesian Economics fornisce nuovi elementi a
sostegno della tesi secondo cui le banche centrali, in generale, non sono in grado di governare la spesa
aggregata (Brancaccio, Fontana, Lopreite, Realfonzo 2015; cfr. anche Brancaccio, Califano, Lopreite, Moneta
2018). Utilizzando un modello VAR con dati trimestrali per l’area euro tra il 1999 e il 2013, gli autori hanno
indagato sull’esistenza o meno di relazioni statistiche tra l’andamento del tasso d’interesse di mercato o dei
tassi di rifinanziamento della BCE da un lato, e la dinamica del reddito nominale intorno al suo trend di lungo
periodo dall’altro.
L’analisi empirica ha mostrato che gli scostamenti del reddito nominale dal trend non sono
influenzati dai movimenti dei tassi di interesse: in particolare, la riduzione del costo del denaro non sembra in
alcun modo favorire un recupero del reddito nominale verso il suo andamento tendenziale di lungo periodo.
A quanto pare, dunque, governando i tassi d’interesse il banchiere centrale non è in grado di controllare la
spesa aggregata e quindi non può incidere efficacemente sull’andamento della produzione, dell’occupazione,
del reddito nominale, e tantomeno dell’inflazione. L’evidenza, in effetti, contrasta con tutte le interpretazioni
convenzionali dell’operato delle banche centrali, dalla famigerata “regola di Taylor” alle più recenti regole
fondate su un “target di reddito nominale”.
L’analisi empirica ha evidenziato pure che gli scostamenti del reddito nominale effettivo dal suo
trend di lungo periodo influenzano l’andamento del tasso d’interesse: per esempio, a una crescita del reddito
più blanda rispetto al trend corrisponde una riduzione dei tassi d’interesse, e viceversa. Questo risultato
sembra supportare un’interpretazione del ruolo della banca centrale le cui origini risalgono al celebre Lombard
Street di Walter Bagehot, e che è stata poi ripresa e sviluppata da vari studiosi di orientamento critico. Questo
filone di ricerca alternativo suggerisce che il ruolo effettivo del banchiere centrale è più complesso di quello
che gli viene solitamente attribuito: esso consiste nel regolare la solvibilità delle unità economiche e più in
generale la stabilità finanziaria del sistema. L’autorità monetaria, cioè, muoverebbe i tassi d’interesse nella
stessa direzione del reddito nominale non certo per tentare di governare quest’ultimo, che è fuori dalla sua
portata, ma allo scopo non meno rilevante di controllare la differenza tra reddito e onere del debito, in modo
da tenere a bada la dinamica dei fallimenti, delle bancarotte e delle liquidazioni del capitale.
Secondo questa visione, il banchiere centrale agisce come “regolatore” di un conflitto tra capitali
solvibili, capaci di accumulare profitti superiori al servizio del debito, e capitali in perdita e dunque
potenzialmente insolventi. Tale conflitto è inoltre tanto più violento quanto più restrittiva sia la politica fiscale
del governo, che riduce i redditi nominali medi e colloca quindi un numero maggiore di unità economiche
sotto la linea dell’insolvenza. Dati gli orientamenti delle politiche di bilancio, dunque, il modo in cui la banca
centrale manovra il tasso d’interesse rispetto al reddito nominale medio influisce sul ritmo delle insolvenze e
sulla connessa “centralizzazione” dei capitali: vale a dire, sulle liquidazioni dei capitali più deboli e sul loro
progressivo assorbimento ad opera dei capitali più forti (Brancaccio e Fontana 2015).
Questa diversa interpretazione della politica monetaria consente di guardare sotto un’altra luce anche
l’attuale scenario dell’eurozona. Con politiche di bilancio pubblico votate all’austerity, in vari paesi la crescita
nominale del reddito resta troppo bassa, situandosi spesso al di sotto dei tassi d’interesse di mercato. Ciò
significa che l’attuale politica monetaria della BCE non è in grado di frenare la tendenza europea alla
10
centralizzazione, ossia alle liquidazioni dei capitali situati nelle aree periferiche e alla loro eventuale
acquisizione da parte di capitali presenti in Germania e nelle zone caratterizzate da migliori andamenti
macroeconomici. Questa tendenza è ben documentata dalla drammatica divaricazione tra i tassi di insolvenza
delle imprese europee (Creditreform 2016). Tra il 2007 ed il 2015 la Germania ha segnato una riduzione delle
insolvenze delle imprese a un ritmo medio del 3 percento all’anno. Al contrario, nello stesso periodo Spagna,
Portogallo e Italia hanno fatto registrare una violenta crescita delle insolvenze, con incrementi medi
rispettivamente del 37, del 21 e del 16 percento all’anno. Negli ultimi tempi in Spagna si è assistito a un calo
dei fallimenti, che tuttavia non consente nemmeno di avvicinarsi alla situazione ante-crisi. In Italia il quadro
non migliora, mentre in Portogallo nell’ultimo anno si registra addirittura un ulteriore aggravamento delle
bancarotte. Si tratta di una forbice senza precedenti, che oltretutto si ripercuote sugli andamenti dei bilanci
delle banche dei diversi paesi dell’Unione, creando i presupposti per nuove, asimmetriche crisi bancarie.
E’ dunque illusorio pensare che la BCE, da sola, sia in grado di contrastare la deflazione. La sua
politica monetaria, piuttosto, influisce sulle insolvenze e sulle liquidazioni dei capitali, che tuttora colpiscono
in modo asimmetrico i paesi membri dell’Unione. Anziché attardarsi su target d’inflazione impossibili, è su
quest’ultimo problema che il dibattito di politica monetaria dovrebbe maggiormente concentrarsi.
Bibliografia
Brancaccio, E., Fontana, G. (2015). ‘Solvency rule’ and capital centralisation in a monetary union, Cambridge Journal of Economics,
advance access online, 29 October.
Brancaccio, E., Fontana, G., Lopreite, M., Realfonzo, R. (2015). Monetary Policy Rules and Directions of Causality: A test for the Euro
Area, Journal of Post Keynesian Economics, 38 (4).
Brancaccio, E., Califano, A., Lopreite, M., Moneta, A. (2018). Nonperforming Loans and Alternative Rules of Monetary Policy: a Data-
Driven Investigation (submitted).
Creditreform (2016), Unternehmensinsolvenzen in Europa, Jahr 15/16.
Fin qui abbiamo discusso di controversie. Tra gli esponenti delle diverse scuole di
pensiero economico, tuttavia, possono anche verificarsi episodi di convergenza nella
interpretazione di determinati fenomeni. Nel caso della crisi dell’Eurozona e
dell’Unione europea, iniziata nel 2010 e ancora non superata, la “Lettera degli
economisti” pubblicata il 10 giugno 2010 sul Sole 24 Ore e il successivo “Monito degli
economisti” pubblicato il 23 settembre 2013 sul Financial Times, rappresentano esempi
interessanti. Questi documenti, infatti, sono stati sottoscritti da studiosi che, sebbene
appartenenti a diversi filoni di ricerca, hanno scelto di condividere una particolare
interpretazione critica delle politiche economiche che le autorità europee e i governi dei
paesi membri dell’Unione hanno adottato per fronteggiare la crisi.
11
Nel 1919 John Maynard Keynes contestò il Trattato di Versailles con parole lungimiranti: «Se
diamo per scontata la convinzione che la Germania debba esser tenuta in miseria, i suoi figli
rimanere nella fame e nell’indigenza […], se miriamo deliberatamente alla umiliazione
dell’Europa centrale, oso farmi profeta, la vendetta non tarderà». Sia pure a parti invertite, con i
paesi periferici al tracollo e la Germania in posizione di relativo vantaggio, la crisi attuale
presenta più di una analogia con quella tremenda fase storica, che creò i presupposti per l’ascesa
del nazismo e la seconda guerra mondiale. Ma la memoria di quegli anni sembra persa: le
autorità tedesche e gli altri governi europei stanno ripetendo errori speculari a quelli commessi
allora. Questa miopia, in ultima istanza, è la causa principale delle ondate di irrazionalismo che
stanno investendo l’Europa, dalle ingenue apologie del cambio flessibile quale panacea di ogni
male fino ai più inquietanti sussulti di propagandismo ultranazionalista e xenofobo (The
economists’ warning, FT).
La tesi del “monito degli economisti”, dunque, è che l’austerity imposta dal trattato di
Versailles, e la crisi e la disoccupazione che ne conseguirono, crearono i presupposti per
l’ascesa del nazismo in Germania e per la seconda guerra mondiale. Questa idea trova
oggi alcune conferme statistiche. Una recente ricerca pubblicata dal National Bureau of
Economic Research evidenzia che tra il 1930 e il 1932 ogni restrizione di bilancio
pubblico – ad esempio una riduzione della spesa pubblica – di un punto risulta associata
a aumento dei voti al partito nazista di due punti e mezzo.1
Quello descritto è uno dei tanti esempi dell’influenza che la politica economica e i
connessi fenomeni economici possono avere sugli sviluppi più generali della politica.
Ma la relazione tra la politica economica e le dinamiche più generali della politica può
essere notata anche in altri modi, ad esempio esaminando i programmi elettorali dei
1
Galofré-Vilà et al. (2017), Austerity and the rise of the nazi party, NBER working paper 24106.
12
partiti. Una parte consistente di tali programmi, per non dire prevalente, risulta
composta da proposte di politica economica. Un tragico esempio è rappresentato proprio
dal programma politico del partito nazista del 1920, che tra i suoi primissimi obiettivi
poneva proprio il rigetto del trattato di Versailles e dei connessi debiti da pagare ai
vincitori del primo conflitto mondiale, oltre a propositi di stampo dichiaratamente
razzista e guerrafondaio. Un altro celebre esempio storico di programma politico
generale che avanzi pure specifiche proposte di politica economica può essere
rintracciato nel “Manifesto del partito comunista” di Karl Marx e Friedrich Engels del
1848.
[…] la prima tappa della rivoluzione operaia consiste nel fatto che il proletariato si elevi a classe dominante, ossia nel
raggiungere vittoriosamente la democrazia. Il proletariato si servirà del suo dominio politico per togliere via via alla
borghesia tutto il capitale, per concentrare nelle mani dello stato tutti gli strumenti della produzione, ossia nelle mani
del proletariato organizzato come classe dominante, e per aumentare con la massima velocità possibile le forze
produttive. Naturalmente tutto ciò non può accadere se non attraverso misure dispotiche contro il diritto di proprietà e
violazioni dei rapporti borghesi di produzione, ossia con misure che appariranno economicamente insufficienti e
insostenibili, che nel corso del movimento supereranno se stesse verso nuove misure, ma che nel frattempo sono i
mezzi indispensabili per rivoluzionare l’intero modo di produzione. Com’è ovvio, tali misure saranno diverse da
paese a paese. Ma per i paesi più progrediti, potranno essere generalmente applicate le misure che qui di seguito
indichiamo:
1. Espropriazione della proprietà fondiaria e impiego della rendita fondiaria per le spese dello stato.
2. Imposta fortemente progressiva.
3. Abolizione del diritto di eredità.
4. Confisca dei beni degli emigrati e dei ribelli.
5. Accentramento del credito nelle mani dello stato attraverso una banca nazionale con capitale di Stato e con
monopolio esclusivo.
6. Accentramento dei mezzi di trasporto nelle mani dello stato.
7. Aumento delle fabbriche nazionali e degli strumenti di produzione, dissodamento e miglioramento dei terreni
secondo un piano generale.
8. Uguale obbligo di lavoro per tutti, organizzazione di eserciti industriali specialmente per l’agricoltura.
9. Unificazione dell’esercizio dell’agricoltura e dell’industria e misure atte a preparare la progressiva eliminazione
della differenza fra città e campagna.
10. Educazione pubblica e gratuita di tutti i fanciulli. Abolizione del lavoro dei fanciulli nelle fabbriche nella sua
forma attuale. Combinazione dell’educazione con la produzione materiale.
Quando nel corso degli eventi le differenze di classe saranno sparite e tutti i mezzi di produzione saranno concentrati
nelle mani degli individui associati, il potere pubblico avrà naturalmente perso ogni carattere politico. Il potere
politico, nel senso vero e proprio della parola, non è se non il potere organizzato di una classe per l’oppressione di
un’altra. Ora, se il proletariato nella lotta contro la borghesia è spinto a costituirsi in classe, e se attraverso la
rivoluzione diventa classe dominante, distruggendo violentemente gli antichi rapporti di produzione, in questo modo
esso, abolendo tali rapporti, abolisce le condizioni di esistenza dell’antagonismo di classe, e cioè abolisce le classi in
generale e il suo proprio dominio di classe. Al posto della società borghese, con le sue classi ed i suoi antagonismi di
classe, subentrerà un’associazione nella quale il libero sviluppo di ciascuno sarà la condizione del libero sviluppo di
tutti. […]
Ma esistono anche esempi più recenti dell’enorme peso dei temi di politica economica
sulle dinamiche generali della politica. Un caso molto noto è rappresentato dalla
campagna statunitense per le elezioni presidenziali del 1992. Il presidente allora in
carica, il repubblicano George Bush padre, aveva impostato la sua campagna per la
rielezione sulla vittoria militare appena conseguita dagli USA e dalle forze alleate
13
1) 𝐶 = 𝐶0 + 𝑐1 (𝑌 − 𝑇)
14
2) 𝐼 = 𝐼0
3) 𝐺 = 𝐺0
4) 𝑇 = 𝑇0 + 𝑡𝑌
5) 𝑌 = 𝐶 + 𝐼 + 𝐺
La forma strutturale del modello è utile per comprendere la concezione che esso
suggerisce in merito al funzionamento del sistema economico. Tuttavia, per calcolare le
endogene è utile passare alla forma ridotta. A tale scopo possiamo esprimere le
endogene Y, C in funzione delle sole esogene. Sostituendo e riarrangiando, otteniamo il
seguente sistema (1’) di due equazioni in due incognite Y e C:
1
𝑌= (𝑐 + 𝐼0 + 𝐺0 − 𝑐1 𝑇0 )
1 − 𝑐1 (1 − 𝑡) 0
(1′ )
𝑐1 (1 − 𝑡)(𝑐0 + 𝐼0 + 𝐺0 − 𝑐1 𝑇0 )
𝐶 = 𝑐0 − 𝑐1 𝑇0 +
1 − 𝑐1 (1 − 𝑡)
La forma ridotta, come si può notare, per l’appunto “riduce” il numero di equazioni al
numero delle endogene esistenti nel modello, e consente di determinare subito tali
variabili endogene dal momento che le esprime solo in funzione delle esogene e dei
parametri, ossia di termini considerati già noti.
ESEMPIO: assumendo che il parametro del sistema economico sia c1 = 0,8, che le
variabili esogene di comportamento degli agenti privati siano c0 = 50, I0 = 150, e che le
variabili esogene di politica economica siano G0 = 120, , t = 0,1, T0 = 100, verifica che
le due variabili endogene corrispondono a Y = 857,14 e C = 587,14.
𝑦1 = 𝑓1 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )
𝑦2 = 𝑓2 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )
… … .. … … … . .
𝑦𝑚 = 𝑓𝑚 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )
dove i termini aij rappresentano i parametri del modello. Questo tipo di sistemi potrà
essere espresso anche in forma di algebra matriciale, con y vettore (m x 1) delle
endogene, x vettore (n x 1) delle esogene e A matrice (m x n) dei coefficienti:
y = Ax
Tra le variabili di un modello di politica economica esistono anche quelle che assolvono
al ruolo di obiettivi politici e quelle che fungono da strumenti per il perseguimento
degli obiettivi.
Gli strumenti indicano quelle variabili che vengono usate dai policymakers come leve
per raggiungere un dato obiettivo di politica economica. Ovviamente uno strumento è
tale se risulta effettivamente controllabile dall’autorità di governo. Consideriamo ad
esempio il caso di una banca centrale che intenda controllare il tasso d’interesse interno
per perseguire determinati obiettivi di occupazione e sostenibilità del debito. In una
situazione di perfetta mobilità internazionale dei capitali i possessori di capitali
cercano di spostare le loro ricchezze in quei paesi che garantiscono i maggiori vantaggi,
e in particolare assicurano tassi d’interesse più elevati rispetto agli altri. Pertanto, i
16
movimenti di capitale si arrestano solo nel momento in cui i titoli dei vari paesi offrono
il medesimo rendimento, al netto delle variazioni attese del tasso di cambio. La
condizione sotto la quale gli spostamenti di capitale si interrompono, e che mette
dunque in equilibrio i mercati, è detta condizione di arbitraggio o condizione di parità
scoperta dei tassi d’interesse. Nel manuale di macroeconomia di Blanchard tale
condizione è data da:
Et
1 it (1 it* )
Ete1
dove la parte sinistra indica il rendimento i che si ottiene acquistando titoli nazionali,
mentre la parte destra indica il rendimento i* derivante dall’acquisto di titoli esteri.
Questo secondo rendimento, si badi, è calcolato includendo le eventuali variazioni
attese del tasso di cambio nominale E. Finché la parte sinistra risulta inferiore alla parte
destra dell’equazione, allora conviene spostare i capitali all’estero per acquistare titoli
stranieri, che rendono di più. Viceversa, nel caso in cui la parte sinistra sia maggiore,
conviene tenere i capitali in patria. Si comprende pertanto che se la banca centrale vuole
evitare fughe di capitali all’estero, dovrà fissare un tasso d’interesse interno in grado di
rispettare la condizione di parità scoperta, dati il tasso prevalente all’estero e il tasso di
cambio atteso. Il risultato è che il tasso d’interesse nazionale i non si trova sotto il
pieno controllo della banca centrale, e quindi difficilmente potrà esser considerato
uno strumento di politica economica. Una sezione del volume “Anti-Blanchard” è
dedicata ai criteri tramite i quali si può nuovamente rendere il tasso d’interesse uno
strumento controllabile dalla banca centrale, tramite ad esempio tassazioni o controlli
amministrativi sui movimenti internazionali di capitale.
Una variabile, per esser considerata uno strumento, deve anche avere un impatto sulle
variabili obiettivo del modello. Riprendiamo ad esempio il modello keynesiano (1’) di
determinazione della produzione di equilibrio. Se l’obiettivo è quello di conseguire un
certo livello di produzione Y, la spesa pubblica G potrà esser considerata un valido
strumento di policy solo se la derivata della produzione rispetto alla spesa pubblica
dY/dG è maggiore di zero. Ossia:
𝑑𝑌 1
(6) = >0
𝑑𝐺 1 − 𝑐1 (1 − 𝑡)
Infine, riprendiamo il modello in forma ridotta descritto alla fine del paragrafo
precedente. Possiamo affermare che quando il modello viene esaminato da un punto di
vista puramente positivo, allora gli obiettivi y sono considerati endogene da determinare
mentre gli strumenti x sono valutati come esogene date, proprio come rappresentato nel
modello del paragrafo precedente. Se però si vuole analizzare il modello da un punto di
vista normativo, allora è preferibile ribaltare l’analisi considerando gli obiettivi y come
variabili esogene predeterminate dall’autorità politica, e gli strumenti x come variabili
endogene da determinare in funzione degli obiettivi fissati. In pratica, se prima avevamo
equazioni del tipo y = f(x), ora bisogna calcolare le rispettive funzioni inverse e ottenere
x = f-1(y). Si ottiene così la forma ridotta inversa del modello:
𝑥1 = 𝛾1 (𝑦1 , 𝑦2 , … , 𝑦𝑚 )
𝑥2 = 𝛾2 (𝑦1 , 𝑦, … , 𝑦𝑚 )
… … .. … … … . .
𝑥𝑛 = 𝛾𝑚 (𝑦1 , 𝑦2 , … , 𝑦𝑚 )
Possiamo sintetizzare questi risultati nella cosiddetta “regola aurea della politica
economica” suggerita dal premio Nobel Jan Timbergen: condizione necessaria
affinché un modello di politica economica a obiettivi fissi sia controllabile, è che il
numero degli strumenti sia almeno pari al numero degli obiettivi.
𝐺0 = 𝑌 − 𝐶 − 𝐼0
(1”)
𝑐0 − 𝐶
𝑇0 = + (1 − 𝑡)𝑌
𝑐1
ESEMPIO: assumendo che il parametro del sistema economico sia c1 = 0,8, che le
variabili esogene di comportamento di famiglie e imprese private siano C0 = 50, I0 =
150, che l’aliquota d’imposta sia t = 0,1 e che gli obiettivi di politica economica siano
variabili esogene fissate a Y = 857,14 e C = 587,14, utilizza il sistema in forma ridotta
inversa (1”) per verificare che tali obiettivi esogeni possono essere conseguiti solo se gli
strumenti di politica economica corrispondono a G0 = 120 e T0 = 100.
Abbiamo detto che quando gli obiettivi fissi eccedono gli strumenti il sistema è
sovradeterminato e il modello di politica economica non ammette soluzioni. Un modo
per ovviare al problema può consistere nel ridurre il numero degli obiettivi e nel renderli
flessibili. Per esempio, supponiamo che gli obiettivi di politica economica siano due,
l’inflazione e la disoccupazione, e che l’unico strumento di policy disponibile sia
soltanto la spesa pubblica. In tal caso, per rendere il modello controllabile le autorità
possono ridurre i due obiettivi a uno solo, convogliando l’inflazione e la disoccupazione
in un’unica funzione, detta “funzione di perdita” (loss function) del policymaker. Un
esempio di funzione di perdita può essere questo:
𝐿 = 𝛾1 (𝜋 − 𝜋 ∗ )2 + 𝛾2 (𝑢 − 𝑢∗ )2
𝑂𝑀𝐼 = 𝜋 + 𝑢
𝜋 = 𝑂𝑀𝐼 − 𝑢
𝜋 = 𝛼 − 𝛽𝑢.
dove i termini α e β sono parametri esogeni. L’equazione può essere spiegata in vari
modi: uno dei più semplici consiste nel supporre che al ridursi della disoccupazione il
potere rivendicativo dei lavoratori aumenta, per cui la crescita salariale si accentua e, se
le imprese scaricano l’aumento dei salari sui prezzi, si registra anche un aumento
20
Il problema del policymaker può dunque essere descritto come un problema di scelta di
quell’ammontare di spesa pubblica G che determina un livello di domanda aggregata
tale da minimizzare la funzione OMI sotto il vincolo della equazione di Phillips.
Nell’esempio descritto dal grafico di Fig. 2, la linea continua rappresenta il vincolo
dell’equazione di Phillips, mentre le linee tratteggiate rappresentano degli isoquanti
ciascuno dei quali corrispondente a un diverso livello dell’indice di malessere di Okun.
Sapendo che l’inclinazione dell’equazione di Phillips è data da β mentre l’inclinazione
dell’isoquanto di Okun è data da 1, L’equazione di Phillips viene qui tracciata più ripida
dell’isoquanto di Okun poiché assumiamo che β>1. Ovviamente, isoquanti più alti
indicano combinazioni peggiori di inflazione e disoccupazione e quindi corrispondono a
un malessere maggiore, per cui l’ideale è situarsi sull’isoquanto più basso possibile. La
combinazione di inflazione e disoccupazione descritta dal punto E si situa lungo
l’isoquanto più basso che può essere raggiunto, dato il vincolo esistente. Le autorità
saranno quindi indotte a scegliere un livello di spesa che colloca il sistema sul punto E.
Tale risultato, evidentemente, può modificarsi per varie ragioni. Per esempio, se le
richieste salariali dei lavoratori risultassero meno sensibili alle variazioni della
disoccupazione, allora β si ridurrebbe in valore assoluto e quindi la retta dell’equazione
di Phillips diventerebbe meno ripida e più piatta. In particolare, sotto l’ipotesi che β<1
avremmo una soluzione d’angolo situata sull’asse delle ordinate, con disoccupazione
pari a zero e inflazione positiva. Il risultato mostrato sul grafico precedente dipende
anche dal fatto che l’indice di Okun che stiamo considerando attribuisce un peso
unitario sia all’inflazione che alla disoccupazione. Questa, tuttavia, può esser
considerata una scelta di tipo politico, e quindi può essere ritenuta opinabile. Alcuni
studiosi, per esempio, hanno criticato l’indice di Okun fornendo evidenze empiriche a
sostegno della tesi che i cittadini europei e statunitensi attribuiscono un peso maggiore
al malessere causato dalla disoccupazione rispetto al disagio provocato dall’inflazione.2
In tal caso, l’inclinazione delle rette dell’isoquanto di malessere di Okun risulta più
ripida. Se dunque si accetta la possibilità che le rivendicazioni dei lavoratori siano meno
sensibili alle variazioni della disoccupazione, e che la popolazione dia più peso al
problema della disoccupazione che a quello dell’inflazione, allora si potrà giungere a
una soluzione d’angolo diversa, caratterizzata dal fatto che le autorità puntano ad
azzerare la disoccupazione e a tollerare un certo livello positivo d’inflazione.
Fino a questo momento abbiamo ipotizzato che un modello del tipo y = Ax ponesse
semplicemente il problema di verificare se, dato il numero di obiettivi e di strumenti, la
2
Di Tella, Rafael; MacCulloch, Robert J. and Oswald, Andrew (2001). "Preferences over Inflation and
Unemployment: Evidence from Surveys of Happiness". American Economic Review. 91 (1).
22
regola aurea di Timbergen fosse rispettata. In questo senso, abbiamo ipotizzato che i
parametri contenuti nella matrice A fossero già determinati e sufficientemente stabili
nel tempo anche al variare di x e y. Nel caso del semplice modello keynesiano di
determinazione della produzione, ciò significa assumere, per esempio, che il parametro
c1 sia stato già determinato tramite indagine statistica e sia risultato stabile anche a
seguito di variazioni nei valori assunti da obiettivi come Y e da strumenti come G0.
Sulla base di questa impostazione, gli economisti utilizzano versioni più sofisticate del
modello keynesiano, ma concettualmente molto simili ad esso, per elaborare modelli
econometrici tesi a fare diversi tipi di previsioni: per esempio riguardo all’effetto delle
variazioni della spesa pubblica sugli andamenti della produzione, e così via.
L’economista e premio Nobel Robert Lucas ha avanzato nel 1976 una celebre critica ai
modelli econometrici tradizionali basati sull’idea di costanza dei parametri. Egli ha
sostenuto che al mutare degli orientamenti di politica economica delle autorità di
governo si verificano anche reazioni nei comportamenti degli agenti privati, le
quali corrispondono a a mutamenti nei parametri dei modelli econometrici di
previsione. Secondo Lucas, dunque, se le autorità di governo pretendono di prevedere
gli effetti delle loro politiche assumendo parametri comportamentali dati, esse
commettono un errore che finirà per inficiare le loro aspettative, rendendo impossibile
un esercizio razionale dell’azione di policy.
Dalla critica di Lucas alcuni studiosi hanno tratto l’implicazione, tipicamente liberista,
secondo cui gli effetti dell’azione delle autorità di politica economica sono troppo
difficili da prevedere, e quindi sarebbe bene che le autorità si limitassero a
determinare i livelli delle variabili di politica economica in base a “regole fisse” ed
evitassero di modificarli ogni volta su “basi discrezionali”. Altri ricercatori hanno
invece sostenuto che, per ovviare alla critica di Lucas, occorre dare fondamento
microeconomico ai parametri strutturali dei modelli macroeconometrici: ogni
parametro, cioè, deve essere determinato in base a dei modelli che tengano conto delle
possibili interazioni tra le decisioni delle autorità di governo e i comportamenti delle
famiglie e delle imprese private.
23
La questione della definizione degli obiettivi risulta ancor più delicata se riguarda la
scelta della miglior distribuzione del reddito e della ricchezza tra i membri della
popolazione. A tal proposito, nell’ambito della scuola di pensiero neoclassica è andato
sviluppandosi un dibattito sulla cosiddetta “economia del benessere”, tra economisti
favorevoli ed economisti contrari a misure di redistribuzione tra i diversi membri della
popolazione.
24
Supponiamo ora che le dotazioni iniziali di cibo e di vestiario di Anna e Paolo siano
rappresentate dal punto A sul grafico. Ebbene, si può notare che entrambi i consumatori
potrebbero trarre mutuo vantaggio da una serie di scambi. Per esempio, se Paolo
cedesse un po’ del suo cibo e Anna cedesse in cambio un po’ del suo vestiario, i due
potrebbero posizionarsi su un nuovo punto, ad esempio C, dove entrambi si
troverebbero su una curva di indifferenza caratterizzata da una utilità più alta. Più in
generale, possiamo affermare che se i due consumatori partono da dotazioni di cibo e
vestiario rappresentate dal punto A, allora si potrà determinare un miglioramento
dell’utilità di entrambi o almeno di uno dei due consumatori effettuando liberamente
scambi che consentano uno spostamento su uno qualsiasi dei punti situati sulla linea B,
C, D. Questi sono punti di equilibrio perché sono punti di tangenza tra le curve di
indifferenza dei due consumatori: ciò significa che, giunti su uno di quei punti, non sarà
più possibile effettuare scambi mutuamente vantaggiosi per entrambi, cioè non si potrà
migliorare ulteriormente la situazione di un consumatore senza peggiorare quella
dell’altro (lo studente noti che, per esempio, una volta giunti su un punto come C
qualsiasi movimento comporterà o un peggioramento della situazione di Paolo o un
peggioramento della situazione di Anna, e quindi è chiaro che da quel punto non ci sarà
più mutuo interesse a effettuare scambi e a spostarsi). Dunque, una volta che si giunga
su un punto di tangenza, gli scambi si fermeranno e l’equilibrio Pareto-efficiente sarà
raggiunto.
Ovviamente, non è difficile notare che il punto di posizionamento sulla curva dei
contratti dipenderà in misura significativa dalle dotazioni iniziali. Se si parte da un
punto come A allora gli scambi potranno condurre a uno dei punti lungo il segmento B-
D. Se però si parte da un punto come G, allora il gioco degli scambi di mercato potrà
condurre a un punto situato lungo il segmento E-H. In tutti i casi si tratta di equilibri
Pareto-efficienti, nel senso che una volta giunti in essi non ci saranno altri scambi
mutuamente vantaggiosi da realizzare e quindi non ci sarà più incentivo a effettuarli. Ma
è ovvio che per Anna e Paolo si tratta di situazioni molto diverse tra loro. E’ chiaro cioè
che lungo la curva dei contratti esisteranno equilibri Pareto-efficienti preferiti da Anna
(ad esempio F), altri preferiti da Paolo (ad esempio H), altri ancora che appaiono
26
maggiormente “equi” (per esempio C). Il fatto che si raggiunga l’uno o l’altro di questi
equilibri dipende dalla situazione da cui si parte, cioè da quante dotazioni di beni
dispone ciascuno dei due soggetti. Se si parte da una situazione come il punto G, in cui
Paolo è chiaramente “ricco” di dotazioni mentre Anna è chiaramente “povera”, gli
scambi potranno portarli su un punto come E che determinerà mutui vantaggi per
entrambi. Ma è evidente che dal punto di vista della equità tra i due soggetti le cose non
cambieranno granché.
Pareto tuttavia non era persuaso dall’idea di consentire redistribuzioni di risorse tra i
vari agenti economici. Egli si dichiarava contrario agli interventi politici per fini di
equità. A suo avviso, i livelli di utilità di due consumatori sono del tutto soggettivi e
quindi non sono confrontabili. Se prendiamo ad esempio un punto come G, è evidente
che in esso Paolo dispone di una dotazione iniziale di cibo e vestiario molto maggiore
rispetto ad Anna. Paolo, insomma, è oggettivamente più ricco. Per Pareto, tuttavia, ciò
non consente di affermare che Paolo abbia un’utilità superiore a quella di Anna. In altre
parole, le curve di indifferenza di Paolo possono essere ordinate tra di loro, partendo da
quella che fornisce l’utilità più bassa e arrivando a quella che fornisce l’utilità più alta.
Ma quelle curve non possono in alcun modo essere messe a confronto con le curve
d’indifferenza e i rispettivi livelli di utilità di Anna. Si dice in questo senso che Pareto
elabora un criterio ordinalista che consenta di indicare l’ordine delle situazioni
preferite da un singolo soggetto, ma nega validità scientifica a qualsiasi criterio
cardinalista che pretenda di assegnare specifici numeri a ciascuna situazione in modo
da poter poi comparare le situazioni di soggetti diversi tra loro.
L’ordinalismo di Pareto genera dunque una posizione liberista estrema, che suggerisce
di affidarsi solo al mercato e contesta qualsiasi intervento pubblico votato all’equità
distributiva. In altre parole, data l’ipotesi di non confrontabilità delle utilità dei diversi
27
La visione di Pareto risulta tuttora prevalente tra gli economisti neoclassici. Essa
tuttavia è stata criticata per due ordini di ragioni. In primo luogo, il premio Nobel
Kenneth Arrow ha dimostrato il cosiddetto teorema di impossibilità: se si assume il
principio paretiano e si aggiungono altre ipotesi standard neoclassiche, tra cui la
completezza delle preferenze, la transitività e la non-dittatorialità delle preferenze di un
individuo sugli altri, allora non sarà possibile trarre una funzione di benessere sociale in
grado di ordinare tutte le situazioni possibili. In altre parole, il criterio di Pareto non
aiuta a individuare un criterio che possa essere condiviso da una collettività di liberi
cittadini per stabilire quali situazioni siano preferibili ad altre. Curiosamente, il
principio di Pareto, che avrebbe dovuto salvaguardare la collettività da scelte politiche
arbitrarie, risulta essere incompatibile con un regime non dittatoriale. A questo risultato
si aggiunge la critica di Amartya Sen, un altro premio Nobel, il quale ha delineato il
cosiddetto paradosso de “L’amante di Lady Chatterley”. Alla luce di questo
paradosso, Sen afferma che il principio di Pareto in un certo senso è “illiberale” essendo
incompatibile con il cosiddetto “liberalismo di minima”, consistente nel fatto che per
ogni individuo deve esistere almeno un’alternativa sulla quale la preferenza personale
implica la stessa preferenza sociale.
Ad ogni modo, la visione di Pareto non è da tutti condivisa. Alcuni studiosi, pur
neoclassici, hanno accettato una impostazione cardinalista, secondo la quale le utilità
dei singoli individui possono essere sommate e si può quindi giungere alla
determinazione di una funzione di benessere sociale riferita all’intera collettività.
Esistono in tal senso vari esempi di funzioni di benessere sociale. C’è la funzione
“Benthamiana”, che è data semplicemente dalla somma delle utilità individuali di
ciascun membro della popolazione. Ad esempio, nel caso di una collettività di due soli
28
II
POLITICHE STRUTTURALI
Esaminiamo in primo luogo il problema classico del confronto tra regimi di concorrenza
e regimi di monopolio. A tale scopo, utilizzeremo gli strumenti standard della teoria
neoclassica. Sul grafico seguente, sono rappresentati l’equilibrio di un mercato di
monopolio ed anche l’equilibrio di un mercato di concorrenza perfetta.
p,
CM,
CMG
H
CMG
B CM
c
p*
p C
F
A
E
D
RMG
O Q* Q
massimo profitto coincide con l'area rettangolare p*BFA che è la differenza tra i ricavi
totali p*BQ*O e i costi totali AFQ*O. È da notare che il surplus del consumatore è
HBp*.
Per tutti questi motivi alcuni neoclassici ritengono che il monopolio danneggi
l'economia e che vada quindi contrastato con leggi anti-trust o politiche di
liberalizzazione che facilitino l’accesso al mercato di eventuali concorrenti. Altri
studiosi di orientamento marxista sostengono invece che la liberalizzazione dei mercati
può favorire la concorrenza solo nel breve termine, ma nel lungo periodo proprio
l’intensificazione della competizione tende a far prevalere i più forti, il che favorisce
nuovi fenomeni di monopolizzazione dei mercati e di centralizzazione dei capitali. Altri
ancora, ispirati dalle analisi di Joseph Schumpeter, ritengono che la stessa idea di
inefficienza del monopolio vada contestata: a loro avviso, infatti, proprio la capacità di
guadagnare profitti extra consente all’impresa monopolista di favorire l’innovazione
tecnologica grazie a massicci investimenti nelle attività di ricerca e sviluppo, che per la
loro rischiosità e onerosità sono preclusi alle imprese in concorrenza perfetta.
2.2 Oligopolio
p = 6 – (xi + xj)
Supponiamo pure che la funzione del costo totale di produzione del bene, identica per
ciascuna delle due imprese, sia:
ci = 1 + xi
cj = 1 + xj
32
Il profitto di ciascuna impresa è dunque dato dalla differenza tra ricavo totale e costo
totale, ossia:
πi = (6 – xi – xj)xi – 1 – xi
πj = (6 – xi – xj)xj – 1 – xj
La condizione del primo ordine per l’individuazione del massimo profitto richiede,
come sappiamo, che si ponga uguale a zero la derivata del profitto rispetto alla quantità.
Effettuiamo questo passaggio per entrambe le imprese:
𝜕𝜋𝑖
= 6 − 𝑥𝑖 − 𝑥𝑗 − 𝑥𝑖 − 1 = 0
𝑥𝑖
𝜕𝜋𝑗
= 6 − 𝑥𝑖 − 𝑥𝑗 − 𝑥𝑗 − 1 = 0
𝑥𝑗
xi = (5 – xj)/2
xj = (5 – xi)/2
xi = [5 – (5 – xi)/2]/2
Con pochi passaggi da questa espressione si ricava la quantità ottima per l’impresa i,
corrispondente a: xi = 5/3. Sostituendo questo valore nella funzione di risposta ottima
dell’impresa j si ottiene la quantità ottima di quest’ultima, che pure corrisponde a xj =
5/3 (l’uguaglianza è ovvia, dato che per ipotesi le due imprese hanno la stessa
tecnologia e quindi anche la stessa funzione di costo). Le quantità ottime, così ottenute,
corrispondono al cosiddetto equilibrio di Cournot.
Una volta note le quantità ottime si può calcolare il prezzo di equilibrio del mercato,
corrispondente a p = 6 – (5/3 + 5/3) = 8/3. Inoltre, note le quantità ottime si può anche
determinare il valore del profitto ottimo dell’impresa i, che sarà dato da: πi = (6 – 5/3 –
5/3)5/3 – 1 – 5/3 = 16/9. Lo stesso profitto, ovviamente, sarà guadagnato anche
dall’impresa j.
px = (6 – x)x = 6x – x2
e il profitto totale, dato dalla differenza tra ricavo totale e costo totale, è:
π = 6x – x2 – 1 – x = 5x – x2 – 1
Imponendo la condizione del primo ordine per l’individuazione del massimo profitto
dπ/dx = 0 otteniamo:
5 – 2x = 0
da cui si trae la quantità ottima totale x = 5/2. Il prezzo di equilibrio sarà quindi dato da
p = 6 – 5/2 = 7/2. Ora sostituiamo la quantità ottima nella equazione del profitto: π =
5x – x2 – 1, da cui otteniamo il profitto ottimo totale π = 21/4.
A questo punto, supponiamo che le imprese colluse dividano in parti uguali quantità e
profitti. Quindi, dividendo per due la quantità ottima totale possiamo calcolare la
quantità ottima di ciascuna impresa: xi = xj = (5/2)/2 = 5/4. Infine, dividendo per due il
profitto totale ottimo possiamo determinare il profitto ottimo per ciascuna impresa: πi =
πj = (21/4)/2 = 21/8.
Rispetto all’equilibrio non collusivo di Cournot, il cartello tra le due imprese consente
dunque di produrre una quantità totale inferiore a un prezzo superiore, e assicura dunque
un profitto più elevato a ciascuna impresa. Questo è uno dei motivi per cui si ritiene
che i “cartelli” debbano essere vietati dalla legge.
E' raro vedere l'Autorità Antitrust staccare una multa da 23 milioni di euro, ma è questo il conto presentato alle
principali società di revisione contabile e consulenza: nel mondo sono noti come i "big four", un cerchio magico
composto da Deloitte, KPMG, Ernst&Young e PWC. A loro l'Autorità ha imputato la creazione di un cartello per
spartirsi la gara bandita dalla Consip per il supporto alla Pubblica amministrazione nelle funzioni di sorveglianza e
audit dei programmi cofinanziati dall'Unione Europea. Si tratta di una gara indetta nel marzo del 2015 e aggiudicata
nel maggio 2016. Sul piatto, per la prima volta in maniera centralizzata, l'acquirente unico ha messo la attività di
controllo dei programmi sviluppati in Italia attraverso i fondi strutturali provenienti da Bruxelles: alle società di
consulenza si chiedeva personale specializzato per verificare i presidi delle Pa che gestiscono i soldi pubblici ed
effettuare dei controlli random sulle operazioni di rendicontazione delle spese, passaggio fondamentale per accedere
ai fondi stessi e che vede l'Italia perennemente in ritardo. Un bando da circa 66 milioni di euro, aggiudicato per
complessivi 42 milioni. L'Autorità si è mossa sull'esito di quella gara a seguito di una segnalazione della stessa
Centrale degli acquisti pubblici. L'Authority spiega oggi che "la collusione si è realizzata attraverso la partecipazione
'a scacchiera' ai lotti di gara; infatti, ogni network ha presentato sconti più elevati nei lotti ad esso 'assegnati' sulla
base del disegno spartitorio, senza sovrapporsi sui lotti di interesse degli altri network ovvero presentando offerte di
appoggio del tutto inidonee a vincere il lotto". Nei fatti, si legge nelle carte dell'istruttoria, mentre la parte tecnica
delle società coinvolte era simile in tutti i lotti per i quali si presentavano, l'offerta economica era notevolmente
34
differenziata, "secondo uno schema del tutto simmetrico", nei vari lotti di partecipazione. In alcuni offrivano uno
sconto sostenuto (tra il 30 e il 35%), in altri contenuto (tra il 10 e il 15%). Ma le offerte con i maggiori ribassi
presentate dalle società multate non si sono mai sovrapposte. Gli altri partecipanti alle gare, quelli esterni al cartello,
non hanno mai differenziato significativamente i loro ribassi da un lotto all'altro. Sintetizza l'Antitrust: "In tal modo le
imprese hanno annullato, di fatto, il reciproco confronto concorrenziale nello svolgimento della gara per spartirsi i
lotti e neutralizzare la concorrenza esterna al cartello". E nell'istruttoria riporta numerose mail tra i partner delle big
four nei quali si organizzano incontri proprio per preparare la gara Consip. L'intesa sulla quale l'autorità ha voluto
vederci chiaro "rientra tra le più gravi violazioni del diritto della concorrenza". Secondo le risultanze dell'indagine
questo accordo è stato "pienamente" attuato e ha "inevitabilmente influenzato gli esiti della procedura con riguardo a
tutti i lotti messi a gara. Se, infatti, le strategie partecipative di tutti i soggetti coinvolti nell'intesa fossero state assunte
autonomamente e, dunque, guidate da logiche di confronto competitivo, si sarebbe assistito a risultati maggiormente
favorevoli per la stazione appaltante sia da un punto di vista economico, sia con riferimento al servizio tecnico
oggetto della gara".
Un altro modo per analizzare l’oligopolio è quello che si basa su una metodologia
particolare detta teoria dei giochi, alla cui realizzazione hanno contribuito vari
economisti, tra cui il premio Nobel John Nash. La teoria dei giochi si propone di
analizzare tutte le situazioni in cui sussistono problemi di strategia: non solo nel campo
dell’economia con il caso delle imprese oligopoliste, ma anche altri settori, dai semplici
giochi come gli scacchi fino alle strategie militari o diplomatiche.
Applichiamo qui la teoria dei giochi al caso di due imprese: Apple e Samsung, con
riferimento alla produzione e alla vendita di smartphones. Il problema per Apple e
Samsung è di scegliere se adottare una strategia conflittuale oppure cooperativa. La
strategia conflittuale consiste in:
Supponiamo che Apple e Samsung si trovino ad esempio nella situazione descritta dalla
seguente tabella. I valori, detti pay-off, indicano i profitti attesi dalle due aziende a
seconda delle situazioni:
35
Samsung
conflitto cooperazione
conflitto 2, 2 10, 0
Apple
cooperazione 0, 10 6, 6
La matrice dei pay-off indica i profitti attesi dalle due aziende a seconda delle strategie
adottate. Ad esempio: se Apple coopera e Samsung confligge, allora Apple ottiene
profitti pari a zero e Samsung 10 miliardi. E così via. Si può dimostrare che il conflitto,
sotto date condizioni, è la strategia dominante, cioè quella che sarà preferita da
ciascuno indipendentemente dalle scelte dell'altro. Infatti dal punto di vista di Apple:
È interessante notare che si perviene a questo equilibrio nonostante che esso generi per
entrambe le imprese un risultato peggiore rispetto al caso della cooperazione. In certi
casi tuttavia il risultato non-cooperativo è inevitabile, poiché la tentazione di defezione
da un accordo o anche solo la paura della defezione dell'altro giocatore spinge entrambi
al conflitto. Se tuttavia il gioco è “ripetuto” le cose possono cambiare: la cooperazione
può diventare più probabile.
A partire dagli anni Ottanta del secolo scorso è stata avviata, in molti paesi, una vasta
campagna di privatizzazione delle imprese pubbliche, di proprietà statale o a
partecipazione statale. In numerosi settori dell’economia, dall’industria, alle
telecomunicazioni, ai trasporti, e in alcuni casi persino negli ambiti della sanità e
dell’istruzione, si sono realizzate vendite ai privati di attività produttive o di servizio
precedentemente affidate all’operatore pubblico. Tra il 1990 e il 2000 l’Italia è stata
capofila a livello mondiale della politica di privatizzazioni:
36
Questa politica è stata solitamente giustificata in vari modi. Alcuni fautori della vendita
delle aziende ai privati hanno sostenuto che gli incassi derivanti dalle privatizzazioni
avrebbero contribuito all’obiettivo di migliorare i conti statali e ridurre il debito
pubblico. Altri sostenitori delle privatizzazioni hanno invece avanzato la tesi secondo
cui le imprese pubbliche presentano una organizzazione interna di tipo burocratico,
priva di stimoli concorrenziali e quindi generatrice di inefficienze e costi di produzione
più alti. Le privatizzazioni, si diceva, avrebbero accresciuto l’efficienza, ridotto i
costi e quindi avrebbero contribuito a diminuire i prezzi, con beneficio per i
consumatori e per la collettività.
Col senno di poi, non si può dire che tutti gli auspicati effetti delle privatizzazioni si
siano realizzati. A coloro che prevedevano un miglioramento dei conti pubblici è stato
fatto notare che la privatizzazione implica pure che lo Stato perde i profitti che
derivavano dalle imprese pubbliche: il calcolo dei vantaggi e degli svantaggi è dunque
più complicato di quanto si potrebbe a priva vista immaginare. Riguardo poi ai
sostenitori dei benefici per i consumatori, da un lato è stato fatto notare che la riduzione
dei costi nelle imprese privatizzate non sempre avveniva, oppure in alcuni casi si
realizzava a seguito di una riduzione dei salari e di un deterioramento della qualità dei
servizi, più che in conseguenza di un incremento dell’efficienza produttiva. Dall’altro, si
è rilevato che anche quando si registrava una riduzione dei costi, non sempre si notava
una diminuzione proporzionale dei prezzi. Anzi, a volte capitava addirittura che dopo le
privatizzazioni i prezzi risultassero invariati o addirittura crescenti.
37
Uno dei casi per cui le privatizzazioni possono dar luogo a un aumento anziché a
una riduzione dei prezzi è quello in cui l’azienda pubblica venduta ai privati opera in
regime di monopolio. Per semplicità, immaginiamo una situazione in cui i costi
marginali dell’impresa siano costanti e quindi possano essere rappresentati da una retta
orizzontale. Consideriamo in tal senso il grafico seguente:
Da lì a qualche anno il corso degli eventi avrebbe preso una piega ben diversa da quella
auspicata da Leontief. Potremmo dire, in un certo senso, che proprio dalle difficoltà di
attecchimento del discorso sulla pianificazione scaturì e si fece largo quella opposta idea
di accumulazione del capitale fondata sul libero mercato e sulla finanza privata, la cui
forma politica venne rappresentata dalla Reaganomics e che avrebbe dominato la scena
mondiale per i successivi trent’anni. Oggi, dopo la cosiddetta “grande recessione” del
2008, c’è chi rileva varie inefficienze e instabilità nel regime di accumulazione
capitalistica detto di “libero mercato” e trainato dalla finanza privata, e dunque
suggerisce di tornare al sentiero alternativo suggerito da Leontief per provare a
valutarne la potenziale attualità.
L’idea di recupero del “piano” nel senso di Leontief verte sulla rilevazione di alcuni
limiti nell’attuale meccanismo di riproduzione sociale, in cui le autorità politiche, stato e
banca centrale, sono relegate in una funzione puramente ancillare rispetto ai mercati fi-
nanziari: quella di “regolare” le condizioni di solvibilità del sistema, che di fatto
significa agire da meri prestatori di ultima istanza per il capitale privato. La definizione
di un meccanismo di riproduzione sociale alternativo richiederebbe dunque in primo
luogo l’attribuzione alle autorità politiche di una funzione logicamente contrapposta a
quella corrente: lo stato e la banca centrale dovrebbero cioè ripristinare e ampliare
quella che Reinhart e Rogoff hanno definito una «repressione dei mercati finanziari» e
un «pesante uso dei controlli dei capitali», che caratterizzarono l’economia mondiale del
secondo dopoguerra e che per circa un trentennio favorirono una stabilità
macroeconomica mondiale senza precedenti. Ma soprattutto, la repressione finanziaria
39
I critici del piano insistono sull’idea che esso si baserebbe eccessivamente sulla
burocrazia statale, e segnalano come questa dia luogo a tutta una serie di “fallimenti
dello Stato”. I fautori di un recupero in chiave aggiornata del tema della pianificazione
battono invece sulla tesi secondo cui i “fallimenti del mercato” sono più gravi e più
pervasivi di quelli che possono essere imputati all’autorità statale. C’è poi una questione
ulteriore, di ordine civile e politico. I critici della pianificazione sono anche convinti che
le libertà individuali siano tutelate solo da un regime di libero mercato, mentre i fautori
di un recupero della logica di piano ritengono che a date condizioni questa possa
favorire un’espansione dei diritti sociali e per questa via crei pure le condizioni per un
maggior sviluppo delle libertà civili. Il dibattito resta aperto.
La proposta del premio Nobel Leontief e di altri per una pianificazione nazionale negli USA:
Leontief, W. et al. The case for Government Planning (New York Times, 16 March 1975)
40
III
POLITICHE TRIBUTARIE E DEL LAVORO
In ciascun paese gli istituti di statistica raccolgono ed elaborano dati inerenti al lavoro.
In Italia l’ISTAT pubblica periodicamente la Indagine sulle forze di lavoro. Lo studio
fornisce varie serie di dati, tra cui quelli relativi all’occupazione e alla disoccupazione.
La maggior parte dei dati viene raccolta tramite interviste a campioni di popolazione.
Riportiamo alcune definizioni adottate dall’ISTAT e dagli altri istituti di statistica nelle
loro indagini campionarie. In primo luogo, le forze di lavoro sono rappresentate dalle
persone tra i 15 e i 64 anni di età occupate oppure in cerca di occupazione.
Le persone occupate sono coloro che hanno svolto almeno 1 ora di lavoro nella
settimana precedente con corrispettivo monetario (oppure anche senza corrispettivo se
lavorano abitualmente in una azienda familiare), oppure sono temporaneamente assenti
dal lavoro (per ferie o per malattia). Qui di seguito è riportato uno schema che indica il
modo in cui i questionari dell’ISTAT distinguono tra persone occupate e non.
41
Il seguente cartogramma riporta i dati relativi alla ripartizione delle forze lavoro in Italia
nel 2012, un anno relativo a un periodo di crisi particolarmente intensa.
42
43
Si noti che le percentuali riportate nei riquadri sono calcolate in rapporto al totale della
popolazione residente. E’ possibile tuttavia calcolare anche altre percentuali. Per
esempio, sapendo che i lavoratori dipendenti con contratto a termine sono 1.617.000 a
tempo pieno e 615.000 a tempo parziale, e che il totale dei lavoratori dipendenti è
17.087.000, allora si può verificare che i lavoratori dipendenti con contratto a
termine rappresentano il 13,06% del totale dei lavoratori dipendenti
(1.617.000+615.000=2.232.000/17.087.000=0,1306). Naturalmente, questa percentuale
non tiene conto del fatto che spesso tra i lavoratori definiti indipendenti in realtà si
nascondono molte situazioni di lavoro dipendenti sostanzialmente a termine: è il caso
per esempio degli agenti di commercio. Inoltre, se guardiamo non al totale dei contratti
ma solo alle nuove assunzioni, il numero dei rapporti di lavoro a termine aumenta
considerevolmente: l’ISTAT segnala che tra il 2005 e il 2010 i contratti a termine
stipulati dalle grandi imprese sono stati il 71,5% del totale delle assunzioni.
Dai dati riportati nel cartogramma è inoltre possibile ricavare altri indicatori. Si
consideri per esempio la forza lavoro, data dalla somma delle persone occupate e delle
persone in cerca di occupazione. Nel 2012, la forza lavoro era pari a
22.793.000+2.801.000 = 25.594.000 unità. E’ inoltre possibile calcolare il tasso di
disoccupazione, dato dal rapporto fra persone in cerca di occupazione e la forza lavoro:
nel 2012 era pari a 2.801.000/25.594.000 = 0,109, ossia il 10,9%. C’è poi il tasso di
occupazione, dato dal rapporto fra gli occupati e la corrispondente popolazione di
riferimento (solitamente si calcola sulla popolazione in età lavorativa, tra 15 e 64 anni):
nel 2012 esso era pari a 22.793.000/40.033.000 = 0,569, ossia 56,9%. E’ inoltre
possibile calcolare il tasso di attività, dato dal rapporto fra le persone appartenenti alle
forze di lavoro e la corrispondente popolazione di riferimento, solitamente quella in età
lavorativa; e il tasso di inattività, dato dal rapporto fra gli inattivi e la corrispondente
popolazione di riferimento, solitamente quella in età lavorativa. La somma dei tassi di
attività e inattività deve dare 1.
Il tasso di disoccupazione è forse l’indicatore più comune tra tutti quelli citati, ma non è
sufficiente per valutare la situazione occupazionale di un paese. Esso ha infatti vari
limiti: per esempio, dato che non contempla i lavoratori scoraggiati, rischia di condurre
a risultati fuorvianti. Pensiamo a una situazione in cui, a causa del protrarsi della crisi
economica, alcune persone smettono di cercare attivamente un lavoro. Guardando al
cartogramma precedente, possiamo supporre per esempio che 200.000 persone passino
dallo stato di persone in cerca di occupazione allo stato di persone inattive in età
lavorativa. Ebbene, in questa circostanza sia le persone in cerca di lavoro che la forza
lavoro si riducono di 200.000 unità, e il tasso di disoccupazione diminuisce:
2.601.000/25.394.000 = 0,102, ossia il 10,2%. In apparenza dunque la disoccupazione si
è ridotta, ma ciò dipende solo dal fatto che molte persone, a causa della crisi, si sono
rassegnate e hanno smesso di cercare lavoro. Si noti però che anche il tasso di
occupazione presenta un limite: nel caso dei 200.000 scoraggiati in più esso non
reagisce minimamente, cioè non è in grado di rilevare il fenomeno. Invece, i tassi di
attività e di inattività riflettono correttamente il fenomeno degli scoraggiati, ed è quindi
ad essi che occorre guardare per valutarne l’entità. Una corretta valutazione della
situazione occupazionale di un paese dovrebbe dunque basarsi su più indicatori.
44
Di grande rilevanza sono anche i dati sul lavoro suddivisi per genere, che consentono
di esaminare la posizione delle donne sul mercato del lavoro nei diversi paesi. Nel
2012, in Italia, il tasso di attività femminile era del 53,7%, inferiore di circa 11 punti
percentuali alla media dei tassi di attività delle donne nella Ue a 27 paesi. E’ da notare
che il tasso di attività femminile è aumentato in misura significativa a seguito della crisi
economica esplosa nel 2008: mentre il tasso di attività medio tra il 2008 e il 2012
aumentava di 0,8 punti, il tasso di attività femminile è cresciuto di due punti percentuali.
La crisi sembra cioè avere spinto un numero maggiore di donne a entrare nel mercato
del lavoro:
Ciò nonostante, i tassi di attività e di occupazione femminili restano ancora, in Italia, tra
i più bassi d’Europa. Il tasso di occupazione femminile, in particolare, nel 2012 era al
47,5%, contro una media Ue a 27 del 58,8%:
Tra uomini e donne sussiste anche un divario nelle retribuzioni a favore dei primi: la
Banca d’Italia ha calcolato che nel periodo 1995-2008 esso era pari al 6% in media;
inoltre, esaminando lavoratori e lavoratrici con qualifiche comparabili in termini di
istruzione, esperienza, ecc. e con tipi di lavoro equivalenti in termini di qualifica, orario,
ecc., il divario superava il 13% nel 2008. E’ da notare tuttavia che tale divario, secondo
l’Istat, è inferiore a quello che si registra negli USA e in Gran Bretagna (intorno al 25%)
45
e nei paesi del Nord Europa (15% circa). Il risultato si spiegherebbe con il fatto che in
Italia si registra una minore partecipazione al mercato del lavoro delle donne meno
istruite.
Altrettanto importanti sono poi gli indicatori che si soffermano sulla situazione
occupazionale dei più giovani, con particolare riguardo alla fascia tra i 15 e i 24 anni.
I giovani si ritrovano oggi con dei salari d’ingresso molto più bassi rispetto al livello
dei salari di ingresso che si registravano nei decenni passati. Una ricerca della Banca
d’Italia del 2007 ha evidenziato che il differenziale tra salari dei lavoratori anziani e
salari dei più giovani è prima diminuito e poi è aumentato: nel 2004 i lavoratori giovani
guadagnavano il 35% in meno dei lavoratori anziani; alla fine degli anni ’70 il
differenziale tra i salari dei più anziani e quelli dei più giovani era del 25%, mentre nel
1989 era del 20%.
Riguardo agli andamenti occupazionali, l’ISTAT segnala che a fine 2012 i giovani in
cerca di lavoro in Italia sono stati 641.000. Il tasso di disoccupazione giovanile,
calcolato sulla fascia dei 15-24enni, è stato pari al 37,1%. Stando ai dati EROSTAT,
questo risultato fa sì che l’Italia si ritrovi con il quarto più elevato tasso di
disoccupazione giovanile nella Ue a 27, dopo Grecia, Spagna e Portogallo. La media Ue
è pari al 22,8%:
46
Quando si affronta il problema del calcolo della disoccupazione è facile commettere degli errori. Prendiamo ad
esempio il seguente comunicato dell’ISTAT, nel quale si legge:
«A seguito di quanto pubblicato da alcune testate online in merito ai dati mensili su occupati e disoccupati diffusi
questa mattina, l’Istat torna a precisare che non è corretto affermare “più di un giovane su tre è disoccupato”.
Infatti, in base agli standard internazionali, il tasso di disoccupazione è definito come il rapporto tra i disoccupati e
le forze di lavoro (ovvero gli “attivi”, i quali comprendono gli occupati e i disoccupati). Se, dunque, un giovane è
studente e non cerca attivamente un lavoro non è considerato tra le forze di lavoro, ma tra gli “inattivi”. Per quanto
riguarda il dato sulla disoccupazione giovanile diffuso oggi e relativo al mese di novembre 2012, va ricordato che i
“disoccupati” di età compresa tra i 15 e i 24 anni sono 641 mila, il che corrisponde al 37,1% delle forze di lavoro di
quell’età e al 10,6% della popolazione complessiva della stessa età, nella quale rientrano studenti e altre persone
considerate inattive. Quindi sarebbe corretto riportare che “più di 1 giovane su 10 è disoccupato” oppure che “più
di uno su tre dei giovani attivi è disoccupato”».
Con questo tipo di comunicati l’ISTAT segnala che talvolta i media interpretano in modo errato i dati ufficiali. Il che
è senz’altro vero. Tuttavia, bisognerebbe sempre ricordare che spesso tra i soggetti “inattivi” che restano fuori dalle
“forze di lavoro” rientrano anche gli scoraggiati. Contemplando questi ultimi nelle “forze di lavoro” il tasso di
disoccupazione giovanile – e non solo quello – risulterebbe più elevato di quello indicato dall’ISTAT.
In Italia negli ultimi anni si è sviluppato un intenso dibattito sulla disponibilità o meno
dei giovani a cercare lavoro. Alcuni economisti, nel ruolo di ministri della Repubblica,
hanno varie volte rimarcato la scarsa disponibilità degli italiani, specialmente dei più
giovani, ad entrare nel mercato del lavoro. Il ministro dell’Economia Tommaso Padoa
Schioppa parlò in questo senso di “bamboccioni”. La ministra del Lavoro Elsa Fornero,
più di recente, ha utilizzato l’appellativo di “choosy”, che in inglese sta per
“schizzinosi”. I due ministri, in termini più o meno espliciti, suggerivano in sostanza
che l’elevata disoccupazione che si registra in Italia sia in misura significativa da
imputare a una scarsa disponibilità ad accettare un lavoro, soprattutto da parte dei più
giovani. Ora, che alcuni individui siano scarsamente propensi ad accettare un lavoro è
facile da ammettere. Il problema, tuttavia, è capire se tali valutazioni riescano a cogliere
un comportamento quantitativamente rilevante. In effetti, come si rileva dal box posto
qui in basso, i dati sembrano sollevare dei dubbi sul grado di generalità delle valutazioni
dei due ministri.
I giovani italiani sono “choosy”? Una verifica basata sul tasso di posti vacanti
Consideriamo il tasso di posti di lavoro vacanti, calcolato periodicamente dall’ISTAT con riferimento alle imprese
industriali e di servizi con almeno 10 dipendenti. Questo tasso indica il numero di posti di lavoro disponibili diviso
per il totale dei posti di lavoro, sia disponibili che già occupati. Alla fine del 2012, per esempio, il tasso di posti
vacanti era pari allo 0,5% (ISTAT, Posti vacanti nell’industria e nei servizi 2012). Sapendo che il numero totale di
posti esistenti nelle imprese considerate è pari a circa 7,5 milioni di unità, si può calcolare il numero di posti vacanti
disponibili: (0,5%)x7.500.000 = 37.500 posti vacanti disponibili nelle imprese dell’industria e dei servizi con più di
dieci dipendenti. Per provare a trarre un dato più generale, facciamo ora l’ipotesi semplificatrice che il tasso di posti
vacanti nelle imprese industriali e di servizi con almeno 10 dipendenti possa valere a grandi linee per l’intera
economia. Considerato che il numero dei posti totali esistenti si aggira intorno a 23 milioni di unità, possiamo
effettuare una semplice proporzione (7.500.000:37.500=23.000.000:x) e ottenere quindi una stima dei posti vacanti
totali in Italia nel 2012: circa 115.000. Consideriamo adesso il totale dei disoccupati italiani: alla fine del 2012 erano
2 milioni 875 mila. Tra questi, i giovani disoccupati nella fascia di età tra 15 e 24 anni erano 606.000. Possiamo
quindi affermare che alla fine del 2012 il numero di posti di lavoro vacanti, in Italia, non doveva esser molto più del
4% del totale dei disoccupati e del 19% del totale dei giovani disoccupati. Dunque, anche ammettendo che i
disoccupati avessero le qualifiche necessarie per svolgere le mansioni richieste, è evidente che i posti disponibili
47
erano di gran lunga inferiori al numero di persone in cerca di lavoro. I dati evidenziano insomma che il problema
della disoccupazione è in primo luogo un problema di pochi posti disponibili. Imputarlo a una scarsa disponibilità a
lavorare da parte degli italiani, in particolare dei più giovani, è quantomeno riduttivo. Del resto, l’idea che i giovani
italiani siano “choosy” entra in contrasto anche con altre evidenze. La Banca d’Italia, per esempio, ha recentemente
rilevato che i giovani laureati italiani tra 24 e 35 anni che hanno accettato lavori a bassa qualifica rispetto ai titoli di
studio conseguiti, sono il 40% del totale, contro appena il 18% in Germania.
Nei dibattiti di politica del lavoro si fa spesso riferimento alla cosiddetta curva di
Beveridge. La curva descrive una regolarità empirica segnalata per la prima volta nel
1942 dall’economista britannico William Beveridge, e in seguito riscontrata da molti
altri economisti. Il nesso statistico è tra il tasso di disoccupazione e il tasso di posti
vacanti, dove quest’ultimo indica il numero di casi in cui le imprese cercano lavoratori
ma non li trovano. Definendo il numero di lavoratori disoccupati con U, il numero di
posti di lavoro vacanti con V, il numero di lavoratori occupati con N e la forza lavoro
disponibile con L = U + N, è possibile definire il tasso di disoccupazione con u = U/L e
il tasso di posti vacanti con v = V/L. Assumendo che γ sia un parametro esogeno
maggiore di zero, la relazione statistica può essere descritta dalla seguente equazione:
γ = uv, da cui:
𝑣 = 𝛾/𝑢
Dato il parametro γ, possiamo dunque tracciare una relazione inversa tra le due variabili.
La relazione descrive innanzitutto gli effetti del ciclo economico sul mercato del
lavoro. In fasi di recessione, la domanda di lavoro da parte delle imprese è bassa, per
cui il tasso di disoccupazione è elevato mentre il tasso di posti vacanti è basso. In fasi di
espansione, invece, le imprese aumentano la richiesta di lavoratori e quindi il tasso di
disoccupazione si riduce mentre il tasso di posti vacanti tende ad aumentare. Il ciclo di
recessioni ed espansioni può quindi essere descritto da movimenti lungo la curva di
Beveridge: per esempio, osservando il grafico, la combinazione v0, u0 corrisponde a una
fase di espansione, mentre la combinazione v1, u1 corrisponde a una recessione.
u0
u1
v0 v1 v1’ v
48
I modelli neoclassici e i modelli mainstream del mercato del lavoro tendono a valutare
negativamente i sussidi di disoccupazione, vigenti sotto varie forme in molti paesi. Nel
49
In genere i modelli mainstream esprimono anche una valutazione critica nei confronti
delle leggi che vietano la stipula di contratti di lavoro al di sotto della soglia di un
salario minimo. Norme di questo tipo vigono attualmente in Francia e in alcuni altri
paesi. Le analisi differiscono a seconda che si tratti di un livello minimo del salario
monetario oppure reale. Nel modello neoclassico, l’esistenza di un salario reale minimo
provoca un effetto simile alla presenza del sindacato, nel senso che può bloccare il
sistema economico in un punto di squilibrio caratterizzato da disoccupazione
involontaria. Nel modello mainstream di Blanchard, un salario monetario minimo può
impedire che il sistema economico, dopo una crisi, converga spontaneamente verso
l’equilibrio naturale tramite una deflazione. Nel medesimo modello, l’imposizione di un
salario reale minimo può generare un conflitto permanente tra salario imposto per legge
e salario offerto dalle imprese, con una conseguente tendenza alla crescita
dell’inflazione.
Stando invece alle analisi delle scuole di pensiero critico, quali possono essere gli effetti
dei sussidi di disoccupazione e delle leggi sul salario minimo? Una risposta preliminare,
che tiene conto delle semplificazioni di un testo didattico, è che l’approccio critico
avanza delle obiezioni al legame stringente tra dinamica dei salari e livelli di
occupazione che solitamente caratterizza le analisi neoclassiche e mainstream. Per gli
economisti critici, dunque, il salario minimo e il sussidio di disoccupazione possono
determinare degli effetti sui redditi dei lavoratori, e più in generale sui rapporti di forza
tra la classe lavoratrice e la classe dei capitalisti proprietari. Ma è difficile dire se e in
che modo tali effetti possano avere ripercussioni sulla produzione e sull’occupazione. In
altri termini, mentre i neoclassici e gli studiosi del mainstream ritengono che gli effetti
su queste variabili siano in genere negativi, gli economisti critici ammettono varie
possibilità, inclusa quella di un aumento dell’occupazione. E’ il caso, questo, in cui il
salario minimo e il sussidio di disoccupazione rafforzano la posizione contrattuale dei
lavoratori, accrescono la dinamica dei salari reali e, per questa via, contribuiscono ad
aumentare la propensione al consumo, il moltiplicatore e quindi la domanda di merci, la
produzione e le relative assunzioni. Alcuni economisti di orientamento critico, inoltre,
sostengono che i sussidi e il salario minimo possono aiutare a fronteggiare meglio
una crisi economica. I sussidi consentono di ridurre le fluttuazioni della domanda di
consumi da parte dei lavoratori, il che riduce l’effetto moltiplicativo della crisi. E il
salario minimo, ostacolando la deflazione, consente di contrastare quei fenomeni di
deflazione da debiti che, come viene descritto nell’Anti-Blanchard, possono determinare
una AD crescente e aggravare ulteriormente la crisi.
50
A tale scopo, ricordiamo innanzitutto che il totale dei disoccupati è espresso con il
termine U, il totale degli occupati con N e che la somma degli occupati e dei disoccupati
è indicata con il termine “forza lavoro” rappresentata da L = U + N, da cui ovviamente
ricaviamo che U = L – N. Quindi, assumiamo che i lavoratori immigrati o siano
occupati oppure siano sempre attivi nella ricerca di un lavoro, e che rientrino
quindi necessariamente nella forza lavoro L costituita dalla somma degli occupati e
dei disoccupati. Pertanto, possiamo ipotizzare che un aumento dei lavoratori immigrati
corrisponda a un aumento della forza lavoro L. Ricordiamo inoltre che il tasso di
disoccupazione u è dato dal rapporto tra il totale dei disoccupati U e il totale della forza
lavoro L. Sostituendo, possiamo quindi scrivere:
u = U/L = (L – N)/L
Ossia:
u = 1 – (N/L)
𝑌
𝑢 =1−
𝐴𝐿
𝐴𝐿 𝐴
Y= [( ) + 𝛼 − 1 − 𝑧]
𝛼 1+𝜇
1 𝐴
𝑢 =1− [( ) + 𝛼 − 1 − 𝑧]
𝛼 1+𝜇
𝑌 = 𝛽𝐸
𝐸
𝑢 = 1−𝛽( )
𝐴𝐿
Assumiamo ora che si verifichi un aumento dei lavoratori immigrati, che corrisponde a
un aumento della forza lavoro L. Verifichiamo l’effetto confrontando le equazioni del
tasso di disoccupazione corrispondenti ai due diversi modelli considerati. I risultati
differiscono in modo sostanziale.
Stando al modello mainstream, la forza lavoro non rientra tra le determinanti del tasso
di disoccupazione di equilibrio “naturale” e quindi l’aumento di L non ha alcun impatto
su u. La ragione è che in questo modello µ e z sono entrambi esogeni e assieme ad A e α
determinano l’unico tasso di disoccupazione che garantisce l’equilibrio “naturale” sul
mercato del lavoro, ossia che mette d’accordo imprese e lavoratori ed evita le rincorse al
ribasso o al rialzo tra salari e prezzi. Pertanto, per ogni dato A esisterà un solo rapporto
Y/AL e quindi un solo tasso di disoccupazione u = 1 – Y/AL che assicura tale equilibrio.
Qualsiasi deviazione da tale equilibrio è dunque destinata ad essere riassorbita. Per
esempio, se L aumenta a causa di un aumento dell’immigrazione, allora si verificherà un
temporaneo aumento del tasso di disoccupazione che comporterà un temporaneo calo
dei salari e dei prezzi e quindi un corrispondente incremento di domanda e di
produzione Y, fino a quado il rapporto Y/AL non sarà tale da rideterminare l’unico tasso
di disoccupazione “naturale” che mette d’accordo imprese e lavoratori e quindi
stabilizza salari e prezzi. Viceversa nel caso di un deflusso migratorio che faccia
diminuire L. In definitiva, stando al tradizionale modello manistream AS-AD,
l’impatto dell’immigrazione sul totale della forza lavoro L può avere effetti solo
temporanei sulla disoccupazione e sulla produzione, ma non può modificare i loro
livelli di equilibrio “naturale”. Ma al di là dei cambiamenti di L, cosa accade nel caso
in cui gli immigrati accettano salari più bassi dei lavoratori nativi e quindi
complessivamente contribuiscono a ridurre il parametro z di conflittualità dei lavoratori?
In tale circostanza, stando al modello prevalente, dovrebbero registrarsi effetti benefici
sul sistema economico, analoghi a quelli tipici della moderazione salariale. Infatti, come
si evince dalle formule dell’equilibrio AS-AD, al ridursi di z si registra una riduzione di
u e un aumento di Y. Per il modello mainstream, dunque, l’eventualità che gli
immigrati accettino salari più bassi e quindi riducano il parametro z, è la sola per
cui essi potrebbero avere un impatto sull’equilibrio “naturale” del sistema
economico: un impatto positivo, consistente in una riduzione del tasso di
disoccupazione naturale e un aumento del livello di produzione naturale, il tutto a parità
di salario reale di equilibrio.
52
Naturalmente, i modelli descritti hanno valenza puramente didattica. I loro limiti sono
tali da renderli insufficienti per l’analisi degli effetti reali dell’immigrazione. Uno dei
limiti più gravi verte sul fatto che entrambi i modelli assumono che la forza lavoro L sia
esogena, e quindi sia insensibile ai mutamenti della domanda effettiva e della
produzione. In realtà, diversi studi evidenziano che le variazioni della domanda e
della produzione possono influenzare i flussi migratori e i connessi mutamenti nella
forza lavoro di un paese: in altre parole, la crescita economica di un paese traina
l’immigrazione, per cui L dovrebbe almeno in parte esser considerata non esogena ma
endogena, diversamente da quel che si ipotizza in entrambi i modelli considerati.
L’articolo 53 della Costituzione della Repubblica Italiana stabilisce che: “Tutti sono
tenuti a concorrere alle spese pubbliche in ragione della loro capacità contributiva. Il
sistema tributario è informato a criteri di progressività”. Il sistema fiscale italiano deve
53
dunque essere progressivo, nel senso che l’aliquota di prelievo fiscale deve crescere al
crescere del reddito del contribuente (il sistema si definirebbe invece proporzionale se
esistesse un’unica aliquota di prelievo fiscale per ogni livello del reddito).
La tendenza alla riduzione della progressività fiscale è tuttora in atto. Alcune forze
politiche, in Italia e all’estero, propongono addirittura di adottare la cosiddetta “flat
tax” o “tassa piatta”, vale a dire un’aliquota fiscale unica e piuttosto bassa per tutti i
percettori di redditi, siano essi poveri oppure ricchi. Le obiezioni nei confronti della
“flat tax” sono numerose: dagli evidenti problemi di iniquità della misura ai rischi di
crollo del gettito fiscale e di conseguente dissesto del bilancio statale.
dire: -100t2 + 50t = 0. Siamo evidentemente dinanzi a una equazione di secondo grado
del tipo ax2 + bx + c = 0, che può risolversi applicando la formula generale x = [-b ±
√(b2 – 4ac)+]/2a. Otteniamo così che E = 0 per t = 0 oppure per t = ½, ossia il 50%.
Quindi, sapendo che le condizioni per l’individuazione del massimo di una generica
funzione corrispondono a df/dx = 0 e d2f/dx2 < 0 calcoliamo l’aliquota t ottima che
consente di massimizzare le entrate E per lo Stato. La condizione del primo ordine è
dunque: dE/dt = - 200t + 50 = 0, da cui l’aliquota ottima è t* = ¼, ossia il 25%. La
condizione del secondo ordine è d2E/dt2 = - 200, che è negativa e quindi conferma che
l’aliquota ottima corrisponde a un punto di massimo della funzione delle entrate fiscali.
Dunque, stando a questo esempio, se ci si trova con un’aliquota di prelievo fiscale
superiore al 25%, ogni sue eventuale riduzione comporterà non una caduta ma
addirittura un aumento delle entrate fiscali E.
Stando alle evidenze empiriche disponibili, le tesi di Laffer non trovano adeguato
riscontro nei dati. Nella stragrande maggioranza dei casi considerati, la riduzione delle
aliquote fiscali risulta correlata non con aumenti ma con riduzioni dei gettiti
fiscali. Dunque, contrariamente alle opinioni di Laffer e dei fautori di un abbattimento
delle aliquote, sembrerebbe che i sistemi fiscali contemporanei siano situati, in media,
lungo il lato crescente della curva di Laffer.
56
IV
INTERPRETI DELLA POLITICA ECONOMICA
All’interno delle sue analisi, e in particolare nella sua opera principale, Ezio Tarantelli
fece riferimento ad un «limite al di sotto del quale i sindacati e i lavoratori non possono
spingere il saggio di profitto nel regolare la matrice salariale». Il limite in questione
verteva sull’idea secondo cui, dato un certo volume degli investimenti, il saggio di
profitto non può scendere al di sotto del livello necessario a generare un ammontare
equivalente di risparmi e a garantire in tal modo il rispetto della condizione di equilibrio
58
macroeconomico (Economia politica del lavoro, cap. XIV, par. 5). Per lungo tempo
questa idea è stata piuttosto in voga tra alcuni economisti della Cambridge britannica.
E’ interessante notare che essa stabilisce un vincolo alle rivendicazioni salariali che
almeno a prima vista si presenta come una anonima “condizione di equilibrio”, ossia
come una giustificazione puramente tecnica alla moderazione salariale che viene
depurata da qualsiasi riferimento alla configurazione capitalistica del sistema
economico e al carattere irriducibilmente antagonistico di essa. Sulla base di questo
costrutto teorico, il «limite» salariale al quale pure Tarantelli faceva riferimento si
presenta come un vincolo di compatibilità politicamente neutrale e quindi
apparentemente inesorabile.
Il richiamo a quel presunto vincolo, si badi, di fatto predetermina l’intera
soluzione del sistema. Pensiamo ad esempio all’idea di Tarantelli, riportata nell’articolo
citato, secondo cui il salario potrebbe comunque esser considerato una variabile
indipendente, purché tuttavia lo si veda non come costo del lavoro erogato dall’impresa
ma, più in generale, come reddito disponibile al netto delle imposte e al lordo dei
trasferimenti e dei consumi e investimenti pubblici. Il problema di questa affermazione
è che, se si considera il saggio di profitto dato dal suddetto vincolo delle “condizioni di
equilibrio”, allora risulta determinata anche la quota di prodotto che può essere assorbita
dalla spesa sociale dello stato. Inoltre, considerato che il suddetto saggio di profitto “di
equilibrio” costituisce necessariamente un netto, nemmeno la tassazione potrebbe
fungere da strumento redistributivo tra le classi. La conseguenza è che il riferimento di
Tarantelli al salario quale variabile indipendente, se messo nell’angusto spazio teorico
da egli stesso creato, si riduce ad una sconfortante esortazione a finanziare la spesa
pubblica destinata ai lavoratori con quote di prodotto prelevate dagli stessi lavoratori.
E’ bene ricordare che il vincolo al quale Tarantelli e altri sottoponevano il salario è in
realtà basato su condizioni alquanto discutibili, come ad esempio l’idea che il grado di
utilizzo delle attrezzature produttive non presenti deviazioni significative da un ipotetico
livello “normale” o che il rapporto tra spesa autonoma e reddito rimanga invariato nel
tempo. Ciò sta ad indicare che proprio sul versante del conflitto distributivo la – per altri
versi illuminante - analisi di Tarantelli era fondata su presupposti logico-politici
restrittivi e ampiamente contestabili. Il che, guarda caso, potrebbe dirsi anche della
politica dei redditi, che in tutti i modi si sta tentando, oggi come ieri, di far digerire ai
lavoratori (27 maggio 2005).
ristrutturazione degli anni ’60 e ’70, fino a giungere ai più recenti contributi degli anni
’80 e ’90 volti alla costruzione di uno schema di teoria monetaria della produzione
dichiaratamente alternativo all’impostazione neoclassica dominante (si veda in
proposito il suo recente The monetary theory of production, Cambridge University
Press 2003). Tale schema risulta epistemologicamente fondato su una suddivisione della
collettività in gruppi sociali ben definiti, distinguibili essenzialmente in base alla
possibilità o meno di accedere al credito bancario. In tal senso appaiono evidenti i
legami tra l’elaborazione di questo schema e il convincimento, più volte espresso da
Graziani, secondo cui «se l’edificio neoclassico va respinto, esso va discusso nei suoi
assunti iniziali, e cioè proprio nel momento in cui immagina che il capitalismo sia una
società senza classi», piuttosto che esser giudicato nei soli termini della sua coerenza
interna. Una impostazione, questa, che a un’attenta disamina potrebbe forse rivelare
molte più affinità che divergenze con l’altro grande filone di critica della teoria
neoclassica dominante: quello del surplus, o quantomeno con le interpretazioni dello
stesso risalenti al famoso saggio Sull’ideologia di Maurice Dobb.
Il terreno della ricerca non è tuttavia l’unico sul quale Graziani si è cimentato.
Ad esso si affianca quello, non meno congeniale, della didattica. Graziani, infatti, è
autore di due ben noti manuali di teoria economica, espressamente strutturati in modo
da sollecitare il lettore a un continuo, serrato raffronto critico tra la teoria neoclassica e
le teorie ad essa concorrenti. Tali manuali vengono oggi riconosciuti da vaste schiere di
studenti e di ricercatori quali straordinari esempi di chiarezza espositiva e di rigore
analitico, e soprattutto quali preziosi antidoti al processo di omologazione culturale che
nell’ultimo ventennio sembra aver guidato gli sviluppi della teoria economica e delle
sue applicazioni in campo politico.
Il grande pubblico, tuttavia, tenderà probabilmente ad associare il nome di
Graziani alla sua intensa attività di commentatore delle più scottanti e intricate vicende
della politica economica nazionale. Emblematiche ed attualissime risultano, al riguardo,
le pungenti critiche che egli rivolse alla pretesa dei governi degli anni ‘80 di spingere
l’industria italiana al potenziamento tecnologico attraverso una spregiudicata politica
del cambio forte. Come Graziani ebbe ad osservare, tale politica doveva per forza di
cose basarsi sul presupposto di lasciar correre l’inflazione interna a tassi superiori a
quelli europei. Se così non fosse stato, infatti, il cambio forte non avrebbe rappresentato
una frusta per gli imprenditori italiani, e non li avrebbe quindi indotti a ristrutturare e ad
adottare il pugno di ferro con i sindacati. La lira forte e il lassismo nei confronti
dell’inflazione interna contribuivano d’altro canto ad alimentare il deficit commerciale
italiano, e spingevano quindi i governi a cercare un rimedio nell’incremento dei tassi
d’interesse e nella conseguente importazione di capitali dall’estero. Una politica che più
volte Graziani considerò fallimentare: una sorta di “gioco di Ponzi” che induceva le
autorità italiane a ripagare i debiti con altri debiti, e che ben presto si sarebbe rivelato
disastroso.
La crisi valutaria del 1992 rappresentò l’esito finale della crescente esposizione
debitoria verso l’estero. Quella crisi, come è noto, ricadde praticamente tutta sulle spalle
dei lavoratori. Graziani fece notare, in proposito, come la Banca d’Italia avesse saputo
rispettare «l’ordine di scendere in trincea e di sacrificare le riserve fino all’ultima
goccia» in difesa della lira, accettando di assecondare la svalutazione solo dopo che il
governo ebbe ottenuto dai sindacati il ben noto, durissimo accordo sul costo del lavoro.
L’obiettivo era chiaro: prima di far cadere la lira sotto i colpi della speculazione le
autorità vollero essere ben sicure «che quel tanto di inflazione che seguirà alla
60
mettere sotto controllo l’inflazione e i conti esteri. I lavoratori italiani hanno infatti
lungamente seguito la via dei sacrifici indicata dal padre nobile della moderazione
salariale. Ma oggi, pur con retribuzioni tra le più basse d’Europa, la tendenza del paese
al deficit estero rimane strutturale.
Sia nella versione del maestro che in quella dei seguaci, dunque, alla prova dei
fatti il mainstream ha rivelato le sue crepe. Eppure, come per inerzia, l’indirizzo
strategico del paese è rimasto quello di sempre, con alla base lo schiacciamento dei
salari, magari attraverso lo sfaldamento del contratto nazionale e la ulteriore
precarizzazione del lavoro. C’è modo di uscire da un tale, angoscioso deja vu?
Tecnicamente è possibile. Ma la tecnica, da sola, non basta mai (9 dicembre 2007).
Franco Modigliani, classe 1918, premio Nobel per l'economia nel 1985 per le sue
analisi pionieristiche sul risparmio e sui mercati finanziari, è morto ieri in
Massachusetts, dove da anni viveva e insegnava. La produzione scientifica e divulgativa
di Modigliani è vastissima, e ricopre gran parte del dibattito di teoria e politica
economica del Novecento. Modigliani divenne noto alla cittadella accademica per i suoi
fondamentali contributi alla formulazione della cosiddetta “sintesi neoclassica”, una
versione ortodossa e moderata del contributo di Keynes. Dall'economista inglese egli
trasse un fermo convincimento anti-liberista, quello secondo cui «il mercato non può
mai esser lasciato a se stesso», e la politica economica è lo strumento indispensabile per
il conseguimento dell'obiettivo prioritario della piena occupazione. Per questo motivo,
egli ha spesso e volentieri attaccato la Banca centrale europea e la sua politica
restrittiva, giungendo addirittura a considerarla «il vero nemico dell'euro e degli
europei», e invocando sempre una radicale riforma in senso keynesiano del Trattato
dell'Unione.
Il pubblico italiano tuttavia ricorderà Modigliani soprattutto per i numerosi
interventi nel campo della politica economica nazionale, a partire da quelli degli anni
`60 e '70 scritti in collaborazione con Giorgio La Malfa, Ezio Tarantelli e Tommaso
Padoa Schioppa. Benché nato in Italia e legatissimo al suo paese d'origine, nei confronti
della vita politica e sindacale nostrana Modigliani rivelava l'insofferenza tipica degli
economisti allevati nelle torri d'avorio americane. Egli curiosamente definiva gli
scioperi «irrazionali», e spesso dichiarò che le battaglie dei rappresentanti dei lavoratori
fossero controproducenti e autolesionistiche. Le contestazioni da parte degli esponenti
del pensiero critico furono numerose e accurate, ma egli non si scostò mai da tali
controverse posizioni. Al conflitto Modigliani non smise di preferire nettamente la pax
sociale ottenuta tramite la politica dei redditi, e operò sempre a sostegno dei governi che
in Italia e nel mondo decidevano di adottarla. Inoltre, dal punto di vista della disciplina
del mercato del lavoro Modigliani fu un convinto fautore della flessibilità,
distanziandosi in ciò dal tradizionale insegnamento keynesiano. Negli anni `90 egli
difese il pacchetto Treu, ed in seguito giunse persino a condividere il tentativo, ad opera
del governo di centro-destra, di introdurre deroghe all'articolo 18 dello Statuto dei
lavoratori. Nonostante la sua fede nelle virtù della flessibilità del lavoro, Modigliani non
è tuttavia mai riuscito a digerire l'attuale governo italiano. Persino nell'ultima intervista,
pubblicata ieri su Repubblica nel giorno stesso della morte, Modigliani non ha
64
«Liberati del burocrate e confida nel mercato», questo era il motto che Rudi
Dornbusch amava spesso ripetere. Nato in Germania ma cresciuto a Chicago e in
seguito adottato dal MIT di Boston, Dornbusch è morto a Washington lo scorso 25
luglio, all’età di 60 anni. Il suo orientamento politico può esser collocato a metà strada
tra l’antistatalismo viscerale di Milton Friedman e il liberismo temperato e solidale di
Modigliani. Un simile retroterra culturale e una certa propensione alla battuta velenosa
lo spinsero in numerose occasioni a polemizzare con le organizzazioni sindacali, gli
ambientalisti e i manifestanti di Seattle, ai quali egli imputava di voler nascondere le
mire neo-protezionistiche dietro lo slogan a suo dire improbabile della “globalizzazione
dei diritti”. D’altro canto, benché i sindacati e i movimenti costituissero il suo bersaglio
privilegiato, Dornbusch non risparmiò critiche nei confronti di un certo
convenzionalismo ortodosso, che riteneva diffuso soprattutto in Europa: nella Bce, in
particolare, ossessionata a suo dire da un’insensata lotta all’inflazione che non c’è e
dalla strenua, masochistica difesa dei vincoli di Maastricht; ma anche tra gli apologeti
del presunto miracolo americano degli anni ’90, ai quali l’economista del Mit ricordò
che quel “miracolo” stava avvenendo a tassi di crescita della produttività del lavoro
inferiori a quelli europei, e che l’Europa risultava più dinamica proprio a causa della
tanto vituperata maggiore “rigidità” del suo mercato del lavoro.
Le concessioni eterodosse di Dornbusch sono tuttavia sempre rimaste confinate
nell’ambito della sua attività di divulgatore. Sul piano analitico, infatti, il contributo
dell’economista del Mit rientra nel lungo processo di restaurazione con il quale gli
esponenti del pensiero neoclassico intesero neutralizzare la potenziale rivoluzione
teorica contenuta nella General Theory di Keynes. L’opera contro-rivoluzionaria era già
iniziata nel 1937, quando Hicks propose di incardinare le intuizioni keynesiane nel suo
modello IS-LM. Questo modello tuttavia trascurava le relazioni dirette tra domanda di
merci e prezzi, e ammetteva pertanto la possibilità che il sistema economico, lasciato a
sé stesso, rimanesse incagliato in uno stato di disoccupazione permanente. La soluzione
del problema venne fornita da Patinkin, il quale diede sostegno teorico all’idea che una
prolungata caduta dei salari e dei prezzi potesse determinare, almeno in linea di
principio, l’aumento di domanda necessario ad assorbire i disoccupati. Le conclusioni di
Patinkin permisero dunque di ricacciare la disoccupazione keynesiana nel novero dei
fenomeni transitori, e al limite trascurabili. A Dornbusch e al suo collega Stanley
Fischer spettò il compito di diffondere il verbo della restaurazione tra gli studenti e le
giovani leve di economisti attraverso il modello AS-AD, attorno al quale essi
costruirono il loro notissimo manuale di macroeconomia.
E’ comunque nel campo degli scambi internazionali e delle politiche valutarie
che Dornbusch ha fornito il contributo teorico di maggiore rilievo. Nel 1976 egli
elaborò il cosiddetto modello di “overshooting”, secondo cui la forte volatilità dei cambi
65
di Debreu e degli altri teorici neoclassici non siano mai state in grado di elaborare una
dimostrazione generale dell’unicità e della stabilità dell’equilibrio economico generale,
è oggi prevalente il convincimento che il loro contributo sia stato decisivo per definire
le condizioni necessarie affinché il medesimo equilibrio possa sussistere e quindi,
implicitamente, anche le azioni politiche che occorrerebbe intraprendere qualora quelle
condizioni non fossero soddisfatte. In quest’ottica, l’economista del MIT Olivier
Blanchard si è spinto addirittura al punto di attribuire proprio a Debreu il merito di aver
chiarito in termini rigorosamente scientifici i presupposti per il corretto funzionamento
della “mano invisibile” di Adam Smith, vale a dire di quel principio secondo cui la
proprietà fondamentale del capitalismo consisterebbe nel generare benessere diffuso
grazie esclusivamente al libero operare dell’egoismo dei singoli. Questo
significherebbe, ad esempio, che l’efficienza capitalistica è assicurata solo nel caso in
cui i prezzi, secondo l’impostazione di Debreu, siano perfettamente in grado di riflettere
la scarsità relativa delle risorse che essi rappresentano. Se per esempio il lavoro fosse
relativamente abbondante rispetto alle altre risorse allora il suo prezzo, ossia il salario,
dovrebbe risultare relativamente basso. Se ciò non avviene, magari a causa dell’azione
dei sindacati, vorrà dire che è solo a questi ultimi che si dovrà imputare l’inefficienza
dell’equilibrio capitalistico. Originariamente destinato agli studi d’ingegneria e capitato
tra le spine della scienza economica solo a causa della guerra, Debreu sarebbe
probabilmente sobbalzato di fronte al carattere rudemente politico di una simile
conclusione. Ciò non toglie, tuttavia, che essa rappresenta la pressoché indiscussa
conseguenza logica di tutti i modelli ispirati alla sua opera.
E’ un peccato che non si possa chiedere direttamente ad Adam Smith una
valutazione epistemologica sul temerario accostamento tra la novella della mano
invisibile e la teoria di Debreu. Ma soprattutto, appaiono a dir poco fuorvianti le
concezioni secondo cui la realtà capitalistica funzionerebbe in modo non efficiente
(generando ad esempio crisi e disoccupazione) solo perché i sistemi economici effettivi
non rispettano i requisiti del modello di equilibrio generale di Debreu. Quei requisiti
rappresentano infatti soltanto delle condizioni di equilibrio di un particolare schema di
rappresentazione del capitalismo, il modello neoclassico. E non vi è nessuna ragione
scientifica per cui si debba reputare quello schema l’unica possibile “metafora” del
funzionamento effettivo del sistema economico. Qui si pone il problema di fondo per
chi desideri accostarsi criticamente al pensiero di Debreu e degli altri giganti
dell’ortodossia neoclassica. E’ il problema della costruzione di una potente
rappresentazione alternativa del sistema capitalistico, quale fondamento necessario per
una efficace critica della teoria economica dominante e della ideologia ad essa sottesa.
Le critiche “interna” ed “esterna” all’equilibrio generale neoclassico, elaborate da alcuni
esponenti italiani delle cosiddette scuole di pensiero critico, rappresentano a parere di
chi scrive una base di sostegno promettente per la costruzione di una teoria alternativa.
Queste impostazioni, infatti, presentano già il merito di non attribuire alla
determinazione capitalistica del salario e delle altre variabili distributive alcuna
proprietà generale di efficienza, ma anzi fanno risalire le origini della stessa a questioni
di “potere”, come quello tipico della classe capitalista di accedere in modo privilegiato
alle fonti di finanziamento. Un limite che tuttavia può rintracciarsi in queste analisi - e
che almeno negli esiti sembra accomunarle all’opera di Debreu - consiste nella estrema
difficoltà di introiettare o anche solo di rapportarsi con il processo storico e con i suoi
continui stravolgimenti. Debreu, con l’ipotesi eroica dei mercati futuri completi per tutte
le merci aveva deciso di liquidare il problema facendo implodere l’intero sviluppo
67
non era altro che un paludoso acquitrino. Un simile meccanismo ovviamente tiene
finché l’afflusso di risparmiatori attirati dalle facili promesse del Ponzi di turno eccede
il numero dei vecchi clienti i cui titoli sono venuti in scadenza, e che vanno quindi
ripagati. L’abilità del mazziere sta quindi nel prenotare un volo per le Isole Vergini
prima che il suo castello di carta gli crolli addosso. Ponzi evidentemente dovette avere
un attimo di esitazione visto che finì i suoi giorni in galera. Ma la procedura da allora si
è fortemente affinata, e di catene del genere si scoprono versioni sempre più sofisticate
e inquietanti.
Il mercato è dunque innanzitutto un luogo di esercizio del potere: quello di
sopraffare il prossimo attraverso un migliore controllo dell’informazione, delle relazioni
sociali, persino della psiche degli individui. Operando nel solco della migliore
tradizione istituzionalista, Galbraith si è in tal senso lungamente dedicato ai meccanismi
di manipolazione delle preferenze individuali da parte delle grandi corporazioni, al fine
di dimostrare l’assoluto irrealismo del concetto di “libertà” del singolo, sia esso
consumatore, risparmiatore oppure lavoratore. Il sistema, lasciato all’azione dei “poteri
forti” che operano al suo interno, tende a generare effetti perversi, che sembrano di fatto
operare in direzione esattamente opposta alle più elementari aspirazioni umane. In
questo senso, mostrando una spiccata sensibilità ante-litteram nei confronti
dell’ambiente e di quelli che oggi chiameremmo beni comuni, nel suo bestseller La
società opulenta (The Affluent Society, 1958) Galbraith sostenne che senza opportuni
contrappesi il capitalismo avrebbe fatto sprofondare l’umanità in una infelice esistenza,
dominata dall’opulenza privata e dallo squallore pubblico.
Per evitare un simile destino la strada, per Galbraith, é sempre stata una soltanto.
Occorre costituire dei “contropoteri” in grado di bilanciare la forza soverchiante delle
grandi imprese, dei grandi investitori, dei cartelli e dei monopoli (American Capitalism,
1961). In parole povere, bisognerebbe favorire il pieno sviluppo dei sindacati dei
lavoratori, delle associazioni dei consumatori e dell’apparato pubblico, sostenendo a
questo scopo anche misure espressamente definite “socialiste”, come l’amministrazione
dei prezzi e le nazionalizzazioni. Opinioni, queste, che negli Stati Uniti non hanno mai
goduto di largo seguito, nonostante l’estrema notorietà di Galbraith ed i ruoli
significativi da lui assunti presso le Amministrazioni democratiche degli anni ’50 e ’60.
Ed è certamente indicativo che oggi simili proposte incontrino fortissime resistenze
anche nel vecchio continente, in quella Europa che Galbraith aveva spesso indicato
come un invidiabile punto di riferimento sociale e culturale.
I contropoteri, insomma, hanno bilanciato molto meno di quanto Galbraith
sperasse, e negli ultimi decenni sono stati costretti persino ad arretrare. In una intervista
di alcuni anni fa, il nostro cercò di avanzare una possibile spiegazione per questo
drammatico regresso: i contropoteri non si sono sviluppati quanto avrebbero dovuto, nel
senso che non sono mai stati in grado di coinvolgere gli strati marginali della società,
non sono cioè mai riusciti a farsi portatori delle istanze dei giovani dei ghetti, dei poveri
delle aree rurali, dei lavoratori situati nei settori residuali e nelle zone periferiche. I
gruppi marginali hanno pertanto finito per tramutarsi in un micidiale strumento nelle
mani della Reazione. Il loro disagio è infatti divenuto un implicito atto d’accusa nei
confronti dei lavoratori sindacalizzati, di quella sinistra pensante e garantita che pure
negli Usa ha avuto nei decenni passati un decisivo ruolo di indirizzo e di mobilitazione.
Una lettura, questa, forse tautologica e troppo politicista, che espone probabilmente il
fianco alle più classiche tra le critiche marxiste. Prima ancora di puntare l’indice sulle
manchevolezze dei sindacati organizzati bisognerebbe infatti indagare sulle condizioni
69
«Alla base delle dichiarazioni contro la libertà di mercato c’è quasi sempre un’ostilità di
fondo nei confronti della libertà in quanto tale». Era questo uno degli aforismi con i
quali Milton Friedman amava presentarsi al grande pubblico, nella veste di nemico
giurato dei comunisti e più in generale di tutti i sostenitori, più o meno accaniti,
dell’intervento pubblico nell’economia.
Friedman è morto a San Francisco, all’età di 94 anni. Indiscusso gigante del
monetarismo e premio Nobel per l’economia nel 1976, Friedman potrà forse essere
ricordato come il massimo rappresentante della contraddizione insita nel concetto di
libertà in regime capitalistico. Egli fu infatti strenuo difensore non solo delle classiche
libertà d’impresa ma anche dei diritti civili. Basti pensare che non ebbe mai alcuna
remora nel difendere, anche di fronte all’America più bigotta e reazionaria, la
legalizzazione delle droghe leggere e pesanti e al limite «il pieno diritto di uccidersi»
attraverso di esse. Ma al tempo stesso Friedman fu pure il demiurgo economico della
sanguinaria dittatura del Cile di Pinochet. Nel 1975, due anni dopo il feroce colpo di
Stato che destituì Alliende e che avrebbe aperto una delle pagine più oscure della Storia
del Novecento, Friedman accettò di incontrare il dittatore. In quel colloquio vennero
gettate le basi per un gemellaggio tra l’Università di Chicago, già allora tempio del
monetarismo, e l’Università Cattolica di Santiago del Cile. Obiettivo dell’intesa:
formare una nuova generazione di economisti e di politici cileni, di comprovata fedeltà
sia al liberismo che al regime. Giovani e arrembanti, dopo il preliminare
indottrinamento friedmanita i cosiddetti “Chicago boys” avrebbero assunto importanti
cariche nel governo Pinochet, al fine di sottoporre l’economia cilena ad una delle più
terribili purghe liberiste che si ricordino: abolizione dei minimi salariali e dei diritti
sindacali, rigido controllo dell’offerta di moneta, deregolamentazioni, privatizzazioni e
svendite di capitale pubblico nazionale a favore di imprese statunitensi, il tutto
conseguito con una rapidità senza precedenti grazie alla paralisi del popolo cileno,
totalmente soggiogato da una terrificante dittatura.
Friedman arrivò a definire il feroce esperimento cileno come «un vero e proprio
miracolo». Fu la goccia, e anche i colleghi a lui culturalmente più vicini cercarono di
tenersi a distanza da quella sconcertante presa di posizione. L’onta dell’episodio tuttavia
non lo perseguitò troppo a lungo. Appena pochi anni dopo il governatore della Federal
Reserve, Alan Greenspan, non ebbe alcuna esitazione nel definire pubblicamente
Friedman «il mito» indiscusso della scienza economica contemporanea. Un tributo che,
provenendo dal più importante banchiere centrale del mondo, è stato da molti
interpretato come un implicito ringraziamento. Dopotutto il monetarismo di Friedman
ha posto le banche centrali in una posizione invidiabile. E’ pur vero infatti che proprio
alla irrazionale decisione dei banchieri centrali di ridurre la massa monetaria reale egli
attribuì la colpa gravissima della Grande Crisi. Ma è altrettanto vero che con
70
vedeva la distribuzione del reddito come una risultante del quadro istituzionale e
politico, e in ultima istanza dei rapporti di forza tra le classi sociali. Spaventa
condivideva i termini di questa obiezione, ma la mera critica della teoria dominante non
lo seduceva. A suo avviso, per dare un solido futuro al programma di ricerca di Sraffa
bisognava concentrare gli sforzi sulla sua parte costruttiva, senza troppe pregiudiziali
verso la vecchia teoria. Per esempio, Spaventa riteneva che si potesse integrare l’analisi
sraffiana con gli spezzoni a suo dire salvabili della visione ortodossa, come ad esempio
la teoria delle aspettative. Questo programma spurio tuttavia non convinse. Tra gli
sraffiani prevaleva l’idea che far dipendere una teoria economica da una ipotesi sulle
aspettative era un po’ come tenerla su per i lacci delle scarpe. Spaventa prese atto, e
anche per questo iniziò a distanziarsi.
L’allontanamento dagli antichi sodali fu ancor più accentuato nel campo della
politica economica. Nel 1981, con Mario Monti ed altri, Spaventa caldeggiò la proposta
di “desensibilizzazione” dei salari. L’idea consisteva nell’indicizzare le retribuzioni ai
soli aumenti dei prezzi di origine nazionale: in caso di inflazione proveniente
dall’estero, i salari non dovevano più essere protetti. In tal modo il potenziale
inflazionistico della scala mobile sarebbe stato attenuato. Le obiezioni furono numerose:
perché mai adottare un meccanismo che avrebbe salvaguardato i profitti e avrebbe
scaricato sui soli lavoratori il peso degli aumenti del prezzo del petrolio? Per Monti ed
altri veniva istintivo cercare di difendersi da questa critica arrampicandosi al vecchio
albero neoclassico, e da lì replicare che i salari andavano frenati poiché avevano
oltrepassato l’equilibrio “naturale”. Ma per Spaventa, che negli anni precedenti aveva
contribuito a segare il tronco di quella pianta, si apriva una contraddizione fra le sue
origini teoriche e le proposte politiche che intendeva sostenere.
Forse anche per risolvere tali incongruenze, negli anni Ottanta Spaventa
approfondì sempre di più il solco che lo divideva dagli eretici, fino ad attribuire ad essi
il poco lusinghiero appellativo di “riserva indiana”. In effetti fu tempestivo nel rilevare
che il fronte della guerra delle idee economiche si era spostato altrove: con le sconfitte
sindacali in Italia e in Europa, la Reaganomics negli Stati Uniti e la crisi sovietica, il
tema delle determinanti di classe della distribuzione del reddito appariva ormai
superato, dal corso degli eventi storici prima ancora che dalla evoluzione del dibattito
teorico. A suo avviso, l’analisi delle aspettative restava invece attualissima. Per
Spaventa, il problema principale posto dalla nuova epoca consisteva nell’individuare
meccanismi istituzionali capaci di rendere stabili le aspettative degli investitori, in modo
da garantire uno sviluppo ordinato dei mercati. Fu alla luce di questo convincimento che
egli modificò le sue opinioni sul Sistema monetario europeo. Nel 1979, quando lo Sme
fu istituito, Spaventa si collocava tra le file degli scettici: il regime dei cambi fissi
avrebbe impedito all’Italia di svalutare, e in definitiva l’avrebbe danneggiata. In seguito,
però, egli divenne un tenace sostenitore di quel vincolo. Anzi, a suo avviso bisognava
rafforzarlo attraverso un accordo più stringente, che eliminasse ogni incertezza sulla
irrevocabilità futura dei rapporti di cambio tra le valute. In altre parole, per stabilizzare
le aspettative degli investitori bisognava chiarire che non si poteva più tornare indietro:
bisognava andare oltre lo Sme e istituire una vera e propria moneta unica. La creazione
dell’euro, eliminando qualsiasi rischio di future svalutazioni, avrebbe favorito gli
afflussi di capitale estero verso l’Italia e gli altri paesi periferici dell’Unione. Grazie alla
regolare crescita degli afflussi finanziari, queste economie avrebbero potuto investire e
aumentare la produttività e sarebbero quindi state in grado di rimborsare i prestiti.
72
cavaliere per una dama inaccessibile, al limite per la sposa del principe. Questa passione
sublimata, rendendo il cavaliere capace di imprese belliche durissime, veniva
considerata fondamentale per la salvaguardia del feudo e risultava dunque oggetto di
culto e di celebrazione. Con l’avvento poi della società capitalistica dimensione carnale
e spirituale arrivarono finalmente a riunirsi, ma esclusivamente sotto l’identificazione
dell’amore con il matrimonio. Il nuovo ideale amoroso diventò quello della coppia
sposata, chiusa in sé stessa e coesa contro il mondo esterno, che si faceva custode del
capitale accumulato e che in tal modo si poneva in sintonia con l’individualismo e la
concorrenza connaturati al sistema di vita borghese. Un posto importante, in questa
nuova logica delle relazioni, l’avrebbero oltretutto conquistato anche i sottomondi
dell’adulterio e della prostituzione. Pubblicamente combattuti ma sotterraneamente
tollerati, essi avrebbero rappresentato il lato oscuro, contraddittorio e in un certo senso
necessario, della famiglia borghese. Con l'avvento della rivoluzione bolscevica, infine,
vennero posti nuovi interrogativi: quale sarebbe dovuta essere la concezione dell'amore
tipica della società socialista? Stupefacente fu la risposta di Kollontaj: occorreva un
amore “da compagni”, liberato dai vincoli del matrimonio borghese, un amore non più
esclusivo che proprio per il suo carattere diffuso e multiforme avrebbe contribuito al
rafforzamento dei sentimenti di solidarietà collettiva e di coesione sociale: «l’amore-
solidarietà - scrive Kollontaj - avrà un ruolo motore analogo a quello della concorrenza
e dell’amor proprio nella società borghese».
In effetti, all’indomani della rivoluzione le nuove norme sul divorzio, sulle
unioni di fatto, sulla parificazione dei figli nati fuori dal matrimonio, sulla soppressione
della potestà maritale e sull’aborto suscitarono grandi speranze di emancipazione
sociale, di liberazione femminile e di trasformazione delle relazioni affettive. Ben presto
tuttavia ci si rese conto che le cose non sarebbero andate come Kollontaj aveva
preannunciato. In pochi anni, infatti, la repubblica sovietica tornò sui propri passi,
arrivando sotto Stalin a ripristinare gli antichi precetti: dal divieto di aborto, alla
criminalizzazione della libertà dei costumi, alla centralità della famiglia tradizionale.
Come spiegare un simile regresso? Luigi Cavallaro, nella sua bella nota introduttiva al
libro, ribalta i nessi causali e offre una prima traccia per provare a rispondere. La sua
idea è che, ieri come oggi, l’estensione dei diritti civili e le relative attese di
emancipazione dei costumi non possono concretizzarsi se non vengono affiancate da un
contemporaneo accrescimento dei diritti sociali, e soprattutto da una politica di
socializzazione del lavoro di riproduzione e di cura, dei bambini e degli anziani. I
bolscevichi non riuscirono a tenere assieme i due processi di trasformazione, civile e
sociale. Così la donna venne ben presto ricacciata nel focolare domestico, e la
rivoluzione sessuale e degli affetti invocata da Kollontaj fu relegata al rango di
improponibile utopia.
Debordante nello stile, iperbolico nei propositi politici, non sempre convincente
sul piano analitico, il libretto di Kollontaj può essere tuttavia annoverato tra le più
interessanti versioni divulgative della celebre lezione materialista contenuta nella
Origine della famiglia di Friedrich Engels. Si tratta come è noto di un filone del
marxismo teorico che ha goduto di alterne fortune, essendo passato più volte nel corso
del Novecento dal pieno successo al più completo oblio. Oggi in effetti assistiamo a un
rinnovato interesse verso l’analisi strutturale della famiglia, in gran parte dettato dalla
sua crisi e dalle sue profonde trasformazioni. Persino un influente tecnocrate del calibro
di Jacques Attali ha dedicato al futuro dell’organizzazione familiare e delle relazioni
affettive numerose riflessioni, intrecciate a suggestive premonizioni di ordine
74
L’economista Marcello De Cecco è morto lo scorso 3 marzo, a Roma. Nato nel 1939 a
Lanciano, laureatosi in legge a Parma e in economia a Cambridge, ha insegnato in
numerosi atenei italiani ed esteri, tra cui Norwich, Siena, la Normale di Pisa e la Luiss
di Roma. Dotato di simpatia innata, colto e raffinato interprete della storia della moneta
e della finanza, De Cecco conquistò uno spazio nella ricerca accademica internazionale
per i suoi contributi alla comprensione del “gold standard”, il sistema aureo vigente fino
alla prima guerra mondiale. Il suo Money and Empire, pubblicato nel 1974 da Basil
Blackwell, è considerato un autorevole esempio di analisi storico-critica delle relazioni
monetarie internazionali. Il libro, basato su una accurata disamina delle fonti
documentali, rivela il radicato scetticismo dell’autore verso ogni tentativo di esaminare
le relazioni economiche tra paesi in base a teoremi astratti e decontestualizzati [1].
Alla luce di questa metodologia di ricerca, De Cecco ha avanzato spesso
obiezioni verso la tradizione di pensiero economico sostenitrice dei “meccanismi di
aggiustamento automatico”, secondo i quali le forze spontanee del mercato dovrebbero
essere in grado di garantire l’equilibrio degli scambi commerciali e finanziari tra i
diversi paesi. Per gli esponenti di questa visione, il funzionamento del gold standard era
assicurato dal meccanismo spontaneo secondo cui, per esempio, l’eventuale eccesso di
importazioni di un paese avrebbe dato luogo a un deflusso d’oro verso l’estero tale da
generare un calo di domanda interna e quindi dei prezzi nazionali, con un conseguente
aumento della competitività e un riequilibrio tra import ed export. Sia pure rivisto e
aggiornato, questo tipo di meccanismo rappresenta ancora oggi un ineludibile punto di
riferimento per la maggioranza degli economisti accademici e viene talvolta citato nei
75
l’idea di avviare una riflessione critica sugli effetti della indiscriminata apertura ai
movimenti internazionali di capitali e di merci, e di immaginare delle ipotesi di
ripristino di forme coordinate di controllo degli scambi tra paesi. In un articolo
pubblicato nell’aprile 2010 sulla Rivista italiana degli economisti, De Cecco passò in
rassegna le posizioni degli economisti italiani del Novecento in tema di
liberoscambismo: esaminando gli scritti di un giovanissimo Franco Modigliani, di
Marco Fanno, di Giorgio Fuà e vari altri, egli mostrò che le critiche all’apertura
incontrollata alle transazioni con l’estero risultavano prevalenti [4]. Nel 2013, nella
introduzione al suo ultimo libro, De Cecco fu poi ancor più esplicito: egli scrisse che
l’aver screditato e messo da parte per più di un cinquantennio soluzioni come il
protezionismo e la regolamentazione degli scambi «come se si trattasse di pulsioni
peccaminose e indegne di una nuova e superiore organizzazione internazionale, è stato
colpevole e persino stupido, perché in forma blanda esse dovevano rimanere in voga»
mentre oggi ci si ritrova a ripristinarle «velocemente e in dosi assai maggiori, senza
usufruire dei vantaggi che sarebbero derivati da dosi moderate, e correndo in pieno il
pericolo di precipitare il mondo intero in un nuovo disordine internazionale» [5].
Anche in sede politica De Cecco provò di tanto in tanto ad avanzare tesi simili.
Nel mezzo della crisi degli spread, in una riunione presso la sede del PD con l’allora
segretario Bersani e il responsabile economico del partito Fassina, con la sua
proverbiale flemma De Cecco dichiarò che l’ipotesi di un moderato protezionismo verso
la Germania in fondo non andava scartata a priori, a condizione che l’Italia potesse
delinearla in accordo con la Francia, un paese caratterizzato da strutture produttive per
più di un verso complementari alle nostre. Ricordo che Bersani restò attonito. I tempi
evidentemente non erano maturi.
Negli ultimi anni della sua vita Marcello De Cecco considerava sempre più
tangibile il rischio di un rapido riflusso verso forme di ultranazionalismo e di razzismo,
ma lo interpretava come una tremenda eterogenesi dei fini del globalismo
indiscriminato e dell’europeismo acritico che negli anni precedenti avevano
imperversato tra le forze politiche, specie a sinistra. Questo nesso di causa ed effetto
suggerisce un’interpretazione non banale della storia recente delle relazioni
internazionali. Su di esso sarebbe utile provare a riflettere (4 marzo 2016).
[1] Marcello De Cecco, Money and Empire: the International Gold Standard 1890-1914 (Oxford: Basil
Blackwell 1974). Cfr. anche la precedente versione italiana del volume: Economia e finanza
internazionale dal 1890 al 1914 (Bari: Laterza 1971), in seguito riproposta in versione ampliata sotto il
titolo Moneta e impero: il sistema finanziario internazionale dal 1890 al 1914 (Torino: Einaudi 1979).
[2] Cfr. per esempio Marcello De Cecco e Fabrizio Maronta, “Il dollaro non teme rivali” (Limes. Rivista
italiana di geopolitica, 2/2015).
[3] AA.VV., “Lettera degli economisti” (Il Sole 24 Ore, 14 giugno 2010; www.letteradeglieconomisti.it).
[4] Marcello De Cecco, “Gli economisti italiani e l’economia internazionale nel Novecento” (Rivista
italiana degli economisti, 2010/1).
[5] Marcello De Cecco, Ma cos'è questa crisi (Roma: Donzelli Editore, 2013).