Sei sulla pagina 1di 226

I 15 anni de

Un calcio ai club più piccoli. La chiusura delle frontiere per i calciatori extra-
comunitari ...................................................................................................... 5

La pensione di Johanna .................................................................................... 7

Modigliani e la teoria del ciclo di vita del risparmio .......................................... 10

Dove nasce l’euro-disagio .............................................................................. 14

Deficit e conflitti ............................................................................................ 17

Breve storia della contrattazione articolata ...................................................... 21

Una regolamentazione per il pluralismo .......................................................... 24

La statistica e la democrazia ........................................................................... 27

La paga dell’avvocato ..................................................................................... 30

Autostrade, galline dalle uova d’oro e polli da spennare................................... 32

Tutto (o quasi) quello che vorreste sapere sulla tassazione delle attività finanziarie
.................................................................................................................... 47

Una proposta di riforma istituzionale .............................................................. 52

Una manovra indispensabile ........................................................................... 58

Nel Maelstrom della frode finanziaria .............................................................. 61

Tfr o fondo pensione? Una scelta di convenienza ............................................. 70

Sedici anni, l’età per votare ............................................................................ 76

Il “Testo unico” del contratto unico ................................................................. 79

Quel capitale che manca al sud Italia............................................................... 81

Quanto costa un’intercettazione ..................................................................... 85

Se la scuola non ha tempo per le mamme ....................................................... 87

Il Pil sulla scala Mercalli .................................................................................. 90

Quando va sotto zero il tasso ufficiale ............................................................ 93

Perché la Grecia non può fallire ..................................................................... 95

Reazioni sbagliate: il divieto di vendite allo scoperto ....................................... 98

Perché l’Italia ha bisogno di Womenomics ......................................................104

Wikileaks nella rete della globalizzazione .......................................................107

2
E ora chi paga per l’acqua? ............................................................................110

Le mani sulla città: l’indegna storia del lido di Venezia ...................................113

Studiare economia? Vale la pena ....................................................................116

Missione qualità per le professioni .................................................................119

Ricette per la crescita: più ingegneri e meno filosofi .......................................123

Scegliere con saggezza fa bene alla salute .....................................................127

Se la casa cerca credito .................................................................................130

Per una vera staffetta tra generazioni.............................................................134

Il financial fair play cambierà in peggio il calcio europeo?................................137

Le sirene che allontano dalla laurea ...............................................................140

Cosa c’è di sbagliato nei Centri per l’immigrazione.........................................143

Alti dirigenti pubblici, stipendi d’oro..............................................................146

Il contratto a tutele crescenti è legge. È una buona notizia? .............................150

Il punto debole della class action all’italiana ...................................................153

Da dove inizia la “Buona scuola” ....................................................................156

Il cane di Pavlov e altri tagli alle tasse ............................................................160

Gli 80 euro? Spesi al supermercato ................................................................162

La Ferrari si quota. Con qualche azionista più uguale degli altri .......................168

Sul populismo economico non tramonta mai il sole ........................................170

Di cosa parliamo quando parliamo di voto sulle trivelle ...................................172

Il paradiso perduto dei Panama papers ..........................................................175

Si legge Ttip, si pronuncia disinformazione ....................................................177

Non c’è più religione.....................................................................................179

Come sarà l’Europa nel 2026 se vince Brexit ..................................................183

Banche, rischio sistemico e rischio politico .....................................................185

Olimpiadi sì o no? Vediamo i conti .................................................................187

Referendum: quanto scendono davvero i costi della politica? ...........................191

Livorno, dove la trasparenza non paga ...........................................................200

I bambini non nascono sotto un Fertility day ..................................................202


3
Risparmio gestito: ma quanto mi costi? ..........................................................204

Una tassa per liberalizzare i taxi con il consenso dei tassisti ...........................206

La storia surreale del voucher “che toglie dignità al lavoro”* ............................209

Irpef, una riforma da fare ..............................................................................211

Alla ricerca della legge elettorale perduta .......................................................213

Decreto Minniti-Orlando: i limiti di una riforma necessaria..............................216

Se per Renzi il buco dell’Etruria è poca cosa ...................................................221

L’Istat ora vuole eliminare le classi sociali ......................................................225

4
SPORT

Un calcio ai club più piccoli. La chiusura delle


frontiere per i calciatori extra-comunitari
18.07.02
Tito Boeri e Carlo Favero

L’invasione degli extra-comunitari


Immersa nei debiti, la Federcalcio decide di chiudere le frontiere agli extra-comunitari
“anticipando le norme della legge Bossi-Fini”. Se ne potrà tesserare ancora uno per squadra
fino al 31 agosto, poi basta. A detta di Franco Carraro, presidente della Federcalcio, è un
modo per impedire un’invasione di extra-comunitari (ne sarebbero arrivati altri 500!) e di
risanare i conti delle società. Il Sindacato calciatori ha naturalmente accolto con soddisfazione
questa misura. Da tempo il suo Presidente, Sergio Campana, la caldeggiava sostenendone la
necessità per impedire che le nostre squadre perdano la loro identità nazionale. Argomenti
pretestuosi. Il vero motivo per cui i nostri club acquistano calciatori extra-comunitari è che
spesso costano meno dei nazionali e il sindacato calciatori teme un “dumping salariale”. Sono
proprio gli attuali pressanti problemi di bilancio a spingere molte società ad ingaggiare
calciatori meno cari. L’arrivo di molti extra-comunitari sarebbe un primo passo verso
l’imposizione di quei tetti ai salari dei calciatori che sono da molti invocati come strada per
risanare i conti delle società. Chiudere le frontiere, invece, serve solo a far salire il monte
salari.

I nostri talenti

Si dice, anche, che l’arrivo di calciatori extra-comunitari non farebbe crescere i nostri talenti
naturali, presenti ma poco utilizzati nei club. Equivale a sostenere che ridurre la competizione
aumenta l’efficienza: una contraddizione in termini. Inoltre non è affatto chiaro che la
presenza di talenti stranieri limiti la crescita dei nostri giovani. Gianfranco Zola ha dichiarato
espressamente che allenarsi all’ombra di Maradona è stato uno degli elementi chiave per lo
sviluppo del suo talento. Inoltre è proprio grazie all’arrivo di extra-comunitari che i nostri
club sono riusciti spesso a ben figurare in competizioni a livello internazionale, acquisendo
esperienza in incontri di alto livello. Infatti, con la partecipazione alle Coppe europee aumenta
il numero degli impegni e si offre a tutti poi la possibilità di giocare. Non si ha dunque
spiazzamento di nazionali da parte di extra-comunitari. E se anche così fosse, nulla vieta ai
nostri giovani di andare a giocare all’estero. Alcuni dei nostri migliori giocatori lo hanno fatto
(si pensi a Gattuso) e di questo sembra averne beneficiato anche la Nazionale.
La Nazionale e i vivai
Da ultimo non è nemmeno ovvio che limitare l’accesso agli extra-comunitari favorisca le

5
esigenze di lungo termine della Nazionale di calcio. La possibilità di “importare” extra-
comunitari a detta di alcuni, avrebbe ridotto gli incentivi per i nostri grandi club a investire sui
giovani, rinunciando a coltivare i vivai. Questo potrebbe, nel tempo, indebolire la Nazionale,
renderla meno competitiva. Ma di questi effetti non si hanno sin qui le avvisaglie. I molti
successi della nostra Under 21, del resto, dimostrano esattamente il contrario.
Inoltre, non c’è bisogno necessariamente di impedire l’arrivo degli extra-comunitari per
coltivare le nostre giovani speranze. Basterebbe tassare i club più ricchi (con contributi
crescenti nel monte-salari delle squadre) per finanziare un vivaio della nazionale o per
sussidiare quei club che investono nel “made in Italy”. Oppure si dovrebbe impedire che i
trasferimenti dei “ragazzini” avvengano a costo zero, il vero motivo per il diminuito interesse
nei vivai. Gli investimenti fatti dai club nel formare i giovani talenti devono essere
adeguatamente remunerati. Meglio che imporre restrizioni all’utilizzo di extra-comunitari.
Queste restrizioni non sono, peraltro, facilmente applicabili, come provano le vicende dei
passaporti contraffatti. Facile prevedere che assisteremo a giri di giocatori extra-comunitari,
acquistati e poi piazzati presso società di B o di C. Saranno proprio i club più ricchi a
beneficiare di queste restrizioni perché i) hanno minori problemi di bilancio, ii) è più facile per
loro aggirare le norme, piazzando i giovani talenti extra-comunitari presso società satellite. A
rimetterci saranno soprattutto i club più piccoli.

6
EUROPA, PENSIONI

La pensione di Johanna
16.05.03
Tito Boeri e Agar Brugiavini

Tutti i contribuenti devono essere informati sull’ammontare delle prestazioni che potrebbero
ricevere a seconda di quando andranno in pensione e di come andrà l’economia. Servirebbe
anche ad incoraggiare investimenti in previdenza integrativa e la scelta di lavorare più a
lungo. Come informarli? Ecco la lettera che un qualsiasi contribuente svedese — Johanna, una
figlia di due anni — riceve dagli enti previdenziali pubblici. Perchè non fare la stessa cosa
anche da noi? Potremmo quasi copiarla dato che la Svezia ha attuato una riforma molto
simile a quella varata in Italia nel 1995.

Johanna è una lavoratrice dipendente residente in Svezia e ha avuto un bambino nel 2001,
viene tenuta informata sulla sua posizione pensionistica.

ISTITUTO NAZIONALE SVEDESE della PREVIDENZA


Nome e Cognome: Johanna JS

Indirizzo:

Previsione della sua posizione pensionistica gestita dall’Istituto di Previdenza


L’ammontare della sua pensione futura dipende dai suoi anni di lavoro, dall’ammontare dei
suoi redditi da lavoro e dalla crescita dell’economia svedese. Il risultato complessivo dipende
anche dal modo in cui lei decide di investire il denaro della sua pensione integrativa detta
"pensione-assicurativa" o fondo pensione. In questo resoconto abbiamo ipotizzato che il suo
reddito da lavoro cresca in linea con il reddito medio svedese. Siamo partiti dal suo reddito
del 2001, l’ultimo a noi disponibile.

Può ricevere la sua pensione da più fonti


Oltre alla pensione gestita dalla Stato, molte persone ricevono una pensione da altre fonti:
può essere una pensione integrativa della propria azienda o una pensione privata ottenuta
con polizze di risparmio previdenziale. Queste somme non sono comprese in questo schema,
ma rendono la sua pensione totale più alta.

7
Se inizierà a ricevere la sua pensione a

Fai la tua previsione su internet


Visiti il sito Errore. Riferimento a collegamento ipertestuale non valido. (l’Istituto di
Previdenza) e utilizzi le somme indicate qui sotto, ricavate da pagina 2 e pagina 5 di questo
estratto conto annuale
Corone 702.476 Corone 18.385

Desidera maggiori informazioni?


Visiti il sito www.pension.nu oppure Errore. Riferimento a collegamento ipertestuale non
valido. (l’Autorità Fondi Pensione). Può chiamare anche il numero dell’Istituto di Previdenza:
020 – 524 524.
Estratto conto dell’Istituto di Previdenza

Come leggere il prospetto:


La somma indicata come "Valore iniziale nel 2002" nella maggior parte casi è la stessa cifra
indicata come Valore del montante in chiusura sull’estratto conto che ha ricevuto lo scorso
anno.

Il valore dei diritti da pensione acquisiti è stato calcolato sulla base del reddito da lavoro nel
2001.

Il suo "Guadagni eredità" è la somma extra ridistribuita a suo favore proveniente dal gruppo
di persone della sua età decedute durante l’anno. Ha ricevuto anche una "Variazione di valore"
che equivale alla crescita media del reddito in Svezia. Le abbiamo addebitato un costo per
diritti amministrativi. L’ultima riga del prospetto ("Valore finale al 2002") indica a quanto

8
ammonta il capitale (montante) finora accumulato ai fini del calcolo del suo reddito da
pensione.

N.d.r. La nota procede con informazioni relative a riscatti di periodi pregressi e a posizione
contributive nell’ambito di schemi previdenziali integrativi. Abbiamo omesso questa parte per
brevità. La versione integrale è disponibile nella versione italiana e inglese che contiene anche
il glossario esplicativa che accompagna la lettera.

9
INFORMAZIONE

Modigliani e la teoria del ciclo di vita del


risparmio
25.10.03
Luigi Guiso e Tullio Jappelli

Questa teoria è oggi uno schema di riferimento generalmente accettato per l’analisi delle
scelte di consumo e di risparmio delle famiglie. Ed ha molte altre notevoli implicazioni. Ma qui
si trova anche la sintesi migliore della straordinaria capacità di Modigliani di essere un
raffinato teorico e uno studioso attento ai fatti economici. Perché la sua grandezza è stata
anche aver saputo comunicare e trasmettere un metodo di ricerca, in cui modello teorico e
verifica empirica sono sempre andati di pari passo.

Nel 1985 fu attribuito il premio Nobel a Franco Modigliani per i suoi contributi all’analisi del
risparmio delle famiglie e del funzionamento dei mercati finanziari. Modigliani decise di
dedicare la sua Nobel lecture alla rivisitazione della teoria del ciclo di vita. Lo fece perché
voleva così ricordare e condividere l’onore del Nobel con il suo studente e soprattutto amico
Richard Brumberg con il quale aveva elaborato quella teoria nei primi anni Cinquanta, e che
scomparve pochi anni dopo. In Franco amore per la scienza, affetto per i suoi studenti e
disposizione per l’amicizia formavano un unico fronte.

Una svolta fondamentale

La sua teoria del ciclo vitale rappresenta una svolta fondamentale nel dibattito economico del
secondo dopoguerra ed è oggi uno schema di riferimento generalmente accettato per l’analisi
delle scelte di consumo e di risparmio delle famiglie. Chiuse una controversia e consegnò alla
professione uno strumento di analisi che ancora oggi fa parte del bagaglio di conoscenza di
tutti gli economisti. Ma non solo. In una professione dove il dibattito e le differenze di
opinione rappresentano la norma, è raro che una teoria sia generalmente condivisa. Per
apprezzare la grandezza e la rilevanza del contributo bisogna ricordare il clima in cui
Modigliani sviluppò la teoria.
Nell’immediato dopoguerra, sotto l’influenza della teoria keynesiana del consumo che
sosteneva che la spesa totale delle famiglie cresce con il loro reddito corrente ma meno che
proporzionalmente, si prevedeva una profonda stagnazione dell’economia perché, si diceva, i
consumi sarebbero aumentati meno del reddito, provocando una carenza di domanda
effettiva. Questa previsione si rivelò errata. Ne scaturì un intenso dibattito (stimolato anche
dagli studi empirici di Simon Kuznets, che mostrava che reddito e consumo si conformano al
modello keynesiano nel breve periodo, ma sono proporzionali tra di loro nel lungo) nel corso

10
del quale le basi della teoria del consumo furono completamente riviste. Franco Modigliani fu
uno dei protagonisti di quel dibattito assieme ad alcuni tra i migliori economisti del tempo,
tra i quali Milton Friedman e James Duesenberry.

In un articolo del 1954 Modigliani, insieme a Richard Brumberg, propose un modello di scelte
del consumatore basato sull’idea che le persone hanno una forte preferenza per la
stabilità del flusso di consumo nel tempo. I consumatori risparmiano parte del reddito per far
fronte alle loro esigenze di consumo al termine dell’attività lavorativa, durante
il pensionamento. Questa semplice idea, oggi generalmente accettata, è alla base della teoria
del ciclo di vita: si risparmia da “giovani”, quando si dispone di un reddito, per poter spendere
e finanziare le spese anche da “vecchi”, quando quel reddito mancherà; è il ciclo di vita del
risparmio, positivo durante la fase lavorativa, negativo durante il pensionamento.
Nell’elaborare lo teoria del ciclo di vita Modigliani fu influenzato dal lavoro sul risparmio di
Umberto Ricci del 1926 che egli conosceva e al quale lo accomunò anche il destino di esule
antifascista. Ma riflette anche il lavoro di Modigliani in quegli anni sulla teoria delle scorte: il
ruolo del risparmio è simile infatti a quello delle scorte in un’impresa. Come queste hanno la
funzione di stabilizzare la produzione isolandola dalle variazioni stagionali della domanda,
così il risparmio consente al consumatore di mantenere un consumo relativamente
costante anche quando il reddito è variabile. Analizzando il comportamento dei singoli
consumatori, questa osservazione consente di spiegare perché, se si esamina il risparmio di
un campione di famiglie, si trova che quelle più ricche risparmiano una maggiore quota del
loro reddito corrente, mentre quelle più povere risparmiano una quota minore.
Contrariamente a quanto si riteneva, che i ricchi avessero una propensione a risparmiare più
elevata dei poveri, il comportamento è dovuto al fatto che i ricchi tendono ad avere, in media,
un reddito corrente più elevato della norma, mentre i poveri tendono ad avere un reddito
corrente più basso della norma.
Gli effetti della politica fiscale

Un’altra implicazione della teoria del ciclo di vita di notevole importanza per lo studio degli
effetti della politica fiscale è che variazioni di imposte che le famiglie percepiscono come
temporanee non modificano la spesa corrente. Un calo di imposte nell’anno corrente insieme
all’annuncio di un aumento di pari importo nell’anno successivo lascia il consumo invariato,
perché i consumatori decidono di risparmiare il reddito in eccesso rispetto alla norma per far
fronte alle maggiori imposte attese per l’anno successivo. Una differenza notevole rispetto
all’effetto delle imposte nel modello keynesiano del consumo, che cioè un calo di imposte,
indipendentemente dalla sua natura temporanea o permanente, aumenta la spesa, la
domanda e il reddito di un paese.
Queste implicazioni sul comportamento dei singoli consumatori sono condivise anche
dalla teoria del reddito permanente che Milton Friedman, utilizzando lo stesso schema di

11
Modigliani, elaborò in quegli stessi anni. Ma l’aspetto unico e originale della teoria del ciclo di
vita è che essa, in modo elegante e denso di implicazioni, isola i fattori che spiegano il
risparmio aggregato di una nazione. Tra i vari fattori, il principale è che il tasso di risparmio
di un paese è tanto più elevato quanto maggiore il tasso di crescita di lungo periodo del
reddito totale, e nullo se il paese non cresce. Ciò perché un aumento della crescita, ad
esempio un aumento di produttività, comporta che coloro che risparmiano, i più giovani,
ricevono redditi più elevati degli anziani, che hanno un risparmio negativo.
Ma altre implicazioni sono egualmente importanti, e a prima vista alcune addirittura
sorprendenti. In primo luogo, che il saggio di risparmio dipende dalla struttura demografica
di un paese e dalla speranza di vita della popolazione, ma è del tutto indipendente
dal livello del reddito nazionale. Secondo, che un sistema economico può accumulare un
notevole livello di ricchezza anche se i lasciti ereditari non rivestono alcuna importanza, cioè
se nessuno accumula risorse da lasciare ai propri eredi. Infine, che il parametro principale che
controlla il rapporto tra la ricchezza accumulata e reddito nazionale è la durata media del
periodo di pensionamento.

Modello e verifiche empiriche

Queste implicazioni della teoria del ciclo vitale hanno trovato ampio riscontro in numerosi
studi empirici, a cominciare da quelli pionieristici condotti dallo stesso Modigliani con Albert
Ando, anch’egli recentemente scomparso. Per questa capacità di spiegare i comportamenti
dei singoli consumatori e di ricevere conferma dai dati aggregati, il modello di ciclo di vita
rappresenta lo strumento di riferimento universalmente riconosciuto per lo studio del
risparmio, con un profondo impatto su tutta la letteratura successiva, teorica ed empirica.
Quando i modelli macroeconometrici erano in auge nel mondo accademico, la funzione del
consumo aveva, universalmente, a riferimento la teoria del ciclo di vita. Ancora oggi, la
funzione del consumo dei modelli di previsione macroeconomica in uso nelle banche centrali,
nei centri di previsione, negli organismi economici internazionali, trae ispirazione dai
contributi di Modigliani. E quando, più tardi, furono disponibili indagini accurate sui consumi
e sui risparmi a livello familiare, la teoria del ciclo vitale fu sottoposta a innumerevoli verifiche
empiriche.
La straordinaria capacità di Modigliani di essere, allo stesso tempo, un raffinato teorico ed
uno studioso attento ai fatti economici – una qualità che ha saputo applicare a tutti i suoi
campi di interesse – ha trovato nel modello del ciclo di vita la sintesi migliore. La forza di quel
modello, amava dire, stava nel prevedere non solo il comportamento individuale, ma
soprattutto la relazione tra alcune delle più importanti relazioni macroeconomiche, e
principalmente quella tra saggio di risparmio e crescita economica. Per l’intuito, la capacità di
formulare ipotesi verificabili empiricamente, imparare dai dati economici, distinguere
l’essenziale dal superfluo o dal dettaglio, Modigliani è stato davvero un gigante
12
dell’economia. In questo senso, ha saputo comunicare e trasmettere anche un metodo di
ricerca, in cui modello teorico e verifica empirica sono sempre andati di pari passo.

Dopo i contributi di Modigliani, la ricerca sul risparmio non si è ovviamente fermata ma ha


proseguito incessantemente. In tutti i lavori sulle scelte di risparmio, teorici o empirici,
l’impatto del modello del ciclo di vita è palese. La versione originale del modello di Modigliani
e Brumberg è stata arricchita per tenere conto di molti altri fenomeni, come la dinamica
demografica della famiglia, l’acquisto della casa, l’incertezza sui redditi futuri, le decisioni di
offerta di lavoro, i trasferimenti intergenerazionali, le interazioni con il funzionamento dei
mercati finanziari e del credito e quelle con le scelte di allocazione della ricchezza, l’impatto
della previdenza sociale.

Il modello del ciclo di vita si è rivelato uno strumento estremamente flessibile per analizzare
ciascuno di questi fattori. Modigliani stesso è stato parte attiva di questo dibattito. Vi ha
partecipato non solo con nuovi contributi sulla previdenza sociale, l’effetto delle imposte, i
trasferimenti intergenerazionali, ma anche come strenuo difensore delle fondamenta della
teoria del ciclo di vita. Memorabile la polemica degli anni Ottanta con Larry Kotlikoff e
Lawrence Summers sul ruolo delle eredità nelle scelte di risparmio delle famiglie. Le sue
difese, appassionate e ferree come era nel suo carattere, nascevano dal profondo
convincimento dell’importanza dello schema concettuale del modello del ciclo di vita e della
sua superiorità rispetto a schemi alternativi. Aveva ragione. Lo dimostra la straordinaria
robustezza delle implicazioni di fondo della sua teoria rispetto alle modifiche e alle
trasformazioni introdotte negli anni. Per questo la teoria del ciclo di vita è oggi la base di
riferimento indiscussa per capire le scelte di risparmio.
Molti studiosi del risparmio e delle scelte intertemporali, e tra essi alcuni italiani, si sono
formati sotto l’influsso e l’insegnamento di Modigliani. Anche per questa eredità gli siamo
grati.

13
MONETA E INFLAZIONE

Dove nasce l’euro-disagio


10.02.04
Riccardo Faini

In Europa non c’è stata nessuna accelerazione dei prezzi dopo l’introduzione della moneta
unica. C’è invece un’anomalia tutta italiana: l’inflazione sale, soprattutto nei settori dove
scarseggia la concorrenza, mentre l’economia ristagna e il paese perde competitività. E le
retribuzioni reali sono scese dal 2000 a oggi. Il problema del malessere sociale ha le sue
radici nel calo della produttività, sintomo delle difficoltà economiche strutturali. Per risolverlo
non serve l’ottimismo di facciata.

Cerchiamo di vedere più chiaro nei dati sui prezzi, navigando fra i diversi indici che di volta in
volta vengono riproposti in maniera spesso strumentale, con il solo risultato di confondere il
lettore.

L’introduzione dell’euro ha portato più inflazione in Europa?

Per rispondere a questa domanda si deve guardare all’indice armonizzato dei prezzi che
consente di paragonare la dinamica dell’inflazione nei diversi paesi europei.
Si verifica agevolmente che la nuova moneta non ha colpe per l’aumento dei prezzi. Il primo
gennaio 1999 viene compiuto il primo e più importante passo verso l’euro affidando tutte le
decisioni di politica monetaria a un’unica autorità e fissando in maniera irrevocabile i cambi
fra le monete europee.
Nel 1999 l’inflazione in media d’anno nella zona euro cala ai suoi minimi storici, l’1,2 per
cento.
L’aumento dell’inflazione nei due anni successivi (la dinamica dei prezzi si attesta al 2,4 per
cento nel 2001) riflette soprattutto la spinta dei prezzi del petrolio e la forza del dollaro.
Il primo gennaio 2002, l’euro entra in circolazione. In quello stesso anno l’inflazione cala al
2,2 per cento.
Anche su base tendenziale (dicembre su dicembre dell’anno precedente) l’inflazione
diminuisce, al 2,3 per cento, per poi scendere ulteriormente al 2 per cento nel 2003.
L’accelerazione della dinamica dei prezzi precede quindi l’introduzione dell’euro.

L’inflazione in Italia è più alta rispetto alla media europea?

La risposta è positiva. Il differenziale fra l’inflazione italiana e quella europea, entrambe


misurate con l’indice armonizzato, cala progressivamente dallo 0,9 per cento nel 1998 allo

14
0,1 per cento nel 2001, per poi impennarsi fino a raggiungere lo 0,7 per cento nel 2003.
È un’anomalia soprattutto italiana.
Nei paesi in cui i prezzi crescono più rapidamente della media europea, l’economia va bene.
Non così in Italia, dove la crescita è anemica (più o meno la metà di quella europea), ma i
prezzi crescono più velocemente.
Per la nostra economia non funziona, quindi, il meccanismo equilibratore dei prezzi (che
dovrebbero crescere meno nei paesi in cui l’economia è più debole restituendole
competitività. Nel nostro caso, invece, perdiamo competitività, il 3,5 per cento rispetto alla
Germania in soli due anni).
L’eccessiva crescita dei prezzi in Italia è anche fonte di un’esternalità tutta negativa per gli
altri paesi. Se i nostri prezzi fossero cresciuti in linea con quelli tedeschi, l’inflazione nella
zona euro sarebbe calata di circa tre decimi di punto, favorendo un orientamento più
accomodante della politica monetaria. Prima o poi, i nostri partner europei ci chiederanno
conto di questo fatto.

Quali sono le cause di questa anomalia dell’Italia?

Per rispondere è necessario entrare nel dettaglio dell’indice.


Prendiamo come riferimento il dato sui cui si concentra l’attenzione dell’opinione pubblica in
Italia, quello dell’indice dei prezzi per l’intera collettività (Nic), che differisce da quello
armonizzato per l’esclusione di sconti e promozioni, l’inclusione di alcune voci come i
concorsi a premio e il diverso trattamento dei servizi sanitari.
I dati dell’indice Nic sono disponibili a un livello piuttosto elevato di disaggregazione (più di
duecento voci). Sarebbe bastato consultare il sito Istat per placare molte polemiche.
Tra il 2001 e il 2003, assieme a servizi bancari e bancoposta, la Rc auto detiene il triste
primato degli aumenti: il 17,2 per cento (e il 125 per cento se prendiamo come riferimento il
1995). Anche alberghi, ristoranti e pubblici esercizi danno il loro contributo (9 per cento in
soli due anni). Aumentano anche, e non di poco, i costi dei servizi pubblici locali (6,8 per
cento).
Quasi tutti questi settori hanno un tratto in comune: la mancanza di concorrenza.
Discorso diverso dovrebbe applicarsi ai prezzi dei beni alimentari che nel biennio, come
lamentano i consumatori, sono effettivamente aumentati più della media: il 6,9 per cento
contro il 5,3 per cento. Non si hanno dati sulle famigerate zucchine, ma il prezzo degli
ortaggi è cresciuto assai più rapidamente, del 20 per cento, rispetto alla media.
Ma in tutto questo settore, in particolare nella grande distribuzione, non mancano gli
impedimenti alla concorrenza.
Meno giustificate invece sono le polemiche sui costi dei servizi pubblici. Se è vero, come
abbiamo visto, che crescono i prezzi dei servizi pubblici locali, quelli regolamentati a livello
nazionale aumentano solo del 3 per cento, ben al di sotto dell’inflazione (il ministro
15
dell’Economia ha più volte bloccato gli aumenti delle tariffe nel settore dei trasporti). I costi di
questi blocchi si scaricano, però, sui bilanci delle aziende o sulla qualità del servizio, e di
riflesso sulla collettività.

A risentire dell’aumento dei prezzi sono stati soprattutto i ceti più deboli?

L’Istat calcola anche un indice dei prezzi per le famiglie di operai e impiegati (Foi). La
dinamica dei prezzi è virtualmente identica a quella del Nic e forse anche un poco più
contenuta.

Perché allora è così diffuso il senso di disagio?

La risposta è semplice: l’economia va male, come abbiamo già visto, e i redditi ristagnano.
Le remunerazioni reali, depurate dall’effetto dei prezzi, sono diminuite dal 2000 a oggi, dopo
essere cresciute del 2,6 per cento tra il 1996 e il 2000.
A contribuire a questo andamento è valso anche lo scarto tra inflazione effettiva e quella
programmata: tale scarto, che era pari a zero tra il 1996 e il 2000, si attesta all’1 per cento in
media tra il 2001 e il 2003. Il dato aggregato sulle remunerazioni poi presumibilmente
maschera andamenti piuttosto differenziati, anche se mancano rilevazioni affidabili sui
mutamenti nella distribuzione del reddito.
Rimane il fatto che non è l’euro il colpevole e neppure il sindacato, come maldestramente
affermato da alcuni economisti. Il problema del disagio sociale affonda le sue radici nel calo
della produttività, a sua volta sintomo delle difficoltà strutturali dell’economia italiana. Ma si
tratta di un discorso che chi governa oggi l’economia non sembra volere affrontare in nome di
un ottimismo di facciata che è già stato fonte di troppe delusioni negli ultimi anni.

16
ISTITUZIONI E FEDERALISMO, SANITA’

Deficit e conflitti
18.03.04
Massimo Bordignon e Gilberto Turati

I numeri sulla sanità dimostrano che nonostante i disavanzi perenni e gli scontri tra governi la
spesa sanitaria non è fuori controllo. Al contrario, i dati parlano di una capacità del sistema di
regolarsi, mantenendo spesa e servizi a livelli accettabili. I deficit sono almeno in parte il
risultato di un gioco strategico tra Stato e Regioni, insito nel modello di organizzazione e
finanziamento del sistema. C’è evidenza empirica di un ruolo delle aspettative nel
determinare i livelli di spesa locale.

Al di là dell’apparenza di conflitti eterni tra livelli di governo in campo sanitario, è utile


ragionare su qualche numero per capire come sono andate effettivamente le cose.

Spese e finanziamenti

La tabella 1 mette a confronto il finanziamento ex-ante per la sanità pubblica deciso a livello
centrale con la spesa effettiva (in termini nominali, reali, pro-capite e in percentuale sul Pil),
per gli anni dal 1992 al 2004, dove il finanziamento ex-ante è qui definito come la somma di
tributi propri e trasferimenti statali (uguale al fondo sanitario nazionale e alla scomparsa di
questo, nel 2001 a quanto deciso con gli accordi intergovernativi).

17
La tabella mette in evidenza molteplici aspetti interessanti. In primo luogo, sia la spesa che il
finanziamento in termini reali hanno avuto un trend crescente nel periodo (eccetto per i primi
anni, dal 1992 al 1994).
In secondo luogo, la spesa è sempre stata sensibilmente maggiore del finanziamento, con la
conseguente e continua formazione di disavanzi. In particolare, i disavanzi sanitari (calcolati
come semplice differenza tra spesa e finanziamento) rappresentavano il 14 per cento della
spesa complessiva nel 1994, per poi scendere fino al 3,6 per cento della spesa nel 1995 e
risalire al 10,2 per cento nel 1997. Nel 2001, i disavanzi raggiungevano ancora il 5,3 per
cento della spesa e le previsioni (ottimistiche) per il 2003 parlano ancora del 3,8 per cento.
In terzo luogo, nonostante i disavanzi, la spesa è rimasta complessivamente stabile nel
periodo. In percentuale sul Pil, è passata dal 6,3 per cento nel 1992 al 5,2 per cento nel 1995,
per poi risalire al 6,3 per cento nel 2002 (e a questo livello dovrebbe restare nel biennio
2003-2004).
Si tratta di valori in linea con la media dell’Unione europea (6 per cento) e certo non
impressionanti per un paese dai capelli sempre più bianchi.
Nonostante i deficit perenni, guardando i numeri, non c’è dunque evidenza che il complesso
meccanismo istituzionale italiano di determinazione della offerta sanitaria pubblica abbia
portato a una perdita di controllo della crescita della spesa.
Al contrario, i dati testimoniano dell’enorme sforzo compiuto per razionalizzare la spesa
sanitaria negli anni Novanta. Nel complesso, si tratta di una storia di successo: si è riusciti a
controllare la spesa pubblica pur mantenendo a livelli accettabili la qualità dei servizi offerti
(tralasciando le differenziazioni interregionali, che rimangono ampie, sebbene non in
crescita). Questa evidenza è sostanzialmente tranquillizzante anche per le altre materie
devolute, cui dovrebbe applicarsi in futuro lo stesso modello organizzativo. (vedi Bordignon)

I disavanzi

Ma allora perché si formano i disavanzi sanitari? La tabella non chiarisce se la responsabilità


dei deficit sia dei finanziamenti troppo bassi, come sostengono le Regioni, o della spesa
troppo alta, come dice l’attuale Governo (e come hanno detto tutti i governi precedenti,
indipendentemente dal colore politico). Qualche suggerimento però lo offre.
Innanzitutto, si osserva che in quasi tutti gli anni compresi nel periodo considerato, compreso
il biennio 2002-2003, il finanziamento accordato dallo Stato alle Regioni è stato inferiore in
termini nominali alla spesa dell’anno precedente. Poiché una riduzione della spesa nominale,
a parità di servizi offerti, è praticamente impossibile (e infatti non è mai stata raggiunta, se
non tra il 1992 e il 1995 per ragioni che diremo), la tabella indica una scelta deliberata da
parte dei Governi, di centro-destra o di centro-sinistra, di sotto-finanziamento della
sanità. Tuttavia, si osservi che questo non significa affatto che le Regioni siano state davvero
lasciate sole a finanziare il proprio eccesso di spesa.
18
Al contrario, a distanza di qualche anno la maggior parte dei deficit sanitari è stata in effetti
finanziata dallo Stato, attraverso l’emissione di titoli pubblici e l’eliminazione dei debiti
pregressi. Questo emerge con chiarezza dalla tabella 2, che raccoglie i dati relativi al
finanziamento straordinario per la sanità per i disavanzi realizzati tra il 1994 e il 2001.
Perché mai allora il Governo nazionale dovrebbe comportarsi in modo così perverso, negando
prima i trasferimenti alle regioni e poi finanziando comunque ex-post i deficit generati?
Per più di una ragione, la cui importanza relativa si è andata modificando nel tempo.
Per ragioni di budget dressing del bilancio del Settore statale, soprattutto nel primo periodo,
quando le regole europee sulla contabilità pubblica consentivano più facilmente
l’abbellimento dei conti (con le partite “sotto la linea” che influenzavano direttamente il debito
senza essere contabilizzate nei disavanzi). Accentuate dal fatto che, a causa della scarsa vita
attesa dei Governi italiani, qualche altro esecutivo si sarebbe comunque fatto carico in futuro
del problema dei deficit accumulati nel presente.
Per mantenere comunque sotto pressione le Regioni, rendendo incerto livello e tempistica del
finanziamento ex-post dei disavanzi, soprattutto in un secondo periodo.
Infine, per riequilibrare con i trasferimenti ex-post e sulla base della spesa effettiva, i
trasferimenti decisi ex-ante, distribuiti in maniera troppo uniforme a causa dell’incapacità del
Governo centrale di produrre stime affidabili sulle esigenze effettive di spesa delle singole
Regioni, in dipendenza delle specifiche caratteristiche regionali nella struttura di produzione
dei servizi e dai bisogni differenziati della popolazione.

19
Si deve quindi concludere che la responsabilità dei disavanzi resta tutto dello Stato?
In realtà no, perché esistono notevoli sprechi nei sistemi sanitari regionali e, come la stessa
tabella 2 implicitamente suggerisce, i livelli di efficienza relativa tra le varie Regioni sono
assai diversi. Inoltre, esiste evidenza empirica a supporto dell’ipotesi che la formazione dei
disavanzi sia influenzata dal gioco delle aspettative.
Quando le Regioni si aspettano che il finanziamento ex-post arriverà presto e sarà
abbondante, riducono i controlli e fanno lievitare la spesa corrente. Viceversa, nel caso
opposto.
Questo comportamento è confermato da una nostra analisi sull’andamento della spesa
sanitaria negli anni Novanta.
I risultati suggeriscono che la forte decelerazione della spesa sanitaria avvenuta nel triennio
1993-1995 sia imputabile, oltre che a una serie di pesanti interventi sulla spesa sanitaria
decisi direttamente dal Governo (blocco dei contratti, ticket e interventi sui prontuari
farmaceutici), al subitaneo peggioramento delle aspettative delle Regioni sulla possibilità di
ottenere rapidamente trasferimenti aggiuntivi da parte dello Stato, indotto dalla crisi
economica e dalla rincorsa verso Maastricht. Quando queste aspettative sono migliorate, con
l’entrata dell’Italia nell’area euro, la spesa ha ripreso subito ad accelerare.
Le stime suggeriscono anche che miglioramenti nell’autonomia finanziaria delle Regioni
tendono a rafforzare il controllo della spesa, rendendo più credibile il vincolo di bilancio.

Per saperne di più

Bordignon, M. e Turati, G. Bailing Out Expectations and Health Expenditure in Italy, CESifo WP
n. 1026, September 2003.
Turati, G. L’evoluzione della spesa, del finanziamento, dei disavanzi e degli interventi di
ripiano nelle gestioni della sanità regionale italiana, Politiche Sanitarie, aprile-giugno 2003.

20
LAVORO, RELAZIONI INDUSTRIALI

Breve storia della contrattazione articolata


19.07.04
Pietro Ichino

Dopo il gran rifiuto della Cgil di Epifani alla proposta di dialogo della Confindustria sulla
struttura della contrattazione collettiva ripercorriamo le tappe della contrattazione articolata
in Italia, dall’autunno caldo all’accordo del 1993. Perché se ne può trarre una lezione.
Rivendicare come fa la Cgil un maggior peso del contratto nazionale e quindi opporsi alle
proposte che tendono a spostare il baricentro della contrattazione dal centro verso la
periferia, può comportare il rifiuto di Confindustria di stipulare il contratto nazionale. Questo
è già accaduto nei primi anni ’80.

All’origine ci fu la tornata dei rinnovi contrattuali dei primi anni Sessanta, che sancì l’inizio
della contrattazione articolata: i contratti collettivi nazionali di settore restavano il pilastro
portante del sistema, ma contenevano le clausole di rinvio alla contrattazione aziendale per
due materie: il premio di produzione e l’inquadramento professionale. E fissavano i relativi
criteri vincolanti.

Dall’autunno caldo al protocollo Scotti

Al termine del decennio, quel sistema di contrattazione articolata venne messo in crisi da un
vasto movimento di lotta, in larga parte spontanea, tendente a liberare la contrattazione
aziendale dai vincoli nazionali. Nell’“autunno caldo” del 1969 le trattative per il rinnovo del
contratto dei metalmeccanici rimasero bloccate per tre mesi proprio su questo punto; e si
sbloccarono soltanto con un “disaccordo tacito” su questo punto – patrocinato dal ministro
del Lavoro dell’epoca Carlo Donat Cattin – che sostanzialmente segnava la fine del sistema di
articolazione contrattuale. Da quel momento in avanti la contrattazione aziendale sarebbe
stata libera di svilupparsi anche al di fuori dell’alveo tracciato dal contratto nazionale, persino
rimettendo in discussione le materie da esso già compiutamente regolate.
Durante gli anni Settanta le cose andarono proprio così: la contrattazione aziendale,
promossa e gestita dai consigli di fabbrica, poté svolgersi al di fuori di qualsiasi
coordinamento vincolante con la contrattazione nazionale. Ma i due livelli di negoziazione
poterono convivere e sovrapporsi disorganicamente soltanto fino a quando il movimento
sindacale ebbe la forza per imporli entrambi alla controparte. Quando, tra la fine degli anni
Settanta e l’inizio degli anni Ottanta, la crisi economica incominciò a mordere duramente nel
vivo del tessuto produttivo e il movimento sindacale incominciò a perdere colpi, la
Confindustria poté porre come condizione per il rinnovo dei contratti collettivi nazionali il
ripristino di regole di coordinamento vincolanti per la contrattazione aziendale. Ne seguì per
21
quasi due anni la paralisi della contrattazione collettiva al livello nazionale; alla fine Cgil Cisl e
Uil dovettero accettare il ritorno a regole vincolanti sull’articolazione del sistema contrattuale.
La crisi del sistema di relazioni sindacali si risolse con il protocollo Scotti del gennaio 1983,
che aprì la strada ai rinnovi dei contratti nazionali, ma al prezzo del ripristino del sistema
delle clausole di rinvio tra il contratto nazionale e il contratto aziendale. In altre parole: Cgil
Cisl e Uil poterono riattivare la contrattazione al livello nazionale soltanto spendendo la
“moneta di scambio” di un controllo effettivo sui contenuti della contrattazione aziendale. E,
nonostante le divisioni tra loro, le tre confederazioni mostrarono di saper tener fede
all’impegno contrattuale: nel corso degli anni Ottanta il nuovo sistema funzionò con un tasso
altissimo di effettività.

L’accordo del 1993

Il sistema delineato dal protocollo del 1983 venne perfezionato e integrato dieci anni dopo
con il protocollo Ciampi del luglio 1993, che stabilì una cadenza biennale della contrattazione
nazionale degli standard retributivi minimi, ne fissò il criterio agganciando gli aumenti al
“tasso di inflazione programmato” e demandò alla contrattazione aziendale l’adeguamento
delle retribuzioni agli incrementi di produttività o redditività delle singole imprese.
Debellata l’inflazione, entrata l’Italia nel sistema monetario europeo, gli spazi di una
negoziazione dei minimi retributivi al livello nazionale, secondo le regole del protocollo
Ciampi, si riducono di molto. E a rincarare la dose si aggiungono le proposte di Confindustria
da un lato, di Cisl e Uil dall’altro, tendenti in vario modo a spostare il baricentro della
contrattazione dal centro verso la periferia. Da molte parti si osserva che il collegamento alla
produttività o alla redditività aziendale di una porzione più ampia della retribuzione potrebbe
consentire notevoli incrementi effettivi della retribuzione complessiva distribuita. Da molte
parti si osserva, altresì, che consentire una differenziazione regionale di quei minimi potrebbe
giovare allo sviluppo del Mezzogiorno, dove peraltro minimi inferiori sarebbero giustificati dal
minore costo della vita. Di qui anche la proposta di consentire la deroga ai minimi stabiliti dal
contratto nazionale, mediante contratto collettivo regionale o provinciale, in funzione di
politiche di sviluppo concertate nella sede decentrata.

La Cgil e il contratto nazionale

Senonché ridurre lo spazio del contratto nazionale rispetto a quello riservato alla
contrattazione periferica significa – per definizione – aumento delle differenze retributive da
regione a regione e/o da impresa a impresa; ed è proprio a questa differenziazione che oggi
la Cgil si oppone. E non si limita a opporsi, ma sembra spingersi a rivendicare un aumento del
peso del contratto nazionale rispetto a quello attribuitogli dal protocollo Ciampi.

22
Dall’ala sinistra della Cgil e in particolare dalla Fiom si chiede, più specificamente, che gli
aumenti retributivi contrattati al livello nazionale siano svincolati dal tasso di inflazione
programmato, restando inderogabili gli standard minimi. Si invocano, a sostegno di questa
linea, le ragioni della solidarietà: si vuole che i comparti più forti di ciascuna categoria
possano aiutare i più deboli, in un sistema che riduca al minimo le disuguaglianze. Ma a
questa linea d’azione si contrappone un interrogativo: i lavoratori delle regioni più arretrate
del paese traggono davvero vantaggio da standard minimi elevati, uguali per tutto il territorio
nazionale? Riescono davvero ad accedere a un lavoro regolare rispettoso di quegli standard?
Oppure l’effetto di una politica di questo genere è solo di favorire, in quelle regioni, il
dilagare del lavoro irregolare?
Più in generale, l’ala sinistra della Cgil chiede che si volti pagina rispetto a una lunga stagione
di politica dei redditi; che si volti pagina, in particolare, rispetto ai vincoli posti non solo alla
contrattazione nazionale delle retribuzioni, ma anche a quella aziendale, dal protocollo
Ciampi del 1993.
Vi sono alcune analogie evidenti tra questa rivendicazione e quella sulla quale divamparono le
lotte dell’autunno caldo del 1969. Ma le condizioni attuali di unità e di forza del movimento
sindacale sono molto più simili a quelle dei primi anni Ottanta che a quelle della fine degli
anni Sessanta. Come nei primi anni Ottanta, anche oggi la Confindustria può rispondere a
quella rivendicazione con il rifiuto di stipulare, a quelle condizioni, il contratto nazionale. E a
quel punto – piaccia o non piaccia alla Cgil o alla sua ala sinistra – lo spostamento dal centro
alla periferia del baricentro del sistema delle relazioni sindacali si verificherebbe nei fatti,
senza bisogno di alcun accordo-quadro.

23
INFORMAZIONE

Una regolamentazione per il pluralismo


08.11.04
Michele Polo

Il controllo sulla creazione di gruppi multimediali su uno stesso o su più mercati evita
concentrazioni non giustificate dalle dinamiche concorrenziali. Per radio e televisione lo
strumento più utile è limitare il numero di licenze concesse a uno stesso operatore. Nella
carta stampata esistono meno strumenti per frenare la concentrazione, spesso rilevante a
livello locale. E poiché per televisioni e giornali gli interessi espressi dalla proprietà sono in
parte ineliminabili, occorre pensare nelle fasi di campagna elettorale a una regolazione
diretta, secondo criteri di par condicio.
Le dinamiche di mercato difficilmente possano portare a una offerta diversificata e ampia di
posizioni politiche tra operatori dell’informazione o all’interno di ciascuno di essi, come
abbiamo illustrato nell’intervento a fianco. Da questo fallimento del mercato nel garantire il
pluralismo deriva l’esigenza di appropriate politiche pubbliche.

L’antitrust non basta

È bene sottolineare subito che le politiche antitrust, per quanto utili a mantenere la
concorrenza e i mercati aperti ai nuovi entranti, non possono da sole supplire alle esigenze di
pluralismo, e ubbidiscono a obiettivi di efficienza economica che non sempre coincidono con
quelli di un libero accesso di tutte le opinioni ai mezzi di comunicazione.
Si rende quindi necessario il disegno di appropriate politiche regolatorie per il pluralismo.
Abbiamo argomentato come in molti mercati dei media esiste una tendenza alla
concentrazione, dovuta a dinamiche in parte diverse, che ben difficilmente le politiche
pubbliche possono evitare. Esiste tuttavia uno spazio su cui intervenire per evitare che la
concentrazione risulti anche maggiore di quanto le dinamiche concorrenziali giustifichino,
sottoponendo a un attento controllo la creazione di gruppi multimediali su uno stesso o su
più mercati.
In primo luogo la concentrazione, in una prospettiva di pluralismo, dovrebbe essere
valutata mercato per mercato, con riferimento alla distribuzione degli ascoltatori e dei lettori,
in modo da verificare se qualcuno tra i media presenta problemi di insufficiente pluralismo
esterno. Siamo quindi ben lontani da quel singolare coacervo di mercati e di fatturati, il
sistema integrato di comunicazione, creato dalla Legge Gasparri per annacquare ogni
posizione dominante.
L’impostazione che riteniamo meno intrusiva sulle dinamiche di mercato dovrebbe limitare la
concentrazione sul singolo mercato dei media (pur sacrificando in questo eventuali sinergie),
qualora questa si realizzi attraverso la proprietà di più mezzi (molti canali televisivi, o
24
numerosi giornali o stazioni radio) attivi sul mercato stesso. Se tuttavia con un singolo
mezzo, un operatore fosse in grado di raccogliere un ampio pubblico grazie alla bontà dei
suoi contenuti, non riteniamo che le politiche pubbliche dovrebbero intervenire con dei vincoli
alle quote di mercato.
Al contempo, tali sinergie dovrebbero essere invece consentite tra diversi segmenti dei media,
laddove l’operatore multimediale non raggiunga posizioni dominanti in nessuno dei singoli
mercati. In una parola, gruppi multimediali risultano desiderabili se attivi su più mercati, ma
dovrebbero essere contrastati se dominanti in un singolo mercato

Gli strumenti da utilizzare

Gli strumenti che in questa prospettiva appaiono più utili risultano le limitazioni al numero di
licenze in capo a uno stesso operatore, applicabili in quei mercati (televisione e radio) nei
quali una autorizzazione è necessaria per l’uso dello spettro elettromagnetico. Utilizzando
questo strumento è possibile quindi limitare la crescita di un operatore che disponga di un
portafoglio con più licenze per canali televisivi, laddove la sua quota cumulata di audience
superi determinate soglie (in Germania è attualmente posta al 30 per cento), costringendolo a
cedere licenze nel caso di superamento dei limiti consentiti. Analogamente, vincoli alla
partecipazione su più mercati (giornali, televisioni, radio) dovrebbero intervenire laddove
l’operatore raggiunga una posizione dominante in qualcuno di essi, imponendo anche in
questo caso la cessione di licenze.
Più difficile intervenire in caso di forte dominanza realizzata da gruppi editoriali attivi solo
nella carta stampata con numerose testate, per le quali evidentemente non esistono licenze
da ottenere. Solamente in caso di fusioni e acquisizione, ma non di creazione ex-novo di
testate, ci sarebbe spazio per intervenire. Quando questi interventi volti a garantire il
pluralismo esterno risultano poco efficaci, vanno associate misure per il pluralismo interno.
Il pericolo maggiore per il pluralismo interno nei contenuti dei singoli operatori, ritengo derivi
dalle motivazioni lobbistiche dei gruppi proprietari, che inducono a privilegiare la
rappresentazione di posizioni politiche specifiche. Questa componente risulta enfatizzata
quando la proprietà dei gruppi di comunicazione veda coinvolti investitori attivi in altre
industrie regolate (public utilities, banche, trasporti, eccetera). Occorre quindi fissare
dei limiti alla partecipazione azionaria di queste categorie di soggetti al settore dei media.
Le motivazioni lobbistiche o partigiane espresse dalla proprietà dei media sono tuttavia in
parte ineliminabili. Occorre quindi pensare, in particolare nelle fasi (campagne elettorali) nelle
quali distorsioni informative eserciterebbero effetti di lungo periodo, a una regolazione
diretta degli spazi, del diritto di replica, dell’accesso, secondo criteri di par condicio. Questa
regolamentazione è stata sino a oggi applicata all’informazione televisiva. La situazione di
forte concentrazione nei mercati locali della carta stampata pone tuttavia l’esigenza di iniziare
a discutere di quello che sinora è considerato un tabù, il diritto di accesso sui giornali. Infine,
25
il mantenimento di un canale pubblico televisivo (ben diverso dalla attuale Rai) sottoposto a
un controllo diretto da parte di una autorità di vigilanza indipendente dovrebbe offrire un
ulteriore, parziale, tassello, a garanzia di una informazione più articolate e pluralista.

26
INFORMAZIONE, INNOVAZIONE E RICERCA

La statistica e la democrazia
18.04.05
Enrico Giovannini

Visione strategica del ruolo della statistica pubblica, adeguati investimenti e rispetto
dell’indipendenza della funzione statistica sono condizioni ineludibili per una società
dell’informazione efficiente e per una democrazia moderna e funzionale. Un serio
ripensamento dell’assetto istituzionale del Sistema statistico nazionale alla luce delle
modificazioni della società e della politica sarebbe dunque auspicabile, magari a partire dai
principi posti alla base della statistica comunitaria e contenuti nella nuova Costituzione
europea.

Può un sistema economico funzionare senza sapere se l’inflazione annua è pari al 2 o al 10 per
cento? Può una società compiere scelte importanti per il proprio futuro senza sapere se l’economia
che la sostiene è in declino strutturale o vive una difficoltà temporanea? Può, infine, un processo
democratico essere considerato tale se le decisioni di voto sono prese sulla base di percezioni e
non dei risultati effettivi dell’azione di governo?

Un gap conoscitivo

Queste domande sono tutt’altro che retoriche per chi guardi al caso italiano, soprattutto a
confronto con quello di altri grandi paesi industrializzati. Spesso, infatti, si ha la sensazione che
il dibattito politico italiano sia del tutto sganciato dalla realtà e che la stessa definizione di realtà
sia l’ultimo dei problemi. Secondo alcuni, l’informazione pubblica appare asservita alla visione
idilliaca presentata dal Governo, mentre secondo altri, quella proposta dall’opposizione tende a
ingigantire i problemi per controbilanciare la prima. Il risultato finale è che la statistica, sviluppata
per andare oltre la capacità degli individui di osservare e quantificare la realtà circostante, è
messa sotto accusa, i suoi risultati sono ritenuti inferiori alle “percezioni”, spesso amplificate dai
media e dagli opinion leader per finalità puramente politiche, e giudicati attendibili o falsi in base
alle convenienze della propria parte politica.
La società italiana sembra così soffrire di un crescente gap conoscitivo sulle proprie caratteristiche
economiche, sociali e ambientali. Nel passato, erano le crisi valutarie a rendere evidenti i problemi
strutturali dell’economia italiana. Oggi, grazie all’euro, non è più così, ma proprio per questo il
paese deve imparare a leggere la propria realtà nel confronto internazionale, spesso fatta di
differenze espresse in termini di “decimali”, ma non per questo trascurabili. Vivere nella società
dell’informazione vuol dire saperne gestire la complessità e trasformare tale informazione
in vantaggio competitivo. Ed è qui che il discorso sulla qualità della statistica pubblica diviene
cruciale per lo sviluppo del paese.

27
Una scienza sottovalutata

L’Italia investe per la statistica ufficiale molto meno degli altri grandi paesi, sia in termini pro-
capite, sia rispetto al Pil. L’approccio estremamente innovativo sul piano organizzativo e
istituzionale contenuto nella legge statistica del 1989 è stato parzialmente vanificato proprio a
causa della mancanza di adeguati investimenti, per non parlare della recente inclusione dell’Istat
nel sistema dello spoils system. D’altra parte, la statistica pubblica non è certo percepita dalla
maggioranza dei cittadini e da molti politici come uno dei pilastri istituzionali di un paese
moderno. Né all’Istat (o alla commissione di garanzia dell’informazione statistica istituita presso la
presidenza del Consiglio) viene riconosciuta una funzione istituzionale paragonabile a quella della
Banca d’Italia o di “authority” di settore. Purtroppo, va detto che la situazione italiana non è un
caso isolato, almeno nel panorama europeo. Nonostante i grandi progressi effettuati, anche grazie
a Eurostat, nell’armonizzazione delle statistiche europee, non si è voluta (o saputa) cogliere
l’occasione della nuova Costituzione europea per creare un sistema statistico europeo, sulla
falsariga del sistema europeo delle banche centrali. E intanto, gli istituti di statistica di alcuni paesi
soffrono di tagli di bilancio o di attacchi alla loro indipendenza. Ben diversa è la situazione nel
Regno Unito o in altri paesi dell’Ocse di stampo anglosassone (Canada, Stati Uniti, Australia), dove
non solo gli investimenti pubblici sono nettamente superiori, ma il ruolo svolto dall’informazione
statistica “ufficiale” nel dibattito culturale e politico è centrale e l’indipendenza degli istituti di
statistica è difesa in modo bipartisan.
Una proposta “moderna” di governo passa anche per un impegno culturale a valutare la realtà con
obiettività e a farsi valutare dai cittadini sulla base di dati di fatto (non a caso la corsa verso
l’Unione monetaria fu compresa da tutti perché l’obiettivo era chiaro e quantificato in pochi,
ancorché criticabili, indicatori). Dal punto di vista statistico, l’Italia non ha nulla da invidiare in
termini di capacità tecniche e di capitale umano ad altri grandi paesi industrializzati. Questa
ricchezza rappresenta la condizione necessaria, ma non sufficiente, per far fare alla statistica
pubblica un salto di qualità. Serve, in primo luogo, un riconoscimento della sua funzione pubblica,
al quale devono far seguito investimenti adeguati e comportamenti rispettosi dell’indipendenza
scientifica degli enti che producono statistiche ufficiali da parte della politica, dei media e degli
altri attori sociali, pur senza rinunciare al diritto di critica fondato su considerazioni tecnicamente
valide.

Chi siamo e dove andiamo

Un serio ripensamento dell’assetto istituzionale del Sistema statistico nazionale alla luce delle
modificazioni della società e della politica sarebbe decisamente auspicabile, magari a partire dai
principi posti alla base della statistica comunitaria e contenuti nella nuova Costituzione europea.

28
Un rafforzamento esplicito dell’autonomia dell’Istat, degli altri grandi enti produttori di statistiche
pubbliche e delle istituzioni poste a garanzia della qualità dell’informazione statistica
contribuirebbe a tale risultato. Infine, sarebbe altrettanto auspicabile l’avvio di un progetto volto a
costruire “key indicators” della società italiana, per aiutare il paese a valutare dove si trova e a
capire dove vuole andare. (1)
La disponibilità di “indicatori chiave” – economici, sociali e ambientali – viene considerata da alcuni
come uno degli strumenti fondamentali di un sistema politico bipolare, nel quale i cittadini
vengono informati adeguatamente sugli avanzamenti conseguiti nei diversi campi attraverso la
diffusione di statistiche ufficiali di elevata qualità, il cui valore informativo sia condiviso da tutte le
componenti sociali. Iniziative di questo tipo sono state lanciate con successo in Australia, Irlanda,
Regno Unito, Stati Uniti.

(1) Per esempi di questo tipo si veda www.oecd.org/oecdworldforum.

29
GIUSTIZIA

La paga dell’avvocato
19.09.05
Daniela Marchesi

La stretta regolamentazione di ordini professionali e tariffe non tutela i cittadini. Nel caso
degli avvocati, la parcella è strettamente legata al numero di attività svolte e alla lunghezza
della causa. Un incentivo distorto che ha decretato il fallimento di ogni tentativo di riforma del
processo civile che ne prevedesse lo snellimento. Con un onorario in forma fissa, invece, la
semplificazione diventerebbe conveniente anche per gli avvocati. In Germania, per esempio, il
compenso forfetario ha ridotto i tempi dei processi, pur conservandone tutte le garanzie.

Lo scorso 6 settembre è stato presentato un nuovo rapporto della Commissione europea in tema
di concorrenzialità delle libere professioni. L’Italia non fa una bella figura: è nel gruppo di paesi, in
larga parte nuovi membri, che “ha soltanto indicato che un lavoro di analisi è in corso”. Altri
(Regno Unito, Danimarca e Paesi Bassi) registrano invece progressi soddisfacenti e altri ancora
hanno almeno varato riforme minori (ad esempio Germania e Irlanda, che partivano però da una
situazione molto migliore). Per giunta, all’inizio di luglio, la Commissione ha fatto i primi passi per
avviare una procedura di infrazione nei confronti del nostro paese per l’inderogabilità dei minimi e
massimi tariffari degli avvocati, ma anche degli ingegneri e degli architetti.

La dubbia utilità del sistema tariffario

Non è la prima volta che i sistemi tariffari italiani vengono messi in discussione dalla
Commissione. Era già avvenuto nel 2003, quando era commissario Mario Monti.
La legittimità e persino l’utilità del sistema tariffario – insieme alla necessità di una rigida
disciplina degli ordini professionali – viene strenuamente difesa sulla base della asserzione che
barriere all’ingresso delle professioni e stretta regolamentazione dei prezzi servirebbero
a garantire i cittadini da abusi e inettitudini professionali. I fatti però non sembrano confermare
questa convinzione.
Un indice del grado di rilevanza della tutela offerta dall’ordine contro comportamenti scorretti
tenuti dagli avvocati può essere rappresentato dal numero di procedimenti disciplinari avviati in
media ogni anno. Secondo i dati del Consiglio d’Europa , per l’Italia il valore di questo indicatore è
particolarmente basso: 2,3 procedimenti ogni mille avvocati contro i 217 della Finlandia, i 193
della Danimarca, ma anche i 44 della Grecia.
Un indicatore così basso può essere imputato a due fatti radicalmente differenti. Entrambi, però,
fanno apparire poco rilevante la funzione di garanzia degli ordini riguardo la qualità del servizio.
Se infatti gli avvocati italiani sono particolarmente corretti e non si determinano le condizioni per
avviare procedure disciplinari, allora un ordine strettamente regolamentato non ha ragione

30
d’essere. Se invece esistono casi di comportamento scorretto, ma l’ordine chiude un occhio e non
li sanziona, allora ordini strettamente regolamentati non sono efficaci e dunque non sono molto
utili.
Anche la rigida regolamentazione delle tariffe, che pure viene giustificata come forma di tutela del
cliente, produce effetti molto dannosi sull’efficienza della gestione del processo, e di quello civile
in particolare.
Le regole di svolgimento del processo civile (soprattutto quelle che interessano le prove e la
definizione del contenuto della controversia) conferiscono ampi poteri di gestione del
procedimento giudiziario alle parti e ai loro difensori. D’altra parte, gli onorari degli avvocati sono
determinati sulla base di una formula definita per legge: la parcella è strettamente legata al
numero di attività svolte nell’ambito del processo e pertanto alla lunghezza della causa, con una
sorta di compenso a cottimo. La combinazione di questi due elementi incentiva gli avvocati a
utilizzare i poteri di gestione per complicare e di conseguenza allungare il più possibile la durata
dei processi. Quanto meno, non li disincentiva dall’abusare delle garanzie offerte dal processo
perché non è economicamente vantaggioso perseguire la maggior snellezza possibile del
fascicolo.
Incentivi distorti

Gli incentivi distorti legati alla determinazione dell’onorario degli avvocati si sono rivelati un
impedimento risolutivo anche nei tentativi di riforma del rito civile che comportavano una
sostanziale riduzione del numero di udienze. Lo dimostra la storia del fallimento della riforma del
codice di procedura civile del 1990, naufragata per la durissima opposizione degli avvocati e
culminata in circa un anno di scioperi.
Una semplificazione del rito processuale senza una contestuale revisione del sistema delle tariffe,
ridurrebbe le parcelle a livelli minimi: non è realistico pensare che possano essere accettate dagli
avvocati. Più efficace sarebbe un onorario fosse in somma fissa – ossia completamente sganciato
sia dal numero di attività svolte nel processo, sia dalla durata della causa, come accade in
Germania, dove il difensore ottiene un parte rilevante del compenso anche se le parti giungono a
una transazione prima dell’avvio del processo o, al massimo, entro la prima udienza. Anche per gli
avvocati italiani diventerebbe così conveniente snellire al massimo il fascicolo del processo e
incentivare transazioni tra le parti che pongano fine alla controversia. Il risultato finale sarebbe
unconsistente alleggerimento della congestione dei tribunali.
Una regolamentazione più leggera, dunque, consente risultati migliori e, a conti fatti, anche una
maggiore tutela dei cittadini. Non a caso dai dati World Bank (www.doingbusiness.org) pubblicati
questa settimana, risulta che in Germania i tempi dei processi civili si riducono, benché il numero
di atti procedurali imposti dalla legge sia rimasto invariato: i compensi forfetari consentono di
conservare le garanzie nel processo, disincentivando parti e avvocati dall’abusarne.
(1) “Libere professioni – perseguire la riforma”
http://europa.eu.int/comm/competition/antitrust/legislation/#liberal.
31
INFRASTRUTTURE E TRASPORTI

Autostrade, galline dalle uova d’oro e polli da


spennare
18.11.05
Andrea Boitani e Marco Ponti

Perché alcune infrastrutture, e le autostrade in particolare, sono così redditizie da scatenare


“guerre commerciali” tra soggetti pubblici e privati e conflitti tra amministrazioni locali? Si
tratta spesso di rendite di monopolio, generate dalle tariffe consentite da un regolatore
debole, e quindi facilmente “catturabile”. Sostanzialmente, una tassa impropria, che potrebbe
rivelarsi efficiente se fosse tarata per il controllo della congestione. Quanto alla Serravalle, un
privato ha lucrato enormi plusvalenze da un monopolio mal regolato.

Il dibattito sulle concessioni di infrastrutture “redditizie” è ruotato in questo periodo


soprattutto intorno alla congruità del prezzo pagato dalla provincia di Milano a Marcellino
Gavio per acquistare la sua quota dell’autostrada Serravalle e garantirsi così la maggioranza
azionaria, indipendentemente dall’altro socio pubblico, il comune di Milano, nonché sul senso
che un soggetto pubblico “ripubblicizzi” un bene privato. Ma una discussione del tutto simile
è in corso per la cessione di una quota di Sea, la concessionaria degli aeroporti milanesi,
anche se in questo caso si tratta di una privatizzazione, per di più parziale. L’impostazione
del dibattito tuttavia non sembra cogliere i nodi reali della questione. Vediamo perché.

Privatizzazioni e ri-pubblicizzazioni delle rendite di monopolio

Innanzitutto, privatizzare monopoli naturali come sono le infrastrutture, quando ancora sono
in mano pubblica molti servizi che non hanno queste caratteristiche, non sembra una
strategia difendibile, sia per la scarsa contendibilità “intrinseca” delle infrastrutture – con la
conseguente necessità di una regolazione complessa – sia per la loro rilevanza per l’assetto
del territorio. Nell’ambito di una strategia volta ad accrescere l’efficienza dei servizi, la
privatizzazione di infrastrutture “strategiche” dovrebbe essere probabilmente l’ultimo passo,
non il primo. Inoltre, privatizzazioni condotte con lo scopo esclusivo di massimizzare gli
introiti del venditore sono puntualmente accompagnate da un assetto di regolazione debole e
perciò molto aperto al rischio di “cattura” del regolatore da parte del regolato. Si può anzi dire
che la “cattura” è in qualche modo scritta nel codice genetico di questo genere di
privatizzazioni.
La questione della Serravalle, dunque, va inserita in un contesto più ampio. Una volta
create forti rendite grazie a privatizzazioni concepite con finalità puramente finanziarie (come
quella della Società Autostrade, nel 1999), si è determinata la convenienza per soggetti

32
pubblici locali – apparentemente non così privi di risorse come lamentano, o comunque con
facilità di accesso al finanziamento a tentare la via del capitalismo. Non sembra possibile,
tuttavia, vedere una strategia riconducibile all’interesse pubblico (comunque inteso o definito)
in queste operazioni, ma solo allargamenti di sfere di potere di soggetti pubblici, con obiettivi
non chiaramente esplicitati, ma apparentemente soltanto di carattere finanziario, e con
manovre certo non molto trasparenti, che potrebbero prestarsi al consolidamento di “rapporti
impropri” tra politica ed economia.

Tasse improprie

Bisogna anche chiedersi perché alcune infrastrutture, e le autostrade in particolare, siano così
redditizie, e quindi appetibili, tanto che le banche sono pronte a finanziare operazioni con
“leverage” altissimi. La loro redditività è anche tale da scatenare “guerre commerciali” tra
soggetti pubblici e privati (e conflitti tra amministrazioni locali, come nel caso Serravalle).
L’andamento in Borsa del titolo della maggiore concessionaria privata del settore, “Autostrade
per l’Italia spa”, non lascia dubbi in proposito. (1) Del resto, si tratta della terza società
italiana (dopo Snam e Terna, altre due reti monopolistiche) per utile ante imposte, oneri
finanziari e poste straordinarie e in Europa occupa il decimo posto tra le 454 società più
redditizie (nel 2004 era al quindicesimo). Tutto ciò, ovviamente, non è connesso all’eccellenza
tecnologica, commerciale, o gestionale, per quanto la guida privata abbia potuto accrescere
l’efficienza della società, che comunque faceva profitti anche prima di essere privatizzata. Si
tratta, in misura molto rilevante, di rendite di monopolio, generate dalle tariffe consentite da
un regolatore debole, e quindi facilmente “catturabile”. Manca infatti una Autorità
indipendente di regolazione nei trasporti, che pure è prevista nell’ancora formalmente vigente
Piano generale dei trasporti. Siamo sostanzialmente di fronte a una “tassa impropria”: come
definire altrimenti una rendita di monopolio determinata da un decisore pubblico?
Non è un tassa di per sé illegittima. Anzi, se fosse esplicitamente tarata per il controllo della
congestione, sarebbe efficiente. Ma è tale probabilmente solo in presenza di quattro
condizioni che sembrano irrinunciabili: che la dimensione della tassa sia esplicitata (e valutata
da un soggetto terzo, o partecipato dagli utenti, per minimizzare il conflitto di interessi); che
ne siano esplicitati gli obiettivi, cioè le destinazioni della tassa e non è detto che ampliare
autostrade sia sempre un obiettivo sociale prioritario; che sia chiesto e ottenuto il consenso
sulla tassa stessa (per esempio, secondo il modello delle “tasse di scopo” statunitensi per le
infrastrutture); e infine che sia predisposto un ragionevole monitoraggio “terzo” sulla reale
spesa poi effettuata con i proventi della tassa stessa.

Il prezzo è giusto?

33
Entriamo ora brevemente in merito alla cifra pagata per le azioni Serravalle: 235 milioni di
euro. L’analisi condotta da Alessandro Penati (nessuna parentela con il presidente della
provincia di Milano) sembra non lasciare dubbi sul fatto che la provincia di Milano abbia
pagato un prezzo straordinariamente elevato, anche tenendo conto del “premio di
maggioranza” che l’acquisto implicava. (2) Tuttavia, occorre ricordare che la redditività delle
“imprese” autostradali è legata anche alla loro attività di costruttori. Infatti, le opere realizzate
dai concessionari autostradali vengono compensate con le tariffe (un “cash flow” rapido e
certo), a fronte di lavori di fatto tutti “interni” al controllo del concessionario stesso, sulla base
di prezzi (e tempi) concordati con un regolatore molto debole e spesso distratto. Inoltre, tali
opere (ampliamenti, raccordi e così via) costituiscono fattore cruciale per il prolungamento
delle concessioni stesse, con un’interpretazione un po’ disinvolta della normativa che ne
prevederebbe la messa in gara alla scadenza. (3) Comunque, nel caso della Serravalle, è
evidente che un privato, grazie all’acquisto della provincia di Milano, ha lucrato enormi
plusvalenze da un monopolio mal regolato. In altre parole, gli utenti sono stati “spennati”, o
che ci siano forti aspettative che siano spennati in futuro.

(1) Da quando il Cipe ha varato la delibera riguardante le tariffe autostradali per il prossimo
decennio (gennaio 2004) a oggi, il titolo di Autostrade si è apprezzato di circa il 50 per cento,
toccando punte del 65 per cento. Nello stesso periodo, il titolo della società Autostrada
Torino-Milano è arrivato ad apprezzarsi del 100 per cento, per poi ripiegare. A tutt’oggi,
comunque il suo valore è di oltre il 50 per cento superiore a quello di gennaio 2004.

(2) Vedi “La Repubblica” del 4 novembre 2005.

(3) Si veda il recente caso della concessione autostradale Verona-Brennero, prolungata per
otto anni senza gara in base a un piano di investimenti.

Un commento all’intervento di Boitani e Ponti


di Gian Maria Gros Pietro*

L’articolo di Andrea Boitani e Marco Ponti dal titolo “Autostrade, galline dalle uova d’oro e
polli da spennare” ha sollevato diverse questioni relative alla privatizzazione e alla gestione
delle infrastrutture che mi inducono a presentare un diverso punto di vista. Sia per il diretto
interesse di Autostrade, società di cui sono presidente, sia perché il tema mi sembra degno
della massima attenzione. In un momento in cui il paese ha un evidente deficit di
competitività, è necessario misurare l’efficienza delle attività per loro natura non
concorrenziali, e pertanto sottoposte a regolazione, comparandola con quella di analoghe
attività di sistemi con i quali siamo in competizione. La misura va fatta caso per caso, e io

34
credo sia opportuno che le imprese coinvolte vi contribuiscano con dati tecnici ed economici,
da sottoporre a una pubblica verifica.

Gli utenti hanno avuto vantaggi o svantaggi dalla privatizzazione di Autostrade?

Partiamo dalle tariffe. Il sistema di aggiornamento delle tariffe oggi in vigore è stato istituito
nel 1997, scegliendo tra i tanti teoricamente possibili. Se fosse stato scelto un sistema più
semplice, come quelli in vigore in Francia, Spagna e Portogallo, forse lo Stato avrebbe
incassato qualcosa di più dalla privatizzazione, perché gli investitori avrebbero scontato con
meno diffidenza i ricavi futuri. Se fosse stato scelto un sistema più complicato, ad esempio
comprendente una clausola di claw-back, lo Stato avrebbe sicuramente incassato molto di
meno. Ma la scelta è ormai cosa fatta e fa parte del contratto di privatizzazione. Si tratta di
vedere come è stata gestita: come si comparano le nostre tariffe con quelle degli altri paesi
con rete autostradale a pedaggio, e come sono cambiate le cose dopo la privatizzazione.

Tariffe medie europee al luglio 2004 (€ cent/km)

Veicoli pesanti Veicoli leggeri

Media italiana 13,4 5,4

Media Autostrade per

l’Italia 12,0 5,0

Media Francia 19,6 6,9

Media Spagna 12,9 8,0

Media Portogallo 17,2 6,8

UK (M6 Toll) 52,2 14,9

35
Austria 32,8 –

Germania 14,0 –

È stato così anche negli anni passati: le tariffe italiane erano e sono inferiori.
Se si esamina come il regolatore ha gestito la formula per le revisioni tariffarie, dalla sua
istituzione (1997) in poi, si rileva che, fino alla privatizzazione, l’aumento medio annuo delle
tariffe è stato pari al 140 per cento dell’inflazione; dopo la privatizzazione, esso è stato pari
mediamente al 73 per cento dell’inflazione:
Variazioni percentuali annue
Tariffe ASPI Inflazione
1997 2,54 2,0
1998 2,30 2,0
1999 3,09 1,7
2000 1,55 2,5
2001 1,79 2,7
2002 2,21 2,5
2003 1,52 2,7
2004 2,26 2,2
crescita cumulata 1997-2000 8,1397 per cento 5,8087 per cento rapporto: 1,40
crescita cumulata 2000-2004 9,6821 per cento 13,2503 per cento rapporto: 0,73

Come prevedibile, il regolatore pubblico era più benevolo con un gestore pubblico di quanto
non lo sia stato in seguito con uno privato. Di conseguenza la privatizzazione ha portato un
beneficio ai clienti e al sistema paese un margine di guadagno di competitività. Nel 2000 il
costo del pedaggio di una vettura da Milano a Roma era di 51.500 lire; nel 2005 è di 28,7
euro. L’aumento cumulato in cinque anni è stato del 7,9 per cento. Nello stesso arco di tempo
il costo di una pizza è salito del 61 per cento, quello di un pasto al ristorante del 68 per
cento.

Un servizio migliore

Ma gli utenti hanno anche usufruito di un servizio migliore. Qualche esempio. Nel 2000 si
impiegarono per ripavimentazioni 586mila metri cubi di materiale; l’anno scorso se ne sono
impiegati 817mila (+39 per cento), di materiale migliore, perché la percentuale di nuova
pavimentazione drenante è passata dal 21 al 61 per cento. Per fine 2005 arriveremo vicino al
50 per cento di copertura della rete con asfalto drenante, e per la fine del 2006 puntiamo al

36
70 per cento. Intanto il ciclo medio di riasfaltatura è sceso da undici anni a sei anni.
I risultati dei maggiori investimenti in sicurezza si vedono in termini di riduzione della la
mortalità per milione di chilometri percorsi, passata da 1,1 nel 1999 a 0,53 nel primo
semestre 2005, raggiungendo quel dimezzamento che l’Unione Europea ha proposto di
raggiungere in dieci anni (la patente a punti ha aiutato, ma non ha dato gli stessi risultati sul
resto della rete).
Nei giorni scorsi vi è stata polemica intorno al blocco causato dalle nevicate in alcune
autostrade del nord-ovest, tra cui le nostre. Dobbiamo imparare e migliorare, registrando il
fatto che gli eventi atmosferici sono diventati più acuti e il traffico è più intenso, per cui è più
difficile pulire la strada mantenuta in servizio, e al minimo incidente si formano
immediatamente code più lunghe che in passato. Non è infatti sufficiente che il servizio sia
mediamente migliorato:

1994- 1999 -
1999 2004 ∆

+8
N° eventi neve con accumulo > 10 per
cm 138 149 cento

– 46
per
Ore totali di blocco per neve 94 51 cento

– 49
Durata media dei blocchi per per
evento (minuti) 41 21 cento

(I due archi temporali riportati in tabella fanno riferimento rispettivamente alle stagioni
invernali dal 1994-1995 al 1998-1999 e dal 1999-2000 al 2003-2004)

Il servizio privatizzato deve sia garantire un livello medio migliore di quello precedente, sia
attrezzarsi nei confronti degli eventi eccezionali. A questo fine è necessario estendere il
confronto con gli altri gestori europei, rispetto alle tecnologie impiegate, alle pratiche,
all’impiego di mezzi, agli standard di servizio. Nello stesso tempo, su impulso dell’Anas sono

37
allo studio parametri più penetranti di misura del livello di servizio in Italia, da considerare
anche in relazione a nuove previsioni convenzionali. Questi parametri includono la fluidità del
traffico, per la parte che è governabile dal gestore.
Il problema delle congestioni tuttavia richiede un indispensabile rafforzamento della
infrastruttura autostradale. L’insufficienza della rete è il vero problema delle autostrade del
nostro paese. Abbiamo troppo pochi chilometri di autostrada rispetto al numero di abitanti e
troppi veicoli per chilometro:

La congestione del traffico penalizza la competitività delle produzioni italiane, già in difficoltà
per altri motivi. E, a parità di trasporti effettuati, peggiora l’ambiente. Autostrade è un attore
dotato dei mezzi tecnici e delle capacità finanziarie per affrontare il problema, nei tratti di sua
competenza e con il consenso del territorio.
I dati esposti in precedenza vogliono esser l’avvio di un dibattito basato sui fatti. Altri fatti
potrebbero essere ritenuti rilevanti in materia: siamo pronti a discuterne.

* Presidente di Autostrade Spa

L’insostenibile inefficienza delle tariffe


di Andrea Boitani

L’attuale sistema delle tariffe autostradali, difeso con tanta passione da Gian Maria Gros
Pietro, risponde a qualche criterio di efficienza allocativa o potrebbe essere utilmente
riformato al fine di migliorare il sistema dei trasporti italiani nel suo complesso? Due sono i
principali aspetti problematici: l’assenza di una qualsivoglia relazione tra l’attuale sistema
tariffario e la politica dei trasporti e la dubbia efficienza di un sistema di tariffe che
riguarda solamente una parte della rete stradale, sebbene la più qualificata.

38
Il doppio ruolo dei pedaggi autostradali

Le autostrade rappresentano oggi il sistema più strategico del paese per la mobilità di lunga
distanza, ma non solo per quella. (1) Viceversa, l’attuale assetto tariffario è esclusivamente
dominato dall’esigenza di remunerazione dei gestori e di finanziamento degli investimenti.
Problemi di ripartizione modale, o di tipo ambientale, o di ottimizzazione complessiva
dell’uso della rete non sono nemmeno considerati.
Eppure, il tuttora vigente Piano generale dei trasporti e della logistica, seguendo le linee
indicate dalla Commissione europea, prevedeva esplicitamente che il principale compito delle
tariffe autostradali dovesse essere quello di promuovere l’efficiente allocazione del traffico,
cioè di ridurre la congestione e accrescere la sicurezza, separando il più possibile il traffico
pesante da quello delle auto, ma anche di accrescere la sostenibilità ambientale del sistema di
trasporto. (2)
Nel Pgtl si manifestava scetticismo circa la concreta possibilità di procedere a
un’ottimizzazione generalizzata del sistema delle tariffe. Si riteneva, invece, possibile
procedere in modo graduale per muovere il sistema nella direzione auspicata.
A tale fine si suggeriva di “separare” il livello e la dinamica delle tariffe percepite dai gestori,
che hanno il compito di garantire l’equilibrio finanziario degli stessi (compreso di un
ragionevole rendimento sugli asset impiegati), dal livello e dalla dinamica dei pedaggi pagati
dall’utenza.
Per definire gli introiti percepiti dai gestori, su cui poi applicare il price cap, il traffico previsto
dai concessionari doveva essere perciò reso certo, trasformandolo in “traffico virtuale“, sulla
base del quale calcolare i corrispettivi di cui i concessionari debbano godere. In questo modo,
i gestori verrebbero isolati dal rischio determinato dalle scelte allocative della pubblica
autorità, mentre il rischio di impresa sarebbe dovuto permanere pieno sui parametri di
efficienza produttiva e qualitativa propri del price cap.
Tra l’altro, al di là delle scelte allocative, il traffico autostradale non dipende certo
dall’efficienza del concessionario, ma dall’andamento dell’economia, dal prezzo della
benzina, dalle alternative stradali o di altri modi di trasporto e così via: tutte variabili al di
fuori del controllo del concessionario. (3) Che i concessionari si siano a lungo opposti al
metodo proposto nel Pgtl e abbiano voluto mantenere su di sé un rischio sostanzialmente
fuori dal loro controllo può essere legittimamente interpretato come un forte indizio che
l’attuale impianto regolatorio offre abbondanti garanzie sui ricavi.

Una tariffazione generalizzata

Il secondo problema è quello dell’inefficienza intrinseca di imporre tariffe solo su parte della
rete stradale, quando esistono estesi collegamenti con caratteristiche molto simili (svincoli,

39
numero di corsie, eccetera). Anche in questo caso, le raccomandazioni europee (e il buon
senso) non lasciano dubbi: occorre muoversi verso “tariffe efficienti” per l’intera mobilità su
gomma. La tecnologia è già sperimentata: si tratta di sistemi satellitari che azionano
“tassametri di bordo” in tempo reale, e inducono gli utenti a scelte “razionali” (almeno in
relazione alla situazione presente) di orari e percorsi su tutte la rete. Occorre cioè che le
tariffe rispecchino la politica complessiva dei trasporti. Ma anche la più semplice tecnologia
delle “targhe elettroniche”, cioè di trasponder resi obbligatori (il costo di tali dispositivi e dei
relativi “lettori” è oggi irrisorio) può estendere gradatamente il sistema di pedaggi all’intera
rete stradale.
In questa direzione si muove con decisione il “Patto per la logistica“, sottoscritto l’11 luglio
2005 anche dall’associazione dei gestori autostradali (Aiscat), oltre che da Anas e da
Confindustria (di cui fa parte Federtrasporto, presieduta da Gros Pietro). Tra gli interventi
prioritari per l’autotrasporto, il Patto prevede proprio l’avvio di un road pricing “da estendere
a interi corridoi e alle aree dei grandi centri urbani, con una differenziazione in base alla
qualità delle infrastrutture” e “uno schema di pedaggi articolato in modo tale da separare il
traffico passeggeri da quello merci e quindi da incoraggiare il traffico pesante nelle ore
notturne”.

Un’occasione da non perdere

Dunque, l’unico vero documento di politica dei trasporti messo a punto nel corso della
legislatura che sta per finire si riallaccia, sulla questione delle tariffe (auto)stradali, al Piano
messo a punto nella legislatura precedente, esprimendo una continuità di indirizzi che supera
la diversità delle maggioranze politiche. C’è da augurarsi che tale continuità prosegua nella
prossima legislatura e che si passi finalmente dai buoni propositi all’attuazione delle misure
necessarie. Certo, molto dipenderà dall’atteggiamento più o meno collaborativo dei
concessionari autostradali, tra i quali va assumendo forza il nuovo capitalismo delle province,
attirato dai copiosi cash flow garantiti dall’attuale meccanismo di regolazione delle tariffe.
Così come dipenderà dal se e dal come verranno concretamente attuate le disposizioni della
Legge finanziaria 2005 in materia di nuove strade a pedaggio e dal se e dal come verranno
attuate le disposizioni della legge 203 del 2 dicembre 2005 (articolo 6 ter) in materia di
subconcessioni da parte dell’Anas di tratte stradali e autostradali. Se questo complesso
insieme di disposizioni non verrà semplicemente lasciato cadere o non verrà utilizzato
soltanto come strumento per aggirare i vincoli europei in materia di finanza pubblica, o per
costituire una nuova concessionaria pubblica da collocare sul mercato in un prossimo futuro,
potrebbe presentarsi l’occasione di un cambiamento significativo e nella giusta direzione del
sistema di tariffazione della rete stradale e autostradale. Sarebbe bene non perderla.
(1) Secondo alcune stime, il 78 per cento del traffico pesante sulla rete gestita da Aspi ha
origine e destinazione nella stessa Regione.
40
(2) Si vedano, in particolare, il libro bianco Fair Payment for Infrastructure Use del 1998, e il
libro verde Towards Fair and Efficient Pricing in Transport del 1996.
(3) In aggregato, il traffico autostradale cresce grosso modo a un tasso pari a quello di
crescita del Pil, moltiplicato per 1,5.

Investimenti sregolati
di Marco Ponti

Gran parte dei flussi economici che caratterizzano le concessioni autostradali, sia come spese
che come ricavi da tariffa, sono commisurati agli investimenti (nuove tratte, ampliamenti e
così via). Proprio la regolazione degli investimenti, però, presenta anomalie significative.
Il price cap infatti dovrebbe agire anche su questi, in modo da indurre il gestore a effettuare
tutti e soli quelli remunerativi, riuscendo così a lucrare extraprofitti, anche se temporanei.

Verso il piè di lista

In realtà, gli investimenti autostradali formalmente sono al di fuori di tale tipo di regolazione,
e sono “richiesti” dal concedente (Anas) al concessionario, e poi remunerati in tariffa a un
prezzo concordato ex-ante. Al concessionario, di fatto, rimane il solo rischio industriale,
come per qualsiasi appalto pubblico: se spunterà costi minori di quelli concordati lucrerà
extraprofitti, altrimenti incorrerà in perdite. Il sistema di remunerazione sta però evolvendo
verso un “piè di lista”, con conseguente eliminazione anche del rischio industriale: in tariffa
sono riconosciute al concessionario solo le spese realmente sostenute e documentate, anche
per evitare gli inconvenienti di ricavi elevati in assenza di investimenti corrispondenti,
fenomeno accaduto in modo clamoroso negli anni passati.
L’Anas formalmente esegue analisi del tipo costi-benefici per le singole opere, ne determina
priorità, tempistica, e coerenza con la pianificazione generale. Sembrerebbe il “dominus” del
processo, e il concessionario solo un docile esecutore di volontà politiche. Sarebbe dunque
una struttura di “command and control” molto tradizionale, in antitesi rispetto a meccanismi
di regolazione incentivante. E una struttura che non prevede nemmeno meccanismi di
estrazione di “rendite informative”, che richiederebbero la combinazione strategica di
remunerazioni “fixed price” e “costplus“.

Qualche interrogativo

Il contesto nel quale vengono effettuati gli investimenti autostradali non è affatto quello di
normali appalti in gara di opere pubbliche: siamo all’interno di un assetto con due soli attori,
predefiniti e reciprocamente vincolati, senza alcuna autorità “terza” di regolazione, e quindi
estremamente proclive a fenomeni di “cattura”. Come sono decisi i prezzi unitari o gli

41
standard? Come sono raccordate le scelte di investimento autostradali con quelle, per
esempio, ferroviarie? Quale è la possibilità di soggetti terzi di analizzare e contestare costi e
analisi di fattibilità?
Un caso interessante, sotto questo profilo, è quello dell’autostrada tirrenica Livorno-
Civitavecchia. Per rendere fattibile un investimento altrimenti ingiustificabile, il
voluminosissimo studio di fattibilità effettuato, assumeva vincoli futuri di velocità sulla strada
esistente di 30-40 km all’ora. Questa assurda quanto cruciale assunzione – la strada statale
Aurelia consente oggi velocità autostradali per gran parte del tracciato – era descritta in non
più di tre righe di testo. (1)
L’attuale piano di investimenti di Autostrade per l’Italia spa per 4,5 miliardi di euro, di fatto, è
stato presentato dal concessionario: si fa un po’ fatica a credere che le decisioni siano state
interamente prese da Anas, e che il concessionario ne sia un semplice esecutore. Certo,
potrebbe trattarsi di un fortunato caso di “fruttuosa collaborazione” tra
regolatore/concedente e regolato/concessionario. Ma se si parte dalla consolidata ipotesi
della teoria economica per cui i soggetti (pubblici o privati che siano) sono mossi da obiettivi
“egoisti”, le “fruttuose collaborazioni” sembrano più facilmente interpretabili come “cattura”
(senza alcuno stigma morale). Anche altri piani di investimento sembrano formulati
direttamente dai concessionari per ottenere il prolungamento senza gara della concessione,
come ad esempio nel caso recente della Brescia-Padova. Sembra davvero impossibile non
vedere qui in atto fenomeni difficilmente riconducibili all’interesse pubblico.
Ma anche in termini teorici, remunerare gli investimenti per via tariffaria apre rilevanti
problemi di efficienza: vi sono aspetti legati alle perdite di benessere collettivo connesse al
fatto che le autostrade sono un monopolio naturale. (2)
E anche l’eventuale quota di intervento pubblico a fondo perduto dovrebbe rispondere a
criteri di efficienza, collegati alle politiche di trasporto complessive, al costo-opportunità
marginale dei fondi pubblici, e così via [link Boitani]. Infine, se fossero considerazioni
ambientali a indurre una politica di finanziamento degli investimenti autostradali basata sulle
tariffe più di quanto accada, per esempio, nel settore ferroviario, ciò dovrebbe avvenire
esplicitando i costi ambientali relativi caso per caso, tenendo conto dell’elasticità della
domanda e di altri fattori.

Altre anomalie regolatorie

Ma vi è un’altra anomalia rilevante, dovuta all’arbitrarietà delle dimensioni dei concessionari.


Un investimento effettuato da un concessionario che ha una rete estesa viene recuperato in
tariffa “distribuendo” l’aumento tariffario sull’intera sua rete. Un investimento di pari entità
effettuato da un concessionario piccolo, invece, deve essere recuperato con incrementi unitari
di tariffa molto maggiori, o addirittura essere pagato in parte dall’erario, per evitare shock
tariffari o cali drastici di domanda per effetti di elasticità. Si possono immaginare le
42
implicazioni distributive e di efficienza allocativa di questo aspetto delle tariffe, legato solo a
un fattore “storico” quale le dimensioni delle concessioni.
Si pongono quindi, come riflessione “storica”, ma forse non inutile, significativi problemi di
“dimensione minima efficiente”. Passando da una struttura concessoria pubblica a una
privata, quali analisi sono state fatte per definire le dimensioni efficienti delle concessioni?
Perché mai scegliere quelle “storiche”, e non dimensioni più elevate, o inferiori? (3) Non
sarebbe stata best practice frazionare molto le reti – fare uno “spezzatino”, secondo un
termine corrente -, lasciando poi al mercato determinare aggregazioni, cioè eventuali
economie di scala? O di nuovo ha prevalso il discutibile obiettivo del “campione nazionale”,
che è emerso anche nelle recenti vicende del sistema bancario italiano, e che sembra essere
l’”ultima spiaggia” prediletta dai difensori del monopolio? (4)
In conclusione, sembra difficile trovare argomentazioni sia di efficienza economica (assenza
di incentivi regolatori), che di efficienza allocativa (assenza di strategie di massimizzazione
del surplus sociale) nell’attuale struttura del finanziamento degli investimenti autostradali. La
sensazione è che si tratti sostanzialmente di un dispositivo di prelievo di risorse più
“indolore” di altri, nella misura in cui fino ad oggi gli utenti e i contribuenti non hanno
manifestato resistenze particolari, se non forse in relazione ad alcuni recenti disservizi. Ma
sarà sempre così?

(1) In realtà, fenomeni di “gold plating”, o “effetti Averch-Johnson” sono del tutto verosimili in
un meccanismo così “chiuso”.
(2) “Deadweight losses”, che postulerebbero almeno una riflessione su di un meccanismo di
tariffazione del tipo Ramsey-Boiteaux.
(3) Si veda anche la ricaduta di questo problema sulla remunerazione degli investimenti.
(4) Per rimanere nel settore dei trasporti, si pensi anche al caso di Alitalia o di Fs.

Autostrade per il benessere degli italiani


di Giuseppe Coco

Nelle settimane passate lavoce.info ha ospitato uno scambio di opinioni alquanto interessante
sulla privatizzazione e sulla performance generale del sistema autostradale tra tre noti
economisti, di cui uno è il presidente del consiglio di amministrazione della maggiore
concessionaria autostradale.

La scarsità delle informazioni

In primo luogo, colpisce la dovizia di dati con i quali il presidente di Autostrade ha risposto
alla tesi di Andrea Boitani e Marco Ponti. Perché sia possibile un dibattito sui costi e sui
benefici del sistema autostradale, è necessario che l’informazione sul settore sia pubblica.

43
Invece, la reperibilità di dati oggettivi, compresi gli incrementi tariffari, risulta spesso
problematica, se non per via privata. Questo discorso vale in maniera più pregnante per le
convenzioni tra le società concessionarie e l’Anas. La natura dei contratti stessi, in quanto
concessioni di una infrastruttura di interesse pubblico, rende necessaria la trasparenza e
pubblica “dibattibilità” delle loro caratteristiche. Tuttavia, la trasformazione dell’Anas in spa,
ha reso possibile, secondo alcuni giuristi, la “privatizzazione” anche del rapporto concessorio,
e la tradizionale “riservatezza” della pubblica amministrazione italiana, qui intesa in senso
lato, ha trovato una modalità ulteriore di esprimersi.
La premessa è utile per chiarire che, allo stato, il dibattito pubblico non può che
essere falsato. Un regolatore o un economista che voglia sostenere che, ad esempio, la “x”
del price cap sia stata fissata in maniera impropria o che il sistema di regolazione della
qualità è straordinariamente generoso, si trova di fronte alla oggettiva difficoltà di
documentare le proprie affermazioni, come invece ha potuto fare, con puntiglio e correttezza,
Gian Maria Gros-Pietro.

Un sistema tariffario generoso?

Per quanto riguarda il merito, un punto centrale appare la spiegazione della


sorprendente performance del titolo Autostrade (poi Autostrade per l’Italia). Cosa giustifica,
in soli quattro anni e mezzo, per tre dei quali peraltro l’indice Mibtel crollava, il (più che)
triplicarsi del valore di una impresa in un settore tradizionale e con tariffe regolate? Molte
ragioni indubbiamente, tra le quali anche una maggiore efficienza nei business non regolati,
la proiezione internazionale dell’impresa, il cambiamento nella sua struttura e i bassi tassi di
interesse. Ma difficilmente, data la dimensione del rialzo, si può escludere una
certa generosità del sistema tariffario. La privatizzazione si è quindi risolta in un significativo
trasferimento di ricchezza.
Gros-Pietro ammette che, se il sistema tariffario fosse stato più “semplice”, il prezzo di
privatizzazione avrebbe potuto essere più elevato. Con ciò implicitamente, a mio parere,
ammette che anche la lettera del sistema regolatorio italiano definito nel 1997 era aperta a
una serie di possibili interpretazioni, in particolare in merito alle modalità della revisione
tariffaria quinquennale, a fronte delle quali il prezzo di privatizzazione ha scontato anche
l’eventualità che la revisione avvenisse attraverso l’applicazione del cosiddetto claw back.
A questo proposito giova ricordare che non esistono varie possibilità, tutte corrette, di
applicare il price cap, come sembra suggerire Gros-Pietro. La “fissazione” del prezzo per un
periodo (regolatorio) temporaneo, che consente legittimamente alle imprese regolate profitti
supernormali nel breve-medio periodo, non può che essere compensata da aggiustamenti
della tariffa a scadenza del periodo. (1) E questo perché nel lungo periodo i guadagni di
efficienza realizzati attraverso la formula di incentivo devono essere trasferiti all’utenza.
Come in un settore competitivo una posizione di vantaggio temporaneo di una impresa viene
44
gradualmente erosa dalla concorrenza, nei monopoli regolati il margine di sovraprofitto sui
costi deve essere messo in questione, a scadenza, dal regolatore.
I confronti internazionali e intertemporali

Gian Maria Gros-Pietro, per sostenere la sua tesi, fa riferimento a confronti internazionali. I
dati che riporta appaiono indubitabili. Andrebbe però precisato che sulle tariffe di alcuni paesi
pesano in maniera consistente le remunerazioni per investimenti fatti di recente (il caso più
clamoroso è ovviamente la M6 inglese, interamente di nuova costruzione). La rete di Aspi,
invece, è stata realizzata svariati decenni fa, il suo costo è interamente recuperato e solo
recentemente è stato avviato un programma di investimenti di cui, infatti, gli utenti italiani
iniziano ad accorgersi per gli effetti non trascurabili sulla tariffa.
Inoltre, nel valutare gli effetti della privatizzazione sul sistema economico, Gros-Pietro
assume che la dinamica delle tariffe, qualora la società fosse rimasta pubblica, sarebbe stata
analoga a quella precedente al 1999. E trascura il fatto che le entrate da tariffa sarebbero
rimaste, di fatto, nella pertinenza della collettività.
La prima congettura non è sufficientemente provata. Il price cap prevedeva una applicazione
di incrementi sulla base di una dinamica predeterminata, anche se variabile in funzione di
parametri da verificare anno per anno. Ovviamente, la verifica di questi parametri altera il
rapporto tra dinamica tariffaria e inflazione, ma non è legata alla proprietà pubblica/privata
dell’impresa. Inoltre, ai fini di una valutazione più completa, sarebbe utile avere una idea di
quello che la revisione tariffaria del 2003-4 ha comportato per il presente e comporterà per il
futuro. La serie degli incrementi tariffari confrontati con l’inflazione dovrebbe perciò essere
“allungata” al 2005 e 2006. (2)
Quanto alla seconda congettura, va detto che il calcolo dei guadagni per la collettività ha un
carattere molto più complesso di quello che scaturisce dal semplice confronto tra due tassi di
incremento delle tariffe. Bisognerebbe costruire un controfattuale credibile su una serie di
variabili del tipo effettuato in interessanti esercizi sul Regno Unito. (3)
I dati sulla dinamica delle tariffe potrebbero indurre il lettore poco informato a concludere che
la Aspi abbia in effetti realizzato guadagni di efficienza miracolosi nel corso del quinquennio
analizzato. A fronte di tariffe reali in calo, il valore del titolo esplode. L’ipotesi non è però
pienamente supportata dai dati sui costi operativi nei bilanci. D’altronde, come spiega Gros-
Pietro, Aspi ha effettuato più interventi di manutenzione rispetto al passato.
A chi voglia capire cosa è successo davvero si consiglia la lettura del documento presentato
da Vito Gamberale, amministratore delegato della società, alla Ubm IX Italian Conference e
pubblicato sul sito di Aspi. (4) Vi si enfatizza una crescita del traffico al ritmo di circa il 3 per
cento all’anno e, di conseguenza, delle entrate di circa l’8 per cento (slide 6). Ciò spiega quale
sia la principale fonte della crescita miracolosa di questi anni. Ai lettori e utenti lascio il
giudizio su chi debbano essere i beneficiari ultimi, a scadenza di periodo regolatorio, delle
maggiori entrate dovute a un aumento consistente del traffico.
45
E la qualità?

Un giudizio sulla adeguatezza dell’applicazione del sistema tariffario, come si è configurato


nella prima revisione tariffaria anche attraverso le modifiche introdotte dalla legge 47/04,
non può essere espresso senza discutere le caratteristiche e i parametri della regolazione,
contenuti purtroppo solo nelle convenzioni. In particolare, bisognerebbe poter discutere, oltre
che della correttezza di effettuare o meno la revisione tariffaria, almeno della “x”,
della remunerazione della qualità e delle previsioni di traffico. È a questi parametri e al modo
in cui sono stati calcolati che Gros-Pietro dovrebbe far riferimento per dimostrare il guadagno
della collettività. Potrebbe altresì essere utile ricordare che tra le tante norme vantaggiose per
le concessionarie, tra cui Aspi, la legge 47/04 stabiliva anche, come contrappeso, la necessità
di rivedere il sistema della remunerazione della qualità “entro sei mesi” (da febbraio 2004),
forse perché giudicato troppo generoso o basato su indici solo indirettamente legati alla
qualità del servizio. Sarebbe quindi utile sapere quale sia a oggi il sistema di regolazione della
qualità di Aspi, se ha subito variazioni a seguito del disposto di legge, e in che misura gli
incrementi tariffari di questi anni siano dovuti a miglioramenti della “qualità”.

(1) In misura da definire a seconda del peso relativo che si attribuisce ad obiettivi di incentivo
e di efficienza allocativa.
(2) A questo proposito, sarebbe utile sapere direttamente dal presidente l’entità
dell’incremento tariffario applicato, date le differenze riscontrate dai mezzi di informazione
su tratte diverse, difficilmente attribuibili agli arrotondamenti. (3) Per tutti si veda il recente
Florio, M.‘The Great DivestiturÈ, The MIT Press
(4) Confrontare i documenti che le società presentano per la business community con quelli
che esse presentano alla opinione pubblica o ai regolatori è un esercizio sempre fruttuoso.

46
FISCO

Tutto (o quasi) quello che vorreste sapere


sulla tassazione delle attività finanziarie
27.03.06
Maria Cecilia Guerra e Silvia Giannini

Il vice-ministro Visco annuncia che il Governo armonizzerà la tassazione delle rendite


finanziarie, con una aliquota unica del 20 per cento.
Riproponiamo per i nostri lettori un’analisi che spiega gli effetti di questo provvedimento.

In questi giorni vi sono state roventi polemiche sul futuro della tassazione delle attività finanziarie,
ma spesso l’informazione è stata parziale o fuorviante. Proviamo a rispondere alle domande più
frequenti e sfatare alcuni luoghi comuni.

I redditi di capitale sono tassati oggi in Italia? Come?

I redditi di capitale e diversi (interessi, dividendi e plusvalenze) percepiti da un normale


risparmiatore (una persona fisica che non esercita attività di impresa) sono già oggi tassati nel
nostro paese, ma con aliquote diverse. Sui depositi e conti correnti bancari e postali e sulle
obbligazioni private con scadenza inferiore a diciotto mesi vi è una imposta sostitutiva
dell’Irpef, prelevata alla fonte con l’aliquota del 27 per cento. Sugli interessi sui titoli del
debito pubblico, sui buoni postali e sulle obbligazioni con scadenza superiore a diciotto mesi,
l’aliquota è invece il 12,5 per cento. La stessa aliquota è applicata anche ai dividendi e a tutte
le plusvalenze, purché, nel caso di dividendi e plusvalenze azionarie, l’azionista non detenga
partecipazioni qualificate (in caso contrario una quota, pari al 40 per cento del loro valore è
tassata in Irpef). L’aliquota del 12,5 per cento è applicata al risultato netto di gestione dei
fondi comuni e delle gestioni patrimoniali.

Vi sono buoni motivi per cambiare la tassazione delle attività finanziarie?

La presenza di due aliquote non ha alcuna giustificazione razionale, né sotto il profilo


dell’equità (perché chi ha interessi da depositi bancari o postali dovrebbe pagare di più di chi
detiene obbligazioni?), né dal punto di vista dell’efficiente funzionamento del mercato (la
tassazione non dovrebbe interferire sulle scelte finanziarie degli individui, che dovrebbero essere
guidate solo dalla convenienza economica).
I motivi per unificare il tutto in un’unica aliquota non sono tanto quelli di recuperare gettito,
quanto quelli di rendere più coerente e razionale il sistema di imposizione diretta dei redditi.

47
Quale sarebbe il livello ottimale per un’aliquota unica sui redditi finanziari?

Non vi è un livello ottimale. La scelta va fatta tenendo conto del tipo di sistema impositivo che si
vuole adottare. Se si volesse adottare, ad esempio, un’imposizione non sul reddito ma sul
consumo (“imposta sul reddito spesa”), tema spesso dibattuto nella letteratura economica, i redditi
di capitale dovrebbero essere esentati. Nessun paese si è mosso però finora in questa direzione.
I redditi di capitale sono spesso tassati con regimi proporzionali, fuori dal regime progressivo che
grava sui redditi di lavoro. Mediamente quindi sono meno tassati rispetto ai redditi di lavoro.
La scelta di una aliquota intermedia, fra le due attualmente esistenti (12,5 per cento e 27 per
cento) è motivata dalla volontà di ridurre la distanza fra il prelievo sui redditi finanziari, da un lato,
e quello sui redditi di lavoro (tassati con le aliquote Irpef dal 23 al 43 per cento) e delle società di
capitali (tassati con l’Ires al 33 per cento e l’Irap al 4,25 per cento), dall’altro.

Come è la tassazione negli altri paesi europei?

Per quanto riguarda gli interessi il modello di tassazione prevalente nella Unione Europea non è
più l’imposizione ordinaria (imposta personale e progressiva sul reddito), ma un insieme variegato
di regimi sostitutivi e separati. Nell’Europa a 25, gli interessi rimangono assoggettati al regime
ordinario di tassazione solo nel Regno Unito e Slovenia e, per opzione del contribuente, in Belgio,
Francia e, in parte, in Germania.
I regimi di tassazione separata o sostitutiva prevedono generalmente una sola aliquota di
tassazione (anche se in molti paesi, soprattutto fra i nuovi entranti, sono previste esenzioni per
varie tipologie di interessi) il cui livello varia fra il 10 e il 35 per cento, ma è generalmente non
inferiore al 15-20 per cento (ad esempio, 27 per cento in Francia, 31,65 per cento in Germania al
di sopra di una soglia esente, dal 20 al 40 per cento nel Regno Unito, 28 per cento in Finlandia).
Nei paesi nordici, che applicano sistemi cosiddetti di dual income tax, l’aliquota sui redditi di
capitale coincide con l’aliquota base dell’imposta personale progressiva sul reddito.
Fissare una aliquota superiore al 12,5 per cento può provocare una fuga di capitali?
L’enfasi posta su questa eventualità va sicuramente ridimensionata. In primo luogo, perché
l’aggravio medio per il contribuente sarebbe limitato, in quanto l’aliquota sui depositi bancari e
postali si riduce corrispondentemente. In secondo luogo, perché anche se si investe all’estero,
occorre pagare le imposte in Italia, con le stesse aliquote applicate ai redditi di capitale interni. Se
non lo si fa, è perché si evade. Ma vi sono strumenti crescenti di controllo e contrasto di questo
tipo di evasione. Vi è un sistema di monitoraggio interno sui movimenti di capitale da e per
l’estero. Dal luglio 2005 è poi in vigore una direttiva europea che prevede lo scambio di
informazioni automatico fra paesi sul pagamento di interessi a contribuenti europei. I paesi che
non vi hanno aderito, applicano una ritenuta alla fonte del 15 per cento, che aumenterà
progressivamente fino al 35 per cento, con retrocessione del 75 per cento del gettito al paese di
48
residenza del percettore. Anche importanti paesi, non appartenenti alla Unione, hanno aderito
all’accordo e operano una ritenuta alla fonte ai livelli indicati (per esempio, Svizzera e
Liechtenstein), o concorrono allo scambio di informazioni (come Monaco e San Marino). Certo,
sfuggendo al monitoraggio e cioè utilizzando canali illegali, si può sempre andare alle Cayman o
altro paradiso fiscale in cui la direttiva non si applica ma ci si va già adesso e, semmai, non solo
per risparmiare il 12,5 per cento di imposta.

Se si aumentasse l’aliquota sugli interessi dei titoli pubblici non si correrebbe il rischio di un
aumento dei rendimenti lordi che lo Stato deve garantire ai sottoscrittori, con il risultato che il
Governo pagherebbe con la mano sinistra quello che ha raccolto con la mano destra?

I titoli del debito pubblico sono per lo più detenuti da soggetti esteri (55 per cento) e per il 20 per
cento da banche e imprese. Per questi soggetti l’aumento dell’aliquota del 12,5 per cento non
avrebbe alcun effetto. I risparmiatori (persone fisiche residenti) per i quali l’aumento dell’aliquota
del 12,5 per cento ha effetto detengono meno del 16 per cento dei titoli pubblici (il restante 9 per
cento è nelle mani dei fondi comuni). Difficilmente la loro domanda sarà in grado di influenzare le
condizioni di offerta, e ciò a maggior ragione a seguito del progressivo allineamento dei tassi di
interesse lordi fra paesi, reso possibile dall’adesione del nostro paese all’Unione monetaria
europea. Non si creerebbe una convenienza a modificare la composizione del portafoglio, perché
la nuova aliquota sarebbe applicata ai redditi di tutti i tipi di attività finanziaria.

È possibile che un’eventuale riforma delle aliquote si applichi in modo retroattivo?

No. Eventuali nuove aliquote si applicherebbero solo ai nuovi redditi di capitale. Dunque, l’imposta
non sarebbe retroattiva. Anche per quanto riguarda le plusvalenze, come si è fatto in passato, per
evitare la tassazione retroattiva si calcolano le plusvalenze maturate fino al momento
dell’introduzione della nuova aliquota in modo da assoggettare al nuovo regime solo quelle
maturate dopo tale data.

Che differenza c’è fra tassare anche i redditi futuri di titoli già oggi in circolazione o limitare la
tassazione solo ai redditi derivanti da titoli emessi dopo una eventuale riforma?

Se si limitasse la nuova aliquota ai soli titoli emessi dopo l’entrata in vigore della riforma si
creerebbero differenze di trattamento tra titoli di vecchia e di nuova emissione, facendo un bel
regalo in conto capitale (e cioè nella valutazione dei titoli) a chi ha titoli più vecchi, come è
puntualmente avvenuto nel 1986, al momento dell’introduzione della tassazione sui titoli pubblici.
Alla differenza attuale per durata del titolo, se ne sostituirebbe un’altra per data di emissione.
Inoltre questo periodo di transizione si protrarrebbe per circa un trentennio, creando
segmentazioni sui mercati secondari. Diventerebbe più complessa anche la tassazione dei fondi
49
comuni, tassati sul risultato di gestione. Per motivi di equità e di efficiente funzionamento dei
mercati è dunque decisamente preferibile estendere la riforma anche ai titoli già in circolazione.

Aumentare la tassazione sui titoli pubblici significherebbe colpire i piccoli risparmiatori?

I titoli pubblici sono una componente minoritaria del risparmio delle famiglie; rappresentano
secondo l’ultimo bollettino economico della Banca d’Italia solo il 5,6 per cento delle attività
finanziarie detenute dalle famiglie. Per affrontare il problema dell’equità della riforma proposta
occorre considerare l’insieme di queste attività.

Quali sono allora gli effetti redistributivi della riforma?

Per rispondere a questa domanda occorre tener presente che la ricchezza finanziaria è nel nostro
paese molto concentrata. Sulla base dei dati ricavabili dall’ultima inchiesta della Banca d’Italia sui
redditi e la ricchezza delle famiglie italiane, corretti per tener conto delle note sottostime che
emergono in questo tipo di rilevazioni campionarie, si evince che il 10 per cento delle famiglie più
ricche possiede, da solo, il 40 per cento dello stock di attività finanziarie (con l’esclusione di
riserve assicurative e fondi pensione) dell’insieme delle famiglie, contro il solo 1,2 per cento
posseduto dal 10 per cento delle famiglie più povere. Uniformare le aliquote a un livello
intermedio (ad esempio, il 19-20 per cento) avrebbe quindi sicuramente effetti redistributivi
positivi.

Si può fissare una esenzione per i piccoli risparmi?

Generalmente l’esenzione ai piccoli risparmiatori viene concessa nell’ambito di una tassazione


personale, non di una tassazione sostitutiva, come la nostra, perché richiede di conoscere i redditi
finanziari complessivamente ricevuti dal singolo risparmiatore. È comunque possibile
studiare forme di esenzione, attraverso meccanismi di opzione per la tassazione ordinaria o di
certificazione dell’imposta pagata da parte degli intermediari.

Quanto sarebbe il gettito che si potrebbe ottenere da una riforma di questo tipo?

Le stime del gettito atteso vanno prese con molta cautela, in quanto in larga parte dipendono dalle
ipotesi che si fanno circa la rilevanza delle plusvalenze, che sono però una componente con un
andamento molto erratico. Vi è poi difficoltà a stimare la tassazione dei fondi comuni, i quali
stanno ancora sfruttando, in compensazione, ingenti crediti di imposta maturati in passato, a
seguito delle minusvalenze conseguite sui mercati azionari.

50
Si parla comunque di una cifra compresa fra i 2,5 e i 4,2 miliardi. Di questi, meno di 400 milioni
arriverebbero dalla tassazione dei titoli pubblici.

Ma se la nuova aliquota fosse applicata in modo uniforme a tutti i redditi di capitale e diversi,
inclusi dividendi e plusvalenze azionarie, non si avrebbe un fenomeno di doppia imposizione,
posto che dividendi e plusvalenze azionarie possono avere già subito un primo livello di
tassazione in capo alla società?

Già oggi vi è doppia imposizione, ma questa aumenterebbe se ci si limitasse ad aumentare


l’aliquota del 12,5 per cento anche sui dividendi e sulle plusvalenze azionarie. Una volta il
problema non si poneva, perché c’erano delle compensazioni, che riducevano la tassazione
complessiva (societaria e personale) sugli utili di impresa: la dual income tax in capo alla società e
il credito di imposta ai dividendi, in capo al socio. Oggi questi correttivi non ci sono più. Se si
vuole evitare di penalizzare le società che si finanziano con capitale proprio sul mercato dei
capitali, occorrerà una riforma più organica che coinvolga anche la tassazione del reddito delle
società. È questo un aspetto spesso trascurato nel dibattito, che meriterebbe maggiore
attenzione .

51
ISTITUZIONI E FEDERALISMO

Una proposta di riforma istituzionale


29.08.06
Giuseppe Pisauro e Giancarlo Salvemini

L’esito del referendum di giugno, che ha bocciato la riforma del centro-destra, non esclude la
possibilità di revisioni della Costituzione, purché ampiamente condivise e di portata limitata.
Sarebbe necessario intervenire sulle regole istituzionali del federalismo fiscale, introdotte
dalla riforma del Titolo V del 2001, la cui applicazione si è rivelata eccessivamente complessa.
In questa direzione, una proposta che ripensa la ripartizione delle competenze tra Stato e
Regioni, le modalità di finanziamento dei governi locali, il ruolo delle Province e corregge il
bicameralismo perfetto.

Il referendum sulla riforma costituzionale approvata dalla precedente maggioranza di centro-


destra ha chiaramente respinto quella riforma, ma ha anche bocciato l’idea che si possa
attuare riforme costituzionali a semplice maggioranza non qualificata e con un campo di
intervento troppo vasto. L’attaccamento dimostrato dagli italiani alla Costituzione
repubblicana non esclude la possibilità di modifiche, purché limitate e ampiamente condivise
dalle diverse forze politiche (metodo questo indicato dallo stesso Presidente della Repubblica
Napolitano).
L’area nella quale sembra urgente un intervento è quella delle regole istituzionali del
federalismo fiscale. La riforma del Titolo V, approvata due legislature fa senza una sufficiente
condivisione, contiene principi che l’esperienza di questi anni dimostra di difficile traduzione
in un corpo di leggi ordinarie chiaro e coerente. Intervenire su quei principi ha una ricaduta
sulle norme costituzionali che riguardano la procedura di approvazione delle leggi di spesa e
di approvazione del bilancio.

Le competenze dello Stato e delle Regioni

Nella nostra proposta andrebbe modificato l’art. 117 della Costituzione, definendo innanzi
tutto in modo chiaro al secondo comma le materie in cui vi è legislazione esclusiva dello Stato
(e al riguardo può essere un testo valido, almeno come punto di partenza del dibattito, quello
del medesimo comma che era inserito nel testo respinto dal referendum). Al terzo comma
dovrebbe essere semplicemente specificato che “sono materia di legislazione concorrente
tutte quelle non indicate al comma precedente“. Continuando a specificare che nelle materie a
legislazione concorrente spetta alle Regioni la potestà legislativa, salvo che per la
determinazione dei principi fondamentali, riservati alla legislazione dello Stato.
Verrebbe quindi soppresso il quarto comma dell’art. 117: quello riguardante le competenze
esclusive delle Regioni. Verrebbe così eliminata la spada di Damocle che assegnava alla
52
legislazione regionale tutto quello che si fosse dimenticato di definire nelle competenze
esclusive dello Stato e nelle competenze concorrenti (quest’ultime anzi con la nostra proposta
non necessitano più di una elencazione); si elimina definitivamente l’incentivo a immaginare
possibili materie che a priori non possano interessare i cittadini italiani in quanto tali, ma solo
in quanto residenti in una specifica regione; si permette su un campo vastissimo di materie
l’intervento regionale (il federalismo), lasciando allo Stato solo la definizione dei principi
generali.

Il finanziamento dei governi locali

Per evitare una potenziale lettura del federalismo in chiave angusta ed egoistica (respinta
pure dall’esito del referendum in quasi tutte le regioni italiane), bisognerebbe eliminare
dall’art. 119, secondo comma, le parole “riferibile al loro territorio“. Ossia i criteri di
compartecipazione al gettito dei tributi erariali dovranno essere definiti di volta in volta dalla
legge ordinaria dello Stato, e non predefiniti, senza alcuna valutazione economica, per
sempre nella Costituzione. Nello stesso comma si dovrebbe reintrodurre, prudentemente, lo
strumento dei trasferimenti statali (dimenticato o censurato nell’attuale testo costituzionale)
tra le possibili modalità di finanziamento delle funzioni attribuite a Comuni, Città
metropolitane e Regioni (come avviene in tutti gli stati federali di cui si ha notizia). La
Costituzione deve indicare un insieme ampio di strumenti di finanziamento, senza esclusioni
a priori, il cui superamento, se dovessero sorgere esigenze diverse, richiederebbe poi nuove
revisioni costituzionali. Sarà compito delle leggi ordinarie stabilire quali modalità di
finanziamento utilizzare e i criteri di distribuzione delle risorse tra le autonomie locali.

Superare il bicameralismo perfetto senza confusione

Fatta chiarezza nelle competenze legislative dello Stato e delle Regioni, ed escluse derive del
federalismo fiscale verso visioni egoistiche e non responsabili, si può cercare di definire i
compiti di Camera e Senato, correggendo il bicameralismo perfetto per evitare una eccessiva
duplicazione di esami (ma senza i barocchismi della riforma del centro-destra).
I provvedimenti legislativi dovrebbero essere ancora soggetti alla lettura di ambedue le
Camere; però, per i provvedimenti nelle materie di competenza esclusiva dello Stato, per la
legge e la manovra di bilancio (come avviene in moltissimi paesi) e per tutti i provvedimenti
con oneri (o con oneri significativi), sarebbe la Camera dei deputati ad esaminare per prima il
provvedimento e, nel caso non si pervenisse in prima lettura a un testo comune, ad avere
l’ultima parola. Con procedura simmetrica, il potere decisionale del Senato si eserciterebbe,
invece, maggiormente sulle materie a competenza concorrente dello Stato e delle Regioni,
quindi, sui provvedimenti che definiscono i principi generali ai quali si devono attenere le
Regioni nella loro vasta attività legislativa. Per migliorare il coordinamento legislativo tra Stato

53
e Regioni il Senato dovrebbe essere integrato (senza potere di voto) dai ventuno
rappresentanti delle assemblee regionali. Ciò non implica assolutamente che il Senato divenga
un luogo di coordinamento delle politiche a livello degli esecutivi, cosa ben diversa dal
coordinamento a livello legislativo: non è necessaria quindi la presenza di rappresentanti
delle altre autorità locali (ad esempio, i Comuni), che non hanno poteri legislativi. Per il
coordinamento tra governo centrale e governi locali non è certo il Parlamento la sede adatta.
Occorrerà invece potenziare le istituzioni esistenti, quali la Conferenza Stato-Regioni-
Autonomie locali)
La migliore suddivisione di competenze tra Camera e Senato, per la quale alla prima
assemblea verrebbe riconosciuto the power of the purse, e quindi pregnante controllo politico
sul Governo, mentre alla seconda una specializzazione nelle regole ordinamentali alle quali
dovranno sottostare anche gli organismi locali, permette una riduzione della pletorica
rappresentanza della Camera dei deputati, dai 630 rappresentanti (inferiore solo a quella
della Camera dei comuni britannica), ad esempio a 518 (valore che la pone in settima
posizione nel panorama internazionale, pur sempre superiore ai 435 rappresentanti
dell’analoga assemblea degli Stati Uniti).

Abolire le Province come organo politico e istituire le Città metropolitane

Per una migliore organizzazione delle autonomie locali, caratterizzate oggi da una
sovrabbondanza di organi politici, si potrebbe anche (ma probabilmente è molto difficile
coagulare su questo punto la volontà delle forze politiche sia di maggioranza sia di
opposizione) modificare l’art. 114, ai commi 1 e 2, eliminando il riferimento alle Province (che
verrebbe espunto anche da altri articoli della Costituzione dove ora è presente). Le Province
cesserebbero così di essere un organo di rappresentanza politica, resterebbero soltanto come
espressione del decentramento amministrativo dello Stato centrale ed, eventualmente, delle
Regioni. Inoltre, si darebbe potestà alle grandi città (da definire tali con legge dello Stato) di
articolarsi in Municipi e di costituirsi, con la partecipazione di altri comuni, in Città
metropolitane. Nell’art. 118, espunto il termine Province, verrebbe completata l’attribuzione
delle funzioni amministrative dello Stato sulla base dei principi di sussidiarietà,
differenziazione ed adeguatezza, specificando che lo Stato favorisce il decentramento
amministrativo a livello provinciale.
Last, but not least, per essere sicuri che future, eventuali, riforme costituzionali siano
largamente condivise, si dovrebbe innalzare, nell’art. 138 della Costituzione, la maggioranza
richiesta in ciascuna Camera nella seconda votazione ai due terzi dei suoi componenti (e
quindi ai tre quarti quella per la quale non si fa luogo a referendum confermativo). I dettagli
della proposta possono essere esaminati nell’articolato allegato.
Riflessioni sulle riforme minori, di Antonio Fiori

54
Ci sono alcune riforme di cui si parla poco, che si infilano ogni tanto in qualche elenco o
discorso ma alle quali la politica e i giornali non dedicano attenzione sufficiente (non
lavoce.info, che ne ha dato invece conto in più occasioni). Mi vorrei ora brevemente
soffermare su alcune, con l’auspicio di una ripresa d’interesse in merito: 1) riforma delle
Comunità Montane; 2) accorpamento dei micro Comuni; 3) riforma (o soppressione) delle
Province; 4) soppressione della Corte dei Conti.

Riforma delle Comunità Montane

Sono attualmente 138 (per un totale di 4.201 Comuni) e furono introdotte nel nostro
ordinamento con una legge ordinaria del 1971. La fonte aggiornata risiede oggi nell’art.27
del D. Lgs 18 agosto 2000 n.267. Si tratta di enti politici consortili infraregionali con funzioni
proprie o ad esse delegate dai Comuni. Il loro principale compito è quello di valorizzare le
zone montane. La loro soppressione consentirebbe il risparmio strutturale di tutti i costi di
funzionamento a fronte di una loro parziale retrocessione ai Comuni d’appartenenza. Da
considerare che diversi disegni di legge regionale ne prevedono il ridimensionamento. Una
scelta più soft potrebbe indurre al mantenimento delle comunità effettivamente montane,
previa statuizione normativa, con legge nazionale, di tale effettività.
Accorpamento dei micro Comuni
Una rivista on line (Errore. Riferimento a collegamento ipertestuale non valido.) ha condotto
un sondaggio, oltre che sulla soppressione delle Comunità Montane, sull’accorpamento dei
Comuni con meno di 5.000 abitanti riscontrando risposte favorevoli per oltre il 74 per cento.
Pur considerando l’assoluta non scientificità della rilevazione, bisogna riconoscere che si
tratta di una misurazione volante dell’umore di soggetti particolarmente impegnati, che
dovrebbero anzi essere politicamente sensibili alle culture e identità locali. La proposta più
ragionevole di riforma dovrebbe essere quella di individuare un parametro minimo di
residenti sotto il quale il comune degrada a frazione. Sarebbe opportuno che la fonte
normativa di tale ‘minima quantità fosse una legge costituzionale. Si potrebbe pensare, ad
esempio, al limite di 1.000 abitanti. Bisognerà naturalmente predisporre una disciplina
transitoria che regoli competenze e vicende amministrative dei comuni in via di cessazione.

Soppressione delle Province

E la riforma più citata di queste minori ma è anche la più scomoda, quella su cui si evita poi di
entrare nel concreto. L’ente Provincia è infatti un ente politico territoriale che ha una sua
storia importante, diffusamente e profondamente percepito dai cittadini sotto il profilo
dell’appartenenza. Ma va subito precisato, sotto quest’aspetto, che il senso d’identificazione
e appartenenza al territorio deriva soprattutto dalla dimensione amministrativa della pubblica
amministrazione statale (Prefettura, Questura, Motorizzazione Civile); queste infatti,
55
amministrando su base provinciale servizi che toccano il cittadino in modo diretto e
quotidiano, stanno a fondamento di quel sentire e spiegano, unitamente ai chiari motivi di
sottogoverno, l’aumento della domanda (e della nascita) di nuove province. Ben si comprende
quindi quanto sia difficile predicare la soppressione di un ente che è addirittura in fase di
espansione. Sull’entità del risparmio di spesa derivante dalla chiusura delle province come
organi politici non ho cifre aggiornate; qui vorrei piuttosto sottolineare la natura di Giano
bifronte di questo ente agli occhi del cittadino-elettore, che è si sensibile – e in genere
favorevole – alle proposte di ‘taglio delle poltrone ma il giorno stesso firma o vota in favore
della nascita dell’ennesima provincia. La soppressione dell’ente passerebbe, non solo
attraverso una modifica del titolo V della Costituzione (artt.114 e ss.) ma anche,
inevitabilmente, attraverso un laborioso lavoro di analisi della corposa legislazione
sedimentatasi nel tempo. Le attuali competenze, che attengono in prevalenza – come noto –
alla viabilità, alle attività culturali e all’edilizia scolastica, sarebbero riconosciute in parte ai
Comuni e in parte alle Città Metropolitane, per queste ultime vi sarebbe anzi occasione di
sviluppo numerico e normativo (peraltro a costi limitati).

Soppressione della Corte dei Conti

E una riforma radicale la cui prima proposta risale alla fine degli anni ottanta (ricordo che il
Sole24ore dedicò addirittura una intera pagina alla soppressione della Corte, con un titolo di
questo tenore: “Vecchia, inutile, polverosa Corte dei Conti”). A dire il vero l’istanza sarebbe
dovuta venire proprio dalla Corte dei Conti (art.103 della Costituzione): ad un organo
contabile e giurisdizionale di tale rilevanza, preposto proprio alla vigilanza sulla oculatezza
della spesa pubblica e che presenta annualmente al Parlamento nazionale una corposa
relazione sugli sprechi e le anomalie della spesa, non sarebbe dovuto sfuggire il fatto che era
diventata essa stessa una fonte distorta di spesa. Ma in fondo non sarebbe giusto chiedere
tutta questa coerenza, sarebbe troppo pretendere che un organo di rilevanza costituzionale
chieda la propria fine. Le funzioni giurisdizionali (in materia pensionistica e di responsabilità
contabile dei pubblici dipendenti) sarebbero trasferite ai Tribunali Amministrativi Regionali,
unitamente agli stessi magistrati contabili – peraltro specializzati e preparati, in grado di
affrontare immediatamente anche le materie urbanistiche e amministrative giudicate dai TAR.
Quanto alle funzioni di controllo sulla spesa regionale, dovrebbero trovarsi altre e diverse
forme di verifica al termine delle quali: per la parte di responsabilità politica dovrebbero
evitarsi inascoltate relazioni annuali bensì affidarla semplicemente al giudizio elettorale, per
la responsabilità patrimoniale individuarsi una competenza nei TAR o nel giudice ordinario. E
di tutta evidenza che anche in questo caso bisognerà agire con riforma costituzionale ed
inoltre studiare molto bene i carichi di lavoro e gli aspetti procedurali. La soppressione della
Corte dei Conti, anche per non colorarsi di ingratitudine verso chi vi lavora con grande
competenza, dovrebbe essere l’occasione per una complessiva riforma del contesto: revisione
56
dei profili di responsabilità diretta, statuizione di criteri generali e cogenti di efficienza della
spesa, razionalizzazione del contenzioso pensionistico pubblico, sia pregresso che futuro.

57
CONTI PUBBLICI

Una manovra indispensabile


23.10.06
Riccardo Faini

La decisione di due agenzie di rating di declassare il debito italiano conferma la gravità della
situazione dei conti pubblici. E quindi l’impossibilità di “alleggerire” la Finanziaria, come
invece chiesto da alcuni in virtù dell’andamento del fabbisogno del settore statale e della
dinamica delle entrate. Quanto alle critiche sulle caratteristiche degli interventi, forse si
poteva fare di meglio, in particolare nell’equilibrio fra misure di spesa e di entrata. Ma non
bisogna dimenticare il carattere strutturale della manovra, a partire dal calo del disavanzo.

La decisione di Standard&Poor’s e di Fitch di declassare il debito italiano non era inattesa, ma


nondimeno è un campanello di allarme per tutta la politica economica. Nelle ultime settimane,
soprattutto dopo la presentazione del disegno di legge Finanziaria, si sono moltiplicate le
voci critiche secondo cui l’esecutivo avrebbe fin dall’inizio esagerato la gravità della
situazione dei conti pubblici. Si sosteneva che sia l’andamento del fabbisogno del settore
statale, in forte calo rispetto al 2005, sia la dinamica delle entrate nei primi otto mesi del
2006 avevano evidenziato una situazione assai più favorevole della finanza pubblica. Non
solo gli allarmismi iniziali erano quindi ingiustificati, ma diventava possibile, e al limite
auspicabile, alleggerire la portata della manovra di correzione del disavanzo.

Preoccupazioni giustificate dai dati

Una lettura meno frettolosa dei dati conduce a conclusioni assai diverse.
Consideriamo innanzitutto il fabbisogno. È vero che nei primi otto mesi dell’anno quello del
settore statale è diminuito di ben 22 miliardi. Ma nello stesso periodo il miglioramento del
fabbisogno delle amministrazioni pubbliche, un aggregato più ampio (include anche le
amministrazioni locali) e assai più significativo, è pari a soli 13 miliardi. Come ricordava il
governatore della Banca d’Italia nella sua recente audizione, "gli andamenti fin qui registrati
dal fabbisogno finanziario appaiono sostanzialmente coerenti con le previsioni del governo
per l’indebitamento netto". Né l’aumento delle entrate nei primi mesi dell’anno giustifica facili
ottimismi. È vero anche che, rispetto alla Relazione trimestrale di cassa predisposta nel mese
di marzo, l’aumento delle entrate previsto per tutto il 2006 è pari a più di 18 miliardi. Già
però la ricognizione sui conti pubblici di inizio giugno aveva rivisto al rialzo la stima sulle
entrate per l’anno in corso. Analogamente, sulla base dei dati resisi via via disponibili, sia il
Dpef sia la Nota di aggiornamento hanno ulteriormente migliorato tale stima rispettivamente
al 6,4 e al 7,1 per cento rispetto al 4,0 per cento della Relazione trimestrale di cassa, redatta
dal precedente esecutivo. Rimane però il fatto che dei 18 miliardi di maggiori entrate previste,
58
quasi quattro sono ascrivibili alle misure varate dall’esecutivo in luglio; altri tre al
miglioramento del quadro macroeconomico; altri cinque, infine, al gettito superiore alle
attese di una serie di misure temporanee introdotte (e stimate) dal precedente esecutivo.
Rimangono quindi solo circa sei miliardi di "vere" risorse aggiuntive, già portate peraltro ad
alleggerimento della manovra finanziaria per l’anno successivo.
Ad avvalorare le preoccupazioni sulla situazione dei conti pubblici contribuiscono anche i dati
diffusi due settimane fa dall’Istat relativi ai primi sei mesi del 2006. Emergono due elementi.
In primo luogo, la spesa primaria corrente ha continuato a crescere in termini tendenziali a
tassi insostenibili (+5,7 per cento). In secondo luogo, le spese per investimenti registrano un
forte calo (-3 per cento in termini nominali). Sia la ricognizione sui conti pubblici sia il Dpef
avevano già messo in luce come alcune voci di spesa corrente, in particolare la spesa sanitaria
e quella degli enti locali, crescessero a tassi assai superiori rispetto a quanto previsto dalla
Relazione trimestrale di cassa e avevano sottolineato il rischio di una contrazione eccessiva, e
al limite insostenibile, della spesa per investimenti.
Infine, anche gli andamenti dei saldi confermano le difficoltà del quadro di finanza pubblica.
In assenza di interventi, il disavanzo nel 2007 si sarebbe situato al 4,3 per cento del Pil,
l’avanzo primario sarebbe stato prossimo allo zero e, per il terzo anno consecutivo, il debito
sarebbe risultato in forte crescita. Le misure correttive adottate prima a luglio e poi a
settembre con la legge Finanziaria, ammontano nel complesso all’1,5 per cento del Pil, anche
escludendo le misure di compensazione per gli effetti della sentenza sull’Iva, e consentono di
riportare il disavanzo nell’ambito dei parametri europei e di invertire, dopo tre anni, la
dinamica del debito.

Il risanamento non è concluso

Una manovra correttiva di queste dimensioni era quindi indispensabile. Le decisioni delle
agenzie di rating confermano che la situazione dei conti pubblici era invero preoccupante e,
al contempo, mettono ben in luce come il processo di risanamento dei conti pubblici non sia
concluso. Non esistono quindi le condizioni per alleggerire la manovra finanziaria e va evitato
qualsiasi cedimento in questa direzione.
Le critiche di S&P si appuntano anche sulle caratteristiche della manovra e riprendono molti
dei rilievi già formulati anche su questo sito. Si poteva fare meglio? Chi scrive non è
osservatore totalmente neutrale, ma la risposta è: probabilmente sì, in particolare
nell’equilibrio fra misure di spesa e di entrata.
Rimane però il fatto che la manovra ha carattere strutturale. In primo luogo, il rientro dal
disavanzo non è temporaneo. L’impatto crescente delle riduzioni di spesa previste nella legge
Finanziaria dovrebbe permettere di ridurre il prelievo fiscale gradualmente nei prossimi anni
(la riduzione del cuneo fiscale andrà a regime già dal 2008 con perlomeno due miliardi di
sgravi ulteriori per le imprese) e nel contempo consentire all’indebitamento netto di collocarsi
59
stabilmente al di sotto del 3 per cento, anche in assenza di nuovi interventi.
Soprattutto, il calo del disavanzo non è affidato a misure impercorribili e insostenibili da un
punto di vista economico e sociale, come l’azzeramento dei fondi per interi capitoli di spesa
in conto capitale. Che la manovra di risanamento incidesse inizialmente soprattutto dal lato
delle entrate era probabilmente inevitabile. È già successo nel passato. La pressione
fiscale aumentò nel 1993 di ben due punti e mezzo rispetto al 1991. Nel 1997, l’aumento fu
di più di due punti rispetto all’anno precedente. In entrambi i casi, però, il rapporto fra
entrate fiscali ritornò rapidamente su livelli meno patologici.
Il verdetto sulla qualità della politica economica non può essere dunque definitivo.

60
FINANZA

Nel Maelstrom della frode finanziaria


18.12.06
Marco Onado

Il dissesto Parmalat ha cause finanziarie profonde che mettono in evidenza alcuni vizi
strutturali del capitalismo privato italiano e di molte banche. E’ perciò utile ripercorrere la
vicenda, per ricordare le cifre fondamentali del clamoroso crack. A partire da una crescita
basata solo sui debiti. E’ troppo semplice attribuire tutto alle frodi: queste sono state lo
strumento per coprire una situazione sempre più squilibrata e ovviamente hanno dovuto
diventare sempre più grandi e sempre più sofisticate.

Dai drammatici giorni del dissesto Parmalat l’attenzione si è concentrata soprattutto sui temi
della tutela dei risparmiatori e del rilancio produttivo del gruppo. È bene però ricordare che il
dissesto – uno dei più gravi della storia economica italiana che pure è dolorosamente ricca di
fatti criminosi – ha cause finanziarie profonde che mettono in evidenza alcuni vizi strutturali
del capitalismo privato italiano e di molte banche, compresa qualcuna di grande tradizione
internazionale e altrettanta disinvoltura nei confronti delle operazioni più spericolate.
Nel terzo anniversario del dissesto è dunque utile compiere un’operazione didascalica per
ricordare le cifre fondamentali del clamoroso crack. È troppo semplice attribuire tutto
alle frodi: queste sono state lo strumento per coprire una situazione sempre più squilibrata e
ovviamente hanno dovuto diventare sempre più grandi e sempre più sofisticate. Come ogni
bugia chiama bugie più grosse, così la frode finanziaria trascina l’impresa in un vortice da cui
è impossibile sfuggire: un incubo analogo a quello descritto da Edgar Allan Poe nel racconto
“Una discesa nel Maelstrom”.
Il mio contributo ha dunque solo finalità didascaliche e si rivolge a quanti, in primo luogo
studenti, intendono documentarsi e riflettere su questo importante fatto. I dati sono tratti
soprattutto dalla relazione del commissario straordinario, Enrico Bondi, e da quella del
consulente (Stefania Chiaruttini, consulente tecnico d’ufficio, o Ctu) di uno dei pubblici
ministeri al lavoro sul caso. Il Maelstrom di Parmalat può essere riassunto in sette passaggi
ciascuno dei quali verrà documentato con le cifre fondamentali.
1) Parmalat è sempre stata un’azienda finanziariamente fragile, vittima di una contraddizione
insanabile in capo al suo azionista di controllo, Calisto Tanzi, il quale concepiva piani di
crescita sempre più ambiziosi, ma nello stesso tempo era totalmente refrattario all’idea di
immettere capitali propri nell’azienda.

Dal negozio di villaggio a una multinazionale presente in 139 paesi: queste le cifre della
crescita di Parmalat dal 1962 (circa 100mila euro) al 2003 (oltre 7,5 miliardi), sintetizzate dal

61
grafico che segue. Il che significa tassi di crescita annui del 44 per cento nel primo ventennio
e del 21 nel secondo.

La crescita del fatturato è determinata soprattutto dall’estensione della base produttiva


realizzata con acquisizioni in tutti i continenti. Nel complesso, dal 1990 al 2003, il gruppo
effettuerà investimenti per 5,4 miliardi di euro, di cui 4 per acquisizioni.
In una espansione così vistosa non poteva mancare qualche errore di carattere tattico e
strategico. Sul primo versante, alcune acquisizioni in paesi stranieri si riveleranno prive di
prospettive commerciali adeguate, ma sono errori tutto sommato marginali, inevitabili in una
dinamica così intensa (per di più diretta da una sola persona). Il commissario straordinario
Enrico Bondi, nella sua opera di risanamento, procederà ad alcuni tagli del core business, ma
si tratta di potature di una pianta complessivamente sana. Più gravi sono gli errori strategici,
che riflettono vizi antichi degli industriali italiani, sempre pronti a trovare sbocchi in settori
che assicurano consenso e appoggi politici (Tv, calcio) ma divorano risorse. Anche questo
però non spiega la fragilità finanziaria di fondo e tanto meno le frodi.
Lo squilibrio strutturale è dimostrato dalla figura seguente, che indica gli investimenti dal
1990 al 2003 e (nei riquadri) i valori dell’indebitamento complessivo alle varie date.

62
Il grafico dimostra come la febbre delle acquisizioni abbia fatto esplodere il fabbisogno
finanziario (bisogna naturalmente tener conto anche delle esigenze di capitale circolante per
soddisfare le esigenze di produzione e vendita su un impero produttivo sempre più vasto) e
di conseguenza l’indebitamento. Dal 1990 al 2003, i debiti crescono del 42 per cento
all’anno. Il motivo è uno solo: tutta questa crescita è basata solo sui debiti. Niente male per
un’azienda che alla fine degli anni Ottanta aveva attraversato la sua prima crisi finanziaria. E
questo ci porta alla seconda sequenza del nostro film dell’orrore.
2) La quotazione in Borsa viene utilizzata solo per risolvere i problemi finanziari dell’azionista
di controllo.
L’eccesso di indebitamento accumulato nei primi venti anni porta a un piano di risanamento
curato dalle banche (e favorito dal governo di allora e in particolare da Ciriaco De Mita, allora
potente segretario della Dc) e alla quotazione in Borsa.
Leggiamo quello che scrive un autorevole giornalista finanziario sulla situazione di Tanzi
negli anni Ottanta. “La lunga cavalcata dell’ambizioso ragioniere di Collecchio sembrava già
molto vicina al capolinea. Gia allora, venti anni fa, la nave Parmalat faticava a tenere il mare.
Stava a galla grazie all’appoggio garantito dalle banche. Ma a quel tempo, molto più di oggi,
il sistema creditizio dipendeva quasi per intero dai partiti. Ovvero in massima parte dalla
Democrazia cristiana, che a sua volta assegnava le poltrone sulla base degli equilibri fra le
varie correnti interne. Tanzi, che era di casa nei palazzi democristiani, riuscì così a ottenere il
sostegno finanziario di cui aveva assoluto bisogno. Per sopravvivere l’imprenditore emiliano
si fece stringere al collo un guinzaglio da cui non riuscì mai più a liberarsi”. (1)
Nel 1989 un gruppo di banche (tutte vicine alla Dc) organizza il pool per il prestito che porta

63
nuove risorse al gruppo in difficoltà e pone le premesse per lo sbarco in Borsa, che però viene
realizzato con tre marchingegni finanziari:
i) la quotazione viene realizzata conferendo Parmalat a una società finanziaria già quotata,
praticamente una scatola vuota. In questo modo si evita il collocamento pubblico e la
redazione di un prospetto informativo per risparmiatori;
ii) la conseguenza è che la società quotata (subito ridenominata Parmalat Finanziaria) ha come
unico asset una società operativa, dunque è la più classica delle “scatole cinesi”.
iii) La quotazione prevede un aumento di capitale per 600 miliardi, ma nelle casse societarie
ne arrivano circa 300 miliardi, perché la società operativa viene ceduta da Tanzi a un prezzo
che gli consente esattamente di intascare con la mano sinistra i mezzi che fornisce
all’impresa con la mano destra in occasione dell’aumento di capitale.
Con questa tripla capriola, il gioco è fatto. La crisi finanziaria è superata (almeno in
apparenza) e Parmalat Finanziaria è controllata al 51 per cento da una società (Coloniale)
della famiglia Tanzi, di cui Calisto detiene comunque il 51,8 per cento. Come afferma il Ctu
(pag. 49): “L’operazione (…) consente alla famiglia Tanzi, sostanzialmente senza esborsi di
denaro, ma con i soli 300 miliardi raccolti sul mercato: i) di reperire il denaro necessario alla
ricapitalizzazione di Parmalat; ii) di acquistare Parmalat ponendola sotto il controllo della
società quotata, che poi muterà la sua denominazione in Parmalat finanziaria; iii) di
mantenere il controllo della società quotata stessa”.
Lungi dal placare le ambizioni dell’imprenditore emiliano, questo nuovo assetto è la premessa
per un’ulteriore espansione senza freni sempre basata sull’indebitamento. Dal 1990 al 1994
l’indebitamento quintuplica (tasso di crescita annuo del 53 per cento). Ma il tasso di crescita
quasi raddoppia nel quadriennio successivo che porta il debito a 7,7 miliardi alla fine del
1998. Cosa è successo in questo periodo?
Semplicemente Tanzi è sceso ulteriormente nel vortice del Maelstrom, cioè al livello in cui
secondo la ricostruzione del Ctu (pag. 59) “entrano in scena una serie di istituti di credito
inernazionali che seguono l’espansione del gruppo nella vesta di advisor nell’ambito delle
operazioni di acquisizione e/o di lead manager di emissioni obbligazionarie”. Sono queste
banche (pag. 61) che concepiscono “una serie di operazioni di finanziamento con formule e
clausole del tutto innovative” e spingono il gruppo “a porre in essere una serie di operazioni
di vera e propria finanza strutturata”.
Di fatto dunque è chiara la terza sequenza del nostro film.

3) La quotazione in Borsa è il trampolino di lancio per l’esplosione dei debiti, non per la
raccolta di capitale di rischio.

Dal 1990 al 2003, le operazioni sul capitale portano alle casse di Parmalat solo 416 milioni di
euro, cioè il 7,7 per cento degli investimenti realizzati, il 3 per cento della crescita
complessiva del debito.

64
Secondo la ricostruzione del commissario straordinario Enrico Bondi, la gestione ha fornito
risorse per 1 miliardo circa. (2)
Il che significa che l’indebitamento è cresciuto di ben 13,2 miliardi.
Il motivo è uno solo: ogni aumento di capitale avrebbe costretto Tanzi a mettere mano al
portafoglio se voleva mantenere da solo la maggioranza assoluta del gruppo. Di fatto, la leva
azionaria concessa dal gioco delle scatole cinesi gli avrebbe consentito di sborsare solo il 25
per cento delle nuove risorse, ma anche questo era giudicato evidentemente eccessivo. Perché
tirare fuori un solo euro, quando ci sono tante banche là fuori pronte a organizzare
operazioni sempre più sofisticate e complesse?
Nei tempi della contestazione operaia una mano ignota aveva scritto sui muri di Mirafiori: “mi
fate passare otto ore al giorno in questo inferno e pretendete anche che lavori?”. Il motto di
Tanzi suona più o meno così: “sono un imprenditore pieno di idee e di capacità realizzative e
pretendete anche che ci metta i soldi?”
Di fatto però i soldi saranno non solo quelli delle banche, ma soprattutto quelli dei privati
risparmiatori, perché dalla metà degli anni Novanta l’indebitamento si sposta sempre di più
verso il mercato obbligazionario, come vedremo fra poco.
4) Il valore dell’attivo è stato gonfiato con una serie di manipolazioni contabili, che risalgono
almeno all’inizio degli anni Novanta.

Un indebitamento che cresce esponenzialmente non è compatibile con un business dai ritorni
tutto sommati modesti, come quelli del settore del latte. Per far quadrare i conti, Parmalat ha
fatto ricorso a tutti i trucchi possibili. Alcuni, semplici e che sembrano tratti da un film di Totò
e Peppino, consentivano di usare una stessa fattura per ottenere due finanziamenti. Dice
infatti Bondi (pag. 5): “uno stesso documento veniva finanziato più volte; tale finanza,
impropriamente ottenuta, ha contribuito anch’essa a mantenere in vita artificialmente il
gruppo”.
L’attività di falsificazione contabile diventa frenetica, a partire dalla fine degli anni Novanta,
perché il buco da coprire è sempre più grosso e il vortice trascina in abissi sempre più
profondi. Leggiamo in Malagutti (pag. 143): “Era Tonna [il direttore finanziario] che decideva
le modalità tecniche con cui venivano occultate le perdite. In estrema sintesi il sistema
funzionava nel modo seguente. Le società industriali iscrivevano all’attivo di bilancio crediti
(in realtà inesigibili) che venivano girati a società off-shore del gruppo Parmalat. Di
conseguenza, queste finanziarie vedevano aumentare i loro debiti, che risultavano
compensati in modo molto semplice, quasi banale: inventando di sana pianta delle poste
attive. Ovvero, conti bancari, titoli di credito, bond e quant’altro la fervida immaginazione dei
falsari di Collecchhio riusciva ad inventare”.
Abyssus vocat abyssum, avrebbe detto Poe. E infatti, Parmalat si inventa anche il modo
di occultare i debiti. Come? Leggiamo ancora Malagutti (pag. 146): “Ricorrendo al vecchio
trucco dei cosiddetti back to back. In pratica, una finanziaria estera del gruppo di Collecchio
65
apriva un deposito presso una banca. Quest’ultimo però serviva soltanto a garantire un
prestito di uguale entità elargito dallo stesso istituto a un’altra società della galassia Parmalat.
In altre parole, il deposito era vincolato, ma il vincolo non veniva segnalato in bilancio”.
L’elenco potrebbe continuare, ma vale seguire il consiglio di Malagutti (pag. 148): “l’elenco
delle tecniche di falsificazione contabile potrebbe proseguire ancora a lungo, ma non
aggiungerebbe molto al nostro racconto. Meglio fermarsi allora, e citare un semplice dato
evidenziato nell’analisi Price Waterhouse Coopers: al 30 settembre 2003 i debiti veri del
gruppo Parmalat erano pari a 14,3 miliardi, più del doppio rispetto ai 6,4 indicati nella
relazione alla stessa data presentata dalla società, l’ultima firmata da Tanzi”.
5) Il vortice della finanza e delle falsificazioni ha fatto sì che quasi metà delle risorse
finanziarie venisse assorbita da interessi e commissioni.
La relazione di Bondi contiene una tabella istruttiva sull’impiego dei 14,2 miliardi di euro
complessivamente ottenuti dal gruppo nel periodo 1990-2003. Il grafico che segue indica
appunto come è stata distribuita questa gigantesca torta.

Gli investimenti in capitale fisico sono solo l’11 per cento del totale; insieme alle acquisizioni
arrivano al 38 per cento. Quasi il 40 per cento è rappresentato dal pagamento di interessi: in
valore assoluto si tratta di 2,8 miliardi pagati al sistema bancario e 2,5 pagati agli
obbligazionisti. Vedremo però che questi ultimi si troveranno al momento del dissesto con
una quota ben superiore dell’indebitamento totale.
Chiosa Bondi (pag. 4): “In definitiva il gruppo si è dimostrato un vero e proprio divoratore di

66
cassa perché cresciuto per linee esterne non redditizie, perché oberato da distrazioni
imponenti e perché invischiato, per tentare di occultare lo stato di insolvenza, in operazioni
finanziarie di grandi dimensioni e sempre più costose”. Insomma, una produzione di debiti a
mezzo di debiti che ha arricchito solo il sistema finanziario internazionale.
Merita poi di essere sottolineato che le uscite non documentate rappresentano il 16 per cento
del totale. Si tratta di ben 2,3 miliardi di euro, che pudicamente Bondi definisce “distrazioni”
come se fossero dovute solo al fatto che Tanzi si era dimenticato di prendere le pillole per la
memoria e si era trovato in tasca qualche spicciolo non suo. In realtà sono i fondi che
sistematicamente sono stati sottratti anno dopo anno alla società e agli azionisti di
minoranza.
6) Novembre 2003: si scopre che il re è nudo.

A partire dal 2002, il mercato era sempre più nervoso sulla situazione finanziaria di Parmalat:
non si capiva perché una società con un indebitamento così elevato avesse una liquidità così
ingente. Il nervosismo cresce quando vari indizi dimostrano la difficoltà del gruppo a fare
fronte agli impegni di rimborso dei bond in essere e a liquidare i presunti investimenti a
breve. Alla fine, l’epilogo scontato: il 18 dicembre Bank of America comunica che il deposito
per 4,9 miliardi di dollari che una società del gruppo (ovviamente ubicata alle Cayman Islands)
pretendeva di avere presso la filiale di New York della banca, semplicemente non esisteva e il
documento esibito da Parmalat era un falso. Una fotocopia, per giunta maldestra: Totò e
Peppino avrebbero fatto senz’altro di meglio.
La società viene posta in amministrazione straordinaria e in poche settimane di duro lavoro
Enrico Bondi comunica cifre da brivido. Il valore “vero” dell’attivo ammonta a poco più di 2,3
miliardi di euro; il capitale circolante è negativo: quello che resta è praticamente assorbito da
crediti privilegiati, a cominciare da quello dei lavoratori. Dedotti i debiti, ne risulta un
patrimonio netto negativo per oltre 13 miliardi, come dimostra la figura seguente.

67
L’importo delle obbligazioni in essere sfiora i 7 miliardi (una parte soltanto delle quali
detenuta da banche per effetto di operazioni di private placement) mentre l’esposizione del
sistema bancario (in gran parte banche internazionali) è di poco superiore ai tre miliardi.
Dunque il peso prevalente del dissesto è stato spostato dal sistema bancario internazionale a
investitori privati e anche istituzionali.
7) Il piano di ristrutturazione comporta gravi sacrifici per tutti gli investitori. Nonostante il
rilancio produttivo, coloro che hanno sottoscritto obbligazioni Parmalat sono ancora ben
lontani dal recuperare il capitale.
Gli azionisti di minoranza hanno quindi perso tutto. Ai creditori (privati risparmiatori e
banche) Bondi propone un piano di ristrutturazione “lacrime e sangue”, in pratica un grande
scambio fra debiti e azioni che prevede un abbattimento drastico del valore di recupero
(mediamente un quinto del valore del credito). L’approvazione del piano da parte dei creditori
consente la quotazione in Borsa nel 2005 e da allora una ripresa significativa dei corsi. Il
valore del titolo, da qualche tempo superiori ai 3 euro rispetto a 1 euro di prima quotazione,
significa che le percentuali di recupero sono più che triplicate, ma sono ancora ben lontane
dal valore dell’investimento iniziale.
Fra qualche anno forse la storia del risparmiatore Parmalat si concluderà come quella del
marinaio di Poe che narrava la sua avventura: “Una barca mi trasse in salvo – esausto per la
fatica e (cessato il pericolo) incapace di parlare al ricordo degli orrori passati. Quelli che mi
avevano preso a bordo erano miei vecchi amici, compagni di tutti i giorni, eppure stentarono
a riconoscermi, come se fossi stato uno che tornava dal mondo degli spiriti. I miei capelli che

68
erano stati di un nero corvino, erano bianchi come li vede lei ora. Dicono anche che tutta
l’espressione del mio viso era mutata. Raccontai loro la mia storia – ma non mi credettero.
Ora l’ho raccontata a lei, ma non mi aspetto che le dia più credito di quanto non gliene
abbiano dato gli allegri pescatori di Lofoden”.
(1) Vittorio Malagutti, Buconero SpA. Dentro il crac Parmalat, Bari-Roma, Laterza, 2004, pp.
77-78.
(2) Parmalat Finanziaria SpA in amministrazione straordinaria, Prime sette pagine della
Relazione del Commissario straordinario sulle cause di insolvenza di Parmalat Finanziaria SpA
e società controllate oggetto della proposta di concordato del 21 giugno 2004. (si tratta
dell’unica parte del documento pubblicata sul sito della società).

69
PENSIONI

Tfr o fondo pensione? Una scelta di


convenienza
25.01.07
Agar Brugiavini

Benché le storie contributive dei lavoratori siano molto diverse tra loro, abbiamo tentato una
valutazione di convenienza relativa delle alternative a disposizione di chi si trova di fronte alla
scelta se lasciare il futuro Tfr in azienda oppure conferirlo a un fondo pensione. Il montante
derivante da un fondo chiuso, a parità di contribuzione, è sempre preferibile al Tfr,
particolarmente per orizzonti temporali lunghi. Per i fondi aperti, i risultati sono più incerti,
perché si ha maggiore volatilità e maggiori costi di gestione. Gli effetti della diversa
tassazione.

Il governo ha disposto con decreto legge del 13 novembre 2006 n. 279 l’anticipo al 1°
gennaio 2007 degli effetti previsti, a partire dal 2008, dal decreto legislativo n. 252/2005 in
materia di previdenza complementare per i lavoratori di imprese con più di 50 addetti, e sta
discutendo in questi giorni la possibilità di un prossimo decreto per coinvolgere nello
smobilizzo del Tfr anche i dipendenti pubblici.

Qual è l’alternativa più conveniente?

Le storie contributive dei lavoratori sono molto diverse tra loro, abbiamo comunque tentato
una valutazione di convenienza relativa delle alternative a disposizione dei lavoratori che si
trovano di fronte alla scelta: lasciare il futuro Tfr in azienda oppure conferirlo a un fondo
pensione?
I percorsi a disposizione dei lavoratori vedono nella data del 29 aprile 1993 un importante
spartiacque:
(1) coloro che già erano iscritti alla previdenza obbligatoria a quella data e non partecipavano
a forme pensionistiche complementari possono ora scegliere di mantenere il Tfr maturando
presso il datore di lavoro che provvederà a versarlo in un fondo costituito presso l’Inps,
oppure possono conferirlo a un fondo pensione nella misura prevista dagli accordi o contratti
collettivi, o in mancanza di questi in misura non inferiore al 50 per cento. Nel caso in cui il
lavoratore avesse già contribuito a forme pensionistiche complementari, la scelta resta, ma se
opta per il conferimento a un fondo, il Tfr maturando andrà alla forma pensionistica a cui già
aderisce. Se il lavoratore non si esprime entro il 30 giugno 2007 (o entro sei mesi dalla data
di assunzione), il datore di lavoro provvederà a trasferire il Tfr maturando alla forma
pensionistica complementare prevista dagli accordi o contratti collettivi (o aziendali) se non

70
aderiva già ad un fondo pensione, o viceversa al fondo pensione già prescelto dal lavoratore;
(2) per i lavoratori assunti dopo il 29 aprile 1993, la scelta esplicita è di nuovo tra
conferimento a forma pensionistica complementare o mantenimento presso il datore di lavoro
(fondo Inps). La scelta tacita prevede che il datore di lavoro trasferisca il futuro Tfr alla forma
pensionistica collettiva prevista dagli accordi o contratti collettivi (salvo diverso accordo
aziendale), e nel caso di più forme, presso quella con il maggior numero di iscritti. Qualora le
due alternative descritte non fossero applicabili, il Tfr verrà indirizzato presso il fondo Inps.

Per realizzare il confronto tra le possibili alternative, sono stati estratti da un campione di dati
degli archivi Inps, lavoratori “rappresentativi” che avessero redditi medi per età di ingresso nel
mercato del lavoro e quindi per anni di contribuzione accumulati. Abbiamo distinto tre
casi che sono soggetti a trattamenti diversi a causa delle riforme degli anni Novanta: un
lavoratore con almeno 18 anni di contributi nel 1995 che va in pensione con
regime retributivo puro, uno con meno di 18 anni di contribuzione al tempo della riforma Dini
e quindi sottoposto a un regime misto (1), e infine un lavoratore assunto dopo il 1995 con
una pensione interamente contributiva. Le età di pensionamento sono quelle calcolate
applicando tutte le principali regole del sistema pensionistico italiano fino alla riforma Maroni
del 2004.
Per ciascuno di questi lavoratori si è considerata una evoluzione nel tempo dei profili
salariali basata su profili individuali (valori mediani), così come registrati nell’archivio Inps.
Per tenere conto delle differenze generazionali nei livelli salariali e per ridurre variazioni
brusche che possono emergere dai dati campionari, i profili sono stati agganciati alla
dinamica salariale aggregata (che vede salari medi più elevati a tutte le età per coorti di
lavoratori più giovani) e lisciati. Per il momento ci siamo limitati a considerare solo
lavoratori maschi. I salari medi tipici variano da un minimo di circa 20mila euro all’anno a un
massimo di 47mila euro.
Ipotesi di base sulle tipologie dei lavoratori

Coorte di nascita 1953 1956 1967 1976

Età di ingresso
nel mondo del
lavoro 19 21 22 23

Anni di
contribuenti 40 40 39 38

Eta di
pensionamento 59 61 61 61

71
La simulazione

L’esercizio consiste in una simulazione, basata sulle regole vigenti e sulle ipotesi discusse,
che permetta un confronto tra Tfr e fondo pensione. Dalla simulazione si ottengono
i montanti sia nel caso Tfr che nel caso fondo pensione (Fp) derivanti dalla medesima
contribuzione (6,91 per cento annuo del salario lordo), sulla base di alcune ipotesi. Il
montante rappresenta la cifra accumulata nel tempo dal lavoratore che si rende disponibile al
momento del pensionamento (e quindi è una ricchezza), mentre la rendita rappresenta il
reddito, cioè il flusso che si può ottenere periodicamente (la pensione o il vitalizio) negli anni
successivi al pensionamento. (2)
Nella prima colonna della successiva tabella, si legge l’ammontare di Tfr maturato dal 2007
alla data di pensionamento e rivalutato seconda i criteri di legge al netto della tassazione
dell’11 per cento (tassa sulla rivalutazione del Tfr applicata solo dal 1/1/2001), nelle colonne
dalla seconda alla quarta il montante derivante dal trasferimento del Tfr maturando dal 2007
a un fondo chiuso (ipotesi sui rendimenti basati su valori medi Covip, 2005), e nelle
successive colonne quello derivante dal conferimento del futuro Tfr a un fondo aperto. Le
altre colonne presentano il montante derivante da un investimento in fondo chiuso o aperto
con rendimenti massimi (15,5 e 12,5 per cento per fondo aperto e chiuso) e minimi (0,5 e 2
per cento per fondo aperto e chiuso) e commissioni differenti (0,45 per cento per fondo
negoziale, 1,7 e 1,6 per cento per fondo aperto).

Tfr e fondo pensione accumulati da un lavoratore “a reddito medio”


profili salariali osservati (rendimenti tassati all’11 per cento)
Rendimenti differenziati per coorte di nascita

La tabella mostra che il montante derivante da un fondo chiuso (a parità di contribuzione) è


sempre preferibile al Tfr, particolarmente per orizzonti temporali più lunghi (coorti nate nel

72
1976). Questo risultato è dovuto in parte ai rendimenti ipotizzati, sulla base delle
informazioni desumibili, che sono più vantaggiosi del rendimento offerto dal Tfr, in parte alla
caratteristica che il Tfr recupera solo il 75 per cento dell’inflazione. Per i fondi aperti i risultati
sono di più difficile lettura, perché se da un lato si possono raggiungere rendimenti elevati
(vedi valori massimi), dall’altro si ha maggiore volatilità (vedi differenze tra valori massimi e
minimi) e maggiori costi di gestione.

L’incidenza della tassazione

Se la tassazione sui rendimenti derivanti dal Tfr e dagli investimenti in fondi pensione è
neutrale (entrambi sottoposti all’imposta sostitutiva dell’11per cento), la tassazione sul
montante ottenuto al momento del pensionamento produce differenze notevoli. Per
incentivare lo sviluppo della previdenza complementare, il Tfr è tassato con aliquota pari a
quella media Irpef pagata dal lavoratore nel quinquennio precedente: attualmente l’aliquota
Irpef più bassa è del 23 per cento per i redditi fino a 26mila euro, quindi l’aliquota applicata
al Tfr lasciato in azienda non potrà essere inferiore. mentre il montante derivante da
investimento in fondo pensione è tassato con aliquota separata al 15 per cento che si riduce
dello 0,3 per cento per ogni anno dopo i primi 15 di permanenza nel fondo, fino a un minimo
del 6 per cento dopo 35 anni. Questo favorirebbe soprattutto i giovani che da subito decidano
di smobilizzare il loro Tfr e di indirizzarlo a fondi pensione, magari con l’aggiunta di
contributi volontari a cui si sommerebbero quelli del datore di lavoro, se previsto da accordi
collettivi. La tassazione separata riduce fortemente il carico fiscale per i soggetti con redditi
elevati e per coloro che sono soggetti a basse aliquote contributive e che quindi possono più
facilmente contribuire in misura addizionale alla previdenza complementare, sulla quale poi
pagheranno una tassazione separata inferiore.
Per precisione occorre dire che le prestazioni pensionistiche erogate in forma di capitale e
rendita costituiranno reddito imponibile solo per la parte che non è già stata assoggettata a
tassazione durante la fase di accumulo (sono esclusi dunque i contributi non dedotti e i
rendimenti già tassati).

Le rendite vitalizie

La caratteristica specifica dei fondi pensione è di offrire una rendita vitalizia (cioè un reddito
negli anni della pensione). Tipicamente, nel loro “pacchetto” propongono già un contratto di
rendita vitalizia molto diverso da quello che il singolo individuo può ottenere da un
assicuratore, per via della ripartizione dei rischi che si può operare su gruppi di lavoratori.
Per offrire un confronto più completo è utile ipotizzare che il lavoratore decida che metà del
suo Fp venga liquidato in capitale e metà in rendita (il minimo previsto dalle regole). La parte
“soluzione capitale” è confrontabile con la metà del Tfr netto. In più, il lavoratore otterrà una

73
rendita dal Fp certamente superiore a quella ottenibile, per eguale premio, dall’acquisto di un
vitalizio con la metà rimanente del Tfr. Ci sembra tuttavia azzardato ipotizzare che il
lavoratore intenda effettuare questo investimento e quindi ipotizziamo che il rimanente 50
per cento del Tfr sia per altri usi.
Consideriamo una rendita vitalizia immediata: certa per 10 anni e poi vitalizia significa che
per i primi 10 anni è percepita dall’assicurato a vita e in caso di decesso dalla persona
designata sino al termine del periodo di 10 anni.
Nelle colonne che indicano Istat viene calcolata una rendita vitalizia anticipata (acquistata con
il 50 per cento del montante derivante da un investimento in fondo chiuso) utilizzando un
tasso tecnico del 2,5 e del 2 per cento e tavole demografiche aggiornate al 2002. (3)
Montante netto e rendita
Profili salariali osservati (prima rata di una rendita annuale acquistata pagando come premio
unico il 50 per cento del montante derivante da fondo pensione chiuso)

Il montante netto dal Fp è maggiore di quello ottenuto dal Tfr, perché la base è maggiore, ma
anche per effetto della diversa aliquota di tassazione.
I valori della rendita sono puramente indicativi, in realtà abbiamo riportato
delle sottostime delle rendite che molti Fp possono offrire sulla base di contratti più
vantaggiosi.
(1) Regime misto perché retributivo per la parte di contributi precedente il 1996 e
contributivo per quella successiva e sino alla pensione.
(2) In dettaglio le ipotesi sui rendimenti e commissioni fondi pensione sono le seguenti:
· il montante derivante dall’investimento dell’intero Tfr futuro in fondo pensione negoziale:

74
commissioni: 0,13 per cento;
rendimento reale: 2,8 per cento (1953), 6 per cento (1956) e 9 per cento (1967, 1976).
commissioni 0,13 per cento;

· montante derivante dall’nvestimento dell’intero Tfr (6,91 per cento) in un fondo aperto dal
2007 alla
pensione con costi e rendimenti differenziati per coorte di appartenenza:

1953: 1,7 per cento commissioni, 3,6 per cento rendimento reale;
1956: 1,4 per cento commissioni, 9,4 per cento rendimento reale;
1967 e 1976: 1.6 per cento commissioni, 12,6 per cento rendimento reale.

Nel caso di fondo chiuso sono stati differenziati solo i rendimenti ipotizzando investimenti in
comparti diversi da parte di lavoratori con diversa anzianità al 2007, e precisamente
investimento obbligazionario puro (rend. 2,8 per cento), bilanciato (rend. 6 per cento) e
azionario (rend. 9 per cento). Le commissioni sono state considerate costanti per qualsiasi
durata dell’investimento (0,13 per cento).
Nel caso di investimento in fondo aperto, anche le commissioni sono differenziate
considerando i diversi orizzonti temporali di investimento dei lavoratori (e i dati Covip, 2005):
fondo obbligazionario permanenza 3 anni commissione 1,7 per cento, fondo bilanciato
permanenza 10 anni commissione 1,4 per cento, fondo azionario permanenza 35 anni
commissione 1,6 per cento (allo stesso modo i rendimenti sopra riportati sono differenti per
tipo di investimento scelto dal lavoratore che a sua volta si presume differente in base al suo
orizzonte temporale).

(3) Si veda Tavole di mortalità e tavole attuariali della popolazione italiana al 2002, n. 9 2006.
L’età utile ai
fini dell’utilizzo dei tassi di premio è modificata rispetto a quella reale secondo la seguente
regola:

Fino al 1941 +1

Dal 1942 al 1951 0

Dal 1952 al 1965 -1

Dal 1966 in poi -2

75
ISTITUZIONI E FEDERALISMO

Sedici anni, l’età per votare


17.07.07
Alessandro Rosina

Se ci sono buoni motivi per ringiovanire l’elettorato nel mondo occidentale, questi sono ancor
più accentuati nel nostro paese. Alla maggiore età media delle più importanti cariche di
governo e istituzionali si associa anche una più scarsa attenzione politica verso i giovani. Per
esempio, la spesa sociale italiana è tra le più sbilanciate in Europa a favore delle generazioni
più anziane. Abbassare l’età del diritto di voto a sedici anni servirebbe a riequilibrare il peso
elettorale e presumibilmente politico dei giovani. Le deboli ragioni di chi si oppone.

Dopo la scelta fatta dall’Austria, è sempre più vivace anche nel nostro paese la discussione
sull’abbassamento dell’età al voto. Uno dei più concreti segnali di apertura in questo senso è
la recente decisione di far partecipare anche sedicenni e diciassettenni all’elezione dei
componenti delle assemblee costituenti del Partito democratico che si terrà il 14 ottobre .
Varie sono le obiezioni sollevate, da molte parti, sull’estensione di tale possibilità anche per
le elezioni amministrative e politiche, nessuna però appare essere pienamente convincente.

I motivi a favore

Se ci sono buoni motivi per ringiovanire l’elettorato nel mondo occidentale, questi sono ancor
più accentuati nel nostro paese. Per esempio, da noi, i meccanismi del ricambio
generazionale sono più inceppati che altrove. Varie sono le evidenze empiriche che lo
testimoniano, a partire dal fatto che la classe dirigente e, soprattutto, quella politica sono
caratterizzate da una scarsa presenza di esponenti delle più giovani generazioni.
Alla maggior età media delle più importanti cariche di governo e istituzionali si associa anche,
rispetto agli altri paesi occidentali, una più scarsa attenzione politica verso i giovani. E infatti
le politiche nei loro confronti risultano cronicamente carenti in Italia, e la protezione sociale
particolarmente bassa. Attualmente, la spesa sociale italiana è in Europa una tra le più
sbilanciate a favore delle generazioni più anziane. Oltre i due terzi va in pensioni e invalidità,
mentre nettamente inferiore rispetto alla media europea è la quota che va per casa,
disoccupazione ed esclusione sociale. Le difficoltà a mettere in campo gli “ammortizzatori
sociali” contro la precarietà, a intaccare i privilegi acquisiti per dar spazio alle forze più
dinamiche, a costruire un sistema previdenziale più equo dal punto di vista generazionale,
sono tutti esempi che testimoniano quanto poco la politica italiana stia investendo nel ridurre
i rischi e nell’aumentare le opportunità delle più giovani generazioni.
Se già oggi la classe politica è tra le più anziane e la spesa sociale a favore dei giovani è tra le
più basse, tutto ciò potrebbe ulteriormente peggiorare come conseguenza
76
dell’invecchiamento della popolazione. A causa della persistente denatalità italiana, il peso
demografico dei giovani è destinato infatti a ridursi da noi più che altrove, e per converso è
destinato ad accrescersi quello degli anziani. Saremo nei prossimi decenni, assieme al
Giappone, il paese al mondo con struttura per età più squilibrata al mondo. Il che significa
meno peso elettorale e (presumibilmente) politico dei giovani, e ancor più spesa sociale
assorbita (per previdenza e salute pubblica), a parità di risorse, dalle generazioni più anziane.
Il voto a sedicenni e diciassettenni consente quantomeno di dar più rilevanza al voto “dei”
giovani e (presumibilmente) “per” i giovani. Attualmente il peso elettorale (per ora virtuale) dei
sedicenni e diciassettenni equivale a quello degli over 85. Ci si può chiedere perché nella
decisione di chi è chiamato a responsabilità di governo (o amministrazione locale) i
novantenni contino più dei diciassettenni. Tanto più che da qui al 2035 il peso dei primi è
destinato comunque a diventare il triplo rispetto a quello dei secondi (Figura 1).

I motivi contro

Verso la proposta di abbassare sotto i diciotto anni l’età del diritto di voto sono state
sollevate da varie parti alcune perplessità. Uno dei principali argomenti utilizzati è che “non
sono ancora maturi per il voto” e che a tale età i giovani devono concentrarsi soprattutto
sullo studio. È vero che una quota elevata di sedici-diciassettenni frequenta le scuole
superiori (oltre l’80 per cento), ma ciò vale anche per i diciottenni (oltre il 70 per cento).
Inoltre una parte di essi lavora. Se le leggi italiane prevedono che un sedicenne possa lavorare
e pagare le tasse, perché non dovrebbe poter esprimere il suo voto su chi poi amministra la
cosa pubblica?
Riguardo all’immaturità vi è chi sostiene che pretendiamo troppo da loro e che c’è il rischio di
volerli responsabilizzare eccessivamente e farli crescere in fretta. Una tesi curiosa visto che
semmai in Italia c’è il rischio contrario, ovvero quello di tenerli immaturi a lungo e rallentare
tutti i passaggi alla vita adulta. La gran parte dei giovani danesi vive già in modo indipendente
dai genitori a diciotto-venti anni. La maggioranza dei giovani europei lascia la casa dei
genitori entro i venticinque. Nel nostro paese è invece sempre più comune rimanervi fino ai
trenta e oltre. Ben venga quindi un voto che tratta meno da immaturi e responsabilizza un po’
di più i giovani italiani.
C’è poi chi è scettico perché teme un voto troppo influenzabile da un lato, e troppo
“ideologizzato” dall’altro. E allora? È certo possibile che molti giovani votino come i propri
genitori, e altri si facciano un’opinione attraverso gli strumenti di confronto che offre internet
(blog, forum, eccetera). Perché nella democrazia italiana dovrebbe invece pesare di più il voto
meno “ideologico” e più “inerziale”, meno basato su internet e più sulla televisione, di un
ottantacinquenne?
Infine, un argomento spesso usato è quello, basato su impressioni personali, che comunque
la grande maggioranza dei sedicenni non sarebbe interessata a partecipare alle elezioni
77
amministrative e politiche. I dati raccontano invece una storia diversa. Secondo l’indagine
Istat “Aspetti della vita quotidiana”, i disinformati e disinteressati dei fatti della politica sono
meno della metà dei sedici-diciassettenni. Recenti indagini su tale fascia d’età (ad esempio,
quella condotta a Milano dall’Osservatorio sui diritti dei minori) evidenziano come quasi tre
su quattro sarebbero contenti di poter votare (e oltre il 40 per cento di chi è favorevole si
sente più informato e consapevole rispetto alle generazioni precedenti).

Investire sul futuro

Si dice spesso che l’Italia è un paese bloccato, ingessato, che ha bisogno di liberare le sue
forze più dinamiche ed investire sul proprio futuro. Per farlo sono necessarie scelte
coraggiose e segnali di discontinuità rispetto alle vecchie logiche. L’abbassare il diritto di voto
ai sedici anni significa per la politica, quantomeno, doversi maggiormente confrontare con
l’Italia che sarà, porsi il problema di chi sono e come si stanno formando le più giovani
generazioni. E magari scommettere un po’ di più sul futuro e difendere un po’ meno i
privilegi acquisiti.

Figura 1 – Elettori (potenziali) 16-17enni e (effettivi) over 85


(Fonte: previsioni Istat)

78
LAVORO

Il “Testo unico” del contratto unico


19.10.07
Tito Boeri e Pietro Garibaldi

Una serie di chiarimenti sulle proposte di contratto unico di lavoro, salario minimo nazionale
e contributo nazionale uniforme. I temi, lanciati e sostenuti da tempo sulle pagine de
lavoce.info, fanno discutere e molti lettori hanno chiesto precisazioni. Ecco un primo abbozzo
delle regole per una riforma che possa conciliare flessibilità e tutele e permetta di superare
il dualismo fra contratti permanenti e contratti temporanei.

1. Il Contratto unico
2. Il Salario minimo nazionale
3. Il contributo previdenziale uniforme

1. Il Contratto Unico
I contratti di lavoro a tempo indeterminato di nuova stipulazione si articolano secondo uno
schema unitario a tutela progressiva della stabilità (di seguito denominato contratto unico).

1.1 Tempo Indeterminato


Il contratto unico è a tempo indeterminato, e quindi non prevede alcun termine di scadenza. Il
contratto unico prevede una fase di inserimento ed una fase di stabilità. La fase di
inserimento dura fino a tre anni. La fase di stabilità inizia al termine del terzo anno.

1.2 Fase di Inserimento


La Fase di inserimento del contratto unico dura per i primi tre anni di vita del contratto.
Durante la fase di inserimento il licenziamento può avvenire solo dietro compensazione
monetaria, fatta salva l’ipotesi di licenziamento per giusta causa. Nei casi in cui il
licenziamento sia determinato da motivi discriminatori si applica la tutela prevista dall’art. 18
dello Statuto dei lavoratori.
La compensazione monetaria, durante la fase di inserimento, aumenta di un ammontare pari
a 15 giorni di retribuzione per ogni trimestre di lavoro. A titolo di esempio, un contratto
unico interrotto dopo 6 mesi di lavoro richiede una compensazione monetaria pari a 1 mese
di retribuzione. Dopo tre anni di lavoro, la compensazione è pari a 6 mensilità.

1.3 Fase di Stabilità


Superata la fase di inserimento, il contratto unico viene regolato dalla disciplina dei
licenziamenti oggi in essere. Per le aziende con più di 15 dipendenti, si applica quindi la

79
tutela reale prevista dall’ordinamento esistente. Per le aziende con meno di 15 dipendenti, si
applica la disciplina relativa alla tutela obbligatoria.

1.4 Riassunzione di Lavoratore presso la stessa azienda


Un’azienda che ha interrotto un contratto unico durante la fase di inserimento potrà
riassumere lo stesso lavoratore, nei successivi dodici mesi, solo ripristinando il suo statuto, in
quanto a tutele contro il licenziamento, all’atto dell’interruzione del rapporto di lavoro. Ad
esempio, se licenziato dopo 6 mesi, avrà fin dal primo giorno diritto a un mese di indennità
nel caso di licenziamento per giustificato motivo oggettivo. Dal nuovo contratto verrà
scomputato il periodo di inserimento già consumato nel precedente contratto. Pertanto,
nell’ipotesi di licenziamento dopo 6 mesi, il nuovo contratto avrà una fase di inserimento
limitata a 30 mesi.
Nel caso in cui un lavoratore assunto con un contratto a tempo determinato venisse poi
assunto con contratto unico, anche in questo caso le tutele offerte terranno conto del periodo
già passato dal lavoratore presso l’azienda anche se nell’ambito di un altro tipo di
contratto. Ad esempio, se il lavoratore ha lavorato con un contratto a tempo determinato per
due anni e poi viene assunto con contratto unico, fin dal primo giorno nel nuovo contratto
avrà diritto a 4 mesi di indennità nel caso di licenziamento ed il nuovo contratto unico avrà
una fase di inserimento limitata ad un anno.

2. Il Salario Minimo
Si istituisce il salario minimo nazionale da applicare a ogni prestazione di lavoro, incluso le
prestazioni di lavoro a progetto.

2.1 Commissione nazionale per il salario minimo


Con decreto del Ministero del Lavoro, si istituisce la commissione nazionale per il salario
minimo. E’ formata da 5 membri e dura in carica 5 anni. La Commissione ha il compito di
aggiornare il livello del salario minimo nazionale ogni 12 mesi.

3. Il Contributo Previdenziale Uniforme


Qualunque prestazione di lavoro, incluso le prestazioni di lavoro a progetto, sono
assoggettate a un’aliquota previdenziale pari a 33 per cento.

80
EUROPA, MEZZOGIORNO

Quel capitale che manca al sud Italia


28.11.08
Tommaso Nannicini e Marco Leonardi

Perché la Spagna ha ridotto nel tempo le ampie differenze regionali che la caratterizzavano,
mentre in Italia non ci siamo riusciti? Se invece che al Pil procapite, guardiamo alla nozione di
capitale sociale, scopriamo che il Sud e il Nord della Spagna sono sempre stati più omogenei.
Ed è proprio la maggiore omogeneità che ha probabilmente consentito il recupero. Ha creato
le condizioni perché potessero dispiegare i loro effetti gli altri fattori di convergenza:
istruzione, investimenti in infrastrutture e tasso di criminalità.

Il presunto sorpasso della Spagna in termini di reddito procapite è molto sentito nel nostro
paese, anche perché Italia e Spagna sono paesi simili da molti punti di vista. In questo
intervento, siamo interessati non tanto al confronto tra il Pil procapite medio nei due paesi,
quanto piuttosto alla convergenza regionale: perché la Spagna ha ridotto nel tempo le ampie
differenze regionali che la caratterizzavano, mentre noi non ci siamo riusciti?

Nord e Sud d’Italia

Proviamo a guardare alle differenze tra Nord, inteso come insieme delle aree a più alto
reddito, e Sud, le aree più indietro nei tassi di sviluppo, all’interno di Italia e Spagna.
Innanzitutto, precisiamo le definizioni di “Nord” e “Sud” per i due paesi. L’Italia del Sud arriva
fino al Lazio e agli Abruzzi inclusi, e comprende anche le isole; l’Italia del Nord include le
regioni sopra il Lazio. Delle 17 province autonome della Spagna, quelle con un reddito
procapite sotto la media nel 1950 sono state classificate come “Sud” (Andalusia, le due
Castiglie, Estremadura, Galizia e Murcia), mentre le altre (Aragona, Asturie, Baleari, Cantabria,
Catalogna, Valencia, Navarra, Paesi Baschi e Rioja) come “Nord”. Le Canarie e Madrid sono
state escluse per le loro specificità. A grandi linee, si può dire che la parte Sud-Ovest della
Spagna corrisponde all’Italia del Sud-Isole, mentre il loro Nord-Est assomiglia al nostro
Centro-Nord.
La Spagna ha avuto una prima forte convergenza regionale nel Pil procapite nel periodo dal
1965 al 1985, prevalentemente dovuta alle migrazioni interne: un tipo di convergenza che noi
abbiamo vissuto in parte nei decenni precedenti. Diversamente da noi, però, la Spagna ha
avuto anche una convergenza più recente, se la misuriamo come produttività del
lavoro piuttosto che come Pil procapite. (1)
Il Pil procapite del Sud italiano ammontava al 61 per cento di quello del Nord nel 1960, e
ancora nel 2006 il rapporto era fermo al 67 per cento. In Spagna, invece, il Pil procapite del

81
Sud ammontava al 55 per cento di quello del Nord nel 1960, ma era salito al 75 per cento nel
2006.

Fattori di convergenza

Proviamo a elencare i principali fattori che possono spiegare la convergenza spagnola e, per
converso, quella italiana mancata. A rischio di una semplificazione eccessiva, sono
prevalentemente quattro.
Primo fattore: l’istruzione. In Spagna, il rapporto Sud-Nord nella proporzione di popolazione
attiva con il titolo di studio superiore è cresciuto dal 60 per cento dei primi anni Settanta
all’80 per cento del 2000. In Italia, invece, sembra esserci stato un declino del grado
d’istruzione superiore del Sud rispetto al Nord, con un rapporto che da valori sopra il 100 per
cento è sceso all’84 per cento nel 2006. Questo fattore può aver contribuito a rallentare la
convergenza italiana rispetto a quella spagnola. A maggior ragione se si pensa che il
problema non sembra risiedere tanto nella “quantità” d’istruzione quanto piuttosto nella sua
“qualità”, come evidenziato per esempio dai differenziali regionali nei risultati del test
Pisa (per i quali non esistono rilevazioni precedenti il 2000).
Secondo fattore: gli investimenti infrastrutturali. In Italia, il rapporto tra soldi pubblici
procapite spesi in strade, aeroporti o altre infrastrutture al Sud rispetto a quelli spesi al Nord
è stato sempre maggiore del 100 per cento fino ai primi anni Novanta, è sceso poi al di sotto
di questo livello dopo la chiusura della Cassa del Mezzogiorno. Il rapporto aveva però preso a
scendere molto prima, già verso la metà degli anni Settanta: è quindi possibile che il declino,
relativo al Nord, degli investimenti strutturali abbia contribuito al mancato processo di
convergenza, anche se non sembra di poter dire che gli investimenti precedenti abbiano mai
sortito gli effetti sperati.
Terzo fattore: la criminalità. Il tasso di criminalità ha una chiara influenza sul processo di
crescita e convergenza. Tuttavia, è difficile dire quale sia il nesso di causalità: se più crimine
implica meno crescita oppure, al contrario, meno crescita implica più povertà e quindi più
crimine. Inoltre, le misure di criminalità sono difficili da comparare tra regioni e nel tempo. La
misura cui facciamo riferimento è basata sui crimini contro la proprietà e la persona
denunciati alle autorità, che includono i reati di stampo mafioso. Il trend dei reati procapite al
Sud rispetto al Nord, in Italia è stabile nel tempo, e di poco al di sopra del 100 per cento,
mentre è crescente in Spagna. La variabile difficilmente può spiegare la maggiore
convergenza in Spagna piuttosto che in Italia, anzi sembrerebbe andare nella direzione
opposta. Alternativamente, la spiegazione potrebbe essere che una maggiore ricchezza
relativa del Sud della Spagna ha col tempo innescato anche una maggiore criminalità
(rapporto di causalità inverso).

82
Il capitale sociale

Nell’insieme, i tre fattori precedenti possono spiegare solo in parte la differenza tra il relativo
successo spagnolo in termini di convergenza regionale e il perdurante ritardo del
Mezzogiorno italiano.
L’ultima variabile che prendiamo in considerazione è il capitale sociale, inteso come il livello
di fiducia, impegno civile e di valori condivisi all’interno di un tessuto sociale. Esistono
diverse misure di capitale sociale, le più note sono quelle che mirano a catturare la fiducia
rispetto al contesto sociale in cui si vive e che sono derivate dalle risposte a quesiti del tipo
“quanto ti fidi del prossimo” all’interno di inchieste internazionali, come il noto World Values
Survey. Noi preferiamo utilizzare i dati sulle donazioni di sangue, un’attività puramente
altruistica e gratuita. (2)
La figura 1 indica che il livello (sempre relativo Sud/Nord) delle donazioni di sangue per
abitante è molto maggiore in Spagna, intorno al 90 per cento nel 2005, mentre è stabilmente
più basso in Italia, intorno al 60 per cento sempre nel 2005. Per inciso, anche le misure
basate sul grado di fiducia per il prossimo danno gli stessi risultati. Anche se i dati che
abbiamo non si riferiscono all’intero periodo della convergenza che stiamo cercando di
analizzare, non è un grosso problema. Come mostrato dalla letteratura scientifica
sull’argomento, e come in parte confermato dalla figura 1, il livello di capitale sociale tende a
persistere nel tempo e cambia con estrema lentezza. Ciò significa che possiamo interpretare
il differenziale Sud/Nord in termini di capitale sociale come all’incirca costante nel periodo
che stiamo considerando.
Quello che ci dice la figura 1, allora, è che il Sud e il Nord della Spagna sono sempre stati più
omogenei in termini di capitale sociale, rispetto al Sud e al Nord del nostro paese. È proprio
questa maggiore omogeneità che può aver permesso agli altri fattori di convergenza di
dispiegare i loro effetti, portando il Sud spagnolo a recuperare il terreno perduto rispetto al
Nord. Al contrario, il basso livello di capitale sociale del Mezzogiorno italiano rispetto al Nord
del paese può aver ostacolato gli altri fattori. La distribuzione del capitale sociale all’interno
di un paese potrebbe configurarsi quindi come un fattore ostacolante, oppure facilitante, il
processo di convergenza interna. Ovviamente, l’evidenza empirica sintetizzata nella figura 1 è
lontana dal dimostrare alcunché, ma, a nostro avviso, il confronto con la Spagna rinforza la
necessità di considerare il capitale sociale come un importante fattore esplicativo nell’analisi
dei perduranti ritardi del nostro Mezzogiorno.
(1) Sulle dinamiche delle diverse fasi della convergenza spagnola, si veda Angel de la
Fuente, Regional Convergence in Spain: 1965-95, Cepr Discussion Paper 3137, 2002.
(2) Questa misura è stata usata per valutare l’impatto del capitale sociale sui comportamenti
finanziari da Luigi Guiso, Paola Sapienza, Luigi Zingales, “The Role of Social Capital in
Financial Development”, American Economic Review, 94(3), 526-556, 2004. I dati sulle
83
donazioni in Italia provengono da questi autori. I dati spagnoli, invece, provengono dalla
Fondazione spagnola dei donatori di sangue (Fsds, www.donantesdesangre.net).
Figura 1

84
GIUSTIZIA

Quanto costa un’intercettazione


08.07.08
Gilberto Muraro
Per giustificare severe restrizioni alle intercettazioni telefoniche si cita anche il loro costo, che
sarebbe di 400 milioni l’anno. Ma rischia di essere un argomento fuorviante. Perché pur senza
imporre la prestazione gratuita alle società telefoniche nell’ambito della concessione ricevuta,
si può ridurre il costo reale dell’intercettazione. Attraverso una radicale riorganizzazione del
servizio e la creazione di un sistema nazionale, con un unico software, procedure uniformi e
pagamenti accentrati. Si può arrivare a un risparmio del 60 per cento delle spese attuali.

Discutere oggi di intercettazioni telefoniche è maneggiare un esplosivo. Ma occorre avvertire


che si rischia di decidere sulla base di erronee valutazioni. Non si discutono qui gli aspetti
strettamente giudiziari, anche perché a chi scrive appaiono addirittura ovvi: ovvio che le
intercettazioni sono uno strumento potente e a volte insostituibile di indagine, specie se si
ricorda che in Italia l’economia criminale rappresenta una quota non trascurabile del Pil, non
meno del 10 per cento, secondo le stime più accreditate, e rimane diffusa la criminalità
amministrativa, corruzione e concussione in primis. Ovvio, quindi, che la loro abolizione
significherebbe indebolire gravemente la capacità istruttoria. Ovvio, poi, che le intercettazioni
devono riguardare sospetti di reati di elevato rilievo penale. Ovvio, infine, che la loro
pubblicazione non autorizzata è una manifestazione intollerabile di inciviltà giuridica, da
perseguire duramente, specialmente quando incida senza necessità sulla sfera privata. Ma se
ci si limitasse a questo, si concluderebbe con una disciplina più attenta delle procedure e una
più dura punizione degli abusi. In realtà, si prospettano restrizioni così severe, da comportare
quasi l’annullamento delle intercettazioni. E come giustificazione aggiuntiva o addirittura
determinante, si sottolinea con forza il loro costo: sarebbe dell’ordine di 400 milioni di euro
all’anno, ossia un importo molto elevato in assoluto e del tutto insopportabile, si dice,
quando si considerino le ristrettezze finanziarie che caratterizzano l’apparato giudiziario e
che concorrono a determinare il triste primato italiano dei processi interminabili.

Come ridurre i costi

Orbene, fatta salva la libertà di ciascuno, in Parlamento e nel paese, di giudicare come vuole
gli aspetti etici e giuridici del problema e di decidere di conseguenza, occorre dire che
l’argomento dei costi rischia di essere fuorviante. Rappresenta solo una mezza verità e non
giustifica affatto l’anzidetta conclusione. Perché è vero che i costi sono elevati, ma è anche
vero che si possono fortemente ridurre. Non occorre arrivare a imporre la prestazione
gratuita alle società telefoniche nell’ambito della concessione ricevuta, come era stato
suggerito tempo fa dalla seconda Commissione del Senato, prendendo spunto da alcune
85
esperienze estere. Simile prospettiva ha un indubbio fascino. Ma appare anche rispettabile la
posizione di chi preferisce che i costi delle operazioni siano sempre evidenziati, per due
motivi: per prendere decisioni corrette sulla convenienza degli interventi pubblici e per evitare
che una prestazione gratuita imposta dallo Stato alla concessionaria abbia come contrappeso
un favore elargito alla stessa società su altro fronte, rendendo opaco tutto il quadro dei
delicati rapporti tra controllore e controllata.
Senza prendere posizione al riguardo, va sottolineato che in ogni caso si può e si deve ridurre
proprio il costo reale delle intercettazioni attraverso una radicale riorganizzazione del
servizio. Si tratta di creare un sistema nazionale, di rifare quindi tutti i contratti in essere e di
prevedere un unico software e procedure uniformi, di accentrare i pagamenti e soprattutto di
stabilire che questi basata sulla fatturazione di un forfait giornaliero e non più sulla
fatturazione della singola intercettazione, con una spesa contabile folle, che vede molti
addetti gestire oltre 200mila fatture all’anno.
In questa direzione, si era già orientato il governo Prodi, anche sulla scorta delle prime
indicazioni avanzate dalla Commissione tecnica per la finanza pubblica, che stimava possibile
un risparmio addirittura superiore al 60 per cento delle spese attuali. Soppressa dal nuovo
governo la Commissione, non è il caso di sopprimerne le raccomandazioni senza discuterle.

86
FAMIGLIA, SCUOLA E UNIVERSITA’

Se la scuola non ha tempo per le mamme


31.10.08
Alessandra Casarico e Paola Profeta

Il tempo pieno è un servizio educativo importante e un punto fermo nell’organizzazione delle


famiglie italiane, in particolare quando la mamma lavora. Esiste un legame stretto tra questa
modalità d’orario nella scuola dell’infanzia e primaria e l’occupazione femminile. Le donne
che escono dal mercato del lavoro per le difficoltà a conciliare vita lavorativa e familiare,
difficilmente riescono poi a rientrare. Il tasso di occupazione delle madri italiane è già molto
basso. Non abbiamo certo bisogno di politiche che disincentivino ulteriormente il lavoro
femminile.
Il tempo pieno, nella scuola primaria rappresenta una realtà diffusa per molte famiglie italiane
del Nord, in particolare nelle grandi città: secondo i dati del ministero della Pubblica
istruzione, nell’anno scolastico 2006/07 nel Nord-Ovest il 45,5 per cento dei bambini delle
scuole pubbliche primarie ha frequentato la scuola per quaranta ore settimanali, con punte
superiori al 90 per cento per esempio a Milano, nel Sud e Isole solo il 6,8 per cento.
Il tempo pieno rappresenta un servizio educativo importante e un punto fermo
nell’organizzazione del tempo delle famiglie italiane, in particolare quando la mamma lavora.
Il legame tra tempo pieno nella scuola primaria e occupazione femminile è molto
stretto. (1) Inoltre, il tempo pieno nella scuola primaria promuove l’uguaglianza nelle
opportunità.

Incertezze da decreto

Quale sarà il futuro del tempo pieno in seguito al decreto legge Gelmini (n. 137
dell’1/9/2008) appena approvato in Senato?
In un clima di confusione politica, con l’opposizione che dichiara che il tempo pieno è a
rischio e il governo preoccupato di garantire che sarà addirittura aumentato, cerchiamo di
capire che cosa dice il decreto.
L’articolo 4 del decreto legge Gelmini prevede al primo comma l’introduzione nella scuola
primaria del maestro unico al quale è assegnata una classe ‘funzionante con orario di 24 ore
settimanali’. L’articolo procede chiarendo che ‘nei regolamenti si tiene comunque conto delle
esigenze, correlate alla domanda delle famiglie, di una più ampia articolazione del tempo-
scuola’. Due punti ci sembrano importanti: (i) l’attività didattica è fissata in 24 ore settimanali;
(ii) si lascia aperta la possibilità di un prolungamento dell’orario scolastico identificato come
‘articolazione del tempo-scuola’. Si intende con questo il tempo pieno, oppure attività non
didattiche svolte a scuola in aggiunta a quelle obbligatorie? A chi saranno affidate? Quali le
risorse per finanziare l’orario, a questo punto, aggiuntivo? Le famiglie italiane meritano
maggiore chiarezza in proposito.
87
La lettura del piano programmatico predisposto con riferimento all’articolo 64 ‘Disposizioni
in materia di organizzazione scolastica’ del decreto legge 25/6/2008 n. 112 convertito dalla
legge 6/8/2008 n. 133 non aiuta a capire fino in fondo che cosa succederà all’orario nella
scuola primaria. E in più aggiunge dubbi sui tempi della scuola dell’infanzia.
Il piano programmatico si propone di rivedere i piani di studio e l’orario scolastico all’insegna
dell’’essenzialità’. Uno dei criteri e principi guida è ‘la sostenibilità per gli studenti del carico
orario e della dimensione quantitativa dei piani di studio, opportunamente riducendo
l’eccessiva espansione degli insegnamenti e gli assetti orari dilatati, che si traducono in un
impegno dispersivo e poco produttivo (…)’. In altri termini, il piano sottolinea con una certa
insistenza la necessità di riorganizzare gli orari scolastici: orario di 24 ore settimanali e
maestro unico (che insegnerebbe anche l’inglese, previo corso di 150 ore) sono fortemente
proposti come il modello didattico ed educativo di maggiore efficacia. Come interpretare
allora le più recenti rassicurazioni verbali del governo circa il mantenimento dello stesso
orario attuale, che potrebbe addirittura essere esteso dove non c’è? Forse è una risposta
politica alle preoccupazioni di tante famiglie – e di tanti elettori ? Nel contesto dell’autonomia
scolastica, il piano programmatico ammette opzioni organizzative alternative di 27 o 30 ore o
40 se aggiungiamo le ore mensa, ma la loro fattibilità resta vincolata alle risorse a
disposizione delle scuole stesse, su cui a priori non c’è nessuna garanzia.
Se le garanzie fornite a parole si tradurranno in risorse effettive, bene. Per il momento però è
evidente lo scollamento tra ciò che è scritto nel decreto e come il governo lo presenta. Circola
per esempio l’idea che i docenti che risulterebbero in esubero in seguito all’attribuzione delle
classi a un unico maestro saranno riallocati nell’orario aggiuntivo. Ma questo meccanismo
non compare nei documenti ufficiali.
Ricordiamoci comunque che non è solo una questione di orario. Conta anche il contenuto. Il
tempo pieno deve rappresentare un servizio educativo di qualità e non un ‘dopo-scuola’.

Uscita senza ritorno

Inoltre, è sorprendente notare che mentre sull’università e sulla scuola primaria il dibattito è
acceso, i cambiamenti programmati per i tempi della scuola dell’infanzia (‘l’orario
obbligatorio delle attività educative (…) si svolge anche solamente nella fascia antimeridiana’)
sono, per il momento, rimasti ai margini della discussione. Se gli orari scolastici hanno un
legame con l’occupazione femminile, quelli relativi alla scuola dell’infanzia possono essere
particolarmente importanti. Le difficoltà di conciliazione delle donne tra vita lavorativa e
familiare nei primi anni di vita del bambino possono contribuire a uscite dal mercato del
lavoro (lavoratrici scoraggiate) tipicamente non reversibili. Più tardi si è in condizioni di
rientrare nel mercato del lavoro, più è difficile farlo.
In Italia non abbiamo certo bisogno di politiche che disincentivino il lavoro femminile delle
madri. Come illustra il grafico per la coorte di età tra i 25 e i 49 anni, il tasso di
88
occupazione delle madri italiane è inferiore al tasso di occupazione femminile di tutta la
coorte. Il divario inoltre è più ampio all’aumentare del numero di figli. Il fenomeno si verifica
anche negli altri paesi europei, ma una peculiarità tutta italiana è il fatto che il tasso di
occupazione delle madri non si riavvicini a quello femminile dell’intera coorte, peraltro in
Italia ai livelli più bassi tra i paesi europei, all’aumentare dell’età del bambino. Questo
suggerisce che sia molto più difficile per le madri italiane rientrare al lavoro dopo la
maternità. Perché? La struttura del mercato del lavoro, la cultura della società e delle imprese
giocano un ruolo importante. Ma anche le istituzioni hanno la loro responsabilità, la carenza
di servizi per la prima infanzia in primo luogo: in Italia la spesa per l’infanzia per la fascia di
età tra 0 e 3 anni è pari solo allo 0,1 per cento del Pil, contro lo 0,5 per cento della Francia e
lo 0,8 per cento della Svezia, con tassi di copertura pari al 6,3 per cento dei bambini, contro il
28 per cento della Francia e il 39,5 per cento della Svezia.
Il tempo pieno per tutti nella scuola pubblica materna e primaria è, in questo contesto, una
delle poche misure istituzionali a favore delle mamme lavoratrici. Dovrebbe
essere potenziato, in particolare al Sud, invece che ridotto, se non vogliamo contribuire alla
riduzione dei tassi di occupazione femminile, in particolare delle madri, già così bassi.
(1) Si veda in proposito il nostro articolo su Il Sole 24Ore del 29/10/2008

Fonte dati: UNECE Statistical Division Database

89
CONTI PUBBLICI

Il Pil sulla scala Mercalli


14.04.09
Francesco Daveri e Antonio Savini

I terremoti sono eventi eccezionali e imprevedibili che però purtroppo si ripetono in luoghi e
tempi diversi. I dati derivanti dalle sfortunate esperienze di tanti paesi del mondo ci mostrano
che le conseguenze di un terremoto come quello abruzzese sulla crescita di lungo periodo
sono negative e di entità non marginale. La buona qualità delle istituzioni di un paese è però
in grado di attenuarne in modo significativo i costi sociali.
Il terremoto nella provincia dell’Aquila così come lo tsunami nell’Asia Sud-Orientale di
qualche anno fa sono eventi catastrofici con enormi conseguenze individuali, sociali ed
economiche.

Catastrofi e crescita economica

In alcuni casi, negli anni successivi a questi episodi, l’economia locale si riprende: le
popolazioni trovano la forza di reagire e di ricostruire le loro comunità e le loro economie
come prima e meglio di prima. È avvenuto, ad esempio, nel Friuli. Ma non è sempre così. In
molte zone del mondo, le catastrofi hanno portato con sé una marcata difficoltà di ricostruire
le attività economiche precedenti e, a volte, il declino economico.
Se si guarda oltre le conseguenze dirette delle catastrofi, purtroppo inevitabilmente negative
e luttuose, l’economia ci suggerisce che gli effetti economici di più lungo periodo delle
catastrofi possono essere molto diversi. Una catastrofe naturale potrà produrre effetti positivi
sulla capacità di crescita di una località se la distruzione del capitale causato dalla catastrofe
riesce a creare nuove opportunità di investire in nuove attività più moderne e avanzate
rispetto a quelle preesistenti. Inoltre, almeno durante la ricostruzione, si verifica solitamente
un eccezionale afflusso di risorse esterne – di capitale fisico, finanziario e umano – che se
impiegate efficientemente possono accrescere le possibilità locali di investimento.
Tenderanno invece a prevalere gli effetti negativi se le risorse finanziarie necessarie
alla ricostruzione sono insufficienti a finanziare la realizzazione dei grandi progetti
infrastrutturali richiesti per ricominciare a crescere oppure se gli aiuti predisposti non si
aggiungono alle risorse di risparmio e di investimento già eventualmente presenti.

La parola ai dati

Per capirne di più, nell’ambito di un progetto di ricerca in corso, abbiamo usato i dati del
CRED (Center for the Research on the Epidemiology of Disasters) dell’Università di
Lovanio (1) relativi alle catastrofi avvenute in novanta paesi in un lungo periodo di tempo e
90
cioè durante i trenta anni compresi tra il 1970 e il 2000. Dai dati del CRED emerge che le
catastrofi si sono più che raddoppiate nei trenta anni tra il 1970 e il 2000. Negli anni ‘70 il
totale dei disastri registrati fu pari a 75, per poi salire a 135 negli anni ottanta fino ai 180
disastri degli anni novanta.
Nel tempo i disastri di natura geologica si sono “solo” raddoppiati, mentre i disastri di altro
tipo, soprattutto quelli dovuti ad eventi climatici estremi, si sono invece quasi triplicati. Una
parte di questo incremento può essere il risultato del miglioramento delle tecniche di raccolta
dei dati nel corso del tempo: negli anni ‘70 il monitoraggio di eventi di questo tipo era
certamente più imperfetto di quello di oggi. Per molti studiosi, però, il rapido aumento dei
disastri climatici è una riprova della nefasta influenza della crescita demografica e delle
attività economiche umane sulla rischiosità dell’ambiente in cui viviamo. Senza entrare nel
dibattito sul cambiamento climatico, rimane il fatto che le catastrofi sono presumibilmente
aumentate e in misura notevole di numero nell’arco di trenta anni.
Quando si parla di eventi catastrofici, però, almeno una cosa non è determinata dalla natura e
dall’ambiente e cioè il loro impatto socio-economico. Tra il 1980 e il 2000 l’India ha subito
quattordici terremoti con 32 mila vittime. Negli Stati Uniti, nello stesso periodo, di terremoti
ce ne sono stati ben diciotto: ma i morti sono stati solo 143. E, infatti, l’analisi statistica
indica che la percentuale delle persone coinvolte da una catastrofe non dipende solo
dall’entità dei disastri e di altre variabili geografiche e naturali ma anche e soprattutto
del reddito pro-capite e del livello di istruzione dei paesi in cui il disastro ha luogo. Le nostre
stime mostrano che, in presenza di redditi pro-capite più elevati del 10 per cento, il numero
dei coinvolti per milione di abitanti è più basso del 7.5 per cento (2). Probabilmente perché la
densità della popolazione nelle zone urbane è tipicamente più alta in un paese povero che in
un paese ricco (le bidonvilles fanno pensare a San Paolo o a Mumbai più che a Roma o
Washington). Ma soprattutto perché in una località con un reddito pro-capite più elevato (la
California o il Giappone) le case stanno in piedi meglio che in una zona con un reddito più
basso (l’Abruzzo). Più in generale, come indicato da Matthew Kahn in un lavoro di qualche
anno fa, (3) paesi caratterizzati da una migliore qualità delle istituzioni e del decision-making
pubblico sono riusciti a ridurre sensibilmente il “conto sociale” delle catastrofi. Il che non
sorprende: la presenza di istituzioni corrotte è ovviamente associata con il mancato rispetto
dei vincoli e della legislazione edilizia, così come con una pessima qualità delle strutture e
delle infrastrutture abitative.

L’impatto sul Pil

Una volta quantificata la relazione tra le variabili geografiche, naturali e sociali che descrivono
una catastrofe e il suo impatto sociale, si può poi valutarne l’effetto sulla crescita economica.
La nostra analisi indica che, al crescere del numero di persone coinvolte (per milione di
abitanti), la crescita del Pil pro-capite del paese si riduce di 0,0003 punti percentuali all’anno.
91
Può sembrare un numero piccolo ma non lo è. Se gli sfollati abruzzesi sono 30 mila (cioè circa
500 per milione di italiani), la crescita del Pil italiano potrebbe ridursi di circa 0.15 punti
percentuali all’anno (gradualmente a calare verso zero). Su un orizzonte di dieci anni, -0,15
punti percentuali l’anno significa una riduzione di circa un punto e mezzo di Pil. (4).
I terremoti sono eventi eccezionali e imprevedibili che però purtroppo si ripetono in luoghi e
tempi diversi e non periodici. E’ comunque possibile studiare le caratteristiche medie dei loro
effetti economico-sociali per provare a descrivere gli scenari futuri. I dati derivanti dalle
sfortunate esperienze di tanti paesi del mondo ci mostrano che le conseguenze di un
terremoto come quello abruzzese sulla crescita economica potenziale di lungo periodo sono
negative e di non piccola entità. La buona qualità delle istituzioni di un paese è però in grado
di attenuarne in modo significativo i costi sociali.

(1) Il CRED (www.cred.be/emdat) definisce “disastro naturale” un evento o una situazione che
non può essere gestita localmente ma richiede un intervento esterno, nazionale o
internazionale, o che è riconosciuto come tale da un’istituzione internazionale, da un paese o
dai media e che chiama in causa (1) almeno 10 morti, (2) 100 o più persone che hanno
richiesto assistenza, (3a) la dichiarazione dello stato di emergenza oppure (3b) una richiesta
di aiuti internazionali.
(2) L’equazione stimata da cui sono derivati i parametri riportati è la seguente:
[log(1+COINVOLTI)] = 8.4 – 0.75 log(reddito procapite1970) -0.09 log(iscritti secondaria1970) +
1.01 log(numero disastri)+ variabili geografiche. R2=.66, numero osservazioni =90.
COINVOLTI è il numero delle persone coinvolte nella catastrofe per milione di abitanti.
(3) Matthew E. Kahn, “The death toll from natural disasters: the role of income, geography and
institutions”, The Review of Economics and Statistics, 271-284, 2005.
(4) L’equazione stimata per il tasso di crescita è la seguente: crescita(PILpc) = .051 -.007
log(PILPc,1970) + .003*log(iscritti secondaria1970) + .11 (Inv/Pil) – .001 (spesa pubblica/Pil) +
.009 (grado di apertura) – .0003 log(1+COINVOLTI).

92
INTERNAZIONALI, MONETA E INFLAZIONE

Quando va sotto zero il tasso ufficiale


15.09.09
Tommaso Monacelli

Tassi di interesse nominali negativi sono tecnicamente possibili. E infatti la banca centrale di
Svezia ha portato il proprio tasso ufficiale a -0,25. Generalmente è una decisione inutile,
perché in quel caso gli agenti preferiscono tenere la moneta invece di utilizzarla per
alimentare prestiti e investimenti. Tuttavia, la Bce potrebbe tassare le riserve bancarie. Ma è il
momento giusto per farlo, proprio quando si è cercato in tutti i modi di sostenere i bilanci
delle banche? Uscire da una trappola della liquidità non è evidentemente un percorso
semplice.

I tassi d’interesse possono essere negativi? Sembrerebbe assurdo. Eppure la Riksbank, la


banca centrale della Svezia, ha da poco deciso di portare il proprio tasso ufficiale a -0,25 per
cento: una decisione storica.

Possibili, ma inutili

In realtà, non c’è niente di esotico né illogico nel fissare i tassi d’interesse a valori negativi. In
particolare nel caso della decisione della Riksbank, il tasso d’interesse di cui si parla è quello
che le banche pagano per detenere depositi presso la banca centrale. Fissato a un valore
negativo corrisponde semplicemente a una tassa: le banche devono pagare un’imposta se
vogliono detenere le loro riserve presso la Riksbank invece che immetterle nel circuito del
credito per finanziare mutui alle famiglie e prestiti alle imprese. Niente di strano quindi,
considerato anche che i rapporti tra banca centrale e banche sono essenzialmente privi di
rischio (quindi i tassi di interesse non includono un premio per l’incertezza). Non avremo, per
esempio, depositi bancari sui quali sono le famiglie a dover pagare un interesse alla banca
invece che essere remunerate.
Quando applicati a mutui e prestiti a famiglie e imprese, tassi di interesse negativi sono
considerati solitamente un assurdo (anche perché tendono a incorporare un premio per il
rischio). Per capire perché, supponiamo che il tasso sia del -1 per cento. Questo vorrebbe dire
che se ricevo un mutuo di 100 euro per comprare la casa, dovrò restituire 99 euro. Niente
male, ma irrealistico: chi mai presterebbe soldi a queste condizioni? Sarebbe più conveniente
tenerli sotto il materasso, dove almeno renderebbero zero, che è sempre meglio di -0,01.
Ecco perché il livello zero è considerato solitamente un limite inferiore per i tassi di interesse.
A quel punto per nessuna banca centrale avrebbe senso abbassare i tassi sotto lo zero: non
perché la cosa non sia possibile tecnicamente, ma perché sarebbe del tutto inutile. Ogni euro
in più stampato dalla banca centrale con l’obiettivo di stimolare l’economia sarebbe

93
trattenuto dagli agenti sotto forma di moneta e non servirebbe ad alimentare prestiti e
investimenti. Questa situazione di stallo si chiama tecnicamente trappola della liquidità.

Come uscire dalla trappola

Come si esce da una trappola della liquidità? Pensandoci meglio, i tassi di interesse che
contano per le decisioni di spesa e investimento non sono quelli nominali, espressi in euro,
bensì quelli reali, cioè aggiustati per l’inflazione attesa (lungo l’orizzonte di rimborso del
prestito). Perciò se una banca centrale riesce ad alimentare aspettative di inflazione, per
esempio annunciando che i tassi saranno mantenuti a zero anche in futuro quando ci si
aspetta che l’economia sia uscita dalla recessione, può generare tassi di interesse reali
negativi e contribuire al rilancio dell’economia. Questa strada è più complicata di quanto
sembri: quanto è credibile una banca centrale che cerca di suscitare aspettative di più alta
inflazione quando negli ultimi venti anni non ha fatto altro che cercare di imparare
faticosamente il mestiere contrario?
Con più fantasia, poi, si può fare di più. È proprio vero che i tassi di interesse nominali non
possono essere negativi? Si è detto che ciò è tecnicamente possibile ma inutile, perché gli
agenti preferirebbero tenere la moneta sotto il materasso. A meno che, però, il rendimento
della moneta stessa (considerato solitamente zero) venga in qualche modo alterato.
Supponiamo che una mattina il governatore della banca centrale annunci improvvisamente
che entro un mese tutte le banconote la cui serie termina con il numero 8 perderanno valore
legale. Poiché le banconote in circolazione il cui numero di serie termina con 8 sono in media
il 10 per cento, questa semplice operazione equivale ad abbassare il rendimento della moneta
da zero a -10 per cento. (1) Tutto questo con un semplice annuncio a costo nullo. Se quindi
la banca centrale decidesse di abbassare il tasso ufficiale di sconto per esempio a -2 per
cento, gli agenti preferirebbero prestare i soldi a questo tasso piuttosto che tenere la moneta
sotto il materasso. Un’alternativa, suggerita da un mio studente a lezione, sarebbe quello di
richiedere a tutti i possessori di certe banconote di passare in posta perché siano timbrate
con un bollino. Il risultato sarebbe simile.
C’è da chiedersi ovviamente se una banca centrale avrebbe mai il coraggio politico di decidere
una tale misura. Ma se l’analogia fra tasso di interesse negativo e tassa illustrata sopra rimane
valida, ci sarebbe forse una strada più semplice per la Bce: tassare le riserve bancarie, che
altro non sono che il “materasso” delle banche. Ma ancora: è un buon momento per tassare le
banche, proprio quando si è fatto di tutto per sostenerne i bilanci? Evidentemente uscire da
una trappola della liquidità non è un percorso così semplice.

(1) Si veda http://gregmankiw.blogspot.com/ per una discussione.

94
EUROPA, MONETA E INFLAZIONE

Perché la Grecia non può fallire


26.01.10
Massimo Bordignon e Angelo Baglioni

Occhi ancora puntati sulla Grecia, soprattutto per gli effetti che la gestione del caso potrebbe
avere sul destino futuro e la governance della moneta unica europea. Un intervento di
sostegno al paese potrebbe avere effetti negativi sulla credibilità dell’unione monetaria. Ma i
costi del non intervento sarebbero ancora più alti. Resta il problema di come evitare che simili
eventi si ripetano in futuro. Più in generale è sostenibile un’unione monetaria in cui i paesi
membri continuano a essere sostanzialmente sovrani sul piano fiscale?

Gli occhi di tutti gli analisti continuano a rimanere puntati sulla Grecia, soprattutto per gli
effetti che la gestione del caso greco potrebbe avere sul destino futuro e la governance della
moneta unica europea. Cosa succederebbe se la Grecia non riuscisse a riportare sotto
controllo il proprio deficit e fosse costretta a dichiarare il default sul proprio debito pubblico?
Dovrebbe uscire dall’euro, o più esattamente, gli altri paesi Emu dovrebbero cacciarla per
paura del contagio? E con quali le conseguenze? E alla luce di queste, dovrebbero o no gli altri
paesi euro intervenire per aiutare la Grecia oggi?

I miti da sfatare

Cominciamo con lo sfatare alcuni miti. Il primo è proprio quello dell’uscita dall’euro. Nel
dibattito politico e pubblicistico si sente spesso avanzare l’ipotesi che un eventuale default
implichi necessariamente l’abbandono della moneta unica. Ma il legame è falso. Non vi è
alcun nesso causale tra insolvenza di un paese e uscita di quel paese dall’euro. Affermazioni
del tipo “se la Grecia è insolvente deve uscire dall’euro” equivalgono a dire “se la California è
insolvente deve uscire dal dollaro”. Nessuno sottoscriverebbe la seconda affermazione; ma
allora anche la prima non ha alcun fondamento. È perfino possibile che il mito sia stato creato
apposta, allo scopo di mantenere sotto pressione paesi finanziariamente poco responsabili,
anche dopo che avevano ottenuto l’accesso all’Emu. Ma si tratta di una falsità ed è bene dirlo.
Il secondo mito da sfatare, collegato al primo, è il seguente: il debito della Grecia è un po’
anche un debito degli altri stati dell’area euro, poiché è denominato nella stessa valuta. Anche
questo è falso: qualcuno si sente responsabile dei debiti di Angelo Baglioni e Massimo
Bordignon, per il solo fatto che usa la nostra stessa valuta? È vero che noi non siamo uno
stato sovrano, ma il principio che vale per i privati vale anche per gli stati: ognuno risponde
dei suoi debiti, indipendentemente dalla valuta in cui sono denominati. A scanso di equivoci,
la no bail-out clause è stata inserita nel Trattato dell’Unione Europea proprio per rendere
esplicito che nessuno stato membro è tenuto a rispondere dei debiti degli altri. D’altra parte,
ultimo mito da sfatare, la no bail-out clause non implica che gli altri paesi euro non possono
95
intervenire, direttamente o attraverso la Bce, per aiutare un paese in difficoltà; dice solo che
non sono tenuti a farlo, che è ben diverso.

Le conseguenze del default

Ma allora quali conseguenze avrebbe il default della Grecia per gli altri paesi? L’impatto più
diretto sarebbe sui suoi creditori, come ben sanno i detentori di titoli di stato
argentini. (1) L’esposizione diretta verso la Grecia dei risparmiatori dell’area euro è
presumibilmente contenuta. Tuttavia, l’esposizione tramite il risparmio gestito potrebbe
essere non trascurabile. Ma il problema vero è quello dell’esposizione del sistema
bancario degli altri paesi membri dell’Unione verso lo stato e il sistema bancario della Grecia.
Questa è probabilmente la maggiore preoccupazione per la Banca centrale europea e per gli
altri paesi membri: se i titoli di stato greci diventassero carta straccia, ciò potrebbe avere
conseguenze devastanti per le banche greche, che detengono quei titoli e che li utilizzano
come garanzia per accedere ai prestiti presso la Bce stessa. E una crisi del sistema bancario
greco potrebbe avere conseguenze imprevedibili sul resto del sistema bancario dell’intera
area euro, che è appena uscito da una lunga crisi di liquidità, ma che è tuttora reso fragile
dalla recessione in corso.
Un effetto indiretto ma importante di un eventuale default si avrebbe sugli altri debitori
sovrani dell’area euro, in particolare sugli stati che presentano una combinazione di alto
disavanzo o debito pubblico: Irlanda, Spagna, Portogallo, Italia. È probabile che questi paesi
abbiano finora beneficiato di una presunzione di salvataggio (bail-out) da parte degli altri
paesi europei, in caso di difficoltà nel rimborso dei loro debiti. L’insolvenza della Grecia, in
assenza di un bail-out, creerebbe un precedente: a quel punto tutti saprebbero che uno stato
membro dell’area euro può fallire, e che gli altri stati non sono disposti a salvarlo. Si
creerebbe una situazione simile a quella successiva al crack della Lehman Brothers, quando i
mercati finanziari si resero conto che le autorità americane erano disposte a lasciare fallire
una grande banca, smentendo così la too-big-too-fail doctrine. L’effetto più prevedibile
sarebbe un aumento del costo del debito per i paesi più fragili, aggravando così ulteriormente
lo squilibrio dei loro conti pubblici.
Vi è infine un altro effetto, legato al tasso di cambio: la valuta di uno stato insolvente è
necessariamente destinata a perdere di valore, poiché gli investitori cercheranno di liquidare
rapidamente le posizioni in quella valuta. Qualche segnale si vede già in questi giorni: l’euro
quota sotto 1,42 sul dollaro, al minimo degli ultimi quattro mesi. Tuttavia questa non sembra
essere una motivazione molto rilevante nella fase attuale, in cui il problema per l’economia
europea sembra piuttosto essere un eccessivo valore esterno dell’euro.

96
Devono intervenire gli altri paesi?

La domanda diventa a questo punto se gli altri paesi dovrebbero intervenire per salvare la
Grecia e se lo faranno. La risposta è probabilmente sì a entrambe. Non farlo potrebbe avere
conseguenze imprevedibili, in termini di contagio sugli altri paesi dell’area e di perdita di
reputazione di alcuni debitori sovrani, tali da costringere i paesi dell’euro ad ancora maggiori
e più costosi interventi in futuro per salvare l’unione – analogamente a quanto è successo nel
caso della Lehman Brothers, il cui mancato salvataggio ha avuto come conseguenza un
generalizzato e più costoso intervento di bail-out di tutto il sistema finanziario mondiale. Di
più, se i paesi europei o la Bce intervengono in aiuto della Grecia, possono farlo negoziando
condizioni che la costringano ad attuare un processo di consolidamento fiscale, un intervento
che sarebbe impossibile se venisse semplicemente lasciata fallire. Naturalmente, questo lascia
in predicato il problema di come fare per evitare che simili eventi si ripetano in futuro e più in
generale se è sostenibile nel lungo periodo un’unione monetaria in cui i paesi membri
continuino a essere sostanzialmente sovrani sul piano fiscale. Ma questa è un’altra storia.

(1) Una curiosità: anche la Regione Lombardia è esposta verso la Grecia, per 115 milioni di
euro. Si veda Il Sole 24Ore del 10 dicembre 2009.

97
FINANZA

Reazioni sbagliate: il divieto di vendite allo


scoperto
09.02.10
Marco Pagano e Alessandro Beber

Dopo il fallimento di Lehman Brothers molti paesi hanno reagito alla crisi vietando la vendita
di titoli allo scoperto. L’evidenza empirica indica che nel migliore dei casi il divieto non ha
influito significativamente sui prezzi, ma ha danneggiato la liquidità del mercato. Un danno
particolarmente grave perché si è verificato quando la liquidità già scarseggiava e gli
investitori la cercavano disperatamente a causa del congelamento di molti mercati nel settore
del reddito fisso. Una lezione che le autorità di sorveglianza faranno bene a ricordare in
futuro.

Il 19 settembre 2008, subito dopo che il fallimento Lehman aveva scosso la fiducia nella
solidità delle banche e fatto crollare i prezzi delle loro azioni, la Securities and Exchange
Commission (Sec) impose il divieto di vendere allo scoperto le azioni delle banche e società
finanziarie, per sostenerne i prezzi. (1)
Fu rapidamente imitata dalla maggioranza degli altri paesi: alcuni vietarono solo le “naked
short sales”, in cui il venditore non prende a prestito le azioni per consegnarle al compratore
nel periodo di regolamento, altri vietarono anche le “covered short sales”, in cui il venditore si
protegge prendendo a prestito le azioni.
La figura 1 mostra la diffusione dei divieti durante la crisi in trenta paesi. La frazione di azioni
colpite dai divieti salì da 0 al 20 per cento nel solo mese di settembre, giunse oltre il 30 per
cento a ottobre, e tornò gradualmente al 20 per cento negli otto mesi successivi. Questi
frettolosi interventi, pur variando da paese a paese per intensità, ampiezza di applicazione e
durata, furono invariabilmente presentati come tesi a ripristinare l’ordinato funzionamento
dei mercati ed evitare cali ingiustificati dei prezzi delle azioni. Retrospettivamente, possiamo
dire che abbiano raggiunto l’obiettivo di sostenere il mercato? E che nel farlo non abbiano
inflitto “danni collaterali” al funzionamento dei mercati?
In realtà, precedenti studi economici teorici ed empirici avrebbero consigliato ben altra
cautela: che i divieti delle vendite allo scoperto fossero capaci di sostenere i prezzi azionari
era materia controversa, e vi era già evidenza che possono ridurre la liquidità del mercato.
Poiché durante la crisi la liquidità delle azioni si è molto ridotta, è importante capire se e in
che misura i divieti abbiano contribuito a tale riduzione.

98
Una buona idea?

Per poter rispondere a queste domande, in un recente lavoro abbiamo usato dati giornalieri
su 16.491 azioni di trenta paesi tra gennaio 2008 e giugno 2009 per analizzare gli effetti dei
divieti di vendite allo scoperto, sfruttando le differenze di intensità, ampiezza di applicazione
e durata di tali regimi. (2)
I nostri risultati indicano che solo negli Stati Uniti i divieti si sono accompagnati a rialzi o
minori cali dei prezzi di borsa. La figura 2 mostra che negli Stati Uniti la maggioranza delle
azioni colpite dal divieto ha avuto rendimenti maggiori di quelle esenti nei quattordici giorni
dopo l’applicazione del divieto (data 0 nella figura). Tuttavia, ciò potrebbe esser dovuto al
contemporaneo annuncio dei salvataggi bancari da parte del governo statunitense, il che
rende i dati americani poco adatti a identificare l’effetto del divieto di vendite allo scoperto
sui prezzi delle azioni. È molto più utile a questo scopo usare i dati degli altri paesi, in cui i
divieti non sono stati accompagnati da annunci di salvataggi bancari, oppure hanno colpito
anche azioni non bancarie, o addirittura non hanno colpito per nulla le azioni bancarie.
La figura 3 mostra che negli altri paesi che hanno imposto divieti sui soli titoli finanziari,
l’intervento non sembra aver sostenuto i prezzi dei titoli soggetti: la linea relativa al
rendimento delle azioni colpite dal divieto è molto vicina a quella delle azioni esenti e la
supera solo in circa metà dei sessanta giorni successivi al divieto. Questa conclusione è
confermata e rafforzata dall’analisi econometrica condotta sull’intero campione: il risultato
delle stime è che vietare le “naked short sales” non ha avuto effetti significativi
sull’andamento dei prezzi delle azioni, e vietare anche le “covered short sales” lo ha
addirittura peggiorato.
Inoltre, l’analisi empirica mostra che i divieti di vendite allo scoperto imposti durante la crisi
hanno finito per ridurre in modo considerevole la liquidità dei mercati. In particolare, hanno
condotto a un aumento significativo dei costi di transazione misurati dal “bid-ask spread”
(differenza percentuale tra il prezzo a cui si può acquistare un titolo e quello a cui lo si può
vendere). L’effetto negativo dei divieti sulla liquidità sono più pronunciati per le azioni
a bassa capitalizzazione e con rendimenti più variabili. Perciò, nei mercati in cui tali azioni
sono sovra-rappresentate, i divieti di vendite allo scoperto sono associati a maggiori aumenti
del “bid-ask spread”. Ciò è illustrato nella figura 4, che mostra una stima dell’effetto dei
divieti in vari paesi, separatamente per i divieti di “naked” e di “covered short sales”.
L’Italia spicca come il paese in cui il divieto di vendite allo scoperto si è accompagnato al
massimo peggioramento della liquidità, probabilmente a causa della preponderanza di
società piccole, rischiose e con basso flottante nel listino di Piazza Affari.
Un’altra possibile ragione del maggior deterioramento della liquidità nel caso italiano è
l’incertezza regolamentare indotta dalla condotta altalenante della Consob. Nel periodo della

99
crisi, in Italia si verifica il massimo numero di modifiche al regolamento delle vendite allo
scoperto tra tutti i paesi: il 23 settembre 2008 la Consob vieta le “naked short sales” sui soli
titoli finanziari e il 1° ottobre anche le “covered short sales” su questi titoli, il 10 ottobre
estende il divieto a tutti i titoli (in controtendenza con la decisione della Sec di eliminare il
divieto, pochi giorni prima), il 1° gennaio 2009 rimuove il divieto di “covered short sales” su
titoli non finanziari e il 1° giugno anche quello sui titoli finanziari, e infine il 31 luglio elimina
tutti i divieti (tranne per operazioni legate ad aumenti di capitale). Le continue modifiche
regolamentari possono aver creato un clima di incertezza nel mercato italiano, accrescendo il
danno inflitto dai divieti alla liquidità. Infatti, Robert Battalio e Paul Schultz mostrano che
proprio l’incertezza regolamentare ha influito in modo deleterio sulla liquidità nel mercato
delle opzioni negli Stati Uniti. (3)

Lezione imparata?

L’evidenza empirica indica che, nella maggioranza dei paesi, l’avventata reazione alla crisi da
parte delle autorità di sorveglianza dei mercati azionari – cioè l’imposizione di divieti delle
vendite allo scoperto nel migliore dei casi non ha influito significativamente sui prezzi, ma al
contempo ha danneggiato la liquidità del mercato ,–danno particolarmente grave perché si è
verificato quando la liquidità già scarseggiava e gli investitori la cercavano disperatamente a
causa del “congelamento” di molti mercati nel settore del reddito fisso.
A ciò va aggiunto che nella generale insipienza delle autorità di sorveglianza, alcune si sono
contraddistinte non solo per la velocità nell’imitare il fallace attivismo della Sec a fine 2008,
ma anche per la lentezza nell’imitarne la successiva resipiscenza. Mentre gli Stati Uniti e il
Canada hanno eliminato i divieti di vendite allo scoperto già l’8 ottobre 2008 e la Svizzera e la
Gran Bretagna nel gennaio 2009, invece l’Italia e i Paesi Bassi hanno atteso fino al giugno
2009, e altri paesi hanno eliminato i divieti ancora più tardi. Un piccolo drappello di paesi
vietavano ancora le “naked short sales” all’inizio del 2010, e l’Irlanda e la Corea del Sud
vietano tuttora le “covered short sales” di titoli finanziari. (4)
Forse il maggior beneficio di questo esperimento mondiale è stato di produrre una grande
quantità di dati sugli effetti delle vendite allo scoperto. La conclusione suggerita dalla loro
analisi è ben riassunta dalle parole pronunciate il 31 dicembre 2008 dall’allora presidente
della Sec, Christopher Cox: “Sapendo quello che sappiamo ora, non lo rifaremmo: i costi
sembrano superare i benefici”. Speriamo che le autorità di sorveglianza di tutto il mondo
ricordino questa lezione quando si troveranno a fronteggiare la prossima crisi.
(1) Per vendita allo scoperto (in inglese: “short sale”) si intende una vendita sul mercato di
titoli dei quali non ci si è preventivamente assicurata la provvista.
(2) Beber, Alessandro e Marco Pagano (2009), “Short-Selling Bans around the World: Evidence
from the 2007-09 Crisis,” Cepr Discussion Paper n. 7557.
(3) Battalio, Robert e Paul Schultz (2010), “Regulatory Uncertainty and Market Liquidity: The
100
2008 Short Sale Ban’s Impact on Equity Option Markets,” non pubblicato, January.
(4) Attualmente il Belgio, la Danimarca, il Lussemburgo e il Portogallo vietano ancora le
“naked short sales” di titoli finanziari, mentre il Giappone e la Spagna le vietano per tutti i
titoli. La Germania ha eliminato i divieti di “naked short sales” su titoli finanziari a fine
gennaio 2010 e l’Austria lo farà alla fine di febbraio.
Figura 1. Percentuale di azioni colpite dal divieto di vendite allo scoperto in un campione di
30 paesi (fonte: Beber e Pagano, 2009)

Figura 2. Extra-rendimento cumulativo mediano nei 14 giorni lavorativi dopo l’imposizione


del divieto di vendite allo scoperto negli Stati Uniti, per le azioni soggette e quelle esenti dal
divieto (fonte: Beber e Pagano, 2009)

101
Figura 3. Extra-rendimento cumulativo mediano nei 60 giorni lavorativi dopo l’imposizione
del divieto di vendite allo scoperto sulle azioni del settore finanziario, in tutti i paesi tranne
gli Stati Uniti, per le azioni soggette e quelle esenti dal divieto (fonte: Beber e Pagano, 2009)

Figura 4. Impatto stimato del divieto delle vendite allo scoperto sul bid-ask spread
percentuale, per paese (fonte: Beber and Pagano, 2009)

102
103
FAMIGLIA, LAVORO

Perché l’Italia ha bisogno di Womenomics


16.03.10
Daniela Del Boca

Tradizionalmente l’auspicio di una maggiore integrazione delle donne nel mondo del lavoro si
fonda su principi di equità. Ora alcuni saggi sostengono che la valorizzazione delle donne
risponde anche a criteri di efficienza economica. Un approccio particolarmente interessante
per l’Italia, dove la partecipazione femminile è assai scarsa, le donne difficilmente arrivano ai
vertici di aziende e istituzioni e anche la fertilità è bassa. Politiche e interventi che sostengano
le scelte di lavoro e di famiglia possono far bene anche al nostro Pil.

Nell’ultima settimana sono usciti due libri dal titolo molto simile: Rivoluzione
Womenomics e Womenomics. (1)
Di che cosa si tratta?

Donne ed economia

La womenomics è stata introdotta da Kathy Matsui, analista di Goldman Sachs, e ripresa


dall’Economist per definire la tesi che motiva l’esigenza di una maggior integrazione delle
donne nell’economia non in base solo aprincipi di equità, ma anche in base a principi
di efficienza economica.
Fino a qualche anno fa, la maggior parte degli interventi a favore di una maggiore
integrazione delle donne nel mondo del lavoro si appellava ai principi di equità. Integrare e
valorizzare le donne andava fatto perché era giusto. Ora, con questo e altri saggi e con
interventi recenti che ne condividono l’approccio, si cambia il punto di vista. (2) Una maggiore
integrazione e valorizzazione delle donne non risponde solo a principi di equità, ma risponde
anche a criteri di efficienza economica.
Lo studio di Matsui si concentrava soprattutto sull’economia giapponese, da tempo in declino
e caratterizzata da una partecipazione delle donne al lavoro e da una loro presenza nei ruoli
direttivi tra le più basse fra i paesi sviluppati. Il Giappone è molto simile all’Italia. In ambedue
i paesi troviamo insieme alla scarsa partecipazione femminile al lavoro, una bassa natalità e
un forte ristagno economico. L’Italia è, in Europa, tra i paesi con i risultati peggiori in termini
di differenziali di genere, in particolare con riferimento a lavoro e politica. Questo
evidenzierebbe, specialmente per il nostro paese, un potenziale di crescita che un maggiore e
migliore impiego delle capacità femminili consentirebbe di mettere a frutto. Chiudere il gap
tra presenza maschile e femminile nel mondo del lavoro contribuirebbe anche ad alleviare il
problema pressante della sostenibilità delle pensioni: l’aumento del numero degli occupati fra

104
le persone in età lavorativa, infatti, ridurrebbe il cosiddetto “rapporto di dipendenza”, ossia
quello fra pensionati e lavoratori.
Il caso Italia

Un approccio di questo tipo è particolarmente importante per l’Italia, soprattutto in una fase
in cui la posizione delle donne sembra peggiorare invece di migliorare. Secondo i dati Istat
2009, non solo il tasso di partecipazione femminile fermo nell’ultimo decennio al 46 per
cento è in lieve diminuzione, ma anche il tasso di disoccupazione scende, soprattutto nelle
regioni del Sud, un segnale di scoraggiamento e rinuncia.
Il Gender Gap Index 2009 vede l’Italia al settantaduesimo posto, in caduta rispetto alle
posizioni degli anni precedenti. Tra le donne, l’incidenza del precariato è cresciuta ed è oggi
di più del 20 per cento, il doppio dei maschi. I tassi di natalità restano bassissimi e in lieve
discesa negli ultimi due anni, mentre la povertà è in crescita tra le famiglie monoreddito: oggi
i monoreddito sono il 72 per cento del quintile più basso e il 10 per cento del quintile più
alto.
Infine, le donne italiane sono meno rappresentate politicamente e meno rappresentate ai
vertici delle istituzioni e delle carriere rispetto ad altri paesi. Secondo le statistiche della
Commissione europea, il nostro paese è ventinovesimo (su trentatre censiti) per numero di
donne presenti nei consigli d’amministrazione delle società quotate in borsa. La
composizione dei consigli d’amministrazione delle società del Mib30 mostra che su 466
cariche consiliari, soltanto undici sono ricoperte da donne.
Eppure, anche in Italia le donne mostrano in vario modo il loro desiderio di investire nel
lavoro. Come nella maggior parte dei paesi sviluppati, i tassi di istruzione femminili sono più
alti di quelli maschili, le ragazze escono con voti migliori e arrivano ai titoli di studio in un
tempo più breve. Escono anche prima dalla famiglia d’origine: almeno due-tre anni in media
prima dei coetanei maschi.
Se a metà degli anni Novanta le donne italiane intorno ai trent’anni che avevano già formato
una unione di coppia erano circa il 65 per cento, nel 2009 quel valore è sceso a un terzo, uno
dei più bassi d’Europa, mentre l’età media alla nascita ha superato 30 anni, una delle più alte
d’Europa.
Tutto ciò è segno dell’impegno e del desiderio delle donne di partecipare in modo attivo e
continuativo al mercato del lavoro, ma anche del caro prezzo che stanno pagando. Perché
allora le imprese non cercano di sfruttare di più questo capitale umano e questo potenziale di
lavoro altamente qualificato?
Non solo le ricerche macro mostrano una relazione tra occupazione femminile e crescita
economica, le ricerche micro mostrano che sono proprio i gruppi di lavoro “misti” a essere più
produttivi dei gruppi tutti maschili o tutti femminili. (3) Se nella maggior parte delle imprese,
ma – aggiungiamo noi – anche nella maggior parte delle istituzioni, i comitati esecutivi e i
consigli d’amministrazione sono formati esclusivamente da maschi fra i 50 e i 65 anni, il
105
reclutamento e le progressioni di carriera femminili seguono i criteri del genere dominante e
sono basati su quella cultura e quel linguaggio.
Tuttavia, aggiungiamo ancora noi, l’ingresso delle donne nel mondo del lavoro è stato anche
il risultato di una “mascolinizzazione” dei modelli femminili, mentre niente di analogo è
avvenuto nei modelli di carriera e negli stili di leadership maschili. Da un lato, le culture
aziendali sono rimaste caratterizzate da modelli, da stili e da tempi di lavoro “maschili”, anche
quando le imprese hanno cominciato a popolarsi di schiere di personale femminile. Dall’altro,
come mostrano i confronti internazionali, alla crescita della partecipazione al lavoro
femminile è corrisposta una scarsa o nulla crescita della partecipazione degli uomini al lavoro
domestico e di cura dei figli anche quando le donne lavorano con orari simili e in particolare
in Italia.
In questo quadro è importante cercare di rendere le politiche di conciliazione, part-time e
congedi di genitorialità, più gender-neutral. Servono cioè politiche o interventi che
sostengano le scelte di lavoro e di famiglia di uomini e donne. Nei paesi scandinavi e in
Francia, le politiche pubbliche sostengono uomini e donne che lavorano: i congedi non troppo
lunghi sono fruibili da ambedue i genitori, anche part time, sono stati introdotti servizi di
vario genere e tipologia per i genitori, è previsto il telelavoro da casa, sempre per ambedue i
genitori. E in quei paesi, la partecipazione femminile al mercato del lavoro e la fertilità sono
più alte che nel resto d’Europa.

(1) A. Wittenberg-Cox e A Maitland Rivoluzione Womenomics, Il Sole 24Ore, 2010 eClaire


Shipman eKatty KayWomenomics, Cairo 2010.
(2) Ferrera M. Il fattore D, Mondatori 2007
(3)Come mostrano i calcoli di una ricerca di Goldman Sachs citata in Rivoluzione
Womenomics, colmare il gap occupazionale di genere potrebbe produrre incrementi del Pil
del 13 per cento nell’Eurozona, del 16 per cento in Giappone e ben del 22 per cento in Italia.

106
INFORMAZIONE

Wikileaks nella rete della globalizzazione


10.12.10
Riccardo Puglisi

Il precedente dichiarato sono i Pentagon Papers degli anni Settanta. Ma se Wikileaks è figlio
della globalizzazione che gli permette di sopravvivere su server e siti sparsi per il mondo,
rischia anche di esserne vittima, poiché non esiste una Corte Suprema mondiale a cui
appellarsi. La vicenda suggerisce comunque alcune riflessioni: sulle conseguenze della
trasparenza sull’operato del governo, sul fatto che nel prossimo futuro c’è forse spazio per
Stati che vogliano offrirsi come paradisi informatici. E sulla tempistica giusta per diffondere
informazioni di questo tipo.

A detta di molti commentatori e del suo stesso portavoce Julian Assange, l’antenato più
illustre del sito Wikileaks e delle sue rivelazioni sulle comunicazioni riservate delle ambasciate
Usa è rappresentato senz’altro dai cosiddetti Pentagon Papers del 1971.
Si tratta di un lungo rapporto top secret sull’andamento della guerra in Vietnam,
commissionato dal ministro della Difesa Usa Robert McNamara e fatto filtrare alla stampa da
Daniel Ellsberg, già collaboratore dell’amministrazione, e poi divenuto forte oppositore della
guerra. Nel 1971 il New York Times comincia a pubblicare a puntate gli elementi salienti
contenuti nel rapporto, ma il governo statunitense ottiene un provvedimento del giudice
federale che impedisce al quotidiano di proseguirne la pubblicazione. Il Washington
Post riprende i papers, ma nel frattempo il New York Times si oppone al provvedimento e
porta la causa fino alla Corte Suprema, la quale dà ragione al giornale, in quanto protetto dal
primo emendamento della Costituzione sulla libertà di parola e di stampa.

Pentagon papers e Wikileaks: somiglianze e differenze

È utile raccontare per esteso la vicenda storica dei Pentagon Papers, poiché permette di capire
meglio il caso attuale di Wikileaks attraverso l’analisi di somiglianze e differenze.
Naturalmente, negli anni Settanta come oggi si comincia con una soffiata da parte di membri
dell’amministrazione Usa che hanno accesso a informazioni riservate, e oggi come allora
l’amministrazione non ha trovato di proprio gradimento la cosa. Non vi è alcun dubbio che la
rivelazione di segreti costituisca un reato federale, ma la questione fondamentale consiste nel
capire le prerogative dei media, New York Times allora e Wikileaks oggi, nel rivelare queste
informazioni al pubblico. Nel caso Wikileaks, alla reazione legittima e prevedibile del governo
Usa, si assommano poi le reazioni dei diversi governi coinvolti, che spaziano dalla
nonchalance russa alla scompostezza italiana.
La maggiore differenza tra i due casi sta nella dimensione internazionale del fenomeno, che è
molto più accentuata, se non essenziale, nel caso Wikileaks. Tanto per usare termini enfatici,
107
Wikileaks è figlio di una globalizzazione che gli permette di sopravvivere su server e siti di
notizie sparsi per il mondo. Ma rischia anche di esserne vittima, poiché non esiste (ancora?)
una Corte Suprema mondiale a cui appellarsi. Nel caso dei Pentagon Papers la pronuncia da
parte della Corte Suprema sul caso “New York Times vs. Usa” ribadiva in maniera netta il ruolo
cruciale della libera stampa nel garantire ai cittadini l’informazione sull’operato del governo
eletto, e la contrarietà a ogni forma di censura preventiva. Oggi invece, la procedura
attraverso cui Julian Assange potrà essere accusato e difendersi non è del tutto chiara, in
quanto subisce, almeno agli occhi dell’opinione pubblica, l’intricatezza del diritto
internazionale e dei trattati di estradizione.
A prescindere dagli aspetti giuridici della questione, il caso Wikileaks si caratterizza anche per
le sgradevoli pressioni dei governi, quello degli Stati Uniti in primis, su imprese private come
PayPal, Mastercard e Visa per impedire l’afflusso di finanziamenti alla fondazione che gestisce
il sito. Nel 1971 succedeva qualcosa di simile? A quanto mi risulta, no. Non sono un esperto
di questioni antitrust, ma le pressioni da parte dei governi hanno tutta l’aria
di comportamenti anti-concorrenziali. Ma quale giudice li può giudicare?

Tre riflessioni

Sempre sulla base del confronto tra le due vicende, si possono mettere insieme tre riflessioni
in ordine sparso.

Il fatto che la trasparenza sull’operato del governo sia un’ottima cosa non significa
necessariamente che non abbia conseguenze negative. Ciò vale anche quando si pensa al
rapporto tra cittadini e governo eletto come a un rapporto tra principale e dipendente, alla
Beppe Grillo. Un illuminante lavoro di Andrea Prat mostra i vantaggi per gli elettori di avere
informazioni complete sia sulle azioni dei politici, che sulle conseguenze di queste
azioni. (1) Tuttavia, se non è possibile sapere ancora qualcosa sulle conseguenze delle diverse
azioni poste in essere dai politici, ad esempio perché non si sono ancora realizzate, potrebbe
essere svantaggioso per gli elettori apprendere qualcosa sulle sole azioni. La ragione di ciò
sta nel fatto che i politici potrebbero agire in maniera conformista rispetto a quello che i
cittadini in media ritengano sia giusto fare, ignorando deliberatamente informazioni
importanti che vanno in direzione opposta. Ad esempio, si ipotizzi che i cittadini statunitensi
ritengano che il paese Y sarà sempre un alleato fedele. Allora, se soltanto le azioni dei
rappresentanti sono osservabili e non le conseguenze, i diplomatici USA potrebbero decidere
di non acquisire informazioni sui comportamenti sospetti di quel paese, così da adattarsi alla
valutazione iniziale dei propri cittadini. Con conseguenze eventualmente nefaste non ancora
realizzate.
Se di business vogliamo parlare, come è implicito nella relazione tra Wikileaks e le imprese
che offrono servizi di pagamento, allora nel prossimo futuro c’è forse spazio competitivo per

108
Stati che vogliano offrirsi come “paradisi informatici”, garantendo protezione a chi vuole usarli
come basi per custodire e diffondere informazioni di interesse per i cittadini del mondo. Gli
abusi sono certamente possibili, ma un paradiso informatico, alle orecchie di molti, ha un
suono decisamente più gradevole di un paradiso fiscale.
Date le loro finalità, è vero che Assange e collaboratori stanno scegliendo la tempistica
giusta per diffondere le informazioni in loro possesso? A oggi sono stati resi pubblici circa
1.200 cablogrammi su un totale di più di duecentomila, ovvero meno dell’un per cento.
I Pentagon Papers hanno colpito l’opinione pubblica con una botta secca, cioè poche
informazioni salienti sulle scelte strategiche del governo Usa in Vietnam. Nel caso di Wikileaks
vi sarà un’escalation, con la diffusione di notizie sempre più forti? La questione è molto seria:
i governi fanno in fretta ad arrabbiarsi quando vi è una fuga di notizie riservate, ma i lettori e
gli ascoltatori, ultimi beneficiari di Wikileaks, potrebbero essere presi dal tedio, e
gattopardescamente addormentarsi, di fronte a uno stillicidio di richiami da parte del proprio
salvatore.

(1) Andrea Prat, 2005, “The Wrong Kind of Transparency,” American Economic Review 95(3):
862-877. Disponibile qui

109
CONCORRENZA E MERCATI

E ora chi paga per l’acqua?


17.06.11
Carlo Scarpa

Il sì al secondo referendum sull’acqua dice che le tariffe idriche non devono remunerare il
capitale. E le imprese che gestiscono il servizio ora bloccano gli investimenti. Miliardi di
investimenti all’anno per molti anni sono a rischio. Nell’immediato, serve almeno una norma
interpretativa transitoria “salva-investimenti”. A regime, si deve scegliere se rinunciare agli
investimenti o aumentare le imposte per salvare il settore. L’alternativa è tradire un’altra volta
la volontà popolare.

Il secondo dei referendum sull’acqua ha deciso che il prezzo dell’acqua (più precisamente, la
tariffa per il servizio idrico integrato, che include fognatura e depurazione) non dovrà più
includere quella componente per la “remunerazione del capitale investito”, che la legge
prevedeva. La tariffa idrica non servirà più a generare gli odiati profitti.
La stupenda conseguenza di questa decisione è che da un giorno all’altro un paio di miliardi
di investimenti pronti a partire sono bloccati a tempo indefinito. Imprese quali Acea, Hera e
Iren, controllate da comuni ma quotate in borsa, hanno chiarito quanto era da tempo
piuttosto ovvio. Se non c’è una ragionevole garanzia della remunerazione degli investimenti,
gli amministratori di queste imprese rifiutano di investire. Come dar loro torto? Essi sono
responsabili del denaro dei loro azionisti, anche quelli privati, e sarebbero legalmente
responsabili di una cattiva gestione.

Due possibilità

Cosa può succedere, a questo punto? Fino all’altro giorno i piani di investimento previsti per il
settore ammontavano ad una media di due miliardi l’anno per i prossimi trenta anni. Questi
investimenti, richiesti dalle “autorità di ambito” pubbliche, sarebbero serviti a migliorare
acquedotti, fognature e impianti di depurazione. Per effettuarli serve ovviamente capitale
(debito o equity) e chi lo porta (i prestatori o gli azionisti) richiede una remunerazione. Che
avveniva, prima del referendum, con aumenti dei prezzi (che sono, come è noto, tra i più
bassi d’Europa).
Ora, una prima possibilità è che questi investimenti semplicemente non vengano effettuati.
D’altronde oltre l’80 per cento della popolazione è già servita da fognature, e gli utenti le cui
acque sono trattate da un depuratore sono circa il 70 per cento. Possiamo accontentarci? O
forse un paese civile meriterebbe di meglio? O forse il nostro ambiente meriterebbe maggiore
attenzione? Per non parlare poi delle perdite del nostro sistema di acquedotti, e della
necessità di effettuare manutenzioni… Effettivamente, l’idea che tutti gli investimenti

110
necessari non vengano effettuati repelle. Ma se vogliamo fare gli investimenti, chi paga?
Una seconda strada parte dalla constatazione che se non pagano i consumatori, pagheranno i
contribuenti. Questi investimenti potrebbero quindi essere remunerati tramite specifiche
risorse dei comuni. Si potrebbe riprodurre quanto avviene nel trasporto locale, ove parte dei
ricavi dei gestori del servizio deriva da trasferimenti pubblici. Oppure i comuni potrebbero
gestire e investire in prima persona (la soluzione preferita da molti “referendari”); ma anche le
risorse pubbliche hanno un costo, quanto meno il costo-opportunità misurabile con i minori
servizi che potranno erogare altrove poiché quelle risorse saranno impegnate in progetti
idrici. E anche se si cercassero nuove risorse (tramite strumenti finanziari specifici quali i city
bond) qualcuno dovrebbe pagarne gli interessi: ad ogni uscita per i comuni corrisponderà –
presto o tardi – un maggiore carico fiscale.
Siamo in un periodo di grave crisi fiscale dello stato che si ripercuote sulle amministrazioni
locali, alle quali sia le migrazioni, sia il difficile periodo dell’economia pongono richieste
sempre nuove. Quale maggioranza parlamentare, odierna o futura, voterà una legge che
conduca a riduzioni dei servizi pubblici o ad aumenti delle imposte locali?

Una terza via tra scilla e cariddi?

Credo che la risposta spetti a chi ci ha infilato in questo vicolo cieco, tra investimenti che
servono e risorse pubbliche che non ci sono. Molti dei promotori del referendum sono “duri e
puri”, entusiasti dell’intervento pubblico, e pronti a proporre senza riserve un aumento delle
imposte. Ma altri sono saliti sul carro del referendum per calcolo politico. Colpito Berlusconi,
ora guarderanno alla realtà dei fatti. Esercizio doveroso, ma anche pericoloso: non sarebbe la
prima volta che il Parlamento ha tranquillamente ignorato i risultati di un referendum. Ovvero:
una volta usato il referendum a fini politici “trasversali”, qualcuno si porrà il problema di come
evitarne le conseguenze dirette.
Già qualcuno comincia a dire che in realtà la legge enumerava criteri tassativi, così che il
referendum avrebbe abrogato l’obbligo di includere la remunerazione del capitale tra le
componenti della tariffa. Ma nessuno vieta che una autorità pubblica decida invece
autonomamente di prevederla comunque. Altri accennano invece a sostituire la
remunerazione del capitale con la remunerazione della “attività industriale”. Concetto
sfuggente, che consentirebbe di remunerare le imprese senza contraddire la forma. Ma è
questo che il popolo italiano intendeva dire quando si è espresso? Mi permetto di avere dubbi
in proposito.
Altri indicano che il problema vero è “il profitto”, ovvero la remunerazione del capitale di
rischio, e non l’interesse, che remunera il capitale a prestito. Peccato che il referendum abbia
abrogato il riferimento alla remunerazione di qualunque forma di capitale, e interpretare la
volontà popolare oltre il suo aspetto “letterale” sia un esercizio impossibile. Neppure la
remunerazione del capitale di prestito potrebbe essere messa in tariffa…
111
Qualcuno forse noterà che nessuno ha abrogato l’art. 117 del Testo unico degli enti locali
(DLgs 267/2000) che dice che uno dei criteri per il calcolo della tariffa di tutti i servizi
pubblici locali è “l’adeguatezza della remunerazione del capitale investito, coerente con le
prevalenti condizioni di mercato”. Finché nessuno abrogherà anche questa norma, immagino
che occorra applicarla. Ma – di nuovo – questo è coerente con quanto “il popolo” ha detto?
Infine, qualcuno cercherà di interpretare il termine “remunerazione” del capitale,
distinguendolo dal suo “costo”, e ricordando che tutti i costi devono essere coperti. Vero. Ma,
purtroppo, il costo dei fattori produttivi non è altro che la remunerazione dovuta a chi
fornisce tali fattori: il costo del lavoro è la remunerazione del lavoratore, e lo stesso vale per il
capitale. Parliamo di sinonimi: pensare che il referendum abbia cancellato la remunerazione
del capitale mantenendo la copertura del suo costo appare difficile da capire. Anche se il
problema sta nel manico: la norma parzialmente abrogata parla di remunerazione del capitale
da una parte, e dei costi come se fossero altro. Gli altri modi di pagare per gli investimenti
sarebbero sofismi, ma questo almeno una base fattuale la avrebbe. Ma se così fosse,
attenzione: il referendum sarebbe stato semplicemente inutile.

Ieri, oggi e domani

Sui contratti in essere, non dovrebbe succedere nulla. Sui contratti che stanno per essere
siglati, nelle more del nuovo regime, il Governo ha il dovere di dire alle imprese cosa succede;
e credo sia ragionevole pensare che in qualche modo si possa continuare con il vecchio
regime (invocando la copertura dei costi, o qualcos’altro) almeno per un periodo transitorio,
di durata limitata. Senza questo, gli investimenti si bloccheranno a tempo indefinito, e tutti
hanno da perdere da una situazione del genere.
Quanto alla soluzione “a regime”, questa pessima politica ci lascia con un paradosso. Se non
vogliamo tradire la volontà popolare, rischiamo di uccidere un settore vitale. Ma tradire la
volontà popolare (che piaccia o meno) non sarebbe peggio? Ai nostri sagaci politici l’ardua
sentenza.

112
INFRASTRUTTURE E TRASPORTI

Le mani sulla città: l’indegna storia del lido di


Venezia
27.06.11
Francesco Giavazzi

Per finanziare la costruzione a Venezia di un nuovo Palazzo del Cinema da cento milioni
(iniziali) è stata concepita una complessa operazione immobiliare con la dismissione di un
vecchio ospedale, anomalie e procedure poco trasparenti, nomina di un commissario
governativo e aste vinte dalle aziende che già costruiscono le dighe del Mose. Alla fine, in un
crescendo dei costi e cambi di progetto, verrà cementificata l’intera isola del Lido. Senza che
sia costruito alcun Palazzo del Cinema. Una storia esemplare di sprechi, ma con un probabile
utile record per il fondo privato che ha realizzato l’operazione.

Sette anni fa la Biennale, allora presieduta da Davide Croff, lanciò un concorso internazionale
per realizzare il nuovo Palazzo del Cinema al Lido di Venezia. Il progetto vincente sarebbe
costato circa cento milioni di euro. L’anno successivo (era il 2006) il Governo si impegnò a
cofinanziare l’opera nell’ambito delle celebrazioni dei 150 anni dell’Unità d’Italia con un
contributo di circa 40 milioni. La cifra non finanziata dal Governo sarebbe stata a carico del
Comune di Venezia e della Regione Veneto. A gestire tutta l’operazione venne chiamato non il
sindaco di Venezia, ma un commissario governativo con poteri inizialmente limitati al nuovo
palazzo del cinema e poi via via estesi a tutta l’isola del Lido.

Vecchi ospedali e nuovi fondi

Per reperire i fondi necessari, che Comune e Regione certo non avevano, si mise in piedi
un’operazione immobiliare. Con la regia del commissario, il Comune (a quel tempo retto dal
sindaco Massimo Cacciari) avrebbe acquistato dalla Ulss (Unità locale socio sanitaria) 12 del
Veneto (e quindi dalla Regione) il vecchio ospedale del Lido. Una variante del piano
regolatore, approvata in anni precedenti, già consentiva un cambio di destinazione di alcuni
edifici del complesso ospedaliero. Il Comune avrebbe esteso questo cambio di destinazione a
tutta l’area dell’ospedale e lo avrebbe venduto moltiplicandone il valore.
Così avvenne. Per arrivare alla vendita furono necessarie due gare delle quali la prima andò
deserta, mentre la seconda -indetta con tempi brevissimi, meno di tre mesi, in modo da
rendere pressoché impossibile la partecipazione di grandi gruppi immobiliari esteri – si
concluse con un prezzo di circa 72 milioni di euro. L’acquirente è il fondo immobiliare Real
Venice gestito dalla società EstCapital del quale sono azionisti alcune delle imprese che
stanno costruendo le dighe del Mose: Mantovani e Condotte. Del prezzo di vendita, 32 milioni

113
sarebbero andati alla Ulss, il resto al Comune, una cifra non lontana da quanto necessario per
contribuire alla costruzione del nuovo Palazzo del Cinema, sebbene ancora insufficiente.
In base a queste premesse venne fatto l’appalto per la costruzione del Palazzo del Cinema.

Errori procedurali

In questa semplice sequenza vi è già una serie di errori procedurali: (i) un commissario senza
che vi sia nessun motivo di emergenza; (ii) l’estensione dei poteri del commissario (nel
frattempo era stato nominato Vincenzo Spaziante, un funzionario della Protezione civile) cui
vengono accordati pieni poteri su tutto il Lido, anche in deroga alla normativa vigente e
nonostante l’opposizione del nuovo sindaco di Venezia Giorgio Orsoni; (iii) la distrazione
di risorse Ulss per fini non sanitari: l’ospedale è stato venduto dall’Ulss al Comune per 32
milioni e da questi rivenduto per 72 – un’incauta vendita da parte dell’Ulss: infatti il piano
regolatore già prevedeva, almeno in parte, il cambio di destinazione.

…e anomalie

Comunque, fatto l’appalto, iniziano i lavori per il nuovo Palazzo del Cinema e il commissario,
in attesa che il Comune incassi, comincia l’opera utilizzando i fondi destinati dallo Stato.
Rapidamente, ma non prima di aver speso 37 milioni, come dichiarato da Spaziante il 16
giugno scorso (nessuno sembra stupirsi di come sia stato possibile spendere 37 milioni di
euro per fare un buco, se pur grande) si scoprono, nel sottosuolo dell’area, dei rifiuti in
amianto. Evidentemente, le cose erano state fatte così in fretta che nessuno aveva pensato di
fare delle verifiche. I costi lievitano al di là dei 100 milioni inizialmente previsti. Poiché i soldi
nessuno li ha, il commissario abbandona il progetto. "Non c’è altra via, con la sola finanza
pubblica non saremmo riusciti ad arrivare alla fine, visti i costi aggiuntivi dovuti alla presenza
dell’amianto – spiega all’Ansa il ministro Galan – finora sono stati spesi 37 milioni e quello
che è stato realizzato con quei 37 milioni dovrà essere ricompreso nel nuovo progetto". Non
mi è ovvio come, dato che verrà costruita una sala cinematografica, invece di un grande
Palazzo del Cinema.Sacaim, l’impresa che si vede cancellare i lavori per il Palazzo del Cinema,
chiede al commissario un risarcimento di 50 milioni. Come scrive La Nuova Venezia l’impresa
“non ci sta a fare da capro espiatorio per il grande pasticcio del PalaCinema”.

Il progetto cambia ancora

Le disavventure del progetto non finiscono qui. La cubatura promessa al fondo di EstCapital
consentiva la costruzione di due grandi torri: nessuno aveva osservato che dietro all’ospedale
c’è un aeroporto, che con quelle torri avrebbe dovuto esser chiuso. Conclusione: le torri non
si possono fare. EstCapital chiede di essere compensata. Il commissario, interpretando in

114
modo un po’ lato i suoi poteri, acconsente alla costruzione di una darsena per imbarcazioni
turistiche, lungo una delle bocche di porto del Lido – proprio là dove si sta costruendo il
Mose, con evidenti economie di scala, essendo gli azionisti di EstCapital, e quindi le imprese
che presumibilmente costruiranno nell’area del vecchio ospedale, le stesse che stanno
costruendo il Mose. Una darsena per un migliaio di barche, la cui dimensione sarebbe analoga
all’isola della Giudecca. La rinegoziazione del contratto consente al commissario di alzare il
prezzo e ottenere una cifra più vicina a quella di cui il Comune avrebbe dovuto disporre se si
fosse costruito il Palazzo del Cinema. Dai 72 milioni iniziali il prezzo di vendita dell’area
dell’ospedale lievita a 81 milioni: alla Ulss sempre 32, al Comune 49.
Ma agli acquirenti la compensazione non basta: chiedono al commissario di poter acquistare
ed edificare anche il bel parco della Favorita, adiacente all’ospedale. Il commissario fissa un
prezzo, 20 milioni, che EstCapital ritiene troppo elevato: quell’asta va deserta (per ora).
Conclusione: l’isola del Lido verrà stravolta senza alcun motivo perché non si costruirà alcun
palazzo del cinema. Il Comune (se la Corte dei Conti non obietterà) incasserà 49 milioni, dai
quali occorre detrarre i 37 pagati dai contribuenti per fare il buco. Potrebbe andare a finire
che l’isola del Lido è stata cementificata per un incasso netto di soli 12 milioni – o con una
perdita netta di 38 milioni, se il giudice obbligherà il commissario a pagare alla Saicam il
risarcimento chiesto dall’impresa.

Quanto guadagna l’immobiliarista privato?

La cosa straordinaria è che queste cifre sono briciole rispetto all’utile presumibile del fondo
che ha fatto l’operazione immobiliare. Azzarderò un calcolo, premettendo che i numeri sono
solo stime, ma non credo lontanissime dal vero. I metri quadrati realizzabili nell’area
dell’ospedale sono, come detto, circa 70mila; il valore atteso della vendita è stimabile intorno
ai 7mila euro/mq, il che porta ad un valore lordo complessivo della vendita vicino a 500
milioni di euro; il costo di realizzazione è stimabile in 140 milioni di euro (2mila euro/mq), ai
quali si possono aggiungere oneri vari per 20 milioni di euro, per un totale di 160 milioni di
euro; il costo di acquisto dell’area, come detto, è stato 81 milioni di euro; il costo
complessivo dell’operazione è quindi 240 milioni di euro circa; l’utile atteso dell’ordine
di 260 milioni di euro, senza contare la darsena e i profitti delle imprese che costruiranno.
Signor sindaco, non sarebbe opportuno che Lei usasse i poteri autorizzativi in capo al
Comune per impedire questa operazione disastrosa per Venezia?

115
SCUOLA E UNIVERSITÀ

Studiare economia? Vale la pena


25.10.11
Tommaso Monacelli

Uno dei pochi aspetti positivi della crisi è che ci mette di fronte al fatto che la comprensione
dei problemi economici è complessa, essenziale e richiede una capacità di analisi profonda.
Lo studio dell’economia aiuta a sfatare luoghi comuni e pregiudizi, a vedere le conseguenze
inattese delle cose. È affascinante sia per chi ama le discipline umanistiche sia per chi
preferisce quelle matematico-quantitative. Serve anche per trovare un lavoro perché
l’elemento che definisce il mondo di oggi rispetto a 25 anni fa è la sua crescente complessità.
E l’economia ci insegna a capirla.

Che cosa sono e che cosa studiano le scienze economiche? Perché sono utili e, soprattutto,
interessanti? E perché studiare economia oggi è particolarmente importante? Per “economia”,
chiarisco subito, intendo le scienze economiche in senso stretto (nei paesi anglosassoni si
definisce “economics”), quindi distinte dallo studio delle discipline del management o della
finanza.

Le domande dell’economia

Cominciamo con una definizione. L’economia è “la scienza sociale che analizza la produzione,
distribuzione e consumo di beni e servizi”. Una definizione quasi vuota, e, sfortunatamente,
molto noiosa.
Proviamo allora in un altro modo. Partiamo cioè dai temi, dalle domande che gli economisti si
pongono. Eccone alcune. Perché se crollano i prezzi delle case in Florida, il mio vicino di casa
perde il lavoro? È vero che più immigrazione fa abbassare i salari dei lavori italiani? Perché
all’inizio del Novecento l’Argentina era più ricca degli Stati Uniti e oggi è vero il contrario?
Durante una crisi, è meglio un mercato del lavoro con ammortizzatori sociali come la cassa
integrazione, oppure uno in cui si perde il posto ma si ha un reddito minimo garantito? È
meglio un sistema pensionistico pubblico o privato? In tempo di crisi, perché non ci mettiamo
tutti d’accordo: le famiglie consumano di più e lavorano di più, le imprese assumono di più e
tutti stiamo meglio? Che cosa succede alla disoccupazione se si impone un salario minimo:
aumenta o diminuisce? È vero che una maggiore disuguaglianza del reddito ha prodotto la
crisi finanziaria attuale? La globalizzazione aumenta o diminuisce le disuguaglianze? Perché
se chiedessimo a ciascuno di finanziarli, non avremmo i parchi pubblici? Perché i paesi con
sistemi elettorali maggioritari crescono di più di quelli con sistemi proporzionali?
Se la noia ha lasciato spazio a qualcos’altro, chiedetevi: come si fa a rispondere in modo
soddisfacente a queste, come a tante altre domande simili? Non ne va anche della

116
nostra identità di cittadini, della nostra capacità di prendere decisioni, dall’acquistare un
mutuo a votare alle elezioni? In una parola: tutto questo non è forse importante?

Maggiore capacità di analisi

Nonostante le difficoltà, sono in tanti, forse troppi, a cimentarsi con le risposte. Soprattutto
oggi. La ragione è che l’economia è ovunque, dentro le nostre scelte e le nostre vite.
Chiunque crede di avere qualcosa da dire sui salari, la disoccupazione, l’inflazione, la povertà,
i profitti: quasi come sulla Nazionale di calcio.
Si dirà: ma anche la fisica è nella nostra vita di tutti i giorni. È la fisica che spiega, ad esempio,
perché ognuno di noi ha il peso che ha. Come mai, però, politici e giornalisti, sindacalisti e
professionisti, non discutono allo sfinimento nei talk show televisivi dell’ultima teoria sul
bosone di Higgs (la cosiddetta “particella di Dio” )? La risposta ovvia è che si tratta di materia
troppo difficile, da scienziati.
Bisogna dedurne quindi che rispondere alle domande precedenti sia facile? Prendiamone una:
è vero che un maggiore flusso di immigrati ruba il posto ai lavoratori di casa nostra, o
quantomeno ne riduce i salari?
Una valutazione superficiale concluderebbe: gli immigrati offrono lavoro a basso costo e
quindi permettono alle aziende di licenziare i nostri lavoratori risparmiando sui costi. Un
economista, invece, ragionerebbe così. Il lavoro degli immigrati (meno specializzato) e il
lavoro degli italiani (specializzato) sono due beni complementari. Vale a dire: sono come gli
scarponi da sci, uno non mi serve senza l’altro. Allo stesso modo, il lavoro specializzato serve
poco se non è accompagnato da quello meno specializzato. Quindi, paradossalmente, in
diversi settori in crisi dell’economia italiana, per esempio quelli tradizionali come il tessile,
molti lavoratori italiani specializzati (tecnici e ingegneri) avrebbero perso il posto di lavoro se
non avessimo avuto un aumento dei flussi di lavoratori immigrati. In breve: il lavoro degli
immigrati spesso salva quello dei lavoratori italiani e non il contrario (come tanta retorica
politica ha urlato per anni).
E i salari? In questo caso guardare ai dati, abitudine sconosciuta nel dibattito corrente, è
cruciale. Supponiamo pure che con un 1 per cento in più di immigrati, i salari dei lavoratori di
casa nostra scendano: ma scendono dello 0,01 per cento oppure del 5 per cento? La
differenza è grande. In proposito aiuta molto una disciplina, l’econometria, che altro non è
che la statistica applicata ai problemi economici. L’econometria serve proprio a misurare con
precisione le relazioni economiche.
L’esempio precedente era in due parti. La prima (quella sui beni complementari) era un
“modello”. La seconda (quella “econometrica”), riguardava la misurazione. Fare scienza
economica, in cui è necessario distinguere con chiarezza tra causa ed effetto in un dato
fenomeno, è sostanzialmente questo. Pensare in modo non ovvio al problema e poi
interrogare i dati.
117
Tra i pochi aspetti positivi della crisi di oggi ne metterei quindi uno: ci mette di fronte al fatto
che la comprensione dei problemi economici è complessa, ma essenziale, e richiede una
capacità di analisi più profonda. Le scienze economiche non ci dicono che cosa dobbiamo
pensare, bensì come pensare ai fatti dell’economia. Che sono ben più articolati, ricchi e
interessanti del mero guardare all’andamento delle borse, a come piazzare un prodotto sul
mercato o pensare a come gestire un’azienda.
Personalmente, ritengo che studiare economia sia come imparare il karate o una qualsiasi arte
di auto-difesa. Innanzitutto, è molto più coinvolgente e profonda di quanto si pensi di solito.
Ma soprattutto insegna la chiarezza di pensiero su una vasta gamma di domande e problemi
della nostra vita, un’abilità essenziale per difendersi dalla confusione spesso insopportabile di
opinioni illogiche e non documentate che animano il nostro dibattito pubblico. Lo studio
dell’economia aiuta a sfatare luoghi comuni e pregiudizi, a vedere le conseguenze inattese
delle cose. È affascinante sia per chi preferisce le discipline umanistiche sia per chi preferisce
le discipline matematico-quantitative.
E il lavoro? Serve studiare scienze economiche per “trovare un lavoro”? Moltissimo. Un
elemento che definisce il mondo di oggi, rispetto a venticinque anni fa, è la sua
crescente complessità. Le domande all’inizio dell’articolo lo dimostrano. Con questa
complessità si devono continuamente confrontare aziende, governi, istituzioni internazionali,
oltre ai singoli cittadini. Semplicemente, maggiore complessità richiede maggiore capacità di
analisi. Le scienze economiche formano proprio questa capacità, assicurando la qualità
essenziale per chi si presenta al primo colloquio di lavoro, di qualsiasi posto si tratti: avere
qualcosa da dire.

118
CONCORRENZA E MERCATI

Missione qualità per le professioni


02.12.11
Michele Pellizzari e Giovanni Pica

La regolamentazione dei servizi professionali si giustifica solo se garantisce un’elevata qualità


dei servizi. Obiettivo che non è stato raggiunto con le attuali normative. Ecco perché si
discute di liberalizzare le professioni. L’evidenza empirica dimostra che limitare il potere
degli operatori presenti sul mercato non ha un impatto negativo sulla qualità. Gli ordini, se
vogliono sopravvivere, devono tornare al loro compito originario. E servono misure per
stimolare la concorrenza e garantire una rigorosa selezione degli aspiranti professionisti.

Il ministro Severino alla sua prima audizione al Senato ha spiegato che il governo non ha in
preparazione alcun provvedimento per la cancellazione degli ordini professionali e che
“liberalizzare non vuole dire consentire a chiunque di fare l’avvocato o il professionista e non
deve voler dire abbassare la qualità dei servizi offerti”. È confortante che il ministro abbia
individuato, in tema di professioni, il nodo centrale: quello del rapporto tra regolamentazione
e qualità. In effetti, la regolamentazione dei servizi professionali si giustifica solo se
garantisce un’elevata qualità dei servizi. L’attuale normativa non sembra aver consentito il
raggiungimento di quest’obiettivo, minando la ragione d’essere degli ordini, assimilabili in
molti casi a corporazioni che offrono servizi agli associati e non, come dovrebbero,
trasparenza e garanzia di qualità ai consumatori.

Liberalizzazioni e qualità dei servizi professionali

Liberalizzare e limitare il potere degli operatori presenti sul mercato ha un impatto negativo
sulla qualità, come sostengono i difensori dello status quo? Non necessariamente. È infatti
plausibile pensare che il peso (economico, ma non solo) imposto dalle barriere
all’entrata nelle professioni liberali sia differente tra individui. Persone la cui famiglia è già
presente nella professione possono godere, per esempio, di un accesso privilegiato grazie
alla possibilità di ottenere informazioni, know-how e rete di clienti dai familiari. La presenza
di barriere all’ingresso, perciò, non necessariamente migliora la qualità media dei servizi
offerti sul mercato. L’effetto dipende infatti dalla correlazione tra la produttività individuale e
il costo imposto dalle barriere all’ingresso.
Per chiarire il concetto si consideri il seguente esempio: si supponga che gli individui che
sopportano i costi minori di ingresso nella professione (per concretezza si pensi ai familiari
dei professionisti) siano in media professionisti più capaci degli altri; in questo caso,
l’introduzione delle barriere all’ingresso fa sì che il mercato selezioni in maniera naturale gli
operatori migliori, perché le barriere ostacolano in modo particolare l’ingresso degli operatori

119
scarsamente produttivi. Al contrario, però, se i migliori professionisti sono coloro che
sopportano i costi maggiori di ingresso nella professione, la presenza (o l’innalzamento) delle
barriere scoraggia proprio costoro, riducendo la qualità media degli operatori presenti sul
mercato. Pertanto, da un punto di vista teorico, l’effetto di una liberalizzazione che riduce
i costi di ingresso ha un effetto ambiguo sulla produttività degli operatori di mercato e sulla
qualità dei servizi offerti. L’analisi empirica diventa quindi indispensabile per comprendere il
ruolo delle restrizioni all’ingresso nelle professioni liberali.

Effetti della riforma Bersani sulla qualità dei servizi legali

Per valutare gli effetti della riforma Bersani (decreto-legge n. 223 del 4 luglio 2006,
convertito dalla legge n. 248 del 4 agosto 2006) che ha abolito le tariffe minime, il divieto di
pubblicità e il patto di quota lite, abbiamo raccolto i dati relativi agli avvocati iscritti agli albi
della Regione Veneto dal 2000 al 2009. (1) Gli albi sono pubblici e contengono, tra le altre
informazioni, il nome, il cognome, l’età, la data di abilitazione e l’indirizzo dello studio di
ciascun iscritto. Ciò ha permesso di costruire un indice individuale che misura la frequenza
del cognome nell’albo (rispetto alla frequenza nella provincia).
I dati sono stati successivamente legati alle informazioni derivanti dai Centri per l’impiego
(elaborate dall’Osservatorio di Veneto Lavoro) che registrano lo status di ciascun lavoratore e
permettono, in particolare, di identificare i lavoratori dipendenti della Regione. Poiché è fatto
espresso divieto agli iscritti agli albi di essere impiegati come lavoratori dipendenti (tranne in
casi specifici facilmente individuabili), è stato possibile individuare coloro che lasciano la
professione identificando gli iscritti che appaiono, in un secondo momento, come lavoratori
dipendenti.
I risultati dell’analisi mostrano che la probabilità di uscire dalla professione è associata
negativamente alla frequenza del cognome nell’albo (relativamente alla frequenza del
cognome nella provincia). Tale associazione diventa tuttavia più tenue dopo la riforma del
2006, come mostra la figura 1a nella quale la linea relativa al periodo post riforma è più
piatta rispetto alla linea relativa al periodo che precede la riforma: ciò indica che avere un
cognome più frequente riduce di meno, dopo la riforma, la probabilità di uscita. La riforma ha
quindi ridotto l’impatto delle connessioni familiari sulla capacità degli individui di operare sul
mercato, favorendo così una migliore selezione tra gli avvocati.

120
Figura 1: Effetti della riforma Bersani

1a Connessioni familiari e flussi in uscita 1b Produttività e flussi in uscita dalla


dalla professione prima e dopo la riforma professione prima e dopo la riforma

L’evidenza indica che anche la composizione dei flussi in uscita dalla professione è stata
profondamente influenzata dalla riforma del 2006. Negli anni precedenti la riforma, a parità
di età, esperienza nella professione, residenza e frequenza del cognome, gli individui che
lasciavano la professione provenivano con maggiore probabilità dalle fasce elevate della
distribuzione (condizionata) del reddito. Dopo la riforma, accade esattamente il contrario
(figura 1b). Poiché il reddito – a parità di età, esperienza nella professione, residenza e
frequenza del cognome – può fornire una misura indiretta della qualità dei servizi
professionali, l’analisi empirica indica che dopo la riforma la selezione tra gli avvocati sembra
operare meglio: escono dalla professione soprattutto i professionisti meno preparati e
produttivi, mentre prima avveniva esattamente il contrario.
In conclusione, nel periodo precedente la riforma, la regolamentazione della professione
forense non raggiungeva lo scopo di proteggere i consumatori, risolvendo – o almeno
mitigando – il problema delle asimmetrie informative. Per avere successo nella professione
forense nel periodo che precede la riforma non era necessaria (solo) la competenza, ma anche
(soprattutto?) l’appartenenza a un network in grado di dare accesso, o in alternativa di
scalfire, le posizioni acquisite dagli operatori già presenti sul mercato. Nel caso del settore
dei servizi legali la deregolamentazione non ha dunque inciso negativamente sulla qualità.
Tutt’altro.

Liberalizzare? Adelante, con juicio

Per evitare equivoci, è bene sottolineare che, in generale, non si sta auspicando una completa
deregolamentazione dei servizi professionali. Ma gli ordini, se vogliono sopravvivere, devono
tornare al loro compito originario di custodi della qualità dei servizi prestati e non di custodi
del potere di mercato dei loro iscritti. La realizzazione di questo obiettivo deve poggiare su
misure (basate sulle caratteristiche specifiche di ciascun settore) che liberalizzino la condotta
121
dei professionisti che operano nel mercato, allo scopo di stimolare la concorrenza, abbinate a
una rigorosa selezione degli entranti basata unicamente sulla qualità. In che modo?
Un paio di esempi: innanzitutto ridurre i conflitti d’interesse negli esami di abilitazione. È
opportuno limitare il potere di intervento dei professionisti già presenti sul mercato nella
preparazione e nella correzione dei compiti.
Dove ciò non sia possibile, occorre rendere casuale l’identità dei correttori come già stabilito
nel 2004 per il settore dei servizi legali dall’allora ministro della Giustizia Roberto Castelli.
Inoltre, è necessario separare i ruoli di regolamentazione e rappresentanza in capo agli ordini,
in base al principio secondo il quale il regolamentato non può coincidere con il
regolamentatore.

(1) I dettagli dell’analisi sono riportati nello studio ‘Liberalizing Professional Services:
Evidence from Italian Lawyers’, IGIER Working Papers 372.

122
SCUOLA E UNIVERSITA’

Ricette per la crescita: più ingegneri e meno


filosofi
13.03.12
Nicola Persico
La mancanza di sbocchi lavorativi per i laureati italiani è un problema serio. Tuttavia, a
renderlo ancora più grave contribuiscono le scelte dei giovani, che spesso si orientano verso
le facoltà umanistiche tralasciando quelle scientifiche o manageriali. Dovremmo invece
seguire l’esempio di Singapore, un paese che non ha risorse naturali, ma che negli ultimi anni
è cresciuto più dell’Italia. Perché ha investito nel capitale umano dei suoi giovani e oggi
produce, in proporzione, il doppio dei nostri ingegneri e manager, un ottavo dei nostri
avvocati e un quarto dei nostri umanisti.

Il Corriere della Sera ha di recente pubblicato un articolo dal titolo “I laureati italiani? Sempre
più disoccupati”. (1) Ovviamente, la mancanza di sbocchi lavorativi in Italia è un serio
problema. Però credo che sia reso ancora più grave dalla scelta improvvida della facoltà
universitaria.

Il capitale umano di Singapore

Nel 2004, quando insegnavo alla University of Pennsylvania, mi capitò sotto mano il libretto
universitario più spettacolare che abbia mai visto: doppio major (laurea, diciamo) in economia
e matematica, tutti A (il voto più alto possibile), e percorso universitario finito in tre anni
invece di quattro. A chi apparteneva questo libretto? A Jasmin Lau, studentessa di Singapore,
una delle due arrivate quell’anno a University of Pennsylvania con una borsa di studio dello
Stato di Singapore.
L’aneddoto rivela un fenomeno più generale. Singapore sta facendo qualcosa di buono con i
suoi studenti. Infatti, se guardiamo i punteggi Pisa del 2009 gli studenti di Singapore
risultano secondi al mondo per capacità matematiche, mentre l’Italia è al trentaquattresimo
posto in classifica. (2) Singapore è anche una delle nazioni cresciute più velocemente negli
ultimi trenta anni, e infatti ha ampiamente scavalcato l’Italia per Pil pro-capite. (3) Le due
cose sono collegate: Singapore cresce non perché abbia risorse naturali–non ne ha–ma perché
ha capitale umano.

COSA STUDIANO A SINGAPORE?

E allora, se Singapore ha capito tutto dell’istruzione, perché non andare a guardare cosa
studiano i suoi studenti? Mi riferisco in particolare alla distribuzione degli studenti fra le

123
diverse discipline di studio perché una cosa che mi ha sempre colpito dell’Italia è quante
persone studiano discipline come Filosofia, che hanno scarsi sbocchi lavorativi.
Ho perciò costruito la seguente tabella incrociando i dati Istat sulla tipologia delle
lauree rilasciate nel 2004 da corsi di 4-6 anni, con i corrispondenti dati per
Singapore. (4) Naturalmente per riconciliare le differenti classificazioni ho dovuto fare alcune
scelte un po’ arbitrarie, ma nulla che infici il messaggio di fondo. La tabella riporta le
percentuali di laureati per disciplina. Si nota come i laureati italiani si concentrino su
discipline umanistiche, mentre quelli di Singapore si concentrano su discipline scientifiche e
manageriali.

Se prendiamo Singapore come un modello di una nazione che vive di capitale umano, che mi
sembra debba essere la vocazione dell’Italia, vediamo che non solo c’è una differenza di
livello di istruzione (vedi i punteggi Pisa), c’è anche una differenza di composizione della
coorte dei laureati. Non è dunque troppo sorprendente che un sistema come quello di
Singapore, che produce il doppio (in proporzione) dei nostri ingegneri e manager, un ottavo
dei nostri avvocati e un quarto dei nostri umanisti, sia più capace di innovare e di crescere.

Ma l’umanesimo paga?

Perché gli studenti italiani sono così sbilanciati a favore delle discipline umanistiche, non solo
rispetto a Singapore, ma anche rispetto a qualsiasi concezione realistica della composizione
della domanda di lavoro? È possibile che, in una maniera o nell’altra, tutti gli umanisti che
produciamo se la passino meglio degli scienziati?
Per saperne di più mi rivolgo di nuovo all’Istat. La tabella seguente riporta un altro dato sul
campione dei laureati italiani di cui alla tabella precedente: la percentuale dei laureati in ogni
disciplina che, a tre anni dalla laurea, avevano un lavoro di tipo continuativo, dipendente, e a

124
tempo indeterminato, il mitico “posto fisso” insomma.
La tabella evidenzia considerevoli discrepanze che vanno più o meno nella direzione che ci si
aspetterebbe. Eccetto per i geo-biologi, i laureati in tutte le discipline scientifiche hanno una
probabilità di impiego fisso superiore al 50 per cento, così come i laureati in discipline
economico/manageriali. Nessun’altra disciplina raggiunge la soglia del 50 per cento.

Metto subito le mani avanti: la tabella dà un quadro troppo netto. Gli architetti, per esempio,
non sono quasi tutti disoccupati: lavorano, e anche in modo continuativo; ma lo fanno
come lavoratori autonomi (50,9 percento di essi, secondo l’Istat)mentre la tabella riporta solo
i lavoratori dipendenti. Per questa ragione la tabella va interpretata con cautela. Ma,
nonostante questa limitazione, credo che la misura che ho scelto sia comunque correlata con
quello che intendo misurare, cioè la facilità per i laureati di trovare un buon lavoro
stabile. (5) Tenendo a mente la cautela interpretativa, la tabella ci dà comunque un
messaggio: le discipline umanistiche non pagano, quelle scientifico/manageriali sì. O, per
essere più precisi, è più facile trovare un lavoro dipendente a tempo indeterminato
laureandosi in scienze o economia, che non in discipline umanistiche.
In conclusione: è vero che è difficile trovare lavoro, però è vero anche che la popolazione
investe nel tipo di capitale umano meno vendibile sul mercato del lavoro.
(1) L’articolo, pubblicato sul Corriere della Sera del 6 marzo 2012, riprende un rapporto di
Almalaurea sul mercato del lavoro che è interessante e consiglio a tutti.
(2) Pisa, Programme for International Student Assessment, è un’indagine internazionale
promossa dall’Ocse che mira ad accertare con periodicità triennale conoscenze e capacità dei
quindicenni scolarizzati dei principali paesi industrializzati.
(3) Passando da un reddito pro capite pari al 40 per cento di quello Usa nel 1980, all’82 per
cento nel 2010. Il rapporto Usa/Italia nello stesso periodo è rimasto praticamente invariato.

125
(4) Si veda, rispettivamente, “I laureati e il mercato del lavoro: Inserimento professionale dei
laureati. Indagine 2007”, a cura di Francesca Brait e Massimo Strozza. Prospetto 1.2, pag. 16.
E Ang Seow Long, “Gender Differentials in Fields of Study among Graduates”, Statistics
Singapore Newsletter, September 2006.
(5) Misure che includono lavoro autonomo, occasionale, etc. sarebbero a mio giudizio meno
utili perché sospetto che alcuni (molti?) di quegli architetti che si dichiarano lavoratori
autonomi non abbiano abbastanza lavoro. Ecco perché ho preferito riportare la percentuale di
lavoratori dipendenti come misura della facilità di trovare lavoro.

126
SANITA’

Scegliere con saggezza fa bene alla salute


11.12.12
Nerina Dirindin e Tommaso Langiano
Si diffondono le iniziative per incoraggiare medici e cittadini a distinguere fra procedure
diagnostico-terapeutiche necessarie e non necessarie. L’obiettivo è migliorare la qualità
dell’assistenza sanitaria, con l’utilizzo di interventi in grado di produrre salute a basso costo.

Il numero di giugno di Consumer Reports Magazine – il più diffuso organo di informazione


dei consumatori americani – riportava un servizio intitolato “Five medical tests you don’t
need”. Si tratta di un’iniziativa congiunta di quella associazione di consumatori e dell’Abim
Foundation (American Board of Internal Medicine) finalizzata a incoraggiare i medici e i
cittadini a distinguere – fra le procedure diagnostico-terapeutiche – quelle necessarie da
quelle non necessarie. L’obiettivo è migliorare la qualità dell’assistenza sanitaria,
promuovendo l’utilizzo di interventi in grado di produrre salute a basso costo.
L’esperienza statunitense non è unica nel suo genere. Iniziative simili sono in corso in altri
paesi (ad esempio Regno Unito, Danimarca, Australia e altri) all’interno di programmi
denominati di “disinvestment” perché volti a limitare l’utilizzo di interventi relativamente
inefficaci, o con un rapporto rischio-beneficio sfavorevole, o rispetto ai quali esiste
un’alternativa ugualmente efficace ma meno costosa.
Si tratta, per ora, di iniziative di revisione e documentazione dell’efficacia, della sicurezza e
dei costi di alcune prestazioni sanitarie, alle quali non hanno ancora fatto seguito programmi
di promozione del trasferimento nella pratica clinica e nei comportamenti dei cittadini, ma
estremamente utili dal punto di vista metodologico per comprendere dove e come sarebbe
possibile migliorare l’assistenza senza aumentare la spesa.

Scegliere con saggezza

L’iniziativa “Five medical tests you don’t need” è sviluppata all’interno del programma
“Choosing wisely” (scegliere con saggezza), il quale si ispira al concetto di valore elaborato
nell’ambito della National quality strategy del Dipartimento della Salute del governo federale
Usa: le prestazioni caratterizzate da un alto valore sono quelle in grado di produrre i migliori
risultati in termini di salute, per gli individui e per la popolazione, ai costi più
bassi. (2) Interpretare la dimensione qualità e la dimensione costi in modo sinergico e
interdipendente, e non in modo indipendente o contrapposto, aiuta a differenziare le
prestazioni sanitarie che forniscono un significativo valore individuale e sociale, da quelle che
forniscono un valore solo marginale o nullo.
La campagna “Choosing wisely” parte dal riconoscimento di due importanti fattori di successo

127
di qualunque intervento di riduzione degli sprechi e di miglioramento della qualità
dell’assistenza:
– il coinvolgimento contestuale di professionisti e di cittadini,
– il metodo fortemente orientato all’operatività.

La collaborazione e la condivisione delle decisioni fra medici e utenti sono considerate le


condizioni essenziali per garantire che le scelte assistenziali:
– siano supportate da prove di efficacia;
– non siano causa di duplicazioni di accertamenti o procedure;
– siano libere da rischi per il paziente;
– siano realmente necessarie.

Il pragmatismo adottato ha permesso di definire una serie di informazioni, rivolte sia ai


pazienti sia ai medici, formulate in modo chiaro, semplice e al tempo stesso rigoroso, che
possono essere considerate il primo passo di un percorso orientato a ridurre gli sprechi.
La campagna coinvolge oltre trenta società scientifiche americane, a ciascuna delle quali è
stato chiesto di identificare cinque test diagnostici o procedure terapeutiche, di uso frequente
nella rispettiva disciplina, la cui necessità è considerata dubbia o discutibile.
Finora la campagna ha individuato 45 interventi probabilmente non necessari; rilevante è il
fatto che non si tratta di un mero elenco di prestazioni, ma di un insieme
di raccomandazioni argomentate, quali ad esempio “non è utile effettuare un
elettrocardiogramma ogni anno, né qualsiasi altro screening cardiologico, in pazienti a basso
rischio senza sintomi”; oppure, “non è utile prescrivere antibiotici per sinusiti acute di severità
media o moderata, salvo che i sintomi non permangano per sette o più giorni”.
Identificare i servizi caratterizzati da basso valore è considerato il primo passo di un percorso
orientato a ridurne l’utilizzo e, quindi, a evitare sprechi di risorse: obiettivo che può essere
perseguito attraverso una combinazione di incentivi finanziari e diffusione delle conoscenze.
Il coinvolgimento di Consumer reports consente di rendere anche gli utenti consapevoli del
differente valore correlato alle diverse procedure e di porli in condizione di interagire con
maggiore consapevolezza con il proprio medico. In questa iniziativa, il ruolo del consumatore
non è accessorio, ma di vero protagonista. Per almeno tre ragioni: perché qualsiasi
prestazione medica è gravata da un rischio, più o meno grande (è bene quindi evitare al
paziente rischi inutili); perché in qualunque sistema sanitario i costi ricadono comunque
sempre sul consumatore (attraverso le imposte, i contributi sociali, i premi assicurativi o le
spese dirette); perché solo il protagonismo del consumatore può garantire, insieme alla
responsabilizzazione del medico, la sostenibilità economica dei sistemi sanitari.
Un approccio che riconosce il diritto del consumatore a essere tutelato anche in termini di
disponibilità di informazioni chiare sull’utilità e sui costi delle diverse prestazioni sanitarie.

128
Un importante passo avanti rispetto al più tradizionale approccio al mero diritto alla
prestazione.
Che cosa possiamo imparare

L’esperienza di Choosing wisely offre importanti spunti di riflessione in materia di


sostenibilità della spesa sanitaria.
L’iniziativa mette in evidenza come gli interventi centrati prevalentemente sulla riduzione dei
prezzi di acquisto di beni e servizi (come i prezzi di riferimento, di cui alla spending review)
dovrebbero esser affiancati da programmi di coinvolgimento dei professionisti e dei cittadini
sul valore reale, in termini di salute, delle prestazioni erogabili. Si pensi ad esempio
all’elevatissimo costo di alcune terapie oncologiche innovative, di cui non è accertata
l’effettiva capacità di modificare la sopravvivenza e la qualità della vita dei pazienti trattati.
Lo stesso processo di definizione dei livelli essenziali di assistenza (attualmente in corso di
revisione) può essere agevolato e arricchito dalla progressiva differenziazione, come
l’esperienza della campagna Choosing wisely, fra prestazioni a elevato valore e prestazioni a
basso valore. In particolare, questo approccio suggerisce che è possibile utilizzare meglio le
risorse senza ridurre il livello effettivo di tutela della salute.
Infine, è legittimo domandarsi se il paradigma possa servire a rendere più equi ed efficaci i
meccanismi dicompartecipazione alla spesa sanitaria. La sua modulazione in relazione al
valore delle prestazioni, prevedendo una quota di compartecipazione più alta per le
prestazioni a più basso valore, è teoricamente possibile utilizzando un modello analogo a
quello del progetto Choosing wisely – come hanno proposto K.G. Volpp, G. Loe Wenstein e
D.A. Asch su Jama. (3)
Dopo tutto, è etico che la compartecipazione alla spesa per una risonanza magnetica sia
identica se effettuata per un mal di schiena, oppure per un sospetto neoplastico?
(1) http://www.consumerreports.org
(2) Vedi,
rispettivamente, http://choosingwisely.org e http://ahrq.qov/workingforquality/nqs/principle
s.htm
(3) K.G.Volpp, G. Loe Wenstein e D.A. Asch: Choosing wisely: low value services, utilization,
and patient cost sharing, Jama, 2012, 308: 1635

129
FINANZA

Se la casa cerca credito


26.03.13
Raffaele Lungarella e Francesco Vella
L’edilizia è spesso vista come un settore che può dare un forte contributo alla crescita del
paese. Ma oggi le stime dicono che ci sono circa 340mila nuove abitazioni invendute. Anche
perché le banche hanno praticamente bloccato la concessione di mutui. Gli strumenti per
cambiare la situazione.

Il mercato dell’invenduto

Da più parti si affida al settore dell’edilizia un ruolo primario per la crescita economica e
dell’occupazione nel nostro paese. Il sostegno al mercato dell’edilizia abitativa può rivelarsi
particolarmente efficace, considerando che vi sono impiegate principalmente risorse private e
che quello della casa è il problema la cui soluzione è una priorità per le famiglie.
Gli investimenti in questo segmento fanno segnare un andamento negativo dal 2007. Quello
che accadrà nel futuro prossimo è condizionato dall’eredità della situazione di mercato che si
è determinata in questi anni di crisi e dalle iniziative che si riuscirà ad attivare per superarla.
Il mercato della casa è caratterizzato dall’esistenza di un ampio stock di alloggi invenduti: è
da qui che può venire un contributo alla ripresa, in coerenza con l’obiettivo, ormai condiviso,
di contenere la trasformazione di terreno agricolo in suoli edificabili.
Non esistono, o almeno non sono a nostra conoscenza, stime convergenti sulla dimensione di
questo fenomeno. Per definirne l’ordine di grandezza possiamo prendere a riferimento la
serie storica dei permessi di costruire, distribuiti per soggetti che li hanno richiesti, prodotta
dall’Istat per gli anni dal 2003 al 2010. Il loro numero ha iniziato a ridursi dal 2006, con una
forte accelerazione dal 2008.
Per la stima del numero di alloggi invenduti, la fine della serie al 2010 non ha rilevanza,
considerato che i tempi medi di costruzione si aggirano sui ventiquattro mesi. Ai fini di una
stima di massima del numero di nuovi alloggi invenduti abbiamo ipotizzato che: 1) siano
destinati al mercato solo gli alloggi costruiti da imprese e cooperative; 2) il numero delle
abitazioni costruite costituisca una percentuale di quelle per le quali si è ottenuta la
concessione, oscillante tra il 100 per cento del 2003 e il 65 per cento del 2010, con un fattore
di riduzione del 5 per cento all’anno; 3) gli alloggi vengano offerti in vendita a partire dal
terzo anno successivo a quello della concessione; 4) per vendere l’intero stock di nuovi
alloggi offerti ogni anno a partire dal 2006 occorrano otto anni, con una vendita annua pari a
un ottavo.
Sotto queste ipotesi si può stimare un numero di abitazioni invendute intorno alle 340mila, di
cui 310mila di imprese e 30mila di cooperative. Ovviamente, modificando le ipotesi di
partenza, cambiano anche i risultati: facendo oscillare la percentuale del punto 2) tra 85 e 50
130
per cento, lo stock invenduto si riduce di 70 mila unità; invece, lo stock invenduto
aumenterebbe allungando il periodo di vendita. L’entità resterebbe comunque rilevante,
conseguenza della debolezza della domanda effettiva, riconducibile a un insieme di fattori,
tra i quali è prioritario quello dell’accesso al credito, come attestano i dati sull’andamento
negativo dei finanziamenti ipotecari.

In attesa dei bond casa

Gli istituti di credito hanno stretto i cordoni della borsa sia per le imprese di costruzione sia
per i privati che vogliono acquistare le abitazioni. Nei confronti delle prime non vogliono
aumentare la loro esposizione, ma manifestano anche una scarsa propensione a
concedere mutui alle famiglie il cui reddito è sufficientemente elevato per poter far fronte
senza problemi al servizio del debito. Una parte dei mutui per le famiglie si configura come
l’accollo all’acquirente di una quota di un finanziamento già concesso all’impresa costruttrice.
Anche in questi casi, che comportano un frazionamento del rischio, le banche sono restie a
concedere i mutui.
Ai comportamenti degli istituti di credito può essere mosso più di un rilievo, ma riflettono, da
un lato, una oggettiva difficoltà di provvista dei capitali di durata adeguata a quella
dell’ammortamento dei mutui e, dall’altro, il timore di appesantire i bilanci di ulteriori crediti
in sofferenza.
Ormai da alcuni mesi ministero del Sviluppo, Abi, Ance e Cassa depositi e prestiti hanno
annunciato iniziative per favorire le famiglie nell’acquisto delle abitazioni, come la emissione
di obbligazioni per raccogliere capitali da trasformare in mutui e la concessione, alle banche,
di garanzie aggiuntive alle ipoteche iscritte sugli immobili.
I risultati di quel lavoro tardano e non si sa quando arriveranno. Nel frattempo una spinta al
mercato potrebbe derivare dall’utilizzo di altri strumenti.

Quello che c’è

La Cassa depositi e prestiti, il ministero delle Infrastrutture, le fondazioni bancarie e altri


soggetti hanno costituito il Fondo investimenti per l’abitare (Fia), con una dotazione superiore
ai 2 miliardi di euro, per sostenere i programmi di edilizia residenziale sociale. Malgrado
un’intensa attività promozionale, non sono molte le iniziative locali che hanno richiesto di
utilizzare le risorse. La crisi ha inciso negativamente anche sull’edilizia residenziale sociale, le
cui prospettive sono legate alla generale ripresa del settore dell’edilizia abitativa.
Il Fia ha ancora risorse “libere” per almeno 1,5 miliardi di euro, difficilmente impiegabili nel
breve termine. Con questa cifra si potrebbe, ora, fare provvista per le banche vincolata alla
concessione di mutui fondiari. I piani di ammortamento potrebbero essere formulati in modo
tale da rendere il più celere possibile la restituzione del capitale.

131
Senza una garanzia accessoria all’ipoteca, la sola disponibilità della necessaria liquidità non è,
però, sufficiente a convincere le banche a concedere i mutui alle famiglie. Per la copertura del
rischio d’insolvenza degli acquirenti nel pagamento delle rate, si potrebbe ipotizzare un
migliore impiego del fondo istituito (comma 3bis articolo 13 legge 133/2008) per favorire
l’accesso al credito delle giovani coppie, attraverso il rilascio di garanzie
fideiussorie. (1) Attualmente quel fondo ha una dotazione di 50 milioni di euro e opera con
un moltiplicatore 10, cioè può garantire fino a 500 milioni di euro. A settembre dello scorso
anno le domande ammesse erano centoundici per un importo complessivo di circa 10 milioni
di euro, ma le operazioni garantite erano quarantacinque per 5 milioni di euro. La scarsa
operatività di questo strumento è dovuta anche a errori di progettazione della policy che
dovrebbe contribuire a realizzare e ai troppi vincoli operativi che rischiano di renderlo di fatto
inutilizzabile.
Incrementare la dotazione del fondo di un centinaio di milioni (non certo un grande sforzo
per le finanze pubbliche) consentendone l’accesso a tutti gli acquirenti e non solo alle giovani
coppie, e chiedere alle banche un raddoppio del moltiplicatore potrebbe accrescere la
produttività di risorse pubbliche per ora di fatto ibernate.

Le care, vecchie cartolizzazioni

Sono, queste, ipotesi non certo risolutive, ma con il merito di una fattibilità in tempi
relativamente brevi e di un positivo effetto “segnaletico” in un settore cruciale per la nostra
economia.
Occorre, però, anche guardare, con un po’ di coraggio, verso nuovi orizzonti nei quali il
pubblico può giocare un ruolo determinante. Sfidando una ostilità, legata più alla evocazione
narrativa che alla realtà dei fatti, Fannie Mae e Freddie Mac, le famose Government –
sponsored entities (Gse) statunitensi, possono rappresentare un buon punto di riferimento. Le
due agenzie governative, con il compito di acquistare mutui successivamente cartolarizzati,
portano la croce addosso come uno dei maggiori responsabili della crisi dei subprime per
aver favorito il credito facile e irresponsabile attraverso il noto meccanismo originate and
distribute. Ma, come testimoniano recenti ricerche, da un lato quel meccanismo si è messo in
moto quando le cartolarizzazioni si sono progressivamente spostate verso i private-label, e
cioè i veicoli privati creati dalle banche di investimento, dall’altro la situazione è degenerata
per successivi interventi regolamentari che hanno consentito alle Gse di derogare a una
disciplina che consentiva l’acquisto dei mutui secondo rigorosi criteri di selezione. (2) Adesso,
salvate dallo Stato, stanno restituendo i finanziamenti ricevuti con un anticipo sulla tabella
prevista.
Seguendo il vecchio detto, non buttiamo via il bambino con l’acqua sporca:
la securitization non è la madre di tutte le disgrazie, ma uno strumento che, correttamente
utilizzato, può rientrare a tutti gli effetti nella tastiera degli interventi pubblici per favorire
132
l’accesso ai mutui. E visto che da noi il problema non è tanto quello di favorire, ma di riaprire
un rubinetto ormai chiuso (v. C. Milani, Il mutuo, sempre più un miraggio, su
www.lavoce.info) che potrebbe avere positivi effetti a catena sulla agognata crescita, le care
vecchie cartolarizzazioni possono essere utili.

(1) Per un approfondimento vedi R. Lungarella, Le politiche statali e regionali per l’autonomia
abitativa dei giovani, in G. Cordella , S.E. Masi., Condizioni giovanili e nuovi rischi. Quali
politiche?, Carocci editore, Roma, 2012.
(2) A. Levitin, S.M. Wachter, Explaining the Housing Bubble, in The Georgetown Law Journal,
2012, p. 1183, disponibile anche su www.ssrn.com

133
LAVORO
PENSIONI

Per una vera staffetta tra generazioni


24.05.13
Tito Boeri e Vincenzo Galasso
La staffetta generazionale proposta dal Governo Letta si basa sull’idea che per dar lavoro ai
giovani sia necessario “toglierlo” agli anziani. Servirebbe invece una nuova distribuzione dei
trasferimenti pubblici e una riduzione del carico fiscale sul lavoro. I costi per le finanze dello
Stato.

Come funziona la staffetta tra lavoratori

In risposta alla crescente disoccupazione giovanile il governo Letta propone una staffetta
generazionale. Vediamo in cosa consiste. Ai lavoratori anziani, ovvero presumibilmente sopra
i 60 anni, è consentito di passare da un regime di impiego a tempo pieno a uno a tempo
parziale. I lavoratori che scelgono di usufruire di questa possibilità vedono dunque aumentare
il loro tempo libero, ma diminuire lo stipendio. Per le imprese, invece, si riducono le ore
lavorate, ma anche il monte salari. Quindi, queste imprese possono utilizzare il circa 40 per
cento del salario (tipicamente elevato per via degli anni di anzianità) risparmiato con il
lavoratore che ha scelto il part time per assumere un giovane, a tempo pieno o parziale. Tutti
contenti dunque?
In realtà, la staffetta generazionale lascia perplessi, per almeno due motivi.
In primo luogo, il meccanismo ricorda molto le politiche del mercato del lavoro in voga negli
anni Settanta e Ottanta, quando in tutta Europa alle imprese era consentito di mandare
in pensione anticipata i lavoratori “anziani” (spesso anche solo cinquantenni) per far posto ai
lavoratori giovani. Come ben sappiamo queste politiche si sono rivelate disastrose: la
disoccupazione è aumentata sia tra i giovani che tra le persone anziane, a causa del forte
incremento dei contributi previdenziali richiesto e del conseguente aumento del costo del
lavoro. In realtà, la staffetta generazionale di oggi non prevede il ricorso al pensionamento
anticipato, bensì al part time, e dunque non dovrebbe avere costi aggiuntivi per le casse dello
Stato. Tuttavia, si continua a far leva sull’idea che per dar lavoro ai giovani è necessario
“toglierlo” agli anziani.

134
Figura 1 – Tasso d’attività (55-64) e disoccupazione giovanile (15-24)

La figura qui sopra mostra che nei dati la sostituibilità tra lavoratori giovani e anziani proprio
non esiste. Sarebbe dunque utile abbandonare questa logica. L’aumento dell’occupazione
giovanile, così come quella degli anziani e delle donne (le tre categorie nelle quali l’Italia è in
fondo alla classifica), passa per una riduzione del dualismo sul mercato del lavoro, della
pressione fiscale sul lavoro e per un aumento della produttività.

Squilibrio di risorse

In secondo luogo, non è ovvio che la staffetta generazionale sia effettivamente a costo
zero per le finanze dello Stato. I lavoratori anziani propensi a usufruire del part time, oltre a
una riduzione dello stipendio, dovrebbero accettare anche una riduzione dei benefici
previdenziali, che risulterebbe automatica con il sistema contributivo in vigore. Se invece il
Governo deciderà, come sembra intenzionato a fare, di intervenire con contributivi
figurativi per coprire la differenza nei contributi previdenziali tra full time e part time –
mantenendo così inalterati i benefici previdenziali dei lavoratori anziani che optano per il part
time – bisognerà chiedersi il costo della staffetta e se le risorse non possano essere spese in
maniera più efficiente altrove.
Ormai da decenni, in Italia, lo squilibrio tra le risorse devolute agli anziani e quanto destinato
ai giovani è palese, così come è evidente uno squilibrio nei meccanismi di protezione, ad
esempio sul mercato del lavoro. Ben venga dunque una staffetta generazionale, ma che
modifichi la distribuzione dei trasferimenti pubblici, non dei posti di lavoro, e alleggerisca
il carico fiscale sul lavoro.
Si potrebbe iniziare riducendo in piccola parte i benefici previdenziali a chi detiene

135
una pensione di anzianità e ha beneficiato di tassi di rendimento elevati sui contributi versati.
Ad esempio, chi ha ottenuto rendimenti del 3 per cento all’anno ha goduto di un trattamento
nettamente migliore non solo di chi andrà in pensione col contributivo, ma anche di chi ha
avuto accesso alla sola pensione di vecchiaia col retributivo. Sarà come un riconoscimento
ritardato del regalo che hanno ricevuto in tutti questi anni. I risparmi potrebbero essere
utilizzati per finanziare crediti di imposta e sussidi condizionati all’impiego per i lavoratori a
basso reddito, aumentando le opportunità di impiego soprattutto per giovani e donne.

136
SPORT

Il financial fair play cambierà in peggio il


calcio europeo?
22.08.13
Fausto Panunzi

Secondo un esperto di economia dello sport, il financial fair play cambierà in modo radicale il
mondo del calcio, irrigidendo il divario tra piccoli e grandi club. Dobbiamo veramente
aspettarci campionati di calcio meno interessanti?

Il weekend che è alle porte segna l’inizio della stagione calcistica italiana, una settimana dopo
il calcio d’inizio in Premier League e nella Liga. Come sempre, per gli appassionati, ogni
campionato ha i suoi motivi d’interesse. In Italia ci si chiede chi contenderà alla Juventus lo
scudetto, in Inghilterra se Mourinho tornerà a far prevalere il Chelsea contro un Manchester
United senza sir Alex Ferguson sulla panchina dopo più di un quarto di secolo, in Germania
se Guardiola riuscirà a far ripetere al Bayern Monaco la stagione trionfale appena trascorsa.
Senza dimenticare che questa stagione si concluderà il 13 luglio 2014 con la finale dei
Mondiali organizzati in Brasile. Ma, secondo Stefan Szymanski, un ricercatore dell’University
of Michigan esperto di economia dello sport e coautore del libro Soccernomics, i campionati
di quest’anno vanno assaporati anche per un’altra ragione: il financial fair play imposto
dall’Uefa sta per cambiare radicalmente il mondo del calcio, probabilmente in peggio (1).

Una gestione più prudente

Come sappiamo, sotto la spinta del presidente Platini, l’Uefa ha approvato regole che
impongono ai club di legare le spese ai ricavi (2), in modo da ridurre i deficit di bilancio che
gran parte di essi hanno e che ne compromettono a volte la stessa esistenza. Secondo alcuni
esperti, tra cui Szymanski stesso, è probabile che questa regolamentazione riduca
la concorrenza tra club, cristallizzando la superiorità dei grandi club rispetto ai piccoli. Non
sarà più possibile per uno sceicco o per un altro magnate acquistare, ad esempio, il Cagliari e
investire abbastanza da farlo tornare alla gloria dei giorni di Gigi Riva e Manlio Scopigno.
Szymanski va oltre e vede il financial fair play come il primo passo del calcio europeo nella
direzione degli sport americani che, per mantenere l’equilibrio finanziario dei club, hanno
ristretto l’entrata, abolendo retrocessioni e promozioni e concedendo la possibilità di
ingresso a nuove squadre alle major leagues solo in presenza di bacini di utenza
sufficientemente ampi e remunerativi. Un significativo indizio di questa tendenza, a suo
avviso, è fornito dal fatto che ormai 6 dei 20 club di Premier League siano controllati da
investitori americani (senza dimenticare, in Italia, la Roma di James Pallotta).

137
Financial fair play…. Minore concorrenza sportiva?

Quanto fondati sono questi timori? Il financial fair play cambierà radicalmente e in peggio il
calcio europeo?
In primo luogo, l’efficacia del financial fair play va ancora valutata a fondo. Uno dei suoi punti
deboli, come ormai sembra chiaro dalle esperienze di PSG e Manchester City, è che il
proprietario di un club può alimentare in modo artificiale i ricavi mediante contratti di
sponsorizzazione estremamente generosi. Al posto di ripianare le perdite, si gonfiano le
entrate. Vedremo se questa strada verrà percorsa da altri club e come reagirà l’Uefa.
In secondo luogo, occorre ricordare che alcuni dei club di maggior successo a livello europeo
hanno sempre prestato grande attenzione ai bilanci. I due club che hanno disputato la finale
dell’ultima edizione della Champions League, il Bayern Monaco e il Borussia Dortmund, sono
due società che si sono distinte, negli ultimi anni, per la loro gestione economica oculata e
per i bilanci in ordine (anche se il Borussia, circa dieci anni fa, era praticamente sull’orlo del
fallimento). Ma va ricordato che anche il Manchester United generava profitti prima che i
fratelli Glazer (americani, peraltro) lo comprassero con un leveraged buyout, caricando cioè la
società stessa dei debiti contratti per il suo acquisto. E, al contrario, non sempre le politiche
di spese sconsiderate di ricchi investitori hanno portato a trionfi sul campo, come mostrano i
casi di Anzhi e Malaga. Successi sportivi e gestioni economiche oculate non sono dunque
incompatibili.
In terzo luogo, il sistema attuale garantisce una certa mobilità tra le diverse
categorie (quest’anno in Italia avremo per la prima volta in serie A il Sassuolo, ad esempio),
ma in misura molto minore ai vertici. Negli ultimi 10 anni solo quattro squadre hanno vinto la
Premier League e solo tre la Liga e la Serie A. L’ultima volta che una squadra “provinciale” ha
vinto lo scudetto in Italia risale ormai a quasi trenta anni fa, con l’Hellas Verona. Quasi
nessuno pensa che la Liga possa essere vinta quest’anno da un club diverso da Real Madrid e
Barcellona. I grandi club hanno sempre avuto maggiori probabilità di vincere, come è ovvio
che sia. Il nesso tra financial fair play e minore concorrenza sportiva non sembra quindi
scontato. Ancora più avventurosa è la previsione dell’”americanizzazione” del calcio europeo.
Passare a un sistema che, ad esempio, non prevede retrocessioni e con playoff alla fine della
stagione, è molto rischioso perché va contro la tradizione e le abitudini di gran parte dei tifosi
europei. Dubito che qualcuno voglia veramente testare la reazione dei tifosi a un simile
cambiamento.
Il calcio è sempre di più un fenomeno globale e proprio per questo attira nuovi investitori, a
volte provenienti da Paesi senza tradizione (il tormentone dell’estate calcistica è stato il
passaggio dell’Inter all’indonesiano Thohir), che portano metodi di gestione diversi da quelli
abituali e i cui effetti sono a volte difficili da prevedere. Il tempo dei presidenti “ricchi scemi” è

138
agli sgoccioli ed è giusto interrogarsi sull’evoluzione del calcio. Ma è difficile concludere che
regole che hanno l’obiettivo di condurre le società ad avere una gestione finanziaria più
oculata siano contro l’interesse di lungo periodo dei tifosi e del calcio stesso. Godiamoci
dunque questo lungo anno calcistico. Il Brasile è (quasi) alle porte.
(1) http://www.ft.com/intl/cms/s/0/a13db70c-05d7-11e3-8ed5-00144feab7de.html
(2) http://www.financialfairplay.co.uk/financial-fair-play-explained.php

139
SCUOLA E UNIVERSITA’

Le sirene che allontano dalla laurea


28.10.14
Maria De Paola, Francesca Gioia e Vincenzo Scoppa
I laureati italiani continuano a rimanere pochi, con alti tassi di abbandono e lunghi ritardi nel
completamento dell’università. Recenti studi mostrano che il successo accademico non
dipende solo dalle capacità cognitive, ma anche da altre abilità. E le università dovrebbero
tenerne conto.

Laureati: pochi e in ritardo

L’Italia rimane agli ultimi posti tra i paesi avanzati in termini di percentuale di persone
laureate. Il ritardo sembra per lo più dovuto alla dispersione universitaria, cioè a elevati tassi
di abbandono, inattività e lunghi ritardi nel completamento del percorso di studi. Per fare un
esempio, secondo l’indagine Ocse Education at a Glance del 2010, tra i laureati del 2007
(laurea specialistica o a ciclo unico) appena l’11 per cento ha ottenuto la laurea entro i 24
anni; il 40 per cento si laurea tra i 25 e i 26 anni; il 29 per cento tra i 27 e i 29 anni e ben il
20 per cento a 30 anni o oltre. Soltanto il 32,8 per cento degli studenti che si iscrivono
all’università porta a compimento il percorso di studio.
Le cause di questi fenomeni non sono molto chiare, parte delle difficoltà incontrate dagli
studenti italiani durante gli studi universitari sono probabilmente dovute a una debole
preparazione iniziale (il rendimento degli studenti delle scuole italiane appare piuttosto
scadente nei confronti internazionali). Altre cause potrebbero però essere interne
all’organizzazione del sistema universitario italiano contraddistinto da una forte carenza di
servizi di orientamento all’ingresso (che conducono a scelte sbagliate) e dalla totale assenza
di politiche di sostegno durante il percorso di studio.

L’impazienza fa male allo studio

Recenti evidenze mostrano che il successo accademico dipende non solo dalle capacità
cognitive degli individui, ma anche dalle loro abilità non cognitive, quali la motivazione, la
pazienza, la determinazione, eccetera. Tali abilità possono essere particolarmente importanti
quando gli individui sono impegnati in attività come lo studio che generano costi e benefici
che si manifestano in momenti temporali diversi: studiare richiede un impegno che comporta
costi immediati, mentre i benefici attesi in termini di maggiori remunerazioni e migliori
prospettive occupazionali saranno percepibili solo negli anni a venire.
Alcuni studi mostrano che gli individui più impazienti tendono a investire meno in istruzione
e a ottenere peggiori risultati in termini di performance scolastica e accademica. Ad esempio,
Maria De Paola e Francesca Gioia, considerando una coorte di studenti iscritti a una università

140
italiana per i quali si dispone di una misura di preferenze intertemporali (quanto gli individui
valutano l’utilità presente rispetto a quella futura), mostrano che gli studenti più “impazienti”
ottengono un numero minore di crediti, hanno una minore probabilità di laurearsi in tempo e
presentano un voto medio più basso agli esami. Inoltre, gli individui più impazienti hanno una
maggiore probabilità di abbandonare gli studi. Questa relazione è confermata anche per gli
studenti che al momento dell’immatricolazione dichiaravano di aspettarsi di concludere gli
studi in tempo.

L’abitudine a rimandare gli impegni

In aggiunta al problema dell’impazienza, molti individui mostrano un problema di “self-


control”, cioè una tendenza alla procrastinazione e una incapacità a rispettare gli impegni
temporali, probabilmente a causa di una percezione di costi e benefici immediati come molto
più rilevanti rispetto a quelli futuri. Così gli studenti sono indotti a procrastinare l’impegno
nello studio e ad allungare in maniera irrazionale la durata del percorso di studio.
In uno studio di Maria De Paola e Vincenzo Scoppa si cerca di mostrare le conseguenze che la
procrastinazione produce sui risultati conseguiti dagli studenti. Come misura di
procrastinazione si considera il comportamento degli studenti al momento in cui devono
completare l’iscrizione all’università. Nell’università considerata, gli studenti fanno domanda
di pre-immatricolazione per un corso di laurea e l’università, dopo aver valutato le domande,
comunica on-line gli studenti ammessi a ciascun corso. A partire dalla pubblicazione degli
esiti, gli studenti hanno sette giorni di tempo per completare la domanda di iscrizione (che
richiede tra l’altro il pagamento di una rata di 380 euro delle tasse universitarie). Come
misura di procrastinazione si considera il numero di giorni impiegati dagli studenti per
completare l’iscrizione. Questo comportamento può infatti rispecchiare la tendenza ad
adempiere un compito prontamente oppure a ritardarlo.
A parità di una serie di caratteristiche individuali (genere, voto di diploma, tipo di scuola
frequentata, età, punteggio al test di ingresso, istruzione dei genitori, reddito familiare,
comune di residenza, eccetera) si evidenzia una forte correlazione negativa tra la misura di
procrastinazione e la performance accademica degli studenti, misurata con il numero di
crediti conseguiti nel corso dei due anni successivi all’immatricolazione. Gli effetti sono
piuttosto rilevanti: gli studenti che aspettano gli ultimi giorni per completare
l’immatricolazione conseguono circa 12 crediti in meno rispetto a chi completa la procedura
nei primi giorni utili.
Questi risultati sono confermati quando si tiene conto del grado di motivazione degli studenti
(misurata attraverso le risposte date a un questionario) e quando si considerano solo gli
studenti che non avevano intenzione di iscriversi presso altre università (cioè coloro che
hanno dichiarato di non aver avuto alcun dubbio circa l’opportunità di iscriversi presso
l’università in questione).

141
I nostri studi confermano i risultati ottenuti da altri ricercatori e suggeriscono che
l’impazienza e la tendenza a rimandare al futuro gli impegni immediati può influenzare in
modo molto negativo la carriera degli studenti.
Le università dovrebbero cercare di strutturare il processo di apprendimento in modo da tener
conto delle difficoltà che spesso gli individui incontrano nel mettere in atto strategie ottimali.
Ad esempio, molte università americane, consapevoli delle conseguenze derivanti dalla
procrastinazione, suggeriscono nei loro siti internet tecniche per gestire questo aspetto
caratteriale. Nelle stesse università gli studenti sono indotti a frequentare i corsi, a svolgere
compiti settimanali e a preparare esami intermedi.
Il sistema universitario italiano, nella maggior parte dei casi, lascia invece gli studenti liberi di
pianificare la propria attività di studio. Gli studenti sono liberi di scegliere se e quando
frequentare le lezioni, se sostenere l’esame alla fine del corso o rimandarlo alle diverse
sessioni successive. Questo tipo di organizzazione può essere efficace per studenti molto
determinati, ma per molti altri potrebbe essere importante avere scadenze vincolanti e costi
immediatamente percepibili in caso di mancato rispetto delle stesse.

Riferimenti bibliografici
De Paola, Maria e Scoppa, Vincenzo, 2014. “Procrastination, Academic Success and the
Effectiveness of a Remedial Program”, IZA Discussion Papers 8021, Institute for the Study of
Labor (IZA).
De Paola, Maria e Francesca Gioia, 2013. “Impatience And Academic Performance. Less Effort
And Less Ambitious Goals”, Working Papers 201302, Università della Calabria, Dipartimento
di Economia, Statistica e Finanza (ex Dipartimento di Economia e Statistica).

142
IMMIGRAZIONE

Cosa c’è di sbagliato nei Centri per


l’immigrazione
08.01.14
Maurizio Ambrosini e Chiara Marchetti
Regna una discreta confusione nell’opinione pubblica sui compiti dei diversi centri destinati
alla prima accoglienza dei migranti. Ma è tutto il sistema a presentare gravi lacune.
Coabitazioni difficili in strutture costruite sulla base delle emergenze, troppo grandi e lontane
dai centri abitati.

Troppa confusione sui centri

Disordini, incidenti, notizie di trattamenti disumani rilanciano in maniera ricorrente le


polemiche sulle strutture pubbliche destinate ad accogliere o a trattenere richiedenti asilo,
rifugiati, immigrati non autorizzati destinati all’espulsione. Sull’argomento regna molta
confusione: le proteste sulle docce all’aperto di Lampedusa rilanciano la richiesta di chiudere
i centri di identificazione ed espulsione e magari di abolire la legge Bossi-Fini. Vorremmo
cercare di fare chiarezza sulle strutture che, con finalità anche molto diverse, accolgono
immigrati stranieri e sulle più vistose lacune del sistema.
Il sito del ministero dell’Interno rubrica sotto un generico “centri dell’immigrazione” tre tipi di
strutture: i centri di accoglienza (Cda), i centri di accoglienza richiedenti asilo (Cara) e i centri
di identificazione ed espulsione (Cie).
A prima vista, a queste espressioni sembra corrispondere una logica ordinatrice chiara e
lineare. Innanzitutto, centri dove accogliere i migranti irregolari non appena arrivano nel
territorio italiano; poi, una volta manifestata o meno l’intenzione di presentare domanda di
protezione internazionale, segue il passaggio in un luogo deputato all’accoglienza dei
richiedenti asilo oppure in un centro dove i migranti irregolari che non richiedono asilo
vengono trattenuti per il tempo necessario alla loro identificazione e al loro allontanamento
dall’Italia.
Ma in realtà il quadro non è così ben definito. Ed è per questo che si continuano a sentire e
leggere discorsi confusi, quando non del tutto erronei, sui centri attraverso cui vengono
gestiti gli arrivi e le permanenze delle persone che approdano sulle coste italiane: circa
35mila a metà ottobre 2013, ultimo dato disponibile.

Tutti i limiti del sistema

Per una descrizione dettagliata delle finalità dei diversi centri rimandiamo alla scheda che
affianca quest’articolo. Qui vogliamo invece richiamare, seppure per sommi capi, le diverse

143
lacune che il sistema dei centri presenta.
Lacune giuridiche: vi è scarsa chiarezza nella disciplina giuridica che norma l’istituzione e la
gestione dei diversi centri. Spesso disposizioni con una limitata portata temporale (per
esempio, la legge Puglia) diventano riferimento normativo per anni. In altri casi, queste lacune
lasciano spazio alla comparsa di centri o tendopoli che sorgono extra legem.
Sottodimensionamento delle strutture di accoglienza: tutti i dati, anche quelli degli anni meno
“caldi” (come 2010 e 2012) mostrano che l’attuale sistema è del tutto inadeguato sia dal
punto di vista quantitativo sia da quello qualitativo a far fronte agli arrivi di migranti e
rifugiati da paesi extra-UE. Difatti, fenomeni che si ripetono ciclicamente a seconda delle
stagioni e delle condizioni del mare continuano a essere definiti e trattati come “emergenze”.
Particolarmente gravi appaiono sia la scarsità di strutture formali e controllate dedicate alla
primissima accoglienza (Cpsa), sia la carenza di posti per i richiedenti protezione
internazionale. Diverse stime mostrano che tra il 30 e il 50 per cento dei richiedenti asilo non
riesce a vedersi garantito il diritto a un’effettiva accoglienza durante tutto il corso della
procedura.
Moltiplicazione delle strutture informali o eccezionali: in questo quadro non stupisce che a
seconda delle annate e delle “emergenze” si renda necessario provvedere all’accoglienza delle
persone arrivate predisponendo strutture transitorie, improvvisate o comunque non sostenute
da una chiara regolamentazione giuridica. Nel 2011, per esempio, prima della gestione della
Protezione civile e della cosiddetta emergenza Nord Africa (emblematica di per sé di un
sistema d’accoglienza parallelo ed eccezionale), erano sorti centri provvisori di diverso genere
a Mineo, Manduria, Trapani, Caltanisetta, Potenza, Santa Maria Capua Vetere. Di questi, solo il
Residence degli Aranci di Mineo (ex villaggio residenziale connesso a una base statunitense) è
diventato un vero e proprio Cara, con una capienza di diverse migliaia di persone.
Quest’anno, anche se più in sordina, si è ripetuta la stessa situazione: solo a titolo di
esempio, si segnala l’utilizzo di una struttura sportiva dell’università di Messina, il
“Palanebiolo”, dove le persone (tra cui dei minori) sono state prima accolte in una camerata
approntata dentro un campo da basket al chiuso e poi in una tendopoli montata nel campo da
baseball (esposta dunque a pioggia, freddo e, soprattutto, fango); oppure il centro Umberto I
a Siracusa, gestito da una cooperativa di pulizie e adibito a centro di prima accoglienza
attraverso un accordo informale con la prefettura.
Anche il Cie di Milo (Trapani) è stato costruito nel 2011 a seguito della situazione
“emergenziale”, nonostante nella città di Trapani esistesse già un Cie. La struttura del centro
di Milo è completamente inadeguata alla sua funzione, infatti è il Cie in cui avvengono più
fughe in assoluto (una media di circa sei fughe al giorno). Nonostante ciò, continua a essere
utilizzato. Non va dimenticato che la concentrazione di strutture di questo tipo in aree
economicamente depresse può risultare funzionale all’attrazione e distribuzione di risorse
pubbliche.
Inadeguatezza qualitativa delle strutture di accoglienza: le critiche alle condizioni di vita, di
144
igiene, di rispetto dei diritti fondamentali all’interno dei diversi centri arrivano ormai non solo
da Ong, enti di tutela, agenzie nazionali e internazionali, gruppi e associazioni di migranti,
ma anche dai massimi vertici europei, come nel caso delle reazioni dopo scandalo del video di
Rai2 sulla “disinfestazione” a Lampedusa. Più in generale, si può dire che un sistema pensato
su grandi centri, localizzati principalmente in prossimità dei luoghi degli sbarchi, si mostra da
anni inadeguato sotto diversi aspetti. Innanzitutto, si tratta in molti casi di luoghi che offrono
soluzioni alloggiative collettive per grandi numeri di persone: il Cda/Cara Sant’Anna in
provincia di Crotone, per esempio, ha una capienza di quasi 1.500 persone; il Cda/Cara di
Bari quasi mille, così come quello di Foggia. In queste strutture le persone sono spesso
accolte in container o comunque in grandi camerate. L’affollamento dei campi rende
necessario un trattamento per lo più collettivo e comunitario di diversi spazi e servizi,
facendo proliferare le situazioni “da megafono” e rendendo difficile (per non dire impossibile)
l’emersione e l’adeguata presa in carico di situazioni di vulnerabilità fisica o psicologica.
Inoltre la vicinanza – che in alcuni casi si manifesta in una stretta coabitazione – con i Cie
riverbera anche sui Cara lo stretto regime di sorveglianza e controllo che vige all’interno di
quei centri: basti pensare al Cara di Gradisca d’Isonzo, che si trova dietro lo stesso alto muro
che cinge il Cie, all’interno dell’ex Caserma Polonio.
Un altro aspetto fondamentale riguarda l’isolamento fisico di questi luoghi, che spesso si
trovano lontani dai centri abitati, lungo strade trafficate e pericolose, all’interno di ex basi
militari, ex basi aeroportuali (il Cda/Cara Sant’Anna) o ex caserme (il Cara di Gradisca
d’Isonzo). L’isolamento non è ovviamente un tratto casuale dei centri: rende difficile l’incontro
tra ospiti e comunità locali, che spesso guardano con sospetto – quando non con aperto
timore – a questi luoghi affollati alle porte delle loro città e che si sentono rassicurate dalla
segregazione delle persone al loro interno. Infatti anche se gli ospiti possono uscire dai Cara
nelle ore diurne, è chiaro che la lontananza fisica da qualsiasi paese, dai servizi e dai rapporti
sociali che lì potrebbero trovare, costringe di fatto le persone a trascorrere il proprio tempo
all’interno del centro. A questo dato si aggiunge la gestione il più possibile “autarchica” della
maggior parte dei Cara che si configurano come luoghi all’interno dei quali i richiedenti asilo
devono trovare risposta (più o meno adeguata) a tutti i loro bisogni, rendendo di fatto
superflua – per non dire pesantemente disincentivata – ogni loro uscita nel territorio:
all’interno dei centri trovano il servizio di mensa, di barberia, di lavanderia, oltre a piccoli
spacci che rappresentano i soli luoghi in cui possono spendere il pocket money di 2,50 euro
al giorno che viene loro consegnato (in una sorta di “chiavetta” che non permette altro uso
all’esterno del centro).
Il bando per 16mila posti per il Sistema di protezione per richiedenti asilo e rifugiati per il
triennio a venire lascia aperta qualche speranza di un mutamento, almeno parziale, degli
indirizzi politici rispetto all’accoglienza dei richiedenti protezione internazionale.

145
CONTI PUBBLICI, ISTITUZIONI E FEDERALISMO

Alti dirigenti pubblici, stipendi d’oro


17.01.14
Roberto Perotti e Filippo Teoldi
La Pubblica amministrazione è un’enorme piramide molto appuntita, dove i dirigenti
guadagnano moltissimo. Un solo esempio: i 300 direttori generali di province e regioni
guadagnano 150.000 Euro, quanto il capo di gabinetto degli Esteri britannico.
(“Questo articolo è stato modificato alle ore 12:43 del 18-01-2014, per correggere un errore
nella tabella, in cui erano stati invertite le remunerazioni di province e regioni”)

Nella puntata precedente abbiamo mostrato l’enorme disparità di trattamento tra i dirigenti
di quattro ministeri italiani e i loro omologhi britannici: i dirigenti di prima fascia italiani
guadagnano in media tra il 40 e il 90 percento in più dei loro omologhi britannici.

Una piramide molto appuntita

In questa puntata presentiamo dei dati più sistematici sulla struttura retributiva non solo dei
ministeri, ma di tutta la Pubblica Amministrazione italiana. Vedremo che essa è una enorme
piramide, con una base molto ampia e un vertice molto sottile con retribuzioni altissime. In
mezzo, sorprendentemente, c’è poco.
La Tabella 1 mostra le remunerazioni medie lorde dei “Dirigenti apicali”, degli “Altri dirigenti”,
e del “Personale non dirigente” nei vari comparti della Pubblica Amministrazione.(1) Tutti i
dati sono desunti dal “Conto annuale del Personale per il 2012”, appena prodotto dalla
Ragioneria Generale dello Stato. (2)
La definizione esatta di ogni categoria varia da comparto a comparto. Per esempio, nei
ministeri la categoria “Dirigenti apicali” include i capi dipartimento, i segretari generali, e i
dirigenti di I fascia; la categoria “Altri dirigenti” include i dirigenti di II fascia. Nelle regioni, la
due categorie includono rispettivamente segretari e direttori generali la prima, e dirigenti la
seconda. La definizione esatta di ogni categoria in ogni comparto è nella nota (3) in fondo
all’articolo.
Lasciamo al lettore dare un’occhiata ai dati. Per un semplice termine di paragone, si tenga
presente che il capo di gabinetto del Foreign Office e i quattro direttori generali nel ministero
dell’ economia britannici guadagnano circa 150.000 Euro; un direttore (equivalente a un
dirigente di I fascia) 110.000 Euro.
Ci limitiamo a mettere in evidenza alcuni numeri.

146
Alcuni esempi

– I ministeri della Salute e dello Sviluppo Economico hanno rispettivamente 125 e 165
dirigenti di II fascia, che guadagnano in media 110.000 euro, quanto i 17 dirigenti di I fascia
del ministero dell’ Economia britannico.
– I 300 dirigenti apicali di regioni e provincie guadagnano 150.000 euro, quanto uno dei
quattro direttori generali del ministero dell’ Economia e il capo di gabinetto del Ministero
degli esteri britannici.
– I 2.000 altri dirigenti delle regioni guadagnano 105.000 euro, quasi quanto uno dei 17
dirigenti di I fascia del ministero dell’ Economia britannico. I 1300 altri dirigenti delle
provincie guadagnano 100.000 euro. I 7.000 altri dirigenti dei comuni guadagnano poco
meno.
– I quasi 700 dirigenti apicali del Servizio Sanitario Nazionale guadagnano anch’essi ben più
di un dirigente di I fascia del ministero dell’ Economia britannico.
– Si noti l’ altissima remunerazione della carriera diplomatica. Peraltro, lo stipendio medio di
quasi 200.000 euro per i quasi 900 diplomatici è sottostimato per vari motivi tecnici
(torneremo sui diplomatici, quando riusciremo ad ottenere dati più precisi).
– Anche i quasi 10.000 magistrati hanno un’ altissima remunerazione media: 144.000
euro. La remunerazione media dell’Avvocatura di Stato è ancora più elevata.
– Le remunerazioni medie dei dirigenti delle autorità indipendenti sono anch’esse altissime.
Lo stesso vale per il loro personale non dirigente.
– Una nota folcloristica ma non troppo: i 12 dirigenti apicali dei cappellani militari di esercito
e polizia guadagnano quasi 100.000 euro. Ma anche i 74 altri dirigenti fra i cappellani militari
non se la passano male, con oltre 60.000 euro in media.
E’ bene ripetere che questi numeri sono solo delle medie. Essi nascondono a loro
volta notevoli variazioni anche all’interno di ogni singola categoria. Sono numerosissime le
posizioni con remunerazioni fra i 250.000 euro e i 350.000 euro. In una prossima puntata
metteremo in evidenza queste distinzioni all’interno della categoria dei dirigenti apicali.

I risparmi possibili

Questa struttura remunerativa è irragionevole. Qualsiasi programma di riduzione della spesa


pubblica per ridurre le tasse deve partire da un ripensamento radicale di queste
remunerazioni. Secondo le nostre stime, una riduzione media del 20 percento degli stipendi
dei dirigenti apicali e del 15 percento degli altri dirigenti, insieme a una riduzione sostanziale
degli stipendi dei manager pubblici e semi-pubblici (di cui ci occuperemo in una prossima

147
puntata), potrebbe fare risparmiare allo Stato fra gli 800 milioni e 1 miliardo. Tutto
questo senza licenziare né mettere sul lastrico nessuno.

Le retribuzioni nella Amministrazione Pubblica italiana

148
Scarica la tabella in Pdf

(*Roberto Perotti coordina un gruppo di lavoro della segreteria di Matteo Renzi sulla spesa
pubblica. Il contenuto di questo articolo rappresenta le idee personali di Roberto Perotti e non
è stato in alcun modo sottoposto alla visione né tantomeno al vaglio preventivo di alcun
componente del gruppo di lavoro o della segreteria).

(1) La tabella include sia i dirigenti a tempo indeterminato sia quelli a tempo indeterminato.
Le cifre se si escludono i dirigenti a tempo determinato sono molto simili. I numeri di
occupati in ogni categoria sono ottenuti dividendo le mensilità totali per 12.
(2) Ringraziamo il dott. Giovanni Crescenzi della Ragioneria Generale dello Stato per averci
fornito i dati originali e per preziose spiegazioni. Ringraziamo anche Nicola Bellé e Giorgia
Girosante dell’Università Bocconi per altri preziosi chiarimenti su questo dataset.
(3) Di seguito la definizione esatta di ogni categoria

Leggi la puntata precedente “Quei dirigenti ministeriali così numerosi e iperpagati” o vai allo
Speciale con tutte le altre puntate.

149
LAVORO

Il contratto a tutele crescenti è legge. È una


buona notizia?
24.02.15
Pietro Garibaldi

Il contratto a tutele crescenti è legge dello stato: dal 1° marzo regolerà le nuove assunzioni a
tempo indeterminato. Porterà davvero a un miglioramento del mercato del lavoro? Dipende
dalla sua capacità di ridurre la precarietà. E il risultato non è scontato. Gli effetti del decreto
Poletti.

Una buona notizia?

Il contratto a tutele crescenti è legge dello stato. Dal primo marzo le nuove assunzioni a
tempo indeterminato saranno regolate da un nuovo contratto. Per questo sito è certamente
una buona notizia. Con Tito Boeri abbiamo scritto su queste pagine il primo articolo a
sostegno dell’idea di un nuovo contratto a tempo indeterminato nel 2006.
Possiamo dire che si tratti di una buona riforma e di una buona notizia per il paese? Non
ancora. Perché la riforma porti davvero a un miglioramento del mercato del lavoro, abbiamo
bisogno di vedere i suoi effetti in termini di riduzione della precarietà. Il risultato non è
scontato. Primo, perché alcuni errori di architettura sono stati commessi. Secondo, perché la
riforma non è completa. Vediamo in dettaglio questi punti. Sulla riforma degli ammortizzatori
sociali e la nuova Aspi, torneremo nelle prossime settimane.

Il nuovo contratto

Dal primo marzo 2015 il contratto a tempo indeterminato per i nuovi assunti non sarà più
regolato dall’articolo 18 dello Statuto dei lavoratori. Il licenziamento per motivi economici
sarà regolato da un indennizzo monetario anche quando l’interruzione di lavoro avverrà
senza giusta causa. La reintegra resisterà soltanto per alcune fattispecie di licenziamenti
disciplinari. E ovviamente per i licenziamenti discriminatori. Se il lavoratore accetterà la
risoluzione immediata del contratto senza aspettare il giudizio di un tribunale, il risarcimento
– che partirà da un minimo di due mesi e crescerà di un mese di retribuzione all’anno – sarà
doppio.
Sui confini labili tra licenziamenti economici e disciplinari abbiamo già scritto. Il decreto di
venerdì ha risolto l’incertezza sui licenziamenti collettivi. L’indennità monetaria senza
reintegra si applicherà anche per i licenziamenti collettivi senza giusta causa. Nonostante il
parere contrario del Parlamento. Questo significa che nei prossimi anni – in caso di
licenziamento collettivo infondato – alcuni lavoratori avranno diritto alla reintegra e altri no.
150
In questa prima fase, il trattamento differenziato tra lavoratori assunti con le vecchie regole e
quelli assunti con le nuove sarà forse eccessivo, ma più avanti (quando quasi tutti i lavoratori
saranno regolati dal nuovo contratto) la differenza sui licenziamenti collettivi sparirà. Forse
un compromesso poteva essere quello di posticipare di qualche anno l’applicazione della
parte relativa ai licenziamenti collettivi. Ma il Governo ha voluto essere molto decisionista e ha
confermato in pieno le nuove regole, anche per i licenziamenti collettivi.

Come valutare il successo della riforma?

Dobbiamo ora aspettarci un aumento dell’occupazione? Su questo punto dobbiamo prestare


molta attenzione, anche perché il Governo sta facendo un po’ di confusione e un po’ di
propaganda.
Di fianco al contratto unico, la Legge di stabilità approvata a fine 2014 ha introdotto un
beneficio fiscale per le nuove assunzioni a tempo indeterminato. È una riduzione di tasse per
chi assume a tempo indeterminato che può raggiungere i 24mila euro su tre anni. Non è
chiaro se il beneficio si potrà estendere anche al 2016, ma indubbiamente la domanda di
lavoro nel 2015 dovrebbe aumentare. Essendo una riduzione del cuneo fiscale per le nuove
assunzioni, questo aspetto della Legge di stabilità deve essere visto con favore. Ma i suoi
effetti non devono essere confusi con quelli del contratto a tutele crescenti. Se nei prossimi
mesi osserveremo un aumento degli occupati, non dobbiamo pensare che sarà
necessariamente dovuto al nuovo contratto. Molto probabilmente sarà dovuto al beneficio
fiscale.
Che effetti dovremmo quindi aspettarci dal nuovo contratto? Rendendo più facili le
interruzioni di lavoro, implicherà ovviamente un aumento dei licenziamenti. Al tempo stesso,
renderà anche più facile assumere nuovi lavoratori. Il saldo netto è però ambiguo, come da
sempre evidenziato dagli studi empirici in materia.
Il vero obiettivo del contratto a tutele crescenti non va ricercato tanto nella riduzione della
disoccupazione, quanto piuttosto nella riduzione della precarietà. Questo significa che la
riforma avrà avuto successo se la quota di assunzioni a termine si ridurrà. Come dovrebbe
ridursi anche la quota di assunzioni sotto altre forme instabili (in particolare contratti a
progetto e false partite Iva).

GLI ERRORI DI ARCHITETTURA

Nella riforma vi sono peraltro degli errori di architettura. Il Governo nel maggio 2014
(attraverso il cosiddetto decreto Poletti) ha liberalizzato i contratti a termine. Pensiamo a cosa
succederà quando il beneficio fiscale della Legge di stabilità verrà meno. Non si tratta di
un’ipotesi accademica perché il rischio che il bonus fiscale non sia sostenibile per le nostre
finanze pubbliche è molto concreto. In Italia è ora possibile assumere a termine senza causa

151
scritta e rinnovare per cinque volte il contratto nell’arco di tre anni. Nulla vieterà a un’impresa
di offrire il nuovo contratto a tempo indeterminato a tutele crescenti soltanto dopo tre anni di
contratto a termine. Tenendo conto che nei primi due anni l’indennizzo è decisamente
modesto, in queste condizioni si rischia di rendere precario un nuovo assunto per almeno
cinque anni. Ciò significa che una volta esaurito il beneficio fiscale, la precarietà potrebbe
anche aumentare. Una situazione paradossale.
Il Governo avrebbe dovuto ridurre a due anni la durata massima del contratto a termine. Nei
provvedimenti emanati venerdì si è deciso di non toccare il decreto Poletti del 2014. Il
Governo ha mosso i primi (timidi) passi per la riduzione del precariato a partire dal
2016, come illustriamo più in dettaglio. I nuovi decreti dovranno comunque attendere il
parere del Parlamento: ci auguriamo che questa volta sia più efficace e riesca a convincere il
Governo a ridurre la durata massima dei contratti a termine.

152
FINANZA, GIUSTIZIA

Il punto debole della class action all’italiana


09.06.15
Marco Ventoruzzo

La Camera ha appena approvato la class action all’italiana. Il provvedimento ha luci e ombre.


Ma su un punto il Senato dovrà intervenire: decisioni fondamentali per il contenzioso non
possono essere appannaggio solo di chi ha promosso per primo il giudizio. Il rischio “corsa al
tribunale”.

La class action in versione italiana

I nostri deputati sono divisi su molte cose, ma hanno trovato perfetta concordanza sul
rafforzamento della cosiddetta azione di classe, ossia la possibilità per soggetti lesi da una
stessa condotta di agire in giudizio collettivamente per ottenere il risarcimento del danno.
Pochi giorni fa la Camera dei deputati ha infatti approvato all’unanimità un progetto di legge
volto a facilitare la tutela collettiva di consumatori, utenti e investitori nei confronti di imprese
e gestori di servizi pubblici.
Il plauso di pressoché tutte le parti politiche, dal Pd ai pentastellati, non sorprende: si tratta di
una legge ben vendibile all’opinione pubblica, evocando l’esigenza di dare armi più robuste
alle parti deboli. Anche le associazioni dei consumatori battono le mani, mentre Confindustria
è molto critica.
La class action è un istituto originario dei sistemi di common law e in particolare
paradigmatico degli Stati Uniti, come molti film ci hanno mostrato, che consente a una
moltitudine di soggetti di “unire le forze” e promuovere un giudizio unico nei confronti di
convenuti dalle spalle larghe come grandi società quotate. Può consentire
l’enforcement “privato” di regole che, altrimenti, rischierebbero di restare lettera morta e in
questo senso va salutato con soddisfazione.
Per funzionare necessita però di un habitat giuridico e socio-economico adeguato, ed è facile
alterare il delicato equilibrio tra protezione di diritti calpestati e azioni abusive che
espongono imprese e operatori a costi e rischi significativi.
Il provvedimento italiano, ora all’esame del Senato (disponibile qui), presenta luci e ombre.
Non è possibile svolgere qui un’analisi completa di un testo tanto complesso: i punti
meritevoli di discussione sono troppi. Mi limito a un solo aspetto tecnico, ma di grandissima
rilevanza, pressoché ignorato nel dibattito e che il Senato è in tempo a correggere.

Chi prende tutte le decisioni

153
L’attuale testo prevede che un soggetto che si ritiene danneggiato da una condotta illecita, ad
esempio un investitore che abbia acquistato strumenti finanziari sulla base di informazioni
false diffuse da una società quotata, possa promuovere l’azione collettiva. Il tribunale,
verificata la sussistenza dei presupposti necessari, stabilisce chi siano i possibili membri della
classe (ad esempio, tutti i risparmiatori che si trovano in una simile posizione avendo
acquistato i titoli in questione in un periodo definito) e che possono, entro un termine fissato
dal giudice, aderire alla classe.
Gli aderenti, tuttavia, non assumono la qualifica di “parte”, potendo e dovendo unicamente
indicare le ragioni a fondamento della propria pretesa: ne consegue che molte decisioni
fondamentali relative al contenzioso, dalla scelta degli avvocati alla strategia processuale,
saranno appannaggio di chi ha per primo promosso il giudizio.
Questa soluzione è sbagliata anche nella prospettiva di tutela di consumatori e risparmiatori,
e bene lo insegna l’esperienza statunitense. Un simile approccio, infatti, determina una “corsa
al tribunale” nella quale chi prima si muove, indipendentemente dalla propria posizione,
afferra il timone del contenzioso. Occorrerebbe, come da tempo previsto negli Stati Uniti, un
meccanismo per l’identificazione di un leading plaintiff (ricorrente leader) che offra garanzie
di serietà e ben rappresenti gli aderenti. Il rischio, tornando al nostro esempio, è che
piccolissimi risparmiatori o consumatori, titolari di interessi molto limitati, possano agire per
centinaia di soggetti con posizioni ben più rilevanti. È necessario un sistema di selezione del
rappresentante più adatto, ad esempio in base al valore del risarcimento che gli spetterebbe o
tramite voto ed elezione tra gli aderenti. In questo modo, nell’ipotesi di frode finanziaria
commessa da un emittente, la condotta processuale sarebbe guidata da investitori
istituzionali titolari di interessi significativi, ma che offrono maggiori garanzie di
rappresentatività, professionalità e capacità di gestire contenziosi complessi. Il tema è
delicato anche pensando che queste azioni potrebbero essere promosse su impulso di
avvocati i cui interessi non sono sempre allineati con quelli della maggioranza dei
danneggiati.

Se interviene la transazione

I problemi di questa impostazione emergono anche quando la “parte attrice”, ossia chi ha
promosso il giudizio, stipula un accordo transattivo con il convenuto e abbandona il
contenzioso. La proposta prevede che gli aderenti possano continuare la causa collettiva
entro un termine: ma come si decide chi assume il ruolo di “parte”? Ancora il primo arrivato?
Meglio sarebbe che un leading plaintiff selezionato con criteri razionali ed equi possa
stipulare una transazione vincolante per tutti, assicurando parità di trattamento ai
danneggiati, soggetta ad approvazione da parte della maggioranza degli aderenti, salvo
naturalmente casi patologici di conflitto di interessi e frode.
Più in generale, sarebbe preferibile prevedere una chiara alternativa tra adesione all’azione di
154
classe e azione individuale, di modo che la prima escluda la seconda. Sarebbe importante
anche per consentire al convenuto di stimare il possibile risarcimento dovuto e favorire
accordi transattivi efficienti ed equi per tutte le parti.
Il testo originariamente proposto dai firmatari del disegno di legge Gitti, Ermini e Verini
prevedeva meccanismi migliori su questi punti, che però si sono persi nelle negoziazioni
parlamentari. Speriamo che il Senato li recuperi.

155
SCUOLA E UNIVERSITÀ

Da dove inizia la “Buona scuola”


10.07.15
Daniele Checchi

La “Buona scuola” è legge di stato. Almeno sulla carta, ci sono tutte le premesse per un salto
di qualità. I punti salienti sono l’inversione di tendenza sulla spesa, dopo la stagione dei tagli,
il rafforzamento delle prerogative dei dirigenti e una maggiore possibilità di progettazione.

I principi della riforma

Il disegno di legge n.1934 (più noto come “Buona scuola”) appena approvato definitivamente
dalla Camera in forma di unico articolo, in apertura enuncia i principi ispiratori, tutti
pienamente condivisibili: “innalzare i livelli di istruzione e le competenze delle studentesse e
degli studenti, […] per contrastare le diseguaglianze socio-culturali e territoriali, per
prevenire e recuperare l’abbandono e la dispersione scolastica, […] per realizzare una scuola
aperta, quale laboratorio permanente di ricerca, sperimentazione e innovazione didattica, di
partecipazione e di educazione alla cittadinanza attiva […]”.
Il modello organizzativo a cui si ispira la riforma è quello della attuazione della autonomia
scolastica, che significa capacità di adattare l’offerta formativa al contesto locale alla luce
delle costanti trasformazioni della realtà esterna. Non stupisce quindi che una più ampia
autonomia richieda una maggiore e migliore capacità di direzione da parte dei dirigenti
scolastici, il cui ruolo viene rafforzato.
I cambiamenti più importanti introdotti dalla legge sono almeno tre: inversione di tendenza
nella spesa pubblica in istruzione, rafforzamento delle prerogative manageriali dei dirigenti
scolastici, miglioramento delle possibilità di progettazione.

La spesa in istruzione

La legge sancisce un’inversione di tendenza nella spesa pubblica in istruzione, in cui l’Italia
risulta essere uno dei paesi europei con il più basso livello di risorse investite in rapporto sia
al prodotto interno lordo, sia come quota finalizzata sul totale della spesa pubblica (l’8 per
cento della spesa pubblica, secondo il recente rapporto Oecd Government at a glance, seguiti
solo dalla Grecia al 7,8 per cento). Questo viene attuato attraverso un innalzamento della
spesa dell’ordine di un miliardo e mezzo di euro all’avvio (e di tre miliardi e mezzo a regime)
collegato all’immissione graduale in ruolo di circa 100mila nuovi insegnanti, oltre al
rimpiazzo del turnover legato ai successivi pensionamenti.
L’aumento della spesa è indubbiamente un fatto positivo, che differenzia il governo di
centro-sinistra dalle politiche dei tagli dei passati governi di centro-destra. E non stupisce

156
altresì che questa maggior spesa si concentri sull’assunzione di personale, dal momento che
l’istruzione è uno dei settori produttivi a più alta intensità di spesa in personale. Ma non solo:
vengono stanziati fondi per incentivare il merito per gli insegnanti (200 milioni di euro annui),
per l’incremento del fondo di funzionamento (123 milioni di euro nel 2015), per sostenere i
consumi culturali degli insegnanti (con una card annuale di 500 euro per insegnante, pari a
circa 400 milioni di euro), per incentivare i dirigenti (35 milioni a regime dal 2016) e per
l’edilizia scolastica (oltre allo stanziamento per l’arricchimento dell’offerta formativa,
incrementato in giugno di 40 milioni).
Quello che ha invece sollevato più di una perplessità sono i criteri di scelta del nuovo
personale, di necessità imposti dalla spada di Damocle di migliaia di potenziali ricorsi dopo il
pronunciamento della Corta di giustizia europea.
In un mondo ideale, sarebbe stato auspicabile una immissione graduale diluita nell’arco di
cinque-dieci anni, con filtri basati sulle capacità accertate dei candidati e sulle esigenze
didattiche delle scuole. Dove sarebbe quindi la domanda di competenze a regolare l’ingresso
in ruolo e non l’offerta residua delle graduatorie a esaurimento. I meccanismi selettivi degli
insegnanti finora in vigore mettevano un filtro (parziale) all’ingresso attraverso l’abilitazione,
ma premiavano sostanzialmente l’anzianità d’iscrizione in lista di attesa. Il combinato dei due
meccanismi applicati in sequenza nel tempo non porta necessariamente alla selezione dei
candidati migliori, tanto più ora quando ci si prefigge di svuotare queste liste di attesa (in
gergo indicate come Gae – graduatorie ad esaurimento). Il rischio (se non la certezza) è che
questa operazione di assunzione immediata di un numero così elevato di docenti si trasformi
nell’ennesima sanatoria ope legis che saturerà il fabbisogno di organico per il prossimo
decennio, lasciando scoperte le cattedre le cui competenze sono fortemente richieste (per
esempio tradizionalmente quelle di matematica, ma anche di economia o di informatica).

Prerogative dei dirigenti

Sul rafforzamento delle prerogative manageriali dei dirigenti scolastici si sono maggiormente
concentrate le proteste sindacali degli insegnanti. Secondo la nuova legge il dirigente avrà a
disposizione fondi per premiare l’impegno scolastico dei docenti (con attenzione alle scuole a
maggior rischio educativo), potrà scegliersi un gruppo di insegnanti “collaboratori” nella
funzione di governo della scuola (opzione di fatto già esistente attraverso la scelta dello staff
e, in parte, delle cosiddette “funzioni strumentali”) e potrà scegliere i nuovi insegnanti da un
bacino predefinito (creando quanto indicato, sempre in gergo, come organico dell’autonomia
o funzionale).
Molte delle correzioni introdotte dal dibattito parlamentare hanno mirato a limitare queste
prerogative: l’erogazione dei fondi incentivanti è stata trasferita a una commissione dove gli
“incentivandi” hanno la maggioranza, la scelta dei nuovi insegnanti deve avvenire rispettando
dei vincoli procedurali di trasparenza (pubblicità del fabbisogno di competenze in linea con il
157
piano formativo triennale della scuola, pubblicità dei curricula dei selezionati).
Il vero nodo della vicenda sembra però legato alla attuazione del comma 93 (ebbene sì,
questa nuova legge nasce come articolo 1 corredato di 212 commi) relativo alla valutazione
dei dirigenti scolastici. Prevista originariamente come delega al governo e ricondotta
nell’alveo della legge dal dibattito parlamentare, il summenzionato comma affronta il nodo
del “chi controlla il controllore?” definendone le aree di valutazione (competenze gestionali e
organizzative, capacità di leadership, miglioramento nel livello degli apprendimenti degli
studenti) e i soggetti attuatori (ispettori e dirigenti ministeriali, organizzati in commissioni
valutatrici su base regionale).
Resta però imprecisato il benchmark di riferimento della valutazione: saranno gli obiettivi che
i dirigenti si sono di fatto auto-assegnati con i rapporti di autovalutazione, attualmente in
fase di compilazione in via sperimentale in tutte le scuole italiane? Se così fosse (come appare
probabile), assisteremmo a una rinuncia da parte ministeriale della proposizione dall’alto di
obiettivi qualificanti (per esempio in materia di dispersione scolastica, di inclusione, così
come di promozione delle eccellenze), che si tradurrebbe in un mancato esercizio della
funzione di direzione.

Miglioramento delle possibilità di pianificazione e progettazione

Nel corso del percorso parlamentare il disegno di legge ha visto rafforzarsi la coerenza
interna legata agli orizzonti temporali. A un sistema scolastico che era ormai abituato alla
logica della “sopravvivenza quotidiana” è stata restituita la dignità di una pianificazione
complessiva e di una progettazione didattica pluriennale. Non è infatti casuale che
sull’orizzonte dei tre anni sia stata riallineata una serie di processi: la programmazione
scolastica (in gergo Pof – piani dell’offerta formativa); l’assegnazione dei nuovi organici
dell’autonomia; la valutazione degli esiti dei rapporti di autovalutazione a livello di istituto;
l’assegnazione e la valutazione dei dirigenti scolastici; la cadenza dei concorsi per l’ingresso
nella professione insegnante.
Insieme all’obbligo di assicurare alle scuole la certezza dei fondi a inizio anno, tutto questo
reintroduce respiro nella attività di programmazione a livello di scuola, comunque sempre
gestita nell’ambito degli organi collegiali. Dovrebbero quindi gradualmente scomparire (o
almeno questo è l’auspicio) le situazioni emergenziali in cui ai genitori si chiedeva di
sopperire alle carenze statali con l’acquisto di materiali didattici. Scuole che progettano su un
orizzonte di almeno tre anni sono anche scuole che possono muoversi credibilmente sul
territorio in rapporto con operatori pubblici e privati alla ricerca di ulteriori fondi o servizi.
Non è quindi un caso che il decreto incoraggi la donazione di fondi alle scuole attraverso lo
strumento della defiscalizzazione.
Almeno sulla carta, nel decreto ci sono tutte le premesse per un salto di qualità. I tagli degli
allora ministri Gelmini-Tremonti segnalarono che i governi (e gli elettori di cui erano
158
rappresentanti) non erano disponibili a sottoscrivere una delega in bianco al mondo della
scuola, che protestò vivacemente e si attrezzò per sopravvivere. Oggi viene riaperta una
prospettiva di risposta e crescita. Non è una delega in bianco, perché definisce una nuova
modalità organizzativa e richiede una serie di verifiche in itinere (quelli che
chiameremmo checks and balances). È una scommessa aperta che porta a un bivio, da cui
potranno emergere sostantive innovazioni oppure riaffermarsi una passività consuetudinaria
cui ci hanno abituato gli ingloriosi risultati del nostro paese nelle classifiche internazionali dei
test scolastici.

159
CONTI PUBBLICI, FISCO

Il cane di Pavlov e altri tagli alle tasse


20.07.15
Massimo Bordignon

Al richiamo dell’abolizione dell’imposta sulla prima casa non è sfuggito neanche Renzi. Una
dimostrazione di debolezza che rischia di rendere ancora più confusa l’imposizione sugli
immobili, che invece andrebbe razionalizzata. Sulle altre promesse, il problema vero sono le
coperture.

Reazioni automatiche

Ci risiamo. Deve essere il cane di Pavlov; appena un leader politico italiano si sente in
difficoltà, la reazione automatica è quella di annunciare l’abolizione dell’imposta sulla prima
casa. Mossa che più popolare di così non si può, in un paese dove l’80 per cento delle
famiglie vive in una casa di proprietà, ma mossa anche poco sensata, e indicativa di una
situazione di debolezza piuttosto che di forza.
Il problema non sono tanto i soldi, anche se trovare 3,5 miliardi entro il 2016 (che diventano
5 se ci si aggiunge l’Imu agricola e quella sugli imbullonati) non è esattamente una
barzelletta. Il problema non è neanche dover re-intervenire per l’ennesima volta in pochi anni
sulle imposte immobiliari: dopo l’indegno balletto Ici-Imu-Tasi, una razionalizzazione si
impone per forza, e in effetti era già prevista con la nuova “local tax”.
L’assurdo è partire avendo già deciso che il problema principale è rappresentato
dall’imposizione sulla prima casa, e non dalle miriadi di altre nefandezze che l’attuale
tassazione immobiliare comporta, compreso l’eccesso di prelievo sui trasferimenti di
proprietà e sulle imprese.
Un’imposizione sulla prima casa ben congegnata, come del resto era l’Imu prima versione,
può ben comportare una sostanziale esenzione dalla tassazione dei nuclei familiari più
poveri. Ma perché si debbano esentare a priori anche le famiglie medio-ricche, probabilmente
tassandole da qualche altra parte in modo più distorsivo, non è chiaro.
Oltretutto, l’imposizione immobiliare nella logica della “local tax” doveva tornare a
rappresentare il fulcro dell’autonomia fiscale dei comuni e della responsabilizzazione degli
amministratori locali; come lo si possa fare esentando a priori quelli che votano, cioè i
residenti, non si capisce. Chissà che avrebbe detto il Renzi sindaco delle proposte del Renzi
presidente del Consiglio.

Meno tasse, ma le coperture?

160
Le altre proposte nel triennio – tagli a Irap e Ires e revisione della struttura delle aliquote Irpef
– possono avere un senso, anche se bisognerà capire, al di là dagli annunci, cosa si vuol fare
in concreto. In termini di priorità, se l’obiettivo è tagliare la pressione fiscale, era
probabilmente più sensato intervenire sui contributi sociali. Anche perché bisognerà trovare il
modo di accompagnare i nuovi contratti di lavoro a tempo indeterminato verso una situazione
a regime, e l’attuale totale cancellazione dei contributi sociali, prevista in fase di avvio, non è
finanziariamente sostenibile nel lungo periodo.
Ma è anche vero che con la totale eliminazione del costo del lavoro dalla sua base imponibile,
l’Irap è diventata un’imposta monca e che l’aliquota sull’Ires in una prospettiva internazionale
è elevata.
Qui il problema sono le coperture, ovvero dove trovare i circa 45 miliardi necessari a regime
secondo le anticipazioni della stampa. Anche prendendo per assodata la crescita nominale
prevista dal governo per i prossimi anni, l’incremento automatico del gettito che questa
comporta non è certamente sufficiente per finanziare gli interventi previsti, oltretutto
dovendo garantire il rispetto degli impegni europei e la riduzione del debito pubblico.
I tagli alla spesa pubblica rappresentano l’ovvia risposta, ma anche qui bisognerebbe indicare
dove e come.
La realtà è che, tolte le pensioni, si è già tagliato parecchio. E molti degli interventi già previsti
con le leggi finanziarie del passato – dalla sanità agli enti locali, a cominciare dalle ex
province e nuove città metropolitane – sono già in dubbio e probabilmente insostenibili. I
contratti di lavoro del pubblico impiego dovranno essere rinnovati per decisione della Corte
costituzionale e su altri comparti della spesa, come scuola e università, bisognerà spendere di
più e non di meno.
È bene ricordare inoltre che il governo si è già impegnato a trovare risparmi di spesa per 10
miliardi entro il 2016 per eliminare le “clausole di salvaguardia” (aumenti automatici di Iva e
accise sui carburanti) previste dalle leggi di stabilità degli ultimi anni. Nel triennio, fanno
almeno altri 45 miliardi di interventi strutturali necessari, visto che circa 6 miliardi di risparmi
per il 2016 derivano da calo di interessi e “voluntary disclosure” e non è detto che queste
entrate saranno a disposizione negli anni successivi.
Un’altra possibilità è intervenire sul prelievo stesso, in particolare potando le numerose “tax
expenditure” ancora presenti nel nostro sistema tributario. Per esempio, riportare all’aliquota
standard dell’Iva molte delle transazioni soggette a aliquote agevolate avrebbe effetti benefici
di gettito e probabilmente consentirebbe anche di eliminare molte forme di elusione fiscale
che le aliquote agevolate consentono. Ma presentare questo tipo di interventi come una
riduzione della pressione fiscale sarà difficile, anche per un politico mediaticamente abile
come Matteo Renzi.

161
FISCO

Gli 80 euro? Spesi al supermercato


06.09.15
Stefano Gagliarducci e Luigi Guiso

I beneficiari hanno percepito il bonus da 80 euro come una misura permanente e lo hanno
speso interamente. In beni alimentari, ma anche per pagare le rate del mutuo. Un
provvedimento efficace per sostenere la domanda, dunque. Stessi risultati con la politica
fiscale annunciata dal governo?

Una misura efficace?

Il taglio di imposte per 80 euro mensili a favore dei lavoratori con reddito da lavoro
dipendente – noto come “bonus Renzi” – è stata la misura di sostegno alla ripresa ciclica più
importante adottata dal governo Renzi.
È stata anche la misura più controversa e dibattuta, sia prima sia dopo la sua adozione. Prima,
perché si sosteneva che un uso alternativo – ad esempio un taglio del costo del lavoro
destinando le risorse alla decontribuzione – avrebbe avuto maggiori effetti espansivi. Dopo,
perché secondo diversi commentatori l’effetto sulla spesa sarebbe stato nullo. In questo caso,
lo scetticismo tuttavia era fondato su argomenti poco solidi in linea di principio e non sorretti
da evidenza. Benché i consumi aggregati dopo l’adozione del bonus abbiano continuato a
mostrare una dinamica contenuta, il bonus potrebbe comunque aver dispiegato effetti molto
forti e in sua assenza la dinamica dei consumi aggregati avrebbe potuto essere ancora più
lenta.
In un nostro lavoro, ancora in corso di perfezionamento, abbiamo fatto una valutazione degli
effetti del bonus. Qui ne illustriamo i risultati principali. Sebbene ancora preliminari e
suscettibili di modica, le stime finali non dovrebbero discostarsi di molto da quelle qui
discusse.

Il bonus e gli effetti attesi

Il bonus deciso dal governo nell’aprile del 2014 consiste in uno sconto fiscale di 80 euro
mensili a favore dei lavoratori dipendenti. Il decreto esclude dal beneficio le persone con
redditi al di sotto della soglia minima di tassazione (8.145 euro su base annua) e quelli al di
sopra dei 26mila euro annui. I redditi compresi tra i 24mila e i 26mila euro beneficiano del
bonus, ma a scalare fino ad annullarsi al di sopra dei 26mila euro. Il governo lo aveva
presentato come una riduzione permanente di imposte. Tuttavia, alcune incertezze,
soprattutto al momento dell’adozione, potevano far sorgere qualche dubbio sulla sua
permanenza, verosimilmente fugato nel settembre del 2014, quando il bonus è stato

162
confermato nella legge finanziaria.
Un taglio permanente di imposte produce un uguale incremento del reddito disponibile delle
famiglie e dovrebbe, in linea di principio, tradursi in un incremento di spesa della stessa
entità. Dubbi sulla permanenza ne possono attenuare l’effetto. D’altro canto, il maggior
reddito disponibile – soprattutto se permanente – migliora la solidità finanziaria delle famiglie
e può favorire il loro accesso al credito, in particolare durante una crisi finanziaria,
incoraggiando così la spesa. In alternativa, famiglie già indebitate possono destinare il bonus
al servizio del debito, evitando il fallimento e i costi che ne possono conseguire (ad esempio,
l’esclusione successiva dal mercato del credito). La disponibilità del bonus sostiene il
consumo indirettamente perché rende meno necessario tagliare la spesa per ripagare i debiti
ed evitare il default.
Soppesando questi fattori, ci si aspetta un effetto non trascurabile del bonus sulla spesa e un
potenziale effetto sul servizio del debito delle famiglie.

Dati e metodologia

Grazie alla disponibilità dei dati Istat sull’Indagine dei consumi delle famiglie nel 2014 (che
contiene informazioni sulla spesa di un campione di famiglie a frequenza mensile), combinati
con quelli dati dell’Agenzia delle entrate per ottenere informazioni sui redditi delle stesse
famiglie e identificare con certezza chi ha percepito il bonus, è possibile fornire prime stime
del suo effetto. L’idea di come misurare l’effetto del bonus sui consumi è illustrata in
un precedente articolo su lavoce.info e la metodologia è sintetizzata nell’appendice.
Qui riportiamo una breve sintesi delle stime finora ottenute. I risultati si riferiscono
principalmente all’effetto del bonus sui consumi dei percettori con redditi bassi, quelli vicini
alla soglia di esenzione. La ragione è che identificare l’effetto per questo gruppo è più
semplice. Menzioneremo anche stime ancora preliminari per i percettori di bonus vicini alla
soglia superiore – quelli con redditi tra 24mila e 26mila euro, con bonus a scalare al crescere
del reddito.
La figura 1 mostra le frequenze dei percettori del bonus nel campione Istat ai vari livelli di
reddito normalizzato su base annuale. Gli effetti stimati per i lavoratori vicini alla soglia
minima sono riassunti nella tavola 1 e si riferiscono alla spesa per consumi nei mesi da
giugno 2014 (primo mese di percezione del bonus) fino a dicembre 2014, ultimo mese per il
quale è disponibile l’indagine Istat sui consumi.

Gli effetti sui consumi individuali

1. Il bonus ha avuto un forte effetto sui consumi delle famiglie i cui percettori hanno redditi
da lavoro dipendente di poco superiori alla soglia degli 8.145 euro.

163
2. Per queste famiglie il bonus non ha avuto effetti sugli acquisti di beni durevoli; va però
tenuto presente che stimare l’effetto su questi beni è difficile perché il campione è
limitato e gli acquisti non sono frequenti.
3. L’effetto è marcato per gli acquisti di beni alimentari e per il pagamento della rata del
mutuo o la restituzione di altri debiti. Su queste due categorie di spesa, l’effetto del
bonus è all’incirca della stessa entità: chi ne ha beneficiato ha speso, secondo le stime, in
media 60 euro in più al mese in alimenti e contribuito per 77 euro al mese al pagamento
della rata del mutuo, entrambi statisticamente diversi da zero.
4. Poiché in media il bonus percepito da queste famiglie è di circa 80 euro al mese, l’effetto
sulla spesa famigliare sembra essere superiore all’entità del bonus stesso. Una possibile
spiegazione è che il bonus abbia facilitato l’accesso al credito per le famiglie che
consumavano al di sotto del loro livello desiderato, perché escluse dal mercato del
credito. Da notare tuttavia che, dato l’elevato margine di errore delle stime, non è
possibile affermare che l’effetto di 1 euro di bonus sulla spesa totale sia statisticamente
maggiore di 1.
5. Le prime evidenze sull’effetto del bonus tra i percettori di reddito intorno alla soglia
superiore (24-26mila) indicano un effetto positivo e di maggiore entità per quanto
riguarda la spesa in alimenti, ma più contenuto per quanto riguarda le altre voci. La
riduzione dell’effetto sulla spesa per il pagamento dei debiti è probabilmente da
attribuirsi alla maggiore facilità di accesso al credito tra i percettori di redditi superiori.

Queste evidenze suggeriscono che, nel complesso, le famiglie beneficiarie hanno speso il
totale del bonus. Ovvero, il bonus si sarebbe tradotto in un aumento uno a uno della spesa.
I risultati delle nostre stime sono coerenti con le prime evidenze provenienti dall’Indagine sui
bilanci delle famiglie della Banca d’Italia 2014 che, con una metodologia totalmente diversa,
conclude che le famiglie avrebbero speso circa il 90 bonus del bonus con effetti più elevati tra
quelle con livelli più bassi di ricchezza.

I risultati per consumi aggregati e Pil

Sulla base delle nostre stime, il bonus erogato nel 2014 è di circa 5,2 miliardi, in linea con lo
stanziamento del governo di 6,7 miliardi. Nell’ipotesi che le erogazioni del 2015 abbiano
seguito quelle del 2014, dovrebbero essere intorno ai 9 miliardi (non lontano dallo
stanziamento di 10 miliardi previsto dal governo). Poiché i consumi totali delle famiglie nel
2014 sono stati di 974 miliardi di euro, il bonus ha contribuito ad accrescere i consumi nel
2014 dello 0,54 per cento; per il 2015 il contributo stimato alla crescita dei consumi è vicino
al punto percentuale (0,93 per cento). Assumendo un moltiplicatore dei consumi tra 1,2 e 1,4,
il bonus avrebbe contribuito a sostenere la crescita del Pil all’incirca dello 0,4 per cento nel
2014 e di circa lo 0,8 per cento nel 2015. Il calcolo ignora ovviamente qualunque effetto di
segno opposto sulla domanda aggregata dovuto alle coperture del bonus.

164
Implicazioni per la politica fiscale

Le nostre stime suggeriscono che il bonus Renzi ha aiutato a sostenere la domanda interna in
un momento di particolare debolezza dell’economia Italiana. Le stime riportate implicano un
suo effetto diretto uno a uno sui consumi delle famiglie beneficiarie, con poche differenze al
variare del livello del reddito del beneficiario. Un effetto così elevato e uniforme tra famiglie
con reddito diverso implica che i beneficiari hanno creduto alla promessa del governo che il
taglio fiscale sarebbe stato permanente.
Stabilire che effetto ha avuto il bonus Renzi sui consumi è interessante non solo per il
dibattito sull’efficacia delle politiche anticicliche adottate dal governo, ma ha una valenza più
generale. Aiuta a formulare un giudizio sulla politica di contenimento fiscale annunciata dal
governo per i prossimi anni che, inevitabilmente, per essere finanziata dovrà essere
accompagnata da riduzioni di spesa pubblica.
I nostri risultati implicano che un taglio permanente di imposte finanziato con una
diminuzione permanente di spesa pubblica non dovrebbe avere effetti depressivi sulla
domanda e potrebbe invece avere effetti espansivi. Ma il calo delle imposte può avere ulteriori
effetti indiretti sulla domanda perché: a) migliorando la solidità fiscale delle famiglie e
accrescendone il merito di credito, sprona la domanda; b) perché uno stato più leggero può,
in equilibrio, ridurre il costo del debito e sostenere la domanda privata.

* Il lavoro su cui si basa la nota è stato condotto in collaborazione con il Nucleo tecnico per il
coordinamento della politica economica presso la presidenza del Consiglio.
Post scriptum. Alcuni osservatori hanno mosso critiche al nostro studio. Alcune delle critiche
che abbiamo ricevuto riguardano la sostanza e la metodologia. Queste critiche sono
benvenute e cogliamo anzi l’occasione per sollecitarle. In alcuni casi abbiamo risposto
direttamente ai critici. Se altre verranno risponderemo volentieri. Siamo totalmente aperti a
dibatterete nel merito i risultati del nostro lavoro e a correggerli se necessario o a estendere
lo studio se arrivano utili suggerimenti. Qui vogliamo rispondere a un altro tipo di critiche
sollevate per lo più sulla stampa. Queste sono di due tipi:
1. la valutazione non è credibile perché è realizzata in collaborazione con la presidenza del
Consiglio;
2. i dati della valutazione dovrebbero essere resi disponibili a tutti i ricercatori interessati e
garantirne la replicabilità e quindi il controllo dei risultati.
Vediamole in ordine.
1. Noi abbiamo potuto condurre lo studio grazie ad una collaborazione con il Nucleo tecnico

165
per il coordinamento della politica economica presso la presidenza del Consiglio. Lo
scriviamo nella nota e scriviamo pure che è attraverso questa collaborazione che abbiamo
potuto ottenere accesso ai dati necessari per effettuare lo studio. Non dovrebbe meravigliare
che la presidenza del Consiglio abbia un interesse a capire se una politica varata dal governo
– in questo caso la misura più impegnativa da un punto di vista finanziario decisa nel 2014 –
abbia sortito effetti o meno. Il Nucleo ci ha lasciato del tutto liberi di lavorare, scegliere la
metodologia, verificare i risultati. Una volta ottenute le stime, preliminari ma sufficientemente
affidabili, abbiamo trasmesso i risultati al Nucleo e li abbiamo diffusi al pubblico. Avremmo
operato nello stesso modo qualunque effetto avessimo stimato.
2. Noi stessi preferiremmo che i dati – tutti i dati – fossero sempre accessibili a tutti. Ma
sappiamo che, non solo in Italia ma ovunque (sebbene forse in misura diversa) non tutti i dati
sono immediatamente disponibili o disponibili a tutti. Spesso ci sono restrizioni su ciò che
può essere ottenuto e su chi lo può ottenere. Poiché la presidenza del Consiglio fa parte del
Sistema statistico nazionale, il Nucleo può utilizzare dati di cui non è proprietario (in questo
caso dati di fonte Istat e Agenzia delle entrate) per perseguire le sue finalità istituzionali e
verificare gli effetti di misure di policy. Ma non può deciderne autonomamente la diffusione al
pubblico per motivi di privacy. Questo avviene abitualmente per tutte le istituzioni pubbliche
che, per fini istituzionali, realizzano valutazioni empiriche. Ad esempio, alcune valutazioni
sugli effetti del bonus sono state condotte dalla Banca d’Italia sulla sua indagine delle
famiglie che ancora non è disponibile al pubblico e dall’Inps con dati non accessibili. Questo
non toglie valore ai risultati di quegli studi.
Nota metodologica

166
Figura 1 – Distribuzione del bonus per livello di reddito annuale

Tavola 1 – Effetto del bonus sulla spesa mensile per beni di consumo delle famiglie

La tavola mostra la stima fuzzy-rd dell’effetto del bonus sui livelli di spesa per consumi per
varie categorie di beni (si veda l’appendice). La variabile bonus è una dummy=1 se la famiglia
ha percepito il bonus (0 se non lo ha ricevuto) e si colloca intorno alla soglia di reddito da
lavoro dipendente di 8.145 euro. La stima indica pertanto l’incremento in euro dei consumi
tra i percettori del bonus rispetto ai non percettori con uguale reddito. La stima è basata sul
campione di famiglie con un solo percettore di reddito tra i 1.000 e i 20mila euro. (*)
significatività statistica al 10%, (**) al 5% e (***) all’1 per cento.

167
CORPORATE GOVERNANCE, FINANZA

La Ferrari si quota. Con qualche azionista più


uguale degli altri
06.10.15
Salvatore Bragantini

La sintesi dell’operazione Maranello è nel voto multiplo, che è la plateale negazione


dell’interesse degli altri azionisti. Exor avrà così il controllo su Ferrari, sfilandolo a chi già lo
detiene: la stessa Fca. Shopping di giurisdizioni per il preludio all’uscita dal controllo di Fiat-
Chrysler.

L’operazione Maranello

La teoria del valore per gli azionisti si avvale di quel voto multiplo che ne è la plateale
negazione: è questa la sintesi dell’operazione con la quale Exor, oggi controllante di Fiat
Chrysler Automobiles (Fca), si ritaglierà il controllo di Ferrari, sfilandolo alla stessa Fca che lo
detiene. L’operazione Maranello presenterà al mercato Ferrari non come un banale produttore
di auto, bensì come marchio del lusso; Enzo Ferrari si rivolterà nella tomba, ha scritto Andrea
Malan sul Sole-24Ore, Lo scandalo delle emissioni Volkswagen indurrà ad accentuare questa
narrazione. La Securities and Exchange Commission (Sec) degli Usa sta esaminando il
prospetto dell’operazione, che forse approderà a Wall Street il 12 ottobre, il “Columbus day”,
certo caro all’italo-canadese Sergio Marchionne, ceo di Fca. La società prima venderà sul
mercato il 10 per cento della propria partecipazione, poi riceverà da Ferrari un pagamento
straordinario di 2,5 miliardi, infine scinderà la partecipazione residua nella casa di Maranello,
pari all’80 per cento, distribuendola pro quota agli azionisti. I 2,5 miliardi servono
probabilmente a risarcire Fca della perdita del controllo: trattandosi di una scissione, non di
uno scorporo, non ci sarebbe motivo di attribuire a Ferrari parte dei debiti di Fca. Così Exor
avrà il 24 per cento di Ferrari, Piero Ferrari il 10 per cento e il mercato il 66 per cento, ma
questa non è la fine della storia. Dal prospetto depositato alla Sec si sa che la “nuova” Ferrari,
da quotare al New York Stock Exchange, sarà una società di diritto olandese, il che consente
varianti succose, per i controllanti, del voto multiplo che una norma del “decreto
competitività” del 2014 ha purtroppo introdotto in Italia. La nostra norma consente agli
statuti di attribuire due voti per ogni azione detenuta, in società quotate, da almeno due anni;
dietro la nobile bandiera del premio agli azionisti fedeli, investitori di lungo termine, cela
un’ulteriore protesi societaria, utile solo a rafforzare le posizioni di controllo. Data la
necessità di comunicare alla società ogni acquisto e vendita di azioni, gli investitori
istituzionali han già ben chiarito di non voler usare uno strumento che impone loro pesanti
oneri amministrativi, esponendoli per di più a sonore multe in caso di errate comunicazioni.

168
Gli unici a raddoppiare i diritti di voto, a parte pochi affezionati cassettisti, saranno dunque i
controllanti. Torniamo all’operazione Maranello, finita la quale, grazie al voto multiplo
all’olandese, Exor avrà non il 24 per cento, bensì il 33,4 per cento, mentre a Piero Ferrari
andrà il 15,3 per cento; a tutti gli altri azionisti spetterà dunque non il 66 per cento, ma il 51
per cento. Nella versione preliminare del prospetto presentata a luglio, la quota scendeva
addirittura al 49,3 per cento, mentre i diritti di Fca e Piero Ferrari erano rispettivamente del
35,8 per cento e del 14,9 per cento. Che quest’ultimo goda subito del voto multiplo è giusto:
da decenni è, e resta, azionista di Ferrari. Non così Exor, la quale riceverà le azioni Ferrari
come ogni altro azionista di Fca, ma godrà immediatamente del voto multiplo. Gli altri,
invece, potranno farlo solo, ove mai lo volessero, dopo ben tre anni dalla scissione.

L’interesse degli azionisti e quello dell’impresa

Attraverso quali passaggi legali ciò avverrà? Il prospetto menziona l’assegnazione alla Exor
stessa e a Piero Ferrari di non meglio illustrate “azioni speciali”. Miracoli dello shopping di
giurisdizioni, certo, ma l’operazione illustra icasticamente il contrasto fra due mondi: quello
che persegue il valore per gli azionisti come solo fine dell’impresa, e quello per cui i gestori
devono fare l’interesse dell’impresa, che non necessariamente coincide con quello degli
azionisti.
Nell’interesse di chi è dunque gestita Fca? Di tutti i suoi azionisti, o solo di alcuni, più uguali
degli altri? Sarebbe stato interesse di Fca continuare a controllare quella Ferrari che, prima
che un marchio del lusso, è un profittevole e ammirato costruttore di auto. Tale interesse
però contrastava con quello di Exor, che la voleva per sé, così preparando la graduale uscita
dal controllo di una grande casa automobilistica come Fca, impegno troppo gravoso per le
sue spalle.
Non sorprende che l’interesse di Exor prevalga su quello di Fca; giù il cappello davanti alla
maestria finanziaria dell’operazione, che però celebra l’apoteosi della prevalenza
dell’interesse di alcuni azionisti su quello dell’impresa. Tutti avranno azioni Ferrari, certo, ma
il controllo – ferreo per ben tre anni – l’avrà Exor, raddoppiando i propri voti con una capriola
giuridica comprensibile solo ricorrendo al celebre motto: quia sum leo. Il pagamento a Fca di
2,5 miliardi da parte di Ferrari somiglia a un assegno di separazione, che essa, come
una trophy wife, pagherà per conto di Exor a Fca, moglie ormai sfiorita, in procinto di cedere
il passo.

169
CONTI PUBBLICI

Sul populismo economico non tramonta mai il


sole
04.03.16
Fausto Panunzi

Nei momenti di crisi è facile che la politica sbandi verso proposte populiste. Anche in
economia. Ma non è prospettando irrealistiche soluzioni win-win (botte piena e moglie
ubriaca) che si rilancia la crescita. Perché poi il conto da pagare arriva. Anche più salato.

È nei momenti di crisi che le idee populiste attecchiscono meglio. Vale anche in economia. Già
nel 1990 Dornbusch e Edwards, avendo in mente l’esperienza del Cile dei primi anni ’70 e del
Perù della metà degli anni ’80, avevano scritto un saggio “Macroeconomic Populism” che
sarebbe diventato il punto di partenza di un libro uscito nell’anno seguente. Non esiste una
definizione univoca di populismo e, a maggior ragione, di politiche macroeconomiche
populiste. Tra le caratteristiche identificate da Dornbusch e Edwards ci sono il tentativo di
evitare ogni tipo di conflitto sociale e il rifiuto delle teorie economiche tradizionali (o
ortodosse). Riassumendo forse in modo troppo sintetico, un elemento essenziale delle
politiche populiste è quello di negare l’esistenza, o quantomeno di attenuare la rilevanza, dei
trade-off, cioè del fatto che le azioni di politica economica hanno sia costi che benefici e di
prospettare ricette economiche che sembrano win-win, cioè con soli benefici e senza costi o,
alla peggio, che svantaggiano solo qualche “cattivo”. Di solito queste politiche si limitano a
rinviare il momento in cui la realtà presenta il conto, spesso più salato.

Ridurre le tasse ma non la spesa

Le pagine di Dornbusch e Edward non sono d’aiuto per interpretare la nostra attualità
economica. Solo per fare un esempio, Cile e Perù lottavano contro un’elevata inflazione
mentre noi abbiamo il problema opposto, quello della deflazione. Questo è un altro tempo,
un’altra vita. Oggi i governi sentono la pressione di rilanciare la crescita, ma si trovano ad
agire sotto il fardello di uno squilibrio nei conti pubblici e con debiti accresciuti dalla risposta
a una crisi enorme per ampiezza e durata. Non è sorprendente allora che germoglino
soluzioni win-win, come la riduzione delle tasse di qualche decina di miliardi senza alcuna
revisione della spesa pubblica o di clausole di salvaguardia superate con “maggiore
flessibilità”. Se la riduzione delle aliquote fiscali – o una maggiore spesa pubblica – generasse
una crescita così forte da non far peggiorare i conti pubblici, chi potrebbe mai
obiettare? Populismo non è certo perseguire oggi politiche economiche che stimolino
l’economia. Quello, come ci ricorda costantemente il presidente della Banca centrale europea,

170
Mario Draghi, è un dovere dei governi europei. Populismo è cercare di farlo avendo in mente
solamente il consenso elettorale.

171
ENERGIA E AMBIENTE

Di cosa parliamo quando parliamo di voto


sulle trivelle
08.04.16
Marzio Galeotti e Alessandro Lanza

Domenica 17 aprile si terrà il referendum sulle trivelle, termine evocativo quanto inesatto.
Perché gli elettori devono decidere se i permessi per estrarre idrocarburi in mare entro 12
miglia dalla costa debbano durare solo fino al termine della concessione. Il quesito e le
esplorazioni future.

Da dove viene il referendum?

Domenica 17 aprile si terrà il cosiddetto “referendum sulle trivelle”, termine evocativo quanto
inesatto, ma utile per il dibattito nell’agone politico. Il risultato è molto probabilmente già
scritto, con un’affluenza insufficiente a raggiungere il quorum del 50 per cento degli aventi
diritto, che renderà inutile lo sforzo dei cittadini e delle compagini politiche che invece
andranno a votare per il “sì”. Interessa però notare che si tratta del primo referendum nella
storia del nostro paese a essere stato ottenuto dalle regioni.
Tutto inizia nel settembre 2015, quando Pippo Civati e il suo movimento Possibile cercano
senza successo di raccogliere le 500mila firme necessarie per chiedere otto referendum
popolari su una serie di questioni piuttosto eterogenee. Fra queste ce n’è una legata al tema
connesso alle operazioni di trivellazione ed estrazione di idrocarburi dal fondale marino.
Alcune norme, approvate prima dal governo Monti (Decreto Sviluppo, Art. 35
Disposizioni in
materia di ricerca ed estrazione di idrocarburi) e poi dal governo Renzi (Sblocca Italia, gli
articoli 36, 36-bis e 38 hanno introdotto misure volte a dare implementazione agli obiettivi
prefissati dal documento di Strategia Energetica Nazionale (SEN) tra cui il c.d. titolo
concessorio unico per le attività di ricerca e coltivazione di idrocarburi) , avevano infatti reso
meno complesso ottenere i permessi per esplorazione ed eventuale sfruttamento di
giacimenti di idrocarburi offshore, aumentando il numero di anni di durata delle concessioni –
sia di esplorazione che di sfruttamento – e rendendo possibili anche operazioni a meno di 12
miglia dalla costa.
Poche settimane dopo il fallito tentativo di Civati, dieci consigli regionali (Abruzzo, Basilicata,
Marche, Puglia, Sardegna, Veneto, Calabria, Liguria, Campania e Molise) promuovono sei
quesiti referendari sulla ricerca e l’estrazione degli idrocarburi in Italia. L’Abruzzo si ritira
successivamente dalla lista dei promotori.
A dicembre dello scorso anno il governo propone alcune modifiche alla legge di stabilità sugli
stessi temi affrontati dai quesiti referendari. Per questa ragione, la Cassazione ne dichiara
ammissibile solo uno, perché gli altri cinque – secondo la Corte – erano stati già recepiti dalla
172
legge di stabilità. Il governo torna quindi sui suoi passi restituendo alle regioni gran parte
della potestà su queste questioni.
Le Regioni hanno dunque già vinto il confronto con lo Stato centrale, vedendosi riconosciuti
diritti che avevano perso con il decreto “sblocca Italia”. Ma anche la Corte costituzionale, cui
spetta una seconda pronuncia sull’ammissibilità dei referendum, ha ritenuto che la legge di
stabilità non depotenziasse tutti i quesiti, tenendone in piedi uno. Quello su cui si andrà a
votare.

Cosa chiede il referendum?

La questione è molto tecnica e si ha l’impressione che non tutti gli elettori vadano a votare
con un adeguato grado di preparazione. Il dibattito politico – ma non è una novità – non aiuta
quando usa strumentalmente il referendum per esporre tesi, o sostenere posizioni, che hanno
a che fare più con la stabilità del governo che con il tema vero e proprio.
Gli elettori dovranno decidere se i permessi per estrarre idrocarburi in mare entro 12 miglia
dalla costa (poco più di 22 chilometri da terra) debbano durare solo fino al termine della
concessione. Oggi la legge prevede infatti che le concessioni abbiano una durata iniziale di
trenta anni, prorogabili una prima volta per altri dieci, una seconda volta per cinque e una
terza volta per altri cinque; al termine della concessione le aziende possono chiedere la
proroga fino all’esaurimento del giacimento.
Solo le 21 delle 69 concessioni estrattive marine oggi operative che si trovano entro il limite
di 12 miglia sono interessate al referendum: 7 in Sicilia e altrettante nel mar Ionio, 4
nell’Adriatico centrale e 3 in quello settentrionale. Le prime concessioni che scadranno sono
ovviamente quelle degli impianti più vecchi, costruiti negli anni Settanta.
In pratica, se il referendum dovesse passare, quelle 21 piattaforme verranno smantellate una
volta scaduta la concessione, senza poter sfruttare completamente il gas o il petrolio nascosti
sotto i fondali. In caso contrario, non cambierà nulla.

E dunque?

Proviamo a mettere ordine cominciando dal nome: referendum no-triv. Le trivelle perforano,
le piattaforme estraggono. Dove iniziano le prime finiscono le seconde. Il nome no-triv non
rispecchia il contenuto del referendum, come non aiuta la comprensione e la consapevolezza
su tutto quello che è connesso a produzione ed esplorazione.
Anzitutto un numero: il contributo al fabbisogno italiano di idrocarburi (2015) è pari al 9,4
per cento per il petrolio e al 10,2 per cento per il gas. Disporre di queste risorse comporta
una riduzione della “bolletta energetica” per un valore di circa 3,2 miliardi di euro.
Il punto centrale allora è se esiste un interesse del paese a sfruttare le pur non enormi riserve
di idrocarburi presenti. Diciamo che non esistono paesi che, avendo fonti energetiche da
173
sfruttare, decidano di dipendere al 100 per cento dalle importazioni. Per quanto riguarda
quindi gli investimenti già fatti (o fatti in gran parte) sembra ovvio poter continuare a
utilizzare le strutture esistenti e sfruttare i pozzi fino in fondo.
Sulle nuove esplorazioni (onshore, offshore, petrolio o gas, entro o oltre le 12 miglia) invece è
tutt’altra storia, ma il referendum del 17 aprile non verte su questo tema.

174
FISCO

Il paradiso perduto dei Panama papers


12.04.16
Tommaso Di Tanno

I paradisi fiscali esistono perché l’industria finanziaria si basa sull’individuazione di prodotti


competitivi da offrire al mercato. E alcuni privati cittadini cercano discrezione nella gestione
delle proprie ricchezze, spesso per nasconderle al fisco. Situazioni che richiedono risposte
diverse.

L’industria finanziaria e i controlli dei paesi

La vicenda dei cosiddetti Panama papers ha sollevato, per l’ennesima volta, un interrogativo:
perché esistono – e come si possono reprimere – i paradisi fiscali? Esistono perché i ricchi e
potenti di tutto il mondo non vogliono far sapere quanto possiedono e dove. E, poi, perché il
business della finanza deve offrire rendimenti maggiori di quelli ordinari e la fiscalità del
prodotto è, in quest’ottica, decisiva. Le due facce della medagli (i ricchi e potenti da un lato,
l’industria finanziaria dall’altro), però, devono essere ben distinte, pena non capire quali
rimedi si possono apportare.
L’industria finanziaria è basata sull’individuazione di prodotti competitivi da offrire al
mercato. Chi vuole raccogliere fondi da investire deve individuare il veicolo giuridico (società,
fondo d’investimento, partnership, accordo di co-investimento o altro) con cui procedere alla
raccolta e, poi, la catena di veicoli (spesso più di uno) attraverso cui procedere alle successive
operazioni di investimento e disinvestimento.
Il veicolo adatto alla raccolta è quello che procederà nel tempo alla distribuzione del risultato
realizzato e deve avere caratteristiche tali da renderlo appetibile a investitori provenienti da
diverse parti del mondo, il che vuol dire con sistemi di tassazione anche molto diversi fra
loro. E questo comporta la ricerca di veicoli che pagano tasse minime (meglio se zero) sia
nella fase di realizzo sia nella fase di distribuzione dei profitti. I più utilizzati sono appositi
strumenti giuridici – limited partnership – costituiti lì dove le legislazioni, pur di ispirazione
anglosassone, sono più largheggianti e l’intervento della competenti autorità di controllo
meno invasivo. Se c’è anche il segreto bancario meglio, ma è spesso sufficiente una lunga (e
risaputa) tradizione di scarsa collaborazione con le richieste di authority (giudiziarie o
finanziarie) di altri paesi. È questa la ragione che porta a verificare che in cima alla catena di
hedge fund e fondi di private equity c’è quasi sempre una partnership di Jersey, di Bermuda o
delle British Virgin Islands.
Queste strutture di investimento sono relativamente trasparenti e se possono operare
(costituendo ulteriori veicoli per investire nei paesi e mercati serie A) significa che le authority
dei paesi ricchi da cui perlopiù provengono gli investimenti le tollerano. Il che vuol dire che i

175
paradisi fiscali devono la propria esistenza e il proprio ruolo a un dissenso solo apparente dei
loro committenti principali, i quali sono, spiace dirlo, proprio i paesi che li dovrebbero
combattere perché ne subiscono i danni.
Ma qual è la ragione di questo masochismo? Semplice: la battaglia può essere vinta solo se la
si fa tutti insieme perché chi pone freni avvantaggia il concorrente che non li ha ancora posti.
E così l’Italia aspetta la Francia, che aspetta l’Inghilterra, che aspetta l’Irlanda.
Anche le grandi industrie usano i paradisi fiscali. Vi domiciliano, perlopiù, beni immateriali
(marchi e brevetti) oppure attività di compravendita su larga scala. Vi accumulano profitti che
non vengono distribuiti per evitarne la tassazione al momento del rimpatrio, attendendo la
buona occasione di un cambio di legislazione che consenta una mitigata tassazione.
Occasione che – la storia insegna – prima o poi si concretizza. Certo, la legislazione dei paesi
cui dovrebbero tornare queste ricchezze ha creato svariate forme di difesa, ma i risultati
appaiono davvero ancora troppo modesti.

Il paradiso dei ricchi e potenti

Diverso è, invece, il contesto dei ricchi e potenti. Qui si tratta di persone fisiche il cui obiettivo
è spesso duplice. Da un lato, intendono evitare di pagare le tasse nel paese di serie A in cui
dimorano. Dall’altro, sono molto più interessati – rispetto alle imprese – all’elemento della
“discrezione” nella gestione delle proprie ricchezze. Il ricco e potente deve, infatti, tenere
lontani i riflettori dal quanto e come accumula e rifugge la trasparenza sui suoi
comportamenti come il veleno. Ma in quest’opera è, spesso, uno sprovveduto. Ed ecco che si
materializzano schiere di professionisti (fiscalisti, avvocati, notai) ovvero banchieri di
investimento privato che trovano per loro le soluzioni più appropriate. E sono società di paesi
improbabili (Kenia, Uruguay, Samoa) con azioni al portatore, trust neozelandesi, mandati
fiduciari o puri e semplici prestanome residenti in capo al mondo che prestano, appunto, il
proprio nome per mestiere.
La complicità degli stati di provenienza dei ricchi e potenti è qui meno avvertita e, tutto
sommato, più mirata al singolo individuo piuttosto che alla “categoria”. Le amministrazioni
finanziarie competenti dovrebbero, infatti, mettere insieme il tenore di vita del singolo
contribuente e confrontarlo con i redditi dichiarati (con un meccanismo analogo a quello del
redditometro). L’attività potrebbe far emergere incongruenze fra le due grandezze e
giustificare un accertamento di maggior reddito, ma non è detto che porti alla scoperta delle
ricchezze possedute in paradisi fiscali. Per questi c’è forse una sola soluzione: la confisca (per
equivalente) incondizionata – cioè sempre e comunque – di tutte le attività ivi detenute e non
dichiarate.

176
INTERNAZIONALI

Si legge Ttip, si pronuncia disinformazione


13.05.16
Francesco Daveri e Mariasole Lisciandro

Il dibattito sul Ttip si concentra attorno alle ipotetiche minacce alla democrazia o alla tutela
dei consumatori e dell’ambiente che deriverebbero da una eventuale firma. Molto più utile
sarebbe invece un approccio pragmatico, che punti per esempio alla difesa delle
denominazioni di origine.

Chi ha paura del Ttip?

Se anche un guru dei nostri giorni come Joe Bastianich è stato chiamato a dire la sua
sull’eventuale invasione delle carni americane in Europa, allora il dibattito italiano sul Ttip ha
un problema.
Ttip sta per Transatlantic Trade and Investment Partnership, accordo di libero scambio – su
cui trattano Stati Uniti e Unione Europea – che punta alla liberalizzazione del commercio e
degli investimenti tramite l’abbattimento dei dazi residui (già molto bassi) e delle barriere non
tariffarie, ossia delle regole che ostacolano il commercio tra le due parti. Il problema non è
tanto il fatto che ci siano le regole (si tratta molto spesso di norme a tutela del consumatore,
della salute e dell’ambiente), quanto che siano così diverse tra i due partner. Non è un
segreto che le sensibilità regolamentari siano molto diverse sui due lati dell’Atlantico ed è
proprio questo a preoccupare i più che temono gli esiti di un accordo al ribasso.
Di recente Greenpeace ha portato la parola Ttip sulla bocca di tutti, rendendo pubblica una
parte dei testi negoziali: più di 200 pagine che riportano le posizioni di Usa e Ue, scritte in un
linguaggio tecnico difficile da capire per i non addetti ai lavori. I documenti di Greenpeace
riportano ancora entrambe le posizioni, segno che il testo non è ancora espressione di un
accordo tra le parti. Quindi, ancora niente di definitivo e tutto da negoziare. Pare, tuttavia,
che l’entrata in vigore del Ttip minaccerebbe certi valori fondanti dell’Unione, come la
democrazia, la tutela dei consumatori e l’ambiente. Per non parlare della mancanza di
trasparenza con cui si conducono i negoziati. E così, nel dibattito mediatico, l’accordo è
dipinto come un vero e proprio cavallo di Troia, una grave minaccia per le tutele degli
europei.
Proviamo a esaminare le varie preoccupazioni per punti.

Tre (ipotetiche) minacce

Punto primo, Ttip come minaccia alla democrazia. La Commissione europea sta trattando in
nome e per conto degli stati membri, seguendo le direttive negoziali affidatele dal Consiglio

177
europeo tramite un mandato votato all’unanimità dal Consiglio stesso e reso pubblico.
Si tratta poi di un accordo internazionale misto che tocca anche competenze non esclusive
dell’Unione; pertanto, affinché entri in vigore servirà la ratifica non solo del Parlamento
europeo, ma anche dei singoli parlamenti nazionali. I paesi Ue che non si trovassero
d’accordo con il testo definitivo del Ttip potrebbero impedirne l’entrata in vigore con la
mancata ratifica. In sostanza, gli stati membri non solo hanno votato cosa potesse o non
potesse essere negoziato, ma possono anche non essere d’accordo con l’esito delle
negoziazioni. Dal che segue che, nel bene e nel male, i punti di vista nazionali continueranno
a contare. Lo spettro di un “grande accordo” paracadutato da Bruxelles sulle teste dei singoli
cittadini europei non è una prospettiva realistica.
Punto secondo, la minaccia alle tutele dei consumatori e dell’ambiente. Caso simbolo
dell’argomentazione anti-Ttip è l’eventuale abolizione del principio di precauzione.
Nella Ue non si può mettere in commercio un prodotto se non si riesce a dimostrare che non
è dannoso per la salute e per l’ambiente. Negli Usa tutto è commerciabile senza l’evidenza
scientifica che il prodotto sia dannoso per la salute umana e per l’ambiente, il che rovescia
l’onere della prova. Molti sostengono che con l’entrata in vigore del Ttip il principio oggi
vigente in Europa possa venire meno. Il principio di precauzione è, tuttavia, invocato nei
Trattati europei, in particolare all’articolo 191 del Trattato sul funzionamento della Ue.
Quindi, a meno che non si vogliano modificare i Trattati (e la procedura per la loro revisione
di cui all’articolo 48 del Trattato sull’Unione europea richiede comunque l’accordo di tutti gli
stati membri), il principio resta in vigore. Anche dopo l’eventuale approvazione del Ttip.
Terzo e ultimo punto, la questione della trasparenza. Vero è che le trattative sono cominciate
a porte chiuse. Ma la Commissione europea ha poi voluto compiere una controversa azione di
chiarezza, data la diffusa preoccupazione dei cittadini europei. Ha tolto il segreto sul
mandato negoziale (di solito non è strategicamente consigliabile rendere pubblico cosa si
vuole ottenere in una trattativa) e ha creato una pagina web ad hoc, dove pubblica
periodicamente i risultati di ogni round negoziale. Visti gli esiti, tanta trasparenza non paga.
Il dibattito sarebbe più costruttivo se le preoccupazioni fondamentali sul Ttip non
distogliessero l’attenzione dagli argomenti effettivamente sul tavolo. Una discussione più
pragmatica su quanto, ad esempio, è realisticamente conseguibile dalla difesa delle
denominazioni di origine (baluardo delle tradizioni locali per la Ue, concetto quasi
sconosciuto in Usa) sarebbe molto più utile delle tante battaglie di principio lanciate dalle
piazze europee. E magari riusciremmo a riconquistare chi si preoccupa della carne che
mangiamo, come Bastianich.

178
SOCIETÀ E CULTURA

Non c’è più religione


01.06.16
Marzio Barbagli

La partecipazione religiosa è al livello più basso nella storia del nostro paese, in particolare
fra i ventenni. Il processo di secolarizzazione avrà effetti rilevanti su politica e società italiane.
Non direttamente sull’esito delle elezioni, ma su decisioni importanti lungo la vita di
ciascuno.

Lento declino dei praticanti

Qual è lo stato di salute della religione in Italia? Come è cambiato negli ultimi decenni? Gli
scienziati sociali sono concordi nel ritenere che l’indicatore più adatto per rispondere a tali
domande sia la frequenza con la quale la popolazione di un paese si reca in un luogo di culto.
Alcuni studiosi, analizzando i dati, sono arrivati alla conclusione che in Italia la quota di
praticanti regolari (persone che vanno a messa almeno una volta alla settimana) è diminuita
dal 1956 al 1981, mentre è rimasta quasi costante, o ha conosciuto deboli inversioni di
tendenza, nel decennio successivo. Ma cosa è avvenuto dopo? L’ultimo ventennio è stato un
periodo di grandi cambiamenti, alcuni dei quali, come l’invecchiamento della popolazione e
l’immigrazione, supponiamo abbiano fatto crescere la quota dei praticanti, mentre di altri (la
lunga crisi economica) non sappiamo se abbiano avuto effetti in questo campo. Secondo i dati
dell’archivio Istat (senza dubbio i più affidabili fra quelli esistenti), dal 1995 al 2015, la quota
di chi va a messa almeno una volta alla settimana è passata dal 39,7 al 29 per cento,
perdendo circa mezzo punto all’anno. Questo si è verificato in tutte le regioni del nostro
paese, cosicché le distanze territoriali sono rimaste immutate. Oggi, come venti anni fa, i
praticanti sono più numerosi nel Mezzogiorno e nelle isole (figura 1).

179
Abbiamo l’impressione di trovarci di fronte a un declino progressivo, lento, dolce, senza salti
bruschi. Tuttavia, se approfondiamo l’analisi, ci accorgiamo che in alcuni casi vi sono state
delle forti cadute. La quota di chi va regolarmente in chiesa varia a seconda dell’età. La
relazione è stata rilevata molte volte, ma i dati Istat ci permettono di osservarla meglio. Nel
1995, la percentuale dei praticanti raggiungeva il picco fra i ragazzi dai 6 agli 11 anni.
Diminuiva fortemente nelle classi di età successive, fino a raggiungere il livello più basso fra i
30 e i 39 anni. Poi riprendeva a salire fino a 80 anni. Scendeva ancora dopo quell’età. Questo
andamento era probabilmente effetto sia della generazione di appartenenza che dell’età, cioè
della fase della vita. Così, ad esempio, se coloro che avevano fra 60 e 80 anni andavano in un
luogo di culto più spesso dei più giovani era perché si erano formati in un periodo storico nel
quale la religione aveva maggiore importanza. Ma probabilmente era anche effetto dell’età
perché, invecchiando, si sentivano più deboli e fragili e cercavano conforto nella religione. Se
gli ottantenni andavano a messa meno dei settantenni era anche perché uscivano meno
spesso di casa. Era inoltre riconducibile all’età e non alla generazione di appartenenza il fatto
che i preadolescenti andassero così frequentemente in un luogo di culto. Ci andavano,
verosimilmente, anche quando i loro genitori avevano smesso di essere praticanti o erano
diventati agnostici, perché accompagnati dai nonni.

Il comportamento dei ventenni

Nell’ultimo ventennio, il declino della partecipazione religiosa è avvenuto non solo in tutte le
zone del paese, ma anche in tutte le classi di età. Ma è stato minore fra gli anziani o nelle età

180
di mezzo e maggiore fra i giovani. È stato forte per la classe fra i 12 e i 19 anni, fortissimo in
quella successiva, dai 20 ai 29. Fra i ventenni, la quota di chi va in un luogo di culto almeno
una volta alla settimana è scesa, dal 1995 al 2015, dal 26,8 al 14,6 per cento. Un vero e
proprio crollo, il cui significato appare ancora più evidente se analizzato per zona. Nelle classi
più anziane, il declino della pratica religiosa è stato minore nelle regioni meridionali e insulari
che in quelle centro settentrionali. Invece, fra i ventenni, la flessione dei praticanti è stata
notevole ovunque, ma nel Sud è stata più ampia che nel Nord. È anzi questa l’unica classe di
età nella quale le tradizionali differenze territoriali sono diminuite (figure 2 e 3).

181
Dunque, né l’invecchiamento della popolazione, né l’arrivo di milioni di immigrati né la lunga
crisi economica hanno arrestato il processo di secolarizzazione. E neppure il carisma di due
papi eccezionali – Giovanni Paolo II e Francesco I – è bastato a riportare gli italiani nelle chiese
e nelle parrocchie. La partecipazione religiosa ha raggiunto oggi il livello più basso nella
storia del nostro paese. La fortissima flessione che ha avuto luogo fra i ventenni fa pensare
che il processo continuerà a lungo e avrà effetti rilevanti sulla vita politica e sociale. Non
direttamente sull’esito delle elezioni, perché, da quando è scomparsa la Democrazia cristiana,
la pratica religiosa ha smesso di essere un buon predittore delle scelte di voto. Ma certamente
sulla vita intima, domestica, sul modo in cui si formano e si rompono le famiglie, le coppie
etero e omosessuali, sui comportamenti sessuali e riproduttivi, sulle decisioni riguardanti la
fine della vita.

182
EUROPA

Come sarà l’Europa nel 2026 se vince Brexit


14.06.16
Gianni De Fraja

Cosa sarà dell’Europa se vince la Brexit? Le differenze culturali, politiche ed economiche tra i
diversi paesi membri potrebbero accentuarsi ancora di più, fino ad arrivare al dissolvimento
dell’Unione e alla formazione di due blocchi in contrasto fra loro. Uno scenario immaginario,
ma non troppo.

23 giugno 2026

Ieri, 23 giugno 2026, era il decimo anniversario della vittoria a sorpresa del referendum per
l’uscita dall’Unione Europea di quello che allora si chiamava Regno Unito. È quindi di
profondo valore simbolico la data scelta dal primo ministro del Resto del Regno Unito, Boris
Johnson, fiancheggiato dal suo ministro degli esteri Nigel Farage, per la firma dell’accordo per
l’ingresso del Ruk nell’Associazione dell’Europa Baltica presieduta da Angela Merkel. Il
referendum confermativo dell’accordo, programmato per il mese prossimo, sarà una pura
formalità: i sondaggi indicano una maggioranza a favore addirittura superiore a quel 68 per
cento che in marzo portò la Scozia nell’Aeb.

Due Europe

Si chiude così in modo definitivo la scissione dell’Europa in due blocchi economicamente e


culturalmente separati. Nonostante entrambi i blocchi avessero alacremente corteggiato
l’Inghilterra, l’interesse dimostrato da Johnson per l’Unione del Mediterraneo del Nord si è
rivelato spudoratamente tattico, volto a ottenere le migliori condizioni possibili nelle
negoziazioni con Merkel. Da ieri, i due blocchi hanno esattamente lo stesso numero di
membri e ciascuno la metà esatta dei 28 membri della vecchia Ue, che raggiunse la massima
dimensione storica dopo l’adesione della Croazia nel 2013.
Simbolico anche il fatto che ognuno dei due blocchi contiene tre dei sei membri fondatori
dell’originale comunità del carbone e dell’acciaio; e la simmetria è mantenuta anche dalle
scelte delle quattro nazioni formatisi in seguito a secessioni da paesi membri, una tra le
molte conseguenze dell’inaspettato voto del 2016.
La firma dell’accordo mette fine a un periodo della storia europea iniziato con le
conversazioni, in tedesco, tra Robert Schuman, Alcide De Gasperi e Konrad Adenauer, che
dettero il via all’unificazione l’Europa dopo i traumi delle guerre della prima metà del secolo
scorso.
Prima del referendum di dieci anni fa, c’erano stati segni premonitori, eventi che, con il senno

183
del poi, erano chiari segnali che la fine del periodo di unità era un rischio presente e reale. La
vecchia Unione si dimostrò infatti incapace di creare un piano coerente per gestire
l’emergenza determinata dai profughi delle guerre civili nel medio oriente e nel corno
d’Africa, il cui numero complessivo, pur grande in assoluto, era meno di un minuscolo 0,5 per
cento della popolazione europea. Prima ancora l’Unione si era dimostrata incapace di
proporre soluzioni sensate alla crisi economica della Grecia. Dopo la Brexit, la vecchia Unione
Europea smise di attrarre nuovi membri, tutti si bloccarono in un gioco di attesa, nel
sospetto, poi confermato dai fatti, che il continente si sarebbe diviso: i potenziali entranti
attendevano la spaccatura, per decidere poi in quale blocco entrare, mentre ciascuno dei 28
membri aspettava che qualcun altro facesse la prima mossa. La morte dell’Ue fu davvero
annunciata quando si rifiutò di appoggiare la feroce guerra all’Isis condotta da Hillary Clinton.
E ancor più due anni dopo, quando i suoi leader, intenti solo ad arruolare nel loro blocco i
membri non ancora schierati, chiamarono cassandre i pochi che avevano intuito le intenzioni
di Vladimir Putin e poi osservarono paralizzati l’esercito di Mosca annettere indisturbato
le otto regioni orientali “dell’Ucraina russa”. L’inerzia fu un mortale dilemma del prigioniero in
cui la soluzione migliore per l’Europa era troppo costosa per ciascuno dei due blocchi preso a
sé, nonostante fosse ovvio a tutti che le promesse dell’inesperta neo-presidente Sarah Palin
di opporsi con fermezza al bullismo russo valessero meno di quelle di un marinaio ubriaco.

Davvero così separati?

Gli storici del futuro continueranno a immaginare scenari diversi, in cui il drammatico fallito
attentato al principe Carlo due giorni prima del referendum non avviene, o in cui almeno
7.451 elettori non cambiano idea in conseguenza, e la Brexit è respinta. Per parte loro, i
complottisti continueranno a insistere che qualcuno nei servizi segreti abbia scelto di non
prevenire l’attentato nonostante le informazioni raccolte dagli infiltrati nel gruppo terrorista.
Certo, le differenze tra due visioni del mondo prevalenti nella popolazione e nelle élite
politiche, culturali ed economiche delle nazioni d’Europa hanno sempre reso difficile formare
politiche che accontentassero tutti, e le scelte radicalmente diverse fatte dai due blocchi in
campi disparati quali l’adesione al Ttip (Transatlantic Trade and Investment Partnership),
l’atteggiamento verso i vaccini, il diritto di adottare per coppie gay e lesbiche, il commercio di
cibi Ogm, il peso relativo dei diritti individuali di fronte ai poteri statali, suggeriscono che una
divisione della vecchia Ue sarebbe forse avvenuta comunque.
Ma è altrettanto possibile che un deciso voto britannico a favore dell’Ue avrebbe dimostrato al
resto dell’Europa e del mondo che anche la nazione più euroscettica valutava i benefici di
lungo periodo decisamente superiori ai costi e avrebbe riacceso l’entusiasmo nel resto del
continente e cambiato così il corso della storia del XXI secolo.

184
FINANZA

Banche, rischio sistemico e rischio politico


22.07.16
Silvia Merler

Alcune banche italiane potrebbero aver bisogno di ricapitalizzarsi. Il governo cerca di


contrattare con Bruxelles una diversa applicazione del bail-in per non coinvolgere nelle
perdite gli obbligazionisti subordinati, spesso piccoli risparmiatori. Ma è una scelta sbagliata,
per almeno tre motivi.

Quando scatta il bail-in


Le banche italiane tornano a preoccupare i mercati in vista dei risultati degli stress test, che
L’Autorità bancaria europea (Eba) rilascerà alla fine del mese e che potrebbero rivelare la
necessità di aumenti di capitale. Al centro della discussione tra Roma e Bruxelles c’è la
possibilità di utilizzare fondi pubblici e le conseguenze che ciò avrebbe per contribuenti e
detentori di obbligazioni bancarie. Le regole europee prevedono che una banca che necessiti
di capitale cerchi di procurarselo sul mercato da investitori privati. Il fatto che abbia bisogno
di ricorrere al supporto pubblico è normalmente sufficiente affinché sia messa in
risoluzione. Se la banca entra in risoluzione, l’uso di fondi pubblici è concesso dopo aver
imposto parte delle perdite a azionisti e obbligazionisti. La direttiva europea in materia di
risoluzione bancaria prevede che il contributo (bail-in) sia pari ad almeno l’8 per cento del
passivo totale. In Italia, il requisito è problematico per via della quantità di obbligazioni
bancarie detenute dai risparmiatori al dettaglio, spesso all’oscuro del rischio. Per rimediare
“disturbi” all’economia nazionale o per preservare la stabilità finanziaria, l’articolo 32(4.d)
della direttiva permette di effettuare una ricapitalizzazione precauzionale con fondi pubblici
senza che la banca venga messa in risoluzione. In questo caso, la ricapitalizzazione è
soggetta alla disciplina che regola gli aiuti di stato, che prevede comunque il contributo dei
creditori della banca, ma limitato ad azionisti e obbligazionisti subordinati. Questa opzione
limita il requisito di bail-in rispetto al caso in cui la banca sia messa in risoluzione, ma non lo
elimina. Il costo politico resta rilevante, perché in Italia i piccoli investitori detengono circa
metà di tutte le obbligazioni bancarie subordinate.

L’eccezione all’eccezione

La situazione è evidentemente delicata: c’è la necessità di rafforzare il capitale delle banche


italiane per rassicurare gli investitori, ma la disciplina europea prevede che l’uso di fondi
pubblici sia normalmente soggetto all’imposizione di perdite su azionisti e – come minimo –
obbligazionisti subordinati. Prospettiva non allettante per un governo che prepara un
referendum cruciale in ottobre, dopo segnali preoccupanti dalle recenti elezioni. La

185
Comunicazione bancaria emessa dalla Commissione europea nel 2013 contiene un’eccezione
all’eccezione: permetterebbe di limitare ulteriormente o di sospendere il bail-in degli
obbligazionisti subordinati previsto nel regime degli aiuti di stato, se anche questo minimo
bail-in mettesse a rischio la stabilità finanziaria o avesse “effetti sproporzionati”. Il governo
italiano potrebbe invocare questa eccezione all’eccezione, ma non dovrebbe farlo, per tre
motivi. Primo, l’idea del “diritto costituzionale al risparmio” – popolare in Italia tra gli
oppositori del bail-in – è fuori luogo. Confonde i due concetti di investimento e risparmio:
investire i propri risparmi in obbligazioni bancarie comporta un rischio. La Costituzione
italiana non garantisce – e non dovrebbe garantire – il diritto a essere sempre e comunque
salvati dalle conseguenze di scelte d’investimento sbagliate. Ciò che tutti dovrebbero vedersi
garantito è il diritto di fare scelte d’investimento consapevoli e di non essere truffati. Il che ci
porta al problema della vendita fraudolenta, rilevante nel caso italiano. Queste pratiche
avrebbero dovuto essere prevenute in passato, ma non sono motivo sufficiente per
giustificare il salvataggio di tutti gli obbligazionisti subordinati oggi. Sarebbe sbagliato dare
per scontato prima di averlo accertato che tutti gli obbligazionisti subordinati fossero
completamente inconsapevoli del rischio sottoscritto o che tutti siano stati truffati. Sembra
più saggio optare per il bail-in degli obbligazionisti subordinati ora e poi mettere in piedi uno
schema di compensazione per le vittime di frode, come fatto l’anno scorso. Secondo, il rischio
per la stabilità finanziaria, necessario per sospendere il minimo bail-in richiesto nel caso di
ricapitalizzazione precauzionale, non è ovvio. Il bail-in degli obbligazionisti subordinati
condotto nel 2015 non ha avuto effetti distruttivi e non c’è un’ovvia ragione per cui una
ricapitalizzazione precauzionale – che includa uno schema credibile di compensazione per le
vittime di frode e la protezione dei creditori senior – debba creare necessariamente instabilità
finanziaria. Il rischio semmai è politico, perché lo shock sarà immediato e il rimborso
richiederà tempo. Infine, la gestione della situazione Italiana ha importanti implicazioni a
livello Ue: è la prima occasione in cui la direttiva in materia di risoluzione viene sperimentata
nel mondo reale. Lo scopo delle regole è fornire chiarezza sulla gestione dei problemi bancari
in futuro ed è necessario che vengano applicate coerentemente perché siano credibili. Non c’è
una soluzione facile: in un paese in cui l’alfabetizzazione finanziaria è bassa e circa un terzo
delle obbligazioni bancarie è in mano a investitori retail, il bail-in sarà doloroso. Ma piegare
le regole – che si sono negoziate, trasposte e si conoscono da tempo – per evitare anche il
coinvolgimento minimo degli obbligazionisti subordinati previsto in caso di ricapitalizzazione
precauzionale creerebbe una confusione pericolosa con effetti imprevedibili a livello europeo.

186
CONTI PUBBLICI
SPORT

Olimpiadi sì o no? Vediamo i conti


23.09.16
Jerome Massiani e Francesco Ramella

Tutte le candidature olimpiche sono precedute da stime ottimistiche sui risultati economici
che dovrebbero produrre. Ma la realtà è spesso diversa. E i costi degli investimenti sbagliati
ricadono sulla collettività, non sui promotori. Quello che manca nelle analisi costi-benefici per
Roma 2024.

Un volano per l’economia locale? Il caso di Torino


Secondo l’opinione comune l’organizzazione dei giochi olimpici, così come di altri “grandi”
eventi, rappresenta un volano per il rilancio dell’economia del territorio interessato.
L’argomento fu ampiamente utilizzato, per esempio, dai promotori delle Olimpiadi invernali
di Torino 2006. A qualche anno di distanza, siamo in grado di valutare se l’aver ospitato i
Giochi abbia modificato in misura significativa le prospettive di crescita del capoluogo e del
Piemonte.
Tra il 2001 e il 2007 il Pil regionale era cresciuto del 6,4 per cento contro un dato nazionale
pari al 9,1 per cento. Dal 2008 al 2013 il divario si è ulteriormente ampliato: se l’economia
italiana ha subito una contrazione dell’8,5 per cento, quella piemontese è arretrata dell’11,6
per cento. Il confronto non basta per esprimere un giudizio definitivo sui grandi eventi, ma
impone un esame attento delle “promesse” dei loro sostenitori.

187
Tabella 1: Variazione del Pil nelle regioni italiane nel periodo 2001-2013 (tassi medi annui di
variazione %)

Fonte: Rapporto Svimez 2014 sull’economia del Mezzogiorno

Lo studio dei promotori di Roma 2024

Nel caso di Roma, la maggiore parte delle cifre che ricorrono nel dibattito pubblico
provengono da un’unica analisi, realizzata per conto dei promotori del progetto. Lo studio è
attento a non riprodurre alcuni errori presenti in precedenti valutazioni: considera
correttamente un rischio di rincaro per le infrastrutture, si interroga sul carattere addizionale
o meno della spesa realizzata e impiega metodologie (prezzi ombra) che intendono

188
riprodurre effetti di equilibrio generale.
Lo studio può portare a equivoci per due principali motivi. Il primo riguarda l’impostazione
localista: si valuta il beneficio per il Lazio, mentre il bilancio costi-benefici dovrebbe essere
riferito alla scala territoriale che sopporta i costi (in questo caso l’Italia). Il secondo è relativo
a come sono presi in considerazione gli effetti di sostituzione che sono la fonte essenziale di
sovrastima dei benefici: la spesa pubblica per infrastrutture si realizza sostanzialmente a
scapito di altri investimenti pubblici, soprattutto oggi in presenza di forti vincoli
all’indebitamento pubblico, o tramite prelievi sul reddito dei privati.
Non è corretto affermare che, con la rinuncia, l’Italia perde un finanziamento di 1,7 miliardi
da parte del Comitato olimpico internazionale in quanto questa risorsa non è separabile da un
insieme indissociabile di diritti e di obblighi. La questione decisiva è sapere se il valore netto
del pacchetto è positivo o negativo. Su questo punto sono pochissimi, anche a livello
internazionale, gli studi che forniscono un bilancio complessivo, per l’insieme della collettività
e non di singoli portatori di interesse.
Le informazioni disponibili su Roma 2024 non sono sufficienti per pervenire a un bilancio di
questo tipo.
La proposta di Olimpiadi low cost, allineata con gli obiettivi dichiarati del Cio nell’agenda
2020, merita un attento scrutinio. Spesso si verificano casi di etichettatura della spesa: in
base alle contingenze di una determinata candidatura, diverse voci di costo possono essere
fatte rientrare o meno nel bilancio. Nel caso in esame è difficile, ad esempio, accettare
l’ipotesi che l’evento possa realizzarsi a costo zero per le finanze della capitale; o, ancora,
che spese infrastrutturali, finora non imputate come costo delle Olimpiadi, non verranno
successivamente attivate in caso di assegnazione dei giochi.
In secondo luogo, eventuali benefici per il turismo sono da relativizzare, in particolare perché
Roma è già una destinazione turistica di primissima notorietà. Più in generale, non appare
esserci nessun ritorno d’immagine se l’organizzazione dei giochi funzionasse perfettamente,
mentre gli effetti sarebbero negativi nel caso di cattiva gestione.

Valutazioni prima e dopo l’evento

Non vi è candidatura olimpica che nel passato non sia stata supportata da un’analisi
preliminare ottimistica. Assai diverso, però, è il quadro che emerge dalle analisi dopo l’evento
che mostrano ricadute occupazionali ed economiche spesso meno favorevoli di quelle
prospettate inizialmente.

189
Tabella 2

Fonte: Robert Baade e Victor Matheson


I benefici risultano di norma largamente inferiori alle previsioni, mentre i costi aumentano in
modo notevole. Lo studioso danese Bent Flyvbjerg ha stimato che negli ultimi
cinquantacinque anni lo scostamento dei costi è risultato in media pari al 156 per cento.
Su queste basi appare difficile concludere sull’effettivo (s)vantaggio di avere rinunciato a
Roma 2024. È comunque chiaro che le rappresentazioni comuni possono facilmente essere
distorte rendendo la percezione dell’evento esageratamente favorevole e creando in questo
modo il rischio di un investimento infelice i cui costi sarebbero sopportati dalla collettività e
non dai promotori.

190
CONTI PUBBLICI, ISTITUZIONI E FEDERALISMO

Referendum: quanto scendono davvero i costi


della politica?
22.11.16
Roberto Perotti

Uno degli argomenti nel dibattito sul referendum è il risparmio di costi della politica che ne
conseguirebbe. Stimiamo un risparmio massimo per il contribuente di 140 milioni due anni
dopo l’entrata in vigore della riforma e di 160 milioni a regime. Una stima, ovviamente, con
margini di incertezza.

Circolano le stime più svariate sui risparmi che si otterrebbero se passasse la riforma
costituzionale. In questo lavoro stimo un risparmio per il contribuente di 140 milioni due anni
dopo l’entrata in vigore della riforma costituzionale, e di 160 milioni a regime. La Tabella 1
sintetizza le fonti di questi risparmi. Come sempre, queste stime sono soggette ad un ampio
margine di incertezza. In particolare, la stima di alcuni di questi risparmi si basa su
una interpretazione favorevole di alcuni passaggi ambigui nel testo della riforma. Sotto una
interpretazione più restrittiva, i risparmi si ridurrebbero a circa 110 milioni dopo due anni e
130 milioni a regime.

Tabella 1: Sommario dei risparmi dalla riforma costituzionale

Il seguito di questa nota mostra i dettagli di queste stime. Per comprenderle, è importante
tenere presente che cercherò di ricostruire il risparmio per i contribuenti dalla attuazione
della riforma. La versione più lunga di questo articolo (scaricabile qui) mostra i dettagli
metodologici.
191
Consideriamo ora le varie voci di risparmio della riforma.

1. Il Senato

Cominciamo dal Senato. La Tabella 2 mostra il costo attuale per il contribuente e i risparmi
stimabili. La riforma prevede che i membri del Senato scendano (inclusi i senatori a vita) da
320 a 100, una riduzione del 69 percento. Secondo il nuovo articolo 69 inoltre “I membri
della Camera dei deputati ricevono una indennità stabilita dalla legge”. Dunque
l’articolo abolisce certamente le indennità (prime due righe della Tabella 2).
Non è chiaro se il nuovo articolo 69 abolisca anche i rimborsi spese. Per sicurezza, ipotizzo
che anche tutti i rimborsi spese attuali vengano aboliti (righe dalla 3 alla 7).
Nel lungo periodo, il personale del Senato diminuirà, non però in proporzione alla riduzione
dei senatori del 69 percento. Per far funzionare una istituzione come il Senato vi sono molti
costi fissi: per esempio, il numero degli usceri o degli elettricisti è quasi indipendente dal
numero dei senatori. A regime è quindi ragionevole ipotizzare che il personale si riduca del
30 percento. Il risparmio per il contribuente sul monte salari sarà di 33 milioni (righe 8, 9 e
10). Ovviamente non tutta la riduzione del personale avverrà immediatamente: poiché non
sono previsti licenziamenti, il personale si ridurrà solo per attrito. Ipotizzando che in media
ogni anno vada in pensione il 3 percento del personale, due anni dopo l’entrata in vigore della
riforma il personale si sarà ridotto del 6 percento, per un risparmio di 7 milioni. Anche nelle
altre spese di funzionamento del Senato vi sono numerosi costi fissi. A seconda della voce,
ipotizzo quindi una riduzione dal 50 allo 0 percento.

Ci sono poi alcune spese che aumenteranno. La riforma, inspiegabilmente, ha attribuito al


Senato il nuovo compito di valutare le politiche economiche e territoriali del governo. In altre
parole, il Senato si dovrà trasformare in un centro studi, tipo SVIMEZ. Inoltre, come è stato
giustamente affermato, i senatori potranno lavorare solo alcuni giorni al mese; gli altri giorni,
il lavoro di supporto dovrà essere assegnato alla loro segreteria, i cui ranghi dovranno venire
corrispondentemente rimpolpati. Infine, i senatori che giungono da tutta Italia avranno
sicuramente diritto almeno a un rimborso spese. Sommando tutti questi risparmi e aumenti di
spesa, stimo un risparmio per il contribuente di 107 milioni nel 2020 (due anni dopo
l’inaugurazione del primo Senato con le nuove regole) e di 131 milioni a regime, diciamo
nel 2030.

2. Il CNEL

Il nuovo articolo 99 della Costituzione elimina il CNEL. Per calcolare i risparmi da questo
articolo, bisogna tenere presente che il CNEL è di fatto già stato chiuso con legge ordinaria.
Per esempio, nel bilancio di previsione per il 2016 il compenso per gli organi istituzionali era
già uguale a 0. Nella sua nota dell’ottobre 2014, la Ragioneria stimava un risparmio dalla
192
riforma costituzionale di 8,7 milioni (essenzialmente, il totale delle spese rimanenti del CNEL
dopo la sua chiusura “di fatto”, al netto degli accantonamenti, che sono spese una tantum).
Il risparmio effettivo sarà però solo di 3 milioni (vd. Tabella 3). Il motivo principale è che la
riforma ha disposto che tutto il personale del CNEL venga assunto dalla Corte dei Conti,
quindi non vi sarà alcun risparmio su quel fronte.

3. La riduzione dei compensi dei consiglieri regionali

Secondo il nuovo articolo 122 una legge della Repubblica stabilirà gli emolumenti dei
consiglieri regionali, “nel limite dell’importo di quelli attribuiti ai sindaci dei Comuni
capoluogo di Regione.”
La Tabella 4 mostra i compensi attuali dei sindaci dei capoluogo regionali, e dei consiglieri
regionali. Come spesso accade, c’è un elemento di ambiguità: non è chiaro se il termine
“emolumento” dei consiglieri regionali si intende solo l’indennità di carica o anche il rimborso
spese per l’esercizio del mandato. Anche in questo caso, per sicurezza assumo l’ipotesi più
favorevole alla riforma, la seconda, che comporta un risparmio di spesa per il contribuente di
17 milioni (la prima comporterebbe un aggravio di spesa di 7 milioni).

4. L’abolizione dei contributi ai gruppi consiliari regionali

La riforma (Disposizioni finali, comma 2) abolisce i contributi ai gruppi consiliari regionali,


che in questo momento valgono circa 15 milioni. È difficile pensare che essi non vengano
sostituiti in parte da qualche voce alternativa, che consenta ai gruppi politici di funzionare. Un
risparmio di 10 milioni appare realistico.

5. La “decostituzionalizzazione” delle province

Come è noto, la riforma costituzionale rimuove le province dalla lista di enti costituzionali. In
molti includono i risparmi dall’abolizione delle province nel calcolo dei risparmi dalla riforma
costituzionale. Questo approccio non è corretto. Il motivo è semplice: gran parte delle
funzioni delle province sono già state riallocate a comuni, città metropolitane, e regioni con
una legge ordinaria del 2014 (la legge “Delrio”); i dipendenti pubblici non più necessari
verranno gradualmente riassorbiti da altri enti pubblici; la stessa legge ha eliminato gli
emolumenti ai consiglieri provinciali. Dunque i risparmi della riforma delle province si
sono già manifestati, e rimarrebbero anche se passasse il no al referendum: sono
indipendenti dalla riforma costituzionale.

193
Tabella 2: Risparmi dalla riduzione del numero dei senatori e abolizione dell’indennità

194
195
196
Tabella 3: Risparmi dall’abolizione definitiva del CNEL

197
Fonte: Bilancio di previsione del CNEL del 2016

198
Tabella 4: Risparmi dalla riduzione dei compensi dei consiglieri regionali

Fonti: siti web dei comuni capoluogo e delle regioni

199
ISTITUZIONI E FEDERALISMO

Livorno, dove la trasparenza non paga


10.05.16
Carlo Scarpa

Il sindaco di Livorno, per fare chiarezza sul collasso della municipalizzata dei rifiuti, decide di
portare i libri in tribunale. Poco dopo anche per lui scatta l’avviso di garanzia. Eppure qual è il
compito dell’amministratore pubblico se non provare a risolvere i problemi della collettività?

La pessima prassi di nascondere i “piccoli” problemi…

Vita dura quella dell’amministratore della cosa pubblica. Ne sa qualcosa il sindaco di Livorno,
che dopo aver cercato di fare chiarezza sul collasso di un’impresa pubblica (la
municipalizzata dei rifiuti dello stesso comune, rovinata da anni di mala gestione) e dopo
avere fatto un atto di estremo coraggio (portare i libri in tribunale) è rimasto coinvolto dallo
scandalo che lui stesso aveva sollevato.
Vita dura davvero. E vale la pena di ricostruirne i passaggi.
Anno 2014. Dopo settanta anni di indiscussa amministrazione di sinistra (dal Pci al Pd, dal
1944 nessun sindaco livornese ha avuto un’estrazione diversa) viene eletto sindaco Filippo
Nogarin, del Movimento 5 Stelle. Forse i livornesi si sono accorti che “qualcosa” non andava?
Non lo so. Ma da allora – tra i tanti problemi sul tappeto – il neo sindaco si trova ad affrontare
il tema della locale azienda dei rifiuti (Aamps), al 100 per cento del comune. E qui, le cose che
non andavano erano tante.
È almeno dal 2010 che il margine operativo dell’impresa non è superiore agli ammortamenti:
in cinque anni, oltre 7,3 milioni di perdite a livello di risultato operativo netto (i bilanci sono
sul sito del comune). Tanto che nel 2013 una verifica da parte del ministero dell’Economia
aveva denunciato una decina di “non conformità”, alcune decisamente gravissime. Come si
legge, per esempio, nello stesso bilancio dell’impresa, “non puntuale riscossione della tariffa
di igiene Ambientale; squilibrio tendenziale fra costi della produzione e ricavi; eccessivo
ricorso all’indebitamento verso istituti bancari”.
Ciononostante, nella primavera 2014 gli amministratori chiudono “tranquillamente” il bilancio
del 2013 facendo apparire utili minimi ma superiori allo zero e parlando più in generale di
“un risultato positivo (…) che ci fa ben sperare per il futuro”. Decisione coraggiosa, di fronte
di una relazione del collegio sindacale (l’organo di controllo) il quale concludeva, con insolita
franchezza, che il “progetto di bilancio al 31/12/2013 non è stato redatto con chiarezza e
non rappresenta in modo veritiero e corretto la situazione patrimoniale, finanziaria e
il risultato economico di Aamps”.

200
… fin quando i problemi stessi non siano troppo grandi

Dopo qualche settimana si insedia la nuova amministrazione, che deve decidere cosa fare dei
problemi che fino allora erano finiti sotto il tappeto. Il risultato è che il bilancio di fine 2014 fa
segnare quasi 12 milioni di perdita, con debiti a breve verso le banche saliti da 4 a 12,5
milioni. Una situazione in gran parte dovuta alla necessità di accantonare somme ingenti per
crediti vecchi ormai di fatto inesigibili: le tariffe “di igiene ambientale” che le precedenti
amministrazioni mantenevano a bilancio quasi si trattasse di crediti di imminente incasso.
Anche questo è stato un bilancio molto sofferto, approvato a fine ottobre (cinque mesi oltre il
normale), di nuovo con il parere negativo dei sindaci, che sollevano forti dubbi sulla
“continuità aziendale”. A fine 2015 la nuova amministrazione deve quindi portare i libri in
tribunale; preferisce tentare altre strade, ma – anche mancandole le risorse – il 25 febbraio
2016 viene presentata domanda di ammissione al concordato preventivo, ciò che il tribunale
concede il 5 marzo.

Un concordato con poca concordia

Il concordato ha tante conseguenze. Citiamone due per tutte, giusto per chiarire i risvolti
economici e politici della cosa.
La prima è che l’impresa può sospendere il pagamento degli interessi alle banche. A
cominciare dal Monte dei Paschi, che a quanto pare riceveva da questa fonte quasi un milione
all’anno. La seconda conseguenza è che di fatto tutti i contratti dell’azienda vengono ora
passati al setaccio, con prospettive tutte da verificare per artigiani e cooperative locali. E lo
scontento monta su diversi fronti…
Purtroppo, nel gennaio di quest’anno la società (non ancora in concordato, ma sicuramente in
situazione delicatissima) decide di stabilizzare una trentina di precari, assumendoli a tempo
indeterminato. Atto opportuno? Sicuramente no. Atto dovuto? Forse. Ora, arriva l’avviso di
garanzia, forse legittimo, per carità, ma almeno altrettanto paradossale.
Il provvedimento finisce infatti per coinvolgere proprio la persona che questo bubbone lo ha
fatto scoppiare. La polemica politica non mi interessa; se però il sindaco avesse continuato a
nascondere le magagne sotto il tappeto, ora probabilmente staremmo parlando di altro.
Chiunque abbia un ruolo amministrativo e provi a prendersi responsabilità “vere” è avvisato. Il
coraggio – almeno per ora – non paga.
Ma, d’altra parte, se fai l’amministratore pubblico senza provare a risolvere i problemi della
tua collettività, a cosa servi?

201
DISCRIMINAZIONE, FAMIGLIA

I bambini non nascono sotto un Fertility day


02.09.16
Alessandra Casarico, Daniela Del Boca e Paola Profeta

Per aumentare la natalità nel nostro paese non basta una campagna pubblicitaria o una
ridefinizione del bonus bebè. Servono risorse e misure strutturali che creino condizioni più
favorevoli alla scelta di fare figli. Occupazione femminile, investimenti per la prima infanzia e
ruolo dei padri.

Perché non basta il bonus bebè

Oggi, in Italia, il bonus per bimbo nato è di 80 euro mensili, complessivamente 960 euro
all’anno per tre anni alle famiglie con un reddito che non superi i 25mila euro. I cambiamenti
anticipati dal ministro della Famiglia Costa sono tre. Il primo riguarda l’età della madre (già
discussa nell’articolo di Francesco Billari). Il secondo è un ampliamento dei tempi in cui è
possibile percepire il bonus, disponibile dal settimo mese di gravidanza. Il terzo riguarda la
stabilità dell’intervento, a differenza delle misure una tantum precedenti. L’intervento ha
come obiettivo la ripresa del tasso di fecondità nel nostro paese, che gravita attorno a 1,4
figli per donna ormai da anni ed è stimato dall’Istat a 1,35 per il 2015. Tuttavia, non è solo la
stabilità del bonus bebè (o la possibilità di percepirlo prima della nascita del bambino) che
può incentivare la natalità italiana. La letteratura che studia l’impatto delle politiche pubbliche
sulla fecondità mostra che i trasferimenti monetari alle famiglie hanno effetti limitati: al
massimo inducono quelle che già sono orientate ad avere figli ad anticipare la data delle
scelte riproduttive.
L’obiettivo generale delle politiche deve essere ridurre i livelli di incertezza in cui si trovano le
giovani coppie in Italia, che le porta a spostare più avanti – e a volte a rinunciare – alle tappe
della vita adulta: indipendenza dalla famiglia di origine, lavoro, casa, figli. Secondo i dati
Ocse, nel 2014 l’Italia era il paese in cui le madri alla nascita del primo figlio avevano l’età più
elevata d’Europa: 30,7 anni contro una media Ue-28 di 28,5. La stima Istat per il 2015 è in
ulteriore salita a 31,6. Mentre sono in Francia le mamme più giovani: 28,3 anni alla nascita
del primo figlio. Questi dati possono giustificare la proposta di condizionare il bonus all’età
della mamma. Ma non è necessariamente una buona idea per le ragioni che sono già state
discusse. Come argomentano Marco Albertini e Alessandro Rosina, il bonus bebè rischia di
essere solo “una misura di sostegno al reddito per coppie la cui situazione economica è poco
florida”.
La bassa fecondità non è spiegata da una preferenza a non avere figli: la maggior parte delle
donne italiane dichiara di volerne (la fecondità desiderata è di circa due figli per donna), a
sottolineare come un contesto più favorevole potrebbe avere un ruolo importante per

202
aumentarla. Un’analisi recente svolta su un campione casuale di circa 700 donne italiane
senza figli tra i 20 e i 40 anni rivela che il 91 per cento si aspetta di avere un figlio in futuro e
il 68 per cento di averlo nei prossimi tre anni.

Le misure che servono

Cosa crea un contesto favorevole? Servono politiche che incentivino l’occupazione femminile
(che come si vede dai confronti internazionali e da quelli tra regioni italiane è positivamente
correlata ai tassi di fecondità) e, in particolare, l’occupazione delle madri: secondo i dati Istat,
circa il 25 per cento lascia o perde il lavoro dopo la gravidanza.
Occorrono investimenti per la prima infanzia, fortemente rallentati negli ultimi anni: continua
a prevalere un modello di cura fortemente legato alle reti familiari e al supporto dei nonni. La
possibilità di avere aiuti dai nonni aumenta la probabilità di avere un figlio, ma i nonni
difficilmente possono farsi carico di più bambini, e questo limita le scelte di fecondità a un
unico figlio. Il rilancio degli investimenti sulla prima infanzia risulta ancora più urgente per le
dinamiche demografiche ed economiche che renderanno sempre più difficile il ricorso ai
nonni: età di pensionamento allungate, tassi di fecondità tardivi, maggiore mobilità
geografica nel mercato del lavoro. È cruciale rafforzare le politiche di incentivo ai congedi dei
padri (ancora troppo poco coinvolti nella crescita dei figli, specie nei primi anni di vita - Del
Boca e Casarico Profeta), con conseguenze penalizzanti in particolare sulle possibilità
occupazionali e sulle carriere delle mamme. Ogni politica di rilancio della fertilità deve
includere, come è stato fatto nei paesi nordici, il ruolo dei padri. Associare il rilancio della
fecondità solo a incentivi monetari alle madri può non essere particolarmente efficace se il
nodo principale che blocca la decisione di fare figli è la divisione del lavoro di cura dei
bambini tra uomini e donne, totalmente sbilanciata sulle madri. Dove madri e padri dividono
in modo più equo e bilanciato il tempo da dedicare alla cura dei bambini, a partire dai periodi
di congedo, la fecondità aumenta.
Le politiche abitative, poco sviluppate nel nostro paese, sono un altro elemento importante
per ridurre le incertezze delle coppie giovani e favorire le scelte riproduttive.
Non a caso i tassi di fecondità sono tornati a crescere, dopo un forte declino, nei sistemi di
welfare più amichevoli nei confronti delle famiglie – nei paesi nordici e in Francia, ma anche in
quelli, come la Germania, dove gli interventi sono più recenti e meno generosi. È ora di
ripartire, anche nel nostro paese.

203
FINANZA

Risparmio gestito: ma quanto mi costi?


09.09.16
Angelo Baglioni e Rony Hamaui

I fondi di investimento italiani sono i più cari in Europa. Le commissioni applicate sono le più
alte e sono cresciute nell’ultimo triennio, al contrario di quanto avvenuto negli altri paesi.
Quelle più insidiose sono le commissioni di incentivo. Sede legale all’estero per aggirare le
regole.

Fondi italiani: i più costosi

Povero risparmiatore italiano. Dopo essere stato tradito dalle obbligazioni subordinate e
disorientato dai tassi d’interesse prossimi allo zero o negativi sugli amati titoli di Stato, ora
scopre che i fondi d’investimento italiani sono tra i più cari in Europa, come emerge da un
recente rapporto di Morningstar, uno dei più importanti istituti di ricerca indipendente.
Le commissioni applicate sui fondi gestiti in Italia sono mediamente il 40 per cento più alte di
quelle richieste negli altri paesi europei. In particolare, nell’aprile 2016 i risparmiatori italiani
pagavano l’1,42 per cento del capitale investito, i francesi lo 0,83 per cento, gli inglesi l’1,03
per cento e così via. Non solo: mentre negli ultimi tre anni le commissioni applicate sui fondi
italiani sono aumentante, negli altri paesi si sono mediamente ridotte (si veda la tavola sotto).
I maggiori costi non sono l’effetto di un mix di fondi più costosi, giacché anche i singoli
comparti presentano dinamiche simili. Ad esempio: i fondi azionari italiani costano
mediamente il 2,11 per cento, mentre quelli europei solo l’1,27 per cento, i fondi
obbligazionari italiani l’1,02 per cento contro lo 0,74 per cento in Europa, mentre sui fondi
bilanciati gli investitori italiani pagano circa 9 punti base più di quelli europei. La ricerca
mostra peraltro come i residenti italiani, a differenza di quelli stranieri, continuino a preferire
i fondi a reddito fisso o bilanciati rispetto a quelli azionari, mentre i meno costosi fondi
indicizzati sono praticamente assenti. Infine, emerge che le nostre società di gestione del
risparmio (Sgr) sono particolarmente affezionate alle commissioni di incentivo (performance
fees): il 55 per cento dei fondi italiani le applica, contro una media europea del 16 per cento.
Ovviamente l’analisi di Morningstar ha numerosi limiti, non ultimo quello di non confrontare i
risultati dei fondi nei vari paesi e soprattutto di non tenere in considerazioni i cosiddetti
fondi round trip, ovvero quelli istituiti da gestori italiani ma domiciliati in Lussemburgo o
Irlanda e poi collocati a residenti italiani. Sono particolarmente diffusi in Italia sia per ragioni
fiscali che regolamentari. La loro inclusione nell’analisi potrebbe aggravare il giudizio sui
fondi italiani, se non altro per l’utilizzo delle commissioni di incentivo.

204
Lo scandalo delle commissioni di incentivo

Le performance fees sono commissioni che premiano il gestore se, in un determinato periodo,
il fondo ha avuto risultati migliori rispetto a un indice di riferimento (benchmark). Un fondo
azionario Europa, ad esempio, viene tipicamente messo a confronto con un indice che
sintetizzi l’andamento dei mercati borsistici europei. Se il fondo batte il benchmark, la società
che lo gestisce riceve un premio dal risparmiatore che vi ha investito. Potrebbe sembrare
giusto, visto che il premio introduce un incentivo a gestire bene il fondo. Peccato che il
meccanismo generalmente usato per il suo calcolo sembri un po’ truffaldino. Se in un periodo
il fondo fa meglio del benchmark, la Sgr riceve un premio, mentre se in un altro periodo fa
peggio, non subisce alcuna penalizzazione. L’asimmetria, unitamente alla scelta di periodi
brevi su cui valutare il risultato, è molto penalizzante per il risparmiatore. Poniamo che la
commissione venga calcolata su base trimestrale e che in ciascuno dei primi tre trimestri
dell’anno il fondo abbia fatto il 3 per cento in meno del benchmark, mentre nell’ultimo
trimestre abbia fatto il 4 per cento in più: alla fine dell’anno, il risparmiatore si ritroverà a
pagare una commissione di incentivo sul +4 per cento, benché il rendimento complessivo
dell’anno sia stato del -5 per cento (4 per cento – 9 per cento) in confronto al benchmark.
Per questo motivo, la Banca d’Italia ha imposto che il periodo minimo per il calcolo delle
commissioni di incentivo sia un anno. Nell’esempio precedente, ciò eviterebbe all’investitore
di pagare un premio a un gestore che, nell’anno, abbia fatto peggio del benchmark. Ma nel
belpaese si sa come va a finire: fatta la regola, trovato l’inganno. Basta stabilire la sede legale
del fondo in Lussemburgo o in Irlanda, dove la normativa di Banca d’Italia non si applica, e
distribuirne le quote in Italia. Il trucco consente ad alcune Sgr di applicare performance
fees addirittura su base mensile. In questi casi, le commissioni di incentivo si traducono in
una truffa ai danni del risparmiatore.
lavoce.info continua a tenere d’occhio il settore del risparmio gestito, che può riservare brutte
sorprese al risparmiatore italiano. Questa è la terza puntata. Nelle prime due, abbiamo svelato
il trucco dei fondi che promettono una cedola, ma in realtà la prelevano dal capitale
dell’investitore, e di quelli che nascondono sotto il tappeto le commissioni di entrata. Altre
puntate seguiranno.

Tavola 1 – Costi dei fondi italiani ed europei (percentuale sul capitale investito)

205
CONCORRENZA E MERCATI, INFRASTRUTTURE E TRASPORTI

Una tassa per liberalizzare i taxi con il


consenso dei tassisti
28.02.17
Sergei Kovbasyuk e Fabiano Schivardi

Una liberalizzazione completa dei taxi annullerebbe il valore alle licenze. Ed è un’eventualità a
cui i tassisti si oppongono con forza. Ma una tassa sul servizio destinata a finanziare un
indennizzo per chi possiede oggi una licenza potrebbe risolvere la questione. Con vantaggi
per tutti.

Il nodo delle licenze

Il servizio taxi attraversa una crisi molto forte, stretto fra un’innovazione tecnologica
dirompente e l’opposizione netta dei tassisti a qualunque provvedimento di liberalizzazione
del settore. Emilio Calvano e Michele Polo hanno già ampiamente discusso l’argomento (1 e 2)
su lavoce.info. I termini della questione sono chiari: liberalizzare l’entrata di nuovi operatori
diminuisce il reddito dei tassisti e, di conseguenza, il valore della licenza, che, a Roma,
supererebbe i 100mila euro.
La situazione attale nel mercato dei taxi è rappresentabile con il grafico sotto, dove D è la
domanda di servizi taxi, C è il costo dei tassisti per fornire il servizio, Q è il numero di licenze
e P è il prezzo. Oggi l’entrata è bloccata e il prezzo è ampiamente al di sopra del costo. La
differenza fra prezzo e costo è la rendita dei tassisti, da cui il valore della licenza.
Liberalizzare l’entrata implica che il prezzo si abbasserebbe fino a C, eliminando ogni rendita.

206
Per venire incontro alle istanze dei tassisti, si dovrebbe pensare a un meccanismo di
compensazione. Una possibilità sarebbe usare la fiscalità generale per “ricomprare” le licenze
dei tassisti. Per Roma, assumendo un valore (conservativo) della licenza di 100mila euro e
7.500 licenze, si tratterebbe di pagare 750 milioni di euro, circa 300 euro ad abitante. Molti e
distribuiti anche su chi non utilizza i taxi. Un’altra possibilità è di liberalizzare l’entrata, ma
imporre una tassa sul trasporto di taxi i cui proventi sarebbero utilizzati per indennizzare i
tassisti. In questo caso il prezzo dei taxi non scenderebbe fino al livello del costo, ma a C+T,
dove T è la tassa. Rispetto alla deregolamentazione completa, quindi, il prezzo sarebbe più
alto e la quantità minore. Ma avrebbe il vantaggio che il costo dell’indennizzo ricadrebbe su
chi si avvantaggia della liberalizzazione, cioè utenti e nuovi operatori.
Questo approccio può funzionare se l’eliminazione della rendita (il rettangolo A nel grafico) è
compensata dai proventi della tassa (il rettangolo B). L’elemento fondamentale è l’elasticità
della domanda, cioè di quanto il mercato si espande una volta che le tariffe si riducono. Se
l’espansione è consistente, allora la “base imponibile” è grande e basta una tassa
relativamente modesta. Viceversa, se l’utilizzo di servizi di taxi non cresce sensibilmente, il
meccanismo non funziona.

I calcoli

Analizzare il problema in modo rigoroso richiede dati che non abbiamo a disposizione. Ma è
possibile utilizzare i numeri per altre città – per esempio, Stoccolma – per provare a dare una
prima approssimativa valutazione della sua fattibilità. I calcoli sono fatti sotto ipotesi molto
forti: in particolare, che la domanda pro-capite di servizio di taxi sia la stessa fra Italia e
Svezia e sia lineare. I risultati vanno presi quindi come un esercizio assolutamente
207
preliminare.
Il numero di taxi per mille abitanti a Roma è 2,9 e il prezzo al chilometro è di 1,5
euro. Stoccolma ha 7,8 taxi per mille abitanti e il prezzo per chilometro di Uber X è 0,78 euro,
che assumiamo sia pari al costo (che include ovviamente la remunerazione del guidatore).
Secondo questi numeri, la domanda di taxi è elastica: a una diminuzione del prezzo del 48
per cento (da 1,5 a 0,78) corrisponde un aumento del 170 per cento, per un’elasticità di 3,5.
Dati prezzi e quantità nelle due città è possibile ottenere la curva di domanda, pari a Q=13.1-
6.8*P. Possiamo ora calcolare una tassa al chilometro che fornisca un gettito uguale a quello
della rendita. La tassa è di 0,43 euro al chilometro e verrebbe completamente riflessa nel
prezzo che sarebbe pari a 0,78+0,43=1,21. Il corrispondente numero di taxi per abitanti
sarebbe 4,9: ancora lontani dai livelli di Stoccolma, ma quasi il doppio di quello attuale. Il
risultato dipende completamente da quanto aumenta la domanda di taxi alla diminuzione del
prezzo. Ad esempio, se a 0.78 euro al chilometro la domanda crescesse solo a metà del
valore di Stoccolma, cioè a 3.9 taxi per mille abitanti, allora lo schema non funzionerebbe:
nessuna tassa sarebbe in grado di compensare i tassisti. Se invece crescesse al livello di
Londra, pari a 10.6, allora la tassa necessaria a indennizzare i tassisti sarebbe di 22 centesimi
al chilometro, e il numero di taxi salirebbe a 9.4.
Un effetto ulteriore è che la liberalizzazione porterebbe a un aumento di efficienza dei taxi.
Una delle rendite principali dei monopolisti è la “vita tranquilla”. La concorrenza imporrebbe
l’utilizzo della tecnologica in modo massiccio, che potrebbe portare a un abbassamento
considerevole dei costi, aumentando sia i profitti che i proventi della tassa.
Per realizzare il meccanismo si potrebbe emettere debito per indennizzare i tassisti, usando i
proventi della tassa per ripagarlo. Si potrebbe prevedere che la tassa duri per un certo
numero di anni, procedendo poi a una graduale riduzione fino a eliminarla del tutto. Uno
schema di questo tipo potrebbe essere un ragionevole compromesso fra le istanze dei tassisti
e i grandi benefici che deriverebbero alle città da un sistema di trasporto meno costoso e più
efficiente.

208
LAVORO

La storia surreale del voucher “che toglie


dignità al lavoro”*
17.03.17
Pietro Ichino

Prima di far scomparire i voucher, si sarebbe dovuto stabilire se hanno o meno prodotto
effetti positivi. Ma la Cgil ne fa una questione di principio, considerando sbagliata gran parte
della legislazione per la semplificazione della disciplina del rapporto di lavoro dipendente.

Voucher: nessuna diffusione abnorme

Istituiti dalla legge Biagi nel 2003 allo scopo di semplificare l’ingaggio per i “lavoretti”, i
buoni-lavoro hanno incominciato a essere fruibili effettivamente dal 2008, anno in cui ne
furono utilizzati soltanto mezzo milione. Da allora l’uso dello strumento ha fatto registrare un
aumento esponenziale, apparentemente correlato più con la diffusione della sua conoscenza
da parte degli utenti che con le modifiche legislative entrate in vigore nel 2010, 2012 e 2015:
le vendite si sono quintuplicate già nel secondo anno: 2,7 milioni nel 2009; poi sono passate
a 9,7 milioni nel 2010, a 15,3 nel 2011, a 23,8 nel 2012, 40,7 nel 2013, a 68,5 nel 2014, a
108 nel 2015 e a 134 nel 2016.
Quest’ultimo dato dei 134 milioni di buoni-lavoro venduti nel 2016 ha indotto la Cgil a
denunciare una pretesa “evidenza della diffusione abnorme di questa forma di lavoro”. In
realtà, se si considera che in Italia le ore di lavoro complessivamente svolte nel 2016 sono
state poco meno di 43 miliardi, ci si convince facilmente che il lavoro retribuito con i voucher
è stato anche nell’ultimo anno una frazione minuscola, al massimo lo 0,3 per cento. Nessuno
può sostenere ragionevolmente che questo “zerovirgola” di lavoro accessorio costituisca
l’evidenza di una sua diffusione abnorme, cioè del fatto che abbia sostituito una quantità
rilevante di lavoro che altrimenti si sarebbe svolto nella forma ordinaria.
È certo che qualche abuso si sia verificato; ed è pure plausibile che in qualche caso l’ingaggio
con i voucher abbia sostituito lavoro regolare; ma è altrettanto ragionevole pensare che nella
parte di gran lunga maggiore dei casi questa forma di ingaggio abbia consentito, invece, di
svolgere in modo trasparente, e con copertura contributiva, del lavoro che altrimenti sarebbe
stato inghiottito dall’economia sommersa o non avrebbe potuto neppure svolgersi. Logica
vorrebbe, dunque, che prima di por mano a una drastica restrizione della possibilità del suo
utilizzo si studiasse il fenomeno, per stabilire dove i buoni-lavoro abbiano prodotto effetti
desiderabili, dove no e in quale misura: solo in questo modo si possono correggere le regole
che lo disciplinano, in modo da tagliare solo la parte cattiva salvando quella buona. Se la Cgil
rifiuta questo modo di procedere è perché considera lo strumento dei buoni-lavoro come
cattivo in sé, indipendentemente dal fatto che consenta l’emersione di lavoro nero o
209
l’attivazione di lavoro che altrimenti non ci sarebbe del tutto: i voucher vanno aboliti perché
sono “la forma estrema della mercificazione del lavoro”, perché permettono “la degradazione
del lavoro, [sono] l’ultimo gradino della precarietà” (Susanna Camusso su la Repubblica del 14
marzo).

Semplificazione e dignità del lavoro

Impostata così, la questione posta dalla Cgil non può evidentemente essere oggetto di una
discussione pragmatica, suscettibile di risolversi individuando e misurando gli effetti pratici
negativi dei voucher e quelli positivi. Per altro verso, quella che così viene posta è una
questione cruciale per la politica del lavoro nel nostro paese. Il sindacato guidato da Susanna
Camusso considera sbagliata quella gran parte della legislazione dell’ultimo ventennio che,
dalla legge Treu del 1997 in poi, è stata orientata alla semplificazione della disciplina
applicabile e degli adempimenti burocratici necessari per la costituzione del rapporto di
lavoro dipendente.
Se si entra nell’ordine di idee che “semplificazione equivale a riduzione del valore del lavoro”,
è facile capire perché l’abbattimento dei costi di transazione sia ritenuto incompatibile con la
dignità del lavoro, anche quando si tratti di un lavoro accessorio, occasionale, di breve durata.
È meno facile capire perché il governo si stia orientando a seguire la Cgil su questa strada,
progettando un divieto drastico di utilizzare i voucher per le imprese e, quanto alle famiglie,
vietandone l’uso per l’ingaggio di persone che abbiano più di 24 anni e non siano pensionati
o disabili. La sola spiegazione possibile sta nell’intendimento di evitare a tutti i costi un
referendum nel quale il merito della questione conterebbe pochissimo, perché sarebbe
probabilmente travolto dal vento anti-establishment, che oggi soffia forte in Italia e non solo.
Il governo, però, può correggere gli effetti dell’intervento, senza comprometterne l’obiettivo
politico: se si vieta alle imprese l’uso dei voucher, si può e si deve consentire loro almeno di
soddisfare le esigenze di lavoro occasionalmente ricorrente (assistenza a congressi,
assistenza al pubblico in occasione di eventi sportivi, rafforzamento del personale di vendita
in periodo natalizio, per esempio) utilizzando il contratto di lavoro intermittente, il
cosiddetto job on call. Il decreto n. 81/2015 ne aveva drasticamente ridotto lo spazio proprio
in considerazione dell’ampliamento di quello dei voucher: logica vorrebbe, se non si vuole
vietare di fatto il lavoro accessorio, che ora si proceda in senso inverso.
* L’autore è senatore del Partito democratico

210
FISCO

Irpef, una riforma da fare


19.04.17
Massimo Baldini, Silvia Giannini e Alessandro Santoro

La riforma dell’Irpef è necessaria perché la sua attuale struttura presenta molti problemi.
Senza compromettere il gettito, quali sono i possibili interventi su aliquote e detrazioni? Da
ripensare anche il ruolo delle addizionali regionali e comunali.

Aliquote marginali, medie ed effettive

Non è chiaro se la riforma dell’Irpef, che doveva caratterizzare la manovra di politica


economica per il 2018, sarà davvero inserita nella prossima legge di bilancio. Tuttavia, si
tratta di un tema da affrontare con urgenza. L’attuale Irpef presenta infatti un insieme
articolato di criticità, che qui ci limitiamo a sintetizzare, senza alcuna pretesa di esaustività e
nella speranza di rialimentare il dibattito.
Un primo problema riguarda l’elevato livello delle aliquote marginali e medie, e di quelle
marginali effettive, che a causa di detrazioni decrescenti rispetto al reddito sono ancora più
alte di quelle formali, soprattutto a redditi medio-bassi ( si veda qui e qui). La struttura delle
aliquote è poco equa, tende a ridurre l’offerta di lavoro e la partecipazione al mercato del
lavoro, soprattutto da parte delle donne e dei soggetti con redditi medio-bassi, tra cui si
concentrano i giovani, e alimenta il sommerso. Per risolvere le criticità occorre non solo
ridurre le aliquote formali, ma anche rivedere radicalmente il sistema delle detrazioni.
Anche per questo è tornata a circolare l’ipotesi di flat tax, che supererebbe gli scaglioni, ma
con effetti redistributivi non desiderati. E se questi ultimi fossero mitigati da una forma di
imposta negativa, vi sarebbero perdite di gettito difficilmente sostenibili.
Se si rimane nel quadro di un’imposta per scaglioni, ridurre le prime aliquote sarebbe costoso
dal punto di vista del gettito perché coinvolgerebbe tutti i contribuenti, compresi quelli con
redditi più elevati. Anche per questa ragione, è interessante la proposta di riduzione selettiva
delle aliquote per i giovani che, pur criticata sul piano della compatibilità costituzionale,
diluirebbe l’effetto di gettito lungo il ciclo di vita dei contribuenti.
In alternativa, si potrebbe agire sulle deduzioni e, soprattutto, sulle detrazioni, un’altra delle
criticità dell’Irpef.

Detrazioni e 80 euro

La revisione delle detrazioni dall’Irpef lorda si inserisce in quella, più ampia, delle “tax
expenditures” (si veda qui e qui). Le detrazioni Irpef, tuttavia, hanno una loro specificità.
Quelle sul reddito da lavoro sono disegnate per creare la no tax area, modulare la

211
progressività e attuare la discriminazione qualitativa dei redditi. La loro eventuale modifica
incide direttamente su tutti questi aspetti, oltre a cambiare l’aliquota marginale effettiva. Le
detrazioni per carichi familiari non soddisfano i criteri di equità orizzontale e verticale, sia per
il problema degli “incapienti” che per la loro struttura, che non tiene adeguatamente conto dei
costi e delle economie di scala delle diverse strutture familiari. Tra le proposte alternative, ci
sono il quoziente familiare alla francese o il fattore famiglia, che però riducono ulteriormente
gli incentivi al lavoro femminile, oltre a causare perdite di gettito. Andrebbe anche
considerato l’assegno al nucleo familiare che, pur formalmente fuori dall’Irpef, contribuisce a
rendere l’andamento dell’aliquota marginale effettiva ancora meno trasparente e del tutto
irrazionale, con alcuni casi particolari in cui l’aliquota schizza a valori estremamente elevati.
Una soluzione potrebbe essere la rivisitazione nella direzione di un assegno universale unico,
correlato alla prova dei mezzi (si veda qui e qui). Più in generale, la riforma dell’Irpef
andrebbe condotta tenendo conto di tutti gli strumenti di welfare familiare esistenti. Mentre le
detrazioni per oneri (spese mediche in primo luogo) sono utilizzabili solo in parte da chi
ha redditi bassi.
È indubbio che la riforma dell’Irpef dovrà coinvolgere anche il bonus di 80 euro al mese per i
dipendenti a reddito medio-basso introdotto nel 2014 e che ha molti difetti. Pur garantendo
un forte calo dell’incidenza dell’imposta su buona parte dei soggetti interessati, infatti, non
spetta agli incapienti, dipende dal reddito individuale e non da quello famigliare, produce
aliquote marginali molto elevate tra 24mila e 26mila euro. L’idea di incentivare con un credito
di imposta l’offerta di lavoro dei contribuenti a reddito basso è stata applicata in altri paesi
(Usa, Francia) e si giustifica con l’aumento della polarizzazione dei redditi nel mercato del
lavoro, ma andrebbe coordinata meglio con la struttura complessiva dell’Irpef.
Un altro aspetto che merita di essere approfondito è costituito dal ruolo delle addizionali
regionali e comunali all’Irpef, che dopo l’abolizione della Tasi sulla prima casa sono diventate
i principali strumenti di autonomia tributaria degli enti decentrati (per le regioni, assieme
all’Irap). Vale la pena chiedersi se sia appropriato attribuire maggiori possibilità di scelta delle
aliquote e delle basi imponibili, al di là dell’attuale blocco che non potrà durare per sempre, e
quale sia il peso da dare all’attività redistributiva che si può esercitare con il tributo a livello
locale. Le addizionali inoltre aumentano in modo non trasparente le aliquote medie e
marginali effettive.
Intanto, l’evasione continua a essere un problema: i risultati degli ultimi anni sono meno
confortanti rispetto a quelli dell’Iva e dell’Ires. Più che innovazioni sul terreno del disegno
dell’imposta, servono cambiamenti di tipo organizzativo, che rendano possibile l’utilizzo
effettivo da parte dell’amministrazione finanziaria della notevole quantità di dati in suo
possesso.

212
ISTITUZIONI E FEDERALISMO

Alla ricerca della legge elettorale perduta


19.05.17
Paolo Balduzzi e Massimo Bordignon

Una nuova legge elettorale è necessaria. Prima di tutto per evitare


l’ingovernabilità. Le forze politiche sono profondamente divise, ma la soluzione di
compromesso potrebbe essere un ritorno al passato. Quali sarebbero i vantaggi di
un Mattarellum rivisto.

Condannati all’ingovernabilità?

Finito il congresso del Pd, eletto il nuovo segretario, è urgente che si trovi una
soluzione al problema della legge elettorale. Il risultato del referendum
costituzionale e la successiva sentenza della Corte costituzionale sull’Italicum
hanno lasciato il paese privo di regole elettorali uniformi alla Camera e al Senato,
mentre il Presidente della Repubblica ha già segnalato la sua indisponibilità a
consentire elezioni anticipate senza che vi sia una nuova norma. D’altra parte,
non si può neanche passare i mesi che mancano alla fine di legislatura in una
continua campagna elettorale, senza peraltro conoscere come si andrà a votare,
cioè quali saranno le forze e i programmi in campo.
Il punto da cui partire per definire una nuova legge elettorale è il rischio più
elevato che il paese corre: l’ingovernabilità. Sulla base dei sondaggi e degli ultimi
risultati elettorali, sembra assai improbabile che una qualunque lista possa
vincere il premio di maggioranza alla Camera e anche se ci riuscisse ci sarebbe
poi il problema di trovare i voti al Senato. È anzi possibile, come in parte è già
successo in passato, che Camera e Senato esprimano due maggioranze
alternative.

Il rischio esiste sempre perché le due camere hanno gli stessi poteri, ma un
diverso elettorato attivo e passivo, oltre all’esistenza dei vincoli costituzionali sul
Senato che ne prevedono l’elezione su base regionale. Ma naturalmente il rischio
verrebbe amplificato dalla presenza di due leggi elettorali distinte per le due
camere. Dunque, bisogna almeno unificare la legge elettorale.

Un necessario ritorno al passato

Oggi, però, le forze politiche sono divise tra chi vuole un sistema proporzionale
per decidere dopo il voto con quali forze allearsi e chi invece vuole un sistema che
213
costringa i partiti ad allearsi prima del voto. E naturalmente i piccoli e grandi
partiti hanno opinioni diverse sulle soglie di voto necessarie per ottenere seggi in
parlamento.

Un bel rebus, su cui sembrano essersi impantanati sia il Parlamento che il sistema
politico. La soluzione che ci sembra più semplice e realistica potrebbe allora
essere un “parziale” ritorno al passato, riportando l’orologio al 1993. Si
tratterebbe cioè di riprendere in mano il cosiddetto Mattarellum, che prevedeva
l’elezione del 75 per cento dei membri delle Camere su base maggioritaria
uninominale e il restante 25 per cento su base proporzionale. Correttivi da
inserire dovrebbero riguardare l’impossibilità di candidature multiple per la parte
proporzionale, benché la sentenza costituzionale sull’Italicum non le abbia
escluse di principio, ed eventualmente una riduzione della quota maggioritaria,
per superare il veto delle forze proporzionaliste.

Le motivazioni che spingono in questa direzione sono numerose. Innanzitutto, il


Mattarellum sembra aver funzionato bene (anche se non benissimo) durante il
periodo 1994-2005: solo una volta sono state indette elezioni anticipate, anche
se il numero di governi che si sono succeduti è stato notevole (due nella prima
legislatura, quattro nella seconda e due di nuovo nella terza). La legge è già stata
sperimentata per oltre un decennio e non sembra correre il rischio di nuove
sentenze negative della Corte costituzionale. Partiti e cittadini la conoscono già e
sono attrezzati a utilizzarla nel modo migliore. E, in fin dei conti, la legge avrebbe
forse potuto funzionare meglio se fosse rimasta in vigore più a lungo.

Forse però il vantaggio principale del Mattarellum è il collegio uninominale, che


renderebbe più stretto il rapporto tra eletti e elettori – un vantaggio non da poco
visto il generale discredito in cui è finita la classe politica nazionale. L’eventuale
inclusione di voti di preferenza in liste proporzionali non raggiungerebbe lo
stesso obiettivo.

Rivedendolo in modo appropriato, poi, il Mattarellum potrebbe forse


rappresentare un compromesso accettabile per i vari partiti o almeno per i
principali perché incentiva, ma non impone, accordi pre-elettorali tra forze
politiche diverse (ricordate gli accordi di desistenza?) e comunque ci sarebbe
sempre la possibilità di recupero proporzionale per chi non vuole allearsi, con
soglie che potrebbero essere fissate a un livello sufficientemente basso da
consentire anche alle forze piccole di ottenere seggi. Il collegio è naturalmente

214
inviso alle forze politiche che pensano di avere candidati deboli sul territorio, ma
potrebbero sempre fare affidamento sul proporzionale e comunque la ricerca di
buoni candidati dovrebbe essere l’obiettivo di una qualunque legge elettorale
decente.

Intendiamoci, neanche il Mattarellum garantirebbe con certezza la governabilità.


Con due Camere con gli stessi poteri ma elettorati diversi e con tre forze politiche
di dimensioni analoghe, oltretutto profondamente divise al proprio interno su
temi fondamentali (quali il rapporto con l’Europa) e nel caso del Movimento 5
Stelle indisponibile a priori ad allearsi con chiunque, non esiste alchimia elettorale
possibile che assicuri la formazione di un governo con una solida maggioranza.
Ma sarebbe un passo avanti.

215
IMMIGRAZIONE

Decreto Minniti-Orlando: i limiti di una


riforma necessaria
27.04.17
Tortuga

Tribunali sovraccarichi per i ricorsi dei richiedenti asilo cui è stata negata la protezione
internazionale e un sistema di espulsione del tutto inefficace: il decreto Minniti-Orlando
affronta le due questioni. Ma non sembra risolvere i veri nodi critici.

Riforma del diritto d’asilo

Il 12 aprile è stato approvato il decreto Minniti-Orlando. Apporta tre principali novità al


governo dell’immigrazione: riforma giudiziaria in tema d’asilo, riforma di parte del sistema di
prima accoglienza e possibilità d’impiego dei migranti in lavori socialmente utili. Ci
concentreremo qui sui primi due punti.
La mini-riforma processuale affronta il tema del sovraccarico dei tribunali, causato dai ricorsi
contro le decisioni sulle richieste d’asilo.
Il diritto d’asilo è particolarmente tutelato nel nostro paese, che è uno dei pochi, con
Germania e Repubblica Ceca, a inserirlo esplicitamente tra i diritti costituzionali (art. 10). In
Italia la richiesta di protezione internazionale garantisce poi il rilascio di un permesso di
soggiorno valido per tutto il tempo necessario all’esame della domanda e dell’eventuale
ricorso. Venti commissioni territoriali, composte da funzionari del ministero dell’Interno,
esaminano le richieste ed esprimono un giudizio sentito il richiedente. Il diniego della
protezione è soggetto a ricorso.
I numeri suggeriscono (figura 1) che le commissioni territoriali non sembrano in grado di far
fronte a tutte le richieste, molto spesso rifiutate (figura 2) e quindi causa di ricorso. Il
fenomeno è evidente anche su base mensile (figura 3). Tuttavia, le cifre vanno esaminate
tenendo conto della debolezza comunicativa e della scarsa preparazione dei richiedenti asilo
oltreché delle consistenti barriere linguistiche.

216
Figura 1 – Il sovraccarico delle Commissioni Territoriali

Fonte: Commissione Nazionale per il Diritto d’Asilo

Figura 2 – Esito delle richieste (2016)

Fonte: Commissione Nazionale per il Diritto d’Asilo

217
Figura 3 – Dati mensili disaggregati (2017)

Fonte: Commissione Nazionale per il Diritto d’Asilo

La lunghezza dei procedimenti giudiziari – 268 giorni in primo grado e 407 in appello –
contribuisce a inasprire l’ingolfamento del sistema.
La riforma Minniti-Orlando potenzia in primo luogo il personale delle commissioni territoriali
e istituisce 26 sezioni interne ai tribunali composte da giudici con competenze specifiche in
materia di immigrazione e protezione internazionale.
La misura principale – e più controversa – riguarda però l’abolizione del secondo grado e
dell’udienza in primo grado. È previsto ora un rito camerale in cui il giudice potrà visionare il
colloquio avvenuto di fronte alla commissione territoriale o ascoltare il richiedente in prima
persona. Di fatto, il colloquio davanti alla commissione diventa così un primo grado di
giudizio, nel quale però la sentenza viene emessa da funzionari e il richiedente non è assistito
da un legale.
Secondo diversi giuristi e la stessa Associazione nazionale magistrati, l’abolizione
dell’udienza andrebbe a ledere in particolare gli articoli 111 e 24 della Costituzione, che
sanciscono il diritto al giusto processo e il diritto alla difesa, e l’articolo 6 della Convenzione
europea dei diritti dell’uomo, sul diritto al contraddittorio. In aggiunta, poiché la Cassazione
esprime solamente un giudizio di legittimità, l’abbinata abolizione del secondo grado e
modifica del primo rischia di ridurre in modo consistente le garanzie dei richiedenti.

218
Riforma dei Cie

La rete di prima accoglienza è attualmente composta da diverse tipologie di centri, tra cui
spiccano i quattro Cie (centri di identificazione ed espulsione), dove chi ha ricevuto un
decreto di espulsione può essere trattenuto per un massimo di 18 mesi.
Dalla loro introduzione, i Cie si sono caratterizzati per il sovraffollamento, i servizi e le
strutture scadenti, le condizioni di vita quasi carcerarie, i tanti casi di suicidi e violenze. In
più, a causa di inagibilità, danneggiamenti, manutenzioni, solo uno su quattro sfrutta la sua
capacità effettiva, mentre nessuno satura la capacità teorica.
A testimoniare la strutturale inadeguatezza del sistema, nel 2015 su 34.107 stranieri espulsi,
solo 15.979 (circa il 46 per cento) sono stati allontanati: 12.236 sono stati respinti alle
frontiere o rimandati nel paese UE dal quale sono entrati e solo 3.688 sono stati
effettivamente rimpatriati. Tra coloro che sono stati allontanati, meno di un terzo è transitato
per i Cie, che sembrano avere più finalità di deterrenza e rassicurazione dell’opinione
pubblica interna.
Non aiuta poi l’inefficienza del sistema di rimpatrio e riallocazione: alla fine di dicembre 2016
sono state riallocate solo 2.350 persone sulle 40mila previste dal piano europeo, mentre il
programma di ritorni volontari assistiti (Rva) ha coinvolto appena 3.562 individui in cinque
anni (2009-2014).
La riforma non cambia l’impostazione di fondo del sistema di espulsione e mantiene
inalterata la logica dei Cie, trasformandoli in Cpr (centri permanenti per il rimpatrio). I Cpr
sono progettati per avere una capienza piccola e diventano venti, uno per ogni regione, da
posizionare vicino agli aeroporti e lontano dai centri abitati. Tuttavia, i 1.600 posti indicati dal
decreto sembrano ancora inadeguati alla dimensione del fenomeno.
Il decreto affronta un chiaro quadro di lentezza giudiziaria e inefficienza del sistema di
espulsione velocizzando i ricorsi e potenziando le strutture. Tuttavia, oltre le critiche sul
piano dei diritti, ci si interroga se non si tratti ancora una volta di risposte che non affrontano
i nodi critici.
Come non li affronta la legge sull’immigrazione, che garantisce un visto per lavoro solo a chi
è assunto quando ancora risiede nel paese di origine, rendendo difficile avvalersi di procedure
di regolarizzazione alternative a quella della protezione internazionale. L’ultimo decreto-
flussi, ad esempio, prevede 30mila ingressi per il 2017, ma è rivolto a chi è già in Italia
regolarmente e ai lavoratori stagionali.
Il diritto di asilo previsto dalla Costituzione, poi, per evidenti ragioni storiche è incentrato
sulla protezione dei perseguitati politici: anche se ormai fortemente esteso dagli impegni
internazionali, mal si adatta al fenomeno migratorio contemporaneo.
Eppure, un’analisi comparata delle cifre chiarisce che, in realtà, la crisi migratoria in Europa è
un problema controllabile e di dimensioni abbastanza circoscritte (figura 4). Tuttavia, resta
219
urgente una riforma più profonda di un sistema che deve rispondere a un fenomeno molto
diverso rispetto al passato (figura 5).

Figura 4 – Numero di rifugiati per 1000 abitanti

Fonte: Commissione Nazionale per il Diritto d’Asilo

Figura 5 – Serie storica delle richieste d’asilo

Fonte: Commissione Nazionale per il Diritto d’Asilo

220
FACT-CHECKING

Se per Renzi il buco dell’Etruria è poca cosa


25.05.17
Lorenzo Borga, Gabriele Guzzi e Mariasole Lisciandro

Ritorna il fact-checking de lavoce.info. Passiamo al setaccio le dichiarazioni di politici,


imprenditori e sindacalisti per stabilire, con numeri e fatti, se hanno detto il vero o il falso.
Questa volta tocca a Matteo Renzi e alle sue dichiarazioni sulle perdite di Banca Etruria.

Cosa ha detto Matteo Renzi

La vicenda di Banca Etruria è stata riproposta dai media a seguito del racconto di Ferruccio De
Bortoli sulla presunta richiesta da parte di Maria Elena Boschi a Federico Ghizzoni per
l’acquisto della banca aretina da parte di Unicredit, di cui Ghizzoni era amministratore
delegato.

È tornato sull’argomento anche Matteo Renzi, il quale domenica 14 maggio durante


un’intervista a L’Arena su Rai1 ha detto (al minuto 1:44:57):

“Le sembra possibile che il problema delle banche in questo paese sia una piccola banca di
provincia ad Arezzo […] le cui perdite valgono l’1,9 per cento delle perdite delle banche
popolari, e non i veri scandali clamorosi che ci sono stati? Da Siena, alle banche venete e
pugliesi”.

La dichiarazione è vaga e lascia spazio a molte interpretazioni. Abbiamo quindi chiesto ai


principali enti che si occupano di temi bancari se la percentuale citata dall’ex Presidente del
Consiglio fosse contenuta in una loro analisi, pubblicazione o comunicato stampa. Ci siamo
rivolti a Banca d’Italia, Consob, Abi, Mediobanca e all’Associazione nazionale delle banche
popolari: nessuna di loro ci ha confermato l’origine del dato. Abbiamo inoltre contattato
telefonicamente il portavoce di Matteo Renzi, il deputato Michele Anzaldi, per appurarne
l’origine e l’interpretazione originale, senza ricevere alcuna risposta. Proprio per l’incertezza
sul senso della dichiarazione di Renzi abbiamo prodotto due giudizi, sulle interpretazioni a
nostro parere più probabili.

La dichiarazione risulta vaga soprattutto sul concetto di perdita. Faremo quindi riferimento
alla definizione più tradizionale del termine, ossia alla differenza negativa tra ricavi e costi di
esercizio.
Inoltre, non è chiaro a quale anno il segretario Pd faccia riferimento. Gli ultimi dati disponibili
sulle perdite delle banche popolari si riferiscono al 2015, anno in cui tuttavia Banca Etruria ha
pubblicato due bilanci in quanto sottoposta prima ad amministrazione straordinaria e poi al
221
procedimento di risoluzione. Il primo bilancio si riferisce al periodo antecedente la
risoluzione, quindi dall’1 gennaio al 22 novembre (freccia verde). Il secondo è il bilancio di
Nuova Banca Etruria, un ente-ponte sgravato dai crediti deteriorati e operativo nei soli ultimi
38 giorni dell’anno (freccia gialla). I dati sul 2015 che seguiranno si riferiscono alla Banca
Etruria pre-risoluzione e sono quindi da considerarsi approssimati per difetto. Riporteremo
per completezza anche i dati del 2014.

Fatte tutte queste premesse metodologiche, ecco i numeri di fonte Mediobanca. I dati si
riferiscono alle 37 principali banche popolari nel 2014 e alle 32 nell’anno successivo, che
possiamo considerare una buona approssimazione dell’intero settore. Per il 2014 facciamo
riferimento al Focus sulle banche popolari, mentre per il 2015 a dati anticipati dall’ufficio
stampa e non ancora pubblicati; li abbiamo integrati con i dati sul settore bancario di Banca
d’Italia contenuti nella Relazione Annuale.

Prima ipotesi: Renzi si riferiva al bilancio non consolidato

Il bilancio non consolidato di Banca Popolare dell’Etruria (freccia rossa) ha registrato nel 2014
una perdita di 526 milioni di euro e nei primi undici mesi del 2015 (freccia verde) una di 625
milioni. Negli stessi anni, il risultato totale delle principali banche popolari è in negativo
rispettivamente di 4,6 miliardi e 1,42 miliardi di euro. Nel 2014 la perdita della banca toscana
rappresenta l’11,46 per cento del totale, mentre nel 2015 addirittura il 44 per cento. Una
percentuale, quest’ultima, probabilmente approssimata per difetto poiché frutto del rapporto
222
tra la perdita di Banca Etruria nei primi undici mesi e la perdita annuale del settore. In
entrambi i casi le percentuali – molto differenti fra loro per la forte riduzione delle perdite del
settore nell’arco dei due anni – rimangono distanti dall’1,9 per cento citato da Matteo Renzi.
Alla luce di tali dati dunque la sua dichiarazione secondo la prima ipotesi appare lontana dalla
realtà, e dunque FALSA.

Seconda ipotesi: Renzi si riferiva al bilancio consolidato

C’è una seconda interpretazione possibile: forse, Renzi si riferiva ai bilanci dei gruppi bancari
e non delle singole banche popolari (cioè ai bilanci consolidati e non ai singoli). Si tratterebbe
in effetti di un confronto maggiormente significativo per valutare l’incidenza della banca
aretina sulle perdite. Tuttavia, come è possibile osservare dalla timeline dei bilanci, Banca
Etruria non ha pubblicato il bilancio consolidato del 2014, né quello aggiornato a novembre
dell’anno successivo. Prenderemo quindi in considerazione l’unico dato disponibile su questo
periodo, ossia quello sui primi nove mesi del 2014 (freccia arancio).
Fino a settembre 2014 le perdite del gruppo Etruria ammontavano a 126 milioni, mentre il
risultato netto consolidato delle popolari ha superato a fine 2014 i 4 miliardi di euro di
perdite. Il gruppo Banca Etruria rappresenta il 2,98 per cento del totale, un numero vicino al
dato riportato dal segretario Pd. Partendo ancora dai bilanci consolidati 2014, un’altra ipotesi
potrebbe essere calcolare l’incidenza delle perdite di Banca Etruria sulle sole banche popolari
in perdita, e non sul risultato netto di settore: anche in questo caso si ottiene una percentuale
vicina all’1,9 per cento. Tuttavia, bisogna notare che questi sono risultati di un rapporto tra
due dati con orizzonti temporali diversi (9 mesi contro 12), e quindi difficilmente
confrontabili. Inoltre, perché citare i dati consolidati del 2014 quando sono a disposizione i
dati non consolidati del 2015? Alla luce di ciò il dato dell’1,9 per cento può comunque
apparire parzialmente confermato dai numeri per la seconda ipotesi, e dunque QUASI VERO.

223
In conclusione, tra un dato falso secondo la prima ipotesi e uno quasi vero, gli elementi in
nostro possesso ci portano a definire la dichiarazione di Matteo Renzi come FALSA. Se anche
per il 2014 Etruria è stata poca cosa nell’universo problematico delle banche popolari, la
stessa cosa – alla luce delle informazioni disponibili – non può essere affermata per il 2015.
Ecco come facciamo il fact-checking.

224
SOCIETÀ E CULTURA

L’Istat ora vuole eliminare le classi sociali


23.05.17
Marzio Barbagli, Chiara Saraceno e Antonio Schizzerotto

Nel Rapporto annuale 2017 l’Istat sostiene che le classi sociali sono ormai scomparse dalla
società italiana e le sostituisce con nove gruppi. Ma la nuova classificazione è un passo
indietro perché debole sotto il profilo concettuale e metodologico.

Nove gruppi al posto delle classi sociali

Nel Rapporto annuale 2017 l’Istat sostiene che le classi sociali sono ormai scomparse dalla
società italiana, che è venuto meno il “senso di appartenenza” a esse, e presenta una nuova
classificazione a nove gruppi.
L’affermazione secondo cui le attuali disparità sociali avrebbero frammentato e travolto le
vecchie classi sociali non è nuova. Né è nuova l’affermazione secondo cui le persone non si
identificano più nelle classi. Ma proprio nelle due negazioni sta la prima contraddizione del
Rapporto: si dichiara la scomparsa delle classi sociali, ma si afferma, per altro senza alcuna
evidenza empirica, che i nove raggruppamenti identificati dall’Istat su base statistica
sarebbero “strutturali” e fornirebbero “forme di appartenenza e identificazione”, ovvero
avrebbero la caratteristica tradizionalmente associata alle classi.

La debolezza concettuale dell’esercizio diventa metodologica con l’inversione del rapporto tra
causa ed effetto. Laddove le classi sono state sempre intese come fattori generativi di
disuguaglianza – e non come il suo risultato -, l’Istat procede in direzione contraria. Guarda
alle diseguaglianze di reddito, di istruzione, di esposizione ai rischi di disoccupazione e di
povertà non come effetti dell’appartenenza a un gruppo sociale, bensì come elementi
costitutivi di quel gruppo. Considera sì la posizione occupazionale come la prima
discriminante, ma in modo concettualmente troppo confuso per essere utile. Infatti, i primi
due grandi gruppi in cui viene suddivisa la popolazione di famiglie, che poi vengono
successivamente articolati in base a una struttura analitica “ad albero”, sono da una parte
quelle in cui la persona di riferimento (paradossalmente chiamata “principale percettore di
reddito”, anche quando non ne percepisce affatto) è “inattiva o disoccupata oppure lavora ma
si colloca nella fascia bassa delle retribuzioni (lavoratore atipico, cioè dipendente con
contratto a termine o collaboratore, operaio o assimilato)”, dall’altra tutte le altre. Date le
premesse, tutti i nove gruppi dell’Istat appaiono scarsamente plausibili sotto il profilo
empirico e poco comprensibili sotto quello sostanziale, essendo aggregati eterogenei di
soggetti in posizioni sociali e in condizioni di vita assai difformi tra loro.

225
Cosa sono le “famiglie tradizionali della provincia”? Forse le famiglie tradizionali non esistono
anche in contesti metropolitani? Come fanno i “giovani blu collar” ad avere un’età media di
ben 45 anni? E cosa hanno in comune “le anziane sole e i giovani disoccupati” che quasi
sempre vivono con i loro genitori? Difficile capirlo. Appare invece chiaro che con questa
classificazione non sarebbe più possibile studiare la mobilità sociale. L’Istat ci ha presentato
in passato ottimi dati sulle probabilità che ha il figlio di un operaio di entrare nella borghesia.
Ora non potrà certo chiedersi se chi viene dal gruppo “anziane sole e giovani disoccupati” può
passare alle “famiglie tradizionali di provincia” e da qui ai “giovani blu collar”.

Disuguaglianze all’interno dei gruppi

Il Rapporto evidenzia poi che gran parte delle diseguaglianze osservate fra gli appartenenti ai
nove gruppi è spiegata da disuguaglianze interne ai gruppi invece che tra gruppi. Tuttavia,
non prende il dato come prova della debolezza concettuale e metodologica del proprio
esercizio, ma lo utilizza come base della propria tesi della frammentazione sociale e della
sparizione delle classi.

L’analisi dell’Istat avrebbe potuto portare all’identificazione di un insieme discreto di livelli


complessivi di benessere (o malessere) socio-economico. A quel punto, però, sarebbe stato
necessario stabilire come questi livelli si distribuiscono entro le varie classi sociali o entro le
varie categorie occupazionali. Se le classi fossero risultate internamente molto disomogenee,
allora Istat avrebbe avuto un buon argomento per affermare che sono scomparse e non
costituiscono più la base della stratificazione sociale. Ma così come stanno le cose, l’Istat
finisce solo per contraddirsi una seconda volta.

Negli ultimi venti anni, gli istituti di ricerca privati hanno inondato i giornali di nuove, curiose
tipologie sulla società italiana, durate lo spazio di un mattino. Ci auguriamo che l’Istat, un
istituto pubblico con una lunga storia di serietà e di rigore, non voglia seguire la stessa
strada. Nella comunità scientifica europea, per analizzare la stratificazione sociale e i suoi
effetti, viene da tempo usato lo schema proposto dal sociologo inglese John Goldthorpe, assai
simile agli schemi che l’Istat ha seguito in passato. Non sappiamo se ora l’Istituto intenda
sostituirlo con il nuovo schema a nove gruppi che ci ha presentato. Se lo facesse sarebbe un
passo indietro, che renderebbe impossibile rigorose analisi comparate.

226